2025-04-15 19:03:29
搞了这么久,Mac 32G内存最大只能跑14b的模型,64G能跑28b,128G是56b,最大512G可以跑200b 可是原模型大小有671b。。。 用本地小模型的人很快会发现,自己的模型效果为什么和API里serve的完全不一样? 所以,所谓deepseek模型特别快,所以可以跑终端的意义何在? 哪个模型的小版本不能跑终端? DeepSeek现在看起来,唯一的价值可能只剩,他们把fb8跑通了 🤣🤣🤣
2025-04-15 19:03:29
2025-04-14 17:42:40
2025-04-13 14:27:57
2025-04-12 09:28:51
2025-04-11 21:23:39