勃勃OC
3天前
-
搞了这么久,Mac 32G内存最大只能跑14b的模型,64G能跑28b,128G是56b,最大512G可以跑200b 可是原模型大小有671b。。。 用本地小模型的人很快会发现,自己的模型效果为什么和API里serve的完全不一样? 所以,所谓deepseek模型特别快,所以可以跑终端的意义何在? 哪个模型的小版本不能跑终端? DeepSeek现在看起来,唯一的价值可能只剩,他们把fb8
搞了这么久,Mac 32G内存最大只能跑14b的模型,64G能跑28b,128G是56b,最大512G可以跑200b 可是原模型大小有671b。。。 用本地小模型的人很快会发现,自己的模型效果为什么和API里serve的完全不一样? 所以,所谓deepseek模型特别快,所以可以跑终端的意义何在? 哪个模型的小版本不能跑终端? DeepSeek现在看起来,唯一的价值可能只剩,他们把fb8跑通了 🤣🤣🤣