2025-05-31 18:00:01
搞了这么久,Mac 32G内存最大只能跑14b的模型,64G能跑28b,128G是56b,最大512G可以跑200b 可是原模型大小有671b。。。 用本地小模型的人很快会发现,自己的模型效果为什么和API里serve的完全不一样? 所以,所谓deepseek模型特别快,所以可以跑终端的意义何在? 哪个模型的小版本不能跑终端? DeepSeek现在看起来,唯一的价值可能只剩,他们把fb8跑通了 🤣🤣🤣
2025-05-31 18:00:01
2025-05-31 16:23:00
2025-05-30 20:55:37
2025-05-30 20:26:24
2025-05-30 16:17:29