karminski-牙医 0 关注者 关注 2小时前 Qwen3-Next-80B-A3B 目前社区呼声非常高,由于激活参数非常小,因此本地部署运行效果非常不错。并且工具调用性能也可以。 但是!Qwen 这次没有给 llama.cpp 提供支持,估计社区从头实现这个新架构至少要几周时间。我估计 Qwen 也没想到会这么受欢迎,因此只适配了 MLX。 建议官方赶紧适配下 llama.cpp 毕竟这是个新架构,未来还会基于这个架构推出新模型。早晚要适 #Qwen3-Next-80B #本地部署 #llama.cpp不支持 #社区呼声高 #工具调用性能 前往原网页查看