时政
财经
科技
虚拟货币
其他
登录
#llama.cpp不支持
关注
karminski-牙医
3小时前
Qwen3-Next-80B-A3B 目前社区呼声非常高,由于激活参数非常小,因此本地部署运行效果非常不错。并且工具调用性能也可以。 但是!Qwen 这次没有给 llama.cpp 提供支持,估计社区从头实现这个新架构至少要几周时间。我估计 Qwen 也没想到会这么受欢迎,因此只适配了 MLX。 建议官方赶紧适配下 llama.cpp 毕竟这是个新架构,未来还会基于这个架构推出新模型。早晚要适配的。
#Qwen3-Next-80B
#本地部署
#llama.cpp不支持
#社区呼声高
#工具调用性能
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞