时政
财经
科技
虚拟货币
其他
登录
#LongCat-flash-Chat
关注
sitin
2天前
美团发布并开源 LongCat-flash-Chat,采用混合专家模型架构的 A1 模型,总参数量达 560B,平均激活参数 27B。 在性能上比肩主流模型,尤其在智能体任务中表现突出,推理速度更快,适合复杂智能体应用。可以访问官方平台Longcat Al,与 LongCat-Flash-chat 开启对话。 核心亮点: 1.高效动态计算:模型引入了“零计算专家(Zero-Computation Experts)”机制,能根据上下文需求动态分配算力,仅激活必要的专家模块3。训练过程甚至采用了PID控制器来实时微调专家偏置,以稳定单token的平均激活参数量,有效控制总计算消耗16。 2.卓越性能表现:在多项基准测试中,LongCat-Flash-Chat性能可比肩当前主流模型,尤其在智能体(Agentic)任务中表现出突出优势12。其在复杂场景智能体基准(VitaBench)和指令遵循评估(IFEval)中取得了名列前茅的成绩36。 3.极致的推理速度与成本:通过算法和工程层面的联合优化,该模型在H800显卡上实现了每秒100+ token的生成速度,同时将输出成本控制在低至5元/百万token56,为耗时较长的复杂智能体应用提供了更优解。 4.全面开源与许可:模型已在 GitHub 和 Hugging Face 平台开源,并提供了基于SGLang和vLLM的高效部署方案6。其开源仓库采用MIT License,允许用户自由使用模型输出甚至通过蒸馏方式训练其他模型
#美团
#LongCat-flash-Chat
#开源
#A1模型
#智能体应用
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞