Feiteng

Feiteng

0 关注者

1个月前

Wan2.2 开放了 27B参数MoE激活14B 和 5B 两个模型版本,5B 版本既有效果又对24G显存消费端显卡友好! hf: github:

#wan2.2 #MoE #27B参数 #14B模型 #5B模型 #24G显存

相关新闻

placeholder

karminski-牙医

1个月前

就在刚刚 OpenAI 发布了两个开放权重模型! 给大家带来深度解析! gpt-oss-120b 激活参数量 5.1B gpt-oss-20b 激活参数量 3.6B 两个都是 MoE 架构的推理模型. 首先, 这两个模型发布的就已经是量化版本了, 他们的 MoE 层直接用 MXFP4 精度训练的! 这意味着暂时没有办法微调这两个模型了 (现有微调框架不支持, 得等等). 然后, 大家肯定

placeholder

Gorden Sun

1个月前

我感觉Wan 2.2没什么明显提升啊?就是用MoE提升了生成速度么?

placeholder

歸藏(guizang.ai)

1个月前

通义 wan2.2 视频模型要来了

关联事件

OpenAI新德里发布会:ChatGPT语音翻译功能引发热议

475

在新德里举行的活动中,OpenAI宣布即将推出o3-Pro模型,取代现有的o1-Pro模型,旨在提升ChatGPT的推理能力和功能。同时,OpenAI还发布了ChatGPT高级语音模式的升级,新增了自然停顿、重音处理、同理心表达和双向自动翻译等功能。这一更新已向所有付费用户开放,预计将进一步增强ChatGPT的用户体验和市场竞争力。随着用户基数的不断扩大,OpenAI的这些新功能引发了广泛关注,尤其是在人工智能语音交互领域的应用潜力。

© 2025 news.news. All rights reserved. 0.06846 秒. v1.0.46
我的评论