时政
财经
科技

#超长上下文

小互
小互
2025-04-28 02:28:04

兄弟们 这个牛P了 2800 tokens/s 啊😂 全球最快推理速度模型 不要眨眼↓ ChatDLM:全球首个扩散语言模型 (DLM) 即将开源 ChatDLM深度融合了 Block Diffusion 和 Mixture-of-Experts (MoE) 架构,实现了全球最快的推理速度。 同时支持131,072 tokens的超长上下文 它的工作原理是:将输入分成许多小块,同时

#ChatDLM#扩散语言模型#全球最快推理速度
karminski-牙医
karminski-牙医
2025-04-07 07:56:43

无了,昨天以为 llama-4 虽然写代码不行,但是1M-10M的超长上下文还能干点别的。 结果今天 Fiction.LiveBench 结果放出了。llama-4 在 1K 上下文召回(近似, 实际上这个分数是问题回答的正确率)就掉到60%以下了,甚至 llama-4-scout 超过16K只有22%。 顺带一提哈利波特与魔法石正好是16K左右。这意味着你把这本书塞进去,然后问哈利小时候生活

#llama-4#超长上下文#Fiction.LiveBench
没有更多了 🤐