𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

0 关注者

1个月前

再听一下张小珺对zhilin的访谈,感觉KIMI在conversational阶段有点飘了,错过了推理阶段,现在在agentic阶段发力,期待在交互阶段和shunyu一较高下。

#张小珺 #zhilin #Kimi #conversational #Agentic

相关新闻

placeholder

ginobefun

14小时前

记录下这篇文章的阅读笔记,关于 MiniMax 和 Kimi 在大模型注意力机制上的不同技术路线选择。 1. MiniMax 选的:全注意力 (Full Attention) 这是一种蛮力但最扎实的办法。 它就像一个记忆力超群、但也最耗费精力的学生。当他读到小说第 500 页的某一个词时,为了彻底理解这个词,他会把这个词,和前面 499 页的每一个词,都重新对比一遍。 优点: 绝对的全面。他

placeholder

Mr Panda

2周前

张小珺这期和吴明辉口述19年历史的播客太上头了, 2个多小时,注意力都被这一期给收割走了。 这样的人, 活的太有张力了。

placeholder

10xMyLife

2周前

不得不说 kimi 还挺好用的

placeholder

马东锡 NLP

2周前

「TimeCopilot, LLM x TSFMs」 “ Who says time grows old in an instant,I copilot its seconds, predicting each to linger where I choose.” 谁说时间片刻变陈旧. 全为我分秒亦停留。 当语言模型结合时间序列模型。 TimeCopilot turns time-ser

placeholder

黑

3周前

今天是 Kimi 两岁生日,转发这条推…

© 2025 news.news. All rights reserved. 0.06811 秒. v1.0.46
我的评论