𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
5天前
如果LLM语言模型有个cognition benchmark的话,LLM会有个meta cognition的分层。NTP上叠加的meta cognition约束层数越多的LLM智能benchmark分数越高。
野原新之栋 Sintone
1周前
codex: 准备阶段只产这玩意儿 AI 已经学会儿化音了,人类危⚠️
MemeInformation 🔔|AI First+ Crypto
2周前
我越来越认同李飞飞的观点。 LLM这条路线注定走不到AGI的终点。 因为语言模型的本质,是基于已有文本模式去预测下一个词,它擅长总结、续写、润色,也能模拟出看似合理的推理过程。但它始终只面对文本。 而我们生活的世界,不是词语拼接出来的。它有重量、有速度、有摩擦,遵循物理规律,充满空间感与动势变化。语言可以描述这一切,却无法真正感知或参与其中。 这也是LLM的核心局限。它理解的是语言中的世界
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
当你执着探索语言、LLM、智能和范式…