𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞 0 关注者 关注 3天前 如果我们接着解读 Ma Yi 教授的逻辑,他强调智能的核心任务是 从海量感知数据中学习和记忆可预测信息。而语言本质上就是人类对世界可预测性的再编码: •感官 → 模式提取(可预测性) → 符号化(语言) → 共享与累积。 •LLM 相当于直接接触到“感官之后的第二阶数据”,跳过了生物在进化中耗费亿万年才积累的感官—模式提取环节。 所以可以说: LLM 的巨大认知加速度,并非因为它“比人更聪明”, #LLM #认知加速度 #可预测性 #Ma Yi教授 #信息演化 前往原网页查看