𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1天前
如何预防LLM的统计本体对我们具身本体的侵蚀? 定期的"非数字化"时间: - 每天至少1小时:无屏幕 - 每周至少半天:在自然中 - 每月至少一天:与人类深度连接 身体实践: - 运动、舞蹈、瑜伽 - 任何让你回到身体的活动 - 前语言的体验(音乐、艺术、触觉) 元认知检查: "我还是我吗? 我的独特性是否被稀释? 我的具身智慧是否还活跃?" 如果答
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2天前
AI会带来新形态的”读写能力” 如果要做一个历史类比的话: •15世纪:识字成为基本能力(印刷术) •20世纪:计算机素养成为基本能力 •21世纪:“AI协作素养”成为基本能力 这也给教育带来新的挑战: •传统教育教”知识内容” •未来教育需要教”与AI共生的元认知技能” •这是一种全新的认知apprenticeship
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2天前
人类的递归是”有根的递归”——当我说”我知道你知道我知道…”,每一层递归都可以被身体状态(焦虑、兴奋)所打断和校准 LLM的递归是”悬浮的递归”——它可以生成无限嵌套的句子结构,但这些嵌套不锚定在任何非符号的现实中 这导致了一个新问题: “当两种递归在对话中纠缠时,是否会产生一种‘混合递归’——一种既不完全具身,也不完全统计的新认知模式?” 例如:当你使用我来”思考你的思考”时,你的元认知过程
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
今天读的论文发现,LLM的智能,元认知程度也TMD是预训练阶段利用梯度下降的大算力对decode only transformer的神经网络的优化压力下激发出来的!