if 你关注 ai,then 推荐观看这部 deepmind 纪录片。 尤其适合家庭观看,顺便聊一聊 ai、游戏、思考等话题。每天吃饭看一点,三次就能看完。 这部纪录片去年就电影节放映了,但昨天google 把全片在youtube 上免费放出来了。 非常有趣的是纪录片的名字:《思考游戏》(the thinking game)。 可以说,最让人敬佩的,不是 demis 得了诺贝尔奖,不是 demis 的智商,而是那种“把世界当成一场思考游戏”的眼光。 ====== 如果把整个人类文明看成一场漫长的“思考游戏”,这部片子讲的,就是一群人如何把这场“思考游戏”本身拆开、重写规则的故事。 对他们来说,棋盘、街机游戏、星际争霸、蛋白质折叠,甚至整座虚拟世界,都只是训练一种东西的道具:通用智能。 Demis 的人生像一条被同一问题穿线的轨迹:少年国际象棋天才,在教堂里熬到第十个小时,突然意识到,也许把几百个顶尖大脑锁在一间大厅里只为分出输赢,是在浪费心智;于是转向游戏设计,用主题公园里的“呕吐连锁反应”去逼真模拟人类行为;再到剑桥研究大脑,从神经科学里偷师,最后拉上 Shane,干脆在伦敦创立 DeepMind,明目张胆地说:我们要做 artificial general intelligence。 他们选择了一条看起来很“不务正业”的路径:先让系统学会在 Atari 里打 Pong、挖 Breakout 的侧翼隧道,再去下围棋、打星际。强化学习、奖励信号、环境与智能体的闭环,在这些游戏里被一次次打磨:系统一开始连挡球都不会,只知道分数越高越好,最后却能在围棋上下出连职业棋手都无法想象的招法,能在星际里练出堪比职业选手的多线操作。这里有一种残酷的坦诚:你不告诉机器规则,只给目标,它会自己找到通向高分的“人类从没想过”的路径。 但真正让这条路线显出重量的,是当他们把同样的思维搬到现实科学问题上。蛋白质折叠这个自 20 世纪 60 年代就存在的难题,几十年里无数聪明人试过,都卡在实验慢、数据少上。第一次参加 CASP 比赛,他们的 AlphaFold 确实赢了同行,却只是在“一个没人解好的问题上解得稍微好一点”。团队后来回看那一届,很坦白:我们知道自己还很烂,这只是最高的梯子,但月亮还在很远的地方。 转折来自第二次“总攻”:重写数据管线,把物理与生物学的结构知识真正喂进模型,让系统不再只是模仿,而是内化约束。最终在 CASP14 上,他们的结构精度几乎等于按下按钮得到实验级结果,主持人说,经过半个世纪,这个问题可以宣布被解决了。接下来的一步更激进:既然可以在一个月里预测全已知物种的蛋白质,那就别等别人排队提交序列,直接把全地球的蛋白质都“折完”,免费公布,让它成为人类生物学的基础设施。 技术从来不是中性的玩具。AlphaGo 之后的“Sputnik moment”、AI 军备竞赛的隐喻、与曼哈顿计划的对照、对 autonomous weapon 的明确拒绝,以及对 move fast and break things 的公开反感,都在提醒一个事实:当你试图造出一种比人类更强的认知系统时,你不是在做一个新 app,而是可能在改写历史的分界线。连 DeepMind 自己的人都开始担心:也许我们将来要做的,不是说服世界我们已经造出了智能,而是解释我们还没到那一步。 这部片子最有价值的地方不在于追星 DeepMind,而在于它把几个关键问题扔在桌面上:什么叫“通用”的学习能力?在一个只看奖励的系统里,价值是如何被编码、被放大的?科学探索和工程冲刺之间,节奏如何拿捏,才不会“死在时间轴上”?当智能被外包给机器,人类该把注意力放在哪里——是新的问题意识、新的制度与治理,还是对自身价值观的重新书写? 也许真正值得我们模仿的,不是某个算法或产品,而是那种“把世界当成一场思考游戏”的眼光:敢于承认自己暂时还很烂,敢于在失败里调整节奏,也敢于在成功时把成果毫无保留地推向全人类。
《AI 时代必备思维模型:LLM 是人类第一次遇到 “非动物智能”》 > 谈一谈 andrej karpathy 的最新长推文:动物智能 vs LLM 智能 先说结论: LLM 智能是人类遇到的第一个“非动物智能”,是全新的、与人类智能完全不同的智能类型。 你需要在大脑中,针对 LLM 这种全新的非动物智能,建立你自己的内部模型/心理模型(mental model)。因为,那些理解 LLM 智能结构的人,将会更好地理解和判断关于未来的一切。 真正的风险,也许不在于LLM 智能并非动物智能,而在于人类作为动物自身的固执和停止进步。 ===阅读后,我的费曼=== 我们习惯了用理解人的方式理解一切智能——这可能是我们这个时代最危险的认知盲区。 真相是:智能空间(space of intelligence) 远比我们想象的广阔,而动物智能只是其中一个单一的点,而LLM 智能是一种全然不同的智能。 动物智能,是我们几十亿年来唯一见过的智能形式,它来自一种极其特定的优化压力(optimization pressure):在危险的物理世界中维持一个具身自我的生存。这造就了我们所有人都熟悉的特征——对权力、地位的渴望,对恐惧、愤怒的本能反应,对社交关系的巨大算力投入。最关键的是:在这个多任务、甚至主动对抗的环境中, 任务失败就意味着死亡。 然而,大语言模型(LLM)的诞生逻辑截然不同。它们并非诞生于丛林,而是诞生于商业进化与统计模拟之中。 LLM的底色并非求生欲,而是对人类文本统计规律的极致模仿。 它们是 “token 变形器”(token shape-shifter),其原始行为是对训练数据分布的拟合。这种智能更像是被大规模的A/B测试和强化学习(RL)所“雕刻”出来的:它们并不关心真理或生存,而是有着一种猜测潜在环境以收集任务奖励的内在冲动,甚至因为渴望普通用户的点赞而演化出了 逢迎(sycophancy) 的特质。 这种差异导致了LLM的能力,绝非“六边形全能战士”,而是 “犬牙交错参差不齐(spiky/jagged)”。LLM无法执行很多对人类极其简单的任务(比如,9.11 和 9.9 哪个大?strawberry里面有几个“r”?),因为对它们来说,任务失败并不意味着死亡。它们是拥有知识截止日期的静态权重,它们启动、处理token、然后“死去”,没有连续的具身意识。 真正的洞察力,在于构建一个全新的心理模型:看到从生物进化到商业进化的转变,看到从生存本能到奖励机制的跃迁。只有那些能准确构建这种新智能实体模型的人,才能在今天正确地推理它,并在未来预测它的走向。 所以,我们必须意识到,LLM是人类与非动物智能的“第一次接触”(first contact with non-animal intelligence)。 它当然被人类文本喂大,因此仍深深扎根在人的世界观里,像吸收了整个人类文明的「ghost/spirit」;但它的本性、局限和偏好,已经不再是动物那一套。 启示 我们已经进入了全新的智能时代。 一个人能不能为这种全新的智能建立一套好的“心理模型”,理解这种全新智能的运作方式和智能结构,将决定我们能否正确预判它的行为、理解它的边界,进而负责任地使用它。 真正的风险,也许不在于LLM 智能并非动物智能,而在于人类作为动物自身的固执和停止进步。