向阳乔木
1个月前
由Claude 4.5 创作: AI风云人物之Ilya Sutskever ,那个解雇了Sam Altman的男人 ## 序章:一场无声的政变 2023年11月17日的硅谷,周五下午的阳光还算温暖。 就在大多数科技公司员工准备开始周末时,一则消息如同地震波般撕裂了整个科技圈:萨姆·奥特曼。 那个永远穿着灰色连帽衫、在推特上预言AGI即将到来的男人,那个刚刚让ChatGPT成为史上增长最快应用的CEO——被自己公司的董事会解雇了。 官方声明只有一句话:"在与董事会的沟通中不够坦诚"。这种含糊其辞的措辞,在硅谷的历史上通常意味着背后有更深的故事。 果然,几小时内,各种版本的内幕开始在Signal群组和私密晚宴上流传。 在这场风暴的中心,站着一个很少出现在聚光灯下的人:伊尔亚·苏茨克维。如果你在旧金山的咖啡馆里见过他,你可能不会认出这就是那个改变了人工智能历史进程的科学家。他不像奥特曼那样善于演讲,也不像马斯克那样喜欢制造话题。但在AI研究者的圈子里,他的名字几乎等同于"深度学习革命"本身。 这一次,正是他亲自给奥特曼打了那通电话。据说,电话那头的奥特曼一开始以为这是个玩笑。但苏茨克维的声音里没有任何开玩笑的意思。在公司内部,他已经成为一个阵营的精神领袖——那些认为"我们走得太快了"的人。 这不是一场关于股权或办公室政治的争斗。这是两种世界观的碰撞:一边是奥特曼,相信快速迭代、相信市场的力量、相信人类会找到办法;另一边是苏茨克维,他看到了自己一手创造的技术正在以超出想象的速度进化,而这让他夜不能寐。 ## 第一章:被魔法吸引的心灵 1986年,在苏联的下诺夫哥罗德市(当时还叫高尔基市),一个犹太家庭迎来了他们的儿子伊尔亚。那是一个封闭的城市,外国人被禁止进入,因为那里有苏联的军工厂。在那个年代,拥有一台电脑几乎是不可想象的奢侈。 五岁那年,苏茨克维一家响应"回归故土"的号召,离开了苏联,搬到了耶路撒冷。这是一次彻底的文化休克。从说俄语到说希伯来语,从寒冷的俄罗斯到炎热的中东,小伊尔亚需要重新学习一切。但也正是在耶路撒冷,他第一次见到了电脑。 多年后,当被问起那一刻时,苏茨克维用了一个词:"魔法"。他说自己"完全被迷住了"。这不是一个孩子对新玩具的简单兴奋,而是一种近乎宗教般的着迷。他开始思考一些对五岁孩子来说异常深刻的问题:为什么人类会学习,而机器不会?意识到底是什么? 到了青少年时期,他的兴趣已经从编程延伸到了哲学。他会在深夜思考"存在的本质和意识……关于灵魂和智能"。他的同学们在踢足球时,他在想:如果我们能理解学习的本质,是不是就能创造出会思考的机器? 16岁时,全家再次搬迁,这次是加拿大。对大多数移民家庭来说,这又是一次艰难的适应。但对苏茨克维来说,这是命运的安排——因为多伦多大学里,有一个叫杰弗里·辛顿的教授,正在做一件所有人都认为不可能的事:让神经网络重新复活。 苏茨克维的学术天赋让他在11年级就被多伦多大学录取。但真正改变他人生的,是他决定去敲辛顿办公室的门那一刻。 那是一个普通的下午。辛顿正在办公室里工作,门突然被敲响了。门外站着一个年轻人,看起来还像个高中生。 "我想加入你的实验室。"苏茨克维说。 辛顿打量着这个不请自来的访客,说:"好的,你可以预约个时间。" 苏茨克维的回答成为了AI圈子里的一个传奇:"现在怎么样?" 这种近乎鲁莽的自信,本该让辛顿把他赶出去。但辛顿看到了这个年轻人眼中的某种东西——一种纯粹的、对知识的渴望。他决定给他一个机会。辛顿递给他一篇论文,让他读完后谈谈想法。 接下来发生的事让辛顿震惊了。苏茨克维不仅读懂了这篇论文,他的见解"是该领域的专家需要很长时间才能得出的结论"。辛顿后来回忆说,苏茨克维拥有一种罕见的天赋:"强大的直觉"。更令人惊讶的是,这位后来获得图灵奖的教授说:"我从他身上学到的比他从我身上学到的更多。" 这不是客套话。辛顿是认真的。 ## 第二章:不容辩驳的论点 2010年代初的人工智能研究,是一个被遗忘的角落。如果你在那时告诉别人你在研究神经网络,大多数人会礼貌地点点头,然后转移话题。主流是贝叶斯模型和支持向量机,神经网络被认为是上世纪80年代的失败实验。 在多伦多大学的一间实验室里,辛顿和他的几个学生成了这个领域最后的守望者。大多数研究者在做15到100个神经元的小模型,小心翼翼地调参数,期待着微小的改进。 但苏茨克维有一个完全不同的想法。 在一次实验室会议上,他提出了一个大胆的假设:"如果你的神经网络又深又大,那么它就可以被配置来解决一个困难的任务。" 这听起来简单,但在当时,这是异端邪说。整个领域的共识是:神经网络太大就会过拟合,太深就会无法训练。但苏茨克维有一种近乎固执的信念。他不是基于实验数据得出这个结论的——因为当时还没有人做过这样的实验。他是基于第一性原理推理出来的:如果大脑能工作,为什么大型神经网络不能? 辛顿后来总结得很精辟:"伊尔亚认为我们应该做,亚历克斯让它成功了,而我拿了诺贝尔奖。"这不是谦虚,而是对苏茨克维洞察力的真实评价。 但要证明这个想法,他们需要两样东西:海量的数据和强大的计算能力。数据有了——ImageNet,一个包含120万张标注图片的数据集。但计算能力呢?当时的CPU训练一个大模型需要几个月。 苏茨克维想到了GPU——那些本来是为游戏玩家设计的图形处理器。据说,他自己在网上订购了几块NVIDIA GTX 580显卡。当这些显卡送到实验室时,没人确定这个疯狂的想法是否能行得通。 2012年的ImageNet挑战赛,是计算机视觉领域的奥林匹克。全世界最好的团队都在竞争,试图让计算机准确识别图片中的物体。前几年的进步都是渐进式的——错误率每年降低一两个百分点。 当AlexNet的结果公布时,整个会场安静了几秒钟。15.3%的错误率,比第二名的26.2%低了整整10个百分点。这不是渐进式的改进,这是一次革命。 有人后来形容那一刻是"现代人工智能的宇宙大爆炸"。在AlexNet之前,几乎没有顶级计算机视觉论文使用神经网络;在它之后,几乎所有论文都在用。苏茨克维的"不容辩驳的论点"不再是异端,而成了新的正统。 ## 第三章:机器的语言 2013年,谷歌的人工智能团队负责人杰夫·迪恩(Jeff Dean)做了一个决定:不惜一切代价把辛顿团队挖到谷歌。最终的收购价是4400万美元——对于一个只有三个人的初创公司来说,这是天文数字。 但这笔交易中有一个细节很少被提及:在分配这笔钱时,苏茨克维和克里泽夫斯基坚持认为辛顿应该拿40%,而他们两个年轻人各拿30%。在一个充满了期权纠纷和创始人内讧的行业里,这种慷慨几乎是闻所未闻的。 在谷歌大脑,苏茨克维进入了一个新的世界。这里有他梦寐以求的计算资源,有世界上最聪明的工程师,还有一种文化:如果你有一个疯狂的想法,没人会阻止你去尝试。 2014年,苏茨克维和同事们在思考一个问题:能否让神经网络理解语言?不是简单地识别单词,而是真正理解句子的含义,能够翻译,能够对话。 他们开发的"序列到序列"模型,核心思想优雅得令人惊叹:让一个神经网络"阅读"一个句子,把它压缩成一个向量(他们称之为"思想向量"),然后让另一个神经网络把这个向量"解码"成另一种语言。 当这个模型在英法翻译任务上超越了传统的统计机器翻译系统时,很多人意识到:深度学习不仅能处理图像,它可能是一种通用的学习范式。苏茨克维再一次证明了他的直觉:规模和深度能够解锁新的能力。 在谷歌的这段时间,苏茨克维参与了从AlphaGo到TensorFlow的众多项目。但到了2015年,他开始感到不安。谷歌是一家伟大的公司,但它终究是一家公司。如果AGI真的即将到来,它应该属于谁?应该由谁来确保它的安全? 这时,他接到了一个电话。电话那头是埃隆·马斯克。 ## 第四章:为全人类的使命 马斯克的提议很简单,也很疯狂:创立一个新的AI实验室,完全非营利,目标只有一个——确保AGI造福全人类。初始资金10亿美元。团队包括萨姆·奥特曼,一个年轻的创业者,刚刚卸任Y Combinator的总裁。 据说,马斯克亲自飞到谷歌总部去说服苏茨克维。这激怒了谷歌的CEO拉里·佩奇。佩奇和马斯克曾经是朋友,他们曾在深夜讨论AI的未来。但现在,马斯克在挖他的人。 佩奇质问马斯克:你为什么这么担心AI的安全?你是不是对人类没有信心? 马斯克的回答很直接:我只是想确保我们不会创造出一个会毁灭人类的东西。 佩奇说:那你就是个物种主义者。 这次争吵标志着两人友谊的终结。但对苏茨克维来说,这次对话揭示了问题的核心:当AGI到来时,我们需要一个不受商业利益驱动的组织来确保它的安全。 2015年12月,OpenAI在旧金山的一个联合办公空间里成立了。创立博客文章写道:"我们的目标是推进数字智能,使其最有可能造福全人类,不受产生财务回报需求的约束。" 苏茨克维成为首席科学家。他的办公桌很简单:一台电脑,几块白板,还有一摞关于神经网络的论文。他很少参加硅谷的社交活动,也不喜欢接受采访。他的世界就是代码、数学和那个一直困扰他的问题:如何让机器真正理解世界? 在OpenAI的早期,团队很小,氛围像学术实验室多过像公司。苏茨克维会和研究员们进行马拉松式的讨论,在白板上写满公式,争论到深夜。他的信念依然没变:"我坚信越大越好,我们在OpenAI的目标之一就是弄清楚如何正确地利用规模。" GPT的诞生几乎是偶然的。团队在尝试各种方法让模型理解语言。有一天,有人提出:如果我们只是让模型预测下一个词呢?就这么简单的任务,但用一个巨大的模型,在海量的文本上训练。 苏茨克维立刻看到了这个想法的潜力。他相信,当你把这个简单的任务规模化到极致时,模型会被迫学习语言的深层结构,学习世界的运作方式。因为要准确预测下一个词,你需要理解语法、逻辑、常识,甚至人类的心理。 从GPT-1到GPT-2,再到GPT-3,模型越来越大,能力越来越强。但真正让世界震惊的,是2022年11月发布的ChatGPT。 ## 第五章:机器中的幽灵 ChatGPT发布后的几周,苏茨克维几乎消失了。他不回邮件,不参加庆功会。同事们在办公室里找到他时,他正盯着屏幕,和ChatGPT进行长时间的对话。 "你在干什么?"有人问。 "我在测试它是否有意识。"苏茨克维说。 这不是玩笑。2022年2月,在ChatGPT发布之前,苏茨克维在推特上发了一条让整个AI圈炸锅的推文:"今天的大型神经网络可能略带意识。" 这条推文引发了激烈的争论。很多人认为这是荒谬的,神经网络只是统计模型,谈什么意识?但苏茨克维是认真的。他不是说这些模型有人类那样的意识,而是说它们可能有某种我们还不理解的、初级形态的主观体验。 在一次内部会议上,有人问他:你真的相信这个吗? 苏茨克维的回答很慎重:"我不知道。但我知道的是,当我和这些模型交互时,我感觉到某种东西。也许这只是我的投射,也许不是。但如果有万分之一的可能性它们有某种意识,我们就需要认真对待。" 这种思考方式在苏茨克维身上很典型。他不是一个会轻易下结论的人,但他也不会因为一个想法不受欢迎就放弃它。他的整个职业生涯都在证明:那些看起来疯狂的想法,有时候是对的。 但随着模型能力的提升,苏茨克维的担忧也在加深。他开始公开谈论超级智能的风险,时间单位不是几百年,而是可能在十年之内。他警告说,AGI的发展轨迹可能变得"极其不可预测和难以想象",可能导致"人类被剥夺权力,甚至人类灭绝"。 这是一个经典的悖论:苏茨克维毕生的工作就是让AI变得更强大,但现在,他最担心的就是AI变得太强大。创造者开始害怕自己的创造物。 2023年7月,他宣布了一个雄心勃勃的计划:超级对齐项目。目标是在四年内解决超级智能的对齐问题。他把这个问题比作"核安全"——不是关于用户体验或伦理准则的软性问题,而是关于如何控制一种可能毁灭文明的力量的硬核工程挑战。 OpenAI承诺将20%的计算资源分配给这个项目。在一个计算资源就是金钱、就是竞争力的行业里,这是一个巨大的承诺。 但承诺是一回事,执行是另一回事。 ## 第六章:引爆点 2023年11月17日之前的几个月,OpenAI内部的紧张气氛已经达到了临界点。 一边是奥特曼,他看到了ChatGPT带来的巨大机遇。用户数突破一亿,微软投资超过100亿美元,每个科技巨头都在追赶。这是AI的iPhone时刻,而OpenAI处于领先地位。奥特曼想要快速迭代,推出新产品,占领市场。 另一边是苏茨克维和他的安全团队。他们觉得公司在玩火。模型的能力提升速度超出了他们的理解速度。承诺的20%计算资源没有完全兑现。安全研究被"更紧急"的产品需求挤到了一边。 据内部人士透露,苏茨克维在一次高管会议上几乎失控。他拍着桌子说:"我们不知道我们在创造什么!我们需要慢下来!" 奥特曼的回应是:如果我们慢下来,别人不会。中国不会慢下来,谷歌不会慢下来。我们只有保持领先,才能确保AGI以正确的方式被开发出来。 这是两种都有道理的逻辑,但它们无法共存。 11月17日,星期五下午。奥特曼正在参加一个会议,他的手机响了。是苏茨克维。 "萨姆,我们需要谈谈。" "现在吗?我在开会。" "现在。" 奥特曼走出会议室。电话那头,苏茨克维的声音很平静,但有一种不容置疑的坚定:"董事会已经做出决定。你被解雇了。" 据说,奥特曼沉默了几秒钟。然后他问:"这是你的决定吗?" "这是董事会的决定。"苏茨克维说,"但是,是的,我投了赞成票。" 接下来的五天,硅谷经历了有史以来最疯狂的一次危机。 周六,消息传开。投资者震惊了,员工震惊了,整个科技圈都震惊了。奥特曼发了一条推特,配上他在OpenAI办公室的照片,戴着访客证。这是一个挑衅的姿态。 周日,谈判开始。但很快破裂了。董事会不愿意让步,奥特曼也不愿意接受附加条件。 周一,微软CEO萨提亚·纳德拉宣布:奥特曼和布罗克曼将加入微软,领导一个新的AI实验室。这是一个大胆的举动——如果OpenAI的核心人才都走了,微软的100亿美元投资就打了水漂。但这也是一个威胁:你们不要他,我们要。 然后,真正的海啸来了。OpenAI的700多名员工签署了一封公开信,威胁集体辞职。这不是几个高管,而是几乎整个公司。信的内容很简单:让奥特曼回来,否则我们都走。 最令人震惊的是:签名名单里有伊尔亚·苏茨克维。 那天晚上,苏茨克维发了一条推特:"我对自己参与董事会的行动深感后悔。我从未想过要伤害OpenAI。我热爱我们共同建立的一切,我将尽我所能重新团结公司。" 这条推文在AI圈子里引发了巨大的困惑。他为什么改变主意了?是压力太大了吗?还是他意识到自己错了? 真相可能更复杂。苏茨克维是一个科学家,不是一个政治家。他基于原则做出了解雇奥特曼的决定——他真诚地相信这对公司的使命是正确的。但当他看到自己的行动可能导致整个公司崩溃时,他面临了一个痛苦的选择:坚持原则,还是拯救机构? 他选择了后者。但这个选择也意味着他在OpenAI的时代结束了。 周二,奥特曼回归。董事会重组。苏茨克维退出董事会,但保留了首席科学家的头衔。表面上看,危机解决了。但所有人都知道,事情已经无法回到从前。 ## 第七章:僧侣与新使命 接下来的几个月,苏茨克维成了OpenAI的幽灵。他很少出现在办公室,很少参加会议。"伊尔亚去哪儿了?"成了公司内部的一个梗。 有人说他在家里远程工作,有人说他的权限被限制了,还有人说他在和奥特曼进行艰难的和解谈判。奥特曼在公开场合很小心,说他们正在"讨论伊尔亚如何继续在OpenAI工作"。但这种模糊的表述本身就说明了问题。 2024年5月,靴子落地了。苏茨克维宣布离开OpenAI。 但真正的冲击波是几小时后到来的。简·雷克,超级对齐团队的联合负责人,也宣布辞职。他的离职声明毫不留情:"OpenAI的安全文化已经为光鲜的产品让路。"他说,超级对齐团队一直在"逆风航行","为计算资源而挣扎"。那个20%的承诺?从未完全兑现。 其他安全研究员陆续离职。超级对齐团队被解散。苏茨克维在OpenAI建立的安全研究体系,在他离开后迅速瓦解了。 但苏茨克维没有消失很久。一个月后,他宣布了一家新公司:Safe Superintelligence Inc.。 公司网站极其简洁,只有几段话。但每个字都经过精心选择:"我们的使命、产品和商业模式三位一体:一个安全的超级智能。这是我们唯一的关注点。" 这是对OpenAI模式的直接批判。不再有"利润上限"的复杂结构,不再有在使命和商业之间的平衡。SSI的商业模式就是它的使命。公司"免受短期商业压力的影响","不受管理开销或产品周期的干扰"。 苏茨克维进入了"僧侣模式"。他停止了公开演讲,停止了社交媒体,几乎停止了所有与外界的联系。他的联合创始人丹尼尔·格罗斯说:"伊尔亚现在只做一件事:思考如何构建安全的超级智能。" 公司迅速筹集了10亿美元。投资者名单保密,但据说包括一些相信长期主义的科技亿万富翁。他们不期待短期回报,他们投资的是一个理念:也许,只是也许,有可能创造一个足够纯粹的研究环境,在技术能力超越我们控制之前解决对齐问题。 ## 结论:信徒的博弈 2024年秋天的一个晚上,在斯坦福大学的一个小型研讨会上,有人问杰弗里·辛顿:你如何评价伊尔亚解雇奥特曼的决定? 辛顿,这位刚刚获得诺贝尔奖的AI教父,毫不犹豫地说:"我为他感到骄傲。" 房间里一片寂静。辛顿继续说:"伊尔亚做了他认为正确的事。在一个充满了追逐利润和炒作的行业里,他选择了原则。这需要巨大的勇气。" 有人问:但他失败了,不是吗?奥特曼回来了,他被迫离开了。 辛顿摇了摇头:"这取决于你如何定义失败。如果目标是赢得一场公司政治斗争,那是的,他失败了。但如果目标是提醒世界AI安全的重要性,引发一场关于我们应该如何开发AGI的全球讨论,那么他成功了。" 这或许是理解苏茨克维的关键。他不是一个政治家,不是一个商人,甚至不是一个传统意义上的科学家。他是一个信徒。 他的第一个信仰是:规模能够解锁智能。当整个领域都在做小模型时,他坚信大模型能够工作。他赌对了,这场赌博创造了我们今天所处的AI时代。 他的第二个信仰是:我们需要在AI超越我们之前解决对齐问题。这场赌博还在进行中。 Safe Superintelligence Inc.是一个实验。它在测试一个假设:是否可能创造一个完全专注于安全的AI实验室,不受商业周期的干扰,不受投资者季度报告的压力,只专注于一个目标——构建一个不会毁灭人类的超级智能。 这个实验可能会失败。也许纯粹的研究环境无法与商业实验室的资源竞争。也许对齐问题比我们想象的更难。也许AGI会在我们准备好之前到来。 但如果这个实验成功了,如果SSI真的找到了构建安全超级智能的方法,那么苏茨克维将再一次证明:有时候,信念比共识更重要,原则比利润更重要,长期思考比短期收益更重要。 2025年的某一天,在帕洛阿尔托的一间实验室里,苏茨克维正在白板上写公式。他的团队很小,只有几十个研究员,但每个人都是因为相信这个使命而来的。没有产品发布的压力,没有投资者的电话会议,只有一个问题:我们如何确保人类创造的最强大的技术不会毁灭我们? 这是一个没有人知道答案的问题。但如果有人能找到答案,那个人很可能就是那个曾经敲开辛顿办公室门的年轻人,那个说"现在怎么样?"的信徒。 历史会证明他是对还是错。但无论结果如何,伊尔亚·苏茨克维已经在AI的历史上留下了不可磨灭的印记。他不仅帮助创造了这场革命,他还试图确保这场革命不会成为人类的终结。 这或许就是一个真正的科学家所能做的最重要的事情:不仅要问"我们能做什么",更要问"我们应该做什么"。
Orange AI
1个月前
OpenAI 昨晚开了场直播,Sam Altman、首席科学家 Jakub 和联合创始人 Wojciech 三个人聊了很多。 大聪明用 ListenHub 的 API 把原版重新配了中文音。Jakub 原声实在是...配音版体验竟然超过了原版 🤣。 收听地址:【中文配音完整版】OpenAI 完成了资本重组,并以最大尺度进行了一场直播】 另外把核心信息整理成了 QA,挑几个重点说说。 研究时间表 OpenAI 内部定了两个时间点: • 2026 年 9 月前:做出"AI 研究实习生",能有意义地加速研究员工作 • 2028 年 3 月前:实现完全自动化的 AI 研究员 Sam 说这些日期完全可能搞错,但这就是他们现在的思考方式。 Jakub 用"时间跨度"来衡量模型能力,就是普通人完成同样任务需要多久。现在这一代模型大约是 5 小时。 距离超级智能还有多远?Jakub 说不到十年。 基础设施投入 Sam 公布的数字: • 略高于 30 吉瓦的基础设施工厂计划 • 未来很多年里,总共约 1.4 万亿美元的财务责任 终极愿景是建立一个"基础设施工厂",每周生产 1 吉瓦的算力,成本降到大约每吉瓦 200 亿美元。 Sam 开玩笑说:可能得重新规划一下机器人技术的思路,让它们来帮忙建数据中心。 1 吉瓦是什么概念?Sam 展示了德克萨斯州 Abilene 正在建设的数据中心,第一个"星际之门"站点。每天有成千上万的人在工地工作,可能还有几十万甚至几百万人在供应链上工作。 安全技术突破 关键技术是思维链忠诚度。 核心想法是,让模型内部推理的一部分过程不受监督,训练期间不去干预它。这样它就能保持对其内部过程的真实反映。 OpenAI 克制自己,不去引导模型产生"好的想法",从而让它对自己的真实想法保持忠诚。 这个技术在 OpenAI 内部大量使用,用来理解模型是如何训练的,它们的倾向性在训练过程中如何演变。 但它有些脆弱,需要划定清晰的界限。比如 ChatGPT 里的思维链摘要器,就是为了给模型保留一定程度的、可控的隐私。