时政
财经
科技
虚拟货币
其他
登录
#不值得信任
关注
花叔
5小时前
2026年4月的第一周,AI行业同时发生了两件事。 纽约客发布了一篇针对Sam Altman长达18个月的调查报道,100多位信源、200多页内部文件,核心结论是:这个人可能不值得信任。同一周,当年因为不信任Altman而离开OpenAI创办Anthropic的Dario Amodei,宣布公司年化收入达到300亿美元,正式反超OpenAI。 一边是指控,一边是清算。而且两边的主角是同一个人。 或许你还记得,在并不遥远的2023年11月,Altman被OpenAI董事会解雇了五天,然后在微软的护驾下戏剧性地回归,整个硅谷为他鼓掌欢呼,仿佛迎接一个被冤枉的英雄凯旋。 两年半后的这一周,英雄凯旋的剧本好像演早了。 这篇由普利策奖得主Ronan Farrow和Andrew Marantz联合执笔的调查报告,标题直截了当——「Sam Altman可能掌控我们的未来,但他值得信任吗?」你说这是一篇人物特稿也好,说它是一份控诉书也行,但它最核心的发现其实只有一句话: Altman身边几乎所有曾经深度共事过的人,最终都得出了同一个结论——这个人说话不能信。 这不是一两个心怀怨恨的前员工在匿名吐槽。这是一条贯穿了他整个职业生涯的线索。 Loopt,他的第一家创业公司,高管要求董事会罢免他,理由是透明度问题。 Y Combinator,Paul Graham亲口说Sam一直在对我们撒谎,他在2019年被实质性逼退——尽管他后来对外宣称自己从未被开除。 OpenAI,Ilya Sutskever花了整整一个秋天编纂了一份52页的备忘录,用截图和通信记录列举Altman呈现出一种系统性的撒谎模式。Dario Amodei在OpenAI任职期间写了200多页笔记,最后得出的结论浓缩成一句话:OpenAI的问题就是Sam本人。 这两份文件此前从未曝光。但它们并不是什么新鲜的发现。它们只是给一个大家隐约知道但不愿直面的事实,补上了纸质证据。 有意思的不是这些指控本身。有意思的是这些指控之间的一致性。 一个人在一家公司被质疑诚信,你可以说是人际摩擦。两家公司,你可以说是运气不好。但从Loopt到YC到OpenAI,三个完全不同的组织、三批完全不同的合作者、跨越十年以上的时间跨度,最后给出的诊断结果几乎一模一样。这就不是人际摩擦了。这是临床症状。如果一个人走到哪里都踩到狗屎,也许该检查的不是鞋底,是他自己。 一位前董事会成员用了一个相当刺耳的词——他不受真相的约束。另一位说他对欺骗可能带来的后果有一种近乎反社会人格的漠视。Aaron Swartz在世时也说过类似的话。甚至连微软内部高管都私下评价:我觉得有一个不大但真实的可能性,他最终会被人们记住为麦道夫或SBF级别的骗子。 SBF。 这个名字在AI行业里出现,本身就值得停下来想一想。 但比撒谎更值得讨论的,是安全承诺的系统性背弃。 纽约客调查中最让人冷汗直冒的细节,不是什么耸人听闻的大阴谋,而是一个关于算力的数字:OpenAI承诺给超级对齐团队价值超过10亿美元的计算资源,四位内部人士证实实际只拿到了1-2%的算力,而且是最老旧的硬件。更好的硬件留给了盈利性产品。 1-2%。承诺十个亿,到手的连零头的零头都不到。这就好比你跟对象说今晚做满汉全席,最后端上来一碗泡面,还是过期的。 当记者向OpenAI询问其存在主义安全研究人员的情况时,OpenAI代表困惑地回了一句:这不是一个真实存在的岗位吧? 你承诺的团队拿不到资源,你承诺的资源喂给了赚钱的产品,最后你连这个岗位的名字都不认识了。这三连击,比任何外部批评都致命。 2019年,Altman还在以安全为由公开警告不能发布GPT-2。2026年,他把比GPT-2强大无数倍的模型免费开放给全世界。你问他为什么变了?他说AI变化极快,承诺也要跟着变。 这套逻辑妙就妙在,它把所有过去说过的话都变成了可回收垃圾。技术在变,所以承诺可以变。市场在变,所以底线可以变。竞争在加剧,所以安全可以让路。 前董事会成员说得对:这种变化本身可能就构成了欺骗。因为当你许下安全承诺的时候,你知道那些承诺是用来获取信任的筹码,而你同时也知道你迟早会以环境变了为由收回它们。 Dario Amodei看穿了这一点。他在OpenAI任职期间的笔记里记录了Altman多次背弃安全承诺的过程。微软在2019年的投资协议中获得了对一个叫merge and assist机制的否决权——这个机制本来要求OpenAI在其他公司安全地接近AGI时停止竞争。Amodei当面从合同中念出了这个被Altman否认存在的条款。他的笔记写道,这摧毁了OpenAI安全宪章80%的内容。 Amodei后来离开OpenAI,创办了Anthropic。这件事在当时被视为AI安全圈的一次理想主义出走——一个技术人离开了不信任的老板,去做自己认为正确的事。硅谷每年都有这种故事,大多数结局是悄悄消失。 但Amodei的结局不一样。 就在纽约客调查发布的同一周,Anthropic宣布年化收入达到300亿美元,反超了OpenAI的250亿美元。年增长率7倍,OpenAI是3.4倍。73%的企业新客户首选Anthropic。 你品一品这个时间线:一个人写了200多页笔记说Sam就是问题本身,然后辞职出走,然后他的公司收入超过了Sam的公司。与此同时,一篇18个月的调查报道把那些笔记公之于众。这两件事发生在同一周。 如果这是电视剧的剧本,编剧会被骂太假。但现实就是这么写的。 出来混,总要还的。只是还的方式有时候比预想的更魔幻现实主义——Amodei的200页笔记,最终不是被法庭采纳了,而是被市场验证了。 这件事里最安静的一方是微软。 作为OpenAI最大的投资者和合作伙伴,微软在纽约客的报道中只贡献了一条匿名评价——就是那条关于SBF的。姑且不论这条评价本身有多炸裂,更值得关注的是微软官方的沉默。你会发现,在所有关于Altman诚信问题的讨论中,微软始终保持着一种我在但我不说话的姿态。 这很微妙。微软投了超过130亿美元在OpenAI身上。如果Altman的诚信问题是假的,微软有充分的动力出来力挺。但微软没有。反过来,如果这些问题是真的,微软也不能公开表态,因为那等于承认自己投了130亿给一个不可信的人。 所以微软选择了沉默。沉默本身就是信息。 纽约客报道发布的同一天——4月6日——OpenAI发布了一份13页的政策文件,标题叫「智能时代的产业政策」,里面提议建立公共财富基金、缩短工作周之类的宏大愿景。卡内基国际和平基金会的研究员评价这份文件不过是公关话术,用来掩盖对监管的虚无主义态度。前参议院AI政策顾问说得更直接:里面提的大部分东西都不是新的。 同一天发两篇,你觉得是巧合?这就像一个被告在开庭当天宣布自己要给希望工程捐款——Gary Marcus认为那份政策报告就是转移注意力的策略。 但这恰恰暴露了一个更深层的问题。当一家公司被指控系统性欺骗的同一天,它的应对策略不是面对指控,而是发一篇关于人类美好未来的愿景文件。这不就是纽约客调查的核心发现吗?叙事覆盖现实,承诺替代行动。愿景文件本身,就是最好的证据。 截至4月7日,Altman本人尚未正式回应纽约客调查的具体指控。 这篇调查真正让人不安的地方,不是Altman可能在撒谎——硅谷创始人夸大其词并不罕见。让人不安的是这个问题的规模和后果。 我们讨论的不是一个社交App的创始人有没有虚报用户数据。我们讨论的是一个声称自己在建造AGI的人,是否值得信任来做关于人类安全的决策。正如Gary Marcus提出的那个问题:如果未来某个OpenAI模型可以制造大规模生物武器或网络攻击,你真的想让Altman单方面决定是否发布吗? Altman自己说了一句大实话:我的vibes和传统AI安全那套东西不太搭。 Vibes。 一个可能掌控人类未来的人,用vibes来形容自己和AI安全的关系。这就好比核电站站长说「我和辐射之间主要靠感觉」。 他还说OpenAI会继续做安全项目,或者至少做跟安全相关的项目。注意那个措辞的微妙降级:从安全到安全相关。就像从我爱你到我对你有一定程度的好感。 回头看2023年11月那场闹剧,整件事的讽刺在于:当时所有人都在问董事会为什么要解雇Altman,没有人认真问为什么要留住他。大家默认一个能融到钱、能做出ChatGPT的人,就一定是值得信任的人。 但融资能力和诚信是两回事。产品能力和安全承诺也是两回事。 纽约客这篇调查不会改变什么。Altman不会被再次解雇。OpenAI不会突然变成一家真正以安全为先的公司。但它至少做了一件事:把那些被叙事覆盖的事实重新摊在了桌面上。 剩下的问题是,在一个对AGI前景高度亢奋的市场里,有多少人愿意低头看一眼桌面? 毕竟vibes这么好,谁还看文件啊。Amodei看了,然后他赢了。
#Sam Altman
#不值得信任
#Dario Amodei
#Anthropic
#年化收入
#OpenAI
#反超
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞