#合理化

宝玉
18小时前
这篇文章写的确实很好,借助 AI 帮忙解读一下(解读的很好,比直接翻译更容易看明白) 哈啰,大家好。 你是不是也经常在网上看到一些争论,感觉某一方说得天花乱坠、旁征博引,听起来“非常智能”,但你心里总有个疙瘩,觉得“哪儿不对劲”? 你感觉的没错。有时候,一个论点越是复杂、越是能“解释一切”,它就越可疑。 以太坊的创始人 V 神 (Vitalik Buterin) 最近就写了篇长文,专门讨论这个现象。他造了一个很棒的词,叫 “Galaxy Brain Resistance”。 “Galaxy Brain”就是那个从正常大脑一步步升级,最后变成全宇宙发光大脑的梗图。它常被用来讽刺那些过度思考、把简单问题搞得无比复杂,最后得出荒谬结论的“聪明人”。 所以,V 神说的 “防走火入魔指数” (Galaxy Brain Resistance),衡量的就是:一种思维方式或论点,到底有多难被滥用,来为你“想做的任何事”进行辩护? 这篇文章非常重要,因为它戳破了一个我们这个时代最大的迷思:我们总以为辩论是为了寻找真相,但 V 神一针见血地指出——在现实世界中,绝大多数花哨的论证,都不是在“推理”,而是在“合理化”。 什么意思? 意思是,很多人是先出于情感、直觉或自身利益(比如我持有了某个币,我讨厌某个群体)得出了一个结论,然后再反过来,调动自己的全部智力,去寻找那些听起来高大上的理由来支撑这个结论。 这种“先开枪,后画靶”的行为,就是“走火入魔”。而那些“低防指数”的论点,就是他们最爱的武器,因为它们是万金油,几乎可以用来为任何事情辩护。 V 神在文章里点名了几个最流行、也最危险的“低防指数”思维陷阱。我们来看看到底是怎么“忽悠”的。 陷阱一:“历史必然”的陷阱 > “这事儿早晚要发生,所以我们非但不能阻止,还应该加速它!” V 神举了个例子:硅谷的 AI 狂热分子。 他们会说:“经济的完全自动化是‘不可避免’的,人类劳动力注定要被淘汰。所以,我们现在就应该全力加速这个进程。” 听起来是不是很有道理?历史车轮滚滚向前嘛。 但 V 神提醒我们:这话是谁说的? 是那些正在全力研发 AI、并靠这个赚钱的公司说的。 这是一个典型的“低防指数”论点。它把一个(也许是)合理的远期预测(“最终会自动化”),偷换成了“所以我们现在就该加速它”。 这种论点为什么很糟糕? 1. 它让你放弃抵抗。 它暗示你的反抗毫无意义。但 V 神说,恰恰相反,当所有人都在说“你投降吧,这不可避免”时,这正是你的抵抗最有价值的时刻。 2. 它掩盖了其他选项。 事实并非只有“全力加速”和“关停”两个选项。我们本可以“专注于开发辅助人类、而不是取代人类的 AI”,给我们更多时间来安全过渡。 3. 它为私利服务。 “不可避免论”只是一个华丽的外衣,用来包装他们“追逐利润和权力”的真实动机。 陷阱二:“为了宏大未来”的陷阱 > “为了N年后的宏伟蓝图 / 为了N万亿的未来人口,我们现在必须……” V 神提到了一个词:“长期主义 (Longtermism)”。 首先要明确,V 神并不反对为长远考虑。修路、教育孩子、存钱养老,这些都是必要且正确的“长期主义”。 他反对的是那种被滥用了的、“走火入魔”版的长期主义。比如:“为了5亿年后可能会存在的四十万亿(!)人口的幸福,我们今天必须牺牲一切,去XXX。” 这个陷阱的要害在于:当一个目标被设定得极其遥远时,它就和“现实”脱钩了。 - 如果你说你的项目“下个季度能盈利”,那么下个季度大家就能看到结果,是真是假,一目了然。 - 但如果你说你的项目“在500年后能拯救世界”,谁能在500年后回来验证你呢? 这就导致了游戏的性质变了。 游戏不再是“比谁真的能创造长期价值”,而是“比谁在今天讲的那个‘长期故事’听起来最高大上”。 V 神举了两个绝妙的例子: 1. 低利率环境下的泡沫: 当利率很低时,钱不值钱,大家不关心短期回报,于是开始疯狂追逐各种“关于未来的叙事”,最后导致了泡沫和崩溃。(想想那些“为全球牙科行业打造的区块链方案”) 2. 政治上的“通往无处之桥”: 政客以“长远价值”为理由,申请巨额预算,去修一座根本没人用的大桥。 如何戳破这种陷阱?V 神给了一个准则:当一个行动有“可疑的长期利益”,但却有“可靠的短期(或长期)危害”时,那就别做。 陷阱三:“这伤害了社会/道德”的陷阱 > “这东西太恶心了 / 太不道德了 / 伤害了社会结构,必须禁止!” 很多人喜欢用政府的强制力,去管束别人私人的生活方式,仅仅因为他们“看不惯”。 比如,有人呼吁禁止合成肉,理由是:“真正的肉是上帝造的,人造肉是人造的……这违背了自然!” 但“我看不惯”这个理由太直白,所以他们会将其包装成一个“低防指数”的论点,比如: - “这会破坏我们的道德结构!” - “这会威胁社会稳定!” - “这是‘全球精英’强加给我们的!” V 神说,“社会道德结构”这个词太模糊了,模糊到你可以用它来反对任何你不喜欢的新事物。同性恋、新音乐、合成肉……都曾被扣上这个帽子。 V 神更倾向于一种温和的自由主义:你要想禁止一件事,你必须拿出一个清晰的证据,证明它对“明确的受害者”造成了“明确的伤害”。 如果你说不清楚谁受害了、受到了什么伤害,那你很可能只是在用高大上的词汇,来包装你的个人偏好(“我就是觉得恶心”)。 陷阱四:“这是为了穷人/阶层跨越”的陷阱 > “投机 / 赌博不是坏事,这是穷人实现阶层跨越的唯一希望!” 在加密货币(Crypto)领域,我们经常听到这种为高风险投机辩护的声音。 这个论点听起来非常高尚,充满了同情心,但 V 神认为它极度“走火入魔”。 为什么? 1. 它在数学上是错的。 赌场是零和游戏(甚至负和)。一个穷人进去,大概率是变得更穷。经济学的基础(效用曲线)告诉我们:输掉1万美元对一个穷人的打击,远远大于赢得1万美元给他的快乐。 这种高风险游戏是在“摧毁”阶层,而不是“提升”阶层。 2. 它动机不纯。 真正鼓吹这个论点的人,往往是谁?是那些已经很有钱,并且正在利用这个“高尚的理由”来吸引更多人(穷人)入场,以便自己出货套现的“聪明人”。 V 神在以太坊生态中,一直呼吁大家关注 “低风险 Defi”,而不是“好的 Defi”。 为什么用“低风险”这个词?因为 “低风险”是一个很难被滥用的标准,它有牙齿,风险高不高,数据一看便知。 但 “好” (Good) 这个词,就太容易“走火入魔”了。任何人都可以编造一个“银河大脑”级别的论证,来说明为什么他那个高风险赌场项目,其实对社会是“好”的。 陷阱五:“我在体制内能做更多”的陷阱 > “我加入这家(加速AI/腐败的)公司/政府,是为了从内部改变它。” 这是 V 神批评的最尖锐的一点,他称之为“I'm-doing-more-from-within-ism”。 在 AI 安全领域,很多人说:“我要加入那些最激进的 AI 公司,这样我才能在‘关键时刻’发挥影响力,确保 AI 安全。” 在现实政治中,也有很多人说:“我留在普京政府里,是为了用我的专业知识,减缓它对经济的破坏。”(V 神引用了《金融时报》对俄罗斯技术官僚的报道) V 神认为,这几乎是最低的“防走火入魔指数”。 1. 它为“同流合污”提供了完美的借口。 无论你实际上在做什么,你都可以宣称“我是为了从内部改变它”。 2. 它几乎总是自欺欺人。 现实是,你最终只是变成了那台机器上一个高效的齿轮,你所有的专业能力,客观上都成了“帮凶”,让你宣称要反对的机器运转得更顺畅了。 那么,我们该如何防止自己“走火入魔”? V 神给了两个非常务实的建议: 1. 坚守原则(而不是总想“算计后果”) V 神推崇一种“义务论”(Deontology)的道德观。 你不需要懂这个术语,它的意思很简单:给自己设定一些你绝不会打破的硬规矩。 比如:“我绝不偷窃”、“我绝不欺诈”、“我绝不杀害无辜者”。 为什么这很重要? 因为另一种“后果论”(“只要结果是好的,我就可以不择手段”)的思维方式,防走火入魔指数太低了! 我们的大脑太擅长“合理化”了。如果你信奉“后果论”,那么每当你遇到一个诱惑时(比如“这次偷窃能让我获利巨大”),你的“银河大脑”就会立刻启动,为你论证“为什么这一次偷窃,其实对全人类的长期福祉是有利的”。 你总能说服你自己。 坚硬的原则,就是你用来对抗自己“过度聪明”的防火墙。 2. 看清你“持有的口袋” (Hold the right bags) 在 Crypto 俚语里,“Bags”(口袋)指的是你持有的资产(你的“仓位”)。 V 神说,你的激励(你的仓位)和你的社交圈子(你的“社会口袋”),是塑造你思想最强大的力量。 - 你持有了某个币,你就很难客观看待它。 - 你身边所有朋友都在说 AI 很安全,你也很难真的相信 AI 有危险。 你不可能没有“口袋”(人总是需要激励和朋友的),但你至少可以: 1. 主动选择你的“口袋”。 远离那些会扭曲你判断的激励。 2. 多元化你的“口袋”。 尤其是你的社交圈。 这引出了 V 神给 AI 安全人士的最后两个建议,也是对他自己原则的践行: 1. 不要去那些正在加速研发“全自动前沿 AI”的公司工作。 (因为这会扭曲你的激励) 2. 不要住在旧金山湾区。 (因为那里的“社会口袋”太单一了) 总结 V 神的这篇文章,表面上是在谈 AI、Crypto 和政治,但实际上,它是在提供一个在复杂世界中保持清醒的通用指南。 最危险的论点,不是那些漏洞百出的,而是那些过于灵活、过于高大上、以至于可以为任何动机服务的“万能理由”。 真正的智慧,不是拥有一个能解释一切的“银河大脑”,而是懂得何时停止“聪明”的算计,回归到简单、坚固、难以被滥用的原则上来。