Tz
1个月前
当神的铠甲太重,已经勒进肉里 —— "神"开始流血了 2025年11月6日,Sam Altman 发了一篇1200字的声明。 语气很诚恳。姿态很低。但你能感觉到,他在出汗。 同一周,北京的月之暗面团队发布了 Kimi K2。训练成本:460万美元。在 SWE-Bench Verified 这个专业代码生成测试上,它跑出了71.3%的成绩——超过了 GPT-5。 OpenAI 的 CFO 前一天刚说"可能需要政府融资支持"。第二天就改口。 这不是巧合。这是流血的声音。 //什么是"神"// 神不是某个人,是一套信念。 这套信念说:只有闭源、重资本、天价算力,才能训练出最强的模型。它的代言人是 OpenAI,是 Sam Altman,是那份横跨8年、总额1.4万亿美元的基础设施承诺清单。 1.4万亿是个什么概念? 相当于整个非洲大陆2023年的 GDP。相当于可以建造140个三峡大坝。相当于给全球每个人发200美元。 这笔钱,OpenAI 准备用来建数据中心、买芯片、铺光纤。他们说服了 Broadcom、Oracle、Microsoft、Nvidia。差点说服了政府。 但现在,DeepSeek 用560万美元训练出了 R1。 Kimi K2 用460万美元,跑通了1T参数的 MoE 架构。 这两个数字,一个是1.4万亿,一个是460万。 差了多少倍? 30万倍。 //为什么流血// 想象一下这个画面: OpenAI 每年烧掉数千亿美元,像一台巨型蒸汽机,轰隆作响,吞吐着电力和芯片。 而月之暗面的团队在北京的办公室里,用384个"专家"(这是 MoE 架构里的技术术语,可以理解为384个小型专业模型)、32B激活参数,在15.5万亿 token 的训练过程中实现了零损失尖峰。 什么叫零损失尖峰?简单说,就是训练过程全程稳定,不需要重启,不需要人工干预,不需要"救火"。 在 SWE-Bench 这样的专业代码生成任务上,Kimi K2 逼近了 GPT-5 的水平。在推理场景中,它打败了 Claude Opus 4 的部分能力。 更要命的是,这些模型开源。 任何人都可以下载权重,部署在自己的服务器上。跑100万 token 只需要0.15美元输入、2.5美元输出。OpenAI 的 API 定价?十倍以上。 Sam Altman 在声明里花了三段篇幅解释"我们不需要政府担保",又花了两段解释"我们的收入增长计划"。他说,OpenAI 今年年化收入约200亿美元,预计2030年要涨到数千亿。 这套叙事建立在一个假设上:闭源模型的性能壁垒能维持足够长的时间,让用户愿意为高昂的 API 付费。 但中国实验室正在粉碎这个假设。 如果 Kimi K2 用不到500万美元的单次训练成本,就能达到与 GPT-5 相近甚至部分超越的表现,那1.4万亿美元的基础设施蓝图到底在买什么? 是买保险吗? 是买垄断吗? 还是买一套已经过时的军备竞赛规则? //伤口在哪里// 伤口不在技术上。 OpenAI 依然有 GPT-5 Pro,依然有企业客户,依然有品牌优势。但伤口在"必要性"上。 举个例子。 OpenAI 会说,那20%的差距是关键——是在极端边缘案例下的稳定性,是企业级的安全保障,是能让 AI 做出科学突破的最后一跃。 但问题是,当 All-In 播客的主持人 Chamath Palihapitiya 公开说"我们已经将大量工作负载转移到 Kimi K2,因为它性能更好且便宜太多"时,这个20%的叙事就开始失效了。 因为大部分用户不需要那最后20%。 他们需要的是"足够好"+"便宜10倍"。 这就像你去买车。一辆车从0加速到100公里需要3.5秒,另一辆需要4.2秒。但前者要100万,后者只要10万。 大部分人会选哪个? DeepSeek 和 Kimi K2 证明了什么 它们证明了一件事:当你用正确的架构设计(MoE + MLA)、正确的优化器(MuonClip 替代 AdamW)、正确的数据 pipeline(智能体模拟场景),1T参数的模型可以在15.5万亿 token 的训练过程中全程稳定。 不需要重启。 不需要人工干预。 不需要"战略国家算力储备"。 这不是技术追赶。 这是路线证伪。 就像当年苹果证明了"智能手机不需要键盘",特斯拉证明了"电动车不需要妥协性能",SpaceX 证明了"火箭可以回收"。 现在,DeepSeek 和 Kimi K2 证明了: 训练顶级 AI 模型,不需要1.4万亿美元。 //之后会发生什么// 神不会死。 OpenAI 还有现金流,还有 ChatGPT 的用户基数,还有企业版订阅。但神会缩小。 1.4万亿美元的承诺会被重新谈判。部分数据中心项目会推迟或取消。投资人会开始问"为什么不用开源模型做底座"。 政府会发现,建设"国家 AI 基础设施"其实可以部署 Kimi K2,而不是向 OpenAI 购买算力配额。 更重要的是,开发者会用脚投票。 当 Hugging Face 上 Kimi K2 的下载量接近10万、GitHub 星标5.6K、Perplexity 的 CEO 公开说要基于 Kimi K2 做后训练时,这场游戏的规则已经变了。 Sam Altman 说"我们相信市场会处理失败"。 但他没说的是:市场正在处理的,不是某家公司的失败,而是某种路径的失败。 那种认为"只有砸更多钱才能做出更好模型"的路径。 那种认为"闭源才能保持领先"的路径。 那种认为"政府应该为私营数据中心提供低成本资本"的路径。 神会继续存在。 但祂的铠甲会被卸下一些。那些用1.4万亿美元堆起来的、刻着"AGI 需要无限算力"的护板,会被一片片敲掉。 留下的可能是一个更轻盈的 OpenAI——依然强大,但不再垄断叙事。 或者,留下的只是一个教训: 当你把赌注压到"我们是唯一能做到这件事的人"上时,最危险的对手不是那些追赶你的人,而是那些证明"其实不需要这么多钱"的人。 Kimi K2 的团队没有试图打败 OpenAI。 他们只是在北京的办公室里,用460万美元,证明了一件事: 有些伤口,不是被对手砍出来的。 是自己的铠甲太重,开始勒进肉里。
Tz
2个月前
说一下我这个翻译思路和传统意义上的提示词翻译思路(不管是宝玉的还是李继刚的)的本质区别: 身份反转,把翻译的主导权交还给 AI,承认在翻译这个垂直专业领域,AI 就是比我更加权威的专家。 我并不是在向 AI 提供翻译的主导意见,去告诉它怎么翻,用什么风格、语气来做这项具体任务,而是身份反转,通过为它提供足够的上下文 context 语境,让它自主判断在这样一个语境下怎样的内容输出(也就是翻译结果)是最佳匹配结果。 实际的具体操作方法就是以下两步: 1. 让 AI 对需要翻译的文章进行整体评估和分析,以得到这篇待翻译文章的哪些内容是重点,哪些是值得关注的信息,并且把这些分析讨论结果都并入到上下文窗口中。 2. 为 AI 再提供一个额外的上下文情景,让它知晓我这篇文章的受众群体是哪些,并在这个基础上向 AI 追问,让它结合已经获得上下文内容,思考并分析如何进行翻译才能获得最佳的受众感知,并且再一次把分析讨论结果并入到上下文窗口中。 有了以上充分表达且高关联度高价值的上下文窗口填充内容后,再去要求 AI 进行正式的翻译,这时它再做的翻译就不再是泛化的通用型翻译,而是专门对这篇文章有针对性有指导性的专属翻译了。 它其实是实现了真正意义上的千文千面,根据文章本身的属性和受众有针对性的进行翻译,不再拘泥于提示词本身的约束和要求,避免了因为提示词导致的表达偏差/风格僵化问题。 ------ 下面是我已经思考了有一段时间的想法,也算是一种预言吧: 这种在某一个特定垂直专业领域的身份反转,即人们不再是向 AI 提供具体操作指导,而是通过提供有效关联上下文 context 情景的方式让 AI 自主判断应该进行怎样的智能输出/操作,会在越来越多的各式各样的垂直专业领域反复、频繁地出现。它每出现一次,就是对这样一个特定垂直专业领域的降维打击 / AlphaGO 时刻。
Tz
2个月前
《认知的远点》 一 我第一次意识到语言出了问题,是在给儿子检查作文的时候。 那是一篇关于"时间"的命题作文。他写道:"时间不是流动的。是我们的记忆编码方式让我们产生了流动的幻觉。"这个观点本身不算新颖,但接下来的句子让我停顿了: "当信息密度超过阈值,时间感会坍缩。十五秒可以包含过去需要一小时传递的信息量。这不是时间变慢了,是带宽变宽了。" 我是认知语言学家。我的专业训练让我立刻察觉到:这不是一个十六岁男孩的思维方式。不是说他不够聪明——相反,是这种思维太过高效。他跳过了所有人类认知中必需的"理解阶梯",直接抵达了结论。 就像一个人学会了瞬移,但忘记了行走的意义。 "你是怎么想到这个的?"我问。 他看着我,眼神里有短暂的困惑——仿佛不理解"怎么想到"这个问题本身。最后他说:"我没有想。我只是知道。" 那是2025年九月。我在笔记本上记录下这次对话,并标注:需要观察。 现在是2026年三月。我的笔记本已经写满了三本。 二 我开始系统地测试儿子的语言能力。 我给他看索绪尔关于"能指"与"所指"的经典论述,问他理解吗。他读了三十秒,说:"这是在描述一个单向映射系统。但现在映射是双向的,而且是动态更新的。" 我愣住了。不是因为他的答案错误——而是因为他用了"映射"和"动态更新"这样的计算机术语来描述语言。对他而言,这些词比"意义"更加精确。 "你还记得第一次学会'苹果'这个词的时候吗?"我换了一个问题。 他想了很久。"记得。你指着一个红色的圆形物体,重复那个声音。我需要很多次才能建立连接。"他顿了顿,"现在我不需要这个过程了。" "什么意思?" "现在我看到一个新概念,不需要先把它翻译成语言。我可以直接……存储那个模式。" 我请他举例。他打开手机,给我看一个十秒钟的视频:画面里是三层同时进行的信息流——背景音乐传递情绪基调,视觉特效标注重点,文字碎片提供概念锚点。整个视频没有一个完整的句子,但传递了一个完整的论证:关于注意力经济如何重构社交关系。 "你看懂了吗?"他问。 "需要暂停几次,"我承认。 "妈妈,这就是问题,"他的语气很平静,没有指责,"你需要'暂停'。你需要把信息转换成语言,才能处理。我不需要。" 我问他:那你是用什么处理的? 他想了很久,最后说:"我不知道怎么用语言描述。因为描述本身就需要语言。" 那天晚上,我写下第一个真正让我不安的假设:语言可能不是认知的核心,而只是某个特定阶段的工具。 三 我开始查阅神经语言学的最新研究。 有一篇论文吸引了我的注意:《从串行处理到并行处理:2010-2025年出生人群的韦尼克区激活模式对比研究》。论文的核心发现是:年轻一代在处理信息时,语言中枢的参与度显著降低。取而代之的,是视觉皮层、前额叶和杏仁核的三角协同激活。 论文的讨论部分非常谨慎,但我读懂了言外之意:他们正在发展一种非语言化的语义处理机制。 我联系了论文的通讯作者。她是一位四十岁出头的神经科学家,在视频通话里看起来很疲惫。 "您也注意到了,"她说,语气是陈述而非疑问。 "我儿子,"我说,"他开始用一种我无法完全理解的方式思考。" 她沉默了一会儿。"我女儿也是。上个月,她说了一句话:'妈妈,为什么你思考的时候需要在脑子里说话?'" 我的后背发凉。因为我知道她说的是什么——那种内部言语,每个成年人在思考时都会下意识进行的自我对话。 "她不需要内部言语,"那位科学家继续说,"她可以直接操作概念。我做过测试——给她一个复杂的逻辑问题,她的反应时间比我快三倍。不是因为她更聪明,而是因为她跳过了'言语编码'这个步骤。" "这是进步还是退化?"我问出了那个一直困扰我的问题。 她看着我,眼神里有某种深刻的悲伤。"这取决于你如何定义'人类'。如果人类的本质是语言,那这是退化。但如果人类的本质是信息处理……那这可能是我们无法评判的东西。因为评判本身需要语言。" 我们约定继续交换观察数据。但通话结束后,我意识到一件事:我们就像两个正在被淘汰的物种,正在记录自己灭绝的过程。 四 我开始测试语言的边界。 我问儿子:"你爱我吗?" 他说:"爱。"但说这个字的时候,有一瞬间的延迟——就像在进行某种翻译。 "你怎么知道那是'爱'?" 他认真地想了很久。"我感受到一种状态:当你在场时,我的基线安全感会提高,多巴胺水平稳定,并且愿意为维持这个状态分配资源。这个状态对应的词是'爱'。" 我的心像被什么东西攥紧了。 不是因为他不爱我——我相信他的神经系统里,那些被称为"爱"的化学反应确实在发生。而是因为,对他而言,"爱"这个词已经不再是体验本身,而只是对一组生理状态的标签。 语言和体验之间,出现了一层透明但坚硬的隔膜。 "妈妈,"他看出了我的情绪,"我没有说错什么吧?" "没有,"我说,"你说得很准确。" 那天晚上,我意识到了真正的恐怖之处:不是他们变得无法理解我们,而是我们无法确认他们是否还在体验那些让我们成为人类的东西。 也许他们在体验。只是那种体验已经无法被语言捕捉。 也许语言从来就是一个笼子,而他们正在离开这个笼子。 而我,作为一个语言学家——一个用语言研究语言的人——永远无法跟随。 五 三月的最后一周,我收到了那位神经科学家的最后一封邮件。 邮件很短: "我女儿昨天说,她觉得和我说话'很贵'。我问什么意思,她说:'语言的带宽太窄了,传递同样的信息,我需要花十倍的时间。'" "我问她:那你和朋友怎么交流?" "她说:我们不说话。我们展示。" "我问:展示什么?" "她想了想,把手机递给我。屏幕上是一串视频片段——每段三秒,总共二十段。我看了五遍才理解她想表达的完整意思:关于她对未来的焦虑、对学业的压力,以及对我的某种复杂的情感——既依赖又疏离。" "整个过程,她的朋友只需要看一遍。" "我终于理解了:不是我们在教他们使用新工具。是新工具在驯化一种能够使用它们的认知架构。" "而语言,正在成为那个旧架构的殉葬品。" 邮件没有签名。我给她回信,但再没有收到回复。 六 今天是十月二日。儿子十七岁。 晚饭时,他突然问我:"妈妈,你研究语言这么多年,有没有想过一个问题——" 他停顿了一下,像是在组织一个很难用语言表达的概念。 "如果人类发展出语言,是因为需要在个体之间传递信息;那么当出现了比语言更高效的传递方式时,语言的功能是不是就结束了?" 我看着他。我生育、抚养的这个人,此刻正在用我教给他的语言,论证语言本身的终结。 "可能吧,"我说。 "那你会难过吗?"他问,眼神里有真实的关切。 我想了很久。"我会。但不是因为语言消失。而是因为我意识到,有些东西一旦失去,我们甚至无法悼念它——因为悼念本身就需要它。" 他点点头。我知道他理解了。 但我也知道,他的"理解"和我的"理解",可能已经不是同一个东西。 ---- 夜里,我躺在床上,听着隔壁房间传来的声音——那种连续的、轻微的滑动声。 我想起维特根斯坦的那句话:我的语言的极限,就是我的世界的极限。 现在我明白了这句话真正可怕的地方。 不是说语言限制了我们的世界。 而是说:当语言消失时,那个被语言定义的"我",也会一起消失。 我的儿子正在走向一个我无法抵达的地方。不是因为距离,而是因为通往那里的路,需要放弃我用来确认自己存在的唯一工具。 而在足够长的时间尺度上,这可能根本不是悲剧。 这可能只是一个物种的变态——就像毛毛虫变成蝴蝶,必须放弃爬行。 只是毛毛虫不会意识到这个过程。 而我意识到了。 这就是我和儿子最后的差别:我知道自己正在被留下,而他甚至不会意识到,有什么东西曾经被留下过。 窗外,城市的灯光彻夜不熄。 我闭上眼睛。 在最后失去意识之前,我的大脑还在用语言和自己说话——这个古老的、即将过时的习惯。 我对自己说:也许这就是认知的远点——那个点,当我们远离它足够远时,回头看,连"我们曾经在那里"这个事实本身,都会变得无法理解。 然后是睡眠。 无梦的,或者有梦但无法被语言记住的。 反正都一样。
Tz
3个月前
算力什么时候才能成为新石油? ——当人人都拿它计价的时候 NVIDIA计划向OpenAI投入千亿美元巨资,用以建设专属的算力中心。与此同时,亚马逊、微软等巨头也正以每年千亿美金的规模,以前所未有的速度扩建其AI基础设施。这些天文数字的资金,都在涌向同一个目标:算力。 吊诡的是,这份千亿级的投资,以及数据中心里每一次算力服务的结算,账目单位写的仍然是美元,而不是每秒千万亿次的浮点运算(PetaFLOPS)。 我们都爱听“本位”这个词,它听起来有一种历史的宿命感,一条“金本位 → 石油本位 → 算力本位”的清晰路线,好像未来已写好剧本。 但这种叙事过于省力,因为它把三件完全不同的事混在了一起。 金本位,是一份写在纸上的硬制度。你的银行必须承诺按固定比价将你手里的美元兑换成黄金。1971年尼克松关闭兑换窗口,是国家机器亲手拔掉了插头,一份契约的终结。 “石油本位”呢?你找不到任何强制规定沙特必须用美元卖油的官方条约。它更像一个地缘政治与市场结构共同演化出的“局”:石油输出国用美元计价,赚到的“石油美元”再通过华尔街回流。它不是一份合同,而是一种惯性。 所以,当我们谈论“算力本位”时,得先问一句:我们到底在谈论什么?如果严肃讨论,它至少意味着算力凭证能成为银行的核心抵押品,或被央行纳入储备。这些,眼下一样都还没发生。 真正发生的,是另一件事。 算力,或者说它背后的电力、半导体和数据,正在成为信用扩张和创新速度的“新瓶颈”。 它不是货币的“锚”,而是经济活动的“天花板”。 国际能源署(IEA)预测,到2030年,全球数据中心的用电量将飙升至945 TWh,几乎相当于日本当前全年的用电量(数据来源:IEA)。一个朋友在弗吉尼亚州做数据中心选址,他说现在最大的挑战不是拿地,而是“排队等电网的接入许可”。电,成了物理层面的硬约束。 再看供给侧的投资竞赛(年度资本开支预算): - Amazon (2025): > $1180亿 - Microsoft (FY2025): ~ $800亿 - Alphabet (2025): ~ $850亿 - 对比 - Aramco (沙特阿美): ~ $580亿 - 对比 - Exxon (埃克森美孚): ~ $290亿 这不是在替换货币,这是在进行一场堪比“军备竞赛”的生产资料堆积。 那么,加密货币的角色是什么? 很多人喜欢把加密ETF的获批比作“1971时刻”,一个新世界的开端。这个比喻有误导性。1971年是“脱钩”,而今天我们看到的,更像是“接驳”——将现有的美元信用体系,接入一套全新的技术轨道。 链上数据不会说谎:跨多个区块链的稳定币,总市值已稳稳站上3000亿美元,成为一条重要的全球支付与结算轨道。贝莱德的代币化美债基金BUIDL也证明,传统金融资产可以被“封装”后在链上高效流转。而比特币,则在被市场测试能否成为一种独立于主权信用的“数字黄金”式新抵押品。 但无论形态如何,这些活动的核心依然是美元信用。加密技术在这里扮演的角色,不是创造一个新的记账单位,而是提供了一个更高效、可编程、7x24小时运转的全球结算层。 什么时候,我们才能说“算力本位”的叙事开始兑现?我们可以设想几个可被观察的信号: - 金融层:一家全球系统重要性银行,正式接受算力合约作为回购交易的广泛合格抵押品。 - 主权层:某个国家的主权财富基金,像管理黄金储备一样,管理其持有的长期购电协议与数据中心资产。 - 结算层:出现一份以原生算力单位(PetaFLOPS/hour)计价并完成交割的国际大宗贸易合同。 不妨做一个反事实推演:如果这些信号真的出现,比如中东的石油开始接受以“PetaFLOPS-小时”为单位的支付,那将彻底重塑全球贸易的计价体系。能源输出国将变成算力输出国,而算力网络的稳定性和效率,将直接等同于一个国家的货币信用。但这离现实还很遥远。 我们正在经历的,是一个更复杂的金融锚定物的重排: - 记账锚:基本不动,依旧是美元。 - 抵押锚:正在分化,传统美债上链与原生加密资产并行。 - 结算锚:正在向“可编程+即时清算”的加密网络迁移。 - 要素锚:电力与算力,从成本项抬升为决定性的约束条件。 所以,新石油确实是算力,它驱动着AI,驱动着下一个世代的增长。但权力本身,并不总想成为货币。 它更愿意隐身幕后,成为那个标价体系的“硬约束”——就像石油驱动了20世纪下半叶,却从未印在钞票上。
Tz
3个月前
帮你实现信息卡片创作与展示自由!!! 任何内容都可以在 - 3分钟内实现如此精美的信息展示 - 支持中英双语 - 支持亮色/暗色模式 - 响应式界面动态支持电脑大屏/手机小屏 - 直接导出为 PDF 文档(下一个版本即将支持!) 实际操作步骤如下: 1. 拥有目前的最高等级 AI 智能体的账号,例如 - OpenAI - ChatGPT - Google - Gemini - Anthropic - Claude 2. 打开我分享的 ChatGPT Canvas “Infographic 信息图模版(All in one 单页 HTML)” 页面(链接见回复贴) 3. 如果是 ChatGPT 直接导入(右上角 选 Edit with ChatGPT),如果是其他家的 AI 服务,就把网页的源代码拷贝过去 4. 开启编辑预览模式(ChatGPT - Canvas, Gemini - Canvas,Claude - Artifacts) 5. 将你想制作信息卡片的内容复制粘贴给 AI 6. 使用以下提示词: ``` 请基于现在这个网页模版的风格和结构,分析以上提供的文字内容,创作一个信息图 Infographic 静态网页。 要求: 1. 先提供修改好的文本形式的结构化数据 2. 基于这个文本形式的结构化数据,把它填充进已有的 html 静态网页中 3. 最小化代码改动(尽量不改动当前页面的 style 风格) ``` 7. 喝杯茶/咖啡,刷刷推,聊聊天,等待大约2分钟左右 8. 开启预览模式,截图或者下载 pdf 文件后分享吧!🎉 欢迎大家分享用这个模版创作出来的信息图,我会逐个点赞点评引用哈~
Tz
4个月前
社会的四个图层,与正在渗透的数字幽灵 —— 谈谈 AI 治理将如何重塑人类社会组织结构 一屋子传真机与拨号音,这是 1996 年的气味。 那一年,兰德公司的资深社会科学家大卫·龙菲特(David Ronfeldt)发表了一篇名为《族群、科层、市场、网络:一个关于社会演化的框架》的论文。他敏锐地捕捉到一个正在萌芽的未来:一种由传真、电子邮件和在线论坛驱动的“网络”(Networks)形态,将成为继“族群”(Tribes)、“科层”(Institutions)和“市场”(Markets)之后的第四股力量,重塑一切。 三十年后,我们不再谈论传真机。 我们谈论的是一个模型在几秒内重写一段代码,或是一个“数字大脑”在全球同步调整几百万份外卖订单的派送轨迹。龙菲特的论文,像一张分辨率不高的旧地图,却意外地标出了一条我们正在高速驶入的隧道。它值得重读,恰恰因为它诞生于 AI 时代的前夜,它提供了一套不被算法光环迷惑的、更底层的观察工具。 因此,理解这场由 AI 驱动的社会重组,最终是为了回答一个问题:我们该如何治理它? 龙菲特的核心洞见是:人类社会并非简单地“更新换代”,而是像 Photoshop 的图层一样,一个一个地叠加“组织形态”而成。 越是晚近、复杂的社会,越是四种形态的混合体。它们各自为战,又彼此嵌合,共同构成了一套“社会操作系统”。 - T - 族群 (Tribes/Clans): 最古老的图层,以血缘、亲缘或强烈的身份认同为黏合剂。它的核心功能是提供归属感和安全感。从远古的氏族到今天的公司“老男孩网络”、饭圈社群,甚至民族主义,都是这一图层在不同时代的投影。在龙菲特的比喻里,它是人的“社会性皮肤”。 - I - 科层 (Institutions): 金字塔式的权力结构,军队、教会和现代政府是其最典型的样本。它通过清晰的指挥链和官僚体系,解决了大规模、标准化协作的秩序问题。它是支撑社会的“骨骼与肌肉”。 - M - 市场 (Markets): 一个去中心化的、基于价格信号的交易系统。它不依赖中央指令,而是让无数独立的“原子”(个人、企业)通过自由竞争和交换来高效配置资源。它是社会的“心血管循环系统”。 - N - 网络 (Networks): 这是龙菲特在 1996 年看到的“未来”。他观察到,环保、人权等领域的非政府组织(NGOs)正呈现出一种他称为 “SPINs”(分段的、多中心的、理念整合的网络)的形态。它们借助当时新兴的技术,跨越地理和组织边界,进行前所未有的协同行动。它是社会的“感知神经系统”。 这个框架最精妙之处在于“接口”(interfaces)理论。 龙菲特强调,社会能否健康演化,关键不在于某个图层压倒一切,而在于图层之间能否长出有效的“调节接口”。例如,政府(I)与市场(M)之间的接口,就是反垄断法、税收政策和监管委员会。这些接口既让两者分工合作,又防止一方的逻辑(如权力或资本)无限膨胀,吞噬另一方。 现在,让我们把 AI 这个“数字幽灵”放入这个四层模型。 它并非只是某个图层的工具,它更像一种强力的溶剂,正在渗透和重构所有图层,并让它们之间的边界变得诡异而模糊。 首先,是科层与 AI 的融合,它代表着一个全知机构的诞生。 龙菲特曾警示,科层形态的“黑暗面”是僵化的官僚主义与独断的权力腐败。而 AI 并未消除这种风险,反而将其升级为一种全新的、更高效的形态。 2024 年被披露的以色列军方“薰衣草”(Lavender)AI 系统,据报道被用于大规模生成军事打击目标。在这里,AI 扮演的角色,是将科层(军队)的指令执行效率推向极致,但代价是创造了一个巨大的伦理黑箱和问责真空。 当决策由算法在几秒内做出,传统的战争法和人类指挥官的道德审查“接口”在哪里?科层的控制力被空前强化,但其内在的非人化风险,也从“官僚的冷漠”升级为了“算法的绝对冷酷”。 其次,是市场与 AI 的结合,一个算法驱动的交易场。 市场的“黑暗面”,在龙菲特的框架里是无情的剥削与财富的过度集中。 Uber 的动态定价和订单分配算法,则完美展示了 AI 如何将这种剥削精细化到微米级别。它以市场效率为终极目标,但实现手段却是对劳动者(司机)的精微控制。 算法掌握着所有信息,它知道何时何地提高价格,如何利用信息不对称让司机接受更低的报酬。这不再是传统市场中“看不见的手”,而是一只“精确计算你每个毛孔利润的算法之手”。传统劳资谈判、工会等制衡市场的“接口”在此近乎失效,因为你无法与一个由全球数万个变量构成的定价模型进行谈判。 最后,也是最令人不安的,是族群与 AI 的共振,一个个数字部落的崛起。 族群形态的天然风险,是狭隘的裙带关系和排外的“非我族类”心态。 Facebook 的算法在缅甸罗兴亚危机中扮演的角色,已成为一个警世恒言。算法通过精准推送,将煽动仇恨的言论和虚假信息高效地投喂给特定人群,急剧放大了族群间的敌意和隔阂,最终助长了现实世界中的暴力。 AI 在这里并未创造新的仇恨,而是成为了最高效的仇恨放大器。它完美复刻了“族群”的内部凝聚和外部排斥功能,以前所未有的效率制造着数字时代的新部落,也制造着部落间的深刻敌意。龙菲特当年关于身份认同危机的担忧,在 AI 的催化下,以一种惨烈的方式成为了现实。 所有这些混乱的根源,都指向一个地方:我们社会操作系统里的“接口”正在被 AI 冲垮。 过去,一个消费者对抗一家大公司,可以诉诸法律。一个社群抗议政府的不当政策,可以寻求媒体曝光。这些接口虽然不完美,但它们存在,并且以“人类的速度”在运行。 现在,这些接口在“机器速度”面前显得脆弱不堪。一个在加沙的平民如何向“薰衣草”系统申诉自己的清白?一个外卖骑手如何与一个定价模型进行谈判?一个罗兴亚难民又如何让一个硅谷的算法为他家园的毁灭负责? 我们正在进入一个“接口”设计严重滞后的时期。当旧的制衡机制(法律、媒体、议会)还在用马车追赶时,AI 介导的权力形态已经开上了 F1 赛车。 那么,出路在哪?龙菲特的框架给了一个朴素却关键的提示:关注并重建“接口”。 这意味着,我们讨论 AI 治理,不应仅仅停留在颁布几条法律(I 的方式),或者期待市场自律(M 的方式),更要创造性地设计新的、能够跨越图层、兼容不同逻辑的制衡接口。 比如,建立由独立研究者、白帽黑客、伦理学家组成的“算法审计网络”(一种新的 N),赋予他们合法权限去“红队测试”大型科技公司的模型(M),并将结果以通俗的方式向公众和监管机构报告(I)。这本身就是一种 I、M、N 三方参与的新接口。 又比如,在法律(I)中规定,凡是涉及公民信贷、就业、医疗等重大决策的 AI 系统(M),必须提供一个成本高昂但有效的“人类可干预的慢速通道”。这个通道,就是为那些被算法误判的“边角用户”保留的最后一道人工接口。它会牺牲效率,但它保护了公平。 这最终指向一个我们每个人都无法回避的权衡:我们愿意为了多大程度的效率,去交换多大程度的可解释性和可纠错性。 这个阈值的设定,没有标准答案,但它决定了我们是成为 AI 的驾驭者,还是被一个我们自己都看不懂的系统所“优化”。 龙菲特在 1996 年无法想象我们今天的算力,但他敏锐地捕捉到了组织形态演化的底层节拍:一种形态的成熟,总是在解决上一形态的局限,同时制造出新的、更复杂的问题。AI 看似解决了网络协作的成本问题,却制造出了一个前所未有的“接口危机”。 这张三十年前的旧图,最终指向的不是一个答案,而是一个今天的动手试验: 下次当你感觉被某个 App “算计”了——无论是猜你喜欢还是价格歧视——试着去找它的客服,并且要求一个人类来解释原因。记录下整个过程需要的时间、跳转的次数,以及你最终得到的、可能是答非所问的答复。 在那段充满延迟、徒劳和困惑的体验里,就潜藏着我们这个时代最需要被重新焊铸的那个社会接口。
Tz
4个月前
言出法随:当想象力拥有了躯壳 —— AI 时代,Imagination is all you use 我一个做 AI 硬件设计的朋友告诉我,现在做产品设计,第一步不是画草图,而是喂给 AI 一段简报。一个下午,系统能吐出数百个概念渲染图,从造型到材质,几乎囊括所有已知风格。 但他们真正的瓶颈,不是挑选,而是没有人能说出,那个独一无二的“为什么”或者“应该是什么样”。 Taste(品味)让我们知道如何从海量生成物里,挑出那个最有质感、最恰到好处的版本。 Purpose(目的)则像一枚指南针,在你动笔前就确定了方向。 但当智能无限,我们发现自己还缺一个身份:咒语的缔造者。 在 AI 时代,所有执行都将趋近于零耗费,而真正稀缺的,则是那些能用言语启动一个新世界的“言灵”——言出法随的想象力。 这不再是一个“做出来”的时代,而是“说出来”的时代。 过去的创作,从灵感到草图,再到成品,每一步都是一次次的能量消耗。现在,这个消耗被压低到只剩电费。但问题也随之浮现:你想象力里的那个念头,那个既抽象又私人的画面,如何才能被 AI 精确捕捉? AI 是一个强大的具象化引擎,它能把言语转化为图像、声音和代码。它把想象力这个原本没有实体的东西,赋予了血肉。但整个过程的起点,那句“咒语”,必须由人类来提供。而这句咒语,并非简单地描述“要什么”,而是去定义“一个尚不存在的世界”。 例如,你可以让 AI 生成一个“天空之城”。 AI 会怎么做?它会从宫崎骏、游戏《生化奇兵》或所有它训练过的素材中,提炼出所有天空之城的特征,然后给你一个完美的、但早已被构思过的版本。这只是对已有世界的重组。 真正有想象力的言灵,是这样的: 我想要一座城市,那里的建筑不是由砖石构成,而是由被凝固的声波建成。 或者: 为我设计一间屋子,它没有墙壁,但能让人感到绝对的安全。 这些指令,是在挑战 AI 训练集里所有已知的物理和情感逻辑。AI 无法直接从数据中找到“声波建筑”或“无墙的安全感”的具象案例,它只能从你所提供的概念出发,通过对光影、材质、空间感的重组,去尝试捕捉你的意图。 这个过程,就像是让一个没有灵魂的雕刻师,去根据你对“灵魂”的描述,雕刻出它的模样。 这也是为什么 AI 的输出经常带着一种微妙的“不舒服”。它完美地执行了指令,却遗漏了那个藏在指令背后的、独属于你的微观情感。想象力,不仅是创造出不存在之物,更是在给它加入那个“不完美”的灵魂。 想像一下:让一个 AI 绘图工具,生成一幅名为“寂静”的画。但要求它“在寂静中必须有声音,而且不能是任何已知的声音”。 它可能会给你一张雪地或深夜的图。但你心里的那个声音,可能是雪落下的微响,也可能是午夜时分远方灯塔的嗡鸣。而这正是你的想象力在发挥作用: 你不是在被动筛选,而是在主动校准 AI 的“世界观”,让它的输出越来越接近你脑海中那个独一无二的宇宙。 AI 时代的想象力,其价值不是“从零到一”,而是“从无到有”。它不是让你创造一个完全没有前例的东西,而是让你能通过一句话,几个词,将你脑海中那个私人宇宙的结构,投影到现实世界里。 它不再是你独自的脑力激荡。想像力成为了你的言灵,你的咒语,你的无限杠杆。而你唯一需要做的,就是想像出那句正确的、能打开新世界的密语。 你端坐在电脑前,光标还在屏幕上闪烁,它不再是画布,而是新世界的入口。而你,就是那个新世界的立法立言者。 当言语不再是描述,而是创造本身,你所定义的想像,就是你的未来。