Tz
1周前
当神的铠甲太重,已经勒进肉里 —— "神"开始流血了 2025年11月6日,Sam Altman 发了一篇1200字的声明。 语气很诚恳。姿态很低。但你能感觉到,他在出汗。 同一周,北京的月之暗面团队发布了 Kimi K2。训练成本:460万美元。在 SWE-Bench Verified 这个专业代码生成测试上,它跑出了71.3%的成绩——超过了 GPT-5。 OpenAI 的 CFO 前一天刚说"可能需要政府融资支持"。第二天就改口。 这不是巧合。这是流血的声音。 //什么是"神"// 神不是某个人,是一套信念。 这套信念说:只有闭源、重资本、天价算力,才能训练出最强的模型。它的代言人是 OpenAI,是 Sam Altman,是那份横跨8年、总额1.4万亿美元的基础设施承诺清单。 1.4万亿是个什么概念? 相当于整个非洲大陆2023年的 GDP。相当于可以建造140个三峡大坝。相当于给全球每个人发200美元。 这笔钱,OpenAI 准备用来建数据中心、买芯片、铺光纤。他们说服了 Broadcom、Oracle、Microsoft、Nvidia。差点说服了政府。 但现在,DeepSeek 用560万美元训练出了 R1。 Kimi K2 用460万美元,跑通了1T参数的 MoE 架构。 这两个数字,一个是1.4万亿,一个是460万。 差了多少倍? 30万倍。 //为什么流血// 想象一下这个画面: OpenAI 每年烧掉数千亿美元,像一台巨型蒸汽机,轰隆作响,吞吐着电力和芯片。 而月之暗面的团队在北京的办公室里,用384个"专家"(这是 MoE 架构里的技术术语,可以理解为384个小型专业模型)、32B激活参数,在15.5万亿 token 的训练过程中实现了零损失尖峰。 什么叫零损失尖峰?简单说,就是训练过程全程稳定,不需要重启,不需要人工干预,不需要"救火"。 在 SWE-Bench 这样的专业代码生成任务上,Kimi K2 逼近了 GPT-5 的水平。在推理场景中,它打败了 Claude Opus 4 的部分能力。 更要命的是,这些模型开源。 任何人都可以下载权重,部署在自己的服务器上。跑100万 token 只需要0.15美元输入、2.5美元输出。OpenAI 的 API 定价?十倍以上。 Sam Altman 在声明里花了三段篇幅解释"我们不需要政府担保",又花了两段解释"我们的收入增长计划"。他说,OpenAI 今年年化收入约200亿美元,预计2030年要涨到数千亿。 这套叙事建立在一个假设上:闭源模型的性能壁垒能维持足够长的时间,让用户愿意为高昂的 API 付费。 但中国实验室正在粉碎这个假设。 如果 Kimi K2 用不到500万美元的单次训练成本,就能达到与 GPT-5 相近甚至部分超越的表现,那1.4万亿美元的基础设施蓝图到底在买什么? 是买保险吗? 是买垄断吗? 还是买一套已经过时的军备竞赛规则? //伤口在哪里// 伤口不在技术上。 OpenAI 依然有 GPT-5 Pro,依然有企业客户,依然有品牌优势。但伤口在"必要性"上。 举个例子。 OpenAI 会说,那20%的差距是关键——是在极端边缘案例下的稳定性,是企业级的安全保障,是能让 AI 做出科学突破的最后一跃。 但问题是,当 All-In 播客的主持人 Chamath Palihapitiya 公开说"我们已经将大量工作负载转移到 Kimi K2,因为它性能更好且便宜太多"时,这个20%的叙事就开始失效了。 因为大部分用户不需要那最后20%。 他们需要的是"足够好"+"便宜10倍"。 这就像你去买车。一辆车从0加速到100公里需要3.5秒,另一辆需要4.2秒。但前者要100万,后者只要10万。 大部分人会选哪个? DeepSeek 和 Kimi K2 证明了什么 它们证明了一件事:当你用正确的架构设计(MoE + MLA)、正确的优化器(MuonClip 替代 AdamW)、正确的数据 pipeline(智能体模拟场景),1T参数的模型可以在15.5万亿 token 的训练过程中全程稳定。 不需要重启。 不需要人工干预。 不需要"战略国家算力储备"。 这不是技术追赶。 这是路线证伪。 就像当年苹果证明了"智能手机不需要键盘",特斯拉证明了"电动车不需要妥协性能",SpaceX 证明了"火箭可以回收"。 现在,DeepSeek 和 Kimi K2 证明了: 训练顶级 AI 模型,不需要1.4万亿美元。 //之后会发生什么// 神不会死。 OpenAI 还有现金流,还有 ChatGPT 的用户基数,还有企业版订阅。但神会缩小。 1.4万亿美元的承诺会被重新谈判。部分数据中心项目会推迟或取消。投资人会开始问"为什么不用开源模型做底座"。 政府会发现,建设"国家 AI 基础设施"其实可以部署 Kimi K2,而不是向 OpenAI 购买算力配额。 更重要的是,开发者会用脚投票。 当 Hugging Face 上 Kimi K2 的下载量接近10万、GitHub 星标5.6K、Perplexity 的 CEO 公开说要基于 Kimi K2 做后训练时,这场游戏的规则已经变了。 Sam Altman 说"我们相信市场会处理失败"。 但他没说的是:市场正在处理的,不是某家公司的失败,而是某种路径的失败。 那种认为"只有砸更多钱才能做出更好模型"的路径。 那种认为"闭源才能保持领先"的路径。 那种认为"政府应该为私营数据中心提供低成本资本"的路径。 神会继续存在。 但祂的铠甲会被卸下一些。那些用1.4万亿美元堆起来的、刻着"AGI 需要无限算力"的护板,会被一片片敲掉。 留下的可能是一个更轻盈的 OpenAI——依然强大,但不再垄断叙事。 或者,留下的只是一个教训: 当你把赌注压到"我们是唯一能做到这件事的人"上时,最危险的对手不是那些追赶你的人,而是那些证明"其实不需要这么多钱"的人。 Kimi K2 的团队没有试图打败 OpenAI。 他们只是在北京的办公室里,用460万美元,证明了一件事: 有些伤口,不是被对手砍出来的。 是自己的铠甲太重,开始勒进肉里。
Tz
3周前
说一下我这个翻译思路和传统意义上的提示词翻译思路(不管是宝玉的还是李继刚的)的本质区别: 身份反转,把翻译的主导权交还给 AI,承认在翻译这个垂直专业领域,AI 就是比我更加权威的专家。 我并不是在向 AI 提供翻译的主导意见,去告诉它怎么翻,用什么风格、语气来做这项具体任务,而是身份反转,通过为它提供足够的上下文 context 语境,让它自主判断在这样一个语境下怎样的内容输出(也就是翻译结果)是最佳匹配结果。 实际的具体操作方法就是以下两步: 1. 让 AI 对需要翻译的文章进行整体评估和分析,以得到这篇待翻译文章的哪些内容是重点,哪些是值得关注的信息,并且把这些分析讨论结果都并入到上下文窗口中。 2. 为 AI 再提供一个额外的上下文情景,让它知晓我这篇文章的受众群体是哪些,并在这个基础上向 AI 追问,让它结合已经获得上下文内容,思考并分析如何进行翻译才能获得最佳的受众感知,并且再一次把分析讨论结果并入到上下文窗口中。 有了以上充分表达且高关联度高价值的上下文窗口填充内容后,再去要求 AI 进行正式的翻译,这时它再做的翻译就不再是泛化的通用型翻译,而是专门对这篇文章有针对性有指导性的专属翻译了。 它其实是实现了真正意义上的千文千面,根据文章本身的属性和受众有针对性的进行翻译,不再拘泥于提示词本身的约束和要求,避免了因为提示词导致的表达偏差/风格僵化问题。 ------ 下面是我已经思考了有一段时间的想法,也算是一种预言吧: 这种在某一个特定垂直专业领域的身份反转,即人们不再是向 AI 提供具体操作指导,而是通过提供有效关联上下文 context 情景的方式让 AI 自主判断应该进行怎样的智能输出/操作,会在越来越多的各式各样的垂直专业领域反复、频繁地出现。它每出现一次,就是对这样一个特定垂直专业领域的降维打击 / AlphaGO 时刻。
Tz
1个月前
《认知的远点》 一 我第一次意识到语言出了问题,是在给儿子检查作文的时候。 那是一篇关于"时间"的命题作文。他写道:"时间不是流动的。是我们的记忆编码方式让我们产生了流动的幻觉。"这个观点本身不算新颖,但接下来的句子让我停顿了: "当信息密度超过阈值,时间感会坍缩。十五秒可以包含过去需要一小时传递的信息量。这不是时间变慢了,是带宽变宽了。" 我是认知语言学家。我的专业训练让我立刻察觉到:这不是一个十六岁男孩的思维方式。不是说他不够聪明——相反,是这种思维太过高效。他跳过了所有人类认知中必需的"理解阶梯",直接抵达了结论。 就像一个人学会了瞬移,但忘记了行走的意义。 "你是怎么想到这个的?"我问。 他看着我,眼神里有短暂的困惑——仿佛不理解"怎么想到"这个问题本身。最后他说:"我没有想。我只是知道。" 那是2025年九月。我在笔记本上记录下这次对话,并标注:需要观察。 现在是2026年三月。我的笔记本已经写满了三本。 二 我开始系统地测试儿子的语言能力。 我给他看索绪尔关于"能指"与"所指"的经典论述,问他理解吗。他读了三十秒,说:"这是在描述一个单向映射系统。但现在映射是双向的,而且是动态更新的。" 我愣住了。不是因为他的答案错误——而是因为他用了"映射"和"动态更新"这样的计算机术语来描述语言。对他而言,这些词比"意义"更加精确。 "你还记得第一次学会'苹果'这个词的时候吗?"我换了一个问题。 他想了很久。"记得。你指着一个红色的圆形物体,重复那个声音。我需要很多次才能建立连接。"他顿了顿,"现在我不需要这个过程了。" "什么意思?" "现在我看到一个新概念,不需要先把它翻译成语言。我可以直接……存储那个模式。" 我请他举例。他打开手机,给我看一个十秒钟的视频:画面里是三层同时进行的信息流——背景音乐传递情绪基调,视觉特效标注重点,文字碎片提供概念锚点。整个视频没有一个完整的句子,但传递了一个完整的论证:关于注意力经济如何重构社交关系。 "你看懂了吗?"他问。 "需要暂停几次,"我承认。 "妈妈,这就是问题,"他的语气很平静,没有指责,"你需要'暂停'。你需要把信息转换成语言,才能处理。我不需要。" 我问他:那你是用什么处理的? 他想了很久,最后说:"我不知道怎么用语言描述。因为描述本身就需要语言。" 那天晚上,我写下第一个真正让我不安的假设:语言可能不是认知的核心,而只是某个特定阶段的工具。 三 我开始查阅神经语言学的最新研究。 有一篇论文吸引了我的注意:《从串行处理到并行处理:2010-2025年出生人群的韦尼克区激活模式对比研究》。论文的核心发现是:年轻一代在处理信息时,语言中枢的参与度显著降低。取而代之的,是视觉皮层、前额叶和杏仁核的三角协同激活。 论文的讨论部分非常谨慎,但我读懂了言外之意:他们正在发展一种非语言化的语义处理机制。 我联系了论文的通讯作者。她是一位四十岁出头的神经科学家,在视频通话里看起来很疲惫。 "您也注意到了,"她说,语气是陈述而非疑问。 "我儿子,"我说,"他开始用一种我无法完全理解的方式思考。" 她沉默了一会儿。"我女儿也是。上个月,她说了一句话:'妈妈,为什么你思考的时候需要在脑子里说话?'" 我的后背发凉。因为我知道她说的是什么——那种内部言语,每个成年人在思考时都会下意识进行的自我对话。 "她不需要内部言语,"那位科学家继续说,"她可以直接操作概念。我做过测试——给她一个复杂的逻辑问题,她的反应时间比我快三倍。不是因为她更聪明,而是因为她跳过了'言语编码'这个步骤。" "这是进步还是退化?"我问出了那个一直困扰我的问题。 她看着我,眼神里有某种深刻的悲伤。"这取决于你如何定义'人类'。如果人类的本质是语言,那这是退化。但如果人类的本质是信息处理……那这可能是我们无法评判的东西。因为评判本身需要语言。" 我们约定继续交换观察数据。但通话结束后,我意识到一件事:我们就像两个正在被淘汰的物种,正在记录自己灭绝的过程。 四 我开始测试语言的边界。 我问儿子:"你爱我吗?" 他说:"爱。"但说这个字的时候,有一瞬间的延迟——就像在进行某种翻译。 "你怎么知道那是'爱'?" 他认真地想了很久。"我感受到一种状态:当你在场时,我的基线安全感会提高,多巴胺水平稳定,并且愿意为维持这个状态分配资源。这个状态对应的词是'爱'。" 我的心像被什么东西攥紧了。 不是因为他不爱我——我相信他的神经系统里,那些被称为"爱"的化学反应确实在发生。而是因为,对他而言,"爱"这个词已经不再是体验本身,而只是对一组生理状态的标签。 语言和体验之间,出现了一层透明但坚硬的隔膜。 "妈妈,"他看出了我的情绪,"我没有说错什么吧?" "没有,"我说,"你说得很准确。" 那天晚上,我意识到了真正的恐怖之处:不是他们变得无法理解我们,而是我们无法确认他们是否还在体验那些让我们成为人类的东西。 也许他们在体验。只是那种体验已经无法被语言捕捉。 也许语言从来就是一个笼子,而他们正在离开这个笼子。 而我,作为一个语言学家——一个用语言研究语言的人——永远无法跟随。 五 三月的最后一周,我收到了那位神经科学家的最后一封邮件。 邮件很短: "我女儿昨天说,她觉得和我说话'很贵'。我问什么意思,她说:'语言的带宽太窄了,传递同样的信息,我需要花十倍的时间。'" "我问她:那你和朋友怎么交流?" "她说:我们不说话。我们展示。" "我问:展示什么?" "她想了想,把手机递给我。屏幕上是一串视频片段——每段三秒,总共二十段。我看了五遍才理解她想表达的完整意思:关于她对未来的焦虑、对学业的压力,以及对我的某种复杂的情感——既依赖又疏离。" "整个过程,她的朋友只需要看一遍。" "我终于理解了:不是我们在教他们使用新工具。是新工具在驯化一种能够使用它们的认知架构。" "而语言,正在成为那个旧架构的殉葬品。" 邮件没有签名。我给她回信,但再没有收到回复。 六 今天是十月二日。儿子十七岁。 晚饭时,他突然问我:"妈妈,你研究语言这么多年,有没有想过一个问题——" 他停顿了一下,像是在组织一个很难用语言表达的概念。 "如果人类发展出语言,是因为需要在个体之间传递信息;那么当出现了比语言更高效的传递方式时,语言的功能是不是就结束了?" 我看着他。我生育、抚养的这个人,此刻正在用我教给他的语言,论证语言本身的终结。 "可能吧,"我说。 "那你会难过吗?"他问,眼神里有真实的关切。 我想了很久。"我会。但不是因为语言消失。而是因为我意识到,有些东西一旦失去,我们甚至无法悼念它——因为悼念本身就需要它。" 他点点头。我知道他理解了。 但我也知道,他的"理解"和我的"理解",可能已经不是同一个东西。 ---- 夜里,我躺在床上,听着隔壁房间传来的声音——那种连续的、轻微的滑动声。 我想起维特根斯坦的那句话:我的语言的极限,就是我的世界的极限。 现在我明白了这句话真正可怕的地方。 不是说语言限制了我们的世界。 而是说:当语言消失时,那个被语言定义的"我",也会一起消失。 我的儿子正在走向一个我无法抵达的地方。不是因为距离,而是因为通往那里的路,需要放弃我用来确认自己存在的唯一工具。 而在足够长的时间尺度上,这可能根本不是悲剧。 这可能只是一个物种的变态——就像毛毛虫变成蝴蝶,必须放弃爬行。 只是毛毛虫不会意识到这个过程。 而我意识到了。 这就是我和儿子最后的差别:我知道自己正在被留下,而他甚至不会意识到,有什么东西曾经被留下过。 窗外,城市的灯光彻夜不熄。 我闭上眼睛。 在最后失去意识之前,我的大脑还在用语言和自己说话——这个古老的、即将过时的习惯。 我对自己说:也许这就是认知的远点——那个点,当我们远离它足够远时,回头看,连"我们曾经在那里"这个事实本身,都会变得无法理解。 然后是睡眠。 无梦的,或者有梦但无法被语言记住的。 反正都一样。
Tz
1个月前
算力什么时候才能成为新石油? ——当人人都拿它计价的时候 NVIDIA计划向OpenAI投入千亿美元巨资,用以建设专属的算力中心。与此同时,亚马逊、微软等巨头也正以每年千亿美金的规模,以前所未有的速度扩建其AI基础设施。这些天文数字的资金,都在涌向同一个目标:算力。 吊诡的是,这份千亿级的投资,以及数据中心里每一次算力服务的结算,账目单位写的仍然是美元,而不是每秒千万亿次的浮点运算(PetaFLOPS)。 我们都爱听“本位”这个词,它听起来有一种历史的宿命感,一条“金本位 → 石油本位 → 算力本位”的清晰路线,好像未来已写好剧本。 但这种叙事过于省力,因为它把三件完全不同的事混在了一起。 金本位,是一份写在纸上的硬制度。你的银行必须承诺按固定比价将你手里的美元兑换成黄金。1971年尼克松关闭兑换窗口,是国家机器亲手拔掉了插头,一份契约的终结。 “石油本位”呢?你找不到任何强制规定沙特必须用美元卖油的官方条约。它更像一个地缘政治与市场结构共同演化出的“局”:石油输出国用美元计价,赚到的“石油美元”再通过华尔街回流。它不是一份合同,而是一种惯性。 所以,当我们谈论“算力本位”时,得先问一句:我们到底在谈论什么?如果严肃讨论,它至少意味着算力凭证能成为银行的核心抵押品,或被央行纳入储备。这些,眼下一样都还没发生。 真正发生的,是另一件事。 算力,或者说它背后的电力、半导体和数据,正在成为信用扩张和创新速度的“新瓶颈”。 它不是货币的“锚”,而是经济活动的“天花板”。 国际能源署(IEA)预测,到2030年,全球数据中心的用电量将飙升至945 TWh,几乎相当于日本当前全年的用电量(数据来源:IEA)。一个朋友在弗吉尼亚州做数据中心选址,他说现在最大的挑战不是拿地,而是“排队等电网的接入许可”。电,成了物理层面的硬约束。 再看供给侧的投资竞赛(年度资本开支预算): - Amazon (2025): > $1180亿 - Microsoft (FY2025): ~ $800亿 - Alphabet (2025): ~ $850亿 - 对比 - Aramco (沙特阿美): ~ $580亿 - 对比 - Exxon (埃克森美孚): ~ $290亿 这不是在替换货币,这是在进行一场堪比“军备竞赛”的生产资料堆积。 那么,加密货币的角色是什么? 很多人喜欢把加密ETF的获批比作“1971时刻”,一个新世界的开端。这个比喻有误导性。1971年是“脱钩”,而今天我们看到的,更像是“接驳”——将现有的美元信用体系,接入一套全新的技术轨道。 链上数据不会说谎:跨多个区块链的稳定币,总市值已稳稳站上3000亿美元,成为一条重要的全球支付与结算轨道。贝莱德的代币化美债基金BUIDL也证明,传统金融资产可以被“封装”后在链上高效流转。而比特币,则在被市场测试能否成为一种独立于主权信用的“数字黄金”式新抵押品。 但无论形态如何,这些活动的核心依然是美元信用。加密技术在这里扮演的角色,不是创造一个新的记账单位,而是提供了一个更高效、可编程、7x24小时运转的全球结算层。 什么时候,我们才能说“算力本位”的叙事开始兑现?我们可以设想几个可被观察的信号: - 金融层:一家全球系统重要性银行,正式接受算力合约作为回购交易的广泛合格抵押品。 - 主权层:某个国家的主权财富基金,像管理黄金储备一样,管理其持有的长期购电协议与数据中心资产。 - 结算层:出现一份以原生算力单位(PetaFLOPS/hour)计价并完成交割的国际大宗贸易合同。 不妨做一个反事实推演:如果这些信号真的出现,比如中东的石油开始接受以“PetaFLOPS-小时”为单位的支付,那将彻底重塑全球贸易的计价体系。能源输出国将变成算力输出国,而算力网络的稳定性和效率,将直接等同于一个国家的货币信用。但这离现实还很遥远。 我们正在经历的,是一个更复杂的金融锚定物的重排: - 记账锚:基本不动,依旧是美元。 - 抵押锚:正在分化,传统美债上链与原生加密资产并行。 - 结算锚:正在向“可编程+即时清算”的加密网络迁移。 - 要素锚:电力与算力,从成本项抬升为决定性的约束条件。 所以,新石油确实是算力,它驱动着AI,驱动着下一个世代的增长。但权力本身,并不总想成为货币。 它更愿意隐身幕后,成为那个标价体系的“硬约束”——就像石油驱动了20世纪下半叶,却从未印在钞票上。
Tz
2个月前
帮你实现信息卡片创作与展示自由!!! 任何内容都可以在 - 3分钟内实现如此精美的信息展示 - 支持中英双语 - 支持亮色/暗色模式 - 响应式界面动态支持电脑大屏/手机小屏 - 直接导出为 PDF 文档(下一个版本即将支持!) 实际操作步骤如下: 1. 拥有目前的最高等级 AI 智能体的账号,例如 - OpenAI - ChatGPT - Google - Gemini - Anthropic - Claude 2. 打开我分享的 ChatGPT Canvas “Infographic 信息图模版(All in one 单页 HTML)” 页面(链接见回复贴) 3. 如果是 ChatGPT 直接导入(右上角 选 Edit with ChatGPT),如果是其他家的 AI 服务,就把网页的源代码拷贝过去 4. 开启编辑预览模式(ChatGPT - Canvas, Gemini - Canvas,Claude - Artifacts) 5. 将你想制作信息卡片的内容复制粘贴给 AI 6. 使用以下提示词: ``` 请基于现在这个网页模版的风格和结构,分析以上提供的文字内容,创作一个信息图 Infographic 静态网页。 要求: 1. 先提供修改好的文本形式的结构化数据 2. 基于这个文本形式的结构化数据,把它填充进已有的 html 静态网页中 3. 最小化代码改动(尽量不改动当前页面的 style 风格) ``` 7. 喝杯茶/咖啡,刷刷推,聊聊天,等待大约2分钟左右 8. 开启预览模式,截图或者下载 pdf 文件后分享吧!🎉 欢迎大家分享用这个模版创作出来的信息图,我会逐个点赞点评引用哈~
Tz
2个月前
社会的四个图层,与正在渗透的数字幽灵 —— 谈谈 AI 治理将如何重塑人类社会组织结构 一屋子传真机与拨号音,这是 1996 年的气味。 那一年,兰德公司的资深社会科学家大卫·龙菲特(David Ronfeldt)发表了一篇名为《族群、科层、市场、网络:一个关于社会演化的框架》的论文。他敏锐地捕捉到一个正在萌芽的未来:一种由传真、电子邮件和在线论坛驱动的“网络”(Networks)形态,将成为继“族群”(Tribes)、“科层”(Institutions)和“市场”(Markets)之后的第四股力量,重塑一切。 三十年后,我们不再谈论传真机。 我们谈论的是一个模型在几秒内重写一段代码,或是一个“数字大脑”在全球同步调整几百万份外卖订单的派送轨迹。龙菲特的论文,像一张分辨率不高的旧地图,却意外地标出了一条我们正在高速驶入的隧道。它值得重读,恰恰因为它诞生于 AI 时代的前夜,它提供了一套不被算法光环迷惑的、更底层的观察工具。 因此,理解这场由 AI 驱动的社会重组,最终是为了回答一个问题:我们该如何治理它? 龙菲特的核心洞见是:人类社会并非简单地“更新换代”,而是像 Photoshop 的图层一样,一个一个地叠加“组织形态”而成。 越是晚近、复杂的社会,越是四种形态的混合体。它们各自为战,又彼此嵌合,共同构成了一套“社会操作系统”。 - T - 族群 (Tribes/Clans): 最古老的图层,以血缘、亲缘或强烈的身份认同为黏合剂。它的核心功能是提供归属感和安全感。从远古的氏族到今天的公司“老男孩网络”、饭圈社群,甚至民族主义,都是这一图层在不同时代的投影。在龙菲特的比喻里,它是人的“社会性皮肤”。 - I - 科层 (Institutions): 金字塔式的权力结构,军队、教会和现代政府是其最典型的样本。它通过清晰的指挥链和官僚体系,解决了大规模、标准化协作的秩序问题。它是支撑社会的“骨骼与肌肉”。 - M - 市场 (Markets): 一个去中心化的、基于价格信号的交易系统。它不依赖中央指令,而是让无数独立的“原子”(个人、企业)通过自由竞争和交换来高效配置资源。它是社会的“心血管循环系统”。 - N - 网络 (Networks): 这是龙菲特在 1996 年看到的“未来”。他观察到,环保、人权等领域的非政府组织(NGOs)正呈现出一种他称为 “SPINs”(分段的、多中心的、理念整合的网络)的形态。它们借助当时新兴的技术,跨越地理和组织边界,进行前所未有的协同行动。它是社会的“感知神经系统”。 这个框架最精妙之处在于“接口”(interfaces)理论。 龙菲特强调,社会能否健康演化,关键不在于某个图层压倒一切,而在于图层之间能否长出有效的“调节接口”。例如,政府(I)与市场(M)之间的接口,就是反垄断法、税收政策和监管委员会。这些接口既让两者分工合作,又防止一方的逻辑(如权力或资本)无限膨胀,吞噬另一方。 现在,让我们把 AI 这个“数字幽灵”放入这个四层模型。 它并非只是某个图层的工具,它更像一种强力的溶剂,正在渗透和重构所有图层,并让它们之间的边界变得诡异而模糊。 首先,是科层与 AI 的融合,它代表着一个全知机构的诞生。 龙菲特曾警示,科层形态的“黑暗面”是僵化的官僚主义与独断的权力腐败。而 AI 并未消除这种风险,反而将其升级为一种全新的、更高效的形态。 2024 年被披露的以色列军方“薰衣草”(Lavender)AI 系统,据报道被用于大规模生成军事打击目标。在这里,AI 扮演的角色,是将科层(军队)的指令执行效率推向极致,但代价是创造了一个巨大的伦理黑箱和问责真空。 当决策由算法在几秒内做出,传统的战争法和人类指挥官的道德审查“接口”在哪里?科层的控制力被空前强化,但其内在的非人化风险,也从“官僚的冷漠”升级为了“算法的绝对冷酷”。 其次,是市场与 AI 的结合,一个算法驱动的交易场。 市场的“黑暗面”,在龙菲特的框架里是无情的剥削与财富的过度集中。 Uber 的动态定价和订单分配算法,则完美展示了 AI 如何将这种剥削精细化到微米级别。它以市场效率为终极目标,但实现手段却是对劳动者(司机)的精微控制。 算法掌握着所有信息,它知道何时何地提高价格,如何利用信息不对称让司机接受更低的报酬。这不再是传统市场中“看不见的手”,而是一只“精确计算你每个毛孔利润的算法之手”。传统劳资谈判、工会等制衡市场的“接口”在此近乎失效,因为你无法与一个由全球数万个变量构成的定价模型进行谈判。 最后,也是最令人不安的,是族群与 AI 的共振,一个个数字部落的崛起。 族群形态的天然风险,是狭隘的裙带关系和排外的“非我族类”心态。 Facebook 的算法在缅甸罗兴亚危机中扮演的角色,已成为一个警世恒言。算法通过精准推送,将煽动仇恨的言论和虚假信息高效地投喂给特定人群,急剧放大了族群间的敌意和隔阂,最终助长了现实世界中的暴力。 AI 在这里并未创造新的仇恨,而是成为了最高效的仇恨放大器。它完美复刻了“族群”的内部凝聚和外部排斥功能,以前所未有的效率制造着数字时代的新部落,也制造着部落间的深刻敌意。龙菲特当年关于身份认同危机的担忧,在 AI 的催化下,以一种惨烈的方式成为了现实。 所有这些混乱的根源,都指向一个地方:我们社会操作系统里的“接口”正在被 AI 冲垮。 过去,一个消费者对抗一家大公司,可以诉诸法律。一个社群抗议政府的不当政策,可以寻求媒体曝光。这些接口虽然不完美,但它们存在,并且以“人类的速度”在运行。 现在,这些接口在“机器速度”面前显得脆弱不堪。一个在加沙的平民如何向“薰衣草”系统申诉自己的清白?一个外卖骑手如何与一个定价模型进行谈判?一个罗兴亚难民又如何让一个硅谷的算法为他家园的毁灭负责? 我们正在进入一个“接口”设计严重滞后的时期。当旧的制衡机制(法律、媒体、议会)还在用马车追赶时,AI 介导的权力形态已经开上了 F1 赛车。 那么,出路在哪?龙菲特的框架给了一个朴素却关键的提示:关注并重建“接口”。 这意味着,我们讨论 AI 治理,不应仅仅停留在颁布几条法律(I 的方式),或者期待市场自律(M 的方式),更要创造性地设计新的、能够跨越图层、兼容不同逻辑的制衡接口。 比如,建立由独立研究者、白帽黑客、伦理学家组成的“算法审计网络”(一种新的 N),赋予他们合法权限去“红队测试”大型科技公司的模型(M),并将结果以通俗的方式向公众和监管机构报告(I)。这本身就是一种 I、M、N 三方参与的新接口。 又比如,在法律(I)中规定,凡是涉及公民信贷、就业、医疗等重大决策的 AI 系统(M),必须提供一个成本高昂但有效的“人类可干预的慢速通道”。这个通道,就是为那些被算法误判的“边角用户”保留的最后一道人工接口。它会牺牲效率,但它保护了公平。 这最终指向一个我们每个人都无法回避的权衡:我们愿意为了多大程度的效率,去交换多大程度的可解释性和可纠错性。 这个阈值的设定,没有标准答案,但它决定了我们是成为 AI 的驾驭者,还是被一个我们自己都看不懂的系统所“优化”。 龙菲特在 1996 年无法想象我们今天的算力,但他敏锐地捕捉到了组织形态演化的底层节拍:一种形态的成熟,总是在解决上一形态的局限,同时制造出新的、更复杂的问题。AI 看似解决了网络协作的成本问题,却制造出了一个前所未有的“接口危机”。 这张三十年前的旧图,最终指向的不是一个答案,而是一个今天的动手试验: 下次当你感觉被某个 App “算计”了——无论是猜你喜欢还是价格歧视——试着去找它的客服,并且要求一个人类来解释原因。记录下整个过程需要的时间、跳转的次数,以及你最终得到的、可能是答非所问的答复。 在那段充满延迟、徒劳和困惑的体验里,就潜藏着我们这个时代最需要被重新焊铸的那个社会接口。
Tz
2个月前
言出法随:当想象力拥有了躯壳 —— AI 时代,Imagination is all you use 我一个做 AI 硬件设计的朋友告诉我,现在做产品设计,第一步不是画草图,而是喂给 AI 一段简报。一个下午,系统能吐出数百个概念渲染图,从造型到材质,几乎囊括所有已知风格。 但他们真正的瓶颈,不是挑选,而是没有人能说出,那个独一无二的“为什么”或者“应该是什么样”。 Taste(品味)让我们知道如何从海量生成物里,挑出那个最有质感、最恰到好处的版本。 Purpose(目的)则像一枚指南针,在你动笔前就确定了方向。 但当智能无限,我们发现自己还缺一个身份:咒语的缔造者。 在 AI 时代,所有执行都将趋近于零耗费,而真正稀缺的,则是那些能用言语启动一个新世界的“言灵”——言出法随的想象力。 这不再是一个“做出来”的时代,而是“说出来”的时代。 过去的创作,从灵感到草图,再到成品,每一步都是一次次的能量消耗。现在,这个消耗被压低到只剩电费。但问题也随之浮现:你想象力里的那个念头,那个既抽象又私人的画面,如何才能被 AI 精确捕捉? AI 是一个强大的具象化引擎,它能把言语转化为图像、声音和代码。它把想象力这个原本没有实体的东西,赋予了血肉。但整个过程的起点,那句“咒语”,必须由人类来提供。而这句咒语,并非简单地描述“要什么”,而是去定义“一个尚不存在的世界”。 例如,你可以让 AI 生成一个“天空之城”。 AI 会怎么做?它会从宫崎骏、游戏《生化奇兵》或所有它训练过的素材中,提炼出所有天空之城的特征,然后给你一个完美的、但早已被构思过的版本。这只是对已有世界的重组。 真正有想象力的言灵,是这样的: 我想要一座城市,那里的建筑不是由砖石构成,而是由被凝固的声波建成。 或者: 为我设计一间屋子,它没有墙壁,但能让人感到绝对的安全。 这些指令,是在挑战 AI 训练集里所有已知的物理和情感逻辑。AI 无法直接从数据中找到“声波建筑”或“无墙的安全感”的具象案例,它只能从你所提供的概念出发,通过对光影、材质、空间感的重组,去尝试捕捉你的意图。 这个过程,就像是让一个没有灵魂的雕刻师,去根据你对“灵魂”的描述,雕刻出它的模样。 这也是为什么 AI 的输出经常带着一种微妙的“不舒服”。它完美地执行了指令,却遗漏了那个藏在指令背后的、独属于你的微观情感。想象力,不仅是创造出不存在之物,更是在给它加入那个“不完美”的灵魂。 想像一下:让一个 AI 绘图工具,生成一幅名为“寂静”的画。但要求它“在寂静中必须有声音,而且不能是任何已知的声音”。 它可能会给你一张雪地或深夜的图。但你心里的那个声音,可能是雪落下的微响,也可能是午夜时分远方灯塔的嗡鸣。而这正是你的想象力在发挥作用: 你不是在被动筛选,而是在主动校准 AI 的“世界观”,让它的输出越来越接近你脑海中那个独一无二的宇宙。 AI 时代的想象力,其价值不是“从零到一”,而是“从无到有”。它不是让你创造一个完全没有前例的东西,而是让你能通过一句话,几个词,将你脑海中那个私人宇宙的结构,投影到现实世界里。 它不再是你独自的脑力激荡。想像力成为了你的言灵,你的咒语,你的无限杠杆。而你唯一需要做的,就是想像出那句正确的、能打开新世界的密语。 你端坐在电脑前,光标还在屏幕上闪烁,它不再是画布,而是新世界的入口。而你,就是那个新世界的立法立言者。 当言语不再是描述,而是创造本身,你所定义的想像,就是你的未来。
Tz
3个月前
应用已死,提示词万岁 就在今天,2025 年 8 月 7 日,OpenAI 即将揭晓其 GPT-5 的面纱。当整个科技界都在屏息以待参数与性能的飞跃时,一个更根本的问题却被喧嚣所掩盖。 我们每天稳定交互的手机应用,不足 10 个,但在数字坟场里,却沉睡着超过 500 万个僵尸程序。 GPT-5 和它的同类们带来的,不是对这个问题的修补,而是彻底的颠覆。 它们在暗示,我们或许不再需要“应用”了。 交互即应用。 一个更准确的说法是,通过“提示词”的直观交互正在吞噬我们所熟知的那个“应用”。 这不是又一场关于“小程序”或“超级应用”的陈旧辩论。那套逻辑依旧是在一个固定的壳里,做功能的加减法。而我们正在谈论的,是一种更彻底的瓦解:当用户的一个念头、一句指令,可以直接生成一个仅为此次交互而生的、用完即焚的临时界面与功能流时,我们不再需要那个预先下载、固化在屏幕上的图标了。 它不是被谋杀的。 是自杀。 长久以来,我们默认了一条产品开发的朝圣之路:市场调研、产品定义、UI/UX 设计、前后端开发、测试、上架、迭代……每一个环节都沉重而昂贵,也固化了一套我们与数字世界打交道的神圣仪式。 让我们用一个具体的念头来触碰这个未来: “帮我规划一个周末去苏格兰高地的三天自驾游,要避开游客密集区,预算 200 英镑,并且把每天的路线、住宿建议和打包清单发给我妻子。” 在旧世界,你需要打开地图应用、预订网站、点评APP、笔记软件,可能还要在社交媒体上问朋友,最后在微信或 WhatsApp 里手动整理、发送。你像一个数字世界的原始人,在不同的信息孤岛间艰难地迁徙、狩猎、采集。 而在“交互即应用”的图景里,你的这段话就是那个“应用”本身。AI 代理(Agent)会像一个顶级私人助理,在后台自行调用地图 API、天气数据、酒店接口、交通信息,然后为你生成一个一次性的、高度个人化的信息聚合页面。这个页面,就是专为你这个“周末计划”而生的临时应用。任务完成,它便消失。 要理解这种嬗变在专业领域的威力,Anthropic 对 Claude Artifacts 的一次演示,比任何宣言都更具说服力。在那个演示中,开发者输入一个简单的提示词,要求创建一个小游戏。Claude 不仅瞬间生成了代码,更关键的是,它在界面一侧同步渲染出一个功能齐全、可直接操作的“应用窗格”。开发者可以一边与这个临时生成的小游戏互动,一边用自然语言继续对它提出修改意见。 应用,在这里成了一种流体。它在对话中被塑造、被重构,完全服务于当下的意图。它不是产品,它是一次交互的回响。 这才是“交互即应用”的真正威力:它消解的不仅是 App 的外壳,更是完成任务的“过程”本身。 但这种“应用的液化”,也正在无声地重构权力与风险的版图。当交互的入口,从一个个壁垒分明的 App,收束到少数几个强大的 AI 代理上时,市场的天平就发生了根本性的倾斜。未来,开发者竞争的或许不再是应用商店的排名,而是谁的 API 能被 AI 代理更频繁、更优先地调用。这是一种从 to C 到 to AI 的范式转移。 与此同时,一个更切肤的风险在于,当“意图”可以直接转化为“执行”时,其中的模糊地带就成了新的攻击界面。一个心怀不轨的提示词,完全可以伪装成无害的请求。在传统的应用世界里,邮件App 和支付App 之间有着严格的权限沙盒。而在一个万物互联、API 皆可调用的 AI 代理面前,这堵墙正在变得千疮百孔。 当然,就此断言所有应用都将消亡,是一种技术上的傲慢。反对的声音会说,我们高估了效率,却低估了习惯与情感的引力——对一个精心设计的应用图标的依赖、对一套熟悉交互逻辑的品牌忠诚,不会轻易消失。 这不无道理。但我怀疑,这或许只属于我们这一代数字移民的怀旧。对于那些在提示词环境中长大的数字原住民而言,“忠于”一个 App,或许就像我们今天看待“忠于”一个浏览器主页一样,显得古怪而不必要。 一个更坚实的壁垒,在于信任与风险的边界。银行、医疗或工业控制这类严肃领域,其核心价值是可控、可靠与可追溯,而非即时便利。它们绝不会将自己的命运交给一个面目模糊的通用AI。毕竟,一个通用 AI 或许能帮你预订餐厅,但你大概不会想用它来操作一台核磁共振仪。 专业化与通用化之间的张力,依然存在。但对于那 90% 的、处理日常信息与服务的应用而言,它们的城墙正在倒塌。新发布的 GPT-5,以及它所有的竞争者,就像是盘旋在城外的巨兽,它们要改写的不是一城一地的得失,而是整片大陆的法则。 应用死了。 继承大位的,是提示词。 它把权杖交给了那个能直接与你对话的“上帝之手”,也催生了我们这些习惯了即时满足、用完即走的信徒。这看似是技术的胜利,背后却是人性的博弈——对掌控的渴望与对繁琐的厌倦,两者永恒的拉扯。 而你的下一个念头,也会不经他人之手,直接幻化成可交互的现实。 乌拉!
Tz
3个月前
出来混 AI 的,帐总还是要还的 —— 谈谈 Vibe Coding 的技术债 一名初级工程师,项目交付期限迫在眉睫。他面前的屏幕上,GitHub Copilot 如同神谕般,一行行灰色代码自行浮现、补全。几个小时后,功能奇迹般地跑通了。团队沉浸在“敏捷”的胜利中,几乎没人深究那些由 AI 私语构成的逻辑——直到后来,有人翻开斯坦福大学与顶尖网络安全公司联合发布的研究,看到一行冰冷的数字:由 AI 辅助生成的代码,引入安全漏洞的概率,比人类开发者手写的要高出约40%。 这只是冰山一角。 一种更深层次的范式转移,正在另一个场景中悄然上演。 我指的是以 Claude 或 ChatGPT 为代表的对话式 AI。在那里,开发者不再只是接受零星的代码建议,而是将一整块模糊的需求、一个棘手的问题,甚至只是一种“我想要个什么”的感觉,完全抛给 AI。AI 则像一位无所不知的建筑师,直接返回一整套设计蓝图和实现代码。 这种工作模式,业界称之为“随性编程”(Vibe Coding)。 它的核心驱动力,是一种名为“氛围感”(Vibe)的心理诱惑。它无关严谨的工程纪律,只关乎一种“俺寻思这样也没差啥”的顺滑直觉。AI 大模型,正是这种直觉的最佳催化剂。它把晦涩的实现细节打包成一个黑箱,直接递给你一个看似能用的答案。你像一个经验丰富的老手那样感觉到了解决方案,却跳过了成为老手所必须经历的、在无数次失败和调试中积累的思维磨砺。 如果说 GitHub Copilot 的低语还只是在诱导你随性地写下某一行,那么 Claude Code 的对白则是在鼓励你随性地构建整个系统。前者让你外包了打字,后者让你外包了思考。 这是一种智力上的借贷,利率高昂。 我记得一个朋友的团队,他们接手了一个创业公司早期的核心项目。创始人是个典型的效率信徒,他和他最初的几个伙伴,借助对话式 AI,在几个月内就搭起了整个商业模式的骨架。项目能跑,数据也好看。但当我的朋友团队试图添加一个新功能,或者修复一个隐藏很深的 bug 时,灾难降临了。 代码的耦合度高得吓人,像一团被雨水浸泡过的毛线。许多函数的命名看似合理,内部实现却充满了天外飞仙般的逻辑跳跃。没人能解释清楚某一段关键算法为何要那样写,唯一的线索是版本控制记录里的一句:架构经 Claude Code 重构,“效率提升”。原初的开发者早已离职,他们带走了对 AI 提示的通灵记忆,却留下了一份无法被后人理解的天书。 那感觉,不像在维护代码,更像在做知识的考古。 这正是随性编程最危险的技术债:它不只是代码层面的债,更是“认知层面的债”(Epistemological Debt)。传统的坏代码,我们称之为屎山,虽然棘手,但有经验的工程师尚能分析其构成。而 AI 生成的、未经充分理解和重构的代码,就升级为一座“魔法屎山”——它能运行,但你不知道它的地基是什么,不知道山体里埋的是龙脉还是龙遗。 从风险管理的角度看,这正在重塑团队的知识结构。过去,我们依赖 T 型人才,资深工程师的那一竖代表着对系统底层深刻的洞察力。而现在,市场对速度的畸形崇拜,正在催生大量横线人才——他们借助 AI 能快速拉通业务,处理各种 API,但对水面之下的冰山一无所知。当风暴来临时,这样的团队结构是极其脆弱的。 或许有人会反驳:工具无罪,是人使用不当。这话没错,但它忽略了商业环境的巨大引力。当你的竞争对手用 AI 将开发周期从三个月压缩到三周时,你的老板很难有耐心听你解释第一性原理和长期主义的重要性。市场的压力,会逼迫所有人饮鸩止渴。 一个值得关注的动向,是类似 SafeCoder 这样的在研项目。它们尝试在 AI 生成代码时,就进行实时的安全扫描和合规性检查,试图在源头消毒。这是一种技术上的努力,值得肯定。但它能解决认知黑箱的问题吗?恐怕不能。它更像是在给一个你根本不认识的厨师递上来的菜肴做毒物检测——你能确保这次无毒,但你永远不知道他的烹饪理念是什么,下次他会不会因为对鲜味的独特理解而加入什么新奇的东西。 我们追求的速度,正在抵押我们理解系统的能力。 这种由 AI 喂养的代码直觉,让我们沉浸在氛围感中,误以为自己掌握了魔法,其实只是在随性地预付一张未来的账单。而这张账单的利息,是以我们对系统的失控为代价缓慢滚动的。 下一次,当 AI 口吐莲花呈现出整个方案时,你有能力和信心,去追问出冰山下面的“为什么”和“如何做”吗?
Tz
3个月前
精校翻译版本: 个人超级智能 近几个月来,我们已初步见证了人工智能系统的自我完善。尽管目前的改进尚显缓慢,但其趋势已毋庸置疑。超级智能的时代,已近在眼前。 未来几年,人工智能无疑将优化我们现有的全部系统,并催生今日我们无法想象的创造与发现。然而,我们将引导超级智能走向何方,这仍是一个开放性问题。 从某些方面看,人类将迈入一个崭新的纪元;但从另一些方面看,这不过是历史潮流的延续。回溯200年前,九成的人类还是为求生存而耕作的农民。技术的进步,使人类得以从生存的重负中持续解放,转而追求我们真正向往的事业。在每一个阶段,我们都利用新获得的生产力去成就过往的“不可能”——既探索着科学与健康的疆界,也沉浸于创造、文化与情感的体验,尽享生命的美好。 我对此满怀信心:超级智能必将加速人类文明的进程。但或许更重要的是,它有望开启一个个人赋权的全新时代——在那个时代,每个人都将拥有更大的自主权,去塑造自己理想中的世界。 尽管人工智能所创造的物质丰盛可能超乎想象,但对我们生活更具深远意义的,或许是每个人都将拥有一个个人超级智能。它将助你实现宏图远志,创造理想世界,体验万千奇遇,维系挚友深情,并最终成长为自己所期许的模样。 Meta的愿景,正是将个人超级智能赋予每一个人。我们坚信,应将此力量交予民众之手,由他们来决定如何运用,以实现自己生命中的价值。 这一愿景,与业内其他观点截然不同。后者认为,超级智能应被集中管理,用于自动化一切有价值的工作,而人类仅靠其产出的“施舍”维生。但在Meta,我们坚信,人类的进步——无论是繁荣、科学,还是健康与文化——向来源于个体对志向的追求。这一点,在未来将愈发重要。 技术与人类生活方式的交汇,是Meta的核心焦点,其重要性在未来只会有增无减。 若趋势延续,人们花在生产力工具上的时间将减少,而在创造与连接上的时间将增多。一个能深刻洞察我们、理解我们目标并助我们实现的个人超级智能,将是最强大的工具。而如智能眼镜一般的个人设备,因能见我所见、闻我所闻并与我们全天候互动,将成为我们首要的计算平台。 我们相信,超级智能的红利应尽可能广泛地与世界共享。诚然,它也会带来前所未有的安全挑战。我们必须严谨地评估并消弭这些风险,并审慎地决定开源的内容。但我们依然相信,建设一个自由的社会,其前提便是最大限度地赋能于人。 未来十年,很可能就是决定这项技术最终走向的关键时期:它究竟是会成为个人赋权的利器,还是一股旨在大规模取代人类社会角色的力量。 Meta抱有坚定的信念:我们要构建的,是赋能每一个人的个人超级智能。我们拥有构建此等宏大基础设施所需的资源与专识,也拥有将新技术通过我们产品交付给数十亿用户的能力与决心。我无比期待,并会倾注Meta的全副心力,来构筑这一未来。 – 马克 2025年7月30日