Tz
3个月前
算力什么时候才能成为新石油? ——当人人都拿它计价的时候 NVIDIA计划向OpenAI投入千亿美元巨资,用以建设专属的算力中心。与此同时,亚马逊、微软等巨头也正以每年千亿美金的规模,以前所未有的速度扩建其AI基础设施。这些天文数字的资金,都在涌向同一个目标:算力。 吊诡的是,这份千亿级的投资,以及数据中心里每一次算力服务的结算,账目单位写的仍然是美元,而不是每秒千万亿次的浮点运算(PetaFLOPS)。 我们都爱听“本位”这个词,它听起来有一种历史的宿命感,一条“金本位 → 石油本位 → 算力本位”的清晰路线,好像未来已写好剧本。 但这种叙事过于省力,因为它把三件完全不同的事混在了一起。 金本位,是一份写在纸上的硬制度。你的银行必须承诺按固定比价将你手里的美元兑换成黄金。1971年尼克松关闭兑换窗口,是国家机器亲手拔掉了插头,一份契约的终结。 “石油本位”呢?你找不到任何强制规定沙特必须用美元卖油的官方条约。它更像一个地缘政治与市场结构共同演化出的“局”:石油输出国用美元计价,赚到的“石油美元”再通过华尔街回流。它不是一份合同,而是一种惯性。 所以,当我们谈论“算力本位”时,得先问一句:我们到底在谈论什么?如果严肃讨论,它至少意味着算力凭证能成为银行的核心抵押品,或被央行纳入储备。这些,眼下一样都还没发生。 真正发生的,是另一件事。 算力,或者说它背后的电力、半导体和数据,正在成为信用扩张和创新速度的“新瓶颈”。 它不是货币的“锚”,而是经济活动的“天花板”。 国际能源署(IEA)预测,到2030年,全球数据中心的用电量将飙升至945 TWh,几乎相当于日本当前全年的用电量(数据来源:IEA)。一个朋友在弗吉尼亚州做数据中心选址,他说现在最大的挑战不是拿地,而是“排队等电网的接入许可”。电,成了物理层面的硬约束。 再看供给侧的投资竞赛(年度资本开支预算): - Amazon (2025): > $1180亿 - Microsoft (FY2025): ~ $800亿 - Alphabet (2025): ~ $850亿 - 对比 - Aramco (沙特阿美): ~ $580亿 - 对比 - Exxon (埃克森美孚): ~ $290亿 这不是在替换货币,这是在进行一场堪比“军备竞赛”的生产资料堆积。 那么,加密货币的角色是什么? 很多人喜欢把加密ETF的获批比作“1971时刻”,一个新世界的开端。这个比喻有误导性。1971年是“脱钩”,而今天我们看到的,更像是“接驳”——将现有的美元信用体系,接入一套全新的技术轨道。 链上数据不会说谎:跨多个区块链的稳定币,总市值已稳稳站上3000亿美元,成为一条重要的全球支付与结算轨道。贝莱德的代币化美债基金BUIDL也证明,传统金融资产可以被“封装”后在链上高效流转。而比特币,则在被市场测试能否成为一种独立于主权信用的“数字黄金”式新抵押品。 但无论形态如何,这些活动的核心依然是美元信用。加密技术在这里扮演的角色,不是创造一个新的记账单位,而是提供了一个更高效、可编程、7x24小时运转的全球结算层。 什么时候,我们才能说“算力本位”的叙事开始兑现?我们可以设想几个可被观察的信号: - 金融层:一家全球系统重要性银行,正式接受算力合约作为回购交易的广泛合格抵押品。 - 主权层:某个国家的主权财富基金,像管理黄金储备一样,管理其持有的长期购电协议与数据中心资产。 - 结算层:出现一份以原生算力单位(PetaFLOPS/hour)计价并完成交割的国际大宗贸易合同。 不妨做一个反事实推演:如果这些信号真的出现,比如中东的石油开始接受以“PetaFLOPS-小时”为单位的支付,那将彻底重塑全球贸易的计价体系。能源输出国将变成算力输出国,而算力网络的稳定性和效率,将直接等同于一个国家的货币信用。但这离现实还很遥远。 我们正在经历的,是一个更复杂的金融锚定物的重排: - 记账锚:基本不动,依旧是美元。 - 抵押锚:正在分化,传统美债上链与原生加密资产并行。 - 结算锚:正在向“可编程+即时清算”的加密网络迁移。 - 要素锚:电力与算力,从成本项抬升为决定性的约束条件。 所以,新石油确实是算力,它驱动着AI,驱动着下一个世代的增长。但权力本身,并不总想成为货币。 它更愿意隐身幕后,成为那个标价体系的“硬约束”——就像石油驱动了20世纪下半叶,却从未印在钞票上。
宝玉
3个月前
“求职者正借助 AI 优化自己的简历,试图穿透算法的初筛;而企业则用 AI 搭建更高的围墙,来抵挡海量的、同样由 AI 润色过的申请。” 大西洋月刊:《找工作,正在变成一场地狱难度的“刷题”游戏》 哈里斯从加州大学戴维斯分校毕业前几个月,就开始了他的首次正式求职之旅。他自认为简历很优秀:在一家咨询公司做过实习,有多年的环境保护志愿经验,在农场、公园和办公室都干过活儿,GPA接近满分,推荐信质量也很高。他愿意为了保护加州的野生动物和公共土地而拼尽全力,哪怕是去挖沟、搬砖、填表这种苦活杂活都没问题,哪怕工作不稳定,哪怕只能睡在车里。 他一口气投了200份简历,结果收获了整整200次的拒绝。不,严格来说,哈里斯连拒绝都算不上,绝大多数公司根本就没回音。 现在,数百万像哈里斯一样的求职者都深陷类似的困境。从宏观数据上看,美国企业的利润仍然不错,全国失业率仅为4.3%,工资水平也在上涨。然而,招聘市场却几乎冻结了。最近四个月来,美国企业招新员工的比例创下了自“大萧条”后的最低点。四年前,企业每个月每100名员工还能新增四五个职位,现在只剩三个。 而从求职的体验来看,找工作更是变成了一场荒诞的“刷题”游戏。招聘平台的崛起本应简化找工作的流程,结果却演变成了像Tinder式约会软件那样的噩梦:海量的简历一键发送,AI机器人初筛,人类根本没有机会和真正的HR沟通,就已经被算法淘汰。 哈里斯每天打开LinkedIn或Indeed,总能看到一堆看起来非常适合的岗位。他仔细阅读招聘说明,调整简历,认真写介绍信,回答各种预筛问题,点击“发送”,然后祈祷好运,但一次次石沉大海。 其他求职者的经历也大同小异。住在弗吉尼亚郊区的玛蒂娜今年4月被解雇后,向律师事务所、非营利组织、大学和咨询公司投出了几十份简历,她拥有10年法律助理经验,却一次也没拿到offer。她苦笑着说:“现在就算有人正儿八经告诉我‘不行’,我也满足了。” 其实,企业的日子也不好过。他们发布职位后,每天都会收到成百上千封简历,其中大部分根本不符合要求,于是不得不借助AI快速筛选。一项调查显示,许多公司已经使用AI来撰写职位描述、评估候选人,甚至直接用AI聊天机器人进行第一轮面试。求职者坐在电脑前,对着屏幕上的虚拟面试官回答问题,AI则根据他们的关键词、语气和表现自动打分。 招聘网站Indeed的职业趋势专家普里亚·拉托德也承认,她理解求职者们“简历投进黑洞”的感受。但她认为,这些线上平台确实帮助求职者更容易发现职位,并且AI筛选在一定程度上加快了招聘流程——当然,前提是你的简历刚好符合企业的要求。 但问题在于,许多简历从来都没有机会被人类亲自看一眼。求职者为了增加成功率,不得不海量投递简历,于是大量使用ChatGPT这种AI工具来生成和优化自己的申请材料。哈里斯坦言,他大学时就天天用ChatGPT,现在依然用,因为它写出来的东西“比自己更专业”。但反过来,这种AI写作又造成了更多相似度极高的简历,逼得企业进一步依赖AI来过滤,求职与招聘就这样陷入了恶性循环。 现在,这个微妙的平衡正在崩塌,美国经济衰退的阴影也越来越明显。一方面是大规模裁员,包括特朗普政府此前大幅裁撤联邦员工,导致黑人群体失业率飙升,24岁以下年轻人求职难度也急剧增加。“绩效导向型裁员正日益增多”,咨询公司EY-Parthenon近期对客户的分析报告这样指出,“就业市场已经出现裂痕”。 普通的求职者能做什么呢?玛蒂娜继续投简历,而哈里斯则去做起了园艺工作,利用空闲时间继续当志愿者。拉托德建议,或许回到传统的人际关系网络,比如找招聘负责人喝杯咖啡、参加线下招聘会、向熟人打听工作机会,可能比AI海投更管用一些。 当然,这一切的前提是公司真的开始招人。如果情况得不到改善,未来可能会有更多人继续在无休止地往“招聘黑洞”中投简历,越陷越深。
宝玉
3个月前
转译:一篇新的名为《通用智能体包含世界模型》(General agents contain world models)的论文论文给出了严格的数学证明:智能体想要变得聪明,就必须建立一个关于其所处世界的模型——无论我们是否在程序里这样要求它。 这证明,我们长期以来梦想的那条通往通用人工智能的“无模型”之路,可能从一开始就想反了。 多年来,人工智能领域一直存在一个巨大的争论:我们是需要为 AI 智能体 明确构建“世界模型”(就像在脑海里对环境进行模拟推演),还是说,智能可以从简单的试错中自发涌现(即“无模型”方法)? “无模型” (model-free) 的想法一度非常吸引人,因为对真实世界进行建模实在是太难了。然而,这项新发现告诉我们,这份苦差事,谁也躲不掉。 核心发现:强大的智能体必然自带世界模型 General agents contain world models 这篇名论文,其核心发现是一个严谨的数学证明。 它指出:任何一个能够以有限的失败率完成复杂、多步骤任务的智能体,都必然在内部学习到了一个精确的环境预测模型。 简单来说就是:如果一个 AI 擅长做长远规划,那么它的行为本身,就已经包含了模拟其世界所需要的全部信息。 它表现得越好(犯错越少),或者它能处理的任务链条越长(目标深度越深),它内部的世界模型就必须越精确。 “隐藏款”能力:世界模型是涌现出来的 这件事最有趣的地方在于,这个世界模型是一种隐藏的能力。 它不是你必须明确写进代码里的东西,而是 AI 为了获得通用能力,在训练过程中不得不产生的副产品。为了高效地完成任务,智能体被“逼上梁山”,不得不去学习世界运转的规律。 那么,研究人员是如何证明这一点的呢?方法出奇地简单。 他们设计了一种算法,通过给智能体提出“二选一”的复杂目标来“审问”它。智能体的每一次抉择,都暴露了它对“哪条路更可能成功”的内在预测。通过这种方式,研究人员就能反向推导出它内部模型中的概率。 这对我们意味着什么? 这个发现彻底改变了我对“黑箱”AI 的看法。那种想通过“无模型捷径”直达通用人工智能 (AGI) 的想法,现在看来是行不通了。世界建模这项艰苦的工作无法避免,它只是以一种不易察觉的方式,在神经网络内部悄然发生了。 最实际的影响是什么?安全与可解释性 (interpretability)。 这篇论文从理论上保证了,我们能从任何一个足够强大的智能体中提取出这个隐藏的世界模型,而方法仅仅是观察它的行为策略。这意味着,我们可以打开一个不透明的系统,拿出它的世界“蓝图”来进行审查。 从更宏观的视角看,这项研究可能会统一整个领域。与其再争论“基于模型 vs. 无模型”路线,未来的焦点可以转移到如何构建、提取和利用这些必然存在的世界模型上。 它也为我们在大语言模型 (LLM) 中观察到的“涌现能力” (emergent capabilities) 提供了一个严谨的解释。 同时,它也引出了一系列新问题: • 今天这些基础模型内部隐含的世界模型究竟长什么样? • 它们的精确度有多高? • 我们能否利用这种提取方法来调试它们,从而在有害行为发生前就及时阻止? 探索才刚刚开始。 说到底,这篇论文为一个古老的想法提供了数学上的定论:一个智能体不仅仅是拥有一个世界模型——从某种意义上说,它本身就是一个模型。 这不再仅仅是一个架构上的选择,它看起来更像是通用智能的一条基本定律。