#算力成本

宝玉
1周前
转译:耶鲁大学新研究揭示AGI时代的残酷现实: 一半人明天不上班,GDP也不会掉一点。 当人类不再重要 有一篇耶鲁大学最新的研究论文《We Wont be Missed: Work and Growth in the Era of AGI》,描绘了一幅让人震惊的未来图景: 在通用人工智能(AGI,Artificial General Intelligence)驱动的新经济中,人类的经济角色几乎完全丧失意义。一半以上的人明天停止工作,经济规模都不会受到影响。 过去几百年来,人类通过自己的劳动,推动了世界不断进步。我们建造城市、开拓科学前沿、创造财富。工作,不仅让我们赚钱,更让我们感到自己有价值、有贡献。 但是,AGI经济时代的到来,彻底斩断了“劳动与进步”之间的联系。 未来,我们仍然会有工作,却失去了经济上的意义,不再是社会发展的主要推动力。 瓶颈型 vs 辅助型工作 论文提出了一个关键概念:“瓶颈型工作”(bottleneck work)与“辅助型工作”(accessory work)。 •瓶颈型工作:是推动经济增长和社会进步不可或缺的关键劳动。 •辅助型工作:并非真正必需,只是锦上添花。 AGI的强大之处就在于,它可以轻松地自动化所有的“瓶颈型工作”,因为这些工作直接关系到经济增长。人类之所以还能保留一部分“辅助型工作”,比如心理咨询师、手工艺人、高档餐厅服务员等,并不是因为AI无法完成,而是因为劳动力已经过剩了,花费大量计算资源去自动化这些工作根本不划算。 简单地说,我们之所以还有事可做,只是因为用AI取代我们不值得。 工资的天花板:算力成本 一旦这个过程发生,我们的工资也不再取决于个人技能或贡献,而是由“计算机复制你工作的成本”决定,并且一分钱也不会多给。 随着算力指数级地增长(比如摩尔定律所预言的),复制人类劳动的算力成本将变得极其微不足道。人类劳动占GDP的比例逐渐下降,趋向于零,而所有的财富则流向了那些掌握算力资源的人。 经济仍然蓬勃发展,可绝大多数人的地位却原地踏步。 转型过程的剧烈与平缓 论文指出,经济如何过渡到这种状态,取决于技术发展速度与算力扩张速度之间的关系: •技术领先于算力增长:经济会剧烈波动,某些行业的人短期内暴富,但很快就跌入谷底,造成不公平的剧烈冲击。 •算力领先于技术发展:工资将逐渐下降,造成平缓但持续的衰退。 无论哪种情况,我们都要面对一个新问题: 我们不应该再想着如何“拯救就业”,而应该认真考虑如何重新分配由计算资源创造的巨大财富。比如,提供全民基本收入,或者将计算资源视作公共资源进行分配,可能成为未来不可避免的方案。 最终的灵魂拷问 在一个人类劳动经济价值趋于零的时代,人们还会主动选择工作吗? 当你清楚地知道: •你的工作对经济不再重要; •你的贡献对于社会的繁荣与进步没有意义; 你还愿意继续吗?
fin
2个月前
AI时代和互联网时代的运行逻辑和模式有什么不一样? 最近一直在思考这个问题,也在尝试从时间线拉长的角度去看一看 两年前的GTX大会,老黄po出来的这张图宣布了时代大幕的拉开,PC时代->互联网时代->AI时代,每一个时代前期的硬件大基建时代开始了,可能又是一次cisco时代涨潮退潮的故事重现 cisco时代基建一旦搭好,后续基建需求就减小太多了,相当于管道搭好了,互联网公司在管道上面搭各种各样的应用(即便是infra要扩容),大都是一次性的建设费用,之后的折旧周期也很长,cisco于是在短暂的互联网时代前期爆发之后迅速成了弃儿,如果2000年买入那么直到2021年才回本,大幅跑输SP500 移动互联网也是一样,手机SoC的基建一旦搭起来,每年能卖出去的手机量基本上是固定的,所以高通成了过去十多年来半导体领域最具有illusion的差劲投资,移动互联网经济的繁荣没有给高通带来多少增量,底层基建只有基本的手机例行换代升级更新 但两年后现在回过头来看,AI时代也许无法直接套用之前的经验。逻辑是不一样的,training训练基建并不是一次性的,日常使用的费用远远超过互联网时代,GPU的超负荷使用导致其寿命两三年就要换新,而且价格及其昂贵。 为什么Meta用人均上亿美元签字费的代价挖来那么多顶尖AI人才来做基础模型?是不是冤大头? 从Meta的infra高成本来看是有道理的,因为Meta在GPU基建上的投入一年70B而且还一直在增长,甚至要亲自下场去做GW级别的数据中心,那么投入3~5B去招募一群世界上最懂的人去用好一年70B的顶级奢侈品GPU data center,就显得是非常必要的了,三五十亿美元招募费相比而言甚至是非常划算的事情 在Google/OpenAI,Compute-per-Researcher已经是重要管理KPI,Meta花了几亿买人,说对应的算力必须要匹配齐全,这个说法反过来就能理解Meta高价挖人的初衷:每年花近千亿买GPU,对应的技术人才必须要匹配到位 在大厂做fundation Model training的这部分人(特别是pretraining)和SDE不一样,甚至和十年前才产生的新工种MLE也不一样,已经是一个完完全全由这个时代产生的新工种了:算力花销收益率管理人,没有千卡集群的训练经验,都达不到能进行业的门槛 人类历史上第一次产生了一种,由少数几十上百个人去操作每年花销相当于一个国家GDP(100B级别=克罗地亚/哥斯达黎加)的机器大军的新工种 在互联网时代,Google,Amazon,Facebook都是不需要在基建上承担太多压力的,只需要等互联网基建慢慢成熟,他们就能借助这个网络建立一个信息流通的商业模式,每次请求的网络和算力成本,也是边际成本极低,造成了scaling的效果极好,分发边际成本几乎为零,快速扩张的收益惊人,扩张越快收益平方上升 ------ 这个特质也造成了一个现象:互联网企业的最大OPEX成本都是SDE人工成本,这就是典型的第三产业服务产业的特征,这也是SDE过去十五年黄金时代可以随着业务不停扩张而薪资水涨船高的重要原因 互联网时代的稀缺资源是软件工程师的工作时间,财报的重头是OPEX工资,护城河是网络规模效应和无限复制接近零的分发成本,Google/FB也自建数据中心,但CAPEX在10%左右 而LLM时代,起码是这几年,互联网公司主导稀缺资源已经是GPU+供电容量(GW级别),财报的重头是CAPEX(MSFT CAPEX 比例33%,Meta 甚至已经快到40%了),GPU已经毫无疑问是重资产,重消耗 互联网公司历史上第一次像半导体厂foundry那样背上高折旧成本的资产负债表,商业模型恨不得要慢慢从“流量 × 转化率”部分转向“每 token 毛利”了 第三产业和第二产业的重要差别就在于需要管理重资产和持续的运营成本,互联网厂商性质会从第三产业变成“第二产业化”,打工人作为asset的价值就不会那么的宝贵,SDE溢价无上限的黄金年代可能在AI时代可能很难持续了,要尝一尝半导体行业打工人的常规待遇,比如谈薪资要的太高直接把offer谈没了 互联网公司持续把资源从人工转到GPU购买上,挤压人员的成本,削减福利+不停裁员换血,我觉得每一个互联网公司的SDE打工人,都应该买入Nvidia作为风险对冲(弥补自己被GPU挤出价值链的风险) -------------- 在AI时代,这个互联网时代边际成本几乎为零利于scalable的特性遭遇了根本性的重大挑战:且不说训练成本从此不是一次性开销而是年年增长,就客户的AI推理请求而言,由于inference scaling成为共识,加上模型本身需要更大规模来达到更好效果,推理的成本可能不会随着硬件算力价格的通缩而降低 就像当年的手机行业芯片每年的算力都在提升,照理来说续航每年都能增长一大截,但是最佳商业逻辑是在功耗满足人们能忍受的限度内(电池能用一天),尽可能提升体验,而不是维持体验不变降低功耗。不然的话,手机早就能达到待机几个月的水平了 AI时代的推理也是一样,o1的成本降低了,大家就会用体验更好的o3,gpt4o的成本两年降低了一百倍,大家就会去用gpt4.5,成本比两年前的GPT4还要高,gpt4.5一天限额只有几条。agent半年时间跑相同任务便宜了十倍,但一个新的效果更好的agent又把价格拉了回去 这个AI推理成本可能就和当年的手机芯片功耗一样,在人们能忍受的成本限度内,尽可能的提升体验。所以AI推理成本不会降低,也就是互联网时代讲究的分发边际成本会变高很多 更不说因为AI使用量的提高带来的token消耗量的巨额增长。 这也导致互联网公司在这一块的投入,也是在财报能忍受的限度内,尽可能的提高自己的算力,这可能也是为什么Google最近又提高了AI的capex到85B,其他几个互联网巨头提高capex也是理所当然可以预见的事情。这也许会带来一个前所未有的现象:在scaling law失效之前,算力开销成本增长不会低于互联网业绩增长 ------- 从这个宏观背景的变化出发,也就是AI和互联网在底层算力特性上的不同出发,那么也许可以尝试推演一下,这会带来什么策略上和商业模式上的变化 (待续)
ginobefun
3个月前
推荐阅读 20250617 ① 📈 2025 年中 AI 共识:技术、产品与资本新格局 - 2025 年被行业确立为 “Agent 之年”,但底层技术的发展并非简单的替代,而是 L2 推理模型与基础模型能力的持续深化。 - AI 行业呈现新版 “安迪-比尔定律”,Agent 执行任务时长的增速远超算力成本下降的速度,如何衡量与评估 Agent 能力的 benchmark 设计已成难题。 - AI 产品交付逻辑正从 “敏捷开发” 转向 “雕刻艺术”,即从一个无所不能的大模型中,通过限定边界来交付稳定可靠的结果。   📖 小宇宙: PPT 下载: AI 转录: ② ⚔️ 国产大模型同日竞技:MiniMax-M1 vs. Kimi-Dev-72B - MiniMax-M1 拥有全球最长的 100 万 token 上下文窗口和最强的智能体工具使用能力,并能轻松生成交互式 Web 应用和游戏。 - 月之暗面 Kimi-Dev-72B 专攻编程,在代码生成权威基准 SWE-bench Verified 上取得了全新的 SOTA 记录。 - 两者均采用大规模强化学习进行优化,并已开放模型权重,为开发者提供了强大的新工具。   📖 详细: ③ 🤖 LangChain 继续探讨热门话题:多智能体系统,建还是不建? - 本文深入分析了 Cognition 与 Anthropic 两篇关于多智能体的文章,尽管标题看似对立,核心洞见却高度一致。 - 强调 “上下文工程” (Context Engineering) 是构建智能体应用的第一要务,它超越了传统的提示工程 (Prompt Engineering),是系统成功的关键。 - 揭示了多智能体架构的核心原则:系统更适用于并行的“读取” 密集型任务(如研究),而非易产生冲突的“写入” 密集型任务(如编码)。   📖 详细: ④ 🧠 腾讯实习生硬核总结:Agent 与 RAG 入门与实战 - 亲历腾讯 IEG/WXG 项目,作者用“血泪 Debug 经验”为 AI 新手绘制 Agent 与 RAG 的入门路线图。 - 用“人话说明书”讲透两大技术核心,从 RAG 的检索增强生成到 Agent 的规划、记忆与工具使用。 - 一站式解决 AI 应用中的“幻觉”与“空谈”问题,帮助开发者从青铜快速上分,实现从理想到落地的跨越。   📖 详细: ⑤ 🧠 给 Staff+ 工程师的战略思维指南 - 战略思维是一种心态,而非单纯的技能,是连接技术执行与商业愿景的关键桥梁。 - 提供一套可落地的战略框架:从诊断与洞察出发,建立指导原则,并转化为连贯的行动 。 - 强调领导者需为工程师提供充分的业务与技术背景,并确保他们在关键决策桌上拥有一席之地。 📖 详细: