fin
3天前
AI泡沫论,继循环投资/左脚踩右脚的故事淡化后,终于又迎来了新论据,这次轮到了GPU折旧问题 这次的叙事很简单,在几个主流CSP的财务报表里,GPU折旧年限很多都是平摊到6年来算 但是GPU使用寿命可能只有2~3年,那么这样做账就会让纸面上利润率虚高,而实际上AI云利润太低就是吹泡泡 真的是这样吗? ------------------------ 首先我们要来看看,GPU实际使用寿命2~3年这个说法是哪里来的 目前比较靠谱的溯源基本上指向了公开的Llama3的技术报告 Meta在2024年训练Llama 3.1 405B模型时,使用了16,384个H100 GPU,训练时长54天。在这期间记录了: 466次中断(interruptions),其中419次是非计划故障​ 平均每3小时发生一次故障​ 有效训练时间维持在90%以上 根据Meta的这次54天训练数据推算,年化GPU故障率(AFR)约9%​,最保守的估算,3年累计故障率约27%(超过1/4的GPU会在3年内失效) 虽然实际上肯定是用的时间越长故障率会更高,因为高负载导致的高温会更容易产生failure 所以训练用的GPU2~3年寿命并不是空穴来风,毕竟同步训练的脆弱性决定了AI训练过程要求单个GPU故障就能导致整个作业停止 另一个佐证就是,曾经GPU挖矿的矿卡,三年报废率也是很可观的,挖矿和训练的共通之处在于GPU利用率都很高 在这个Llama3技术报告之外,所有CSP,包括Azure,GCP,AWS的这类数据都是保密的,毕竟这个故障率直接关系到运营成本和服务质量,算是商业机密。 ----------------------------------------- 确认了折旧率数据来源,接下来就要说“但是”了 -------- 1. 是不是训练用的GPU寿命都一直会这么短? 首先Meta这个训练数据推算是按中断次数算的,但并不是每次中断都 = 1 GPU 坏了 实际上即便是现在的训练用GPU,中断故障率都比以前训练要低了,以前几乎每一两小时都要中断,现在每天中断几次,相比之下好一些 部分原因是validation的自动化流程做的更好了,训练时的硬件故障中断,其实有不少是重复来自于少数体质敏感易坏的GPU。于是Nvidia也一直在优化validation流程,在训练之前的测试做的更好,剔除掉这些易坏的GPU 所以现在的GPU年故障率AFR跟以前比已经低不少了,我的估算可能是<6% --------- 2. 一个更容易被忽视的问题是,训练用的GPU和推理用的GPU,折旧率是否一样? 很显然是不一样的,推理用的GPU年折旧率一般要低的多,原因是推理的平均负荷要小得多,不会因为持续性高负载高温,对延长寿命是有帮助的,一般年故障率都不会到3%甚至更低(<2%),这部分GPU的寿命以6年算,是完全符合实际情况的 那么在云上训练和推理GPU的比例如何,就决定了平均寿命折旧如何 推理GPU的比例其实是快速上升的,和训练GPU比起来,不管是模型公司还是云公司的利润其实主要也来自于推理,而长远来看,推理的比例是一定会远高于训练的 所以GPU长线按5~6折旧年限来记账,仔细来看并没有太过分 作为佐证,现在只要不是公司里最重要的部门,要做AI推理就只能用五年前的A100而并没有寿终正寝,是很常见的现象 ---------- 3. 技术的快速迭代,会让GPU在三四年之后,因为TCO使用成本占劣势而被淘汰吗? 这相当于是让GPU的残值可以忽略,比如现在A100用起来综合成本不如用最新的,所以会被淘汰吗? 今天CRWV的财报里,CEO的回答算是直接否定了这个说法: "Let me provide a tangible example of our customer relationships and the durability of our platform. We had a large, multi-year contract up for renewal in 2026." (我来提供一个关于我们客户关系和平台持久性的具体例子。我们有一个大型的多年期合同,原定于 2026 年续约。) "Two quarters in advance, the customer proactively recontracted for the infrastructure at a price within 5% of the original agreement." (客户提前两个季度,主动以原协议价格 5% 以内的价格续签了基础设施合同”) H100在合同结束之后,新合同仍然能卖到原来合同95%的价格(看到这里其实我挺惊讶的,H100的租价其实还是下降了不少的),而且连A100也全都卖光了 所以在算力紧缺供不应求的时代,这个前代GPU得不到利用从而报废的担心,在短期的几年内可能都不是太大问题 ---------------------------------------------- GPU折旧问题似乎不是大问题了,是不是意味着AI泡沫就不存在了? 如果有泡沫,那么会以什么形式出现,会从哪里出现? 我们可以从底层逻辑和互联网泡沫比较,来看这个问题 简单的说 互联网:基建端基本独立运营,基建和应用是解耦的,需求是脱节的,基建过度价格崩塌,泡沫破裂的很惨 。价值全产生在应用端公司,形成了生态错位 AI:应用端驱动基建,因为应用被基建严重限制规模,从而被迫投资基建端,算力一直紧缺 互联网的泡沫主要在基建端,大量的光纤建设之后都没人用(97%),但是AI泡沫里GPU基建却成了瓶颈,基建显然不是同一种泡沫 基建紧缺到什么程度? CRWV的订单backlog从30B直接涨到55B,各个CSP的backlog(以RPO为算,一般来说会有5~15%的丢单率)也在快速上涨 从CSP,到芯片,到数据中心DC,到电力,到存储,所有人都在喊订单挤压的太多甚至几倍,很多产业链的环节2026年全部售罄,根本做不完。 硅谷公司里基本上只要是跟AI相关的组,都背负了很重的指标,被压榨累成狗,即便是以前文化很好的NVDA也变内卷了很多 这次的需求全部是从App应用端来的,从App -> 云 -> DC数据中心 -> 芯片一层层传导,而且大家都对泡沫很忌惮,有多少订单准备多少产能(除了少数冒险家CRWV/ORCL/META),和互联网泡沫最大的区别在于,基建目前并没有超出需求建设 风险也是有的,毕竟App应用端太多创业烧的是VC的钱,这正是泡沫形成的绝佳背景。但目前来看,垂直类应用端还是有很多毛利率和增长率都很不错的代表的(比如Harvey) 所以如果真的有泡沫,目前来看只有可能来自App应用端的需求减弱 一个反直觉的悖论,App端的泡沫在于AI/Agent发展迭代的不够快!做出的东西不够好,导致营收增速跟不上 AI/Agent发展不够快,在广大行业渗透不够又部分是因为算力不够 于是为了维持泡沫不破,算力投资和军备竞赛又会继续加强 然后App端会出现大量输家被淘汰,因为算力投入而破产,这可能就是泡沫破裂的形式 这和互联网时代基建公司大量破产形成了鲜明对比 最后决出的几家寡头,有一定营收,依然会大力投入算力基建,期待赢家通吃 这就导致了AI泡沫和互联网的泡沫破裂方式可能是不同的,下游的基建风险并不大,而泡沫更偏向App应用端 另一个简单的比较方式:看谁在举债,泡沫破裂就在哪里 互联网泡沫,举债的更多在基建端,价值捕获更多在App端 AI泡沫,价值捕获在App应用端,而举债的也更多在应用端(以及云) 但反过来说,如果OpenAI和Anthropic能继续维持三年3~9倍的营收增速,基建维持5年供不应求的超级周期,并不是天方夜谭的事情 --------------------- 算力把时间借给了应用,终究要用增长归还;还不上的,就是泡沫。能还清的,就是点亮文明的下一座灯塔
fin
2周前
今天Amazon裁员3万人,比2022年行业收缩期裁的还厉害,原因很简单 买GPU的钱capex不够,导致AWS增速下降,被市场严厉的惩罚了,只能砍工资来省钱买GPU,让财报好看一点,营造一个AWS增速触底的故事 每一个互联网公司的SDE打工人,都应该买入Nvidia/amd作为风险对冲,弥补自己被GPU挤出价值链的风险 ------------------------- 进入2024~2025年,美国SDE们就业差的主要因素已经不再是21年的大幅过度扩张,也不再是薪资更低的海外技术中心抢饭碗,暂时还不是AI提效造成需求降低,而是来了一个新的大boss:GPU capex GPU capex在互联网公司正在创造一种诡异的繁荣性萧条: 公司业绩增速很好看,股价也节节高升,但是员工的工资开支成了管理层腾挪不开的问题,每个人都要担心自己的工作,同时因为持续性裁人,留守的员工的工作压力越来越大,人心惶惶,和大萧条时代无异 这不是传统的行业萧条,而是资本在人力与算力之间的激进再分配 Amazon这次裁员3万人,大概从两个月前就有风声了,年中perf review往年都是7月,这次到8月中下才开始,RTO的政策,也是裁员的重要考虑因素(借口)。AGI组肯定是一个都不动,PXT, device and service, 运营,都会是重灾区,按惯例AWS应该会晚一点再裁,等到AWS reinvent之后再裁,人尽其用 而在故事的另一端,AWS Q2的未完成订单(backlog)达到1950亿美元,同比增长25%。 这说明客户想买但AWS交付不了,需求持续火爆,GPU买的不够快不够多 在AI服务器供应跟不上需求爆炸性增长的时代,opex(工资)换capex就能带来公司的业绩提升,资本会毫不留情的惩罚一切不把这条路线贯彻到底的CSP/Hyperscaler Meta开启每半年5%悄悄裁员模式基础之上,刚刚裁掉AI org的600人,而且还悄悄裁掉了很多部门的director,也是同一个逻辑:AI data center不够用,一年之内对未来18个月的capacity计划上修了三次,每次以为高估了需求,都会在几个月之后才痛苦的发现原来是低估了 互联网公司内部真的不需要人了吗?当然不是,招人的budget砍掉之后,只能倒逼公司内部增效来弥补 目前最激进的互联网大公司各种手段都用上了,内部tool耗费大量人力做各种agent功能,一键部署鼓励vibe,定了KPI每个部门AI使用率要达标,各级汇报AI使用进度和案例,还规定互相定期交流学习 一顿操作猛如虎,目标仅仅只是希望把大家的工作效率提升~20%,而已 接下来可能会发生什么? 为了增速,为了竞争,当公司提效遇到瓶颈,裁员也裁到只剩大动脉了,opex已经榨不出油水了,公司下一步只会继续牺牲现金流,甚至像ORCL一样,开始为了增速而不惜冒风险举债 Nvidia/AMD也会继续用手里的巨额现金推动投资,支持合作伙伴投入AI capex,就像openAI做的那样 这一切最大的受益者都会是半导体全产业链公司,未来可能会出现一个新常态:半导体公司的利润率会反超互联网公司 但他们也承担了最大的风险:当VC/Hyperscaler的前期投资看到token需求减缓时,甚至只是需求增长速度减缓(不再是一年数倍),一定也会毫不留情的砍单,这个传导的速度会非常快,会比半导体公司的投产周期要快的多 这一步什么时候会出现,一个参考指标是,企业渗透率接近50%的时候。 2000年3月互联网泡沫破灭时候,美国互联网渗透率大概在52%左右(另有一组数据时43%) 目前互联网大厂的genAI daily user渗透率正在从50%向90%迈进,而广大行业公司的AI采用率不到10%,增速暂时是有保障的,每一代科技革命增速最快的时候就是全社会公司采用率10%迈向50%的阶段 Cisco泡沫的历史不会简单重现,我相信这一轮信息比上一轮要充足太多太多,一直会有足够多的泡沫怀疑论者警醒,至少会让泡沫破灭的时候不会那么惨烈
fin
2个月前
一个感觉,从商业逻辑来看,未来GPT6/7/8,可能和手机常规升级换代一样,不会再有从GPT1到GPT4的数据量+训练量巨大飞跃了(GPT4.5已经试过了) 让GPT5做了一幅这几年的旗舰模型token定价曲线,发现有很多地方和PC/手机芯片的商业逻辑是非常相像的,这集我看了太多遍,其实能看出很多很有意思的结论 GPT4.5刚推出的时候$150/M,价格非常昂贵,官方称为“非常大而且计算成本高”(very large and compute-intensive model),是一次“超大且昂贵”的实验性base model 从token价格来推测,GPT4.5是GPT4的10倍规模,这可能是大力出奇迹路线和商业可行性冲突的一次探索,于是四月的时候openai就计划未来将GPT4.5下线了。从token价格推测GPT5可能只有5T参数,GPT4的3倍规模 所以chatGPT以后的升级,大概会是沿着大家能支付意愿的sweet spot(比如$80/M旗舰 + $15/M普通),分成几档价位,做出这个成本下最好用的模型,每隔一段时间比如12~24个月更新一代新产品(GPT5.5/GPT6) 在下一代新算力/数据/架构范式变革之前,Benchmark爆炸式上台阶的时代大概已经过去了 GPT5就是典型,营销层面上也在淡化数字游戏,每年的提升不再单纯的聚焦benchmark,而是更加全方位的提升:成本降低,幻觉减少,对用户刻意讨好改善,长上下文,一致性,多步思考推理机制等等,从单纯的base model升级变成了系统级升级,同时要考虑长线商业盈利 --------------- 类似的剧本在芯片界就见的太多了 PC/手机每年的旗舰机芯片阉割之后变成次旗舰和中低端芯片,比如intel i7芯片和i5/i3都是同样的设计同一批芯片,测试出来,性能最好的标为i7,性能差一些的就降频,关闭核心,变成i5和i3 每一次换代之后,旗舰芯片的价格保持基本不变,性价比最高的就是i5/i3,单核性能比上一代旗舰i7持平甚至更好,但是价格一半都不到 每一代旗舰i7的单核通过超频和堆料达到略高一点的分数,但是因为架构同属于同一代,单核跑分和次旗舰比提升非常小 ----- 至于大模型,旗舰模型(比如GPT-5 pro)的定价基本上就在$80/百万token附近,这代表了当前模型的最高水平 每一次换代之后,性价比最高的就是次旗舰模型,性能会和上一代旗舰类似甚至更好,但是价格会便宜,甚至到只有不到20%,就比如GPT5的价格($10/M),但是性能比上一代(按一年来算)旗舰o1要好一些,盈利靠海量用户 以后每一代推出例行升级情况下,之前的o3/4.1/4.5/o1 pro/o4 mini high之类的命名就太复杂了,干脆把这些全部隐藏起来,由内部router去根据用户画像以及意图,去给出用最低成本让用户满意的模型 从此以后就和PC/手机一样,每一代跑分改善一些,全方位提升一些(幻觉减少,对用户逢迎改善,长上下文,一致性,多步思考推理),然后分几档价位去满足各类用户的需求,GPT6 pro, GPT6, GPT mini,每一代的次旗舰相当于前一代旗舰水平 以前讲究的是手机贬值的速度,以后就是模型的贬值速度 从商业逻辑来看,模型公司和fabless芯片公司的成本花销的模式也非常相像: 每一代大模型一次性的训练费用就像是芯片的开发(数亿美元)和tapeout费用成本(上亿$),而推理token费用是边际分发成本,就像是每一个芯片的成本 从2015年的六七十美元一片手机旗舰芯片(连定价都如此相似$70/M),随着台积电涨价和通胀,到了2025年的200~250刀一枚旗舰芯片 AI的技术浪潮不像是互联网,靠生态本身的繁荣和更多链接就能创造更多价值,AI的破坏性革命几乎是完全建立在模型的能力大小之上的,由此带来的范式转移影响也是建立在模型能力上的 从这一点来看,我们可能更像是在2010~2012年的移动互联网时代:手机经历了前面三四年的飞跃性成长,来到了一个稳定发展期,每一代的硬件进步仍然非常可观:十四年前的手机芯片开始趋于稳定迭代,那时还不到1B晶体管数量(28nm节点),十四年之后的今天,手机芯片已经接近了30B晶体管数量(3nm节点) 这十四年还包括了摩尔定律放缓的2012年到2019年整整七年,在功耗墙被手机卡死的情况下,仍然规模增长了30倍 大模型的进步也一样,每一代的进步可能会让人失望(比如GPT5的平淡相比GPT4问世时候的炸裂程度),但是到十年后回看,仍然是非常不可思议的进步 即便是每一代提升让人失望,这也仍然是指数发展的奇迹
fin
3个月前
AI时代和互联网时代的运行逻辑和模式有什么不一样? 最近一直在思考这个问题,也在尝试从时间线拉长的角度去看一看 两年前的GTX大会,老黄po出来的这张图宣布了时代大幕的拉开,PC时代->互联网时代->AI时代,每一个时代前期的硬件大基建时代开始了,可能又是一次cisco时代涨潮退潮的故事重现 cisco时代基建一旦搭好,后续基建需求就减小太多了,相当于管道搭好了,互联网公司在管道上面搭各种各样的应用(即便是infra要扩容),大都是一次性的建设费用,之后的折旧周期也很长,cisco于是在短暂的互联网时代前期爆发之后迅速成了弃儿,如果2000年买入那么直到2021年才回本,大幅跑输SP500 移动互联网也是一样,手机SoC的基建一旦搭起来,每年能卖出去的手机量基本上是固定的,所以高通成了过去十多年来半导体领域最具有illusion的差劲投资,移动互联网经济的繁荣没有给高通带来多少增量,底层基建只有基本的手机例行换代升级更新 但两年后现在回过头来看,AI时代也许无法直接套用之前的经验。逻辑是不一样的,training训练基建并不是一次性的,日常使用的费用远远超过互联网时代,GPU的超负荷使用导致其寿命两三年就要换新,而且价格及其昂贵。 为什么Meta用人均上亿美元签字费的代价挖来那么多顶尖AI人才来做基础模型?是不是冤大头? 从Meta的infra高成本来看是有道理的,因为Meta在GPU基建上的投入一年70B而且还一直在增长,甚至要亲自下场去做GW级别的数据中心,那么投入3~5B去招募一群世界上最懂的人去用好一年70B的顶级奢侈品GPU data center,就显得是非常必要的了,三五十亿美元招募费相比而言甚至是非常划算的事情 在Google/OpenAI,Compute-per-Researcher已经是重要管理KPI,Meta花了几亿买人,说对应的算力必须要匹配齐全,这个说法反过来就能理解Meta高价挖人的初衷:每年花近千亿买GPU,对应的技术人才必须要匹配到位 在大厂做fundation Model training的这部分人(特别是pretraining)和SDE不一样,甚至和十年前才产生的新工种MLE也不一样,已经是一个完完全全由这个时代产生的新工种了:算力花销收益率管理人,没有千卡集群的训练经验,都达不到能进行业的门槛 人类历史上第一次产生了一种,由少数几十上百个人去操作每年花销相当于一个国家GDP(100B级别=克罗地亚/哥斯达黎加)的机器大军的新工种 在互联网时代,Google,Amazon,Facebook都是不需要在基建上承担太多压力的,只需要等互联网基建慢慢成熟,他们就能借助这个网络建立一个信息流通的商业模式,每次请求的网络和算力成本,也是边际成本极低,造成了scaling的效果极好,分发边际成本几乎为零,快速扩张的收益惊人,扩张越快收益平方上升 ------ 这个特质也造成了一个现象:互联网企业的最大OPEX成本都是SDE人工成本,这就是典型的第三产业服务产业的特征,这也是SDE过去十五年黄金时代可以随着业务不停扩张而薪资水涨船高的重要原因 互联网时代的稀缺资源是软件工程师的工作时间,财报的重头是OPEX工资,护城河是网络规模效应和无限复制接近零的分发成本,Google/FB也自建数据中心,但CAPEX在10%左右 而LLM时代,起码是这几年,互联网公司主导稀缺资源已经是GPU+供电容量(GW级别),财报的重头是CAPEX(MSFT CAPEX 比例33%,Meta 甚至已经快到40%了),GPU已经毫无疑问是重资产,重消耗 互联网公司历史上第一次像半导体厂foundry那样背上高折旧成本的资产负债表,商业模型恨不得要慢慢从“流量 × 转化率”部分转向“每 token 毛利”了 第三产业和第二产业的重要差别就在于需要管理重资产和持续的运营成本,互联网厂商性质会从第三产业变成“第二产业化”,打工人作为asset的价值就不会那么的宝贵,SDE溢价无上限的黄金年代可能在AI时代可能很难持续了,要尝一尝半导体行业打工人的常规待遇,比如谈薪资要的太高直接把offer谈没了 互联网公司持续把资源从人工转到GPU购买上,挤压人员的成本,削减福利+不停裁员换血,我觉得每一个互联网公司的SDE打工人,都应该买入Nvidia作为风险对冲(弥补自己被GPU挤出价值链的风险) -------------- 在AI时代,这个互联网时代边际成本几乎为零利于scalable的特性遭遇了根本性的重大挑战:且不说训练成本从此不是一次性开销而是年年增长,就客户的AI推理请求而言,由于inference scaling成为共识,加上模型本身需要更大规模来达到更好效果,推理的成本可能不会随着硬件算力价格的通缩而降低 就像当年的手机行业芯片每年的算力都在提升,照理来说续航每年都能增长一大截,但是最佳商业逻辑是在功耗满足人们能忍受的限度内(电池能用一天),尽可能提升体验,而不是维持体验不变降低功耗。不然的话,手机早就能达到待机几个月的水平了 AI时代的推理也是一样,o1的成本降低了,大家就会用体验更好的o3,gpt4o的成本两年降低了一百倍,大家就会去用gpt4.5,成本比两年前的GPT4还要高,gpt4.5一天限额只有几条。agent半年时间跑相同任务便宜了十倍,但一个新的效果更好的agent又把价格拉了回去 这个AI推理成本可能就和当年的手机芯片功耗一样,在人们能忍受的成本限度内,尽可能的提升体验。所以AI推理成本不会降低,也就是互联网时代讲究的分发边际成本会变高很多 更不说因为AI使用量的提高带来的token消耗量的巨额增长。 这也导致互联网公司在这一块的投入,也是在财报能忍受的限度内,尽可能的提高自己的算力,这可能也是为什么Google最近又提高了AI的capex到85B,其他几个互联网巨头提高capex也是理所当然可以预见的事情。这也许会带来一个前所未有的现象:在scaling law失效之前,算力开销成本增长不会低于互联网业绩增长 ------- 从这个宏观背景的变化出发,也就是AI和互联网在底层算力特性上的不同出发,那么也许可以尝试推演一下,这会带来什么策略上和商业模式上的变化 (待续)
fin
6个月前
今年在一家小几百人startup做芯片,还是有些感慨的 芯片拼到最后就是拼能耗比,这是一级指标,真的是靠堆海量的人力去针对每种workload调试每一点power和performance,人不够就是会有差距,startup对于power和performance的要求要低太多了,只要大差不差就行,能把功能实现出来就是成功 startup跟大厂比,除了关键地方的IP,很多地方就是买现成IP拼凑起来,导致基本上一个人要覆盖大厂三个组的scope,广度上去了精度自然就不够 startup调硬件performance经常没人关心,因为软件FW/compiler太多可以优化的地方了,随便多花点时间得到的收益都比调芯片性能要效率更高 性能只要和当初架构设计的差不多就行,而在架构设计的时候就已经考虑到最后的能耗比等一系列指标了,但考虑到最后的实施,其实就算是带宽和算力指标定的和Nvidia一样,功耗目标也是高出了50%以上,只能靠compiler优化特定的benchmark workload。除非是架构及其特殊,能在特定的workload上从架构上决定能耗比 在大厂呆久了,再去startup就会觉得大厂很多职位就是雕花,投入产出比其实很低,但这些雕花位置又不能砍了,毕竟芯片最后的能耗比有不少提升就是靠这样的微调工作量累积起来的 想起了前几年,当红炸子鸡Nuvia带着苹果CPU架构的所有秘密被Qualcomm收购时候,如果按照标准startup做法,采购ARM公版的interconnected,cache和memory,那Nuvia CPU跑分起码要降10%以上,跟Apple CPU的差距就直接断代了(单核)。也正是有了Qcom的SoC infrastructure支撑,才有了Nuvia第一代CPU在苹果M3/M4出来之前短暂的王朝 芯片startup要能生存,只能靠错位竞争,要么是一个细分市场,要成为明星就得做大公司短期抽不出资源做的一些方向。不然的话芯片大厂的资源起码能在硬件性能上有人力优势去调试的 Nvidia Blackwell Ultra和Vera Rubin的发布,指标上步子迈的这么大,一年一代节奏,看来是希望用 “时间+人力+生态” 形成 IP 壁垒,其实是不利于新晋startup追赶的,要在指标上把东西做出来的难度,真的是越来越大,已经实质上有点堆人力的意思。MTIA/Annapurna lab直接靠对标算力指标来追赶,迟早会翻车(做不出来或者延期) 说到堆人力,Nvidia最近招人力度又开始加大,我两周之内甚至接到了三个不同Nvidia HR的招呼,互联网公司几百人的小作坊也在快速扩张招人来应对,Google TPU组这两年在以色列和印度扩张非常可观,基本是奔着翻倍去的,Meta的MTIA今年大扩招也是奔着50~100%扩张 ------------------------------------ 从芯片设计来看,即便是o3如此强大的AI再发展下去,离自己设计芯片,来取代芯片工程师的职位,仍然很遥远,o3o4o5的进步是10分到50分的事情,而现在的芯片早就进化到堆人力从90分往95分逼近了 当然了,半导体行业广泛采用claude3.7/o3级别的AI,确实也是有帮助的,我这两个月用AI提升的效率,我觉得已经稳稳有20%+的水准了 不用纠结o6o7o8能不能自己设计芯片,因为只要人+AI有更好的效果就行 AGI摆脱工具定义的标准,是人+AI有没有比AI产出更高 只要没有达到这个标准,那么AI仍然是工具属性 可预见的未来内,我看不到AGI摆脱工具定义的可能 ---------------------------------- 最近几个月都是一周80+小时工作,差不多快是人间蒸发的节奏,思考人生的时间都不够用了,追热点都是有代价的,生活不易,猫猫叹气.jpg
fin
10个月前
最近仔细调研了一下,发现一个有点意外的事情,其实即便是FAANG这样的互联网大厂程序员,经常使用GPT的SDE的比例(比如说每周至少用一次,门槛很低了)比想象中低,准确的说,只有50~60% 刚得到这个数据的时候还是有点惊讶的,比直觉上低太多,这已经是排除了所有其他干扰项只看SDE的使用比例数据了 互联网公司内部做genAI/LLM工具的组,竟然也得自己分析如何提高公司内部用户留存率,笑死,竟然不是程序员们求着要用,chatGPT都问世已经两年了 所以在大厂里做SDE,只需要每周用一次GPT/genAI,就已经在拥抱genAI这项上四舍五入超越了快一半同行🤣 至于可能的原因,估计主要是现有老业务比较熟悉,coding和debug也都是业务逻辑,能用的地方不多,就算用了GPT也提升不大。 以至于在公司呆的越久的人用GPT热情越低,也是非常明显的普遍现象 另外的原因,估计也是LLM的表现不尽如人意,就算是有公司内部组专门做RAG而且水平不低,神经刀式不稳定降智也是常有的事 用公司内部的agent tool的人就更少了,百分比太低,以现在agent处理复杂业务问题的稳定性和可控性水平,能经常性玩转真是不容易 我也搜了一下网上其他人的调研进行验证,和我的数据结论基本是接近的,比如Gemini找了不少resource也说大厂weekly使用比例在50~75%之间 所以劈柴去年10月说的什么Google内部超过25%的code都是AI写的,那纯粹是画饼都不讲基本法了 这还是和genAI离得最近的程序员群体,如果把其他领域算上,那普及率就更低了,半导体员工经常使用公司genAI tool的比例,在20%以下 绝大部分传统半导体厂甚至没有内部支持的靠谱RAG(RAG做的非常差劲+不同组之间的资料是全保密的无法access,更不说RAG),经常用genAI tool工作的比例(定义为每周用一次)能有10~15%不错了 openAI的颠覆所有领域取代程序员取代人的雄心壮志,只能说路漫漫其修远兮,即便是在硅谷,也没那么快 作为一个半导体从业者,这一年我也算是尽可能的使用genAI tool了,工作中平均每天的使用次数在10次以上,目前的感受是提高的效率很有限,可能…有5~10%?大概就是每周能节约几个小时的水平 ---------------------------------------- 2025新年resolution,更加积极的使用genAI tool,能通过genAI提高工作效率20%,我就非常非常满意了
fin
10个月前
文明发展一定是朝着信息自由流通阻碍越小的方向行进,每一次信息流通门槛大幅降低,就会带来一次新科技革命 从信息流通门槛底层逻辑,看LLM这一波浪潮能走多远,想清楚这一点,是我2024年最大收获之一 LLM在信息流视角上实现了两个历史第一次: 人和信息流交互做到双向互动 用token统一了多维度信息 ----------------------------------------------- 信息流通门槛大幅降低,主要从两个视角来看 ----------------------------------------------- 第一个视角: 科技的发展换一个视角来说,本质上是人和信息流的交互方式的进化 ----------------------------------- 电脑(操作系统OS)革命,互联网革命,移动互联网革命,从更高抽象层都是对于人和信息流交互的革命 电脑革命,也就是操作系统革命,是人机交互最早的形态。比尔盖茨最初的愿景就是创建一个图形界面GUI,windows就是一种抽象层,让人可以忽略底层的硬件资源管理,构建一个虚幻的可以任意使用硬件的幻觉,用图形化的方式让人们更容易操控硬件(电脑),和电子数据/信息流交互 而人机交互界面本质上是人和信息流交互界面的具象化 互联网革命让地域上的信息交流在物理距离上和成本接近零,大幅降低了人和人创造出的信息流交互的门槛 移动互联网本质上是人机交互界面的迭代,UI的易用性,使用门槛,使用场景渗透,即时性和笨重的电脑比都得到了大幅增强 移动互联网在形式上更方便,比如触摸屏,碎片化时间利用率大幅提升以及视频/音频/LBS的随处采集,再一次降低了人和信息流的交互门槛 为什么所有的公司都需要app?本质上是因为要适应于这个新的UI(人和信息流)交互模式 为什么AR被寄予厚望?就是因为这可能是比手机更高效易用的UI(人和信息流)交互模式 ------------------------------------ 解释了这个视角之后,再来看LLM在这个视角下的历史进程地位 科技历史上看,从人和信息流的有限固定交互(书籍/电脑或静态网页),到人主动去定向低效捞取信息(搜索引擎),到推荐系统去猜人的心思推送信息流方式的交互(社交网站,Twitter),再到人可以主动高效和信息流双向互动(LLM)。 LLM让信息流第一次有了“生命”,有基本的模拟推理能力,agent flow让信息流可以和人进行双向互动(互相启发思考),信息流对人的理解能力,反馈精度提高了太多。任何历史上人类创造的方法/经验,编程方式,都以“活的信息流”和人互动的方式大幅降低了信息流的获取难度 甚至在此基础上信息流的“拟人化”模仿人类调用外部工具处理/分析信息,更贴近理解人的上层意图,让自动化范围更广,本质上是把人交互信息流的抽象层又抬高了一层 这种主动贴近人类意图(agent flow)的像是有生命的拟人化信息流,也是历史上第一次出现 如果说web1.0到web2.0,从静态网页单向展示,变成了人和人之间有了互动,那么AI1.0和AI2.0的区别,就是从推送系统信息流个性化单向展示,变成了人和信息流双向互动 ----------------------------------------------------- 那么AI3.0在信息流视角的下一步加强会是什么?也许就是人和多个独特信息流的多向互动 每个人都是自身独特人生经历所过拟合函数的产物,只有过拟合才能保持作为人的独特优势,人和人的交流之所以有价值,正是因为能取得自己的过拟合函数所无法取得的视角,信息以及方法论,从而修正自身 人 = 过拟合函数 群体智慧不仅仅只是广度互补,更重要的是各个过拟合函数之间,会有新的组合火花碰撞出来,对新组合的价值评估也更为容易和准确,因为A和B排列出来的新组合的价值很可能是在第三个过拟合函数C眼里才得以闪光 而新组合得到价值超于预期的验证之后,就会正式成为创新 所以多个独特过拟合的信息流和人交流,会碰撞出比单个"全拟合"平庸的LLM信息流多的多的灵感 AI4.0在AI3.0基础上的下一步加强是什么?多人(包括数字分身)和多个独特信息流的多向互动 加入多人在实际世界中的经历之后,带来的碰撞和消除信息差会效果更好,因为人作为消费者的视角和实时反馈,可能是会比信息流更新的信息 数字分身是一个非常好的解决方式:从人类历史信息获取门槛的角度,印刷从10万门槛降低到1万,交通发展从1万降低到1千,互联网/搜索从1千降低到100,在线教育从100变成50,chatGPT把门槛50变成了5,数字分身则把门槛进一步降低,打通了历史上信息流通最大的障碍:人与人之间1v1低效的交流,以及场合所限的物理隔阂 功利的信息交流角度,这是一种高效打通人和人之间信息流通的渠道,现在非常多信息和机会其实是很需要人和人之间的互动交流的,这样的1V1互动交流其实是很低效而浪费时间的。 而有了这种新的方式,你去调研一群人的想法,以后不需要一个一个走访了,大家的数字分身交谈完了,来个总结就行 --------------------- 比如未来的AI/agent scale的方向,很可能就是复制人类的文明史:分工带来更好的过拟合结果,执行层和管理层分离带来更高效率,不同领域过拟合的个体交流碰撞才能出来更多的组合火花 ------------------------------------------------- 第二个视角: 在历史上第一次,LLM打通了不同维度信息之间流动的障碍,把所有的信息,从视觉,听觉,文字,图表用同一个格式统一了起来:token 信息流动门槛在多个维度的大幅降低,为什么会带来无数组合的机会? (组合=创新) 1.互联网上不同信息流的互联快捷性以及易用性,打破学科/产业之间的隔阂更容易,让更多不常见组合成为了可能性,创新的速度更快了起来 就像一种“化学反应”:原本看似不相关或难以结合的元素,如今能被灵活地拆分、重构、重组。每一次的组合都是对社会、商业和技术形态的一次新探索,因而能够催生出数量级增长的创新与应用机会 2. 不同维度,不同格式的信息流之间,拥有了一个通用超级接口 信息流之间理解力强,降低了interface接口精确性要求(一般接口种类繁多,各有自家定义,格式严格精确性要求高,还要考虑兼容,做到通用性不容易),大大提高了接口的通用性 相当于把各种接口一统江湖,降低了各个子领域技术组合的门槛 当信息可以用统一的方式(token)进行处理,各种原本分散、隔阂或需要大量人工解析的内容就能够更顺畅地打通。不同学科、不同产业之间的数据、知识更容易被整合、交叉引用、自动调用。 比如说,视觉、听觉、文本、图表等都能以统一的“token”形式表示和处理,也让机器人,或者具身智能,成为了可能性: 通用信息流有了"生命",自身的“理解”/“推理”能力,让视觉、听觉、文本信息流之间障碍减少几个数量级,可以在同一套系统中对多模态信号进行综合判断。不仅降低了对各模块“精确接口对接”的依赖,在数据训练上scale up效果也非常好,甚至能接入游戏GPU生成数据scale up 特斯拉的自动驾驶是另外一个证明,端到端的自动驾驶策略在scale up效果上,充分发挥了统一各种信息流的优势 --------------------------------------------- 从这两个视角来看,LLM在信息自由流通门槛上大幅下降,没有任何疑问 LLM在这个视角下的历史进程地位,有没有达到了和互联网革命相似的水平?2024年的chatbot水平也许还没有,但在可预见的未来是很有希望能达到的。 就像Sam今天发的那样,未来有更长的context,有更好的memory,造就出更好的agents,也就是更有生命力更拟人(能在open ended task有更好表现)的信息流。 那么这两个视角的信息自由流通门槛的下降,与人交互信息流的抽象层提高程度,未来不是梦 不需要纠结LLM像不像理想化中的完全替代人的AI,不需要纠结LLM不像人类那样有0-shot的推理能力,只要能达到信息自由流通门槛的大幅下降,已经足够引发一轮类似互联网革命的科技浪潮了。 还是那句话,科技的发展,甚至文明的发展,一定是向着信息流的networking交互越来越多,交互门槛越来越低的方向前进,因为这才是探索新组合(也就是创新)更高效的方式,最后活的更好的一定是信息流自由交互门槛更低的文明,这是必然的趋势。
fin
10个月前
反H1B的这群MAGA从论据到论点都不靠谱,难怪musk会发飙 伯克利CS满GPA毕业生找不到工作,主要原因还是21~22年各公司对线上业务增长需求误判导致疯狂扩招,两年招人超过之前十年,Meta4万变8万,Google也接近翻倍,非常惊人 之后发现业务需求没那么大,就算裁员15%也还有大量冗余,没那么多业务增长 另外的主要原因,除了经济周期+高息环境,还有印度和欧洲的薪资更低的技术中心崛起,以及CS毕业生十年增长了三倍造成供给端过剩 ----------------------------------------------------- 和大半年前写这篇引文的时候相比,伯克利CS毕业生找工作难度目前并没有任何好转,几个就业曲线仍然躺在地板上连动都不带动一下 我的感受是现在应该又多加了两个不利因素: 1.买GPU军备竞赛capex花销并不是之前预期的是短期一次性而是会持续 各家对LLM的潜力评估比一年前更好,capex持续增长,对招人预算是很大的压力,花钱招人不如花钱买GPU,这个趋势在2024全年非常明显,比如Meta在去年底今年年初的时候巨量吃进H100,招人名额砍的狠,到后面才开始分部门分业务priority慢慢恢复 2.各个科技公司都在战略上招更多LLM/AI skillset的人,因为这是唯一确定的增长点,AI部门headcount数量和包裹都给的非常慷慨(AI offer比一般offer高20~40%),总招人预算增长不多的情况下,其他领域基本上会战略上收缩或者减缓扩张,凑headcount给AI部门,所以结构性部门调整的特征也很明显 今年互联网大厂新招的员工不多,据我的不完全统计10个里怕是6~7个跟LLM/AI项目组是相关的 半导体公司作为比互联网公司预算更紧张的领域,这个趋势今年非常明显,高通和AMD都是整体裁员3~4%,把有限的预算放进AI这样的确定性增长机会进行扩招 ---------------------------------------------------- AI/LLM的辅助coding对程序员效率的提升会不会对当前大厂CS 就业有严重影响? 至少目前的情况下这不是主要因素 现在各个互联网大厂只要是跟genai相关的sde组都非常累,从上到下timeline压力非常大,肯定不会愿意开发速度减慢,如果有AI工具产生的效率提升,也不愿因此裁员 因为各个VP/SVP的压力都巨大,巴不得多要资源多要人减少项目上线的时间线risk,在这上面卡人卡资源风险太大 ----------------------------------- 那么长期来看以后的CS就业会不会因为LLM效率提升而降低需求呢 大厂CS工作和startup/小项目在LLM的辅助提升效果上可能并不一样 大厂的业务项目复杂度和规模普遍来说要高几个数量级,稳定性鲁棒性严格,design review/CR流程严格,一口气提升巨大不现实。小型项目在快速试错,原型搭建上效率提升会非常显著,效率翻倍甚至翻数倍也是可能的 虽然大厂内部LLM工具链做的完整,但整体来说效率提升(和完全不用相比)并不高,太多的debug和coding都是业务逻辑相关 以我的感受,一般大厂高级程序员(L5/E5/SDE3为例)平均50%工作时间在coding上,coding部分能提升10~40%效率,一个熟练使用目前GPT/Claude工具链的大厂高级程序员来说,在现有熟练业务~15%整体效率提升是一个比较合理的估计(新业务新领域上手效率提升多一些) 至于某些公司宣称的啥“特定场景”提升55%效率,PR宣传而已,笑笑就好 LLM在closed domain上的效果要好得多,因为有明确的reward函数,这次的o3数学上惊艳在reward函数上也是有秘密的 但open ended question上,目前的这种reasoning模式效果要差很多 即便是software engineering这样看起来LLM已经进度巨大的部分,也有太多的open ended task,task在各个维度上直接和间接需求以及legacy都是什么,从各个其他team和上下level的resource,priority,dependencies,bottleneck都是什么,这些看似close loop的问题实际上是open ended的,每一个决策看似close loop,实际上在这个“看似封闭”的问题中往往暗含大量“开放式”不确定性,用close loop思维和open ended思维做出的结果差异是很明显的 人的介入,本质上就是把open ended questions简化成closed loop question,或者在出现open ended scenario的时候介入,把搜索空间收敛起来 agentic flow也就是在模拟把open ended question简化成closed domian的过程,随着算力的进步效果会慢慢变好,这个过程也会和人一起协同进化,但本质上是人把更高抽象层的开放问题简化分拆给AI 可预见的未来内,人+AI一定比AI要强,不管AI进化到何种程度 这一代的genAI/LLM效果有多好,完全取决于使用的人,因为需要依赖人把open ended task变成closed loop tasks,从这一点来说,和过去的自动化工具没有任何差别。LLM在可预见未来内对于大厂程序员的整体效率平均提升20~30%应该是没有什么问题的,LLM用的最熟练的程序员肯定远不止这个效率提升,但程序员们对genAI使用的平均水平还要再打折扣 所以说LLM在大厂规模化取代程序员,在可预见未来范围内不太现实,20% headcount扩张对于互联网公司长期平均来说就是两年的招聘扩张额度 这是开源节流中的节流部分影响(降本增效),但开源可能才是影响就业更重要的因素 CS就业的好坏更本质上还是取决于创造的疆域(价值),现在还处于llm实际应用没有深耕的初级阶段,等到了深耕阶段,需要海量相关开发人员scale up,在各个领域降低成本和创造价值,就像互联网革命里Google和Facebook在15年前还是小公司一样,需要的sde大量扩张都是业务开始scale up/深耕的阶段 疆域的拓展一般是指数型,也就是初期增量看起来很弱,像是存量表现,经过长时间累积增量才会显著 刻舟求剑的说,2000至2004年互联网企业都刚创立不久,不需要那么多sde(互联网的玩法摸索也花了二十年),所以sde也经历了寒冬,大家都在转行画电路板layout,sde的北美就业直到近十年之后的2013年才开始彻底爆发,会写bubble sort就有offer,到2022才戛然而止
fin
11个月前
Intel传说中的大招18A制程和台积电比到底是个啥水平我一直很好奇,最近终于有点线索了,从密度/良率/功耗稍微整理一下笔记 这十几年来,所谓的5nm3nm制程早就成了营销数字游戏,并不是真的做到了这么小,电路gate实际尺寸仍然是20nm,只不过gate等效密度标为3nm,等效密度才是横向比较的重要KPI之一 先说结论,intel 18A可能和台积电N3E制程密度相当,九月良率0.4 defects/cm2也在可控范围,可能需要4~6季度ramp up才能达到0.1 defects/cm2的比较理想的程度,在2025年,intel可能真的把和台积电的差距缩小到了一代以内 ISSCC 2025 会议日程最近刚出来,intel在缓存SRAM密度上透了个底,18A达到了台积电N3E的水平0.021um2,比台积电N2的0.0175um2还是略差一点(图中的台积电2nm 38.1Mb/mm2包括完整的SRAM macro,不能直接换算) 不过SRAM只是缓存,台积电5nm->3nm两代SRAM密度停滞没进步了(0.021um2),缓存密度不代表HP logic的密度,只能靠其他角度推测 在这季度intel earnings call上,intel说芯片HD密度(chip density)和intel 3比起来大概提升了30%(1.3x scaling),已知Intel 3密度160 MTr/mm2,和N4P接近,以此推测intel 18A的密度大概在 210 MTr/mm2,和台积电N3E的215MTr/mm2基本持平,和台积电N2比则要少15%以上 intel为什么能暂时缩小差距,其实是因为提前用了GAA + BSPDN技术储备,但即便如此SRAM也只能和台积电3~5nm 上一代FinFET技术密度打平,这也算是不错的策略,跳过把FinFET榨干到极致这一步,直接和台积电N2几乎同时开始下一代GAA技术,不管做的粗糙大小先实现出来再说 台积电在SRAM尺寸上停滞了两代,终于N2上能把SRAM做的更小,说明台积电在GAA技术上也获得了不小进步 最后的结果来看,18A和台积电N3E从logic密度和SRAM密度基本打平,也就是说intel应该是成功的把差距缩小到一代以内了,从时间线上甚至能在台积电N2出来之前做到几个月的制程密度并列领先 18A后等台积电N2出来那就是王者归来了,无论是SRAM密度还是logic密度,都有15%的领先 良率上就没啥好说的了,最近有一些rumor连芯片面积都不谈就说intel的良率只有10%云云,只能说抛开面积谈良率就是耍流氓,如果是H100这种800mm2级别的GPU大芯片,初期10%已经是很不错了。 一般谈良率都是单位面积多少defect,在9月的时候intel CEO Pat说过良率已经可以做到0.4 defects/cm2,相比台积电N5在初期的时候也是0.33defects/cm2并不算夸张,台积电大概花了5~6个季度提升到了0.1defects/cm2,intel应该也能做到类似的程度。 另一个传言说Broadcom说第一版在intel评估结果不达期望,这个就不好说是因为良率不理想还是其他因素了(比如功耗不达标),大概率和良率无关,毕竟良率改进是正常流程 就像当年三星瞒报自家4nm工艺的功耗问题,给高通做骁龙888直接功耗翻车,让高通高层震怒,从此以后即便是用三星制程也顶多是三星和台积电并行,这种内行都能翻车的事情,不在局中就很难判断了 另外一个intel代工潜在的问题就是PDK,也就是给外部客户用的PDK (Process Design Kit) ,broadcom用的据说不是1.0版本的PDK,也许这方面还做的不成熟,毕竟之前intel fab的PDK都是给intel内部用的 总体来说,intel的18A可能没有惊喜,但也算是真的拉近了和台积电的差距,Pat的自救心血值得尊重。 Intel芯片制造其实对地缘政治,和整个AI芯片热潮代工体系来说,都是潜在影响不小的事情,也算是万众瞩目了
fin
1年前
大模型Scaling law撞墙,基本从年初PHD们吐槽到了现在大佬们公开谈论 作为半导体从业者,这集看了太多遍不能更熟悉了 芯片行业scaling law统称摩尔定律,各路媒体在十五年前就开始悲观的展望摩尔定律消亡 有一个反直觉,或者说主流媒体这几年并不报道的是,制程摩尔定律,竟然比二十年前更快了 摩尔定律的本质,是很多个技术曲线的scaling law前赴后继的组成了一道一道S型技术曲线,累积叠加造成的幻象:芯片每单位面积能容纳的gate数量指数型增长 实际上现在的所谓4nm/N3E制程节点早就成了数字游戏,电路gate的实际尺寸仍然是20nm,只不过gate密度是等效3nm 这就和AI目前的情况一样,LLM的pretraining阶段的大力出奇迹,只是目前阶段投入回报比极佳(最佳)scale up的路线 每个技术曲线的scaling law都是有寿命的,不存在一招鲜吃遍天的情况 AI的LLM的pretraining的撞墙,在AI领域发展长河上,和芯片制程里的众多革命性S型技术曲线一样(比如double patterning,EUV),是一项亮眼的,值得反复在教课书上称颂的里程碑式技术曲线 正如摩尔定律早已经不是侠义的摩尔定律,而是广义的摩尔定律一样 比如在计算机架构上,Domain specific architecture能玩的花样也越来越多,俨然成了新一道S曲线的快速增长期 如果看前几年的hotchip论文集,很明显,摩尔定律不仅没有停滞,反而在加速,仿佛回到了十几二十年前架构的百家争鸣的新黄金时代 看多了半导体的摩尔定律历史,再看LLM pretraining阶段scaling law撞墙,在更大尺度上的AI发展看起来,不会是什么阻碍 AI的发展,仍然会维持每十年软硬件加速六个数量级的指数发展作为背景板,会有各种广义的加速路线来维持这个指数型发展 中间没有S型技术曲线的真空期,确实会延缓一些速度,比如2012~2017年的摩尔定律。但即便如此,前一代的技术红利商业化还能吃很久很久,即便是supervised learning,现在仍然是在已经很惊人的体量上保持着夸张的增速呢
fin
1年前
一个感觉,北美IT行业打工人的超级红利期可能一去不复返了,或者说,这个寒冬会比以往更久一点 何为北美的超级红利期,就是拿着其他国家(印度/东欧)IT打工人三五倍的工资干着差不多的活儿,公司还继续大幅扩招,导致市场缺人可以一直compete拿大包裹,就像22年初夸张的三年经验SDE2拿42万+大包裹 从22年中形势急转直下开始,整整两年了,IT行业就业仍然艰难 虽然这一轮寒冬可以说是经济周期+高息环境,各个公司降成本战略下带来的直接影响,比如F/G23大裁员主逻辑就是按同级别薪资从高到低(或者unvested股票来算) 但即便是软件行业周期性寒冬,这一次的回复周期可能会比之前要更长,因为这一次不仅是降本 + 过量CS毕业生供需调整的问题,更是因为技术/信息获取门槛大幅下降导致其他国家的IT打工人水平和硅谷的差距飞速缩小。 从其他地域招人带来的正收益越来越明显,感觉到美国,或者说硅谷,在技术水平,创新能力,还有信息上对印度/东欧的优势已经越来越小了 比如Google不少组写app的工作早就外包到东欧了,比如华沙。欧洲的工资确实很低,就连伦敦的Meta都只有总部一半的工资,东欧的工资是总部三分之一都不到,相比起来加拿大的工资是北美的70%对公司已经属于高成本地区。美国一个员工的工资(比如senior 50万美元的包裹)拿到印度去可以招一整个团队,这个说法毫不夸张 更夸张的是不少公司从2022年开始,为了降本增效,已经默认北美之外招人,北美职位空缺了不补,直接在印度补位子,通过这种方式慢慢把高成本人力地区慢慢移到低成本人力地区。 换句话说,IT行业的红利在地域上出现了分化,北美的红利期扩散到了印度和东欧的IT打工人红利期 软件行业会不会一直繁荣下去?很显然会,这个世界的数字化和软件化进程并没有停止,世界的数字化软件化带来的收益也已然还能保持可观的正收益。只是对美国的程序员依赖在降低 从前美国和硅谷的团队和海外office比,人才技术水平显著更高,长期接触最新的技术而掌握的信息和经验,确实是宝贵的。所以公司有非常强的意愿在硅谷成立公司,在办公室一起上班,投入确实大,但回报更为可观。 但信息扁平化让其他地区的人才技术水平快速提升,差距明显缩小,十五年前没有cousera和udacity的时候,要和stanford/MIT上同一个水平的课很难找到途径,而现在,几乎所有的CS课程都可以online找到顶尖CS名校的资源,还能附带project,甚至去raddit专版还能找到一大堆人讨论课程作业,这是十几年前完全不敢想的事情 也许有人会说,只有比较事务性或者非核心的工作才会外包,但这个局面显然也会慢慢改变,越来越多的公司在印度和东欧开分部,等同于是大规模提高从业人员的整体水平,大幅缩小信息差,海外的员工技术提升是非常明显的。就像当年的微软亚洲研究院,等同于大陆的IT黄埔军校,培养了大量后来流向各个公司的技术骨干 这样做的公司越多,信息差和技术差缩小的速度就越快。 这个逻辑可以看看提前10~20年就发生过同样趋势的半导体行业就知道了,最近惊闻某北美半导体大厂的内部技术峰会,印度分部贡献的paper已经超过了60%,于是技术峰会破天荒的直接搬到印度去开了。谁还敢说只有硅谷才能创新? 作为半导体行业已经经历了完整一轮这样的过程,所谓的核心业务不放到海外,一定只是暂时做不到而已,海外的office分部有充足的人力budget,当总部姐妹组的业务出现需要而人员短缺时,就是扩张scope的大好机会,这个蚕食过程很缓慢,但基本很难逆转。 说完了美国岗位的限制,再看供给端:13~19年,21~22年的超级红利期刺激下,CS科班毕业学生供给量估计是十年前的5~10倍,MIT 40%的毕业生都是CS专业,2023年开始IT岗位已经恢复了一些的情况下,仍然在消化21~22年过度招聘的那部分senior,名额轮不到没经验的新人,这个时候海量CS毕业生就业情况就显得格外可怕了 等到降息开始市场持续恢复两年,把市场上闲置的senior消化的差不多了,进入下一个扩张周期,新红利期下的CS毕业生的情况估计会好些,但很难找到前些年的那种疯狂的超级红利期了,毕竟CS毕业生的水平是最容易被印度和东欧取代的。 根据这个规律来推,美国资深的senior工程师还是会出现短缺(在扩张周期),因为印度东欧的员工大规模技术提升也是需要时间的,资深工程师的好日子应该还有~10年 等到10~20年后,印度东欧也掌握了部分不少业务,团队培养逐渐成熟,美国的资深工程师的优势就更小了。