Susan STEM
2个月前
程序员现在真的要开始深度思考一个问题: 算力大基建铺好了,这么多海量算力——到底要用来干什么? 我们都觉得自己是小虾米,跟“国家级基建”“能源部批文”这些大词没关系。 可真的无关吗? 最后这些算力要落地,不还是靠一行行代码、一段段逻辑来跑? 谁在写逻辑?不就是我们吗。 我那天就在想,几年前一个闺蜜跟我说: “我觉得你肯定喜欢那个东北雨姐。” “我怎么会喜欢这种..." 但她还真说对了,我确实背着她在看东北雨姐的视频, 连她那个东北小老公我也挺喜欢的。 我后来就开始想: 如果要让推荐算法算出我这种又隐秘又细微的小心思, 要消耗多少算力? 得跑多少数据、训练多少模型、调多少参数? 我们用几百兆瓦的电,几万个GPU, 只是为了精确预测一个人深夜会偷偷喜欢哪个网红? 这就是“智能时代”的伟大成就? 把全世界人所有最隐秘的小癖好、恶趣味、情绪波动全都算出来, 然后精准地推荐回给他们, 让他们沉溺其中,再看一条、再买一点? 这就是海量算力的用途? 这就是我们程序员亲手写出来的文明形态? 我不反感推荐算法,也不是不懂商业逻辑。 但当我们能支配的能量已经大到可以模拟宇宙、 可以预测生态系统、 却被用来计算“谁会多看一眼谁”的时候, 你不得不开始问: 我们到底在建什么? 是算力大厦,还是注意力监狱? 敬请关注:
皓樂芒
2个月前
小V对这张牛图的感想是,“啊这不就是用复杂的会计术语来描述的 “实物抵付” 吗?” 这个以Nvidia为核心的AI生态风险在哪里呢? Nvidia悖论的深层结构决定了这不是一个简单的商业风险,而是一个自我强化的系统在接近临界点时的结构性脆弱性。 AI产业的价值创造基于一个简单公式: Token成本下降 到 应用可行性增加 到 经济生产力提升 到 更多资本投入 然后 循环 基于此,Jansen黄仁勋的核心论述是Hopper到Blackwell芯片让token成本下降10-20倍,这个降幅足以让AI从“回答问题”进化到“自主使用工具”。这是质变。 但这里有三个嵌套的风险结构: 1. 技术依赖的脆性(Single Point of Failure) Nvidia不仅提供芯片(硬件层),还投资OpenAI、xAI、CoreWeave(应用层、基础设施层) 这意味着整个产业链的60%+成本流向同一个实体,且这个实体同时是供应商、投资者、客户 好比如果在1990年代互联网泡沫中,Cisco不仅卖路由器,还投资Yahoo、Amazon,并持有ISP股份——风险集中度会高到什么程度? 2. 资本循环的庞氏结构特征 Nvidia投资的公司(如CoreWeave)又回过头来购买Nvidia芯片。这不是传统的产业链垂直整合,而是资本-需求的闭环: Nvidia投资, 到被投公司获得资金,用来购买Nvidia芯片 导致Nvidia财报亮眼,估值上升, 形成更多投资能力, 然后投资 循环 这个循环在token成本持续下降、应用爆发时是良性的;但一旦停滞,就是多米诺骨牌 3. 不可调和的社会性悖论 现在,二元困境的consequences来了,这是真正的哲学问题, 如果情境A:AI投资回报足够 那么 意味着劳动力大规模被替代 , 社会动荡、消费能力下降、政治干预 如果情境B:AI投资回报不足 那么 泡沫破裂 然后 Nvidia需求崩溃 导致 金融系统震荡(因为Nvidia已经渗透到ETF、私募信贷、数据中心债务等各领域) 传统的“技术进步创造新工作”论述在这里遇到时间尺度问题。AI替代速度(以月/年为单位)vs 新岗位创造速度(以“代”为单位)的不匹配。 Jansen黄的策略本质是有意制造生态锁定,“我们每年改变数据中心的每一块芯片”,但这不是技术必然性,而是战略选择。 对比传统基础设施(铁路、光纤)等技术稳定的长周期资产,Nvidia的模式是强制快速迭代,让竞争对手无法建立兼容生态 这既是护城河,也是风险放大器。如果迭代速度慢下来(技术瓶颈/市场饱和),这个模式的正当性就会被质疑。 Nvidia本质上是在玩一个“速度差套利”游戏。 用技术迭代速度超过资本回收周期, 用生态整合速度超过监管反应速度, 用AI能力增长速度超过社会适应速度。 只要保持速度优势,所有风险都被增长掩盖; 但一旦任何一个维度的速度下降,系统性风险立刻暴露。 假设,假设啊, 测试一下当前模式的真实脆弱性。如果Nvidia明天宣布芯片迭代周期从1年拖延到3年(就像传统的半导体模式),对整个AI生态的资本流动会发生什么变化? 短期6-12个月内,在数据中心上的资本支出骤降,因为客户可以延长现有设备折旧周期。Nvidia毛利率下降(失去“强制升级”溢价),股价承压20-30%。 中期(2-3年):竞争对手(AMD、Intel、中国厂商)获得追赶窗口,生态多元化。Token成本下降速度放缓,部分边缘AI应用的商业模式崩溃(依赖廉价推理的应用)。 长期(5年+):AI产业从“军备竞赛”模式转向“效率优化”模式,类似云计算在2015年后的成熟化。Nvidia从“增长故事”变为“现金牛”,估值重估。 再一个,Token成本下降存在物理极限(能源效率、量子噪声)和经济极限(边际效益递减)。“10-20倍下降”能持续几代?基于当前晶体管技术,大约还有3-4代(到2030年左右)的摩尔定律空间。之后必须依赖架构创新或新物理(光子芯片、量子计算)。一旦降至个位数改进,叙事如何维持? 如果中国、欧盟或其他实体成功建立非Nvidia依赖的AI芯片生态(即使性能落后20-30%),对Nvidia垄断地位的冲击有多大?历史类比看看Linux对Windows的长期侵蚀。 社会承受力阈值即AI替代劳动力的速度上限在哪里?如果2027-2030年间白领失业率上升5-10%,政治系统的反应(监管、税收、禁令)会如何影响Nvidia的商业模式? 参考以下, 1930年代大萧条:失业率25%,导致政治体系重构(新政、法西斯主义) 1980年代制造业自动化:失业率10%,可通过服务业吸收 2008年金融危机:失业率10%,引发民粹主义浪潮 而这次AI替代的是认知劳动力(白领专业人士),这个群体的政治影响力远高于蓝领。 如果2028-2030年间,律师、会计、初级程序员等岗位的净减少超过5%,会触发临界点,监管加速,反垄断调查,社会抵制运动(类似转基因、核能的公众反弹) 直接影响AI应用层的增长速度,间接影响Nvidia需求。 如果Nvidia股价因任何原因(业绩不达预期、竞争加剧、监管)下跌40%,通过ETF持仓、数据中心抵押贷款、私募基金敞口等金融传染路径,会在哪些非预期领域引发连锁反应呢 明摆着的路径有: ETF持仓(Nvidia占S&P 500权重约6-7%) 数据中心贷款(60%成本是Nvidia芯片,作为抵押物价值) 私募信贷(大量资金流向数据中心建设) 隐藏的路径有: 养老金体系,全球养老金通过被动指数基金使间接持有大量Nvidia。如果股价腰斩,退休储蓄缩水引发政治压力。 日本央行/金融机构通过ETF持有日本股票,而日本科技股(Sony、软银)重度依赖AI叙事,Nvidia崩盘会传染到日元资产。 部分新兴市场国家的主权基金投资于AI基础设施,Nvidia下跌会影响其偿债能力。 最危险的场景是信心的突然转变。不需要基本面彻底恶化,只需市场从“AI肯定成功”转向“AI可能失败”的叙事切换,就能触发抛售螺旋。 Nvidia生态以外的威胁是真实存在的 如果性能差距可以容忍(云服务商已经在使用自研芯片如Google TPU、AWS Inferentia,尽管性能略低)。关键是生态完整性——CUDA的软件护城河比硬件本身更难攻克,但也不是绝对的 地缘政治方面,中国的AI芯片产业(华为昇腾、寒武纪)在美国出口管制下被迫独立发展,5-10年后可能形成平行生态。虽然不会直接打败Nvidia,但至少会分割市场,降低其定价权。 好比当年ARM架构用了20年才在服务器市场挑战x86,但一旦站稳就势不可挡。
凡人小北
2个月前
最近在看一圈 ToB agent 的落地情况,有个判断越来越清晰: 至少还得 1 年,国内 ToB agent 才可能真正起来。 第一,国内的模型能力,还不够。 ToB 业务链条长、场景复杂、对结果的容错率极低。 现在的大模型,哪怕再微调十遍,稳定性不够,自洽性不够,还不够听话这些问题依然严重。 prompt 写得挺对,它干的事还是不怎么靠谱。像个刚转岗的实习生,流程懂了点,但是做起来全是 bug。 第二,做技术和懂业务的,不是一拨人。 ToB agent 最大的挑战是知识怎么迁移。比如想让 agent 搞懂保险理赔、医疗问诊、法律审查……这些不是写 prompt 能解决的,它们背后是几十年经验、人情流程和模糊判断。 越值钱的知识,掌握它的人越年长,越难被结构化表达,更别说这批人愿不愿意倾囊相授。 技术今天搞出来一个 agent,业务方只会说三句话:你这不准啊、我们流程不是这样的、你这漏了关键条件,但这个流程是之前开发跟业务一起梳理出来的。 这背后藏了抵触,技术和业务之间,隔着的不是 AI,是一整座山。 那为什么 AI coding 能先跑出来?因为这事里最懂业务的就是技术自己。 谁最懂代码结构?技术! 谁能写 agent 调 agent?技术! 谁能 debug agent?还是技术! 技术是唯一一拨能自己用,自己调 bug的群体。业务等于本体,没有认知 gap,也不需要跨专业翻译,一整个闭环自然就跑通了。 本质区别在这:AI coding 是单边迁移服务自己, ToB agent 是双边博弈,需要认知共建。一个能快,一个必须慢。 对于 AI coding,只要模型理解开发者就够了。ToB agent,不仅模型要懂业务,开发者还得懂业务,然后两边还得对得上话。 这,太难了。 真正的转折点要出现:必须满足模型能稳定 编码行业知识,Agent 能封装复杂动作并处理结果反馈(前提是老顽固们愿意掏心窝),企业能放心把核心流程交出去。 到那一天,ToB 才真正算是 ready 了。 那时候再回头看 coding agent 的进化速度,也许已经不是一个量级的对比了。 技术在革自己命这件事上,从来没有输过任何群体。
Y11
2个月前
有一个常被忽视却至关重要的挑战,是技术迭代带来的架构重构难题。 当行业内新的AI模型不断涌现,许多人可能会误以为只要简单替换最新模型就能实现突破。 但实际上,每一次技术升级,哪怕只是模型检查点(checkpoint)的微小调整,都可能引发连锁反应。 这就像在精密的钟表里更换一个齿轮,看似简单的改动,却需要重新审视整个系统的适配性——从数据处理流程到算法逻辑,从硬件资源调度到应用层交互,都可能需要推倒重来。 以我多年的观察来看,这种架构重构往往伴随着巨大的时间成本和资源消耗。 团队需要重新理解新模型的底层逻辑,调整原有的工程化框架,甚至可能要推翻已有的技术路线。 更关键的是,在这个过程中,产品迭代会被迫停滞,用户体验可能出现波动,团队士气也面临考验。 这让我想起曾经接触过的一个案例:某AI公司在引入新一代大模型时,因未充分评估架构兼容性,导致数据预处理模块与新模型的输入格式不匹配,最终不得不花三个月时间重构整个数据链路。 这个过程中,不仅技术团队承受着巨大压力,公司的市场竞争力也因此受到影响。 为什么会出现这种情况? 核心在于AI技术的快速演进与现有系统的稳定性之间存在天然矛盾。 就像汽车行业在从燃油车转向电动车时,不能简单更换发动机,需要重新设计底盘、电路和软件系统。 AI领域的架构重构,本质上是技术发展的必然代价,也是企业保持技术领先性必须跨越的门槛。 对于创业者而言,面对这种挑战,或许可以尝试建立更灵活的技术架构——比如采用模块化设计,将核心功能解耦,为未来的技术升级预留接口;或者在引入新技术时,先进行小范围试点,验证兼容性后再逐步推广。当然,最根本的是保持开放的学习心态,把架构重构看作技术成长的催化剂,而非障碍。 技术的本质是不断突破边界,而每一次边界的突破,都需要我们有勇气重构认知与实践的框架。这或许就是AI创业最迷人也最具挑战性的地方——在不确定性中寻找确定的路径,在技术浪潮中保持前行的力量。