《日本的胶,中国的土,逆向工程的euv》 这几天,关于中国的曼哈顿计划 — 逆向工程asml的光刻机,讨论热度不小。大家也很兴奋,毕竟是一个重大突破。 但如果从工程技术角度,摒除意识形态,仔细扒一扒,就会发现,事实和理想还有差距,而且不小。 因为如果把问题真正拆到工程层面,会发现决定一条技术路线能不能长期跑下去的,往往不是最热的媒体热点,而是一些看起来不起眼的细节。 本文暂不讨论逆向光刻机的进展等细节,仅讨论一下最近另外一条不那么起眼的新闻:日本对华(限)断供光刻胶 在先进制程中,光刻胶决定的是工艺窗口有多宽、随机缺陷能不能被压住、良率的尾部会不会失控。 换句话说,有euv,但没有光刻胶,也无法让先进制程的良率上去,没有良率,成本就下不了,成本下不来,就没有订单,至少没有国际订单。 这也是为什么,卡光刻胶往往比卡设备更隐蔽,但在工程上更致命。 没有多少民科了解日本光刻胶的难度,习惯性的认为只是一个光刻过程中的耗材。但现实要复杂的多。 日本高端光刻胶非常难以复刻,因为这不仅关系到某些化学结构,更重要的是取决于整套生产与控制过程,线性的,无法快速迭代的,生产与控制过程。 从超高纯原料控制、聚合反应路径选择、分子量分布管理,到杂质统计、批次一致性、长期老化行为,这是一套高度工程化、长期演化的体系。 它是靠几十年的失败样本慢慢堆出来的。 累积成大量的专利,但更重要的是,很多关键判断,写不进论文,也很难完整写进专利。 它们存在于工程师对“这批料能不能上产线”的直觉里,存在于生产线对异常的经验判断中,存在于企业数十年的工艺参数和失败数据中,存在于对流程和控制日积月累的改善当中。 这就是“日本的胶”的真正含义。 不是一瓶产品,而是一整套长期运行的材料工业能力。 中国在这方面有一个非常有意思、但经常被忽略的参照: 重稀土的提炼处理能力。 这其中,真正难以复制的,不是资源本身,而是把复杂矿物分离、提纯、稳定到工程可用状态的工艺体系。 这是经过千万次失败反复试错的过程,中间要消耗大量资源,产生大量污染。 欧美并不是没有稀土资源,但真正难的是把“土”变成可规模、可控、可长期供应的工业材料。 那同样是一套高度工程化、长期积累的能力。 这也是为什么,中国的“稀土”能用来卡欧美的脖子。 更有意思的是,日本光刻胶的主要供应商之一,信越化学,同时也是欧美日为数不多的有重稀土提炼能力的生产商。(信越化学为什么既能做光刻胶,又能做稀土,我们下次另文详述) 同样的,日本的光刻胶,一样能卡住中国的脖子。 因为日本光刻胶断供,影响的是稳定性和良率。 而日本的光刻胶,在euv光刻机量产上,是绝对的垄断,也就是说,光有euv,如果没有日本光刻胶,还是生产不出5nm及以下的芯片。 就算在目前中国的 7nm的生产过程中,尽管并不是使用EUV,而是 193nm ArF DUV 加多重曝光,但仍在良率上受限于日本的高端光刻胶: 非关键层,国产胶已经可以稳定使用; 次关键层,可以国产与进口混用; 真正决定成败的关键层,仍然高度依赖日本的高端 ArF 光刻胶。 因为多重曝光会把任何微小的不稳定放大。 一旦高端光刻胶断供,7nm本已经不高的良率,将进一步下降,成本将进一步升高。 为什么EUV更离不开日本光刻胶?因为只有成熟的光刻胶才能压制光子统计噪声和随机缺陷。 7nm 关键层真正实现可控的国产替代,仍可能需多个研发周期,更不用说5nm 所需的 EUV 光刻胶。 其中一个研发周期,一般耗时3-5年,因为其必须至少包含 5 个几乎无法并行的很花时间的阶段: 基础配方探索 实验室 → 中试放大 设备联调(Scanner + Track) 产线验证(Wafer 级) 长期稳定性验证 设备的零件也许是显性的,但材料和工艺是隐性的;机器可以被拆解、被复刻,但材料和工业所需的时间,无法被逆向工程压缩。 日本的光刻胶,和中国的重稀土一样,都是那种只有在产线上、在良率曲线的尾部、在连续多年不出事故的稳定运行中,才能真正显现价值的能力。 如果说逆向 EUV也许能“把门打开”,那光刻胶决定的,是能不能在这条路上走得久。 而半导体这件事,最残酷的一点在于—— 一次成功没有意义,只有连续数年的时间不出问题,才算成功。 而时间,即使在ai时代,也是唯一无法被逆向工程的东西。
今天oracle新建数据中心的财务合作伙伴blue owl传将退出合作,引发市场对orcl债务的恐慌,进一步拉低ai板块,带跌了大盘。 那么,对orcl负债的恐慌是否有道理呢? 这个问题关乎整个数据中心板块,甚至整个ai板块在相当一段时间的走势。 如果只看几个孤立指标,答案可能是有点危险; 但如果把债务从哪来、钱花到哪、现金流什么时候回来 这三件事连起来看,结论可能会完全不同。 1、市场上常见的一个说法是: Oracle 负债 1800 亿、1900 亿美元 这在风险判断上是严重误导的。 真正需要看的只有一个数字: 计息债务(真正要付利息的债),约 105–110 billion 美元 其他数字里,混进了大量并非“债务”的项目,比如: 递延收入 应付账款 合同负债 这些不产生利息,也不构成违约压力。 2、还有一个非常关键、但常被忽略的事实: Oracle 现在背着的那 1000 多亿美元债务, 大多数并不是为了 AI 数据中心。 这笔债务主要形成于 2016–2022 年,核心用途只有三类: Cerner 医疗 IT 并购(最大的一笔) 多年累计的股票回购 低利率时期的资本结构优化 而真正用于 AI 数据中心的钱,更多体现在最近两年的 资本支出(CapEx) 上,而不是新发的大额长期债。 这也是为什么你会看到一个看似矛盾的现象: 自由现金流为负 但债务规模并没有同步爆炸式上升 3、另外就是自由现金流为负,这是很多投资者最紧张的地方。 但这里必须分清两个概念: 经营现金流(OCF):来自主营业务 自由现金流(FCF):OCF – 资本支出 Oracle 的现实情况是: 经营现金流仍然很强(一年约 200 多亿美元) 自由现金流转负,主要因为: AI 算力 GPU 大型数据中心 的 资本支出在一个阶段性高峰 这是一个典型的基建型现金流模型(对房地产熟悉的朋友应该很清楚),先投资建设,再慢慢回收。 4、那利息会不会压垮 Oracle? 数字说话: 年利息支出:约 30–34 亿美元 经营现金流:约 210–220 亿美元 也就是说: 利息覆盖倍数在 6–7 倍左右 这是一个在信用市场里非常安全的水平,远不到“危险边缘”。 更关键的是—— 已投产的 AI/OCI 算力 已能覆盖 约一半以上的年利息 到 2026 年高概率投产的大型数据中心相关经营性现金流合计 大概率可以覆盖公司的全部年利息(注意是全部,包括之前并购等非数据中心业务的利息) 这意味着 Oracle 的现金流结构还会继续改善 5、那为什么评级看起来已经快到垃圾债了? 这并不是 Oracle 独有的问题,而是一个评级体系的结构性滞后。 评级模型更擅长评估的是: 轻资产软件公司 或传统周期性行业 它对以下情况并不友好: 前期 CapEx 极高 回收期 3–5 年 但现金流确定性很强的 AI 基建模式 于是结果就是: FCF 为负 → 扣分 债务绝对值高 → 扣分 身份模糊(不像微软,也不像电信) → 再扣分 从模型角度看“合规”, 但从现金流事实看,确实偏苛刻。 总结:Oracle 不是一家“债务危险的公司”, 而是一家正在从传统软件公司, 转型为 AI 基建现金流公司的企业。 市场和评级,对这一转型的理解明显慢了一拍。 真正值得关注的,已经不是“它会不会出问题”, 而是: 它会不会选择去杠杆? 还是继续用 AI 现金流加速扩张、回购? 这是战略选择的问题,不是生存问题。 如果用 AI 基建 + 现金流周期 的视角重新看它, 就会发现:很多“风险”,其实只是转型期的噪音。
今天美股大跌最重要的原因,并不是orcl,avgo财报不好,至少不是最重要的原因 最重要的原因是,联储开始降息,但长期国债收益率不降反升,收益率曲线变陡(熊陡)。 说明市场认为,短端由 Fed 控制,长端fed控制不了! 在 AI 产业革命拉动生产率提升,同时要大规模基建的背景下,真实资本需求上升,自然利率本来就应该高。 这让联储本就困难的局面雪上加霜: 联储当前面临的并非传统通胀–衰退二选一,而是多目标约束下的次优解选择。 其隐含的新平衡可概括为: 中等偏高通胀 + 被压低的短端利率 + 放手但不失控的长端利率 + 就业托底 这意味着: 在相当长的时间内,美联储将系统稳定与就业托底置于优先级前列 通胀目标从“硬约束”退化为“长期方向” 不愿、也难以实施显性 YCC,但更倾向于通过结构与工具设计维持金融系统可运行性(隐性YCC) 在该框架下,全面宽松不再是常态,全面紧缩同样不可持续。 在这样的政策与利率结构下,股市面临的环境具有以下特征: 流动性不断供,但不外溢 长端利率持续压制估值扩张 波动率、结构性分化加剧 股市可以长期运行,但难以依靠流动性实现系统性估值抬升。 在这样的环境中,市场奖励的不是“叙事”,而是真正的业绩增长,正现金流,高资本效率、低融资依赖 这也就决定了作为投资者,要找的标的范围更小,也更简单。
openai 发布了gpt5.2 巨大的能力提升,再次证明scaling law前面没有墙,ai经济没有泡沫。 个人认为最好的评论是下面这一篇(节选): “一年前,在 ARC-AGI-1 上达到 88% 准确率,估计每任务成本约 4500 美元。今天达到 90.5%,只需 11.64 美元。 12 个月内成本降低了 390 倍。看看那个排行榜。效率前沿几乎每几周就被重画一次。 GPT-5.2 Pro、Grok 4、Gemini 3 Deep Think、Claude Opus 4.5,全都沿着从左下到右上的对角线层层叠加,每一个新模型都让前任的性价比瞬间过时。 大多数人还没搞懂这个基准的意义有多大。 François Chollet 在 2019 年专门设计了 ARC-AGI,就是为了对抗暴力堆算力的路子。他的核心论点是:大语言模型只会死记硬背训练数据,遇到全新抽象推理任务会彻底崩盘。 所以测试的每道题都是独一无二的、网上从未在网上出现过的,需要从极少样本中真正泛化。人类轻松做到 95%。多年来,最强的 AI 系统连 5% 都摸不到。 2020 年 Kaggle 比赛最高才 20%。到 2023 年也才 33%。GPT-3 直接提示得分 0%。AI 研究圈基本接受了“ARC-AGI 证明单纯 scaling 走不通”的结论,Chollet 本人说达到人类水平“还得很多年”。 然后 2024 年 12 月,OpenAI 的 o3-preview 在高算力模式下干到 87.5%,首次突破人类基准线 85%。但模型每道题要尝试 1024 次,每次写出大约 137 页推理,成本估算在 3000~30000 美元/任务不等。 仅仅 11 个月后,GPT-5.2 Pro 以 90.5% 准确率、11.64 美元/任务的价格出现。 这波成本崩盘的数字说明了一切。。。我们在过去几个月里悄悄跨过了“AI 推理比人类便宜”的那条线,大部分人都没注意到。 效率提升完全没有减速,反而在复利式增长。 ARC-AGI-1 彻底沦陷之后会怎样?Chollet 已经在 2025 年 3 月放出了 ARC-AGI-2,专为当前推理系统设计得更难。 人类依然接近 100%,当前前沿模型只有 10-45%。但即使在这个更难的基准上,人与 AI 的差距也已经从“根本能力鸿沟”变成了“成本优化问题”。 那个原本要证明 AI 无法泛化的基准。。。ai一年实现了 390 倍效率提升。”
马斯克说,先解决智能,再用智能解决一切问题 "First solve intelligence, then use intelligence to solve everything." — Elon Musk 既然智能能解决一切,那么智能是不是能赚走一切的钱? deepseek都能通过量化赚钱,大模型最近的网络炒股都能跑赢大盘,利用ai能力能轻易找到新的蛋白质或者新材料的配方, 最不济的,ai发现各种defi黑洞攻击也能高效赚钱, 那为何 AI 巨头现在“按兵不动”?宁可巨亏,也不赚这些快钱? 难道他们不知道手里握着的是印钞机吗? 答案其实很残酷也很简单:不是不想赚,而是不敢停下来赚。 这也是当下 AI 赛道最底层的商业逻辑:先赚“智能”的钱,未来再用智能赚“一切”的钱。 1. 战略豪赌:AGI 是一场“赢家通吃”的游戏 这是外界最容易忽略的一点。对于头部 AI 公司,此时此刻去深耕某个行业赚钱,无异于“战略自杀”。 因为 AGI(通用人工智能)具有极强的马太效应: 在模型很快可能就具备自我进化的时刻, 技术领先 1-2 个月,就可能是降维打击。 算力飞轮: 更多算力 → 更强模型 → 更多数据 → 即使你想追也追不上。 如果为了赚某个行业的钱而分散精力,导致在 AGI 主航道上落后,就会彻底失去未来定义规则的权力。相比于赚今天的钱,赢得 AGI 冠军才是赢得整个世界的经济权。 2. 临界点:真正的吞噬何时开始? 现在的平静只是暴风雨前夜。一旦模型突破了“自增强”和“极高可靠性”的瓶颈,达到或无限接近agi,人类工程师对模型升级迭代的影响已经不再是主要驱动力的时候,战略优先级可能将瞬间反转。 届时,AI 公司将完成身份的惊人跳跃: 从“工具提供者” → 变为“行业主导者” → 最终成为“行业本身”。 3. 隐形渗透:其实他们已经在动手了 虽然没有大张旗鼓地通过垂直整合赚全行业的钱,但巨头们正在用最轻的方式进行提前埋伏: 代码: GitHub Copilot、Cursor 法务/文书: Claude、ChatGPT 数据: OpenAI Canvas 他们现在卖的是工具(API),而不是解决方案。这既能收集全行业的真实数据来反哺模型,又避免了陷入繁重的行业运营泥潭。更重要的是,让各行各业养成对自己的依赖,当时机成熟,便可快速覆盖(接管) 结语 AI 巨头们现在的“不急”,是在等一个临界点。 他们现在的克制,是为了未来能以指数级的速度,吞噬掉软件、金融、医疗甚至重工业的利润。 今天不进入行业,是因为进入会拖慢研发进度; 但明天进入行业,那将是一场无法阻挡的降维打击。