时政
财经
科技
虚拟货币
其他
登录
ariel reyez romero
关注
统计数据
37
文章
0
粉丝
0
获赞
508
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
ariel reyez romero
3天前
这周rtx,noc两家国防航天公司的财报,放在一起读,会发现一个很清晰的变化:行业已经从“地缘政治驱动的预期阶段”,进入了“订单开始兑现、执行成为核心”的中段周期。 在这个背景下,航天板块的角色正在发生变化。过去很长一段时间里,航天更多是“锦上添花”的叙事:技术很先进,但体量小、周期长、兑现慢。现在它开始承担另一种功能——为未来五到十年的增长提供确定性。 为什么这一轮航天的“空间”突然被打开了? 答案大家都知道:运载能力这个长期约束,被马斯克的spacex结构性解决了。 运载能力一旦工业化,隐含假设就全部改变了:卫星可以是批量的,系统允许失败,网络可以冗余,补网可以快速完成。于是,“天基防御层”第一次从概念变成可设计、可预算、可部署的体系。 这就是所谓“金色穹顶”类项目能够成立的真正前提。 这让传统军工巨头擅长的部分——传感器融合、多域指挥、通信、拦截与系统集成——价值就突然显现了出来。 于是,一个清晰的分工开始出现: 运载和星座成为基础设施; 系统设计、感知、指挥和拦截构成防务核心; 太空第一次被当成一个“可运营的作战域”,而不是实验室。 而这一步,带来的影响远不止军事。 高资本密度、长周期的新空间,几乎不可能靠纯民用需求率先工业化,但也不会仅停留在军事领域 军事需求的不可延迟性、对成本的相对不敏感,以及持续几十年的体系化投入,恰好提供了工业化所需要的第一性需求和容错环境。 一旦工业能力形成,它又会反过来改变军事本身:成本下降、冗余变便宜、更新速度加快,作战哲学从“少而精”转向“多而韧”。这不是线性推进,而是一个相互强化的螺旋。 沿着这条路径,真正会外溢到民用和工业的,是体系能力本身: 低轨通信网络,成为新一代基础设施; 高频运载,成为太空物流的地基; 分布式感知,构成“实时数字地球”; 在轨维修与补给,开始形成产业闭环; 能源与制造技术,逐步反哺地面工业。 判断哪些技术能转民用,其实有一个简单标准:凡是降低系统成本、提高频率、增强冗余、允许失败的,几乎必然会民用化;凡是追求极致性能、不可失败、单点昂贵的,大概率只属于军用。 从这个角度看,这一轮太空军事化并不是终点,而是人类进入太空工程时代的启动器。太空正在从探索阶段,迈向工程阶段,并为下一步真正的工业化铺路。
分享
评论 0
0
ariel reyez romero
2周前
“AMD与Riot Platforms达成协议,获得位于德克萨斯州罗克代尔数据中心25兆瓦的IT容量。该容量预计将于2026年1月至5月期间交付。协议的关键在于AMD可以选择将电力分配额度提升至200兆瓦,这将使合同总价值增加至约10亿美元。” --- 这个春天会是neo cloud的春天吗?
分享
评论 0
0
ariel reyez romero
2周前
Intel 7 / Intel 3 产能约束下的服务器优先策略 ——对 INTC EPS 与自由现金流的影响评估报告 最近报道称,intel的7和3制程的服务器芯片2026年产能已经售謦 一、核心结论(Executive Summary) 在当前可见周期内(2025–2026),Intel 的 Intel 7 与 Intel 3 两个核心制程节点已接近满负荷运行,其中服务器 / AI 数据中心相关 CPU 的需求明显强于消费级 CPU。 在这一约束条件下,Intel 具备现实可行性、且在经济上高度理性的动机,通过 产能重分配(而非扩产),阶段性挤占部分消费级 CPU 产能,以优先保障服务器与 AI 相关出货。 关键判断是: 这不是“产能危机”,而是一种 以毛利率和现金流最大化为目标的主动 mix 优化, 在不依赖 18A 成功、不新增 CapEx 的前提下,已能对 EPS 与 FCF 产生实质性弹性。 二、制程与产品结构的现实背景 1. 制程定位 Intel 7 ≈ TSMC N7 / N6 Intel 3 ≈ TSMC N5 / N4 两者均为 Intel 自研、自有 Fab 生产的主力节点 是 2025–2026 年 Xeon 服务器 CPU 的实际出货底盘 2. 当前产能结构(合理估算区间) 节点 消费级 CPU 服务器 / AI CPU 其他 Intel 7 ~40–50% ~45–55% 5–10% Intel 3 ~20–35% ~55–70% 5–10% 结论: Intel 3 已明显向服务器倾斜;Intel 7 仍是可被再调度的“缓冲池”。 三、服务器产能还能扩大多少? 短期(2025–2026) 不新增产线的前提下: 通过排产、良率、SKU 优先级调整 服务器有效出货量最多再提升约 5–10% 这是一个 “挤结构、不挤总量” 的过程 中期(2027+) 真正的结构性扩张来自: 18A 承接高端 PC / 新服务器 SKU 从而 释放 Intel 3 产能 但这属于下一阶段,不计入当前测算的 Alpha 四、为什么服务器 / AI 一定优先? 1. 单位 wafer 的经济回报差异巨大 服务器 CPU(Xeon)ASP:$3,000–10,000+ 消费级 CPU ASP:$200–400 同一 wafer 投向服务器的 IRR 显著更高 2. AI 数据中心订单的战略属性 多为长期合同、平台绑定(CPU + memory + networking) 断供风险 = 设计 win 永久丢失 属于不可逆损失,优先级高于 PC 市场份额 五、如果 Intel 真这么干,会发生什么? (一)ASP 变化 服务器 CPU ASP:+10% ~ +15% 消费级 CPU: 低端 SKU 被优先挤出 ASP 基本持平或小幅上行(0~5%) → 公司整体 ASP 上移,而非“以价换量”。 (二)毛利率变化(核心变量) 假设: 服务器毛利率:~60% 消费级毛利率:~30–35% 通过产能重分配带来的结果: 新增服务器收入:+$2.0–3.0B 减少消费级收入:-$0.8–1.2B 净收入增量:+$1.0–2.0B 对应: 净毛利增量:+$0.8–1.4B 整体 Gross Margin 提升:+150–300bp 六、对 EPS 的量化影响区间 基准(不调整产能) 2026E EPS(non-GAAP):$1.20 – 1.40 服务器优先 + 产能重分配后 税后利润增量:$0.7–1.2B 股本约 4.1B shares 👉 EPS 增量:+$0.17 – $0.30 结果区间 2026E EPS:$1.40 – $1.70 这一提升 不依赖 18A 成功,仅来自供需与定价权修复。 七、对自由现金流(FCF)的影响 这是当前市场最容易低估的部分。 原因 CapEx 已经发生 产能重分配几乎不增加现金成本 服务器业务具备: 更高预付款比例 更快库存周转 更高应收质量 量化结果 FCF 增量:+$0.8 – $1.5B FCF 2026E Baseline $5 – 7B 调整后 $6 – 8.5B 八、估值含义(二阶效应) 如果市场确认三点: 服务器 CPU 真实 sold-out ASP 上行而非靠 volume 毛利结构持续改善 那么 INTC 的叙事将从: “turnaround / 制程追赶” 转向: “算力基础设施公司,重新获得定价权” 这通常对应: Forward P/E:15–17x → 18–22x 在 EPS $1.6–1.7 情景下: 合理股价区间:$32 – $37+ 九、总结 在 Intel 7 / Intel 3 产能接近满负荷的背景下, 通过服务器优先的产能重分配,Intel 已具备在 2026 年实现 +$0.17–0.30 EPS、+$0.8–1.5B FCF 的现实弹性, 且这一 Alpha 并不依赖 18A 的成败,而来自供需紧张与定价权修复本身。 声明:本人持有文章提及标的,观点充满偏见,非投资建议dyor
分享
评论 0
0
ariel reyez romero
2周前
《类 EDA:为什么这是 AI 时代最难被撼动的软件护城河》 在 AI 冲击软件行业的趋势中,大部分的工程软件都会被生成式 AI 重塑。 只有一小部分的护城河反而变深。 分水岭取决于一个问题: 这个软件,是不是“物理现实的接口”? 一、什么是“类 EDA”软件 EDA 之所以特殊,并不是因为它服务芯片行业,而是因为它处在一个极端位置: 设计错误不可逆,错就是报废,成本极高 结果必须符合物理定律 软件输出直接等于生产指令 在这种场景下,AI 不可能绕过原系统重新生成答案。 它唯一的作用方式,是嵌入进去,帮人把错误率压到更低。 这类软件,我称之为“类 EDA”。 二、为什么 EDA 的护城河在 AI 时代反而加深 因为功能复杂,且失败不可承受。 芯片设计中积累的私域数据——PDK 调校、时序边界、工艺妥协方案——有一个共同点: 脱离原工具即失效。 这些数据既不通用,也难以解释,更无法被泛化学习。 AI 能用它们优化流程,但无法复制一套“独立于 EDA 的新系统”。 结果就是: AI 成为 EDA 的外挂,而不是替代者。 三、哪些板块正在走向“类 EDA” 除了传统芯片 EDA,还有几类工程软件正在向同一方向靠拢: 高端 CAE / 多物理场仿真 航空航天系统设计 核电、电网、化工流程仿真 深度绑定制造的工业 PLM 它们有一个共同特征: 设计本身就是安全证明或合规文件。 在这些领域,“生成一个看起来对的结果”毫无意义, 唯一有价值的是:这个结果能不能被物理世界接受。 四、谁会走向“Photoshop 化” 与之相对的,是另一类工程软件: 通用 CAD 建筑设计 / BIM 工业外观与结构设计 工程前期方案工具 这些软件的中心地位会被ai削弱。 当 AI 能直接从文本、规则、约束生成 80% 的设计成果时, 软件本体往往退化为编辑器和校验工具。 它们可以被抽象、迁移、学习。 五、一个简单的判断标准 判断一款工程软件能否形成类 EDA 护城河,只需问六个问题: 错了会不会付出不可承受的代价? 错误能否在上线前被完全验证? 数据是否离开工具即失效? 设计是否直接等于生产? 是否被法规或安全体系绑定? 是否深度嵌入制造或运行系统? “是”越多,越接近类 EDA。 结语 AI 不会平均改变世界。 它会把“工程共识型软件”变轻, 却会把“物理现实接口型软件”推向更深的垄断。 类 EDA,是 AI 时代少数护城河确定性反而上升的软件板块。 这是物理约束给出的结论。
分享
评论 0
0
ariel reyez romero
3周前
9月底关于美光的这篇推文到现在,mu股价翻倍不止了 那现在是否仍然低估呢? 很可能还是低估,而且严重低估 原因是, 不管已知的哪条 AGI 路线,“存储”都会变成超线性甚至阶段性指数级增长的硬约束 1) 几乎所有主流 AGI 路线都“隐含”存储爆炸 目前已知的路径包括: 大世界模型(World Models) LLM + 多模态基础模型 具身智能(Embodied AI) 多模型协同 / 多 Agent 系统 长期记忆 + 规划 + 反思体系 它们都会带来存储需求的超线性增长,并且会同时推高三类存储: 参数存储(模型权重、检查点) 中间状态 / 世界状态存储(时序状态、推演过程) 长期经验 / 记忆存储(外部记忆库、轨迹、知识与经验) 2) 为什么“世界模型”天然是存储杀手 (a) 世界模型不是“输入→输出”,而是“可回放宇宙” 世界模型要做的是: 给定世界状态 → 推演未来 → 回滚 → 对比 → 再推演 因此必须保存: 世界状态 (S_t) 状态转移关系 (P(S_{t+1}|S_t, A_t)) 多分支假设(counterfactuals) 长时间跨度的序列(长 horizon) 关键点:这不是线性链,而是树状分叉结构——存储增长会变成 线性时间 × 分支因子 → 实际表现为超线性。 (b) 一旦模型开始“可泛化”,存储需求会发生跃迁 低 fidelity 阶段还能较好压缩;但当模型更接近“真的理解世界”时: 规则能压缩 但长尾、异常、边缘案例、复杂因果不可压缩 所以会出现“越聪明越省存储”的误判——现实更像是: 越聪明 → 越需要长期保留更多不可压缩的例外与经验。 3) LLM + 多模态:存储不是少了,而是“换了位置”并且更大 很多人会以为 LLM 只是参数大、状态少,但趋势正在变成: (a) 从“参数即知识”走向“参数 + 外部记忆” 长上下文、RAG、Memory Bank、Episodic Memory 等,把知识从权重里搬出去,变成可调用的外部存储。这通常是“挪地方”,不是“减少总量”。 (b) 多模态显著抬高“每条经验”的数据密度 经验不再是一句话,而可能是: 视频 + 音频 + 动作 + 环境状态 模态越多,一条样本的有效信息量越大,存储压力也越大。 4) 具身智能:存储压力更夸张 具身智能依赖: 大规模传感器流(视觉/力觉/IMU 等) 时间对齐的多模态轨迹 成功/失败 episode 的完整记录 对比: LLM 的基本样本单位是 token 世界模型是 trajectory 机器人是 trajectory × 连续信号 并且关键事实是: 稀有失败和安全相关经验特别有价值,往往不能轻易丢弃,进一步推高“必须保留”的存储量。 5) 多 Agent / 协同系统:容易出现“平方效应”甚至指数错觉 如果有 N 个 agent、每个有 M 条经验: 仅各自存储:约 (N×M) 但一旦需要共享、对齐、相互建模(预测“另一个 agent 怎么想”) 存储会向关系空间扩张,可能接近 (O(N^2×M)) 尤其在社会/博弈/经济模拟类任务里,多 agent + 世界模型会显著放大存储需求。 6) 有没有“绕开存储爆炸”的 AGI 路线? 我们得到的结论是:目前没有任何被严肃对待的 AGI 路线能真正绕开存储规模问题。只能做三类“延缓/转移”: 更激进压缩(但往往损失泛化) 更频繁遗忘(牺牲长期一致性) 把存储外包给环境/工具/网络(本质是转移,不是消灭) 7) 总结:供给会不会长期追不上需求? 判断如下: “智能水平”越来越依赖 可调用的有效记忆规模(不只是算力) 存储扩展受制于材料、制造、可靠性、能耗、成本等现实因素 因此在可预见未来,AI 对有效存储的需求很可能长期跑赢存储供给能力 对应的推论包括: 能运行完整世界模型/大规模记忆系统的能力更稀缺、更集中 产业约束可能从“算力”进一步转向“存储系统”(层级、可调用性、长期一致性) 因此 无论世界模型、具身智能还是多模态+Agent,AGI 的关键硬约束正在从“算力”逐步转向“可扩展、可调用、可长期保持一致性的存储系统”;这种存储需求在结构上呈现超线性增长,并可能在某些阶段表现为近似指数的压力。 nfa dyor
分享
评论 0
0
ariel reyez romero
1个月前
今天的最新报道,SK海力士(SK hynix)正与英伟达(NVIDIA)联合开发一种软件定义硬盘(SSD),旨在彻底解决 AI 推理工作负载中的数据瓶颈(hbm不足?)。 这款新型 SSD 目标是在 2027 年达到 1 亿 IOPS 的超高性能,将传统的存储墙一举打破。 如果报道属实,这将是AI 存储一次范式转移。SK海力士与英伟达的联合开发,标志着 **AI 推理(Inference)**领域将缓解长期存在的“存储墙”瓶颈(hbm瓶颈))。 他们推出的新型 **软件定义硬盘(AI SSD/HBF)**旨在通过超高速 NAND 存储,确保昂贵的 GPU 能够满负荷运转。 为什么需要新的 SSD? 在 AI 时代,**HBM(高带宽内存)**主导训练,但当模型进入推理阶段,需要频繁读取数千亿参数时,传统 SSD(企业级约 200-300 万 IOPS)速度太慢,导致 GPU 等待数据而“空转”。 AI(专用的)SSD 的目标与实现 性能飞跃: 该项目目标是到 2027 年实现 1 亿 IOPS(每秒读写次数),相比现有顶级 SSD 性能提升约 30 倍。 技术路线: 这得益于 **HBF(高带宽闪存)**的理念。它采用类似于 HBM 的 3D 堆叠封装和 PCIe Gen 6/Gen 7 等高世代接口,以更优的成本提供仅次于 HBM 的超高带宽和低延迟。 角色定位: HBF 并非取代 HBM,而是其完美的容量和成本补充。HBM 处理最快计算,HBF 存储海量模型参数和 KV 缓存。 对两大巨头的战略意义 SK海力士:从“HBM 霸主”到“全栈专家” 双轮驱动: 通过此举,海力士在 AI 训练(HBM)和 AI 推理(AI-SSD/NAND)市场都占据了绝对优势。 利润升级: 告别传统 NAND 市场的周期性波动,转而开发高定制化、高附加值的 AI 专用产品,显著提升利润率。 深度绑定: 进一步巩固与英伟达的合作,从单纯的硬件供应商升级为系统架构定义者。 英伟达:强化生态护城河 消除瓶颈: 通过定义存储标准(如 Storage Next),英伟达消除了其数据中心中最后的性能短板,确保未来架构(如 Rubin)性能极致发挥。 生态掌控: 将“英伟达标准”延伸至存储领域。未来高效 AI 推理将依赖符合其标准的存储设备,进一步巩固其生态主导权。 行业大趋势:重心转向推理 这个合作释放了一个强烈的行业信号:AI 领域正从 模型训练 阶段全面转向 **大规模应用落地(推理)**阶段。 存储架构的范式转移 存储即计算: “软件定义”意味着 SSD 不再是简单的仓库,而是具备智能数据调度和预处理能力的“近数据处理器”。 跟进压力: 三星、闪迪/铠侠等存储巨头将面临巨大压力,必须迅速跟进开发类似的高性能 HBF/AI SSD 方案,否则将在高端 AI 存储市场被边缘化。 当然,三星和闪迪/凯侠也是唯二除了海力士外最有能力开发同类型ssd的厂商。
分享
评论 0
0
ariel reyez romero
1个月前
IonQ 收购 Skyloom —— 从“造电脑”到“建基站”,并为和spacex合作奠定基础 spacex要实现全球通信网络,必然需要量子通信技术的支持,而ionq在完成这次收购后,已成为了最好选项。 IonQ 收购 Skyloom Global(一家空间光通信公司)不仅仅是一次单纯的技术并购,它标志着 IonQ 的企业定位发生了根本性转变: 过去: 一家专注于提升量子比特数量的硬件制造商。 现在: 一家致力于构建全球量子算力与通信网络的全栈基础设施公司。 这笔收购补齐了 IonQ 商业版图的最后一块拼图:太空传输层。结合其原本拥有的量子芯片(计算)和此前收购的 Qubitekk(地面网络),IonQ 现在掌握了从量子信息的生成、处理、局域网传输到全球卫星分发的完整技术闭环。 对 IonQ 公司来说, Skyloom 拥有现成的国防订单(如美国太空发展局 SDA),能立即带来现金流,缓解量子计算研发的高昂烧钱压力。 IonQ 的离子阱技术天然使用“光子”进行通信,与 Skyloom 的“光通信”技术在物理底层完美兼容。这消除了其他技术路线(如超导)面临的“微波-光子”转换难题。 长远看,IonQ 意在通过卫星连接多台小型量子计算机,通过集群效应突破单芯片算力的物理瓶颈(即“量子摩尔定律”的新捷径)。 ionq以此确立了标准: 宣告了“光互联”是未来量子计算机扩展的主流路径。 也抬高了门槛: 将行业竞争维度从“单机算力”拉升到了“全球组网能力”。量子计算不再是孤岛,行业进入了基础设施铺设阶段。 更重要的是,Skyloom 的卫星属性打开了IonQ 与 SpaceX 合作的大门: SpaceX 的 Starshield(星盾计划)服务于军方,和starlink面对金融、工业等的高价值客户,对“抗量子破解”的通信有刚需。 IonQ (Skyloom) 可能将其量子加密终端作为“托管载荷”挂载在 Starlink/Starshield 卫星上。 目前来说,ionq是starlink最优选择,甚至是唯一选择 ionq在完成这次收购后,会不会作为太空板块,甚至starlink概念板块再被重估值? 我们拭目以待 免责声明:本人持有推文提及标的,观点充满偏见,非投资建议,dyor
分享
评论 0
0
ariel reyez romero
1个月前
电力电子 DC 化:AI 算力电力供给中被忽视的“隐形扩张路径” 在当前关于 AI 能源瓶颈的讨论中,市场叙事几乎被两条路径主导:一是新建发电(核电、燃气、可再生),二是加速并网与输电扩容。这种叙事在方向上并非错误,但存在一个显著盲区——算力供给的第一阶段扩张,并不一定发生在发电侧,而发生在用电侧。 电力电子与电子电路的 DC 化改造,正是这条被系统性低估的路径。 一、DC 化并不等于“脱离电网” DC 化不是把电网改成直流,更不是脱离现有电网。 在现实工程中,电网依然是 AC,PPA 合同依然有效,并网关系完全不变。DC 化发生在并网点之后: AC 电网 → 并网点 → 一次性高效整流 → DC 母线 → DC-DC → 芯片 这意味着,电网只负责“把能量送到门口”,而电能质量、转换效率和损耗控制,则被彻底收敛到数据中心内部。 二、为什么 DC 化不需要审批,也不构成“抢电” 监管审批的对象,从来不是“你用了多少电”,而是三件事: 并网容量(MW)是否提高 峰值负载是否突破合同上限 是否新增并网点或输配电设施 DC 化不触碰以上任何一条。 在 PPA 语境下,数据中心本就已经锁定了最大并网功率。DC 化并没有多要一度电,只是减少了 AC-DC 多级转换、冗余和空载带来的内部损耗。 换句话说: DC 化不是“多用电”,而是“少浪费电”。 从监管和电网视角看,这属于典型的 Energy Efficiency Improvement within Contracted Capacity,不但无需审批,反而是被鼓励的行为。 三、DC 化的本质:PPA 内部效率套利 在技术上,DC 化的价值可以被非常清晰地定义为: 在不改变并网容量、不修改 PPA 合同条款的前提下,提高单位 PPA 电量可转化为有效算力的比例。 传统 AC 架构下,数据中心从电表到芯片的综合损耗通常在 12–18%;而成熟的 DC 架构可以将这一数字压缩至 6–9%。在 AI 数据中心这种高功率密度、长时间满载的场景中,效率提升甚至可达 8–15%。 四、规模有多大?相当大 以美国为例: 数据中心相关的已审批并网容量(运行中 + 在建):约 90–110 GW 考虑可改造性与已签 PPA 未完全吃满的容量 可被 DC 化效率释放的 PPA / 并网存量:约 120–160 GW 在这一存量基础上,即便采用极其保守的假设: 等效新增供电能力:约 12–25 GW 这是在不建电厂、不拉输电、不走审批的前提下释放出来的算力供给,对 AI 产业而言并非边际改善,而是足以改变阶段性供需曲线的变量。 五、这条路径为什么容易被市场低估? 原因很简单: 它不出现在发电统计中 不体现在电网 CapEx 里 不会成为政策新闻 只体现在数据中心内部的电力电子与系统级 CapEx 中 但对算力经济而言,每减少 1% 的损耗,就等价于更多 GPU、更多 FLOPs、更多可售算力。 六、谁会真正受益? DC 化不是单一产品,而是一条完整的技术栈: 高效 AC-DC 整流 高压 DC 母线(380V / 800V) DC-DC 转换器 DC UPS 与储能一体化 DC 侧开关与保护 功率半导体(SiC / GaN) 电源管理 IC(PMIC) 结语 市场普遍将 AI 能源瓶颈理解为“电不够”,但现实中,第一阶段的突破并不是新电从哪里来,而是现有电能被如何使用。 电力电子与电子电路的 DC 化,正是一条不依赖审批、但真实存在的“隐形算力供给扩张路径”。
分享
评论 0
0
ariel reyez romero
2个月前
《2025 企业级 AI 采用速度是否加速?— 综合证据总结》 基于过去 1–2 个月的行业报告、2025 年最新财报信号、OEM/网络/芯片厂商数据,我们可以非常明确地得出: 🎯 结论:2025 年企业级(非云)AI 采用出现“第二次加速点(Second Acceleration Wave)”,速度明显快于 2024→2025 初期。不是持平,而是加速。 原因与证据来自六大独立渠道,且全部在 2025 年出现收敛。 ① 全球调查类报告:从 PoC → 全面部署的比例翻倍 ISG《State of Enterprise AI Adoption 2025》(2025 年 9 月) 2024:约 15–17% 的企业 AI use-cases 进入生产部署(production) 2025:31%(几乎翻倍) ➡️ 最直接的“部署深度加速”证据。 ② AI 基础设施预算:2025 明显上调 Flexential《2025 State of AI Infrastructure》 AI 占企业 IT 预算比重: 2024:<5% 2025: >10% C-suite(企业高层)推动 AI 基建的比例: 2024:53% 2025:71% ➡️ 预算转向 AI,是加速落地最硬的指标之一。 ③ McKinsey 2025:企业开始进入“Scaling 阶段” 2025 年企业正在开始 scale their AI programs 不再停留在 2023–2024 的“试点 / 试水”阶段 ➡️ “Scaling(规模化)”是 AI 工厂建设的明显标志。 ④ 451 Research / S&P Global:AI 基建投资全面加速 2025 年中期市场规模预测首次突破: AI Infra 总市场:>$250B(比 2024 上调) “Ramping → Expanding” 的结构性变化确立 ➡️ 基础设施 CapEx 明显加速,这直接对应到 Dell/HPE/AVGO/ANET 的订单。 ⑤ 芯片厂商信号(NVIDIA):企业 AI 是增长最快 segment NVIDIA 2025(Q1–Q3 Earnings): Enterprise AI 软件 YoY:150–200%(高于 2024 的 100–150%) Fortune 500 private AI cloud 的部署全面爆发 CEO 2025 年首次明确: “Every Fortune 500 company is building a private AI cloud.” ➡️ 企业 AI 的增长比云更快,且进入“全面部署期”。 ⑥ 网络厂商(Broadcom / Arista)证据:企业 AI 网络增速首次超过云 Broadcom 2025: Enterprise AI networking YoY:+90% Cloud AI networking YoY:+60% Arista 2025: Enterprise AI networking YoY:+70–85% 进入“Phase-3:Global rollout” ➡️ 这是企业级 AI 加速最硬的“实时链路”证据。 ⑦ OEM(Dell / HPE / Lenovo)财报同步印证 Dell 2025: Enterprise AI backlog 增速 高于 cloud Fortune 100 企业正在下“multi-rack AI factory”订单 HPE 2025: Enterprise AI revenue YoY:+78% (明显高于 2024 的 +50–60%) Lenovo 2025: Global 2000 企业 AI server YoY:100%+ ➡️ 企业 AI 的订单增长从“中等高速”进入“全面加速”阶段。
#企业级AI加速
#2025年AI部署
#AI基础设施预算增加
#企业AI私有云
#AI规模化
分享
评论 0
0
ariel reyez romero
3个月前
微软财报double beat 更重要的是,RPO(backlog) 同比激增 51% 至 $392 亿 订单激增!
#微软
#财报
#订单激增
#RPO
#backlog
分享
评论 0
0
ariel reyez romero
3个月前
Micron Technology (MU) 的Forward P/E(预期市盈率)约为 11.7 倍至 13
英伟达市值破四万亿,AI芯片霸主地位稳固?· 216 条信息
#Micron Technology
#MU
#预期市盈率
#Forward P/E
#11.7倍至13
分享
评论 0
0
ariel reyez romero
3个月前
OpenAI 26GW数据中心计划(总投资超可能超万亿美元,2026年启动,2027年全面上线),需求超过目前全球hbm产能的50%甚至更多,将显著拉动美光科技(Micron Technology)HBM和DRAM产能需求,促使其加速扩产。 美光已规划2026财年CapEx超180亿美元,2027年约200亿美元,聚焦HBM4/4E、1γ节点DRAM及新加坡/美国工厂建设,受CHIPS法案补贴支持。 基于现在OpenAI项目及后续google,微软等巨头可能的跟进,美光加速扩产可能性更高,(HBM市场可达CAGR 90%)。
#OpenAI
#数据中心
#美光科技
#HBM
#扩产
分享
评论 0
0
ariel reyez romero
3个月前
American Resources Corporation(AREC,NASDAQ: AREC)是一家专注于稀土元素(REO)和电池材料回收的公司。 其利用专利色谱分离技术从电子废物(e-waste)、煤废料中回收高纯度稀土(包括重稀土HREE如镝Dy,芯片生产所需关键元素)和电池材料(Li、Ni、Co),符合美国IRA/DPA政策需求。 预计2025-2029年CAGR可达150-200%,2026年营收5-10亿美元,2029年50-60亿美元。 模块化工厂(Marion、Noblesville)每6-18个月新增2500-3500吨产能,4-6模块(2026年1-2.1万吨)可产HREE 630-945吨,营收1.89-2.84亿美元。 竞争优劣势:AREC扩张速度(6-10个月/模块)快于开采公司MP Materials(1-3年)和Lynas(1-2年),成本低50-70%($50-70/kg),且规模小(2024年亏损4011万美元)。 回收废料稀土加工,比稀土开采加工更环保,容易获得新厂建设批准。 护城河包括专利技术、长期合同(Vulcan Materials、POSCO)、政府资助(印第安纳州91万美元,NSF潜在1.6亿)、模块化设计和资深团队(100+年经验)。政府支持可能性高(70-80%),2026年或获5000万-1亿资助,受益于DoD/DOE需求。 美国进出口银行(EXIM)目前对 American Resources Corporation(简称 Arec,纳斯达克股票代码:AREC) 的支持为 意向书(Letter of Interest, LOI) 形式,承诺提供 最高 1.5 亿美元 的融资。 exim上一次支持的公司为crml,支持后不久股票即大涨
美国五角大楼入股MP材料公司,稀土供应链引发关注· 11 条信息
#稀土回收
#American Resources Corporation
#电子废物
#政策扶持
#融资
分享
评论 0
0
ariel reyez romero
3个月前
根据2025年10月的最新报道,Intel 的 18A(1.8nm 级)工艺节点在 D0(初始缺陷密度,单位为每平方厘米缺陷数)方面已取得显著进步。 具体来说,Intel 官方在2024年底公布的 D0 值已低于 0.40/cm²,而最近的行业分析和报道显示,这一指标已进一步优化至低于 0.30/cm²,这被视为“有史以来最低水平”,标志着工艺已准备好支持内部和外部客户的量产。 “对于中小型芯片(如 Intel Panther Lake,面积约 100-200 mm²,即 1-2 cm²),D0 = 0.30/cm² 可通过公式估算出良率约为 60-75%,具体取决于面积和优化 良率达到 70% 通常被认为是半导体行业中可以开始 量产(high-volume manufacturing, HVM) 的门槛”
#Intel 18A工艺
#D0缺陷密度
#半导体良率
#Panther Lake芯片
#量产准备
分享
评论 0
0
ariel reyez romero
3个月前
AI工作流平台n8nC轮融资,Nvidia参投 这是在抄openai的后路? AI工作流平台n8n于10月9日完成1.8亿美元C轮融资,估值达25亿美元,由Accel领投,Nvidia风投部门NVentures参与(公司公告)。 这距其7个月前B轮(3.5亿美元估值)实现7倍估值跳升。公司披露ARR超4000万美元,23万活跃用户中80%已嵌入AI agents,过去一年收入增长10倍。 市场反应:10月9日信息技术板块(XLK)领涨1.8%,直接竞品UiPath在10月4日宣布与Nvidia合作后暴涨11.86%至14.43美元(Yahoo Finance)。 n8n这样的工作流产品对ai算力影响的核心机制是"AI Agent orchestration需求倒逼算力-应用双向扩张"。 企业级workflow每日产生10万-100万次API调用,单个复杂agent需调用多模型协同,形成乘数效应。 行业影响: 1. 企业软件/SaaS层(分化加剧,赢家通吃):AI-native与传统软件估值分化显著。ServiceNow(AI workflow平台)市值1909亿、P/S约15.8x,Q2订阅收入31.1亿美元(+22.5% YoY),Now Assist ACV目标2026年达10亿美元(公司财报)。相反,传统RPA承压:UiPath市值仅83亿、P/S 4x,ARR增速从峰值40%降至11%(Q2 FY2026财报)。核心差异在于AI原生能力:n8n支持任意LLM集成且按workflow定价(成本仅Zapier 1/10),而传统RPA困于规则引擎。市场规模支撑分化:AI Agent市场2025年51-79亿美元,2030年预计427-503亿(CAGR 43%,Grand View Research)。 2. AI应用层与开源生态(直接受益):垂直Agent公司获验证,客服Agent独角兽Sierra估值100亿、Decagon 13.1亿。n8n的fair-code模式(GitHub 7万stars)降低开发门槛,形成社区飞轮。 ServiceNow(NOW,914.32美元)是n8n对标,10月22日财报关注Now Assist ACV进展,目标价1,109美元(+22%,Stifel维持买入)。 Salesforce(CRM,245.33美元)年内暴跌23%后估值修复空间大(P/E 35.7x vs 历史均值45x),Agentforce已签6000+交易,目标价335美元(+36%)。 UiPath(PATH,15.58美元)面临替代风险,分析师目标价13.21美元(-14%下行,Barclays降至持有)。
#AI工作流平台
#n8n C轮融资
#Nvidia参投
#AI Agent orchestration
#企业软件估值分化
分享
评论 0
0
ariel reyez romero
4个月前
为ai发电 开始炒美国铝业了 nb
#AI
#美国铝业
#炒股
#NB
分享
评论 0
0
ariel reyez romero
4个月前
MU可能低估,原因如下: Micron称 2025–2026 年 HBM 产能基本售罄/锁量,HBM3E定价多已锁至2026,HBM4在推进中。 HBM TAM 从约 2025年 ~$35–36B 推到 2030年 ~$100B;HBM在DRAM中的占比持续上升。 HBM份额 SK hynix领先,三星快速追赶(12-Hi HBM3E获NVIDIA认证),Micron近两年显著追平代际差距并切入头部客户。 政策与本土化优势(美国扩产+补贴降低地缘与合规风险) 2025:HBM3E快速爬坡;Q4单季HBM收入近$2B(年化~$8B);FY25 Capex≈$13.8B,重投DRAM/HBM前段;2025年HBM产能基本售罄。 2026:管理层指引 FY26 Capex高于FY25;2026年HBM产能在数月内订满;HBM3E价格多已锁至2026,HBM4打样/谈判中;与 TSMC 深度协作推进 HBM4/4E。 目前pe20倍,forward pe预计低于15倍 nfa dyor
分享
评论 0
0
ariel reyez romero
5个月前
戴尔(dell)今天的财报很有意思, 典型的“增收不增利”。 AI服务器需求强劲,积压订单价值高达117亿美元,但其调整后毛利率却下滑至18.7%,不及市场预期,导致股价暴跌。 这背后的元凶。。。。。。 就是英伟达😂 不得不说,英伟达利用自己的芯片优势,还在不断扩大自己的供应链“链主”的优势,牢牢掌控全链条利润。 这实在是太狠了! nvda怎么控制/挤压全供应链利润的? 是通过推出MGX平台。 这是一个官方的模块化的参考架构,旨在帮助下游的系统oem厂合作伙伴大幅缩短研发周期、降低成本,从而加速整个英伟达技术生态的普及。 和CUDA类似,MGX也是英伟达用来深度绑定产业、构建强大护城河的生态体系,但它和cuda作用在不同的层面,cuda“锁软件”,MGX“锁硬件”。 MGX的核心是为英伟达全套硬件(GPU、Grace CPU、BlueField DPU、ConnectX网卡)的协同工作定义了最优解。它规定了这些组件如何以最高带宽、最低延迟的方式互联。这意味着,任何偏离MGX架构的设计,都可能在性能上无法与“官方标配”匹敌。 一旦服务器厂商(如超微)围绕MGX标准投入资源、优化了生产线和供应链,就形成了一条技术路径依赖。未来,当英伟达推出新一代GP时,它们几乎肯定会与MGX标准无缝衔接。届时,已经“上车”的厂商可以最快速度跟进迭代,而那些试图走自己路线的厂商,则面临着巨大的研发和时间成本风险。这种模式将合作伙伴的未来与英伟达的路线图深度绑定。 随着基于MGX的服务器在性能、成本和上市速度上展现出越来越大的优势,市场的天平会逐渐倾斜。届时,采用MGX将不再是一个选项,而是获得市场竞争力的“必需品”。 而mgx所干的活,原来正是戴尔的利润丰厚的主业。 更可怕的是,英伟达的野心不止于服务器,而是整个数据中心。MGX是其“数据中心即计算机(The data center as a computer.)”理念的物理载体。当整个行业的硬件创新都围绕着MGX展开时,英伟达就从一个芯片供应商,真正成为了下一代计算平台的“架构师”。 更长远来说,MGX在硬件层定义标准,CUDA在软件层锁定开发者。未来,两者会更加紧密地结合。英伟达可以推出需要特定MGX硬件特性才能最优运行的CUDA新功能,形成“软件要求硬件、硬件优化软件”的完美闭环,让竞争对手彻底无法追赶。 这就像PC时代的“Wintel联盟”(微软Windows + 英特尔Intel)。英特尔定义了主板和CPU标准,微软定义了操作系统。戴尔、惠普等厂商在此基础上进行外壳设计、组装和销售。它们能赚钱,但产业链中最大头的利润,被平台定义者——英特尔和微软赚走了。 今天,英伟达正在试图成为AI服务器时代的“Wintel”。CUDA是操作系统(软件平台),MGX则是主板和系统架构(硬件平台)。而英伟达,如果战略成功的话,将成为ai时代的微软+intel!
英伟达市值破四万亿,AI芯片霸主地位稳固?· 216 条信息
#英伟达(Nvidia)
#MGX平台
#戴尔(Dell)
#AI服务器
#利润挤压
分享
评论 0
0
ariel reyez romero
5个月前
AFRM/ Affirm大涨背后:BNPL (先买后付,buy now pay later)的需求与宏观影响 今天afrm财报后大涨,完美错过这波,所以亡羊补牢分析了一下: 1/ 🎯 公司层面 业绩/指引超预期+亏转盈预期增强,叠加 Apple Pay 接入、Shopify/Amazon 深度集成、Affirm Card 拉动直连用户,形成分发+产品双轮驱动。丢掉Walmart 这个大客户的负面被多渠道稀释。 2/ 🏁 赛道及竞争 Affirm:高客单+透明费率+大入口绑定 Klarna:零售巨头通路(含 Walmart),冲刺上市 PayPal/Block:支付生态反哺 BNPL 银行系(Amex/Chase 等):把“卡内分期”前置到结账页,合规/风控优势逐步显现 赢家=低资金成本×低损失率×强分发质量。 3/ 🌐 宏观意义 这是“韧性消费 + 价格敏感”的写照:在价格上行与收入承压下,BNPL 作为预算管理工具渗透提升,短期托底名义消费;但真实杠杆被低估的风险在抬头。 4/ ❓是否意味着更高负债在支撑消费? 更像“结构性加杠杆”:分期更细、更普及,透支并非全面恶化,但尾部人群对就业与信用环境更敏感。消费强弱的“二次衰减”风险,取决于就业/薪资与征信纳管后的授信弹性。 结论:不属于具备高速增长属性的公司,赛道内竞争较多,同质化程度高 值得观察,超跌时可能是机会
#AFRM
#BNPL
#消费
#宏观经济
#风险
分享
评论 0
0
ariel reyez romero
5个月前
《IonQ和哈佛大学的量子技术突破,开启可量产量子计算时代》 2025年8月18日,量子计算公司IonQ与哈佛大学联合宣布在硅基碳化物悬浮膜平台上取得关键突破,显著提升量子比特相干性和控制能力,关键是——兼容现有半导体工艺。 此项突破的核心,不仅在于选择了一种性能卓越的材料,更在于开创了一种颠覆性的制造流程。这一流程从根本上解决了长期困扰纳米加工领域的物理限制,为量子硬件从实验室中的“手工艺品”向量产化的“工业制品”转变铺平了道路。 具体来说,此突破所赋能的,是在单一芯片上实现对量子比特进行精确操控所需的所有关键组件的单片集成(monolithic integration)。这一能力直接解决了囚禁离子量子计算机在走向大规模扩展过程中最核心、最棘手的工程瓶颈:如何将精确的控制信号传递给成千上万乃至数百万个量子比特。通过在SiC平台上共存集成光子学和声学器件,该技术为构建一个真正意义上的、完全集成的量子处理器铺平了道路,其影响堪比经典计算领域中从分立晶体管到集成电路的革命性飞跃。 1. SiC集成光子学:解决量子控制瓶颈 当前,ionQ的囚禁离子量子模式在保真度和相干时间等关键指标上处于领先地位,但其可扩展性受到一个根本性物理限制的严重制约:控制系统的规模。 现有的系统依赖于一个庞大而复杂的外部光学平台:由大量的透镜、反射镜、声光调制器等分立元件组成,其体积、复杂性和稳定性都使其无法扩展到控制成千上万个量子比特的规模。每增加一个量子比特,都意味着需要增加一套相应的复杂光路,这使得整个系统的体积和成本呈指数级增长,成为扩展瓶颈 。 集成光子学(Integrated photonics)为解决这一难题提供了根本性的方案。其核心思想是将所有必需的光学元件,从光源接口到最终的光束聚焦,全部微缩并制造在与离子阱本身相同的芯片上 。 这相当于将一个占据整张光学平台(甚至整个房间)的庞大系统,压缩到一个毫米尺寸的集成电路中。通过这种方式,可以构建出复杂的二维光路网络,将控制激光精确地路由到大规模二维离子阵列中的任意一个量子比特,从而实现对数百万量子比特的独立寻址和操控 。 IonQ与哈佛大学合作开发选用的SiC(suspended thin-film membranes)材料的本身及其新型制造工艺在实现这一愿景中扮演了核心角色。SiC的高折射率使得光可以被紧密地束缚在微小的波导结构中,支持高密度的光路布线,从而在有限的芯片面积内容纳更多的控制通道 。 同时,IonQ与哈佛大学采用的“先悬浮,后刻蚀”工艺带来的高制造保真度,是制造出低损耗、高性能光子元件的先决条件 。只有当光在片上传播时的损耗足够低,开关的消光比足够高时,才能确保传递到离子上的激光脉冲具有足够的精度和强度,以实现高保真度的量子门操作。 2. SiC集成声学:一种全新的量子比特操控模式 除了对光子学的革命性支持外,该SiC平台更具前瞻性的突破在于其实现了声学(phononic)控制系统的集成。这为量子比特的操控引入了一种全新的、强大的物理模式,可以作为纯光子控制的补充甚至替代方案,为量子处理器的设计开辟了新的维度。 量子声学(Quantum acoustics)的核心技术是利用表面声波(Surface Acoustic Waves, SAWs)。 与传统的光学或微波控制相比,基于SAW的声学控制具有几项显著优势。最突出的一点是其波长极短。 这意味着用于构建SAW谐振器、波导和滤波器的结构尺寸可以做到非常小,从而实现极其紧凑和高密度的片上控制架构。 此外,一个SAW谐振器可以支持多个寿命很长的声子模式,相当于一个多通道的量子信息总线,能够同时与多个量子比特相互作用,或者介导远距离量子比特之间的耦合,这对于执行复杂的量子算法和错误纠正码至关重要。 实现高性能声学控制的关键在于异质集成,即将具有优异压电性质的材料与承载量子比特的基底材料完美结合。这正是IonQ-哈佛平台的强大之处。研究中明确展示了在悬浮的4H-SiC薄膜上成功地集成了薄膜铌酸锂(TFLN)。TFLN是一种性能极佳的压电材料,而SiC本身则提供了稳定承载离子阱和光子线路的平台。 这种将不同功能材料在芯片级别进行无缝集成的能力,是其他单一材料平台难以企及的,它使得在同一芯片上同时制造出最高性能的离子阱、光子网络和声学控制系统成为可能。 3. 更进一步,这种硬件能力的根本性变革,将直接反作用于量子软件和理论的发展。 当前的许多量子算法和量子纠错码(Quantum Error Correction, QEC)的设计,都深受现有硬件物理限制的影响,例如许多超导量子芯片只支持近邻量子比特之间的相互作用。而一个基于SiC QSoC平台的量子处理器,凭借其密集的光子互连和高效的声学总线,有潜力在大型逻辑量子比特模块内部实现“全连接”(all-to-all connectivity)。这种高连通性是囚禁离子架构的核心优势之一,它将极大地简化许多量子算法的编译和实现过程,降低执行算法所需的门操作数量。更重要的是,它使得一些最高效的、需要长程相互作用的量子纠错码变得实用可行。 因此,这项制造技术的进步,其影响将远远超出硬件本身。它通过移除长期存在的硬件物理约束,将直接催生和赋能新一代更强大、更高效的量子软件,从而实质性地加速实现有实用价值的量子优势的进程。 4. IonQ与哈佛大学的SiC平台,其最深远的战略意义或许就在于,它为量子计算机的规模化制造提供了一条前所未有的、清晰且低风险的路径。 通过与全球最成熟、最庞大的半导体产业生态系统进行深度绑定,该技术有望将量子处理器的生产从当前缓慢、昂贵的定制化模式,转变为高效、可重复的晶圆级制造模式,从而根本性地加速量子计算的商业化进程。 超过90%的SiC器件加工步骤,如光刻、薄膜沉积、刻蚀等,都可以与标准硅CMOS生产线上的设备和工艺兼容 。这意味着量子芯片的制造,可以充分利用半导体工厂中已经存在的、经过数十年优化的高度自动化的设备、精密的过程控制系统、严格的质量管理体系以及成熟的供应链网络 。这种“借力”模式,相比于为一种全新的量子技术(如某些超导或拓扑量子比特)从零开始建设专用的、投资巨大的生产设施,具有无可比拟的经济和时间优势 。它极大地降低了量子硬件制造的资本支出(CapEx),并使得IonQ能够直接受益于半导体产业的规模经济效应。 这种规模化生产能力,使得构建一个由大量完美无瑕的组件构成的大规模量子计算机,从理论上的可能变为了工程上的现实。 综上所述,IonQ与哈佛大学在SiC集成量子器件制造技术上的突破,并非量子计算发展道路上一个普通的、渐进式的步骤,而是一块奠定未来产业格局的基石性技术(cornerstone technology)。 回顾技术史,经典计算的革命性爆发,并非源于第一只晶体管的发明,而是源于德州仪器的杰克·基尔比和仙童半导体的罗伯特·诺伊斯发明的集成电路以及与之配套的平面工艺(planar process)。这项制造技术的突破,使得在单一硅片上集成大量晶体管成为可能,从而开启了整个数字时代。 同样地,IonQ与哈佛大学的SiC集成平台,有望在量子时代扮演类似的角色。它提供了一种方法论,一种将实验室中的量子物理奇迹,转化为可被大规模制造、稳定可靠的工业产品的“配方”。这项工作将量子计算从“能否实现”的科学问题,更进一步地推向了“如何以可扩展方式实现”的工程问题。因此,可以合理地认为,这项技术突破是量子计算从科学探索走向一场深刻的工业革命的、一个至关重要的转折点。它为即将到来的量子时代,奠定了坚实的制造基础。
#IONQ
#哈佛大学
#量子计算
#硅基碳化物
#可量产
分享
评论 0
0
ariel reyez romero
5个月前
《价值重估:民用eVTOL的真正价值是资产而非交通工具》 8月18日,加州首次启动eVTOL空中出租车服务,市场反应平淡。但这可能是一个被严重低估的历史性转折点。 当前市场将Archer Aviation的商业首飞视为普通的技术验证,关注点仍停留在:能否按时量产?单机经济模型是否成立?与Joby等竞争对手的差异在哪? 但这种视角完全错了。 市场用评估"马车制造商"的逻辑在审视一个"汽车时代"的开创者。被忽视的关键变量包括: 起降场的稀缺性:在纽约、洛杉矶等核心城市,获得审批的Vertiport极其有限,其价值更像核心商业地产而非停车场 网络效应:一旦航线网络形成,独家航线权、高净值用户数据、空域调度平台将构成强大护城河 生态价值:与美联航的合作不仅是卖飞机,而是共建全新的高端出行网络 能否超预期?我认为极有可能。 市场正用衡量"重资产航空制造商"的框架审视一个"稀缺基础设施+高频服务平台"。一旦商业运营步入正轨,将迎来估值框架的根本性切换——从制造业逻辑转向平台经济逻辑。 投资eVTOL的本质,不是在购买一架飞机,而是在认购未来城市天空网络的首批'节点'。 其价值核心在于稀缺空域资源、物理起降点以及由此形成的高端服务网络——这是一个远比制造飞行器更具护城河的生意。
#eVTOL
#空中出租车
#资产价值
#平台经济
#稀缺资源
分享
评论 0
0
ariel reyez romero
5个月前
Rocket Lab($RKLB)Q1 2025财报显示收入1.23亿美元(同比增长78%),订单储备超10亿美元,计划于2025年底推出可重复使用的Neutron火箭。 其16次年度发射和4.5亿美元新合同,显示强劲增长势头。 Neutron火箭如进展顺利可能使其在中小型卫星发射市场挑战SpaceX。
#Rocket Lab
#RKLB
#Neutron火箭
#SpaceX
#卫星发射市场
分享
评论 0
0
ariel reyez romero
6个月前
如何分析AI生物制药领域公司的竞争优势?这里是我研究的核心要点总结: 1. 核心驱动力:“闭环”飞轮效应是真正的护城河 在AI驱动的生物制药赛道中,真正的护城河并非仅仅拥有先进的AI算法,而是建立一个高效、快速迭代的“闭环”飞轮。这个飞轮的具体运作模式是:AI模型(干实验室/Dry Lab)进行预测,例如识别新的药物靶点或设计新的分子;然后,自动化机器人(湿实验室/Wet Lab)快速进行生物实验以验证这些预测;实验产生的高质量、独家的(Proprietary)数据被立即反馈给AI模型,用于下一轮的训练和优化。这个“设计-制造-测试-学习”(DMTA)的循环速度和规模,决定了公司的核心竞争力。像Recursion每周能进行超过200万次自动化实验,其数据飞轮转速极快,使其能够以前所未有的速度绘制“生物学地图”。这种模式下,数据优势增强了模型能力,而更强的模型能指导公司进行更精准的实验,从而获得更优质的数据,形成一个不断自我加强、竞争对手难以逾越的壁垒。 2. AI原生生物科技(AI-Native Biotech):“速度与平台”的双重革命 以Recursion、Exscientia和Insilico Medicine为代表的AI原生公司是这场革命的先锋。它们的共同特点是,从零开始就将AI和自动化实验深度整合,构建了端到端的药物发现平台。Recursion的“Recursion OS”通过对细胞进行大规模扰动和表型成像,建立了一个庞大的、可用于导航的生物学地图,其核心是规模化的数据生成能力。Exscientia则强调“以患者为先”,利用源于真实患者组织的多组学数据来指导AI模型,使其预测更具临床相关性,并已成功将多个AI设计的候选药物推入临床。Insilico Medicine则以其Pharma. AI平台闻名,该平台包括用于靶点发现的PandaOmics和用于分子设计的Chemistry42,并以惊人的速度将其首个AI发现和设计的药物从概念阶段推进到临床II期。这些公司不仅通过技术平台吸引了与大型药企数十亿美元的合作,也同时在建立自己的内部药物管线,展示了“平台即产品”的强大商业模式。 3. 传统大型药企(Big Pharma)的觉醒:“数据金矿”与“生态系统”的构建 传统大型药企如赛诺菲(Sanofi)已经意识到,它们最大的资产之一是沉睡了几十年的海量专有临床前和临床数据。它们的策略是“双管齐下”:一方面,大规模投资内部AI平台,如赛诺菲的plai,旨在打通从研发到生产、商业化的所有数据孤岛,赋能内部科学家;另一方面,它们不再仅仅是技术购买方,而是与顶尖AI公司(如与Exscientia合作)甚至科技巨头(如与OpenAI合作)建立深度战略合作,用自己高质量的专有数据来“精调”(Fine-tune)最前沿的AI大模型。这种策略的优势在于,它们拥有验证AI预测结果的完整后端能力——从临床前开发到全球临床试验再到市场准入。大型药企的飞轮在于其数据的广度和深度,以及将AI模型洞见转化为上市药物的强大能力,这是初创公司在短期内无法比拟的。 4. 技术平台公司(Tech Platform)的降维打击:从“卖铲子”到“共同掘金” 这一类别的公司以薛定谔(Schrödinger)和Isomorphic Labs (Google DeepMind)为代表。薛定谔的独特之处在于其基于物理学的计算平台与机器学习的深度融合。它开创了一种混合商业模式:既通过向全球药企销售其业界领先的模拟软件来获得稳定、高利润的现金流(“卖铲子”),又利用这个平台进行内部药物研发和与大药企(如BMS)的高价值合作(“共同掘金”),分享后期收益。这种模式风险较低,且能通过广泛的客户使用和合作项目不断验证和改进其平台。而Isomorphic Labs则代表了另一种力量,它继承了Google DeepMind在AlphaFold上的突破性成就,试图用最纯粹的“AI优先”或“数字生物学”方法重新定义整个药物发现过程。它不依赖于自己的湿实验室,而是相信其强大的预测和生成模型本身就构成了核心价值,通过与大型药企(如礼来、诺华)建立价值数十亿美元的里程碑式合作,来验证其“数字孪生”驱动的研发模式。 5. 数据护城河的两种主要形态:规模化工业数据 vs. 精准化人类数据 在AI制药领域,数据是核心资产,但其形态和获取方式决定了护城河的类型。第一种是“规模化工业数据”,以Recursion为典范。通过在实验室中对标准化细胞模型进行数百万次可控的实验扰动(如基因编辑、化合物处理),生成海量、统一、高质量的图像和组学数据。这种数据的优势在于其规模和一致性,适合训练能够理解复杂生物学通路的底层模型。第二种是“精准化人类数据”,以Exscientia和Verge Genomics等公司为代表。它们专注于获取与特定疾病直接相关的真实人类生物样本(如肿瘤活检、神经退行性疾病的脑组织),并进行深度多组学分析。这种数据的优势在于其极高的临床相关性,能够帮助AI模型更准确地识别与人类疾病真正相关的靶点和生物标志物。这两种数据策略各有千秋,未来最强大的公司可能会是能将两者有效结合的企业。 6. 商业模式的演进:从单一服务到“合作+自有管线”的双轮驱动 早期AI制药公司多以提供技术服务或点状合作为主,但现在赛道领先者已经普遍进化为“合作+自有管线”的双轮驱动模式。这种模式的好处是多方面的:首先,通过与大型药企的高价值合作,不仅可以获得大量非稀释性的资金来支持平台发展,还能借助合作伙伴的专业知识和资源来验证其平台的技术价值和商业潜力,这本身就是一种强有力的背书。其次,建立内部药物管线,尤其是将候选药物推进到临床阶段,是证明其平台能够独立创造最终产品(药物)的终极证据。这不仅能带来未来更高的潜在回报(如果药物成功上市),也极大提升了公司在合作谈判中的议价能力和整体估值。Insilico Medicine拥有超过30个内部管线项目,其中多个已进入临床,充分展示了这种策略的执行力。 7. 行业面临的共同挑战:从数据孤岛到“可解释性AI” 尽管前景光明,但整个行业仍面临严峻挑战。首先是“数据挑战”,包括数据孤岛(数据分散在不同部门、格式不一)、数据质量参差不齐,以及公开数据与能用于训练强大模型的专有数据之间的巨大鸿沟。其次是“模型挑战”,特别是“黑箱问题”。AI模型,尤其是深度学习模型,其决策过程往往不透明,这在受到严格监管、人命关天的制药行业中是重大障碍。因此,“可解释性AI”(XAI)的发展至关重要,科学家和监管机构需要理解模型做出某个预测的生物学依据,才能真正信任并采纳其结果。最后是“验证挑战”,一个AI预测出的新靶点或新分子,最终仍需通过耗时且昂贵的真实世界实验和临床试验来验证,这个“从虚拟到现实”的转化瓶颈依然存在,是衡量一个AI制药公司成熟度的关键指标。 8. 未来趋势展望:生成式AI与多模态数据的融合 展望未来,两个关键趋势将主导AI制药的发展。第一是“生成式AI的深化应用”。继AlphaFold在蛋白质结构预测领域取得突破后,生成式AI正被广泛用于从头设计全新的蛋白质、抗体和具有理想特性的小分子药物,这远比在现有化学库中进行筛选更具想象空间。这意味着AI的角色正在从“发现者”转变为“创造者”。第二是“多模态数据的融合”。未来的AI模型将不再仅仅依赖于基因组或蛋白质组数据,而是能够同时理解和整合来自不同维度的数据类型,如基因组学、转录组学、蛋白质组学、细胞成像数据、电子病历(EHR)和数字病理学图像等。通过构建一个更全面的疾病数字孪生模型,AI将能更精准地进行个性化治疗方案推荐、预测药物反应和临床试验结果,真正将精准医疗推向一个新的高度。
#AI生物制药
#闭环飞轮效应
#数据驱动
#AI原生生物科技
#合作+自有管线
分享
评论 0
0
ariel reyez romero
7个月前
联合国发布警告,指出 AI 驱动的自动车辆可能被用于恐怖活动
#联合国
#人工智能
#自动驾驶
#恐怖活动
分享
评论 0
0
ariel reyez romero
7个月前
G7国家在2025年6月16日加拿大会晤期间达成保护关键矿产供应链策略的协议,旨在减少对中国关键矿产的依赖,回应中国4月暂停出口多种关键矿产和磁铁的决定。 可以,看来可以继续增持稀土股
关税战落幕:美国失势,中国崛起?· 682 条信息
特朗普“大而美”法案:争议中通过,影响几何?· 531 条信息
#G7
#关键矿产
#供应链
#中国
#稀土股
分享
评论 0
0
1
2
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞