勃勃OC
1天前
勃勃OC
1天前
Jeff Li
4天前
半导体深喉媒体SemiAnalysis发文称,DeepSeek 获得了1万个H800 和约1万个 H100。2021年美国出口管制前,公司已弄到1万片A100。他们还订购了3万个 H20。这些 GPU由幻方量化和 DeepSeek 共享,用于交易模型和AI研究。 DeepSeek 的服务器资本支出总额接近 13 亿美元,运营成本高达 7.15 亿美元。
indigo
4天前
芯片数据摸底还得靠 SemiAnalysis!今天最新这篇提到了 DeepSeek 拥有的 GPU 数量不是某些人声称的 50,000 个 H100,而是 10,000 个 H800 和约 10,000 个 H100,剩下 30,000 左右的 H20,这是 Nvidia 在出口管制法案之后为中国市场定制的。 SemiAnalysis 的分析表明,DeepSeek 的服务器 CapEx 总额接近 13 亿美元,这些 GPU 由 High-Flyer 和 DeepSeek 共享,它们被用于交易、推理、训练和研究! 文章中最有趣的观点就是 AI 模型产业与芯片产业的类比,就像在最新一期的 Indigo Talk 中提到的 - 大模型正在商品化,与芯片制造工艺迭代逻辑类似。 1. 前沿能力带来超额利润 - 在芯片产业里,最先进制程(比如台积电领先的 3nm、2nm)往往拥有高额的毛利率。做“落后一代制程”的代工厂只能打价格战; - 在大模型市场,“前沿水平的推理/生成能力” 同样可以定更高的价格,为早期付费用户提供独家或高质量服务,进而获得溢价; 2. 快速迭代与淘汰 - 芯片工艺每一代很快就更新,AI 模型同理,更新迭代速度越来越快 —— 谁能最先推出下一代“推理/思考”能力,谁就能够暂时占领高端市场; - 同时,过往一代的技术不会立即消失,会在某些场景继续存在,但利润和售价往往走低,与新一代“前沿能力”拉开差距; 3. 规模、效率与摩尔定律 / 算力扩张的矛盾 - 芯片制造商要通过更精细的工艺(规模效应)推动晶体管数量的指数增长。但越是先进制程,研发与设备投入越是惊人; - AI 模型也在追求“更大规模”与“更高效率”的矛盾:一方面大家想训练更大的模型来突破能力上限,另一方面也在积极提升训练/推理效率、降低成本; - Jevons 悖论:当每次训练或推理变得更便宜时,模型推理调用量会激增,总体算力需求反而上升(如同手机、云计算普及后算力需求的爆炸式增长)。 4. 技术领先者的地位与盈利 - 芯片代工龙头(TSMC)之所以能持续保持高盈利,在于其维持了对下一代工艺节点的快速投入和良率领先,使竞争对手短期很难追上; - 大模型赛道里,OpenAI、Google、Anthropic、Meta 等会通过持续大规模资金投入在新一轮“算法+算力”中领先。如果哪家公司短暂落后,就必须以降价或开放等策略跟进; 因此,AI 模型的商业化进程很可能出现类似芯片产业的“前沿与追随”并存格局: - “前沿模型” 依靠新一代推理能力赚取高额利润; - “追随模型” 则以相对较低价格抢占中低端或更多场景市场; - 双方都持续增长对算力(GPU 等硬件)的需求,进一步刺激芯片企业的发展。 最后总结下对 Nvidia 的影响: - 短期内:DeepSeek 等高效模型的出现非但不会削弱 GPU 需求,反而加剧争抢,Nvidia 的 H100/H200 价格和市场需求高企; - 中长期:前沿模型升级与新一轮“能力竞赛”将继续扩大整体算力需求,Jevons 悖论带动 GPU 采购量不降反升,维系甚至增进 Nvidia 在 AI 训练/推理硬件领域的盈利地位; - 只要有足够的前沿芯片投入市场,在短期内很难被其它产品或自研 ASIC、国内 GPU 芯片替代,Nvidia 将保持对 AI 训练/推理硬件市场的统治地位; - 出口管制对中国买家采购 Nvidia 高性能芯片会带来一定阻力,但市场仍会尽可能在政策缝隙中购入高端硬件,或转向 Nvidia 专为中国市场推出的“缩水版”高端产品,整体需求依旧旺盛; 从 Semianalysis 这篇报道的观点出发,高效 AI 模型并不会让 Nvidia 的市场萎缩,反而更可能助推 Nvidia 的先进 GPU 需求和全球出货量持续上行。
MM Panorama
1周前
空空 🌟 狞猫世界第一可爱!
2周前
Oasis Feng
3周前
James Lt
4周前
腾讯新闻-36氪
4周前
Inty热点新闻
4周前
勃勃OC
4周前
倪爽
1个月前
勃勃OC
1个月前
夏雨婷
1个月前
Huihoo灰狐
1个月前
Nvidia, GPU (Graphics Processing Unit) Google, TPU (Tensor Processing Unit) Groq, LPU (Language Processing Unit) Groq:Nvidia 的最新 AI 竞争对手 Groq 创新的核心是其 LPU,旨在以前所未有的速度加速 AI 模型,包括 ChatGPT 等语言模型 与使用高带宽内存 (high-bandwidth memory, HBM) 的 GPU 不同,Groq 的 LPU 利用 SRAM 进行数据处理,从而显著降低能耗并提高效率 GroqChip 的独特架构与其时间指令集相结合,可实现非常适合自然语言和其他顺序数据的顺序处理 Groq Language Processing Unit (LPU) 与最初为图形处理而设计的 GPU 完全不同,LPU 是为 AI 推理和语言而设计的 Groq 是 LPU 的创造者,它从头开始构建,以满足 AI 的独特特性和需求 LPU 以更快的速度运行大型语言模型 (LLM),在架构层面上,与 GPU 相比,其能源效率提高了 10 倍 Groq 使用 Haskell 的其中一个目的是为新芯片 LPU 提供嵌入式领域特定汇编语言(assembly EDSL,汇编 EDSL) 这也是 Haskell 又一成功案例 Groq 创始人兼 CEO:Jonathan Ross 在创立 Groq 之前,Jonathan 启动了 Google 的张量处理单元 (TPU) 项目,这是一个 20% 的项目,他设计并实现了第一代 TPU 芯片的核心元素 Jonathan 接下来加入了 Google X 的快速评估团队,这是著名的“Moonshots factory”的初始阶段,他为 Google 的母公司 Alphabet 设计并孵化了新的 Bets (Units) Jonathan 师从纽约大学柯朗研究所的 Yann LeCun