2025-03-01 01:01:40
英伟达(Nvidia)CEO 黄仁勋:DeepSeek 事件凸显了 AI 计算需求的巨大增长
Jensen Huang(黄仁勋),英伟达 CEO,在公司发布季度报告后,与 CNBC 的 Jon Fortt 进行了一次特别对话。
---
主持人 Jon Fortt
呃,你也提到了指引超出预期。说到需求,今天早些时候,我和亚马逊 CEO Andy Jassy 聊过。他告诉我,眼下如果他能获得更多用于提供 AWS 服务的 AI 资源,他就能卖出更多。这其实就是你在电话会议中提到的短期需求信号。能否为我们多谈谈那些投资者应该关注的中期信号?是什么让你对这种需求的持续性保持信心?也就是说,数据中心的规模扩张、AI 工厂的建设,与过往情况相比有何不同?
---
黄仁勋
短期的需求信号,主要来自我们的采购订单(PO)以及预测。另外,还有一些预测之外的新创公司正在涌现,有些公司相当有名。为了避免落下任何一家,我就不具体点名了,但它们确实非常出色。它们之所以能够出现,是因为新的推理型 AI 能力以及所谓“通用人工智能”有了突破。
这些创业公司中,有一些专注于“Agentic AI”(具备代理功能的 AI),也有一些与物理世界相关的 AI,它们都需要额外的计算能力。正如 Andy 提到的,这些公司都希望立刻去 AWS 获取更多的算力。这些需求是建立在我们已知的采购订单和预测之外的。
谈到中期需求,可以看到今年数据中心的资本支出与去年相比明显增大。而去年已经是相当大的规模了,对于我们来说也是非常好的一年。有了 Blackwell(指英伟达新一代 GPU 架构)以及更多新数据中心上线,今年也会相当不错。
从长期看,让人兴奋的是,我们正处于“推理型 AI”时代的开端。所谓推理型 AI,指的是在回答问题之前会先进行内部思考,而不是直接生成答案。它会先推理、分步思考,或者在自己的“思维”中搜索,然后才生成一个更聪明的答案。完成这一推理的计算量比以前要大得多,可能是过去的百倍。想想看,
---
主持人 Jon Fortt
我们原本就觉得去年需要的计算量已经相当庞大了。突然之间,“推理型 AI”兴起,比如 DeepSeek 就是一个例子,Chat GPT40 也是一个例子,Groc 3 reasoning 也是一个例子。所有这些推理型的 AI 模型对算力的需求,比以往都要高出很多。那么,让我打断一下,因为有些人对于 DeepSeek 的理解恰好相反,认为它能用更少的算力完成更多事情。但你却说 DeepSeek 事实上意味着算力需求会增大,能否为我们拆解一下?
---
黄仁勋
通常来说,AI 开发主要分三个阶段:
1. 预训练(Pre-training):就像我们上高中那样,学习基础数学、基础语言、基础知识,这些通用的人类知识储备是后续阶段的基础。
2. 后训练(Post-training):这一阶段可能会进行人类反馈(Human Feedback),就像老师带着你学习,我们称之为“强化学习:人类反馈”(RLHF)。也可能进行自我练习或推理实验,简称“强化学习”。有时会用“可验证奖励反馈”(Verifiable Reward Feedback),也就是用 AI 来教 AI,让 AI 变得更好。后训练阶段,尤其针对推理型模型的优化,是目前创新最活跃的地方,而这里的算力需求可能比预训练阶段高 100 倍。
3. 推理(Inference):模型实际为你“思考”和回答问题时的过程。现在的推理不再是单纯地接受输入后马上吐出答案,而是会进行推理——它会想如何回答问题,分步思考,甚至反思生成多个版本,并选择最佳答案后再呈现给你。这意味着推理时所需的计算量,比我们在 ChatGPT 刚出现时的需求高出 100 倍。
因此,结合这些新思路——强化学习、生成式数据以及推理,这些都让算力需求急剧提升。简单来说,DeepSeek 的案例只是进一步证明了推理型 AI 会推动算力需求飙升,而非减少。所有这一切都在推动对 AI 计算资源的极度渴求。
2025-03-01 01:01:40
2025-02-28 07:14:58
2025-02-28 02:47:49
2025-02-28 01:51:06
2025-02-27 18:46:12