#AI芯片

1个月前
AI芯片巨头英伟达营收猛增69%,达441亿美元 尽管美国对华芯片出口实施新限制,英伟达(Nvidia)的最新财报依然保持高速增长。 最近一段时间,美国政府的政策变化让英伟达经历了一番“大起大落”:上个月,美国政府刚禁止了向中国出售人工智能芯片;几周后,又批准向中东地区出口类似的产品。 但尽管如此,英伟达仍然以惊人的速度继续扩张,稳坐全球AI芯片市场的头把交椅。 根据英伟达周三发布的最新财报,公司最近一季度的销售额达到441亿美元,同比增长69%;净利润也同比增长26%,达187.8亿美元。虽然销售额超过华尔街预期的432.8亿美元,但利润略低于预期的194.9亿美元。 英伟达在财报中提到,美国特朗普政府实施的对华芯片出口限制,给公司带来了45亿美元的损失,不过比四月中旬预测的少了10亿美元。这些限制措施迫使英伟达退出了全球最大的半导体市场——中国。中国市场购买的芯片广泛应用于智能手机、汽车及各种电子设备。 公司还预计下一季度的收入将同比增长50%,达到450亿美元,这主要得益于其最新款AI芯片——Blackwell芯片的销售扩张。这一预测也与华尔街的预期(457.5亿美元)基本相符,表明科技行业对人工智能的拥抱才刚刚开始,未来仍有巨大的增长空间。 受财报消息提振,英伟达股价在盘后交易中上涨超过4%。截至当天收盘,英伟达市值达到3.3万亿美元,超过苹果公司,仅次于微软,位居全球市值第二。 英伟达CEO黄仁勋表示: > “全球各国都意识到AI将如同电力和互联网一样,成为基础设施。英伟达正处于这场深刻变革的核心位置。” 英伟达在科技巨头中的实力也更加凸显。在最近的财报季中,英伟达季度销售首次超过社交媒体巨头Meta,其净利润甚至比Meta高出13%。 作为最早进军AI芯片领域的公司,英伟达成为科技行业人工智能竞赛中的最大赢家。黄仁勋当初抢占了先机,是首个开发出能够训练AI识别图像、预测文字的芯片软件及服务器的企业。 但与此同时,美国政府官员越来越担忧AI技术可能被中国等国家用于开发自主武器和协调军事行动。因此,华盛顿逐步加大对英伟达对华芯片销售的限制力度。 过去几个月里,黄仁勋频繁奔波于全球各地,试图说服各国政府放松限制。他曾于四月与特朗普总统会面,但未能阻止商务部随后对华芯片出口的禁令。他还飞往北京,承诺会找到新途径出售芯片;随后又抵达台湾,公开抱怨美国政府的禁令效果不佳。 尽管黄仁勋多方努力,英伟达在中国的业务仍受到明显影响。自美国政府实施出口限制以来,英伟达在华销售额占总收入的比例,从两年前的21%下降至现在的13%。 不过,黄仁勋在推动美国政府对其他国家放松芯片销售限制方面取得了成功。在他的推动下,特朗普政府推翻了拜登时代的一些出口规则,从而促成了本月美国与阿联酋之间一项重磅协议:双方计划建立全球规模最大的国际AI数据中心枢纽。 事实上,将芯片销售给政府客户,已成为英伟达重要的战略方向。目前,该公司主要依赖微软、亚马逊、谷歌和Meta等巨头客户,但正积极拓展欧洲、亚洲和中东市场。黄仁勋此前表示,这些地区已经将AI视作与电信网络类似的重要国家基础设施。 另一个挑战在于,美国本土目前缺乏充足的能源来支撑快速增长的数据中心需求。今年许多企业只能获得最多50兆瓦的电力,只能支持大约2.5万枚英伟达最新芯片。相比之下,OpenAI计划明年在阿布扎比建造一座200兆瓦的数据中心,足以支持10万枚英伟达的芯片。 科技研究公司Constellation Research首席分析师Holger Mueller指出,这类国际协议对于英伟达至关重要,因为眼下英伟达在AI芯片市场几乎没有竞争对手。 穆勒表示: > “现在他们是唯一的选择,中东国家确实非常需要他们。”
1个月前
美国那边一直想卡中国脖子,不让用英伟达那些最牛的AI芯片,怕中国AI发展太快。他们先是限制性能高的高端货,英伟达就搞了个稍微弱一点的“特供版”(比如H800)卖给中国。结果美国一看,不行,又把规定收紧了,连“特供版”也给禁了(比如H20)。 但是呢,上有政策下有对策嘛!这些被禁的芯片,还是源源不断地流到中国搞AI研发的人手里。怎么搞到的呢? 主要有两个路子: 曲线救国: 去国外租服务器。比如在马来西亚靠近新加坡的柔佛州,那里现在成了数据中心的热土(地便宜电便宜),好多美国云巨头都在那建基地。国内的公司(像字节跳动这种)就在那边租服务器,这样就能间接用上那些运不进国内的牛逼芯片了。听说在当地开个子公司操作起来也方便。你看台湾往马来西亚运的显卡(搞AI训练用的那种)数量暴增,就是个旁证。 直接走私: 这就是“水货”渠道了。把芯片先运到没被美国限制的第三国,然后换包装、改文件,通过好几个中间商和空壳公司层层转手,最后偷偷运进中国。有人估计,中国训练AI模型,可能有相当一部分算力就是靠这些走私进来的芯片撑着的。 英伟达自己也挺尴尬,他们嘴上说肯定遵守美国规定,但生意做得太大,芯片卖给云服务商、服务器制造商之后,最终用户是谁,他们也难追踪,责任就分散了。而且这灰色市场利润超高,倒一手能加价30%-50%,挡不住有人铤而走险。不光是中国,印度也有公司被抓到帮俄罗斯倒腾禁运芯片。 美国政府看堵不住,就只能不停地加码出新规定,搞得越来越复杂,连云服务都管上了。但问题是,负责监管的部门人手严重不足,还被砍预算,根本管不过来。有人提议用技术手段锁死芯片,但英伟达觉得不靠谱。 所以光靠堵和禁是很难完全掐死的,总有漏洞可钻。美国要想在AI竞赛里保持领先,与其费老鼻子劲围追堵截,不如自己跑得更快、创新更猛才是王道。
5个月前
从“中国山寨手机之王”到AI芯片急先锋 —— 联发科(MediaTek)的成长之路 () Part 2 of 2 2024年10月30日,联发科发布了最新财报:第三季度营收达到了1318.13亿元新台币(折合约40.1亿美元),同比增长19.7%,环比增长3.6%。这波亮眼业绩,主要靠5G和生成式AI技术的爆发带动。细看数据,不只是手机芯片,智能设备平台和电源管理芯片收入也全面增长,真的是全面开花。 净利润方面,联发科这个季度实现了255.9亿元新台币(折合约7.79亿美元)的成绩,同比增长37.8%,说明盈利能力依然强劲。前三季度整体表现同样不俗:营收3925.43亿元新台币,同比增长29.18%。背后是优化的产品组合和稳定的毛利率(两个季度稳定在48.8%,显著高于同在台湾地区的Alchip)。 图一:联发科最近八个季度的业绩,已换算成美元收入。 联发科在财报中表示,2024年第三季度,来自手机、智能装置平台及电源管理芯片三个类别的收入,都比前一季度及去年同期有所增加。 图二:联发科2024年地三季度收入分布 图三:手机芯片出货量市场占有率 更有趣的是,联发科的平板和车用芯片市场在Q3也跑得非常快。尤其是生成式AI的加持,让安卓平板市场几乎清一色选用联发科芯片,而在车用领域,他们还搞定了中国一线车企的智能座舱项目。 说到AI,当然,接下来我们的话题会回到我们擅长的区域,也就是除了手机芯片之外,联发科在AI相关板块的布局。我分三块来谈,一块是AI设备,一块是和Hyperscaler合作的AI ASIC,还有一块是边缘计算设备。 AI设备的进击:个人AI超级计算机 先聊聊昨天那个重磅合作 —— 联发科和NVIDIA的“Project DIGITS”。NVIDIA的老黄在CES 2025上高调宣布两家合作推出了GB10 Grace Blackwell超级芯片,用于支持一款迷你型的个人AI超级计算机 —— Project DIGITS。 图四:Project DIGITS,来源:Nvidia Project Digits 的概念与 Nvidia 的 DGX 100 服务器相同;为最终用户提供现成的 AI 超级计算机解决方案,而无需担心完整超级集群解决方案的基础设施问题。DGX 100 适合放在服务器机架中,而 Project Digits 适合放在桌面上,占用空间与 Mac Mini 相似。 DIGITS是一款“高配小钢炮”。得益于 NVLink C2C,这款巴掌大的产品集成了NVIDIA和联发科的最先进技术:20核的Grace CPU(据ARM透露,GB10采用了性能最高的Arm Cortex-X和Cortex-A技术,拥有10个Arm Cortex-X925和10个Cortex-A725 CPU内核),超强的Blackwell GPU(超过1000 Tops的FP4性能),Micron的128GB LPDDR5X内存,其中还配备了 Nvidia ConnectX智能网络适配器,提供 NCCL,RDMA和GPUDirect支持。 顺便说一句,DIGITS将运行Nvidia的DGX OS,这是一款定制的Ubuntu Linux 22.04发行版。您可能已经猜到了,DGX OS是一个Linux发行版,采用针对系统特定的优化和配置、驱动程序以及诊断和监控工具设计,旨在为在Nvidia DGX超级计算机上运行AI、机器学习和分析应用程序提供完全支持的Linux版本。 因此,DIGITS上还将预装的相关的AI开发工具,包括AI Enterprise软件堆栈,框架,模型,以及数学库。当然,作为一款Ubuntu Linux系统,您可以运行Ubuntu和Linux软件。 简单来说,你可以把DIGITS想象成AI开发者的专属开发系统,这机器能跑200B参数的大模型,连ChatGPT都能轻松本地部署。更惊人的是,两台联机还能支持405B的模型。 老黄表示:“人工智能将成为各行各业中每一种应用的主流。借助 Project Digits,Grace Blackwell超级芯片将走进数百万开发者的生活。将人工智能超级计算机放在每一位数据科学家、人工智能研究人员和学生的桌子上,将使他们能够参与并塑造人工智能时代。” 从市场规模看,未来搭载大模型的AI设备(包括AI PC)可是一块巨大的蛋糕。到2027年,AI PC类的设备渗透率预计能达到30%,市场规模有望超过9000万台。如果Project DIGITS能抓住哪怕1%的市场,90万台设备的销售额也能达到27亿美元,诱惑满满。 ASIC芯片:抢占云端AI商机 联发科在AI ASIC领域也下了大功夫。CEO蔡力行在2024年9月份的SEMICON大会上直言:AI数据中心的需求爆发比想象中还猛。这对于半导体业来说是一大机遇,联发科将进军AI服务器市场。 蔡力行也在2024年三季度的法说会上确认:“AI在云端运算和边缘运算都带来巨大的商机,重要的设计导入(design-wins)和新项目都进展顺利,有望自2025年下半年开始贡献营收。在边缘运算,云端服务对AI加速器的需求不断增加,联发科在运算技术方面的优势,加上领先的112G及224G SerDes IP,对于赢得AI加速器业务至关重要。此外,联发科拥有整合复杂IC,先进制程及先进封装等能力,加以灵活的ASIC业务模式,有助于掌握未来机会;在边缘运算,除了领先的APU解决方案,联发科NeuroPilot平台提供完整软体工具以支持所有热门的AI模型”。 如我们之前一直谈到的,摩根士丹利的分析师在2024年12月的研报里可是豪言壮语,说ASIC市场要进入爆发式增长,尤其是3nm项目更是未来的核心竞争点。据预测,从2024到2027年,AI ASIC市场会从120亿美元飞速涨到300亿美元。 当然,我们也很明确,下一代Hyperscaler客户定制芯片(ASIC)的争夺,将是3nm的设计能力,224G SerDes连接,以及CoWos封装能力的争夺。 联发科于2024年十月份展示了其经过硅验证的长距离 224G SerDes,并计划和客户合作在2026年推出包含其该技术的产品,用于推动更高效的云端计算和边缘应用。值得一提的是,224G SerDes作为未来AI芯片互联的核心技术,虽然开发难度高,但突破带来的回报是巨大的。224G技术能减少数据中心用的线缆数量,优化空间和成本。 Light Counting的调研也认为,今年224G以太网SerDes会有3到5个Design开始,到2026年,224G将会迎来第一波部署热潮。224G以太网SerDes早期的一些应用主要会覆盖重定时器,交换机,光学模块,I/O芯片和FPGA上,成熟应用后,将延伸至更多数据需求领域,在各行各业充分出更高数据速率的优势。 正因为如此,谷歌在TPU v7系列中有多种衍生芯片,其中的一款会交给联发科设计和生产。联发科还预留CoWoS先进封装产能,准备成为更多数据中心客户需求的第二供应来源。 以TPU的开发机会为契机,这绝对会在2026年给联发科带来显著的业务增量。 边缘计算的未来 最后,联发科也没忽略边缘AI计算市场。其本身40%的业务来在于边缘设备市场,联发科也在其边缘设备上整合更多的NPU能力。比如,他家的NeuroPilot平台已经支持多种流行的生成式AI模型,包括Meta最新的Llama 3,Google的Gemini Nano,不同的Stable Diffusion模型,以及所有中国大陆热门的生成式AI模型。结合联发科在低功耗,移动,5G和NPU的定制能力,这让联发科能为更多AI场景提供灵活且强大的解决方案。 联发科从“山寨机”时代崛起,如今在5G、生成式AI以及数据中心市场上多点开花,这份逆袭的成绩单着实亮眼!未来几年,它能否能在AI芯片领域有突出表现,值得我们拭目以待。 <The end>