#AI芯片

Byron Wan
1个月前
Chinese AI chip startup 🇨🇳 Zhonghao Xinying (中昊芯英), aka CL Tech and Chipltech, has emerged as a home-grown alternative to Nvidia with a new tensor processing unit (TPU), just as Google shakes up Nvidia’s lock on the market by selling its in-house tensor chips directly to major tech firms. The Hangzhou-based firm said its self-developed general-purpose tensor processing unit (GPTPU) went into mass production as early as 2023. Its flagship chip, dubbed Chana (刹那), delivers up to “1.5 times the compute performance” of Nvidia’s A100 tensor core GPU, while “cutting energy consumption by 30% for equivalent large-model workloads and reducing per-unit compute cost to 42% of Nvidia’s”, according to the company. TPUs, a type of ASIC, developed by Google for neural-network training and inference, offer higher efficiency and throughput for certain deep learning workloads. Nvidia’s GPUs are considered the backbone of the global AI boom, making the firm the world’s most valuable company, yet many customers are keen to reduce their dependence on the US chip giant. Google’s recent decision to supply TPUs directly to Anthropic and Meta Platforms, instead of only providing access through its cloud services, has positioned it more as a direct rival to Nvidia. The move even rattled market confidence in Nvidia’s long-term grip on the sector. Chinese AI developers began to seek alternatives to Nvidia after Washington restricted their access to the US firm’s most advanced products. Zhonghao Xinying was founded in 2018 by Yanggong Yifan (杨龚轶凡), a Stanford and University of Michigan-trained electrical engineer who previously worked on chip architectures at Google and Oracle. He was involved in the full design-to-deployment cycle of Google’s TPU v2, v3 and v4, according to the Chinese company. CTO and co-founder Zheng Hanxun, a graduate of the University of Southern California, previously worked in chip-design roles at Oracle and Samsung Electronics’ R&D center in Austin, Texas. Yanggong said Zhonghao Xinying’s TPU features “fully self-controlled IP cores, a custom instruction set and a wholly in-house compute platform”. “Our chips rely on no foreign technology licences, ensuring security and long-term sustainability from the architectural level.” “We have achieved a 1.5x performance increase while reducing power consumption to 75% using a manufacturing process that is an order of magnitude lower than that of leading overseas GPU chips,” Yanggong said in a June speech. As a fabless chip company, Zhonghao Xinying outsources the fabrication of its chips to foundries, but it has not publicly revealed its manufacturing partners. The company also introduced Taize (泰则), a large-scale compute cluster linking 1,024 Chana units, capable of supporting training for trillion-parameter-class foundation models. Yanggong told an industry conference in June that a “next-generation TPU” was in the works, without giving a timeline. In August, Zhonghao Xinying announced plans to acquire Shanghai-listed auto-parts maker Tip Corporation (天普股份), a move that pushed the latter’s shares from roughly 30 yuan at the time to 140 yuan today. Financial filings for the acquisition revealed that in 2023 Zhonghao Xinying generated 485 million yuan (US$68.4 million) in revenue and 81.3 million yuan in net profit, largely from the Chana TPU. Revenue rose to 598 million yuan in 2024, with net profit edging up to 85.9 million yuan, but for the first half of this year it reported revenue of just 102 million yuan and a loss of 144 million yuan. Zhonghao Xinying signed a performance-guarantee agreement with its investors that requires the company to go public by the end of 2026, or a share buy-back clause will be triggered. Tip Corporation said in a recent filing that Zhonghao Xinying had already begun work on a separate, independent IPO; so the chip startup is not pursuing a reverse takeover of Tip Corporation.
Rocky
1个月前
最近美股各投行在大肆鼓吹TPU芯片了,谷歌自从被巴菲特锁定后,股价蹭蹭涨📈,已经临近4万亿大关,今天就简单解析一下TPU的潜力以及相关利好利空的公司。 我最近也跟随巴菲特,在押注谷歌TPU,我认为这不仅仅是芯片,而是一场云计算的“阳谋”。 可能大家都听说过GPU——英伟达(#NVDA)靠着它成了AI时代的“印钞机”,市值一度飙到5万亿。但TPU,是谷歌偷偷练了12年的大招。过去,它只给自己用,比如训练Gemini大模型、优化YouTube推荐、支撑Google Search的AI功能。但现在,谷歌突然说:“嘿,Meta、Anthropic,你们要不要也试试我的芯片?” #AI 芯片三足鼎立,可能就此展开竞争,英伟达,AMD,谷歌。而谷歌家的TPU,可能是改变整个AI芯片格局的一招。 TPU是什么?简单理解就是“谷歌自研的AI加速卡” 你可以把它想象成英伟达GPU的“竞品”,但专为谷歌的AI任务深度优化。TPU不是通用芯片,而是ASIC(专用芯片),就像为跑马拉松专门定制的跑鞋,别的路可能不灵,但在谷歌这套AI生态里,又快又省电。 过去TPU只在谷歌自家数据中心跑,从不对外。但现在,风向变了。Morgan Stanley的报告显示,谷歌已经和 #Anthropic 签下100万颗TPU的大单,还正和 #Meta 谈明年租用、后年直接采购用于训练Llama模型——注意,是训练,不是简单的推理。训练对芯片性能要求高得多,这说明谷歌在自家Gemini的实际使用上,已经被大众所认可。 这会给谷歌带来哪些财务影响?根据Morgan Stanley的测算:每对外卖出50万颗TPU,谷歌2027年云业务收入就能多130亿美元(+11%),每股收益(EPS)能涨$0.37,相当于整体EPS提升3%。别小看3%——在 #GOOGL 这种体量的公司,这就是实实在在的利润增量,而且还能推动估值倍数上移。 现在谷歌云还在追赶AWS和Azure,但TPU可能是它的“差异化王牌”:别人用英伟达GPU,又贵又抢不到;而谷歌说,“我不仅有云,还有自己造的、性价比更高的AI芯片,还能和PyTorch无缝对接。”这对大多数AI客户来说,诱惑太大了。 📝这里面存在利好利空的公司? 谷歌(#GOOGL):显然是最大受益者。不仅云收入增长,还能摊薄TPU研发成本,形成“芯片-云-大模型”闭环。是一个典型的正向飞轮加速。 英伟达(#NVDA):短期影响不大,长期投资者心态有一定影响。毕竟NVDA 2027年预计卖800万颗GPU,谷歌TPU就算卖100万颗,也只是小部分替代。但长期看,如果TPU生态做起来,NVDA的“独占”地位会被削弱,长远来看还是有一定负面影响。 #AMD:有点尴尬。本来指望靠MI450抢点份额,结果Meta转头去试TPU了。AMD一直强调“通用性+云兼容”,但现在TPU也变成“准商用”产品了,这个优势被完全稀释了,苏妈又要焦虑了。 博通(#AVGO):它可能是隐形最大受益者。因为TPU是谷歌设计、博通代工制造的。Morgan Stanley估计,2025年博通为谷歌生产了180万颗TPU,2027年要干到300万颗。TPU越火,博通订单越稳。虽然这块业务毛利率可能不如NVDA那么高,但量大、稳定、绑定头部客户,是优质资产。 ⚠️我的三点担忧,从Morgan Stanley报告中,提到了一些风险点,需要注意: 1️⃣商业模式:谷歌是直接卖芯片?还是只租用?如果是卖,会计入硬件收入(低毛利);如果是云服务形式,就计入高毛利的云收入。这对利润结构影响巨大。 2️⃣开发者生态:TPU过去被诟病“难用”。现在谷歌搞了个“TPU Command Center”,还能用PyTorch调用,这是重大进步。但真能打消开发者对NVDA CUDA的依赖吗?还得看实际体验。 3️⃣Meta到底买多少?如果只是“试试”,影响有限;但如果Meta真把Llama 4或5的大规模训练交给TPU,那等于给TPU发了“行业认证证书”,对其他AI公司来说,会大批量跟进。 我最近已经加大对谷歌和博通的押注,我不赌“英伟达会不会影响”,而是押注“谷歌能不能跑出第二曲线”。TPU对外销售,是谷歌从“AI使用者”变成“AI基础设施提供商”的关键一步。如果2027年谷歌真能卖出200万~300万颗TPU,那不仅云业务估值要重估,整个 #GOOGL 的AI叙事也会从“追赶者”变成“规则制定者”之一,所以,我现在更坚定地持有 #GOOGL,甚至在回调时准备再加一点。这不是炒概念,而是在押注一个被低估的硬件+软件+云一体化AI平台的崛起。毕竟,在AI这场马拉松里,光有引擎(GPU)不够,还得有整辆车——而谷歌,正在悄悄造一辆自己的车。🧐 假如您还受限于国内美股开户不方便,那么可以尝试用U炒美股,体验丝丝顺滑,我个人正在使用 #RWA 美股代币化平台 #MSX,一同参与美股市场: 目前可以免费进我们美股社群,免费阅读海外投行一手报告,每周限额10人,可以私信我,填写表单,进入美股交流和探讨社群(最近加群人数较多,助理审核需要时间,感谢理解)🙏
向阳乔木
1个月前
AI在重新定义芯片该长什么样。 芯片也在决定AI能走多远。 有三个趋势: 1. 从通用走向专用。 以前大家都用通用GPU跑AI。 但现在会发现,针对大模型推理、训练、端侧部署。 芯片的设计逻辑完全不一样。 未来3-5年,我觉得会出现更多专用AI芯片。 比如说,训练芯片要堆算力,推理芯片要省功耗,端侧芯片要低延迟。 英伟达现在也在分化产品线,H系列做训练,L系列做推理。 国内像壁仞、燧原这些公司,也在找差异化定位。 未来不会一家通吃,会形成 "训练有训练的王者,推理有推理的霸主,端侧有端侧的玩家" 这样的格局。 2. 存算一体突破,解决内存墙问题。 现在大模型最大的瓶颈不是算力,是数据搬运。 芯片要不停地从内存读数据、算完再写回去,这个过程太慢、太耗电。 存算一体就是把计算和存储放在一起,数据不用来回搬了。 技术如果突破,对AI的影响巨大。 清华、中科院、还有一些创业公司都在做这个方向。 未来3-5年,如果存算一体芯片能量产。 让大模型的推理成本降低一个数量级,很多现在做不了的应用到时就能做了。 3. 芯片和算法一起优化。 以前算法工程师写代码,芯片工程师做芯片,两边各干各的。 但现在很多公司在做联合设计。 算法知道芯片的特性,芯片针对算法做优化。 苹果就是,他们的神经网络引擎和iOS的AI功能是一起设计的,所以iPhone上跑AI模型很流畅。 特斯拉的FSD芯片也是这样,针对自动驾驶算法定制的。 国内觉得华为在这方面做得比较好。 昇腾芯片和盘古大模型、鸿蒙系统是打通的。 未来这种软硬一体的能力,会成为核心竞争力。
RamenPanda
1个月前
大白话讲解谷歌TPU VS GPU #### 1. TPU 诞生的真正原因(2013-2015) - Google 谷歌发现:如果每个安卓用户每天用语音搜索 3 分钟,现有 CPU/GPU 算力要让全球数据中心翻倍。 - 结论:必须自研 ASIC 专门跑矩阵运算(神经网络推理),否则 AI 成功会把自己“撑死”。 - 从立项到量产仅 15 个月,2015 年就已经在 Google 搜索、地图、照片、翻译背后悄悄运行。 #### 2. TPU vs GPU 的本质区别 - GPU:通用并行处理器,背着“图形渲染”历史包袱(缓存、分支预测、复杂调度等)。 - TPU:极简“领域专用架构”(Domain-Specific Architecture) - 核心是 **Systolic Array(脉动阵列)**:权重只加载一次,数据像血液一样单向流动,几乎不回写内存,彻底解决冯诺依曼瓶颈。 - 最新一代 TPU v7(Ironwood,2025 年 4 月发布)单芯片规格: - 4,614 TFLOPS(BF16) - 192GB HBM(与 Blackwell B200 相同) - 内存带宽 7,370 GB/s - 性能/功耗比比上代 v6e(Trillium)提升 100% #### 3. 真实性能对比 - 推理场景下,TPU 性价比普遍比 Nvidia GPU 高 30%-100%(看具体工作负载) - 典型说法: - “同样的钱,8 张 H100 的活,1 个 TPU v5e Pod 就能干” - “TPU v6 比 Hopper GPU 省电 60-65%” - “老一代 TPU 降价极狠,新一代出来后上一代几乎白送” - 即使 Jensen Huang 也承认:ASIC 里只有 Google TPU 是“special case”。 #### 4. TPU 普及的最大障碍 - 生态锁死:程序员大学学的是 CUDA + PyTorch,TPU 用 JAX/TensorFlow(虽已支持 PyTorch,但库仍不完善) - 只能在 Google Cloud 用(AWS/Azure 都没有),数据迁移成本(egress fee)极高,企业不敢 All-in - 目前主要赢在推理,训练虽强但 CUDA 生态仍占优势 #### 5. 对 Google Cloud 的战略意义 - AI 时代云服务毛利率从 50-70% 暴跌到 20-35%,因为大家都在给 Nvidia 打工(Nvidia 毛利 75%)。 - 谁能用自研 ASIC 摆脱 Nvidia,谁就能重回 50%+ 毛利。 - 三大云厂商自研 ASIC 进度:**Google TPU >> AWS Trainium > Azure MAIA** - Google 已把 TPU 设计前段(RTL)全部握在自己手里,Broadcom 只做后端物理实现,Broadcom 毛利率被压到 50% 左右。 - 内部:Google 搜索、Gemini、Veo 等全部用 TPU 推理;对外 GCP 客户要 Nvidia 才给 Nvidia。 - **TPU 是 GCP 在 AI 时代翻盘、抢回云市场份额的最大王牌**。 - Google 正疯狂扩产 TPU v7(Ironwood) - 外部客户 2025 年底才开始大规模拿到 - 业内预计 2026 年 Google TPU 出货量将出现爆发式增长(与你之前那张 UBS 报告提到的“Google TPU v7p 明显放量”完全吻合) **总结:** Google TPU 是目前唯一真正能和 Nvidia 掰手腕的自研 AI 芯片,尤其在推理时代具备压倒性性价比优势,未来 5-10 年将是 Google Cloud 最大护城河,也是台积电 CoWoS 封装需求暴涨的最重要驱动力之一。
昨天有点忙没顾上,今天再来详解一下英伟达开放禁售传闻把。大家肯定还记得前几天黄仁勋说:“如果我们季度业绩不佳,那就证明人工智能存在泡沫。如果我们季度业绩出色,那就是在助长人工智能泡沫。如果我们季度业绩不佳,哪怕只是差一点点,哪怕只是看起来有点问题,整个世界都会崩溃。” 这句话本身就是英伟达现状的写照:英伟达已经被市场捧到了“无限预期”的位置,任何不及预期的财报都会被解读为 AI 泡沫见顶。换句话说,英伟达已经站在了必须永远交出超预期成绩单的高度。 在这种巨大的压力下,除了中国市场巨大的份额,英伟达找不到任何可以替代的增量市场。所以这次所谓“允许出口 H200”,核心不是美国善意,而是为了避免英伟达的财报塌陷,避免 AI 泡沫提前破灭,避免美股大盘系统性风险。这不是放松制裁,而是“维稳美股”的现实操作。 美国过去几十年的出口策略很固定,一旦中国在某项技术上追赶美国,就会下放出口限制。据传近期华为昇腾 910C 已经接近 H200 性能,也就是说H200级别的芯片禁售已经没有意义了。放开销售既可以增加美国企业销售额,又可以通过倾销抢夺中国企业份额。对美属于何乐而不为的事情。 但对于中国来说,H20的禁止原因同样适用于H200。即你美国今天可以开放出口,明天就又可以断供,限制随时可能升级,供应链的稳定比芯片性能那一部分差异要重要得多,这事关整条研发和应用链。在 AI 时代,算力不是买手机,算力是整个国家战略级别的基础设施,一旦被卡断,会造成大模型无法训练,数据中心无法扩容,业务无法上线,整个 AI 产业链停摆等恶劣后果。这是完全无法容忍的。 所以中国的核心逻辑是:性能差一点没关系,但供应链不能被人掐着喉咙。国产 GPU 即便短期比 H200 慢一点,也必须坚持扶持,因为,自主可控比性能领先重要得多,算力生态靠稳定性,而不是最高性能,国产芯片一旦形成大规模部署,迭代速度会非常快。 同时更有甚者还有传闻说美国国会要求给英伟达芯片装上开关保证可以控制,这就更离谱了,如果有这种开关,相信没有中国企业会去购买英伟达芯片。 如果美国真的批准 H200 对华出售,市场可能会出现一个非常讽刺的现象: 短期反弹: 消息面会刺激英伟达股价,认为重大利好。 实际遇冷: 中国头部大厂大概率只会小批量采购做冗余,大部队继续走国产化。因为谁也不敢把身家性命重新押回英伟达身上。 国产加速: 这种摇摆不定的政策反而会倒逼中国加速昇腾等国产芯片的生态建设,毕竟只有握在自己手里的技术才不受制于人。