RamenPanda
2个月前
大白话讲解谷歌TPU VS GPU #### 1. TPU 诞生的真正原因(2013-2015) - Google 谷歌发现:如果每个安卓用户每天用语音搜索 3 分钟,现有 CPU/GPU 算力要让全球数据中心翻倍。 - 结论:必须自研 ASIC 专门跑矩阵运算(神经网络推理),否则 AI 成功会把自己“撑死”。 - 从立项到量产仅 15 个月,2015 年就已经在 Google 搜索、地图、照片、翻译背后悄悄运行。 #### 2. TPU vs GPU 的本质区别 - GPU:通用并行处理器,背着“图形渲染”历史包袱(缓存、分支预测、复杂调度等)。 - TPU:极简“领域专用架构”(Domain-Specific Architecture) - 核心是 **Systolic Array(脉动阵列)**:权重只加载一次,数据像血液一样单向流动,几乎不回写内存,彻底解决冯诺依曼瓶颈。 - 最新一代 TPU v7(Ironwood,2025 年 4 月发布)单芯片规格: - 4,614 TFLOPS(BF16) - 192GB HBM(与 Blackwell B200 相同) - 内存带宽 7,370 GB/s - 性能/功耗比比上代 v6e(Trillium)提升 100% #### 3. 真实性能对比 - 推理场景下,TPU 性价比普遍比 Nvidia GPU 高 30%-100%(看具体工作负载) - 典型说法: - “同样的钱,8 张 H100 的活,1 个 TPU v5e Pod 就能干” - “TPU v6 比 Hopper GPU 省电 60-65%” - “老一代 TPU 降价极狠,新一代出来后上一代几乎白送” - 即使 Jensen Huang 也承认:ASIC 里只有 Google TPU 是“special case”。 #### 4. TPU 普及的最大障碍 - 生态锁死:程序员大学学的是 CUDA + PyTorch,TPU 用 JAX/TensorFlow(虽已支持 PyTorch,但库仍不完善) - 只能在 Google Cloud 用(AWS/Azure 都没有),数据迁移成本(egress fee)极高,企业不敢 All-in - 目前主要赢在推理,训练虽强但 CUDA 生态仍占优势 #### 5. 对 Google Cloud 的战略意义 - AI 时代云服务毛利率从 50-70% 暴跌到 20-35%,因为大家都在给 Nvidia 打工(Nvidia 毛利 75%)。 - 谁能用自研 ASIC 摆脱 Nvidia,谁就能重回 50%+ 毛利。 - 三大云厂商自研 ASIC 进度:**Google TPU >> AWS Trainium > Azure MAIA** - Google 已把 TPU 设计前段(RTL)全部握在自己手里,Broadcom 只做后端物理实现,Broadcom 毛利率被压到 50% 左右。 - 内部:Google 搜索、Gemini、Veo 等全部用 TPU 推理;对外 GCP 客户要 Nvidia 才给 Nvidia。 - **TPU 是 GCP 在 AI 时代翻盘、抢回云市场份额的最大王牌**。 - Google 正疯狂扩产 TPU v7(Ironwood) - 外部客户 2025 年底才开始大规模拿到 - 业内预计 2026 年 Google TPU 出货量将出现爆发式增长(与你之前那张 UBS 报告提到的“Google TPU v7p 明显放量”完全吻合) **总结:** Google TPU 是目前唯一真正能和 Nvidia 掰手腕的自研 AI 芯片,尤其在推理时代具备压倒性性价比优势,未来 5-10 年将是 Google Cloud 最大护城河,也是台积电 CoWoS 封装需求暴涨的最重要驱动力之一。
Black Forest Labs 发布 FLUX.2,依旧开源! 支持文生图、多图参考以及图像编辑,文本生成和提示词遵循能力大幅提高。 具体的模型能力有: - 最多同时参考 10 张图片,提供最佳一致性。 - 更丰富的细节、更清晰的纹理和更稳定的光线。 - 复杂排版、信息图、表情包和用户界面的文字渲染 - 在遵循复杂、结构化指令方面得到改进 - 现实世界知识、光照和空间逻辑方面显著更有根据 - 支持高达 4MP 分辨率的图像编辑 这次发布了四个模型版本: FLUX.2 [pro]:与最优秀的封闭模型相媲美的最先进图像质量,在提示遵从性和视觉逼真度方面与其他模型相当,同时生成图像更快且成本更低。速度与质量两者兼得。 FLUX.2 [flex]:可控制模型参数,例如步数和引导强度,让开发者对质量、提示遵从性与速度拥有完全控制。该模型在渲染文本和细节方面表现出色。 FLUX.2 [dev]:32B 开放权重模型,源自 FLUX.2 基础模型。当前最强大的开源图像生成与编辑模型,将文本到图像合成与多输入图像的图像编辑结合在单一模型中。 FLUX.2 [klein](即将推出):开源,Apache 2.0 许可证模型,从 FLUX.2 基础模型通过蒸馏得到的同尺寸模型。比同等尺寸且从头训练的可比模型更强大且更利于开发者使用。 FLUX.2 - VAE:一种新的变分自编码器,用于潜在表示,在可学习性、质量和压缩率之间提供优化的权衡。