勃勃OC
9小时前
网传NVIDIA 即将推出支持 CXL 的 Vera Rubin 系统,并采用日益解耦的 GPU 架构。内存正在变得可通过 fabric 附加、可组合且一流的。单体加速器盒子的时代正在结束。 未来的 AI 栈不会是GPU + 本地 DRAM 而将是GPU 芯片 + 池化内存 + 感知 fabric 的编排 + 硬件强制隔离 如果 NVIDIA 推动 CXL GPU 和基于芯片的加速器前进,真正的差异化将转移到它们之下的层:内存 fabric 和控制平面。 下一场 AI 基础设施战争不会仅仅靠 FLOPs 取胜。它将靠内存架构和 fabric 智能取胜。 背景知识:Compute Express Link (CXL) 是一种开放的行业标准互连技术,旨在实现处理器(如 CPU 和 GPU)、内存设备、加速器以及计算系统中其他组件之间的高速、缓存一致性通信。它基于 PCIe的物理层构建,能够实现高效的数据共享和内存扩展,从而解决现代工作负载(如 AI 和高性能计算)中的瓶颈问题。 CXL关键特征: - 缓存一致性:确保连接设备间的数据保持一致,允许无缝访问共享内存,而无需软件开销。 - 内存扩展和池化:支持解耦架构,其中内存可以池化和动态分配,提高数据中心和 AI 系统中的利用率。 - 高带宽和低延迟:利用 PCIe 通道提供比传统方法更快的互连,适用于加速器和异构计算。 - 版本演进:根据最新标准,CXL 已从 1.0 版(专注于设备连接)发展到 2.0 版(添加内存池化),再到 3.0+ 版(增强 fabric 能力和可扩展性)。 在 AI 基础设施的背景下(如 NVIDIA 等公司的最新发展),CXL 能够实现可组合系统,其中资源如内存通过 fabric 附加,而不是固定在特定 GPU 上,从而提升大规模模型的效率。