勃勃OC

勃勃OC

0 关注者

1天前

$MU(美光)推出了一款专为 AI 数据中心设计的 256GB 内存模块,能够为大语言模型(LLM)提供更快的响应速度,同时相比传统内存具备显著更高的能效。 随着人工智能从训练阶段(training)逐步转向推理阶段(inference),CPU 内存正成为新的性能瓶颈。

热门新闻