勃勃OC 0 关注者 关注 1天前 $MU(美光)推出了一款专为 AI 数据中心设计的 256GB 内存模块,能够为大语言模型(LLM)提供更快的响应速度,同时相比传统内存具备显著更高的能效。 随着人工智能从训练阶段(training)逐步转向推理阶段(inference),CPU 内存正成为新的性能瓶颈。 前往原网页查看