#芯片算法联合优化

向阳乔木
1小时前
AI在重新定义芯片该长什么样。 芯片也在决定AI能走多远。 有三个趋势: 1. 从通用走向专用。 以前大家都用通用GPU跑AI。 但现在会发现,针对大模型推理、训练、端侧部署。 芯片的设计逻辑完全不一样。 未来3-5年,我觉得会出现更多专用AI芯片。 比如说,训练芯片要堆算力,推理芯片要省功耗,端侧芯片要低延迟。 英伟达现在也在分化产品线,H系列做训练,L系列做推理。 国内像壁仞、燧原这些公司,也在找差异化定位。 未来不会一家通吃,会形成 "训练有训练的王者,推理有推理的霸主,端侧有端侧的玩家" 这样的格局。 2. 存算一体突破,解决内存墙问题。 现在大模型最大的瓶颈不是算力,是数据搬运。 芯片要不停地从内存读数据、算完再写回去,这个过程太慢、太耗电。 存算一体就是把计算和存储放在一起,数据不用来回搬了。 技术如果突破,对AI的影响巨大。 清华、中科院、还有一些创业公司都在做这个方向。 未来3-5年,如果存算一体芯片能量产。 让大模型的推理成本降低一个数量级,很多现在做不了的应用到时就能做了。 3. 芯片和算法一起优化。 以前算法工程师写代码,芯片工程师做芯片,两边各干各的。 但现在很多公司在做联合设计。 算法知道芯片的特性,芯片针对算法做优化。 苹果就是,他们的神经网络引擎和iOS的AI功能是一起设计的,所以iPhone上跑AI模型很流畅。 特斯拉的FSD芯片也是这样,针对自动驾驶算法定制的。 国内觉得华为在这方面做得比较好。 昇腾芯片和盘古大模型、鸿蒙系统是打通的。 未来这种软硬一体的能力,会成为核心竞争力。