Taalas 成立两年半,24个人, 花了3000万美金, 开发了一个平台,可以将任何 AI 模型转化为定制芯片。由此产生的「硬核模型」比基于软件的实现快一个数量级,成本更低,功耗更低。 可以在官网体验:15585 tok/s,生成时间 24 毫秒,真正的毫秒级响应。 Taalas 的做法是把模型权重直接固化进芯片电路,存储与计算在物理上融为一体,彻底消除了传统 GPU 推理中的内存带宽瓶颈。代价是极端的专用化——每个模型对应一块芯片,通用性几乎为零。 这其实是计算技术演进中一条反复出现的底层规律:在时间、空间、能耗、通用性等多维约束下,寻找新的帕累托最优。 从算法到编译器,从操作系统到数据库,从云计算到 AI加速器,每一层技术栈都在不同维度上体现这一逻辑。 Taalas 选择将通用性压到极致,换取速度和能效的数量级提升——和当年比特币 ASIC 矿机取代 GPU 挖矿的逻辑如出一辙。 所以计算机科学不会过时。问题规模持续增长,约束条件持续变化,而寻找最优权衡的需求永远存在。 每一轮技术浪潮,都是在新的硬件与应用场景下,把这条底层规律再实现一遍。 这也是为什么我一直建议: 无论你是否从事技术工作,都值得去学一些计算机科学。不是为了学会写代码——AI 已经越来越擅长这件事。 而是去掌握那些不会被淘汰的底层思维:如何分解问题,如何在约束条件下做权衡,如何用抽象管理复杂性。 这些能力不会因为 AI 的到来而贬值,恰恰相反——当 AI 成为每个人都能使用的工具时,真正拉开差距的,是谁能更好地定义问题、评估方案、理解系统的边界与代价。 懂得计算思维的人,不是和 AI 竞争,而是能驾驭它。