一年前,也是在春节期间,OpenAI突然发布了断档领先的视频大模型Sora,给国产AI厂商添了大堵,被调侃为都过不好年了。 一年后的这次临近春节,轮到中国AI厂商给美国竞对们上眼药了,Qwen、DeepSeek、Kimi、Doubao连着发大招,你方唱罢我登场,实在热闹。 因为别人太强而过不好年,和因为自个忙起来根本就没想过好年,是完全不同的两码事。 字节跳动新发布的豆包1.5 Pro,除了在基准测试里表现抢眼之外,还特意强调了两个点: - 基于豆包产品的大规模用户反馈,实现了以用户数据飞轮持续提升模型能力的优化系统; - 模型训练过程中,未使用任何其他模型生成的数据,坚持不走捷径,确保数据来源的独立性和可靠性。 这两个点,很容易联想到最近的两件事:前一个是MiniMax的创始人在接受采访时提出的反共识,认为用户越多并不能推动模型越强;后一个则是中科院、北大等六家机构发了篇学术论文,用两种方法验证了Claude、Gemini和豆包没有蒸馏其他模型,DeepSeeek的蒸馏程度则比较高。 豆包的意思是,用户数据飞轮对大模型仍然有价值,推翻了它,就意味着否认用户市场和技术发展之间的关系,大家也都没必要追求MAU/DAU了,以及用先进模型去教出一个学生模型出来,并不能让学生真正变得比老师更加聪明。 Sam Altman早些时候也发过一条意有所指的隐晦推文:「复制你知道行得通的东西是(相对)容易的。当你不知道它是否行得通时,做一些新的、有风险的、困难的事情是非常困难的。」 严格来说,豆包的表态更像是在输出一种自我要求的标准,而没有太多的diss成分,中国需要DeepSeek这样的公司用最快速和低成本的方法推动AI技术开放,也需要字节这样的大厂用更重的投入、走更难的路去挑战更高目标。 这种并无计划的错位搭配,正是国产科技行业擅长的饱和式路线,资源受限的公司,可以拿出性价比最优的方案,突出一个物超所值,资源充裕的公司,也确实有资格不抄近道,做好和模型预研、实验、训练共同生长的数据基建。 豆包这次的亮点在于,即使没有采用能快速复制海外先进模型能力的蒸馏方法,而是老老实实的自建庞大的人工标注团队和数据生产体系,依然能把模型效果做到GPT-4o的水平,也充分发挥了中国团队的工程优化能力来降低推理成本,而且无论是DeepSeek还是豆包在谈及定价策略时,都曾很是无辜的表示并没有挑起价格战的意图,自己是有利润的,成本结构完全可以实现。 与此同时,Musk和Altman还在为「星际之门」项目到底有没有5000亿美金能够到账而吵个不休⋯⋯ 当然OpenAI依然值得尊重,只是在行业整体都在大幅前进的情况下,有多少是站在巨人的肩膀上,又有多少正在成为新的巨人,这是很有讨论价值的,也是在开启一个波澜壮阔的硅基时代前,不可缺少的仪式性帷幕。 科技公司通常会凸显研发支出占总收入的比重,视其为愿意在多大程度上投入核心竞争力的决心,以后倒可能会有一个类似的新指标出来,那就是对AI的支出占总支出的比重,这代表公司愿意在未来上押注多少现金流。 这是字节跳动最有力量的标志,从收入体量来看,它是全球级的互联网大厂,不但有着管够的弹药,而且可以自给自足,不必过于依赖外部输血,去年在AI设施上花的钱几乎相当于BAT之和,在投入和产出两个方面都成了国内断崖领先的榜一。 另一方面,豆包的发展也带有很强的商业逻辑,无论是它对大模型调用经济性的重视,还是带着火山剪映等兄弟业务协同发展,甚至包括衔接上下游产业链去做更多样化的的产品,都相当务实。 有的时候也会感慨,这种务实在需要喊口号时,也很难一下子变得浪漫化,尤其是在英文圈里言必称AGI、各种科幻梗层出不穷的背景下,再去看字节跳动为AGI团队Seed Edge设立的五大目标,只能说真的很理工化,没有半分虚的: - 探索推理能力的边界,用更先进的推理带动智能的提升; - 探索感知能力的边界,不止是语言模型,还要建立世界模型; - 探索软硬一体的下一代模型设计,用模型的需求反过来为硬件设计指路; - 探索下一代学习范式,既要挑战现在的共识,还得提出新的改进空间; - 探索下一个Scaling方向,推动智能边界的进步。 就,很具体明晰,很就事论事,有没有?根本不存在那种金句或者机锋,每一个字每一句话都是在精确的传达给字节跳动想要招揽的科学家和工程师,唯一画的大饼,就是承诺Seed Edge将会独立制定考核方式,充分提供前沿研究的工作环境。 也只有字节跳动来做这样的事情,是最合适的了。 张一鸣早年发过一条微博,说在遇到技术问题时,公司花了两天时间集中排查,终于得到解决,而这个过程让他感到愉悦: 「想起稻盛和夫说的:用尽全力,异常认真,神明就会来相助。其实神明未必相助,但是你会更接近问题的本质,从而解决问题。」 我想说的是,从今日头条,到抖音,再到豆包,其实都是这个过程的复现。