#Kimi

宝玉
1周前
推荐阅读:大模型大逃杀:一山不容「六小虎」 中国AI领域聚集了最多钱和人才的几家创业明星公司,为什么集体失意? 摘录一段零一万物的: 一开始,不少零一万物的早期产品核心成员,是为了做出“Super App”,才选择加入零一万物。 一名知情人士记得,李开复承诺他们,公司会给予产品立项很高的自由度:“开复鼓励大家对Super App的形态进行自由探索,只要有好想法,公司就给团队和资源试水。” 这样的承诺为零一吸引了不少人才,包括在飞书工作过的曹大鹏和蓝雨川。 很快,曹大鹏就做出了PopAi,一款在海外上线的AI办公工具。效果也不错——截止2024年3月,PopAi的ROI已经打正,每周付费的增长率达到了30-40%,高峰期ARR接近千万美元。 这本是一场不错的胜仗。若是延续下去,PopAi会成为零一万物找到PMF(产品-市场适配度)的代表作,也会成为零一万物继续融资、维持生存的重要砝码。 但不出一年,零一万物却戏剧性地暂时搁置了PopAi。 原因也相当戏谑。2024年3月,月之暗面的产品Kimi在国内出圈,由于担心丢失国内市场,零一万物决定将产品的重心,从成熟的海外市场,转向国内。 当月,零一万物的高管就拍板,复刻Kimi,在国内上线一款AI生产力工具“万知”——一款几乎每家AI公司都有的对话框产品。 最终,被零一寄予厚望的“万知”,分走了PopAi的大部分人力和金钱。失去了迭代和营销的资源,PopAi急转直下,“付费平均每个月都跌20%”。 就这样,零一在厮杀中反而丢掉了一个重要武器。 更具戏剧性的是,被零一效仿的对手,月之暗面,其看似华丽的增长数据,也是用近乎饮鸩止渴的手段实现。 “内部对标的是全盛时期的小红书增长曲线。”月之暗面员工刘磊对“智能涌现”打了个比方:如果Kimi第一个月的正常增长达到了200万,下个月和下下个月就得达到400万和600万,“没有任何一款初期产品能够达到这样的指数型增长。” 为了达成不现实的数据指标,月之暗面只能选择激进的投流。在过去的2024年,Kimi的投放预算一度水涨船高。另有月暗的员工告诉“智能涌现”,投流的最高峰在2024年12月,预算达到了惊人的2亿元。 只是,烧出来流量,需要靠不断迭代的产品力去承接。但Kimi团队忽略了这一点。 “Kimi只管花钱,但产品团队怎么和增长团队配合,怎么迭代功能去提高用户留存,完全没有概念。”上述员工直言,靠“长文本”出圈后,Kimi在2024年,几乎没有再造一个爆点功能,“维持原有的增长率,已经很不容易。” 这就是这场“六小虎”生存战的荒谬之处:他们将“超越对手”当做了核心目标,而正常的产品研发流程、健康的业务增长方法,都因为杀红了眼,统统被忽略。 总结PopAi的成功,一名零一万物员工告诉“智能涌现”,关键在于匹配市场需求。但为了尽快上线,“万知”跳过了用户调研、竞品对比、产品形态规划。后来,万知这款没有差异化竞争力的产品,推出仅3个月后,就因成绩不佳停止了运营。 并非没有人给高层敲响警钟。 “万知”和PopAi两款产品的负责人曹大鹏,并不是“万知”立项的支持者。相反,他是最反对的一个。不少PopAi团队成员,也对“万知”有所顾虑,原因在于国内工具类市场已经被Kimi占据的心智,彼时入局不是好时机。 产品策略的不合,最终导致人才的出走。2024年8月,曹大鹏选择离职,随后辗转加入字节,出任AI视频生成工具“即梦”的产品负责人。 一名专做高级人才招聘的猎头,曾在2023年给两家六小虎的高管提出建议,让他们尽快从大厂和创业者中找一位产品主理,去弥补产品基建的短板。 其中一家小虎的产品经理,也曾形容在其中做产品的感觉为“刀耕火种”:“完全不成体系,连最基础的A/B Test(一种产品效果的测试方法),也没有人去搭建。” 事与愿违。两家企业拒绝猎头的口径如出一辙,“他们和我说,做产品相对做技术而言简单得多,只要做好技术,他们做产品也不在话下。” 六小虎往往都是一手做产品,一手做模型。最后,两家企业招人的预算,都用在了技术人才上。
阑夕
6个月前
一年前,也是在春节期间,OpenAI突然发布了断档领先的视频大模型Sora,给国产AI厂商添了大堵,被调侃为都过不好年了。 一年后的这次临近春节,轮到中国AI厂商给美国竞对们上眼药了,Qwen、DeepSeek、Kimi、Doubao连着发大招,你方唱罢我登场,实在热闹。 因为别人太强而过不好年,和因为自个忙起来根本就没想过好年,是完全不同的两码事。 字节跳动新发布的豆包1.5 Pro,除了在基准测试里表现抢眼之外,还特意强调了两个点: - 基于豆包产品的大规模用户反馈,实现了以用户数据飞轮持续提升模型能力的优化系统; - 模型训练过程中,未使用任何其他模型生成的数据,坚持不走捷径,确保数据来源的独立性和可靠性。 这两个点,很容易联想到最近的两件事:前一个是MiniMax的创始人在接受采访时提出的反共识,认为用户越多并不能推动模型越强;后一个则是中科院、北大等六家机构发了篇学术论文,用两种方法验证了Claude、Gemini和豆包没有蒸馏其他模型,DeepSeeek的蒸馏程度则比较高。 豆包的意思是,用户数据飞轮对大模型仍然有价值,推翻了它,就意味着否认用户市场和技术发展之间的关系,大家也都没必要追求MAU/DAU了,以及用先进模型去教出一个学生模型出来,并不能让学生真正变得比老师更加聪明。 Sam Altman早些时候也发过一条意有所指的隐晦推文:「复制你知道行得通的东西是(相对)容易的。当你不知道它是否行得通时,做一些新的、有风险的、困难的事情是非常困难的。」 严格来说,豆包的表态更像是在输出一种自我要求的标准,而没有太多的diss成分,中国需要DeepSeek这样的公司用最快速和低成本的方法推动AI技术开放,也需要字节这样的大厂用更重的投入、走更难的路去挑战更高目标。 这种并无计划的错位搭配,正是国产科技行业擅长的饱和式路线,资源受限的公司,可以拿出性价比最优的方案,突出一个物超所值,资源充裕的公司,也确实有资格不抄近道,做好和模型预研、实验、训练共同生长的数据基建。 豆包这次的亮点在于,即使没有采用能快速复制海外先进模型能力的蒸馏方法,而是老老实实的自建庞大的人工标注团队和数据生产体系,依然能把模型效果做到GPT-4o的水平,也充分发挥了中国团队的工程优化能力来降低推理成本,而且无论是DeepSeek还是豆包在谈及定价策略时,都曾很是无辜的表示并没有挑起价格战的意图,自己是有利润的,成本结构完全可以实现。 与此同时,Musk和Altman还在为「星际之门」项目到底有没有5000亿美金能够到账而吵个不休⋯⋯ 当然OpenAI依然值得尊重,只是在行业整体都在大幅前进的情况下,有多少是站在巨人的肩膀上,又有多少正在成为新的巨人,这是很有讨论价值的,也是在开启一个波澜壮阔的硅基时代前,不可缺少的仪式性帷幕。 科技公司通常会凸显研发支出占总收入的比重,视其为愿意在多大程度上投入核心竞争力的决心,以后倒可能会有一个类似的新指标出来,那就是对AI的支出占总支出的比重,这代表公司愿意在未来上押注多少现金流。 这是字节跳动最有力量的标志,从收入体量来看,它是全球级的互联网大厂,不但有着管够的弹药,而且可以自给自足,不必过于依赖外部输血,去年在AI设施上花的钱几乎相当于BAT之和,在投入和产出两个方面都成了国内断崖领先的榜一。 另一方面,豆包的发展也带有很强的商业逻辑,无论是它对大模型调用经济性的重视,还是带着火山剪映等兄弟业务协同发展,甚至包括衔接上下游产业链去做更多样化的的产品,都相当务实。 有的时候也会感慨,这种务实在需要喊口号时,也很难一下子变得浪漫化,尤其是在英文圈里言必称AGI、各种科幻梗层出不穷的背景下,再去看字节跳动为AGI团队Seed Edge设立的五大目标,只能说真的很理工化,没有半分虚的: - 探索推理能力的边界,用更先进的推理带动智能的提升; - 探索感知能力的边界,不止是语言模型,还要建立世界模型; - 探索软硬一体的下一代模型设计,用模型的需求反过来为硬件设计指路; - 探索下一代学习范式,既要挑战现在的共识,还得提出新的改进空间; - 探索下一个Scaling方向,推动智能边界的进步。 就,很具体明晰,很就事论事,有没有?根本不存在那种金句或者机锋,每一个字每一句话都是在精确的传达给字节跳动想要招揽的科学家和工程师,唯一画的大饼,就是承诺Seed Edge将会独立制定考核方式,充分提供前沿研究的工作环境。 也只有字节跳动来做这样的事情,是最合适的了。 张一鸣早年发过一条微博,说在遇到技术问题时,公司花了两天时间集中排查,终于得到解决,而这个过程让他感到愉悦: 「想起稻盛和夫说的:用尽全力,异常认真,神明就会来相助。其实神明未必相助,但是你会更接近问题的本质,从而解决问题。」 我想说的是,从今日头条,到抖音,再到豆包,其实都是这个过程的复现。
阑夕
6个月前
Kimi和DeepSeek的新模型这几天内同时发布,又是一波让人看不懂的突飞猛进,硅谷的反应也很有意思, 已经不再是惊讶「他们是怎么办到的」,而是变成了「他们是怎么能这么快的」,就快走完了质疑、理解、成为的三段论。 先说背景。大模型在运作上可用粗略分为训练和推理两大部分,在去年9月之前,训练的质量一直被视为重中之重,也就是通过所谓的算力堆叠,搭建万卡集群甚至十万卡集群来让大模型充分学习人类语料,去解决智能的进化。 为什么去年9月是个关键的转折点呢?因为OpenAI发布了GPT-o1,以思维链(Chain-of-Thought)的方式大幅提高了模型能力。 在那之前,行业里其实都在等GPT-5,以为一年以来传得沸沸扬扬的Q*就是GPT-5,对o1这条路线的准备严重不足,但这也不是说o1不能打,它的强大是在另一个层面,如果说训练能让AI变得更聪明,那么推理就会让AI变得更有用。 从o1到o3,OpenAI的方向都很明确,就是变着法儿奔向AGI,一招不行就换另一招,永远都有对策,大家平时对于OpenAI的调侃和批评很多,但那都是建立在高预期的前提下,真不要以为OpenAI没后劲了,事实上每次都还是它在推动最前沿的技术创新,踩出一条小径后别人才敢放心大胆的跟上去。 AI大厂们一直不太承认训练撞墙的问题,这涉及到扩展法则(Scaling Law)——只要有更多的数据和算力,大模型就能持续进步——有没有失效的问题,因为可被训练的全网数据早就被抓取殆尽了,没有新的知识增量,大模型的智能也就面临着无源之水的困局。 于是从训练到推理的重点转移,成了差不多半年以来最新的行业共识,推理采用的技术是强化学习(RL),让模型学会评估自己的预测并持续改进,这不是新东西,AlphaGo和GPT-4都是强化学习的受益者,但o1的思维链又把强化学习的效果往前推进了一大步,实现了用推理时间换推理质量的正比飞跃。 给AI越充分的思考时间,AI就能越缜密的输出答案,是不是有点像新的扩展法则?只不过这个扩展在于推理而非训练阶段。 理解了上述背景,才能理解Kimi和DeepSeek在做的事情有什么价值。 DeepSeek一直是「扮猪吃老虎」的角色,不但是价格战的发起者,600万美元训练出GPT-4o级模型的测试结果,更是让它一战成名,而Kimi正好相反,它的产品能力很强,有用户,甚至还为行业贡献了足够的融资八卦,但在科研方面,除了都知道杨植麟是个牛逼的人之外,其实还是不太被看到。 这次就不一样了,DeepSeek不再是一枝独秀,Kimi也把肌肉秀到了人家脸上,Kimi k1.5满血版在6项主流基准测试里和o1同台竞赛,拿到了3胜1平2负的结果,已经完全称得上是平起平坐了。(1/2)