从目前的格局来看,我还是比较看好 Gemini 的,主要可能还是在生态这块,注意来说下我的感受: 最近一直在和 Claude 4.5 Sonnet 聊天,聊出来很多很有价值的思路和脉络也受到了很多精神层面的洗礼,可以说之前的版本是做不到的,哪怕它现在还是以总结为主(可控制),但是,很多主客观点、思考方式、辩证想法、都像和一个更像启发者的角色在对话。Anthropic 前瞻性尤其针对企业的商业价值还是有比较深度的思考。 OpenAI Sora2 以及 昨天的 Dev Day,一如既往的往 C 端去覆盖以及更多的算力合作,不过从很多用户的截图,Sora 2 生成的视频有抖音的残影,有即梦的残影来看,如果是这样训练的话,那在视频这个赛道未来的几个月肯定也会群魔乱舞,拼的还是抢占入口。Agent 这个赛道就不重复了,成为基础建设这个是必然的。所以一直也有说,在 AI 这个赛道,千万不能下车,下车以后再想上来,太难了。 Google 这侧还是期待 Gemini 3,大家可以尝试,把一些需要联网推理的问题,直接丢给 Gemini 2.5 Pro,它可以通过世界数据硬推出来,当然在 API 这个层级路由有没有其他处理就不得而知了,但是,从众多测试来看,直接世界数据可能性比较大。从整体商业闭环来说,还是更看好 Google,毕竟多模态的语料全部自己闭环了,自有算力,而且,全部玩的是内网,还有强大的入口(搜索引擎、硬件设备)如果不受反垄断制约,这是可预见性的可怕!
Y11
4天前
AI领域的"意外发现":当理论遇上现实的突破 五年前,若有研究者提出训练万亿参数的神经网络,大概率会被视为"违背机器学习铁律"——当时的理论认为,模型一旦过大,就会变成"高级复印机",只会死记硬背数据,丧失学习能力。 这种认知源于三个世纪的统计学传统:小模型"欠拟合",大模型"过拟合",最佳模型必须在"偏差-方差"间找到平衡。 但今天,ChatGPT、AlphaFold等技术的爆发,让"越大越好"成了行业共识。 这场变革的核心,是研究者终于打破了对"学习"的固有认知:AI的突破,往往始于对"本领域基本假设"的重新审视。 被奉为圭臬的"铁律" 三百多年来,"偏差-方差权衡"一直是机器学习的核心原则。 简单说,模型太简单会漏掉关键规律(高偏差),太复杂会把噪声当信号(高方差)。 就像学算术的学生,背下所有例题(过拟合),永远无法应对新题目。 神经网络凭借数百万参数,本应重蹈覆辙——理论预测,它们会完美记住训练数据,却无法泛化到新问题。 这一认知塑造了整个领域:研究者沉迷于"小模型优化",认为扩大规模是"昂贵的愚蠢"。 学术会议上,"更大的模型只会过拟合"成了口头禅,单纯靠增加参数的研究甚至被视为"异端"。 打破规则的"意外发现" 2019年,一群研究者无视警告,大胆扩大模型规模。当网络在训练数据上达到100%准确率(理论中"危险"的临界点)时,他们没有停下,反而继续增加参数。结果颠覆了认知:模型性能不仅没有崩溃,反而戏剧性提升。这种"双下降"现象(先过拟合,后因参数冗余反而找到更优解),为"过参数化"提供了全新解释。 随后OpenAI的研究进一步验证:GPT从1.17亿参数扩张到1750亿,不是简单"记忆更多数据",而是在参数空间中找到了更简洁的规律。模型规模不再是"负担",而是"工具"——它用海量参数为"寻找简单解"提供了更多可能性。 "彩票假说"的启示 为什么大模型能成功?答案藏在一个看似不相关的发现中:麻省理工学院的"剪枝研究"。研究者发现,任何大模型内部都藏着"中奖彩票"——一组仅保留少量参数的子网络,却能达到完整模型的性能。例如,一个100层的网络,可剔除96%参数,仍保持准确率。 关键在于:这些"中奖子网络"只有在原始随机初始化下才能成功。这就是"彩票假说"的核心——大模型的成功,不是因为记住了数据,而是因为它像一张"海量彩票池":每个参数组合都是一张彩票,训练过程就是"开奖",最终筛选出最简洁的解。 这与人类大脑的运作惊人相似:860亿神经元(过参数化),却能从有限例子中快速学习。规模的意义,不是存储信息,而是拓展"寻找简单规律"的可能性空间。 科学进步的本质 这场突破揭示了科学的常态:当理论与现实冲突时,真正的进步往往来自"经验主义的勇气"。就像大陆漂移说曾被质疑,直到板块构造理论提供了机制;量子力学看似荒谬,最终被实验证实。AI领域也是如此——当"大模型必过拟合"的理论遇上ChatGPT的成功,研究者终于明白:简单的"偏差-方差权衡"之外,还存在更复杂的规律。 今天的AI研究,正站在新的起点:规模扩张的红利仍在,但"参数越多越好"的时代终将过去。未来的突破,或许藏在"如何在更大空间中更高效地寻找简单解"——这既是技术命题,也是对人类认知边界的永恒探索。 对于追求创新的人来说,最深刻的启示或许是:真正的智慧,不在于固守已知,而在于敢于在不确定性中,发现那些"理论尚未领悟的规律"。