#强化学习

「Agent, RAG, Reasoning」论文 ReSearch: Learning to Reason with Search for LLMs via Reinforcement Learning ReSearch,充满了 ReAct 的影子。它教会模型“何时求助于世界”;但局限在于,ReSearch 只能依赖一种工具。 作者提出了一种创新的框架,名为 ReSearch,旨在通过强化学习(RL)训练 LLM 在推理过程中有效地反复利用 search API 完成任务。 从任务形式上,它解决的是增强LLM+ RAG的问题,但并不同于基于 embedding 的单轮相似度检索方法。 它关注的是多次 query、反复调用 search API 来完成信息查询任务。 并不同于基于embedding去单次算相似度的方法,它解决的是多次query,反复调用search API完成外部信息查询的问题。 而反复调用 API,涉及推理能力去决策调用的时机,以及生成调用的参数 —— 这是一个典型的 agent + function calling 场景。 ReSearch目标将这种search的reasoning能力通过RL学到。 具体来说,ReSearch 采用了专门为搜索功能设计的训练模版: <think>...</think>:表示模型的思考过程; <search>...</search>:表示模型发起的搜索查询; <result>...</result>:表示搜索引擎返回的结果; <answer>...</answer>:表示模型给出的最终答案。 特别地,ReSearch 的奖励函数不是仅仅基于答案对错,而是采用 rule-based 的组合机制:基于答案的 F1 相似度 + 输出格式是否符合模板,以此优化 policy,微调语言模型参数。 此时不免再次提及 ReAct:ReSearch 充满了 ReAct 的循环影子——: Reasoning:模型的思考过程; Action:模型发起的调用; Observation:工具返回的反馈。 ReAct 是神作,它以 verbal reasoning (人话)的方式,将原本充满数学公式的 RL 概念转化为语言链式推理,让 LLM 学会如何使用工具,优雅而简洁。 一些思考: ReSearch 以及前几天分享的 ReTool 是非常类似的工作,它们都通过强化学习微调,将使用工具的能力内化于语言模型中,增强工具调用的鲁棒性。 但它们的局限性也非常明显:ReSearch 和 ReTool 都只支持一种工具 —— search API 和 code interpreter。 而 ReAct,通过 Prompt Engineering,就可以灵活调用多个外部工具。 ReSearch 和 ReTool 的 RL 框架是为“单工具、二选一调度”设计的。如果强行扩展为多工具,训练信号将更加稀疏、credit assignment 更加困难,其策略网络、reward assignment、以及 rollout 表达能力都需要重新设计。 我们距离真正原生具备多轮、多工具能力的通用 Agent,还有一段距离。
3个月前
人工智能的最高奖项——图灵奖,近日颁给了强化学习领域的两位先驱:安德鲁·巴托(Andrew Barto)和理查德·萨顿(Richard Sutton)。他们提出的强化学习理论,如今已成为ChatGPT等热门AI系统背后的核心技术。 故事的起点是1977年,当时巴托在美国麻省大学阿默斯特分校做研究。他提出了一个有趣的想法:大脑里的神经细胞就像一个个追求享乐、躲避痛苦的小生命。也就是说,人类智慧其实源自无数个细胞为了最大化快乐、减少痛苦而不断摸索。 一年后,萨顿加入了巴托的研究。他们将这个简单但巧妙的理论应用到了人工智能上,形成了我们今天熟悉的「强化学习」。通俗点讲,强化学习就是让机器通过类似人类的“奖惩机制”来学习做事。表现好就给“奖励”(机器感觉到的“快乐”),表现不好就给予“惩罚”(机器感受到的“痛苦”)。这样不断尝试、不断反馈,机器就能逐渐掌握如何做出更好的决定。 2025年3月5日,全球最大的计算机协会——计算机协会(Association for Computing Machinery)宣布,巴托和萨顿获得了今年的图灵奖。这一奖项创立于1966年,被誉为“计算机界的诺贝尔奖”,他们也将分享100万美元的奖金。 强化学习最近十年里在人工智能领域爆发式增长,影响深远。谷歌的AlphaGo围棋机器人,还有OpenAI开发的ChatGPT聊天机器人背后的技术,都是强化学习的直接成果。 正如华盛顿大学的计算机科学家奥伦·埃齐奥尼(Oren Etzioni)所说:“他们俩是强化学习领域毫无争议的开创者,他们创造了核心理论,还写了这领域的权威教材。” 他们在1998年出版的教材《强化学习导论》至今仍是强化学习最经典的教科书之一。 心理学家早就观察到,人和动物都会从经验中学习。早在1940年代,著名计算机科学家艾伦·图灵就提出,机器也许可以通过类似的方法来学习。但真正把这一想法数学化、系统化的,是巴托和萨顿。他们的研究最初只是学术理论,直到2016年AlphaGo打败了世界顶级围棋选手李世石,这项技术才震惊了全世界。 AlphaGo之所以强大,是因为它在背后进行了数百万场对局,每一步都靠试错的方式学习,找到了哪些走法会赢,哪些走法会输。这背后的技术团队负责人之一大卫·席尔弗(David Silver)正是在加拿大阿尔伯塔大学跟随萨顿学习强化学习的。 当然,很多专家曾怀疑强化学习是否能应用到游戏之外的场景。毕竟游戏胜负清晰,而现实生活中成功和失败却并不总那么简单。 但强化学习的应用早已突破游戏领域,比如如今大热的聊天机器人。像ChatGPT在发布前,OpenAI聘请了数百人跟它进行对话,并给出具体的反馈意见。ChatGPT就根据这些“奖惩反馈”不断优化自己,逐渐学会了更接近人类的对话方式。 这种技术就被称作“人类反馈强化学习”(RLHF)。最近,OpenAI和中国的创业公司DeepSeek更进一步,开发出了一种新型强化学习,让机器人不需要人为干预,就能通过不断自我尝试解决数学题,逐步学会更复杂的推理过程。这些新型AI被称作“推理系统”,比如OpenAI的o1以及DeepSeek的R1。 巴托和萨顿认为,这些新系统展示了未来机器学习的新方向。他们预测,将来机器人会像人类和动物一样,通过不断在现实世界中试错,学会如何操控自己的身体,完成更复杂的任务。 用巴托的话来说:“通过强化学习学会控制一个身体,这是一个非常自然的过程。”
4个月前
OpenAI 新论文:使用大型推理模型进行竞赛编程 强化学习如何提升大语言模型在编程和推理任务中的表现 核心研究发现 1️⃣ 强化学习可以显著提升 AI 编程能力! 2️⃣ o1-ioi 通过手工优化策略,在 2024 IOI 竞赛中取得 金牌水平。 3️⃣ o3(新一代 AI)完全不依赖手工优化,却比 o1-ioi 还强! 4️⃣ o3 在 CodeForces 评分 达到 2724(99.8% 百分位),接近顶级人类选手。 OpenAI比较了三种 AI 编程系统: o1:通用大语言模型(LLM),基于强化学习(RL),具备基本推理能力。 o1-ioi:个针对 2024 年国际信息学奥林匹克竞赛(IOI) 设计的领域专用系统 o1-ioi(采用了手工设计的推理策略)。 o3:完全基于强化学习(RL),自动学习最优解题方法,不需要人工设计策略。我们展示了将强化学习(RL)应用于大型语言模型(LLM)可以显著提升其在复杂编程和推理任务中的表现。 在 2024 年 IOI 现场比赛中,我们使用 o1-ioi 参赛,并通过人工优化的测试时(test-time)策略,在 49% 百分位取得成绩。在放宽比赛限制的情况下,o1-ioi 甚至达到了金牌水平。 然而,在评估后续的 o3 模型时,我们发现它无需人工设计的推理策略或放宽比赛限制,便可直接获得 IOI 金牌。 我们的研究结果表明,尽管 o1-ioi 这类专门优化的管道能带来显著提升,但 更大规模的通用模型 o3 已经能够超越这些优化版本,并不依赖人工定义的推理策略。 特别是,o3 在 2024 IOI 取得金牌,并在 CodeForces 编程竞赛中获得与人类顶级选手相当的评分。 📢 结果表明,AI 编程不再需要手工优化,与其依赖特定领域的优化策略,更有效的路径是扩展通用的强化学习技术,以实现最先进的 AI 竞赛编程能力。
4个月前