#通用人工智能

宝玉
1周前
转译:一篇新的名为《通用智能体包含世界模型》(General agents contain world models)的论文论文给出了严格的数学证明:智能体想要变得聪明,就必须建立一个关于其所处世界的模型——无论我们是否在程序里这样要求它。 这证明,我们长期以来梦想的那条通往通用人工智能的“无模型”之路,可能从一开始就想反了。 多年来,人工智能领域一直存在一个巨大的争论:我们是需要为 AI 智能体 明确构建“世界模型”(就像在脑海里对环境进行模拟推演),还是说,智能可以从简单的试错中自发涌现(即“无模型”方法)? “无模型” (model-free) 的想法一度非常吸引人,因为对真实世界进行建模实在是太难了。然而,这项新发现告诉我们,这份苦差事,谁也躲不掉。 核心发现:强大的智能体必然自带世界模型 General agents contain world models 这篇名论文,其核心发现是一个严谨的数学证明。 它指出:任何一个能够以有限的失败率完成复杂、多步骤任务的智能体,都必然在内部学习到了一个精确的环境预测模型。 简单来说就是:如果一个 AI 擅长做长远规划,那么它的行为本身,就已经包含了模拟其世界所需要的全部信息。 它表现得越好(犯错越少),或者它能处理的任务链条越长(目标深度越深),它内部的世界模型就必须越精确。 “隐藏款”能力:世界模型是涌现出来的 这件事最有趣的地方在于,这个世界模型是一种隐藏的能力。 它不是你必须明确写进代码里的东西,而是 AI 为了获得通用能力,在训练过程中不得不产生的副产品。为了高效地完成任务,智能体被“逼上梁山”,不得不去学习世界运转的规律。 那么,研究人员是如何证明这一点的呢?方法出奇地简单。 他们设计了一种算法,通过给智能体提出“二选一”的复杂目标来“审问”它。智能体的每一次抉择,都暴露了它对“哪条路更可能成功”的内在预测。通过这种方式,研究人员就能反向推导出它内部模型中的概率。 这对我们意味着什么? 这个发现彻底改变了我对“黑箱”AI 的看法。那种想通过“无模型捷径”直达通用人工智能 (AGI) 的想法,现在看来是行不通了。世界建模这项艰苦的工作无法避免,它只是以一种不易察觉的方式,在神经网络内部悄然发生了。 最实际的影响是什么?安全与可解释性 (interpretability)。 这篇论文从理论上保证了,我们能从任何一个足够强大的智能体中提取出这个隐藏的世界模型,而方法仅仅是观察它的行为策略。这意味着,我们可以打开一个不透明的系统,拿出它的世界“蓝图”来进行审查。 从更宏观的视角看,这项研究可能会统一整个领域。与其再争论“基于模型 vs. 无模型”路线,未来的焦点可以转移到如何构建、提取和利用这些必然存在的世界模型上。 它也为我们在大语言模型 (LLM) 中观察到的“涌现能力” (emergent capabilities) 提供了一个严谨的解释。 同时,它也引出了一系列新问题: • 今天这些基础模型内部隐含的世界模型究竟长什么样? • 它们的精确度有多高? • 我们能否利用这种提取方法来调试它们,从而在有害行为发生前就及时阻止? 探索才刚刚开始。 说到底,这篇论文为一个古老的想法提供了数学上的定论:一个智能体不仅仅是拥有一个世界模型——从某种意义上说,它本身就是一个模型。 这不再仅仅是一个架构上的选择,它看起来更像是通用智能的一条基本定律。
#BestBlogs 那天,AI 大模型想起了,被「失忆」所束缚的枷锁 | 机器之心 | 机器之心 文章全面综述了 LLM 记忆能力的发展现状、类型、实现机制及未来挑战,从短期记忆到长期记忆,以及多模态和参数化记忆的最新进展。 摘要: 文章深入探讨了大型语言模型记忆能力的关键发展,指出 LLM 正从短期上下文记忆迈向跨会话的长期记忆。文章首先介绍了 Google Gemini、Anthropic Claude、OpenAI ChatGPT 和 xAI Grok 等主流大模型在记忆功能上的最新进展,强调了记忆在提升 AI 交互自然度和连贯性方面的核心作用。接着,文章详细阐述了 LLM 记忆的几种主要类型:受限于上下文窗口的“上下文内记忆”(短期记忆)、基于外部数据库和 RAG 技术的“外部记忆”(长期记忆)、将信息编码进模型参数的“参数化记忆”,以及受人类认知启发的“分层式记忆”和“情境记忆”。 文章还列举了 MemGPT、MemOS、MIRIX、G-Memory、M3-Agent、记忆层和 BTX 等具体实现记忆功能的项目和研究,涵盖了从内存管理到多模态记忆和原生模型记忆的多种创新方案。最后,文章分析了当前记忆系统面临的挑战,如遗忘机制、效率与成本平衡,并展望了多模态原生、终身自主演化和智能体间共享协作等未来趋势,指出记忆是通往通用人工智能的关键一步。 主要内容: 1. 大模型记忆能力正从短期迈向长期和跨会话。 -- 早期 LLM 记忆受限于上下文窗口,而最新进展使模型能跨多轮对话记住用户偏好和历史信息,提升交互连贯性。 2. LLM 记忆分为多种类型,外部记忆是当前主流的长期记忆方案。 -- 包括上下文内记忆(短期)、外部记忆(RAG)、参数化记忆,以及类人的分层/情境记忆,其中外部记忆通过向量数据库实现海量信息存储和检索。 3. 记忆不再是简单存储,而是涉及存储、检索、提炼和遗忘的复杂机制。 -- MemGPT、MemOS 等系统将记忆视为系统资源进行管理,MIRIX 等项目则对记忆进行多层细化和智能处理,提升记忆的效率和准确性。 4. 多模态记忆和将记忆原生融入模型是未来重要趋势。 -- 随着多模态 AI 发展,记忆需处理图像、视频等信息;Meta 的记忆层和 RockAI 的 Yan 2.0 Preview 尝试将记忆直接编码进模型参数,实现更深层次的内化。 5. 构建智能记忆系统面临挑战,是实现 AGI 的关键。 -- 挑战包括遗忘机制、效率成本平衡,未来需发展综合记忆架构、智能体间共享记忆,并实现记忆的自动演化,最终通向通用人工智能。 文章链接:
宝玉
6个月前
推荐阅读 SemiAnalysis 文章《America Is Missing The New Labor Economy – Robotics Part 1 》 美国正在错失新型劳动力经济——机器人革命(第一篇) 随着通用人工智能(AGI)日渐逼近,机器人技术正站在一场真正意义上的产业革命前夜。本文来自美国知名半导体行业研究机构 SemiAnalysis,深入剖析了全球机器人产业的竞争格局,特别聚焦于中美之间的较量。文章认为,中国凭借庞大的工业基础、供应链优势,以及政府明确的战略布局,已迅速崛起为全球机器人产业的主导力量,而美国则在很大程度上错失了这场新的劳动经济革命。 文章指出,机器人产业的特殊性在于迭代速度和规模经济能够迅速扩大优势,形成强者恒强的局面,而中国企业在 无人机、大疆等细分领域的成功经验恰恰验证了这一点。目前,中国本土机器人企业已开始在全球市场中占据越来越大的份额,不仅迅速掌握了基础零部件和核心技术,甚至在高端市场也开始赶超西方老牌企业,例如 Unitree G1 的人形机器人完全摆脱了对美国部件的依赖,并实现了商业化。 作者提醒,美国和西方国家的产业界和政府尚未充分意识到机器人技术背后的战略意义,特别是机器人产业带来的巨大生产力革命所蕴含的战略威胁。作者以“行动号召”(Call for Action)的紧迫语气,呼吁美国尽快觉醒,加速重建本土制造能力,参与到机器人革命的全球竞争中,否则可能彻底错失新一轮的工业红利。 本文对中国读者而言,提供了一个难得的从外部视角看待中国机器人产业的机会。不仅展示了中国企业在全球市场上的竞争力与潜力,也客观指出了中国机器人产业下一步可能面对的挑战与全球产业变革的深刻影响。对于关注机器人、制造业以及中美技术竞争的读者来说,这篇深度长文将带来极具启发性和前瞻性的视角。