#LLM

人类学习闭环中的“编码”环节 quanta杂志的这篇文章,讲的是科学家如何通过llm来更好地理解人类大脑的运作机制,用人工神经网络来理解人类的大脑神经网络。 我的笔记(只提取了一点🤣): - 人脑的语言系统和视觉系统,都可以视为一种“特征编码器”(feature encoder),即能够对输入的信息(无论是视觉图像还是语言符号)进行处理并提取出特征。 - 语言系统不是简单地存储单词或句子,而是对语言材料进行编码,将语言输入信息转换成特定的神经表征(neural representations)。 - 就如同视觉系统接收外部世界的光学信号并将之转化为神经信号,从而在大脑中形成视觉特征表征一样,语言系统将单词、句子或概念转换为抽象的、能够在脑内被“解读”和“理解”的编码模式。 - 语言与视觉等认知功能共享类似的神经编码原理,这种认识打开了理解人类智能本质及AI与人脑深层次互动的大门。 在我的学习方法论(小能熊版费曼学习法)中,“编码”是学习闭环的关键环节。也就是说,一切输入,必须通过大脑积极主动、深度加工(关键是特征提取,和llm一样),encode为特定的心理表征(概念、模型等心理符号、知识砖块)。 这些表征,最好是用logseq、obsidian的砖块笔记,显式展现,结构化呈现,便于巩固、迭代(以及供llm+MCP来打通、调用、思想综合)。 结论就是:记录。尽可能多记录,多写笔记。并且,用符合大脑/llm认知原理的方式记笔记(而非随心所欲、经验主义乱记录)🤣
2周前
做 Agent 研究的不要错过今天 Anthropic 发布的关于多智能体系统的文章。 ## 什么是多智能体系统? 多智能体系统是指由多个AI代理(如LLM)协同工作、并行使用工具来完成复杂任务的系统。 与单智能体相比,多智能体系统能同时探索多个方向,分工明确,提升效率和覆盖面,尤其适合开放性、动态变化的问题。 ## 为什么要用多智能体系统? 在过去的十万年里,人类个体的智能水平不断提升。 而在信息时代,随着人类集体智慧和协调能力的提升,人类社会的能力也呈指数增长。 Agent 也是类似的,即便是通用的智能体,在单独运作时也会遇到瓶颈,而 Agent 群体可以完成更多的任务。 在内部研究评估中,Claude Opus 4 为主导 Agent,Claude Sonnet 4 为子 Agent 的系统,比 Claude Opus 4 的单 Agent 性能高出 90.2% 。 举例来说,当被要求识别信息技术标准普尔 500 指数公司的所有董事会成员时,多 Agent 系统通过将其分解为子 Agent 的任务找到了正确答案,而单 Agent 系统则无法通过缓慢的顺序搜索找到答案。 ## 为什么多智能体系统是有效的? 搜索的本质就是压缩。从庞大的语料库中提炼 Insights。 但是语料过于庞大,压缩就会失真。 通过多智能体系统就能有效解决这一问题。 子 Agent 在自己的上下文窗口中进行压缩,自主地为主 Agent 提供多个方面的浓缩信息。 子 Agent 各有分工,使用不同的工具、提示词、探索路径,这样减少了路径依赖,实现多个独立方向的同时调查。 多 Agent 系统的有效是因为他们使用了足够多的 token 来解决问题。 在 BrowseComp 评估 (测试浏览智能体查找难以找到的信息能力),80%的性能差异都可以用 token 使用的多少来解释。15% 的差异可以用工具调用次数和模型选择来解释。 所以,多 Agent 是一种非常有效的架构。把工作分配给具有单独上下文窗口的智能体,以增加并行推理能力。 ## 多智能体系统的缺点 缺点嘛,就是贵。 智能体使用的 Token 一般是聊天的 4 倍。 而多智能体系统使用的 Token 一般那是聊天的 15 倍。 只有任务的价值足够高,才能对得起这么高的成本。 此外,一些任务并不适合多智能体系统,比如要求所有智能体共享上下文,或多智能体之间具有依赖关系的任务。 例如,大多数的编码任务,可并行化任务比较少。 ## 多智能体系统和 RAG 的区别是什么? 传统的方法使用 RAG,静态检索。获取与输入查询最相似的一组数据块,并用这些数据块进行回应。 而多智能体架构使用多步骤搜索,动态查找相关信息,结合新发现的信息,分析结果,并形成高质量的答案。 流程图展示了我们多智能体研究系统的完整工作流程。当用户提交查询时,系统会创建一个 LeadResearcher 智能体,并进入迭代研究流程。 LeadResearcher 首先仔细考虑方法并将其计划保存到内存中以保留上下文,因为如果上下文窗口超过 200,000 个标记,它将被截断,并且保留计划非常重要。 然后,它会创建专门的子代理(此处显示两个,但数量可任意),并执行特定的研究任务。每个子代理独立执行网络搜索,运用交叉思维评估工具结果,并将结果返回给首席研究员。首席研究员会综合这些结果,并决定是否需要进一步研究——如果需要,它可以创建更多子代理或改进其策略。 一旦收集到足够的信息,系统就会退出研究循环并将所有发现传递给 CitationAgent,后者处理文档和研究报告以确定引用的具体位置。 这确保所有声明都正确归属于其来源。最终的研究结果(包括引文)将返回给用户。
2周前
#BestBlogs 从 browser-use 出发,品 Agent 实现 | 阿里云开发者 从工程师视角深入解析了 LLM Agent 的实现原理与工程实践,以开源项目 browser-use 为例。 摘要: 本文从工程师的视角出发,系统地回顾了 LLM 应用从纯对话到 Workflow 编排再到 Agent 的演进过程。重点阐述了 Agent 的三个核心组成部分:记忆(Memory)、规划(Planning)和工具(Tools)。详细介绍了 Agent 的两种规划范式(分解优先与交错分解)和记忆的分类(短期与长期)。 作者以 browser-use 项目为例,剖析了其工程架构,包括 Agent Core、MessageManager、Memory、LLM Interface、Controller 和 BrowserContext 等组件及其交互流程。文中特别强调了 SystemPrompt、AgentMessagePrompt、PlannerPrompt 和 toolPrompt 在 Agent 运行中的作用,并分析了 browser-use 如何通过 SystemPrompt、示例引导和 Pydantic 进行结构化输出的保证。最后,文章探讨了 browser-use 的记忆管理实现,并对生产环境的持久化存储提出了建议。 主要内容: 1. Agent 是 LLM 应用演进的新阶段,具备自主规划和执行能力。 -- Agent 相比 Workflow 编排更进一步,能够根据用户需求自主决策、规划步骤,并调用工具与环境交互,大幅提升生产力。 2. 记忆、规划和工具是构建 Agent 的三大核心要素。 -- 记忆(短期/长期)提供上下文和经验,规划负责任务分解和策略调整,工具赋予 Agent 与外部世界交互的能力。 3. ReAct 框架是实现 Agent 运行时逻辑的有效方式。 -- 借鉴人类思维模式,通过思考(Thought)→行动(Action)→观察(Observation)循环,使 Agent 能逐步逼近目标并从错误中学习。 4. 结构化输出是 Agent 稳定性的核心。 -- 通过在 System Prompt 中明确格式、提供示例和使用 Pydantic 等工具进行强制验证,确保 LLM 输出稳定可靠,便于后续处理和工具调用。