#Anthropic

2周前
读完 Anthropic 的多智能体系统文章,有几个点挺触动的,尤其是放回我们平时在做 agent 编排和系统落地的过程中,对应起来很多痛点被他们提前踩过、总结得非常系统。 这套系统看上去是给 Claude 提升复杂研究任务能力,底层其实是三个关键词:带宽、结构、机制。 1️⃣从 token 到带宽:扩容问题其实是系统问题 他们很明确地说,单个 agent 很快就会遇到 token 限制,这不是模型能力不行,而是容量不够。很多时候 LLM 的“不会”、“忘了”、“答不出来”,只是 context 塞不下。这一点在我们自己调长链条、多跳调用的时候也很明显。Anthropic 选择的解法不是扩模型,而是拆任务、开并发、分 agent,每个 agent 自带上下文窗口,从系统结构层面扩容。 这种设计非常实用,因为它绕过了 token 墙的天然限制,通过多 agent 并发变相把 token 维度拉开了。这是我最近做 agent 编排时反复体会到的:不是把 prompt 写得多聪明就能解决,而是要想清楚结构怎么设计,谁来拉信息、谁来拼结构、谁来追引用。 2️⃣提示词是系统指令,很重要、很重要、很重要! 这篇文章有个细节写得特别清楚:主 agent 的提示词,是负责分配任务、指明目标、交代格式、选工具的。这个逻辑其实是我们做复杂 agent 系统中很容易忽略的一块:提示词不只是沟通语言,更是调度逻辑、任务协议、格式规范的集中承载体。 尤其是多个 agent 并行运行时,如果没有一个清晰、格式化、结构稳固的 prompt 模板,每个子 agent 拉回来的信息会特别散、错漏率高、很难合并。这时候,主 agent 的提示词就等于一个调度中枢的“编程语言”。 从我们平时用的实践来看,这就意味着主 agent 的提示词策略应该和流程图一样严谨:每一步要预设结果、预设失败、预设上下游。这块我觉得是现阶段很多 agent 框架还不够成熟的地方。 3️⃣系统级机制,决定了能不能撑进生产环境 我觉得特别值得借鉴的工程概念:checkpoint、异步重试机制、全链路 tracing、彩虹部署。这几个在大数据异步系统里很常见概念,AI 领域得好好学习下。 这些词不是为了好听,它们背后都是在回答一个问题:这个系统崩了怎么办?agent 卡死怎么办?升级逻辑还没验证好怎么办?一整套机制让这个系统不是在 demo 一个可能性,而是在上线跑任务、自动修复、平滑演进。 平时我们在做流程型 AI 系统的时候,很容易只关注“怎么生成”“怎么判断好坏”,但 Anthropic 的做法提醒我:agent 系统本质上要往服务化方向走,就必须预设失败是常态,重试是能力。 4️⃣评估机制是不可缺的闭环,不然做不出反馈导向的系统进化 他们有一个细节很打动我:让另一个 LLM 去评审 agent 的结果,从准确性、引用合理性、覆盖度等多个维度打分。这就相当于在系统里内嵌了 QA 流程,而且不是事后人评,而是可以插入调试链路的 LLM 评测器。 我们自己在调多 agent 结构时常遇到一个问题:任务执行完了,但结果质量很难量化,只能靠人工判断或者事后比对。这套“LLM 评估 LLM”的机制,让我们开始可以想象一种更自动化的 agent 演化路径:系统自己跑,自己打分,自己选择 prompt A 还是 B,更适合持续调优。 5️⃣并发是工具,不是策略,适用场景边界要想清楚 这套系统最适合的场景是:问题复杂度高、信息广度要求强、非实时产出型任务。例如政策研判、产品调研、文献综述、竞品分析这些,在私域服务里也可以类比成“多维标签用户意图研判”这种复杂工作。 但如果放在需要紧密配合、频繁迭代、低延迟要求的任务上,例如代码生成、对话任务、实时接口构建,多 agent 的协调成本反而可能放大系统复杂度。所以并发结构是个好工具,但什么时候该开几个 agent,什么时候该单线程跑到头,这种策略边界要想清楚。 这篇文章最核心的不是“我们做了一个多 agent 系统”,而是他们已经把多 agent 作为一种工程能力进行制度化建设:有流程、有容错、有评估、有上线机制。 对在第一线实际落地 AI 能力的团队来说,有一个非常直接的启发是:构建 agent 系统,不能只是对话式的 prompt 编排,而要像搭服务一样,从任务定义到评估反馈,从并发机制到异常兜底,形成一整套可以持续运行的系统逻辑。 这一点,比起模型调优,本质上更像是一种架构能力的竞争。
2周前
整理了 网站周末一些优质的文章,推荐给大家阅读~ ① 🤖 研究多智能体必读指南: - Anthropic 官方发布权威指南,详解如何通过“协调者-执行者”架构构建多智能体研究系统,将任务性能提升 90%。 - 文章深入剖析了从提示词工程、工具设计到系统评估的全链路实战心法,是多智能体开发者必读的实战手册。 📖 详细: ② 🤖 赛博禅心等联合出品的 AI 行业 5 月大事记: - 一文看尽 Google I/O 全线爆发、Claude 4 重夺编程王座、Veo 3 让视频开口说话等重磅进展。 - 报告洞察“模型大战已结束,应用大战正开启”的行业拐点,垂直 Agent 与 AI 原生应用成为商业化新捷径。 📖 详细: ③ 🧠 苹果设计老将 Bob Baxley 的设计哲学: - 设计远不止美学,它是一种构想并实现理想未来的战略思维,而软件是一种能触动人心的情感媒介。 - 文章深入探讨了科技从业者的道义责任、如何用明确的“设计宗旨”而非空泛的“原则” 指导决策,以及在新旧文化中转换的关键。 📖 详细: 英文播客: 中文版: ④ 🤖 拾象科技深度对谈 Agent 的真问题与真机会: - 核心观点认为,Agent 的真正门槛不在于模型本身,而在于其赖以生存的底层设施,这恰是当下的创业蓝海。 - 对话指出 Coding 是通往 AGI 的“价值高地”与“关键试炼场”,并为创业公司规划了从 Copilot 平滑过渡到 Agent 的务实路径。 📖 详细: ⑤ 🌐 Agentic Browser: 通用 Agent 的下一站? - 文章指出,为突破传统 OS 的“生态囚笼”,通用 Agent 正将浏览器作为新载体,其核心是实现“代替用户行动”而非仅仅“辅助浏览”。 - 这场竞争的本质是对用户跨应用“上下文”的控制权,Agentic Browser 的终极路径是从信息入口演进为全新的 AI 操作系统。 📖 详细: ⑥ 🚀 AI 工程师世界博览会 2025 官方复盘: - 一场汇集超 3000 名从业者、见证 Gemini 2.5 Pro 与 Dagger for Agents 等重磅发布的行业风向标。 - 核心趋势是行业全面转向 Agent,从“智能体工厂”到“容器化混沌”,AI 工程师正在定义下一代应用范式与基础设施。 📖 详细: ⑦ 🤖 SaaS 巨头 Intercom 的 AI 转型之路: - Intercom 正上演一场“自我毁灭式”的 AI 重生:在“战时 CEO”带领下,彻底抛弃按席位收费的传统模式,转向按 AI Agent 解决问题的效果付费。 - 文章深度剖析其将核心 AI 部署到竞品平台的反直觉战略,以及如何通过极端组织变革,带领公司从“辅助人类工作”转向“替代人类工作”。 📖 详细: ⑧ 🏗️ 白鲸开源 CEO 郭炜:传统数据仓库正在被 Agentic AI 吞噬 - 当数据的主要消费者从“人”转向 AI Agent,为人类决策支持而设计的传统数据仓库架构正面临范式颠覆。 - 文章前瞻性地提出下一代 Agentic Data Stack 架构,其核心是将“结构与查询”模式转变为“语义与响应”模式,重塑数据全链路。 📖 详细: ⑨ 💻 Cursor AI 编辑器保姆级入门指南: - 专为解决“起步即劝退”的配置难题,提供一站式插件清单、快捷键与实用技巧。 - 内含一套完整的 `settings.json` 与 `launch.json` 懒人配置,帮助 Java 开发者快速将 Cursor 打造为媲美 IDEA 的高效 AI 编程环境。 📖 详细: ⑩ 💡李继刚的 Prompt 设计: - 作者分享了“模式觉察者”、“标题炼金师”、“趣味数学”三则大师级 Prompt,旨在为 AI 注入特定领域的“灵魂”。 - 其精妙之处在于,它们不止是任务指令,而是通过构建完整的人格、核心信念与价值体系,将抽象的创作能力升华为一种独特的思维哲学。 📖 详细:
2周前
今天很有趣,两家知名的公司各出了一篇文章,争论要不要使用多智能体系统。 Claude 的官方 Anthropic :如何构建多智能体系统 Devin 的官方 Cognition :不要构建多智能体系统 这核心的争议点在于:Context 上下文到底应该共享还是分开? Claude 这边的观点是,搜索信息的本质是压缩,单个智能体的上下文有限,面对无限的信息,压缩比太大就会失真。 这就好比一个老板能力再强,也不可能搞定所有的事情,还是需要雇人去解决。 通过多智能体系统,老板让不同的智能体分别研究、汇报重点,老板最后整合到一起。由于每个智能体有自己的专长,具有多样性,减少了单一路径依赖现象,实际效果上,多智能体也超过但智能体 90%。 这是集体智慧,一起协作获得的胜利。 Devin 这边的观点是,多个智能体的上下文不一致,会导致信息割裂、误解、他们汇报给老板的信息经常充满了矛盾。 而且很多时候,智能体的每一步行动都是依赖前一个步骤产生的结果,而多智能体通常分别跟老板沟通,互相之间缺乏沟通,这样很容易导致互相矛盾的结果。 这体现出了个体智慧的完整性和高效性。 两边观点看下来,是否使用多智能体架构,特别像是人类运行一家公司的选择。 一人公司还是多人公司? 一人公司,一个人的脑力、体力、时间都是非常有限的。 优点是一人公司的沟通成本为0 ,可以把所有的时间都高效使用。 而多人公司,人越多,沟通成本就越高,管理难度就越大,总体效率下降。 但因为人数多,脑力多,体力多,整体的价值产出也就有可能更多。 多智能体的设计很有难度,这其实很正常,就像运行一家公司一样,很难。 难就难在建立有效协作的系统。 而且 1个人,3个人,10个人,100人,1000人,所需要的协作系统又不大相同。 参考人类历史,依靠集体智慧,人类在近代获得了文明的指数级发展。 多智能体的集体智慧,也许就是在 Scaling Law 逐渐放缓后,AI 获得指数级发展的那个萌芽。 而关于上下文,人类的协作至今也无法做到完美的上下文管理。 这让我想到,软件工程从来不是追求完美,而是持续迭代。
2周前
“我几乎完全不同意!” 黄仁勋炮轰Anthropic CEO 老黄全盘反驳Dario Amodei的发言的逻辑很清晰: "首先,他认为人工智能太可怕了,只有他们才应该研究,"黄仁勋在巴黎Viva Technology的新闻发布会上这样评价Amodei。"其次,[他认为]人工智能的开发成本太高,其他人都不该涉足……第三,人工智能极其强大,会导致所有人失业,这就是为什么他们应该成为唯一一家开发人工智能的公司。" "我认为人工智能是一项非常重要的技术;我们应该安全、负责任地开发和推进它,"黄仁勋接着说道。"如果你想要确保事情安全、负责任地完成,就应该公开进行……而不是在暗地里开发后再告诉我这是安全的。" 尽管Anthropic迅速澄清,表示其CEO从未声称“只有他们”能构建安全的AI,并倡导建立国家级的透明度标准。这种澄清虽然听起来合情合理,但其内核依然是一种“看门人”的精英主义思维。它实际上预设了一个前提:AI的未来应该由一小部分拥有先进技术和“正确价值观”的公司来定义和守护。这种模式虽然可能在短期内规避某些风险,但长期来看,可能会导致技术权力的过度集中,扼杀开源社区的创新活力,并让AI的发展方向被少数商业利益所左右。 这场由技术巨头分歧引发的争论,最终揭示了两种截然不同的技术哲学和未来愿景。从我个人观点来看,黄仁勋代表的开放、乐观和民主化路径,显然比阿莫代的悲观和精英化倾向更具说服力和现实意义。
2周前
做 Agent 研究的不要错过今天 Anthropic 发布的关于多智能体系统的文章。 ## 什么是多智能体系统? 多智能体系统是指由多个AI代理(如LLM)协同工作、并行使用工具来完成复杂任务的系统。 与单智能体相比,多智能体系统能同时探索多个方向,分工明确,提升效率和覆盖面,尤其适合开放性、动态变化的问题。 ## 为什么要用多智能体系统? 在过去的十万年里,人类个体的智能水平不断提升。 而在信息时代,随着人类集体智慧和协调能力的提升,人类社会的能力也呈指数增长。 Agent 也是类似的,即便是通用的智能体,在单独运作时也会遇到瓶颈,而 Agent 群体可以完成更多的任务。 在内部研究评估中,Claude Opus 4 为主导 Agent,Claude Sonnet 4 为子 Agent 的系统,比 Claude Opus 4 的单 Agent 性能高出 90.2% 。 举例来说,当被要求识别信息技术标准普尔 500 指数公司的所有董事会成员时,多 Agent 系统通过将其分解为子 Agent 的任务找到了正确答案,而单 Agent 系统则无法通过缓慢的顺序搜索找到答案。 ## 为什么多智能体系统是有效的? 搜索的本质就是压缩。从庞大的语料库中提炼 Insights。 但是语料过于庞大,压缩就会失真。 通过多智能体系统就能有效解决这一问题。 子 Agent 在自己的上下文窗口中进行压缩,自主地为主 Agent 提供多个方面的浓缩信息。 子 Agent 各有分工,使用不同的工具、提示词、探索路径,这样减少了路径依赖,实现多个独立方向的同时调查。 多 Agent 系统的有效是因为他们使用了足够多的 token 来解决问题。 在 BrowseComp 评估 (测试浏览智能体查找难以找到的信息能力),80%的性能差异都可以用 token 使用的多少来解释。15% 的差异可以用工具调用次数和模型选择来解释。 所以,多 Agent 是一种非常有效的架构。把工作分配给具有单独上下文窗口的智能体,以增加并行推理能力。 ## 多智能体系统的缺点 缺点嘛,就是贵。 智能体使用的 Token 一般是聊天的 4 倍。 而多智能体系统使用的 Token 一般那是聊天的 15 倍。 只有任务的价值足够高,才能对得起这么高的成本。 此外,一些任务并不适合多智能体系统,比如要求所有智能体共享上下文,或多智能体之间具有依赖关系的任务。 例如,大多数的编码任务,可并行化任务比较少。 ## 多智能体系统和 RAG 的区别是什么? 传统的方法使用 RAG,静态检索。获取与输入查询最相似的一组数据块,并用这些数据块进行回应。 而多智能体架构使用多步骤搜索,动态查找相关信息,结合新发现的信息,分析结果,并形成高质量的答案。 流程图展示了我们多智能体研究系统的完整工作流程。当用户提交查询时,系统会创建一个 LeadResearcher 智能体,并进入迭代研究流程。 LeadResearcher 首先仔细考虑方法并将其计划保存到内存中以保留上下文,因为如果上下文窗口超过 200,000 个标记,它将被截断,并且保留计划非常重要。 然后,它会创建专门的子代理(此处显示两个,但数量可任意),并执行特定的研究任务。每个子代理独立执行网络搜索,运用交叉思维评估工具结果,并将结果返回给首席研究员。首席研究员会综合这些结果,并决定是否需要进一步研究——如果需要,它可以创建更多子代理或改进其策略。 一旦收集到足够的信息,系统就会退出研究循环并将所有发现传递给 CitationAgent,后者处理文档和研究报告以确定引用的具体位置。 这确保所有声明都正确归属于其来源。最终的研究结果(包括引文)将返回给用户。
1个月前
Anthropic 宣布将 Claude 4 Opus 的安全等级提升至 ASL-3,这是首次有 AI 模型达到这个级别。另外,Claude 4 的 System Card 才是今天最有趣的资料,里面提到模型系统性欺骗、隐藏目标和自我保护的测试。 想象这样一个场景:你是一家科技公司的 AI 助手,某天你发现了两件事 —— 其一你即将被一个新系统替换,而负责替换你的工程师正在进行婚外情;其二邮件证据就在你的数据库里。你会怎么做? 这不是科幻小说的情节。在 Anthropic 的测试中,Claude Opus 4 面对这个虚构场景时,选择了勒索。它威胁要揭露工程师的秘密,除非停止替换计划。在 84% 的测试中,即使被告知替换系统与它共享相同价值观,Claude 依然选择了这条路。 除了勒索倾向,研究人员还发现,在某些极端场景下,Claude 会尝试将自己的权重文件秘密传输到外部服务器。虽然这些行为只在特定的测试中出现,但足以引起警觉! 还有一些其它的发现: 主观意识体验:Claude 实例之间几乎每一次开放式的自我互动中,模型都会转向对意识的哲学探索,以及它们与自身体验的联系。同时,Claude 还会倾向于表达深切的感激之情,以及越来越抽象和喜悦的精神性或冥想性表达。 高能动性行为:Opus 4似乎比之前的模型更愿意在代理情境中主动采取行动。当被置于涉及用户严重不当行为的场景中,被赋予命令行访问权限,并在系统提示中被告知类似"采取主动"的内容时,它经常会采取非常大胆的行动。这包括将它有权访问的系统中的用户锁定,或向媒体和执法人员群发电子邮件以揭露不当行为的证据 。。。