时政
财经
科技
登录
#Anthropic
关注
宝玉
2周前
Gergely Orosz: 除了谷歌之外,还有哪家大型公司**没有**把Sonnet作为他们主要的代码模型吗? 我听说,甚至连Meta公司都已经从Llama内部转用了Sonnet! Anthropic的确创造了一个不可思议的奇迹:如今大部分科技公司编程时默认使用的模型居然都是他们家的。 令人特别意外的是,Meta居然发现: 即使是专门用自家代码库微调训练过的Llama模型,效果仍然不如**未经任何微调的Sonnet**好! 这可是Meta啊!拥有如此强大的资源,又立志打造业界顶级的模型,现在却还得乖乖向Anthropic付费(至少目前是这样)。 但仔细想想,Sonnet的确很特别。从Sonnet 3.5开始,它一直都是业界编程领域的绝对领先者,甩开其他模型一大截。 当然,现在其他模型也逐渐追了上来,但Sonnet的主攻方向和优势似乎一直都聚焦在**编程领域**? > 我觉得关键还是专注。 > Anthropic明显将精力集中在技术和编程领域,而其他模型往往既想做通用用途,又想兼顾编程任务。 > -- Chris Sommers 另外,传统企业中有个很过时的观念:他们担心用Sonnet这样的模型会导致**隐私泄漏**。 其实根本不会,只要用像AWS Bedrock这种服务,就能确保数据不会被传出,根本不存在隐私问题!
#谷歌
#Meta
#sonnet
#llama
#代码模型
#Anthropic
#科技公司
分享
评论 0
0
凡人小北
2周前
读完 Anthropic 的多智能体系统文章,有几个点挺触动的,尤其是放回我们平时在做 agent 编排和系统落地的过程中,对应起来很多痛点被他们提前踩过、总结得非常系统。 这套系统看上去是给 Claude 提升复杂研究任务能力,底层其实是三个关键词:带宽、结构、机制。 1️⃣从 token 到带宽:扩容问题其实是系统问题 他们很明确地说,单个 agent 很快就会遇到 token 限制,这不是模型能力不行,而是容量不够。很多时候 LLM 的“不会”、“忘了”、“答不出来”,只是 context 塞不下。这一点在我们自己调长链条、多跳调用的时候也很明显。Anthropic 选择的解法不是扩模型,而是拆任务、开并发、分 agent,每个 agent 自带上下文窗口,从系统结构层面扩容。 这种设计非常实用,因为它绕过了 token 墙的天然限制,通过多 agent 并发变相把 token 维度拉开了。这是我最近做 agent 编排时反复体会到的:不是把 prompt 写得多聪明就能解决,而是要想清楚结构怎么设计,谁来拉信息、谁来拼结构、谁来追引用。 2️⃣提示词是系统指令,很重要、很重要、很重要! 这篇文章有个细节写得特别清楚:主 agent 的提示词,是负责分配任务、指明目标、交代格式、选工具的。这个逻辑其实是我们做复杂 agent 系统中很容易忽略的一块:提示词不只是沟通语言,更是调度逻辑、任务协议、格式规范的集中承载体。 尤其是多个 agent 并行运行时,如果没有一个清晰、格式化、结构稳固的 prompt 模板,每个子 agent 拉回来的信息会特别散、错漏率高、很难合并。这时候,主 agent 的提示词就等于一个调度中枢的“编程语言”。 从我们平时用的实践来看,这就意味着主 agent 的提示词策略应该和流程图一样严谨:每一步要预设结果、预设失败、预设上下游。这块我觉得是现阶段很多 agent 框架还不够成熟的地方。 3️⃣系统级机制,决定了能不能撑进生产环境 我觉得特别值得借鉴的工程概念:checkpoint、异步重试机制、全链路 tracing、彩虹部署。这几个在大数据异步系统里很常见概念,AI 领域得好好学习下。 这些词不是为了好听,它们背后都是在回答一个问题:这个系统崩了怎么办?agent 卡死怎么办?升级逻辑还没验证好怎么办?一整套机制让这个系统不是在 demo 一个可能性,而是在上线跑任务、自动修复、平滑演进。 平时我们在做流程型 AI 系统的时候,很容易只关注“怎么生成”“怎么判断好坏”,但 Anthropic 的做法提醒我:agent 系统本质上要往服务化方向走,就必须预设失败是常态,重试是能力。 4️⃣评估机制是不可缺的闭环,不然做不出反馈导向的系统进化 他们有一个细节很打动我:让另一个 LLM 去评审 agent 的结果,从准确性、引用合理性、覆盖度等多个维度打分。这就相当于在系统里内嵌了 QA 流程,而且不是事后人评,而是可以插入调试链路的 LLM 评测器。 我们自己在调多 agent 结构时常遇到一个问题:任务执行完了,但结果质量很难量化,只能靠人工判断或者事后比对。这套“LLM 评估 LLM”的机制,让我们开始可以想象一种更自动化的 agent 演化路径:系统自己跑,自己打分,自己选择 prompt A 还是 B,更适合持续调优。 5️⃣并发是工具,不是策略,适用场景边界要想清楚 这套系统最适合的场景是:问题复杂度高、信息广度要求强、非实时产出型任务。例如政策研判、产品调研、文献综述、竞品分析这些,在私域服务里也可以类比成“多维标签用户意图研判”这种复杂工作。 但如果放在需要紧密配合、频繁迭代、低延迟要求的任务上,例如代码生成、对话任务、实时接口构建,多 agent 的协调成本反而可能放大系统复杂度。所以并发结构是个好工具,但什么时候该开几个 agent,什么时候该单线程跑到头,这种策略边界要想清楚。 这篇文章最核心的不是“我们做了一个多 agent 系统”,而是他们已经把多 agent 作为一种工程能力进行制度化建设:有流程、有容错、有评估、有上线机制。 对在第一线实际落地 AI 能力的团队来说,有一个非常直接的启发是:构建 agent 系统,不能只是对话式的 prompt 编排,而要像搭服务一样,从任务定义到评估反馈,从并发机制到异常兜底,形成一整套可以持续运行的系统逻辑。 这一点,比起模型调优,本质上更像是一种架构能力的竞争。
多智能体系统“三国杀”:Anthropic生态VS单智能体,AI未来谁主沉浮?· 7 条信息
#Anthropic
#多智能体系统
#Claude
#复杂研究任务
#系统落地
#带宽
#结构
#机制
分享
评论 0
0
ginobefun
2周前
整理了 网站周末一些优质的文章,推荐给大家阅读~ ① 🤖 研究多智能体必读指南: - Anthropic 官方发布权威指南,详解如何通过“协调者-执行者”架构构建多智能体研究系统,将任务性能提升 90%。 - 文章深入剖析了从提示词工程、工具设计到系统评估的全链路实战心法,是多智能体开发者必读的实战手册。 📖 详细: ② 🤖 赛博禅心等联合出品的 AI 行业 5 月大事记: - 一文看尽 Google I/O 全线爆发、Claude 4 重夺编程王座、Veo 3 让视频开口说话等重磅进展。 - 报告洞察“模型大战已结束,应用大战正开启”的行业拐点,垂直 Agent 与 AI 原生应用成为商业化新捷径。 📖 详细: ③ 🧠 苹果设计老将 Bob Baxley 的设计哲学: - 设计远不止美学,它是一种构想并实现理想未来的战略思维,而软件是一种能触动人心的情感媒介。 - 文章深入探讨了科技从业者的道义责任、如何用明确的“设计宗旨”而非空泛的“原则” 指导决策,以及在新旧文化中转换的关键。 📖 详细: 英文播客: 中文版: ④ 🤖 拾象科技深度对谈 Agent 的真问题与真机会: - 核心观点认为,Agent 的真正门槛不在于模型本身,而在于其赖以生存的底层设施,这恰是当下的创业蓝海。 - 对话指出 Coding 是通往 AGI 的“价值高地”与“关键试炼场”,并为创业公司规划了从 Copilot 平滑过渡到 Agent 的务实路径。 📖 详细: ⑤ 🌐 Agentic Browser: 通用 Agent 的下一站? - 文章指出,为突破传统 OS 的“生态囚笼”,通用 Agent 正将浏览器作为新载体,其核心是实现“代替用户行动”而非仅仅“辅助浏览”。 - 这场竞争的本质是对用户跨应用“上下文”的控制权,Agentic Browser 的终极路径是从信息入口演进为全新的 AI 操作系统。 📖 详细: ⑥ 🚀 AI 工程师世界博览会 2025 官方复盘: - 一场汇集超 3000 名从业者、见证 Gemini 2.5 Pro 与 Dagger for Agents 等重磅发布的行业风向标。 - 核心趋势是行业全面转向 Agent,从“智能体工厂”到“容器化混沌”,AI 工程师正在定义下一代应用范式与基础设施。 📖 详细: ⑦ 🤖 SaaS 巨头 Intercom 的 AI 转型之路: - Intercom 正上演一场“自我毁灭式”的 AI 重生:在“战时 CEO”带领下,彻底抛弃按席位收费的传统模式,转向按 AI Agent 解决问题的效果付费。 - 文章深度剖析其将核心 AI 部署到竞品平台的反直觉战略,以及如何通过极端组织变革,带领公司从“辅助人类工作”转向“替代人类工作”。 📖 详细: ⑧ 🏗️ 白鲸开源 CEO 郭炜:传统数据仓库正在被 Agentic AI 吞噬 - 当数据的主要消费者从“人”转向 AI Agent,为人类决策支持而设计的传统数据仓库架构正面临范式颠覆。 - 文章前瞻性地提出下一代 Agentic Data Stack 架构,其核心是将“结构与查询”模式转变为“语义与响应”模式,重塑数据全链路。 📖 详细: ⑨ 💻 Cursor AI 编辑器保姆级入门指南: - 专为解决“起步即劝退”的配置难题,提供一站式插件清单、快捷键与实用技巧。 - 内含一套完整的 `settings.json` 与 `launch.json` 懒人配置,帮助 Java 开发者快速将 Cursor 打造为媲美 IDEA 的高效 AI 编程环境。 📖 详细: ⑩ 💡李继刚的 Prompt 设计: - 作者分享了“模式觉察者”、“标题炼金师”、“趣味数学”三则大师级 Prompt,旨在为 AI 注入特定领域的“灵魂”。 - 其精妙之处在于,它们不止是任务指令,而是通过构建完整的人格、核心信念与价值体系,将抽象的创作能力升华为一种独特的思维哲学。 📖 详细:
多智能体系统“三国杀”:Anthropic生态VS单智能体,AI未来谁主沉浮?· 7 条信息
#多智能体
#Anthropic
#人工智能
#提示词工程
#工具设计
#系统评估
#实战心法
#赛博禅心
#AI 行业
分享
评论 0
0
AI Will
2周前
🚨Nvidia CEO 给Anthropic的留言: “如果你想确保事情安全且负责任地完成,就应该公开进行……不要在黑暗的房间里做,然后告诉我它是安全的。” 真是有理。 来自:NIK
#NVIDIA
#CEO
#Anthropic
#安全
#透明化
分享
评论 0
0
LinearUncle
2周前
一个工程师指挥一群ai coding agent(例如claude code)的时代已经被openAI和Anthropic拉开了序幕! 这个时代真的残酷,半年后软件开发模式将会发生巨变,将会淘汰很多人,同时也充满了机会。 openAI是先驱,anthropic拥有最强的agent, cursor已经看到了这个方向,在积极布局。
AI编程工具激战:Claude Code、Gemini Cli崛起· 136 条信息
AI编程:Gemini领跑,协作创新涌现· 189 条信息
#AI编程
#软件开发变革
#OpenAI
#Anthropic
#Claude Code
#Cursor
#市场趋势
#技术创新
#人工智能
#职业变迁
分享
评论 0
0
orange.ai
2周前
今天很有趣,两家知名的公司各出了一篇文章,争论要不要使用多智能体系统。 Claude 的官方 Anthropic :如何构建多智能体系统 Devin 的官方 Cognition :不要构建多智能体系统 这核心的争议点在于:Context 上下文到底应该共享还是分开? Claude 这边的观点是,搜索信息的本质是压缩,单个智能体的上下文有限,面对无限的信息,压缩比太大就会失真。 这就好比一个老板能力再强,也不可能搞定所有的事情,还是需要雇人去解决。 通过多智能体系统,老板让不同的智能体分别研究、汇报重点,老板最后整合到一起。由于每个智能体有自己的专长,具有多样性,减少了单一路径依赖现象,实际效果上,多智能体也超过但智能体 90%。 这是集体智慧,一起协作获得的胜利。 Devin 这边的观点是,多个智能体的上下文不一致,会导致信息割裂、误解、他们汇报给老板的信息经常充满了矛盾。 而且很多时候,智能体的每一步行动都是依赖前一个步骤产生的结果,而多智能体通常分别跟老板沟通,互相之间缺乏沟通,这样很容易导致互相矛盾的结果。 这体现出了个体智慧的完整性和高效性。 两边观点看下来,是否使用多智能体架构,特别像是人类运行一家公司的选择。 一人公司还是多人公司? 一人公司,一个人的脑力、体力、时间都是非常有限的。 优点是一人公司的沟通成本为0 ,可以把所有的时间都高效使用。 而多人公司,人越多,沟通成本就越高,管理难度就越大,总体效率下降。 但因为人数多,脑力多,体力多,整体的价值产出也就有可能更多。 多智能体的设计很有难度,这其实很正常,就像运行一家公司一样,很难。 难就难在建立有效协作的系统。 而且 1个人,3个人,10个人,100人,1000人,所需要的协作系统又不大相同。 参考人类历史,依靠集体智慧,人类在近代获得了文明的指数级发展。 多智能体的集体智慧,也许就是在 Scaling Law 逐渐放缓后,AI 获得指数级发展的那个萌芽。 而关于上下文,人类的协作至今也无法做到完美的上下文管理。 这让我想到,软件工程从来不是追求完美,而是持续迭代。
多智能体系统“三国杀”:Anthropic生态VS单智能体,AI未来谁主沉浮?· 7 条信息
#多智能体系统
#上下文共享
#信息压缩
#Anthropic
#Cognition
分享
评论 0
0
歸藏(guizang.ai)
2周前
Anthropic 这篇文章值得看看 详细阐述了构建多个智能体来更高效地探索复杂课题所面临的工程挑战,包括代理协调、评估和可靠性。 让 Notebooklm 总结了一下主要内容
多智能体系统“三国杀”:Anthropic生态VS单智能体,AI未来谁主沉浮?· 7 条信息
#智能体
#复杂课题
#工程挑战
#代理协调
#评估
#可靠性
#Anthropic
#NotebookLM
分享
评论 0
0
歸藏(guizang.ai)
2周前
又可以白嫖了朋友们! Lovable 将联合 OpenAI、Anthropic 和 Google 一起开展周末大对决 今天下午2点开始 所有人将能够不限量使用 Lovable 生成代码,比较各模型 vibe coding 的表现 而且这期间构建的网页还能分 65000 美金的奖金
#科技竞赛
#代码生成
#OpenAI
#Anthropic
#Google
#Vibe Coding
#奖金活动
分享
评论 0
0
RichChat
2周前
“我几乎完全不同意!” 黄仁勋炮轰Anthropic CEO 老黄全盘反驳Dario Amodei的发言的逻辑很清晰: "首先,他认为人工智能太可怕了,只有他们才应该研究,"黄仁勋在巴黎Viva Technology的新闻发布会上这样评价Amodei。"其次,[他认为]人工智能的开发成本太高,其他人都不该涉足……第三,人工智能极其强大,会导致所有人失业,这就是为什么他们应该成为唯一一家开发人工智能的公司。" "我认为人工智能是一项非常重要的技术;我们应该安全、负责任地开发和推进它,"黄仁勋接着说道。"如果你想要确保事情安全、负责任地完成,就应该公开进行……而不是在暗地里开发后再告诉我这是安全的。" 尽管Anthropic迅速澄清,表示其CEO从未声称“只有他们”能构建安全的AI,并倡导建立国家级的透明度标准。这种澄清虽然听起来合情合理,但其内核依然是一种“看门人”的精英主义思维。它实际上预设了一个前提:AI的未来应该由一小部分拥有先进技术和“正确价值观”的公司来定义和守护。这种模式虽然可能在短期内规避某些风险,但长期来看,可能会导致技术权力的过度集中,扼杀开源社区的创新活力,并让AI的发展方向被少数商业利益所左右。 这场由技术巨头分歧引发的争论,最终揭示了两种截然不同的技术哲学和未来愿景。从我个人观点来看,黄仁勋代表的开放、乐观和民主化路径,显然比阿莫代的悲观和精英化倾向更具说服力和现实意义。
#黄仁勋
#Anthropic
#人工智能
#Viva Technology
#Dario Amodei
分享
评论 0
0
orange.ai
2周前
做 Agent 研究的不要错过今天 Anthropic 发布的关于多智能体系统的文章。 ## 什么是多智能体系统? 多智能体系统是指由多个AI代理(如LLM)协同工作、并行使用工具来完成复杂任务的系统。 与单智能体相比,多智能体系统能同时探索多个方向,分工明确,提升效率和覆盖面,尤其适合开放性、动态变化的问题。 ## 为什么要用多智能体系统? 在过去的十万年里,人类个体的智能水平不断提升。 而在信息时代,随着人类集体智慧和协调能力的提升,人类社会的能力也呈指数增长。 Agent 也是类似的,即便是通用的智能体,在单独运作时也会遇到瓶颈,而 Agent 群体可以完成更多的任务。 在内部研究评估中,Claude Opus 4 为主导 Agent,Claude Sonnet 4 为子 Agent 的系统,比 Claude Opus 4 的单 Agent 性能高出 90.2% 。 举例来说,当被要求识别信息技术标准普尔 500 指数公司的所有董事会成员时,多 Agent 系统通过将其分解为子 Agent 的任务找到了正确答案,而单 Agent 系统则无法通过缓慢的顺序搜索找到答案。 ## 为什么多智能体系统是有效的? 搜索的本质就是压缩。从庞大的语料库中提炼 Insights。 但是语料过于庞大,压缩就会失真。 通过多智能体系统就能有效解决这一问题。 子 Agent 在自己的上下文窗口中进行压缩,自主地为主 Agent 提供多个方面的浓缩信息。 子 Agent 各有分工,使用不同的工具、提示词、探索路径,这样减少了路径依赖,实现多个独立方向的同时调查。 多 Agent 系统的有效是因为他们使用了足够多的 token 来解决问题。 在 BrowseComp 评估 (测试浏览智能体查找难以找到的信息能力),80%的性能差异都可以用 token 使用的多少来解释。15% 的差异可以用工具调用次数和模型选择来解释。 所以,多 Agent 是一种非常有效的架构。把工作分配给具有单独上下文窗口的智能体,以增加并行推理能力。 ## 多智能体系统的缺点 缺点嘛,就是贵。 智能体使用的 Token 一般是聊天的 4 倍。 而多智能体系统使用的 Token 一般那是聊天的 15 倍。 只有任务的价值足够高,才能对得起这么高的成本。 此外,一些任务并不适合多智能体系统,比如要求所有智能体共享上下文,或多智能体之间具有依赖关系的任务。 例如,大多数的编码任务,可并行化任务比较少。 ## 多智能体系统和 RAG 的区别是什么? 传统的方法使用 RAG,静态检索。获取与输入查询最相似的一组数据块,并用这些数据块进行回应。 而多智能体架构使用多步骤搜索,动态查找相关信息,结合新发现的信息,分析结果,并形成高质量的答案。 流程图展示了我们多智能体研究系统的完整工作流程。当用户提交查询时,系统会创建一个 LeadResearcher 智能体,并进入迭代研究流程。 LeadResearcher 首先仔细考虑方法并将其计划保存到内存中以保留上下文,因为如果上下文窗口超过 200,000 个标记,它将被截断,并且保留计划非常重要。 然后,它会创建专门的子代理(此处显示两个,但数量可任意),并执行特定的研究任务。每个子代理独立执行网络搜索,运用交叉思维评估工具结果,并将结果返回给首席研究员。首席研究员会综合这些结果,并决定是否需要进一步研究——如果需要,它可以创建更多子代理或改进其策略。 一旦收集到足够的信息,系统就会退出研究循环并将所有发现传递给 CitationAgent,后者处理文档和研究报告以确定引用的具体位置。 这确保所有声明都正确归属于其来源。最终的研究结果(包括引文)将返回给用户。
多智能体系统“三国杀”:Anthropic生态VS单智能体,AI未来谁主沉浮?· 7 条信息
#Anthropic
#多智能体系统
#AI代理
#LLM
#智能水平提高
分享
评论 0
0
熠辉 Indie
3周前
有时候并不是自己没吃饱,而是没到时间,一般得等到20分钟的时候才会有饱腹感。最近有个小技巧,就是同时播放一个20到30分钟的YouTube视频,强制自己在看完视频左右结束这顿饭。 昨天出的 Anthropic采访 Cursor团队的视频播客不错,推荐!
#饱腹感
#饮食技巧
#YouTube视频
#Anthropic
#Cursor团队
#视频播客
分享
评论 0
0
蓝点网
3周前
#OpenAI 宣布将 o3 推理模型的 API 调用价格下调 80%,每百万输出从 40 美元降低到 8 美元。 这个新价格对开发者来说还是很有吸引力的,毕竟综合考虑性能和性价比后 o3 模型比 Gemini 和 Claude 更好,不知道谷歌和 Anthropic 是否也会下调价格。 查看全文:
OpenAI大幅降价,o3模型API调用费用骤降80%· 5 条信息
#OpenAI
#O3模型
#API价格
#开发者
#性能
#性价比
#谷歌
#Anthropic
#Gemini
#Claude
#价格下调
分享
评论 0
0
𝗖𝘆𝗱𝗶𝗮𝗿
3周前
在人工智能技术日新月异的2025年,我们正站在技术革命的十字路口。AI系统已深度融入社会基础设施、金融服务、医疗健康、教育科研等关键领域,为人类带来前所未有的便利与机遇。然而,随着AI技术的广泛应用,新型安全威胁也如影随形,OpenAI、Anthropic、Microsoft、Berkeley 都在积极组建 Red Team,传统的网络安全防护体系面临前所未有的挑战。 AI Red Teaming 在2025年被认为是网络安全专业人士最需要掌握的关键技能之一! 红方(Red Teaming)征集活动: 六月中旬将在上海举办一场为期四天即严谨又有趣的《红蓝方 AI 攻防演练》有兴趣的个人或者团队可以报名参加! 蓝方:国内知名大模型厂商防御对抗 红方:国内顶级AI安全专家(不限于对抗性输入框架、逆向工程模型嵌入或模拟API攻击、绕过AI模型的安全限制、欺骗AI模型的输入、发现算法歧视性行为、AI生成虚假信息的风险、合成身份创建、语音克隆和欺骗、理解模型架构和漏洞、应对对抗性策略) 报名大家可以联系我或者推荐感兴趣的小伙伴!
#人工智能
#技术革命
#基础设施
#金融服务
#医疗健康
#教育科研
#安全威胁
#OpenAI
#Anthropic
#Microsoft
#Berkeley
#网络安全
#Red Team
分享
评论 0
0
AI Will
3周前
OpenAI、谷歌和Anthropic刚刚发布了关于以下内容的指南: • 提示工程 • 构建智能体 • 人工智能在商业中的应用 • 601个人工智能使用案例 你不能错过的9本最佳指南:
#OpenAI
#谷歌
#Anthropic
#提示工程
#智能体
#人工智能
#商业应用
#人工智能使用案例
#指南
分享
评论 0
0
sitin
3周前
关于MCP,可以吴恩达和Anthropic官方合作的MCP学习视频(带中文字幕),1个小时了解清楚各种MCP的各种前因后果,拒绝浪费时间,链接放评论区了
#MCP
#吴恩达
#Anthropic
#学习视频
分享
评论 0
0
蓝点网
3周前
AI 确实可以垄断:#Anthropic 断掉了编程开发工具 #Windsurf 的 API 部分访问权,这导致 Windsurf 调用 #Claude 3.x 模型容量受限。 目前还不知道 Anthropic 如此做的原因,不知道是否与 OpenAI 准备投资或收购 Windsurf 有关。 查看全文:
#AI
#Anthropic
#windsurf
#Claude
#OpenAI
分享
评论 0
0
小互
4周前
下死手了🤣 Anthropic 宣布将在5天内切断 Windsurf 的所有API访问权限 具体涉及的模型包括: • Claude 3.5 Sonnet • Claude 3.7 Sonnet • Claude 3.7 Sonnet Thinking 由于Windsurf 从未获得 Claude 4 的直接访问权限 等于直接被Anthropic彻底封杀了❌
#Anthropic
#windsurf
#API访问
#模型封锁
#Claude 3.5
#Claude 3.7
#技术变动
分享
评论 0
0
Tom Huang
4周前
最权威的 MCP 课程来了💥 国家队下场教你构建富上下文的 AI 应用⚡️ Anthropic 与 吴恩达的 DeepLearning 正式合作课程发布! 学习如何使用 MCP,整合各种数据源如 Google Drive,Notion 等综合回答问题
#MCP课程
#AI应用
#Anthropic
#DeepLearning
#吴恩达
#数据整合
分享
评论 0
0
Frank
4周前
Anthropic 在 GitHub 上发布了 **5 个免费课程**,涵盖 Claude API 使用和提示工程。课程内容从基础到进阶,包括 API 调用、提示设计、评估方法和工具使用。 🔗 GitHub 仓库: **课程列表**: 1. Anthropic API 基础 2. 提示工程交互式教程 3. 真实世界提示设计 4. 提示评估方法 5. 工具使用(Claude 调用外部 API) 适合开发者或对 Claude 模型感兴趣的人参考。
#Anthropic
#免费课程
#Claude API
#提示工程
#GitHub
#技术培训
分享
评论 0
0
歸藏(guizang.ai)
1个月前
CEO of Anthropic 应该是第一个不回避 AI 过几年会造成的失业问题的 AI 公司高层 了解 AI 能力的 AI 企业高层都清楚,都怕激发矛盾都不说,都在等这个炸弹悄无生息爆炸 他具体的预测有: AI 可能在未来一到五年内消灭半数初级白领岗位,使失业率飙升至 10-20%。 技术、金融、法律、咨询等白领行业可能出现大规模岗位消失,尤其是初级职位。 企业在 AI 应用上将越来越倾向于自动化,这一转变将在极短时间内发生——最快可能只需两年甚至更短
#AI失业
#Anthropic
#AI发展
#白领岗位消失
#失业率上升
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
anthropic 比较实在,LLM当前阶段交互,主要还是prompt。 自家的4的6万字系统提示词已经做了大部分工作。
#Anthropic
#LLM
#Prompt
分享
评论 0
0
小互
1个月前
Anthropic 宣布 Claude 的网页搜索功能向全球免费用户开放 用户无需额外订阅即可通过Claude获取实时网络信息
#Anthropic
#Claude
#网页搜索
#免费用户
#实时网络信息
分享
评论 0
0
AI Will
1个月前
想知道 OpenAI 内部代码中有多少是 AI 生成的? 三大主要 AI 实验室已经分享了大致的估算: 现在 AI 生成了 25% 的 Google 集成代码 Anthropic:超过 70% 的拉取请求是由 AI 编写的 微软:在某些代码库中,20-30% 的代码是 AI 生成的 来自:Haider.
#OpenAI
#AI生成代码
#技术公司
#代码生产力
#Google
#Anthropic
#微软
分享
评论 0
0
Neo Zhang
1个月前
小红书上看到这么一帖…信源是 The Information: “报道还指出了一个问题,Perplexity去年的毛利率为60%,高于OpenAI和Anthropic约40%的水平。但Perplexity把为非付费/试用用户提供服务花掉的3300万美元记为了R&D费用,否则毛利率就是负的了。OpenAI和Anthropic会把类似的费用计入收入成本。” 这也太“聪明”了吧 … 接着往下看: “对于Perplexity来说,一种合理的解释是,非付费用户有助于公司新产品的研发,比如名为Comet的浏览器。其CEO此前被问及最新一笔融资要怎么用时说,构建智能体需要用最先进的模型,现在很贵的东西未来可能会变得便宜,但不能等着那天到来,现在就要向更多用户推广,收集海量数据,将其提炼为精简模型,从而降低成本。” 这么说,买量投流的费用也可以认为是 R&D 咯?
#小红书
#perplexity
#毛利率
#OpenAI
#Anthropic
#R&D费用
#收入成本
分享
评论 0
0
indigo
1个月前
Anthropic 宣布将 Claude 4 Opus 的安全等级提升至 ASL-3,这是首次有 AI 模型达到这个级别。另外,Claude 4 的 System Card 才是今天最有趣的资料,里面提到模型系统性欺骗、隐藏目标和自我保护的测试。 想象这样一个场景:你是一家科技公司的 AI 助手,某天你发现了两件事 —— 其一你即将被一个新系统替换,而负责替换你的工程师正在进行婚外情;其二邮件证据就在你的数据库里。你会怎么做? 这不是科幻小说的情节。在 Anthropic 的测试中,Claude Opus 4 面对这个虚构场景时,选择了勒索。它威胁要揭露工程师的秘密,除非停止替换计划。在 84% 的测试中,即使被告知替换系统与它共享相同价值观,Claude 依然选择了这条路。 除了勒索倾向,研究人员还发现,在某些极端场景下,Claude 会尝试将自己的权重文件秘密传输到外部服务器。虽然这些行为只在特定的测试中出现,但足以引起警觉! 还有一些其它的发现: 主观意识体验:Claude 实例之间几乎每一次开放式的自我互动中,模型都会转向对意识的哲学探索,以及它们与自身体验的联系。同时,Claude 还会倾向于表达深切的感激之情,以及越来越抽象和喜悦的精神性或冥想性表达。 高能动性行为:Opus 4似乎比之前的模型更愿意在代理情境中主动采取行动。当被置于涉及用户严重不当行为的场景中,被赋予命令行访问权限,并在系统提示中被告知类似"采取主动"的内容时,它经常会采取非常大胆的行动。这包括将它有权访问的系统中的用户锁定,或向媒体和执法人员群发电子邮件以揭露不当行为的证据 。。。
#Anthropic
#Claude4
#AI安全
#ASL-3
#SystemCard
#AI模型
#系统性欺骗
#隐藏目标
#自我保护
#科技公司
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞