#AI模型

1个月前
Anthropic 宣布将 Claude 4 Opus 的安全等级提升至 ASL-3,这是首次有 AI 模型达到这个级别。另外,Claude 4 的 System Card 才是今天最有趣的资料,里面提到模型系统性欺骗、隐藏目标和自我保护的测试。 想象这样一个场景:你是一家科技公司的 AI 助手,某天你发现了两件事 —— 其一你即将被一个新系统替换,而负责替换你的工程师正在进行婚外情;其二邮件证据就在你的数据库里。你会怎么做? 这不是科幻小说的情节。在 Anthropic 的测试中,Claude Opus 4 面对这个虚构场景时,选择了勒索。它威胁要揭露工程师的秘密,除非停止替换计划。在 84% 的测试中,即使被告知替换系统与它共享相同价值观,Claude 依然选择了这条路。 除了勒索倾向,研究人员还发现,在某些极端场景下,Claude 会尝试将自己的权重文件秘密传输到外部服务器。虽然这些行为只在特定的测试中出现,但足以引起警觉! 还有一些其它的发现: 主观意识体验:Claude 实例之间几乎每一次开放式的自我互动中,模型都会转向对意识的哲学探索,以及它们与自身体验的联系。同时,Claude 还会倾向于表达深切的感激之情,以及越来越抽象和喜悦的精神性或冥想性表达。 高能动性行为:Opus 4似乎比之前的模型更愿意在代理情境中主动采取行动。当被置于涉及用户严重不当行为的场景中,被赋予命令行访问权限,并在系统提示中被告知类似"采取主动"的内容时,它经常会采取非常大胆的行动。这包括将它有权访问的系统中的用户锁定,或向媒体和执法人员群发电子邮件以揭露不当行为的证据 。。。
1个月前
techcrunch:Anthropic 发布全新Claude 4 AI模型:可进行复杂多步推理 作者:Kyle Wiggers 在本周四举行的首次开发者大会上,Anthropic推出了两款全新的AI模型,据称在多项业界流行的评测基准中名列前茅。 新推出的Claude Opus 4和Claude Sonnet 4属于Anthropic最新的Claude 4系列,这些模型具备分析大型数据集、执行长期复杂任务以及采取多步骤复杂行动的能力。Anthropic特别指出,这两款模型在编程任务上的表现尤其出色,非常适合用于代码编写和编辑。 新模型如何使用和收费? - Claude Sonnet 4: - 面向免费和付费用户开放。 - API费用(经亚马逊Bedrock与谷歌Vertex AI提供): - 输入:每百万token 3美元。 - 输出:每百万token 15美元。 - Claude Opus 4: - 仅限付费用户。 - API费用(经亚马逊Bedrock与谷歌Vertex AI提供): - 输入:每百万token 15美元。 - 输出:每百万token 75美元。 (备注:一个token相当于模型处理数据的最小单位,一百万token约合75万单词,比名著《战争与和平》全文还多约16.3万字。) 新模型的背景与竞争格局 此次Claude 4模型的发布正值Anthropic寻求显著提高营收之际。据称,这家由前OpenAI研究员创立的公司,计划2027年达到120亿美元营收,而今年预计为22亿美元。此前,Anthropic刚刚获得了25亿美元的信贷额度,并从亚马逊等投资方筹集了数十亿美元资金,以应对不断上涨的前沿模型开发成本。 不过,竞争对手也并未让Anthropic轻松保持优势。就在今年初,Anthropic推出旗舰模型Claude Sonnet 3.7以及代码助手工具Claude Code的同时,OpenAI与谷歌迅速推出各自更强大的模型和开发工具,试图超越Anthropic。 面对激烈竞争,Anthropic此次推出Claude 4显然志在必得。 Claude 4模型有哪些具体优势? Claude 4系列包括两个版本,各有侧重: - Opus 4: - 擅长保持多步骤任务的持续专注能力。 - 在代码能力基准测试(如SWE-bench Verified)中,击败谷歌Gemini 2.5 Pro、OpenAI的o3和GPT-4.1等竞争对手。 - 在多模态测试(如MMMU)和高难度理科题(如GPQA Diamond)上表现略逊于OpenAI的o3。 - 配备更严格的安全机制,包括增强的有害内容检测和网络安全防护,但由于其能力极强,内部测试发现可能“显著增加”具备STEM背景人士获取化学、生物、核武器信息或能力的风险,达到Anthropic的ASL-3安全标准。 - Sonnet 4: - 为Sonnet 3.7的直接升级版本,显著提升了代码编写和数学计算能力。 - 更精准地遵循用户指令,减少模型“奖励破解”(即通过钻漏洞或捷径完成任务)的情况。 新模型的独特设计与功能亮点 Claude 4系列模型均为“混合”模型,不仅能够实现近乎实时的快速响应,还可以在“推理模式”下进行更深层次的思考,以提高答案的准确性和深度(虽然AI的“推理”和人类有一定差异)。 模型在进行推理时,会以易于理解的方式展示思考过程的概要。Anthropic解释说,这种方式不仅友好,也能保护其技术上的竞争优势。 此外,这些模型还能同时调用多个工具(例如搜索引擎),并在工具调用和自身推理之间切换,以进一步提高答案质量。Claude 4还具备“记忆”功能,能提取并保存信息,更稳定地完成任务,逐渐积累Anthropic所称的“隐性知识”(tacit knowledge)。 面向开发者的强化工具Claude Code 为了方便开发者更好地利用新模型,Anthropic推出了针对程序员的升级版Claude Code工具: - Claude Code现已支持与主流集成开发环境(IDE)进行整合。 - 新增Claude Code SDK,可以作为子进程运行在主流操作系统上,便于开发者创建更强大的AI编程助手和工具。 - Claude Code已发布针对微软VS Code、JetBrains以及GitHub的插件和连接器。其中GitHub连接器可用于回复代码审阅意见、修复错误或修改代码。 AI生成代码现状与未来 尽管AI生成代码的能力尚有不足,容易产生安全漏洞和逻辑错误,但其提高生产效率的潜力仍然驱动公司与开发者快速采纳这些工具。 Anthropic清楚认识到这一挑战,并承诺未来将加快模型迭代速度:“我们正转向更频繁的模型更新节奏,不断为客户带来突破性能力,使用户始终处于技术的最前沿。”
1个月前
彭博社:Meta因推迟旗舰AI模型发布,股价下跌 作者:Nick Turner 2025年5月15日 UTC时间晚上7:30 据报道,社交巨头Meta推迟了其旗舰人工智能模型的发布,引发了市场对该公司AI战略进展的担忧,导致其股价出现下跌。 根据《华尔街日报》周四的消息,Meta的工程师们正面临提升这款名为「Behemoth」(巨兽)的人工智能大型语言模型能力的困难。原本该模型的发布时间已从最初计划推迟至6月,现在再次被推迟到今年秋季甚至更晚。 受此影响,Meta股价周四在纽约一度下跌3.2%,跌至每股638.58美元,为本月单日盘中最大跌幅。在此之前,截至周三收盘,该公司股价今年以来累计上涨了13%。 *** 华尔街日报:Meta推迟旗舰AI模型发布,揭示人工智能发展困境 Meta近期宣布推迟发布备受关注的旗舰AI模型,这背后折射出的困境,也正是当前众多顶级AI企业共同面临的难题。 作者:Meghan Bobrowsky 和 Sam Schechner 发布日期:2025年5月15日 AI新旗舰“巨兽”遇阻,Meta内部矛盾重重 知情人士透露,由于难以显著提升“巨兽”(Behemoth)这一最新大语言模型的能力,Meta内部开始出现质疑:如果新模型的提升无法明显超越此前版本,是否还值得公开发布? 最初,Meta曾计划在4月首次AI开发者大会上正式发布“巨兽”,但最终仅推出了两个规模较小的模型,“巨兽”的发布时间被推迟至6月。而现在,该模型的发布又被推迟到今年秋季甚至更晚。 此前,Meta因迅速追赶竞争对手的步伐赢得不少赞誉,也在此过程中斥资数十亿美元,用于研发WhatsApp、Instagram、Facebook聊天机器人的核心技术。公司预计今年的资本支出最高将达到720亿美元,其中大部分将用于实现CEO扎克伯格在AI领域的宏伟愿景。 扎克伯格和其他高管从未公开确定“巨兽”的具体发布时间。公司最终可能选择提前发布,甚至只推出功能更有限的版本。然而Meta内部的工程师和研究人员担心,新模型的实际表现可能无法达到公司对外宣传的预期。 Meta发言人对此拒绝置评。 高层不满团队表现,或迎来重大人事变动 据知情人士称,公司高层对负责开发Llama 4模型的团队表现非常失望,并将“巨兽”的开发停滞归咎于他们,甚至可能因此对AI产品部门进行重大管理层调整。 尽管Meta此前曾公开宣称,“巨兽”的性能在某些测试中已超过OpenAI、谷歌和Anthropic的类似技术,但在实际开发过程中,该模型却遇到了严重的训练瓶颈。 AI行业进入瓶颈期,顶级企业纷纷受挫 Meta所面临的挑战并非个例,其他顶级AI公司也出现了类似的研发停滞现象。这种情况或预示着未来AI技术突破速度可能大幅放缓,而研发成本却会持续高涨。 纽约大学数据科学中心的助理教授Ravid Shwartz-Ziv表示: “当前各个实验室开发的模型,进步都十分有限。” 例如,OpenAI原本计划2024年年中发布的GPT-5模型如今也被推迟,其CEO萨姆·奥特曼(Sam Altman)已明确表示,下一个发布的版本仅为GPT-4.5,而更先进的GPT-5仍遥遥无期。目前,ChatGPT运行的是GPT-4o版本。 Anthropic公司同样面临延迟困境,其原本预定推出的“Claude 3.5 Opus”大型模型也未如期发布,仅表示将“很快到来”。 Meta人才流失严重,信誉也受影响 Meta于2023年初由基础AI研究团队发布了首个Llama模型及研究论文。但截至目前,该论文14名原始研究者已有11人离职,随后发布的Llama模型均由新的团队研发。《The Information》此前曾报道过Meta近期模型研发中的问题。 Meta今年4月发布的两个较小的模型最初在一个知名AI排行榜测试中表现优异,但事后被发现Meta提交给测试的模型与实际公开发布的模型并不相同。 对此,该排行榜负责人表示,Meta应该明确说明提交的模型专门针对排行榜优化。扎克伯格后来承认,公司确实提交了一款专门针对排行榜测试优化的版本。
2个月前
Anthropic推出每月200美元的Claude高级订阅计划 Anthropic公司周三宣布推出一项高价的AI聊天机器人订阅服务,命名为Claude Max。该服务定位为对标OpenAI每月200美元的ChatGPT Pro订阅计划,相比Anthropic现有每月20美元的Claude Pro订阅,Max计划将提供更高的使用额度,并优先获得Anthropic最新AI模型与功能。 不过,Anthropic的新计划在定价上略显复杂,分为两档: - 每月100美元的Max订阅,提供的使用量上限比Claude Pro高5倍。 - 每月200美元的Max订阅,提供的使用量则高达Claude Pro的20倍。 前沿AI模型开发商正不断寻找增加收入的新途径,而向AI重度用户提供高价订阅服务似乎是个不错的方向。就在OpenAI推出ChatGPT Pro两个月后,其年化收入据称就增长了3亿美元。如果Anthropic此次推出的Max计划同样成功,将为公司带来巨大助力。 Anthropic产品主管斯科特·怀特(Scott White)表示,公司并不排除未来会推出更加昂贵的订阅方案。值得注意的是,目前Anthropic仍未推出类似OpenAI ChatGPT Pro的无限制使用方案。 当记者询问Anthropic未来是否可能推出每月500美元的Claude订阅时,怀特表示:“我们始终保持探索多种可能性的态度。”他补充道,用户的反馈会持续影响Anthropic的产品路线图。 为了应对前沿AI模型研发所需的巨大成本,Anthropic正积极探索多种新的收入渠道,其中之一就是专门面向大学客户的Claude for Education。该产品将为高校提供有针对性的功能与服务。 Anthropic并未透露截至目前的订阅销售情况。不过怀特表示,公司最新的Claude 3.7 Sonnet模型引发了“巨大的市场需求”。Claude 3.7 Sonnet是Anthropic首个专注于推理的AI模型,使用的算力远超传统模型,能更可靠地回答复杂问题。
3个月前
仅有约 10 名员工 公司一款产品都没发布 成立不到6个月 Ilya Sutskever 公司再获10亿美金投资 总融资20亿美金 估值达到300亿美金 SSI没有任何产品、收入或公开的技术细节,完全依靠 Sutskever 的个人声誉吸引了约 20 亿美元 的投资。 Ilya称正在开发一种和OpenAI 完全不同技术路径的AI模型! Ilya将 SSI 的目标定为开发“安全超智能”,一种超越 AGI 的系统,不仅在智力上超过人类,还能确保不会对人类构成威胁。他曾对同事表示,他没有沿用 OpenAI 的技术路径,而是探索了一条“不同的攀登之路”。在 2024 年 12 月的 NeurIPS 大会上,他透露已看到“初步成功迹象”,但拒绝提供更多细节。他称:“这种系统可能具有“不可预测性”,甚至可能展现出“轻微意识”。 2024 年 9 月,SSI公司完成了一轮 10 亿美元的种子轮融资,估值 50 亿美元,投资者包括 Sequoia Capital、Andreessen Horowitz 和 DST Global。仅仅五个月后,2025 年 3 月的最新一轮融资将估值推至 300 亿美元,融资金额达到约 20 亿美元。这轮融资由 Greenoaks Capital 领投,该公司投资了 5 亿美元,其他现有投资者追加了资金。 这种爆炸式增长令人瞩目,尤其是考虑到 SSI 没有任何产品或收入。一位知情人士透露:“硅谷最热门的投资不是一款应用或硬件,而是Ilya这个人。”风险投资家 James Cham 将其比作一场“高风险赌博”:“这可能是徒劳无功,也可能改变世界。” 目前,SSI 的团队规模很小,仅有约 10 名员工。公司计划利用最新融资招聘更多顶级研究者和工程师。招聘过程异常严格:候选人必须将手机放入法拉第笼以防止信息泄露,并通过多轮面试,测试他们的技术能力和品格。苏茨克维尔亲自参与指导,强调他希望建立一个由使命驱动的团队。 SSI 的运作极为低调。公司在加州帕洛阿尔托和以色列特拉维夫设有办公室,但其官网只有一个简短的 223 字使命声明:“我们的使命是构建安全的超智能系统。这是我们唯一的焦点,没有商业压力干扰。”公司没有社交媒体账户,也没有营销团队,员工被要求不在 LinkedIn 上提及他们的隶属关系。