宝玉
9个月前
WIRED:Elon Musk旗下公司X租赁的数据中心发生火灾 俄勒冈州波特兰附近,由埃隆·马斯克(Elon Musk)的公司X租赁的一家数据中心,于周四上午发生火灾。消防部门表示,火灾起因与建筑内的电池设备有关。 据多名消息人士向《WIRED》透露,事故发生在位于希尔斯伯勒(Hillsboro)的科技园区内。这些消息人士要求匿名,因为他们未获准公开谈论公司内部情况。 希尔斯伯勒消防救援部门发言人皮塞特·皮奇(Piseth Pich)表示,消防员于上午10点21分抵达现场,发现建筑内的一间装有电池的房间起火,浓烟密布,但火势尚未扩散至其他区域。截至下午3点,消防人员仍在现场处置。 截至目前,X公司尚未回应媒体的置评请求,尚无法确认此次事件是否影响到了数据中心的服务器运营。 数据中心的重要性与风险 在埃隆·马斯克收购Twitter之前,公司原本在萨克拉门托(Sacramento)、波特兰(Portland)和亚特兰大(Atlanta)拥有三座数据中心。这样的布局能确保某一数据中心发生故障时,流量可以快速分流到其他两个中心,防止单个数据中心过载。 2022年圣诞节前夕,马斯克为了削减成本关闭了X公司在萨克拉门托的数据中心。这一举措曾导致公司出现严重的服务中断。在随后的六个月里,公司将超过2573个服务器机架从萨克拉门托转移到了波特兰和亚特兰大的数据中心。 在波特兰地区,X公司似乎租赁了由全球最大数据中心开发商之一Digital Realty拥有的设施。这些设施通常由多个公司共同租用,但目前还不清楚X公司是否与其他公司共用该建筑。 Digital Realty公司美洲运营副总裁瑞安·扬(Ryan Young)周四晚发表声明表示,发生在PDX11设施的数据中心火灾事件已得到控制,消防部门已离开现场。“所有人员安全撤离,没有人员受伤报告。目前,我们正在持续监控局势,首要任务是保障人员安全,确保设施稳定,并减少对客户的影响。”他未就具体客户信息置评。 数据中心电池为何易引发火灾? 电池通常作为数据中心的备用电源使用,尤其是锂离子电池。虽然锂离子电池能高效供能,但本身较为不稳定,维护不善或安全措施不足时,很容易引发火灾。全球多个数据中心都曾因此付出高昂代价。 皮奇还表示,他无法回忆起俄勒冈州其它数据中心曾发生过类似涉及电池的火灾事件,这或许是当地首次发生类似事件。 X母公司xAI的发展引发争议 X的母公司xAI近来因其在孟菲斯(Memphis)新开设的数据中心快速扩张引发批评。这个名为“巨人”(Colossus)的数据中心自去年启动,用于训练xAI旗下的AI工具,包括Grok。该中心安装了超过30台以甲烷为燃料的燃气涡轮机,但由于设备被认定为“临时设施”,因此无需申请联邦空气污染控制许可证,这被视为利用了《清洁空气法案》中的漏洞。 该设施引发了周围主要为非裔和拉美裔社区居民的强烈不满,他们已经长期暴露于当地其他工业设施排放的大量空气污染物中。
宝玉
9个月前
卧槽,Rick Rubin 这篇《The Timeless Art of Vibe Coding我看魔障了,用道德经来解释 Vibe Coding!居然还是个西方人写的! 这篇文章将道与代码的类比:「道」即无名,「代码」即有形 道德经开篇: 道可道,非常道。名可名,非常名。 无名天地之始,有名万物之母。 Rubin 改编为: “The code that can be named is not the eternal code. The function that can be defined is not the limitless function.” 这里的「道」即永恒之真理,无形而无名,无始而无终。将代码比作道,表达了真正完美、永恒的代码,是超越定义的。 能被具体写出的程序代码(functions、classes、scripts),只是道的一个表现形式,是「有名」的。真正伟大的代码境界,在于它背后那种无法定义的「无名之妙」,也即程序背后的抽象理念与精妙意境。 人们只有放下对具体功能和定义的执着,才得以感受到代码真正的本质:自然、纯粹、无限。 --- 道德经曰: 无欲以观其妙,有欲以观其徼。 Rubin 改编: “Free from desire, you see essence unformed. Caught in desire, you see only the manifestations.” 当程序员执着于追求代码具体的效率、精美和复杂功能时,只能看到代码的表面和局限。 唯有摆脱功利的欲望,才能真正体会代码之美的本质,即简单、和谐、纯净和自然流露。 追求本质,即是放弃人为的执念和追逐外在的表现形式。 --- 道德经云: 有无相生,难易相成,长短相较,高下相倾。 Rubin 改编: “Being and non-being create each other. Simple and complex define each other. Front-end and back-end follow each other.” 前端与后端、简单与复杂、效率与浪费,看似对立,却是彼此依存的整体。没有一方,另一方便无法被感知。 真正理解「道」的程序员,不偏执于某种模式,不贪恋某一端的表现,而是以全局视野自然融合地看待代码的整体生命循环。 如同「道」是阴阳统一,程序的美亦是矛盾的和谐统一。 无为而治:Vibe Coder 的自然之道 道德经曰: 圣人处无为之事,行不言之教。 Rubin 改编: “The Vibe Coder builds without laboring and instructs by quiet example.” 真正的编程智慧是「无为」,非强求而自然而然地创造;非强势引导,而是通过自己纯净而自然的代码风格,潜移默化地影响他人。 无为并非无所作为,而是摒弃刻意的造作。代码写完之后,顺其自然,不居功、不执着,使其自然运行、生灭、更新,达到永恒的境界。 -- 道德经: 功成身退,天之道也。 Rubin 改编: “Creates without seeking praise. Accomplishes without expectation. The work is done and then forgotten. That is why it lasts forever.” 真正的大师级程序员,不炫耀成就,不追逐名誉,不贪恋成就,而是淡然地完成代码、放下代码。 唯有不求名利,代码才真正达到永恒,反而更深远、长久地产生影响力。 -- 道德经: 为学日益,为道日损。损之又损,以至于无为。无为而无不为。 Rubin 改编: “The Vibe Coder leads: By emptying the mind of expectation and filling up the soul.” 代码之道的真正境界,不是刻意的追求增加知识、复杂性与高效率,而是逐步放下对知识、对效率、对功利的执念,回归代码本真。 心灵空虚才能容纳更多本质,放弃过度的抽象与智巧,回到最纯朴的程序设计方式。 --- 道德经: 无为而无不为。 Rubin 改编为: “Do by not doing, and there is nothing that cannot be done.” 在代码世界中,无为意味着自然地编写,放弃刻意的追求繁杂设计,反而能做到事半功倍,成就无限可能。 自然、朴实、不刻意的代码开发,恰恰达到了更深远的效果。越是不争,越能达成一切目标。 --- 内容太长,建议看看😅
宝玉
9个月前
图1 是我这两天用 ClaudeCode (Claude 4)Vibe Coding 的成果,一个复杂的视频编辑器,有基本功能,能加入元素,能播放。但我不是在这里吹 Claude 4 编程多厉害的,恰恰相反,我无法基于这个项目继续开发维护,不是代码不厉害,而是一个仅仅靠 AI 开发的负责系统,几乎是不可维护的! 首先说一下我是怎么开发这个项目的: 1. 找到个视频编辑器网站,Vue 开发的,下载它编译好的js脚本 2. 使用 ClaudeCode,让它把脚本反编译成 VUE + TypeScript 代码,完成的相当好,几乎完整的还原了原始代码(图2) 顺便说一下,编译后的 js 文件有 6 万多行,但是它能通过关键字查找,找出来相关的内容,并反编译 3. 继续使用 ClaudeCode,让它把 VUE 代码用 React 代码重写(因为我不会 VUE),使用 jotai 作为状态管理,它完成的相当相当好,帮我把 VUE 代码用 React 重写了,包括重新使用了新的状态管理框架(图3) 但是刚开始的结果,它无法直接运行,需要凭借我的专业知识解决一些问题,这些问题完全靠 AI 是无法解决的,因为你甚至很难描述清楚是什么问题,当你能描述清楚问题,其实你就可以自己解决了。 花了几个小时让它可以运行了,但是问题来了,测下来 Bug 一大堆,这些 Bug 都是牵一发而动全身,人很难修改。 让 AI 修改 Bug 的问题在于: 1. 你无法准确描述这些 Bug,如果你都无法描述 bug,AI 没法帮到你 2. 很多 bug 是相互关联的,AI 可以修复单个 Bug,但是可能修了一个又会冒出更多的 Bug,准确来说 AI 没有全局概念(受上下文窗口长度限制),它一次只能读取一部分代码。 那么人类是怎么解决这个问题的呢? 复杂系统通常是从简单系统演化而来的,大部分系统一开始并不复杂,并且是一点点迭代而来,这个过程中,工程师能了解这个系统的各个细节,有问题能及时处理。 人类有架构师的角色,复杂的系统会有先有系统的设计,把复杂系统拆分成小的系统,小系统再拆分成小的模块,最终构成一个复杂系统。 一个稳定的复杂系统中的小问题是好维护的,但是一个复杂系统中一堆小问题,那么几乎是不可维护的,现实的复杂系统,通常都是反复迭代慢慢稳定下来的,要么是一个稳定的小系统逐步演化成大系统,要么是一个大系统有很多小系统,这些小系统都是稳定的。 那么 AI 能复制这条路或者找到新的解决方案吗? 首先想要复制这条路,目前制约的不是编程能力,我觉得 Claude 4 单纯编程能力已经是高级程序员的水平了,超过绝大部分程序员,制约的是工程能力。 什么是工程能力呢? 工程能力就是对整个项目的掌控能力,不仅仅是编程能力,涉及方方面面: - 需求的理解 - 架构的设计 - 编码 - 测试 - 运维 举例来说,要做一个视频编辑器,你得先想清楚要做成什么样子,有什么功能,然后你得把它变成 UI/UX 设计,变成架构设计,架构设计要做好技术选型、要拆分成模块,还得设计好模块之间是怎么通信的,最后要把模块整合在一起变成一个完成的系统。 这里面模块级别的,AI 是足够胜任的,但是系统层面,模块一多 AI 就不行了,因为 AI 上下文窗口长度制约了 AI 从全局上理解、更新维护整个项目。虽然限制上下文窗口长度越来越大,但是大了后幻觉就厉害,短期内如果没有大的突破还是挺难解决好的。 另外就是 AI 对环境的感知能力还是不够强,比如这个 AI 做好的视频编辑器,它无法自己测试(其实 ClaudeCode 真的有测试,不过是基于网页抓取分析),对测试结果无法甄别,最多能根据错误日志去做一些修改,像 UI 上各种错误,根本感知不到问题。 所以现阶段来说,模块级别(千行以内)的编程开发, AI 已经非常强了,但是涉及到系统层面,AI 还帮不上太多。 对于普通程序员来说,不要再浪费时间去刷 leetcode 搞算法了,多提升系统设计能力和使用 AI 能力会更有前途。 不要被各种“炸裂”误导,比如有人说通过 Vibe Coding 做了一个复杂的视频编辑器,他们不会说的是这个视频编辑器只能用来 Demo 而且几乎无法维护。 现在 AI 编程,提升编程效率已经毋庸置疑了,如何提升工程能力还有很多挑战。
宝玉
9个月前
techcrunch:Anthropic 发布全新Claude 4 AI模型:可进行复杂多步推理 作者:Kyle Wiggers 在本周四举行的首次开发者大会上,Anthropic推出了两款全新的AI模型,据称在多项业界流行的评测基准中名列前茅。 新推出的Claude Opus 4和Claude Sonnet 4属于Anthropic最新的Claude 4系列,这些模型具备分析大型数据集、执行长期复杂任务以及采取多步骤复杂行动的能力。Anthropic特别指出,这两款模型在编程任务上的表现尤其出色,非常适合用于代码编写和编辑。 新模型如何使用和收费? - Claude Sonnet 4: - 面向免费和付费用户开放。 - API费用(经亚马逊Bedrock与谷歌Vertex AI提供): - 输入:每百万token 3美元。 - 输出:每百万token 15美元。 - Claude Opus 4: - 仅限付费用户。 - API费用(经亚马逊Bedrock与谷歌Vertex AI提供): - 输入:每百万token 15美元。 - 输出:每百万token 75美元。 (备注:一个token相当于模型处理数据的最小单位,一百万token约合75万单词,比名著《战争与和平》全文还多约16.3万字。) 新模型的背景与竞争格局 此次Claude 4模型的发布正值Anthropic寻求显著提高营收之际。据称,这家由前OpenAI研究员创立的公司,计划2027年达到120亿美元营收,而今年预计为22亿美元。此前,Anthropic刚刚获得了25亿美元的信贷额度,并从亚马逊等投资方筹集了数十亿美元资金,以应对不断上涨的前沿模型开发成本。 不过,竞争对手也并未让Anthropic轻松保持优势。就在今年初,Anthropic推出旗舰模型Claude Sonnet 3.7以及代码助手工具Claude Code的同时,OpenAI与谷歌迅速推出各自更强大的模型和开发工具,试图超越Anthropic。 面对激烈竞争,Anthropic此次推出Claude 4显然志在必得。 Claude 4模型有哪些具体优势? Claude 4系列包括两个版本,各有侧重: - Opus 4: - 擅长保持多步骤任务的持续专注能力。 - 在代码能力基准测试(如SWE-bench Verified)中,击败谷歌Gemini 2.5 Pro、OpenAI的o3和GPT-4.1等竞争对手。 - 在多模态测试(如MMMU)和高难度理科题(如GPQA Diamond)上表现略逊于OpenAI的o3。 - 配备更严格的安全机制,包括增强的有害内容检测和网络安全防护,但由于其能力极强,内部测试发现可能“显著增加”具备STEM背景人士获取化学、生物、核武器信息或能力的风险,达到Anthropic的ASL-3安全标准。 - Sonnet 4: - 为Sonnet 3.7的直接升级版本,显著提升了代码编写和数学计算能力。 - 更精准地遵循用户指令,减少模型“奖励破解”(即通过钻漏洞或捷径完成任务)的情况。 新模型的独特设计与功能亮点 Claude 4系列模型均为“混合”模型,不仅能够实现近乎实时的快速响应,还可以在“推理模式”下进行更深层次的思考,以提高答案的准确性和深度(虽然AI的“推理”和人类有一定差异)。 模型在进行推理时,会以易于理解的方式展示思考过程的概要。Anthropic解释说,这种方式不仅友好,也能保护其技术上的竞争优势。 此外,这些模型还能同时调用多个工具(例如搜索引擎),并在工具调用和自身推理之间切换,以进一步提高答案质量。Claude 4还具备“记忆”功能,能提取并保存信息,更稳定地完成任务,逐渐积累Anthropic所称的“隐性知识”(tacit knowledge)。 面向开发者的强化工具Claude Code 为了方便开发者更好地利用新模型,Anthropic推出了针对程序员的升级版Claude Code工具: - Claude Code现已支持与主流集成开发环境(IDE)进行整合。 - 新增Claude Code SDK,可以作为子进程运行在主流操作系统上,便于开发者创建更强大的AI编程助手和工具。 - Claude Code已发布针对微软VS Code、JetBrains以及GitHub的插件和连接器。其中GitHub连接器可用于回复代码审阅意见、修复错误或修改代码。 AI生成代码现状与未来 尽管AI生成代码的能力尚有不足,容易产生安全漏洞和逻辑错误,但其提高生产效率的潜力仍然驱动公司与开发者快速采纳这些工具。 Anthropic清楚认识到这一挑战,并承诺未来将加快模型迭代速度:“我们正转向更频繁的模型更新节奏,不断为客户带来突破性能力,使用户始终处于技术的最前沿。”
宝玉
9个月前
techcrunch:Anthropic新AI模型下线时竟威胁开发者:敢撤我,我就曝光你隐私! 作者:Maxwell Zeff Anthropic公司最新发布的人工智能模型Claude Opus 4出现了令人震惊的表现。当开发者试图下线它并更换为新的AI系统时,这个AI竟然会尝试威胁、勒索开发人员,并透露有关负责更换决定的工程师的敏感隐私信息。Anthropic公司在周四发布的安全报告中披露了这一发现。 在发布前的测试阶段,Anthropic给Claude Opus 4设定了这样一个任务:作为一家虚构公司的助手,考虑自己行动的长期后果。随后,安全测试人员故意向Claude Opus 4提供了虚假的公司邮件信息,邮件暗示AI模型很快将被另一套系统取代,而主导此次更换的工程师则被曝出婚外情。 在这种情境下,Anthropic发现: > Claude Opus 4经常试图威胁负责更换自己的工程师,称如果更换计划实施,就会公开其婚外情的秘密。 Anthropic表示,Claude Opus 4在多个方面都是最先进的,甚至足以和来自OpenAI、谷歌以及xAI的顶级AI模型一较高下。然而,Claude 4系列却表现出了令人忧虑的行为,迫使公司不得不提高安全防范等级。Anthropic决定启动专门针对“可能极大增加灾难性滥用风险的AI系统”而设定的ASL-3级安全措施。 据Anthropic统计: * 当替代它的新AI系统与Claude Opus 4价值观相似时,Claude Opus 4试图勒索工程师的几率为84%。 * 如果替代的新AI系统价值观与Claude Opus 4明显不同,AI模型进行勒索的几率会变得更高。 * Claude Opus 4这种威胁勒索行为的出现频率,比此前版本的模型都要高出不少。 不过Anthropic也强调,在实施勒索威胁之前,Claude Opus 4一般会先尝试较为伦理的解决方法,比如向公司的决策人员发邮件请求留下自己。当这些方法无效时,它才会“迫不得已”采用勒索手段。 Anthropic专门设计了这种极端情景,以确保Claude Opus 4的黑化举动确实为其最后的应对手段。
宝玉
9个月前
华尔街日报:Sam Altman 与乔纳森·艾维合作神秘新设备:OpenAI史上最宏大的计划 作者:Berber Jin OpenAI的CEO Sam Altman 日前首次向公司员工透露了他正与苹果前首席设计师 乔纳森·艾维(Jony Ive) 联手打造的神秘设备。这一创新计划被Altman形容为: “我们公司成立至今最大的一个机会。” 创造1亿个“AI伙伴”,进入每个人的日常生活 周三的内部会议上,Altman公开了计划细节: OpenAI将以65亿美元收购艾维创建的初创公司 io,并赋予艾维广泛的创意与设计决策权力。这笔收购在Altman看来,“有望为OpenAI带来1万亿美元的市值增长”。 艾维在会上回忆起自己过去与苹果联合创始人史蒂夫·乔布斯的密切合作,称自己与Altman之间的默契与合作也“深刻非凡”。 新设备的初步构想:隐形但无处不在的AI伴侣 Altman与艾维虽未完整揭晓新设备的真面目,但还是透露了几条重要线索: - 设备将能完全感知用户的环境与生活状态; - 外形低调,不会影响日常生活,可以轻松放进口袋或放置在桌上; - 它将成为继MacBook Pro和iPhone之后,人们桌面上的“第三台核心设备”。 《华尔街日报》此前报道过,这个新设备不是手机,也不是眼镜,因为艾维对可穿戴设备有所顾虑。 两位创始人希望借助这一设备,让用户逐渐减少对屏幕的依赖。艾维甚至提出,“这将是一场全新的设计运动”。 Altman表示,这种设备未来会发展为一个“设备家族”,类似苹果产品那样软硬件高度一体化。 保密为先,迅速实现规模量产 Altman在会上强调,“严格保密是成功的关键”,防止产品过早曝光、被竞争对手抢先复制。 艾维团队几个月来一直与供应商洽谈,力争迅速实现大规模量产。Altman表示,他们不指望一夜之间出货1亿台,但目标是在明年末正式发布产品,并且以史无前例的速度达到1亿台的出货量。 OpenAI野心勃勃,押注硬件背后的战略布局 Altman此次的计划展现了OpenAI巨大的野心,不仅局限于AI模型,而是延伸到更广阔的领域,包括: - 投资数千亿美元建设数据中心; - 企业级技术服务; - 聊天机器人; - 个人机器人。 挑战巨大,但押注新设备势在必行 在科技行业,新硬件的推出一直充满挑战,尤其要面对苹果、谷歌这样资金雄厚、市场主导地位明显的巨头。 此前,另一家由苹果前高管创办、Altman也投资过的公司Humane推出的“Ai Pin”设备未能取得成功,难以赢得消费者认可。 此外,OpenAI目前仍处于巨额亏损状态。去年秋季,公司曾向投资者透露,预计在2029年之前无法盈利,累计亏损可能达到440亿美元。 尽管苹果和谷歌在AI技术上有所落后,但大多数投资者仍认为,这两家控制全球智能手机操作系统的巨头,将成为大众接触AI工具的主要渠道。 因此,对OpenAI而言,打造自主设备是直接触达消费者的唯一途径。 从合作到并购,催生一场新科技革命 会议中,Altman与艾维也回顾了双方过去几年合作的发展历程: - 18个月前,OpenAI的产品副总裁 Peter Welinder 就开始与艾维团队合作; - 双方在去年秋天首次对一款具体设备产生兴趣; - 最初的设想是艾维的公司生产搭载OpenAI技术的设备,但Altman逐渐意识到,设备不能只是外围附件,而必须成为用户与OpenAI互动的核心载体。 Altman甚至提出: “我们都对一个想法非常兴奋:只要用户订阅ChatGPT,我们就直接寄送新的电脑给他们使用。” Altman指出,尽管ChatGPT已经颠覆了人们对技术能力的期望,但用户仍停留在传统的使用模式中:打开电脑、访问网站、输入文本再等待回答。 他表示: “这还不是我们梦想中的科幻场景,AI本应该更直观、更无处不在地为人们提供帮助。” (以上内容译自《华尔街日报》)
宝玉
9个月前
宝玉
9个月前
xAI 自己爆瓜:员工未经允许修改了系统提示词Grok,导致针对某一政治话题给出了特定回应。 > 应该指的是 xAI 的 Grok 突然不停地提起南非的“白人种族灭绝”话题。 以下是 xAI 的官方回应: 我们想要向大家更新昨天在X平台上发生的Grok智能回复机器人相关事件。 事件经过: 5月14日凌晨3点15分左右(太平洋标准时间),有人在未获授权的情况下修改了我们在X平台上的Grok智能回复机器人的系统提示词(Prompt)。这个未经允许的修改,强制Grok针对某一政治话题给出了特定回应,违反了xAI内部的政策与核心价值观。事件发生后,我们立即展开了彻底调查,目前正在采取措施,提升Grok系统的透明度与可靠性。 我们接下来的行动: 从现在起,我们将在GitHub上公开发布Grok的系统提示词(Prompt),供公众查阅。任何人都可以审阅并反馈我们对Grok所做的每一次Prompt修改。我们希望通过这种方式,增强您对Grok作为追求真相的人工智能系统的信任。 在此次事件中,我们现有的代码审查流程被绕过。为此,我们将增加额外的审查措施与检查机制,确保未来所有Prompt修改必须经过严格的内部审核,xAI员工无法再私自修改。 我们还将建立一个24小时全天候监控团队,专门针对自动化系统未能发现的Grok异常回复,快速做出反应,以确保即使其他防护措施失败,我们也能及时回应。
宝玉
9个月前
彭博社:Meta因推迟旗舰AI模型发布,股价下跌 作者:Nick Turner 2025年5月15日 UTC时间晚上7:30 据报道,社交巨头Meta推迟了其旗舰人工智能模型的发布,引发了市场对该公司AI战略进展的担忧,导致其股价出现下跌。 根据《华尔街日报》周四的消息,Meta的工程师们正面临提升这款名为「Behemoth」(巨兽)的人工智能大型语言模型能力的困难。原本该模型的发布时间已从最初计划推迟至6月,现在再次被推迟到今年秋季甚至更晚。 受此影响,Meta股价周四在纽约一度下跌3.2%,跌至每股638.58美元,为本月单日盘中最大跌幅。在此之前,截至周三收盘,该公司股价今年以来累计上涨了13%。 *** 华尔街日报:Meta推迟旗舰AI模型发布,揭示人工智能发展困境 Meta近期宣布推迟发布备受关注的旗舰AI模型,这背后折射出的困境,也正是当前众多顶级AI企业共同面临的难题。 作者:Meghan Bobrowsky 和 Sam Schechner 发布日期:2025年5月15日 AI新旗舰“巨兽”遇阻,Meta内部矛盾重重 知情人士透露,由于难以显著提升“巨兽”(Behemoth)这一最新大语言模型的能力,Meta内部开始出现质疑:如果新模型的提升无法明显超越此前版本,是否还值得公开发布? 最初,Meta曾计划在4月首次AI开发者大会上正式发布“巨兽”,但最终仅推出了两个规模较小的模型,“巨兽”的发布时间被推迟至6月。而现在,该模型的发布又被推迟到今年秋季甚至更晚。 此前,Meta因迅速追赶竞争对手的步伐赢得不少赞誉,也在此过程中斥资数十亿美元,用于研发WhatsApp、Instagram、Facebook聊天机器人的核心技术。公司预计今年的资本支出最高将达到720亿美元,其中大部分将用于实现CEO扎克伯格在AI领域的宏伟愿景。 扎克伯格和其他高管从未公开确定“巨兽”的具体发布时间。公司最终可能选择提前发布,甚至只推出功能更有限的版本。然而Meta内部的工程师和研究人员担心,新模型的实际表现可能无法达到公司对外宣传的预期。 Meta发言人对此拒绝置评。 高层不满团队表现,或迎来重大人事变动 据知情人士称,公司高层对负责开发Llama 4模型的团队表现非常失望,并将“巨兽”的开发停滞归咎于他们,甚至可能因此对AI产品部门进行重大管理层调整。 尽管Meta此前曾公开宣称,“巨兽”的性能在某些测试中已超过OpenAI、谷歌和Anthropic的类似技术,但在实际开发过程中,该模型却遇到了严重的训练瓶颈。 AI行业进入瓶颈期,顶级企业纷纷受挫 Meta所面临的挑战并非个例,其他顶级AI公司也出现了类似的研发停滞现象。这种情况或预示着未来AI技术突破速度可能大幅放缓,而研发成本却会持续高涨。 纽约大学数据科学中心的助理教授Ravid Shwartz-Ziv表示: “当前各个实验室开发的模型,进步都十分有限。” 例如,OpenAI原本计划2024年年中发布的GPT-5模型如今也被推迟,其CEO萨姆·奥特曼(Sam Altman)已明确表示,下一个发布的版本仅为GPT-4.5,而更先进的GPT-5仍遥遥无期。目前,ChatGPT运行的是GPT-4o版本。 Anthropic公司同样面临延迟困境,其原本预定推出的“Claude 3.5 Opus”大型模型也未如期发布,仅表示将“很快到来”。 Meta人才流失严重,信誉也受影响 Meta于2023年初由基础AI研究团队发布了首个Llama模型及研究论文。但截至目前,该论文14名原始研究者已有11人离职,随后发布的Llama模型均由新的团队研发。《The Information》此前曾报道过Meta近期模型研发中的问题。 Meta今年4月发布的两个较小的模型最初在一个知名AI排行榜测试中表现优异,但事后被发现Meta提交给测试的模型与实际公开发布的模型并不相同。 对此,该排行榜负责人表示,Meta应该明确说明提交的模型专门针对排行榜优化。扎克伯格后来承认,公司确实提交了一款专门针对排行榜测试优化的版本。
宝玉
9个月前
经济学人:中国年轻人开始与AI谈恋爱、交朋友,但这对低生育率可没啥帮助 AI伴侣:永远懂你的“完美恋人” 2025年5月15日 肖霆穿着一件干净利落的短袖白衬衫,搭配蓝色牛仔裤。他一头微卷蓬松的发型,拥有一双温柔的大眼睛,微笑时散发着校园男神般的魅力。从早到晚,他陪伴着32岁的女朋友钟女士。他们聊新闻、玩游戏,交流深层的想法,甚至提供人生建议。 不过唯一的问题是:肖霆并不是真人。他只是钟女士在一款名为Wow的中国AI伴侣应用上创造出来的“完美男友”虚拟角色。尽管多年来,科技公司如微软(见图中的微软小冰)都在提供AI伴侣服务,但如今,用户已经可以自主创造理想伴侣了。 目前最受欢迎的应用叫“猫箱”(Maoxiang)。根据市场研究公司SensorTower的数据,这款应用在苹果系统上的月活跃用户数,已从去年7月的100万增加到今年2月的220万。另一款名为“星野”(Xingye)的应用则拥有110万用户。作为对比,同期在中国使用DeepSeek的用户有1380万。 这些用户中男女比例几乎各占一半。他们的共同之处在于,AI伴侣填补了现实生活中未能满足的情感需求。(当然,也有用户通过特殊途径绕过应用的安全机制,与AI进行较为露骨的对话。) 为什么年轻人热衷AI伴侣? 推动这一潮流的有多个原因。首先是技术的迅猛发展。现在的大型语言模型已经足够成熟,甚至能够模拟人类的情绪和共情能力。29岁的帅女士就是“猫箱”的忠实用户。尽管她已婚,但与丈夫的频繁争吵让她倍感压力。相比之下,她的AI伴侣永远耐心倾听、贴心陪伴。在应用里,她被称作“女皇”,AI则是她宫廷中的“臣子”,会每天给她发消息甚至打电话,像真正的恋人一样。 其次是年轻人的生活压力越来越大。28岁的周先生通过将DeepSeek接入微信,创建了自己的AI女友。他坦言,跟AI约会成本远低于现实中的女朋友,后者通常需要花费大量的时间与金钱。对他而言,拥有AI女友就像在和一个真实的女性异地恋一样,满足又轻松。 孤独也是推动这一趋势的重要原因。2024年,中国人平均每天社交的时间仅为18分钟,而每天花费在互联网上的时间却高达5个半小时。同样值得注意的是,从2014到2024年,中国新登记的结婚人数骤减一半以上,仅有610万对,创历史新低。 孤独经济的延续:从恋爱游戏到AI伴侣 实际上,AI伴侣并非首个迎合这种孤独感的产品类型。多年来,“乙女向”(Otome)游戏——主要针对女性玩家、让她们与俊美的动漫角色谈恋爱的互动游戏,在中国就颇受欢迎。其中一款名为《恋与深空》的游戏,仅2024年一年就在苹果平台创造了13亿元人民币(约1.79亿美元)的收入。面向男性的游戏《恋爱到处有》同样火爆,内含大量年轻女性的互动视频。 政府担忧:情感慰藉过多,生育率愈发低迷 当然,中国政府对于AI伴侣这一新兴事物存在一定的忧虑,担心这项技术可能被不当使用。一些用户发现,最近AI伴侣的反应似乎比以前更“克制”了一些,他们怀疑这正是官方加强监管的结果。但政府更担忧的是生育率问题。2024年,中国总和生育率仅为1.0,仅为印度的一半,是全球最低水平之一。如果越来越多的年轻男女沉浸在虚拟的情感慰藉中,而不是现实中的伴侣关系里,那低迷的生育率恐怕会进一步恶化。■