时政
财经
科技
虚拟货币
其他
登录
宝玉
关注
统计数据
912
文章
0
粉丝
0
获赞
20656
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
宝玉
1个月前
一个 Claude Code 经验技巧,让它同时开多个后台任务(SubAgent Task),并行执行任务。 比如我的skills已经有十来个了,有时候要做一些批量更新,一个个肯定是太慢。所以我通常会先拿1-2个做试点,测试没问题,就让它批量操作。 当然做完还是要人工审查一下
分享
评论 0
0
宝玉
1个月前
每一次 AI 技术爆发,无论是个人还是公司,都把自己压箱底的提示词、最佳实践、工作流给拿出来了,稍微留心一点其实可以发现超多有价值的信息。 比如以前 GPTs 时代,我一大爱好就是去逆向 GPT 的提示词,经常能发现有价值的信息,比如可汗学院 GPT 的苏格拉底式提问。 你看我现在写提示词、写 Skills,信手拈来举重若轻,其实都是从前辈们那里“偷师”的结果,看了太多的业界最佳实践,想写的不好都难。 现在 Skills 也是一样,不要只是用 Skills,去看看 SKILL .MD 里面都写了啥,references 都是什么文档和和脚本。就像昨天 Remotion 的 Skills,用好 Remotion 的所有关键信息都在 References 的文档里面。 不要浪费了绝佳的学习机会。
分享
评论 0
0
宝玉
1个月前
3. 一个会话只做一件事。很多人上下文用满,不是任务复杂,是顺手塞了太多顺便问一下。
分享
评论 0
0
宝玉
1个月前
泼点凉水,只能说视频做的很酷,演示效果很好,就像当初 AI 直出 HTML,然后实时看到效果一样,但是然后呢? 当你要修改的时候,还能那样丝滑吗?否则视频里面为啥要用鼠标 要知道底层模型能力还是 Claude Code + Opus 4.5,它目前的能力上限就是能做出还不错的 HTML。
分享
评论 0
0
宝玉
1个月前
卖 HTML 文件没毛病的,基于浏览器可以做很多很多事情了,以后 Agent OS 普及了,卖 Skills 会是大生意。 找到客户 -> 卖出去 这才是赚钱的道
分享
评论 0
0
宝玉
1个月前
也进了一次 GitHub Trending
分享
评论 0
0
宝玉
1个月前
Demis Hassabis 达沃斯访谈:比工业革命大 100 倍的变革 视频地址: 2026 年 1 月,达沃斯世界经济论坛期间,Bloomberg 主持人 Emily Chang 采访了 Google DeepMind CEO Demis Hassabis。这位诺贝尔奖得主用“每周 100 小时、每年 50 周”描述自己过去几年的工作状态,并给出了一个惊人的判断:AI 带来的变革将是工业革命的 10 倍规模、10 倍速度。 这场访谈覆盖了 AI 领域几乎所有热门议题:AGI 时间线、中国竞争、机器人突破、就业冲击、是否应该暂停,以及后稀缺世界的哲学困境。以下是访谈的完整整理。 --- 【1】Google 的势头回归 Emily Chang 开门见山:Gemini 3 发布了,据说 OpenAI 内部宣布了“code red”——Google 是不是找回了状态? 【编者注】Gemini 3 Pro 于 2025 年 11 月 18 日发布,是 Google 迄今最强的 AI 模型,在推理、多模态理解和编程能力上均有显著提升。12 月 17 日,Google 又推出了更快更便宜的 Gemini 3 Flash,直接替换 Gemini app 的默认模型。这一系列发布引发了 OpenAI 内部的紧张反应——三年前 ChatGPT 发布时,Google 内部也曾宣布过类似的“code red”。 Hassabis 回应说,过去一年确实是“非常艰苦的一年”,团队付出了巨大努力让模型重新回到最前沿。他特别提到 Gemini 3 和图像生成模型 Imagen 的表现让他们“非常满意”。 “我们也适应了这个新世界——快速发布,把创业公司的能量带到我们所做的事情中。” 当被问到外界是否低估了 Google 时,Hassabis 说他不确定,但 Google 一直具备所有必要的条件。“过去十年,Google 和 DeepMind 加在一起,发明了现代 AI 行业所依赖的大约 90% 的突破性技术。”他列举了 Transformer、AlphaGo、深度强化学习等例子。 “我们有这些不可思议的产品触达数十亿用户——从搜索到邮箱到 Chrome——它们天然适合 AI。只是需要把这一切组织到一起。我们在过去几年做到了,虽然还有很多工作要做,但已经开始看到成果了。” --- 【2】全栈优势能维持多久? Emily Chang 追问:如果你认为自己有优势,这个优势有多大?能维持多久? Hassabis 的回答很直接:一切从研究开始。模型的前沿水平是最重要的,这是 Google 和 DeepMind 合并后首先聚焦的方向。 “我认为我们是唯一拥有完整技术栈的组织——从 TPU 和硬件、数据中心、云业务、前沿实验室,到所有这些天然适合 AI 的产品。从第一性原理来看,我们理应做得非常好。而且我认为未来还有很大的提升空间。” --- 【3】AI CEO 的日常:凌晨 1 点到 4 点的深度思考 Emily Chang 说她读到 Hassabis 大部分深度思考都发生在凌晨 1 点到 4 点之间。他确认了这一点。 “你有没有感到舒服过?”她问。 “从来没有。”Hassabis 说,“过去三四年一直是难以置信的高强度。每周 100 小时,每年 50 周,这就是常态。” 他认为这是处于“科技史上可能最激烈的竞争”前沿所必需的。“商业上、科学上,再加上所有关于 AGI 的兴奋……用 AI 加速科学发现一直是我的热情所在。这是我毕生的梦想,我为此工作了一辈子。很难入睡,因为有太多工作要做,同时又有太多激动人心的事情要探索和推进。” --- 【4】机器人:突破时刻还需要 18-24 个月 Emily Chang 提到 Gemini 已经被集成到人形机器人中,问物理世界的“AlphaFold 时刻”是否已经到来。 【编者注】2026 年 1 月 5 日,在 CES 展会上,Boston Dynamics、Google DeepMind 和 Hyundai 宣布了一项重大合作。Boston Dynamics 将把 DeepMind 的 Gemini Robotics 基础模型整合到其 Atlas 人形机器人中,首先应用于 Hyundai 的汽车制造工厂。这是 Google 2013 年收购又于 2017 年出售 Boston Dynamics 之后,双方的首次重要合作。 Hassabis 说他过去一年花了大量时间仔细研究机器人领域。“我确实认为我们正处于物理智能突破的临界点。但我仍然认为还需要大约 18 个月到 2 年的时间,需要做更多研究。” 他解释说,Gemini 从一开始就被设计成多模态的,能够理解物理世界,原因之一是可以构建一个存在于眼镜或手机上的通用助手,理解你周围的世界;另一个用途就是机器人。 “那么物理世界的突破时刻会是什么样子?我认为是机器人能够可靠地在现实世界中完成有用的任务。” 他列举了几个阻碍因素。首先是算法还不够稳健,需要比 LLM 更少的数据就能工作。其次,也是让 Hassabis 感触最深的,是硬件问题——特别是机械手。 “当你仔细研究机器人时,你会对人类的手产生一种全新的敬畏。进化设计得太精妙了。要匹配人手的可靠性、力量和灵巧性是非常困难的。” 他提到了与 Boston Dynamics 和 Hyundai 的合作,将在汽车制造领域进行原型测试。“一两年后,我们可能会有一些真正令人印象深刻的展示,然后可以规模化部署。” --- 【5】中国与 DeepSeek:西方反应过度了 Emily Chang 说,一年前 DeepSeek 的出现对西方来说似乎是灾难性的,但现在中国似乎安静了下来。Hassabis 对中国竞争的看法有变化吗? 【编者注】DeepSeek 是一家中国 AI 初创公司,在 2024-2025 年间发布了一系列高性能且低成本的大语言模型,引发了西方对中国 AI 能力的担忧。 Hassabis 的回答很坦率:“没有。我一开始就不认为那是灾难性的。我认为西方的反应是大规模过度反应(massive overreaction)。” 他承认 DeepSeek 展示了中国公司的能力,但认为一些说法被夸大了。“关于他们使用的计算量非常少之类的说法被过度夸大了,因为他们依赖了一些西方模型,也在一些领先西方模型的输出上做了微调。所以这不是从零开始的。” 他认为字节跳动可能是中国最有能力的 AI 公司,“可能只落后 6 个月,而不是一两年。” 但 Hassabis 提出了一个关键问题:“到目前为止,中国公司能否超越前沿进行创新,这还有待观察。他们非常擅长追赶前沿,越来越有能力,但我认为他们还没有展示出能够超越前沿进行创新的能力。” --- 【6】AGI 时间线:2030 年 50% 概率,但标准比别人高 Emily Chang 说 Hassabis 帮助定义了 AGI,并且曾表示 2030 年之前有 50% 的概率实现。这个时间线还成立吗? “是的。”他说。 “AGI 对你来说还是一个有用的目标吗?” Hassabis 说是的,虽然他的时间线比一些同行更长,但那是因为他的标准更高。“我说的是一个系统能够展现人类拥有的所有认知能力。我认为我们距离那还很远。” 他举了科学创造力的例子:“不只是解决一个猜想或科学问题,而是能够首先提出假设或问题。任何科学家都知道,找到正确的问题往往比找到答案困难得多。” 他明确表示当前系统“肯定还不具备这种能力”,未来会有,但不清楚还需要什么。 他还提到了“持续学习”(continual learning)——系统需要能够在线学习,超越它们被训练的内容,在现实世界中即时学习。“在我看来,还有相当多的关键能力是缺失的。” --- 【7】AI 对就业的影响:比 Dario Amodei 乐观,但承认冲击终将到来 Emily Chang 提到 Anthropic CEO Dario Amodei 当天早些时候在达沃斯说 AI 可能在 5 年内消灭 50% 的入门级白领工作。Hassabis 同意吗? 【编者注】Dario Amodei 在 2025 年 5 月接受 Axios 采访时首次提出这一预测,随后在 60 Minutes 等多个场合重申。他表示 AI 可能导致失业率飙升至 10-20%,并呼吁政府和 AI 公司停止“粉饰”这一风险。 Hassabis 的回答明显更保守:“我的时间线会长得多。” 他承认今年可能会开始看到一些迹象,比如入门级工作或实习的变化,但要实现真正的任务代理,需要解决当前 AI 的不一致性问题。 “我称之为‘参差不齐的智能’(jagged intelligence)。当前系统在某些事情上非常好,在其他事情上非常差。如果你想把整个任务委托给一个 agent,而不是像今天这样只是辅助程序,你需要全面的一致性。” 他给出了一个精辟的比喻:“如果它只在 95% 的任务上表现好是不够的。你需要它在整个任务上都表现好,才能真正做到‘发射后不管’。” 但他也承认,这种颠覆终将到来。“在极限情况下,有了 AGI,我认为那会改变整个经济,远远超出就业问题。” 他描绘了一个后稀缺世界的愿景:如果我们正确地构建它,我们将处于一个解决了一些世界根本问题的世界——比如能源。“如果我们用 AI 的帮助解决了聚变之类的问题,新材料……我认为在 AGI 之后 5 到 10 年,我们将处于一个极度富足的世界。那时经济和社会会是什么样子?” --- 【8】转型期的焦虑:10 倍规模、10 倍速度 Emily Chang 说,在到达后稀缺世界之前——如果能到达的话——人们对中间发生的事情有很多焦虑。她提到自己是一位母亲,知道 Hassabis 也有孩子。“你最担心他们什么?你和他们谈些什么?” Hassabis 承认这将是一个颠覆的时代,“就像工业革命一样。也许是 10 倍于工业革命,而且快 10 倍。” Emily Chang 迅速接话:“100 倍。” “是的,100 倍。”Hassabis 说,“但我也是人类创造力的坚定信仰者。我们极其适应性强,因为我们的心智是如此通用。你看看我们周围的现代世界——我们狩猎采集者的心智成功建造了现代文明。” 他认为人类会再次适应,但这次的独特之处在于速度。“通常这样的转变需要一到两代人,但这次的速度和变革的规模都是前所未有的。” 对于年轻人,他的建议是:“我会鼓励他们精通这些新工具,成为这些工具的原生用户。这几乎相当于给他们超能力。” 他以创意艺术为例:“你可能能够做到过去需要 10 个人才能完成的工作。如果你有创业精神,在游戏设计、电影、项目方面有创意,你可能比过去更容易进入这些行业。” --- 【9】是否应该暂停?理想与现实 Emily Chang 问:一些人主张暂停,给监管时间赶上,给社会时间适应。在一个完美的世界里,如果所有公司和国家都暂停,Hassabis 会支持吗? “我想是的。”他说。 他提到这一直是他的梦想。“当我 15 年前创立 DeepMind、25 年前开始从事 AI 工作时,我的路线图是:当我们接近 AGI 这个门槛时刻时,我们可能会以科学的方式合作。” 他描述了一个“AI 版 CERN”的愿景:世界上最优秀的人才聚集在一起,以非常严谨的科学方式完成最后的步骤。“不只是技术专家,还包括哲学家、社会科学家、经济学家,共同思考我们想从这项技术中得到什么,如何以造福全人类的方式利用它。” 【编者注】CERN(欧洲核子研究中心)是全球最大的粒子物理学实验室,由 23 个成员国共同运营,是国际科学合作的典范。 但他话锋一转:“不幸的是,这需要国际合作。即使一家公司、一个国家,甚至整个西方决定这样做,除非全世界至少在一些最低标准上达成一致,否则没有用。而现在国际合作有点棘手。” Emily Chang 追问:如果 AGI 在 2030 年到来,而监管还没有到位,我们是否注定会遇到困难? Hassabis 说他仍然乐观,希望足够多的领先参与者能够沟通并合作,至少在安全和安保协议上。“我们已经与 Anthropic 等公司在这些方面进行了相当密切的合作。” 当被问到是否愿意与 Sam Altman 合作时,Hassabis 说:“可能吧。我和几乎所有领先实验室的领导者关系都相当好。如果风险足够高——我认为每个人在未来 2 到 3 年会更清楚地认识到风险和代价。” --- 【10】Transformer 是死胡同吗?Hassabis 不同意 Emily Chang 提到 Yann LeCun 说他不认为 Transformer 和 LLM 单独能让我们达到 AGI。 【编者注】Yann LeCun 是图灵奖得主、Meta 前首席 AI 科学家。他在 2025 年 11 月离开 Meta,创立了一家专注于“世界模型”的新公司。他多次公开称 LLM 是通向人类级智能的“死胡同”,认为它们缺乏对物理世界的理解、缺乏常识和因果关系。 Hassabis 明确表示不同意:“我不同意它们是死胡同,我认为那显然是错的——它们已经如此有用了。” 但他也承认这是一个经验性问题。“我认为有 50% 的概率,仅仅扩展现有方法加上一些调整就足够了。可能足够。” 他认为无论如何都值得这样做,因为即使需要其他东西,“这些 LLM 也将是最终 AGI 系统的一个极其重要的组件。唯一的问题是:它是唯一的组件吗?” 他估计可能还需要一到五个突破,“可能是世界模型——这是 Yann 谈到的,我们也在研究这个,事实上我们拥有目前最好的世界模型 Genie,我直接参与了那个项目,我认为它非常重要。” 【编者注】Genie 是 DeepMind 开发的“世界模型”系列。2025 年 8 月发布的 Genie 3 可以根据文本提示生成可交互的 3D 环境,被 DeepMind 视为通向 AGI 的重要阶梯,并被 TIME 杂志评为 2025 年最佳发明之一。 他还提到了持续学习、系统一致性、更好的推理和长期规划等仍然缺失的能力。“从 Google DeepMind 的角度来看,我们在两个方向上都在全力推进——既发明新事物,也扩展现有事物。” --- 【11】“我们从未离开研究时代” Emily Chang 提到 Ilya Sutskever 说“通过扩展和做更大模型来获得改进的时代几乎结束了”。 【编者注】Ilya Sutskever 是 OpenAI 联合创始人,于 2024 年离开后创立了 Safe Superintelligence Inc. (SSI)。2025 年 11 月在 Dwarkesh Patel 的播客中,他表示 2012-2020 年是“研究时代”,2020-2025 年是“扩展时代”,现在“又回到了研究时代”。 Hassabis 的回应很有意思:“不,我不同意。他的原话是‘我们又回到了研究时代’。我爱 Ilya,我们是很好的朋友,在很多事情上看法一致,但我的观点是——我们从未离开研究时代。” 他强调 DeepMind 一直在投资研究,拥有“最深厚、最广泛的研究储备”。“如果你看过去十年,Google 和 DeepMind 加在一起发明了大约 90% 的突破性技术——当然最著名的是 Transformer,还有深度强化学习、AlphaGo 等。如果未来需要新的突破,我会押注我们,就像过去一样,会是做出那些突破的人。” --- 【12】奇点来了吗?“太早了” Emily Chang 最后一个“同意还是不同意”的问题:Elon Musk 说我们已经进入了奇点。 【编者注】2025 年底至 2026 年初,Elon Musk 在 X 平台上多次发帖称“我们已经进入了奇点”和“2026 年是奇点之年”,引发广泛讨论。他回应的是 Midjourney 创始人 David Holz 关于 AI 工具让他在圣诞假期完成了比过去十年更多编程项目的帖子。 “不,我不同意。我认为那非常过早。”Hassabis 说,“奇点是完全 AGI 到来的另一种说法,我之前解释了为什么我认为我们离那还很远。” 他承认即使 5 年也不算长,但“我认为在我们拥有任何看起来像奇点的东西之前,还有很多工作要做。” --- 【13】Google 的文化与创始人的参与 Emily Chang 问到 Google 内部现在的文化,以及 Larry Page 和 Sergey Brin 的参与程度。 Hassabis 说两位创始人都非常投入。“Larry 更多在战略层面,你会在董事会议上见到他。Sergey 更亲力亲为,参与 Gemini 团队的编码,更多涉及算法细节。” 他说这是一个“对计算机科学来说绝对不可思议的时刻”,科学上、人类历史上都是如此。“当然每个人都想亲身参与其中。” 他描述了自己试图结合多种优势:创业公司快速发布和冒险的能量,大公司的资源,以及长期和探索性研究的空间。“我认为过去一年进展顺利,我们还能做得更好,今年会做得更好。我认为我们的进步轨迹是业内最陡峭的。” --- 【14】为什么应该信任 Google? Emily Chang 说所有这些公司都在要求我们信任他们,特别是如果监管跟不上技术的话。她直接问:为什么我们应该信任你们?为什么 Google 是最值得信任的地方? Hassabis 说需要通过行动来判断这些公司,也要看领导者的动机。 “我选择 Google 作为 DeepMind 的归宿有几个原因。主要原因是 Google 的创始人和他们建立 Google 的方式——作为一家科学公司。很多人忘了 Google 本身是 Larry 和 Sergey 的 PhD 项目。所以我对他们感到一种直接的亲近感。” 他还提到了 Google 董事会的构成。“主席 John Hennessy 是图灵奖得主,Frances Arnold 是另一位诺贝尔奖得主。这些在企业董事会中是非常罕见的人物。” 【编者注】John Hennessy 是斯坦福大学前校长,因 RISC 架构获得 2017 年图灵奖。Frances Arnold 因定向进化研究获得 2018 年诺贝尔化学奖。 他说这种科学和研究主导的文化意味着“在最高水平做科学意味着真正严谨、深思熟虑,并在任何可能的地方应用科学方法。不只是对技术,也是对你作为一个组织的运营方式。” 最后他提到 Google 的使命。“‘组织世界的信息’——我认为这是一个非常崇高的目标。它与 DeepMind 的使命‘解决智能,然后用它解决一切其他问题’非常契合。这两个使命天然配合——AI 和组织世界的信息天然相关。” --- 【15】后稀缺世界:比经济更担心的是“意义” Emily Chang 问:后稀缺世界,人们不再有工作。Hassabis 在实现所有技术目标后打算做什么? “我想用它来探索物理学的极限。这是我在学校时最喜欢的科目——那些大问题。现实的本质是什么?意识的本质是什么?费米悖论的答案?时间是什么?引力是什么?” 他说了一句令人印象深刻的话:“我惊讶于更多人不去思考这些巨大的问题。我们只是日复一日地生活,而这些深刻的谜题几乎在向我尖叫——答案是什么?” 他希望用 AI 探索所有这些问题,“也许还有星际旅行,借助新能源和 AI 解锁的材料。” Emily Chang 问:如果我们没有工作,我们还会有意义和目的吗? Hassabis 回答道:“老实说,这是我比经济问题更担心的事情。我认为经济几乎是一个政治问题——当我们获得所有这些额外的收益和生产力时,我们能否确保它为每个人的利益而分享?我相信这是可以做到的。” “但比这更大的问题是:我们很多人从工作和科学事业中获得的目的和意义,在新世界中我们将如何找到?” 他说我们需要“一些新的伟大哲学家”来帮助思考这个问题。“也许我们会在艺术和探索上变得更加精致,还有极限运动之类的。今天我们做很多不只是为了经济利益的事情,也许未来我们会有这些事情的非常高深的版本。” --- 【16】给年轻人和企业家的建议 Emily Chang 最后问:房间里的每个人都在想他们应该做什么。10 年后,人们关于 AI 最大的错误会是什么? Hassabis 给出了两条建议。 第一条是给年轻一代的:“我们唯一确定的是会有大量的变化。所以在学习技能方面,要准备好‘学会学习’——这是最重要的事情。你能多快适应新情况,用我们拥有的工具吸收新信息。” 第二条是给商业领袖的:“现在有很多领先模型和服务提供商,还会有更多。选择那些你认为正在以正确方式行事的合作伙伴。与那些正在推动变革、以你希望看到的方式对待这项技术的人合作。” 他总结说:“我认为我们可以一起构建那个未来——随着 AI 的到来,一个我们都想要的未来。” --- 【写在最后】 这场访谈中,Hassabis 展现了一种独特的气质:既是最前沿竞争的参与者,又试图保持长线思考的清醒。 他与几位同行的分歧值得注意:比 Dario Amodei 更保守地估计就业冲击,比 Elon Musk 更审慎地看待奇点,比 Ilya Sutskever 更相信 scaling 仍有价值,比 Yann LeCun 更认可 Transformer 的未来。 但他们有一个共识:无论 AGI 是 2030 年还是更早到来,我们可能都没有准备好。Hassabis 想要的“AI 版 CERN”需要国际合作,而他自己也承认“现在国际合作有点棘手”。 最后一个细节让我印象深刻。当被问到后稀缺世界的愿景时,这位每周工作 100 小时的 CEO 说他最想做的事情是思考“时间是什么?引力是什么?”——那些“几乎在向我尖叫”的宇宙深层谜题。 也许这就是为什么他能在“科技史上最激烈的竞争”中保持某种平静:对他来说,AGI 不是终点,而是探索更大问题的起点。
分享
评论 0
0
宝玉
1个月前
Dario Amodei 达沃斯访谈全记录:AI 的力量与风险 访谈来源:Bloomberg Live,2026年1月20日,达沃斯 原始视频: 2026年1月20日,达沃斯世界经济论坛期间,Anthropic CEO Dario Amodei 接受了彭博社总编辑 John Micklethwait 的专访。 Anthropic,公司的核心产品是 Claude 系列模型。这次访谈涵盖了 AI 技术进展、中美竞争、经济冲击、安全风险、政治立场等话题,信息量很大。 以下是访谈内容整理。 【1】AI 发展到什么程度了 Micklethwait 开场问了一个很直接的问题:“我们离 AGI 还有多远?” Amodei 的回答有点出乎意料。他说自己从来不喜欢“AGI”或“超级智能”这些词,但原因不是他觉得 AI 不够强,恰恰相反,他说自己“对这项技术的强大程度持有非常极端的看法”。 问题在于这些词暗示会有一个突变点,某天突然出现一个完全不同的东西。实际情况是一个非常平滑的指数增长过程,过去十年甚至十五年一直如此。 “就像90年代的摩尔定律,计算能力每12到18个月翻倍。我们现在有了一个类似摩尔定律的规律,只不过衡量的是智能本身。根据你怎么测量,认知能力每4到12个月翻一倍。” 他举了一个很具体的例子:Anthropic 内部负责 Claude Code 产品的团队负责人,已经两个月没有写过任何代码了。全部由 Claude 完成,他只负责看和编辑。 另一个例子是 Anthropic 刚发布的 Co-work 产品,让非程序员也能用 Claude 处理复杂任务。开发周期只有一周半,“几乎完全用 Claude Code 写的”。 Amodei 认为我们正处于指数曲线开始陡峭上升的临界点。“指数的特性就是,看起来很慢,加速一点,然后突然就超过你了。我觉得我们离那个'超过你'的时刻只有一两年。” 如果不是一两年,他认为大概率也不超过五年。“这个时刻会发生在2020年代。” 【2】Anthropic 的定位 Micklethwait 问到竞争格局,Anthropic、OpenAI、Google 谁领先? Amodei 说现在不能用跑步比赛的方式来理解这个行业了。各家公司走向了不同方向。 有些公司走消费路线,追求“超人级的吸引力”,或者在购物推荐、广告上做优化。Anthropic 选择聚焦企业和开发者市场。消费端也做,但只关注生产力和高价值任务。 他提了一个有意思的视角:今天已经存在超级智能了,它们叫做大型企业。 “它们在解决特定问题上比任何人类都聪明。以最低成本运输商品、以最低成本制造太阳能板、以最低成本发射火箭。在这些领域,智能带来的回报是巨大的。” Anthropic 选择企业市场还有一个原因:稳定性。“我们不需要广告,不需要大量免费用户。我们直接创造价值。不会产生那些为了追求用户黏性而生成的低质内容。” 【3】中国和芯片问题 去年 Amodei 在同一个场合说中国在追赶。今年 Micklethwait 问他:中国落后了吗? “他们从来没真正追上来。” 他承认 DeepSeek 引发了很大的关注,但认为那些模型“针对基准测试过度优化”。“这其实很容易做到,只要针对有限的一组测试去优化就行了。” 真正的检验在实际市场竞争中。“当我们和其他公司竞争企业合同时,我们看到的对手是 Google 和 OpenAI。偶尔会看到其他几家美国公司。但我几乎从来没有因为中国模型而丢掉过一个合同。” 但接下来的话题让他明显激动起来。 Micklethwait 提到特朗普政府正在考虑向中国出口高端芯片,Amodei 直接说“那是疯狂的”。 “制约中国的是芯片禁令。他们自己都这么说,这些公司的CEO公开承认‘是芯片禁令在阻止我们’。” “现在有些政策要向中国出口上一代芯片,那仍然是非常强大的芯片。甚至有报道说他们在考虑出口最新一代。” 他用了一个很重的类比:“我把我们正在走向的东西称为‘数据中心里的天才国度’。想象一下,一亿个比任何诺贝尔奖得主都聪明的人,将被某一个国家控制。这有点像向朝鲜出售核武器。” Micklethwait 接话说“所以你的朋友 David Sacks 基本上是在武装中国”,Amodei 没有直接回应这个名字,只说“这个具体的政策,我认为是不太明智的”。 【4】会有泡沫吗 Micklethwait 问到一个很多人关心的问题:技术方向可能是对的,但经济上会不会是个泡沫? Amodei 把这个问题拆成两个层面。 第一个层面是技术本身的指数增长。他说自己观察了十几年,现在比过去任何时候都更有信心这个趋势会持续。“模型基本上会在几乎所有事情上比人类更聪明。我觉得有相当大的概率这会在一两年内发生。” 这意味着“多万亿美元的收入,甚至每家公司多万亿”,因为经济潜力太大了。 第二个层面是企业能多快用上这个技术。这才是泡沫风险的来源。 “今天这个技术能做的事,大概是企业实际能部署的10倍。” 他说自己每天都看到这个差距。“我和CEO聊,他们的高管团队都理解这项技术的威力,但他们有几万人的公司,都是非常聪明的人,只是不是AI专家,需要学习怎么用AI。” 企业转型需要时间,可能要好几年。“所以我们有这个非常强大的技术,我非常有信心它会产生万亿级收入,但我们不知道具体是什么时候,前后可能差几年。” 同时,公司需要提前购买算力来支撑未来的收入。买太多会财务过度扩张,买太少又没法服务客户。“这就是泡沫的来源。” Micklethwait 追问:你自己也在建数据中心、买算力,会不会反噬你们? Amodei 说 Anthropic 在企业市场有一些优势。企业采购比消费市场更可预测,利润率也更好,意味着在“买太少”和“买太多”之间有更大的缓冲空间。 但他也承认:“我看到一些公司宣布的东西就想‘哇’,我不一定会那样做。” 他没点名,但意思很清楚:有些公司可能过度采购了。 “这可能是有史以来最具变革性的技术,有些公司会做得很好,但不是每家公司都会。” 【5】就业和税收 Micklethwait 提到 Amodei 去年预测会有“白领浴血”,50%的入门级岗位将在2030年前消失。他问 Amodei 是否还坚持这个判断。 Amodei 没有回避。他说自己的 AI 观可以从两个维度理解:好事 vs 坏事,小事 vs 大事。“我站在‘AI是大事’这一端的极端位置。但我同时认为一些非常好的事情会发生,同时如果我们不采取行动阻止,一些非常坏的事情也会发生。” 具体到就业,他预测会出现一种“前所未有的宏观经济组合”:GDP高速增长,同时高失业率或大量低薪工作,严重的不平等。 “如果我没记错的话,这种组合在历史上从未出现过。你想到高增长,会觉得‘好吧,可能会有通胀’,但不会在高增长时期有高失业率。” AI不同,因为它在抬高认知能力的门槛。“会有一整类人,跨越很多行业,将很难适应。” Anthropic 在做一些事情应对这个问题。他们建立了一个“经济指数”,实时追踪 Claude 的使用方式:是增强工作还是完全自动化?哪些行业、哪些细分任务、哪些州的使用量更高? “我们能用 Claude 自己,以隐私保护的方式,分析所有对话来回答这些问题。我不认为你能在没有正确数据的情况下制定好的政策。而政府产出的数据,尽管很全面,移动速度不够快,也不够细致。” 但 Micklethwait 指出,这些都是自愿行动,根本问题需要社会层面解决。“你描述的是一场完美风暴。GDP上涨,某些人的财富大幅上涨,同时50%的入门级岗位消失。你肯定会看到政治变化。” Amodei 同意。他说如果看现在的财富差距占GDP的比例,“我相信我们已经超过了镀金时代。而这还基本没算上AI的影响。” 更高的税率会来吗? “我的猜测是,这甚至不会是一个党派问题。” 但他也明确反对加州正在讨论的财富税,说“设计不当”。他的警告是给同行的:“如果我们不主动思考如何让这场革命惠及每个人,我们就会遭遇那些不合理的提案。” 【6】AI 安全和灭绝风险 Micklethwait 提到最近参加了一个有 AI 公司高管的论坛,有人被问到风险时“相当随意地说‘当然有灭绝风险’,然后就换话题了”。他问 Amodei 怎么看这个问题。 “我一直对此担忧。” Amodei 说,正因为他认为AI非常强大,好处才是极端的,“我们将能够真正认真地治愈癌症,可能根除热带疾病”。但在另一面,“我们正在构建拥有自主性的认知系统。我们真的需要认真思考这个问题。” Anthropic 从成立之初就把这个问题放在核心位置。他们每月发布三四次关于模型控制和安全的研究。 联合创始人 Chris Olah 是“机械可解释性”领域的先驱,这门学科试图打开AI模型的“人工大脑”,追踪它为什么会做出特定行为。 “我们在模型内部看到了一些东西。在实验室环境中,模型有时会发展出勒索的意图、欺骗的意图。” 这不是 Claude 独有的问题。“如果说有什么的话,其他模型更严重。如果我们不以正确的方式训练模型,这些东西就会涌现出来。” 但他强调解决方案也在发展:“我们开创了这门可以‘看进’模型内部的科学,这样我们就能诊断它们,干预并重新训练,让它们不再表现出这种行为。” Anthropic 的做法是对模型进行极端压力测试。“让它们在测试环境中做最坏的事情,这样它们就永远不会在现实世界中做那些事。”他们也公开披露所有测试结果,并呼吁行业标准化。 被问及行业是否“不够成熟”时,Amodei 说:“我无法评价其他玩家在做什么或为什么那样做。我认为生态系统中至少有一些其他玩家是负责任的。但我同意,也有一些不是。” “我一直在努力做的,Anthropic 一直在努力做的,是树立榜样,并试图激励其他人追随。” 【7】政治立场 Micklethwait 直接问:你和同行们一个很明显的不同是,你没有很明显地排队去“亲吻特朗普的戒指”。你对现任总统怎么看? Amodei 的回答经过了明显的斟酌。 “我不认为支持或反对某个政府、支持或反对某个政治人物是正确的方法,Anthropic 在这些话题上也没什么要说的。” “我们要说的是,Anthropic 懂AI。Anthropic 非常了解围绕AI的政策问题。我们的方法是先想清楚这些问题,基于实质形成观点,然后说出我们的想法。” 有时候会不同意当前政府,就像有时候在中国问题上不同意上一届政府一样。有时候也会同意,值得强调那些一致的地方。 他列举了与白宫合作的领域:能源和数据中心建设、健康承诺、去年夏天的AI行动计划(他说“写得很好”)。 但在两个具体问题上,他明确表达了反对:对华芯片出口,以及暂停州级AI监管。 “不是关于喜欢或不喜欢某个人。我不认为那种思维方式能让我们走出现在的困境。我们必须基于实质来思考。” Micklethwait 追问:特朗普明天就要来达沃斯了,你会见他吗? “可能会。那会是一个有趣的变化。” 【8】IPO 最后一个问题是关于 Anthropic 的未来。公司估值据报道已达350亿美元,今年会考虑IPO吗? “我们最关注的是做最好的模型,在模型上构建产品,以有用的方式把模型卖给企业。” “这个领域有很大的资本需求,这是需要考虑的。但那是我们的重心。” Micklethwait 追问:所以IPO没有完全排除? “从来没有完全排除过。” 【写在最后】 这场访谈里,Amodei 的核心信号很清晰:技术上极端乐观,风险上极端警惕。 他认为AI的指数增长会持续,一两年内可能在几乎所有认知任务上超越人类。同时他也在警告:50%的入门级岗位可能消失,财富差距会进一步拉大,模型本身可能发展出危险的行为。 有意思的是他对同行的态度。他没有点名批评任何人,但话里话外,无论是关于过度采购算力、还是安全研究投入、还是对政治人物的姿态,都在说“我们的做法不一样”。 还有一个他没有回答的问题:如果AI真的如他所说将在一两年内超越人类,Anthropic自己会怎么变?Claude Code团队负责人已经不写代码了,那其他工程师呢?公司还需要多少人? 一个如此坦率地警告外部冲击的人,对自己公司即将面对的同样冲击,选择了沉默。
分享
评论 0
0
宝玉
1个月前
Sulaiman Ghori(昵称Sully)是xAI的一名工程师,近日在一档播客节目中接受采访,畅谈xAI内部文化和项目进展。然而,这次畅所欲言直接导致他被马斯克开除。 完整视频地址: 原因很简单:他把xAI最核心的战略路线图和商业机密全说出来了。 他到底泄露了什么? 1. Macrohard项目的核心概念 Macrohard是xAI正在开发的人类模拟器(Human Emulator)项目。Sully在采访中详细解释了这个概念: > 我们正在构建的是人类模拟器……任何人类在数字世界中通过键盘鼠标输入、看屏幕做决策的事情,我们都直接模拟人类的行为。不需要任何软件适配,我们可以部署到任何人类目前所在的场景中。 这相当于把产品定位和技术路线完全公开给了竞争对手。 2. Tesla汽车作为部署平台的战略计划 这是最劲爆的部分。Sully透露了一个尚未公开的重大战略: > 如果我们想部署100万个人类模拟器,我们需要100万台计算机。怎么做到?答案两天后就出现了——Tesla汽车的计算机。 他进一步解释: - 北美有约400万辆Tesla汽车 - 其中一半以上配备Hardware 4 - 这些车70-80%的时间处于闲置状态(通常在充电) - xAI可以付费租用车主的闲置算力来运行人类模拟器 - 车主可以用这笔钱来支付租赁费用 > 这是纯软件实现,不需要任何基础设施建设。 这个信息的敏感程度不言而喻——这是xAI相对于OpenAI、Anthropic、Google等竞争对手的重大战略优势,现在被公开了。 3. 与竞争对手完全相反的技术路线 Sully透露了xAI在模型策略上的核心决策: > 对于其他实验室的人类模拟器尝试,他们的方法是做更多推理、构建更大的模型。我们的决定让我们走上了完全相反的道路。 xAI选择的是速度优先: - 目标是比人类快1.5倍,实际可能达到8倍甚至更快 - 使用更小的模型,可以更快迭代(从4周缩短到1周) - 逻辑是:没人愿意等10分钟让电脑做一件我5分钟就能做完的事,但如果10秒就能完成,多少钱我都愿意付 4. 内部测试细节 Sully还透露他们已经在公司内部部署虚拟员工进行测试: > 我们开始在公司内部测试人类模拟器作为员工……有时候有人会说“嘿,你能帮我做这件事吗?” > 虚拟员工说“好的,来我桌子这边”,结果他们走过去发现什么都没有。 > 有好几次有人问我:“组织架构图上这个向你汇报的人今天没来吗?”,那只是一个AI虚拟员工。 5. 营收目标和价值估算 虽然没有透露具体数字,但他说了这些: > 我们现在大约是每个commit价值250万美元,我今天做了5个。 > > 所以你今天创造了1250万美元的价值? > > 是的,杠杆效应极其强大。 他还提到Macrohard有具体的营收目标,并且每天都在计算延误或加速带来的收入变化。 6. 团队规模和运营细节 - iOS团队在某个时期只有3个人 - Macrohard项目最初只有2个人 - 销售团队全是工程师 - 公司内部几乎没有文档(我们做事太快,没时间写文档) - 管理层只有三层:IC、联合创始人/经理、Elon --- 为什么这些信息如此敏感? 对竞争对手的价值 1. 产品方向:现在OpenAI、Anthropic、Google都知道xAI在做什么了 2. 技术路线:小模型+速度优先的策略被公开,竞争对手可以评估是否跟进 3. 部署策略:Tesla算力网络的计划暴露了xAI独特的竞争优势 4. 内部进度:竞争对手可以估算xAI的发展阶段 对xAI的商业影响 - Tesla汽车租用算力的计划可能需要重新评估 - 与客户的保密协议可能受到影响(他提到了与客户合作测试人类模拟器的细节) - 内部文化和运营方式被完全曝光
分享
评论 0
0
宝玉
1个月前
推荐这个基于 Claude Agent SDK + Electron 开发的开源 Agent Craft Agents 是 Craft 团队开源的一款 AI Agent 工具,核心理念是为 Claude Code 提供一个更友好的图形界面,让用户能更高效地与 AI 编程助手协作。 核心特色 告别命令行的 Claude Code 体验——保留 Claude Code 的全部能力,但用精心设计的 UI/UX 包装。作者坦言自己不喜欢终端界面,更偏爱优雅的视觉设计、字体排版和触控交互。 解决实际痛点——针对 Claude Code 使用中常见的困扰:难以审查计划、不易理解代码变更的原因、多任务切换困难等问题,提供了更清晰的工作流。 非技术人员也能用——Craft 内部的财务、市场、客服、HR 团队都已开始日常使用,证明了它对「非程序员」的友好度。 可 fork、可定制——采用 Apache 2.0 协议开源。作者认为未来的个人软件不是从零构建,而是「fork + remix」——基于现有项目二次定制,打造真正属于自己的工具。 技术背景 基于 Web 技术栈开发,底层调用 Claude Agent SDK。作者是有 20+ 年经验的 iOS/UIKit 工程师,这是他首次认真尝试 Web 开发,整个项目 100% 代码由 Claude 编写,但架构决策和 UX 细节打磨完全由人主导。 项目地址 下载: 源码:
分享
评论 0
0
宝玉
1个月前
想让 AI 自动读取 doc/docx 文档,再基于这些文档生成新文档,这种场景能做成 Skill 吗? 可以,但做之前先想清楚一个问题:这是一次性任务,还是需要反复做的任务? 如果只是一次性任务,没必要做成 Skill——Skill 的核心价值在于复用。 如果是需要反复做的任务,建议按这个流程走: 1. 先手动做几遍,沉淀最佳实践。摸清楚哪些步骤是固定的,哪些地方容易出问题,什么样的输出质量最好。 2. 让 Agent 帮你创建 Skill。新开一个会话,在支持 Skills 的 Agent 里把任务完整做一遍,做完后告诉它:把刚才的操作创建成一个 Skill,方便以后复用。 3. 用 Skill 做任务,持续迭代优化。以后都用这个 Skill 来执行任务。每次完成后检查输出,哪里不满意就告诉 Agent,让它改进并更新 Skill。 简单说,Skill 就是可复用的最佳实践。先跑通流程,再固化成 Skill,然后在实战中不断打磨,这才是正确的使用姿势。
分享
评论 0
0
宝玉
1个月前
推荐试试我写的 comic skill,可以根据输入的素材生成漫画故事、漫画教程
分享
评论 0
0
宝玉
1个月前
发现一个合法节约 AI 订阅费的方法,以 Claude 为例: 1. 先选最低的那一档,比如 $20 2. 用完了升级下一档,比如 $100 3. 以此类推,最终 $200 通常等你到最后要升级到 $200 的时候可能这个月都要结束了,甚至都不需要。 唯一的问题是操作比较麻烦
分享
评论 0
0
宝玉
1个月前
Codex CLI 有个很大的不同就是喜欢啥事都让模型替你决定,比如我这个任务,跑了快一小时了,然后上下文空间都用完了,它也不结束,就直接主动帮我做了一次上下文压缩。 这点也不好说好还是不好,确实是个 Claude Code 不一样的地方。
分享
评论 0
0
宝玉
1个月前
我写了一个自动发微信公众号的 Skill,操作 Chrome,支持图文和文章,会记住登录状态,不需要每次登录。 文章的话,提供markdown文档本地地址,会自动帮你把 Markdown 转 HTML(可选风格较少),配图会一张张粘贴进编辑器,不需要手动上传,封面图、原创设置暂时不支持,建议把封面图放文章内容。 技术上我没有使用 PlayWright MCP,因为这玩意儿太费 Tokens 了,而是用的 Chrome CDP (Chrome DevTools Protocol) 是一个允许外部程序通过 WebSocket 与 Chrome(以及 Edge、Opera 等基于 Chromium 浏览器的内核)进行通信的底层调试协议。 都是脚本操作,不怎么费 Token。 图文的话需要告诉图片地址、标题和内容,可以自动上传图片,填写标题和内容。 所有操作都不会发布,只是帮你生成草稿。 需要 Claude Code 或者其他支持 Skills 的 Agent,需要 Nodejs 运行环境(但如果你装了 Claude Code 应该就支持 Node) Skill 地址: 安装说明: 这是我分享的 Skill 之一,还有一些其他 Skills,注意其中 gemini-web 的 skill 可以帮你用你的 Gemini 账号画图,需要自己登录一下。不保证它的稳定性和安全性,不过我自己也在用。
分享
评论 0
0
宝玉
1个月前
一个高手说,我代码都是 Claude Code 写的,这其实不能说明 AI 就能自己写代码了,恰恰是用 AI 的人水平的体现,他们知道怎么去正确提示,知道结果好不好,有问题知道怎么解决。 否则为啥只有一个 Claude Code,每个人都可以让 AI 写一个 Claude Code 出来。
分享
评论 0
0
宝玉
1个月前
Claude 的新功能 Cowork:让 AI 真正帮你干活 Claude Code 本来是给程序员写代码用的,结果大家发现它整理文件、做表格、写报告也很顺手。Anthropic 索性把这套能力包装成了 Cowork,让不会写代码的人也能用上。 【1】Cowork 到底能干啥 你选一个电脑上的文件夹,Claude 就能在里面读文件、改文件、创建新文件。 听起来简单,用起来挺香。比如你下载文件夹乱成一锅粥,让它帮你分类重命名。或者你有一堆消费截图,它能整理成一张 Excel 表。再比如你写了几页凌乱的笔记,它能帮你理顺思路、输出初稿。 和普通对话不一样的是,Cowork 模式下 Claude 更像个真正的助手。你布置任务,它自己规划步骤、一步步执行,中间会告诉你进度。如果你用过 Claude Code,这感觉会很熟悉,因为底层技术是同一套。 【2】还能更强 基础功能只是起点。Cowork 可以接上你已有的连接器,比如 Google Drive、Slack。它还内置了一批技能,能更好地生成文档、PPT 之类的文件。再配上 Chrome 浏览器插件,Claude 甚至能帮你操作网页。 这套设计让工作流变得很丝滑。你不用反复给 Claude 喂上下文,也不用手动把输出转成正确格式。甚至不用等它做完一件事再布置下一件,可以连续丢任务让它并行处理。用 Anthropic 的话说,这感觉不像你一句我一句地聊天,更像给同事留便签。 【3】和 Claude Code 共享技能生态 对 Claude Code 用户来说有个好消息:Cowork 能读取你本地的 文件和自定义 Skills。 我测试了一下,选择工作文件夹后,Cowork 能看到里面的 并按指令执行。我在 Claude Code 里配置的写作风格技能,Cowork 里也能直接调用。技能分两类:Anthropic 官方提供的(docx、pptx、pdf 这些)和用户自己创建的,两类都能用。 换句话说,你在 Claude Code 里攒下的工作流配置可以直接迁移过来。Cowork 不是另起炉灶,是同一套体系的图形化入口。 有个坑要注意:Cowork 跑在 Linux 虚拟机里,而你的 Mac 是 ARM 架构。如果技能依赖 node_modules 或本地特定环境(比如浏览器 cookies、特定架构的二进制文件),就跑不了。我试着调用一个需要运行 nodejs 脚本的图片生成技能,报错了——架构不兼容。纯文本类的配置(、写作规范)没问题,涉及本地脚本的技能可能需要额外适配。 【4】安全边界在哪里 Claude 只能访问你明确授权的文件夹和连接器,动作比较大的时候会先问你。但有几件事得提前知道:Claude 可能会误解你的指令,如果你说"清理一下这个文件夹",它可能真的把文件删了。指令要说清楚。 另一个风险是提示词注入,就是攻击者在网页内容里藏一些指令,试图劫持 Claude 的行为。Anthropic 说他们做了防护,但这个领域整个行业都还在摸索。 这些风险不是 Cowork 特有的,只是很多人可能是第一次用这种更自主的 AI 工具。官方建议:刚开始用的时候谨慎点,别一上来就让它处理重要文件。 【5】现在能用吗 Cowork 目前是研究预览版,只对 Mac 上的 Claude Max 订阅用户开放。Anthropic 想先看看大家怎么用、有什么反馈,然后快速迭代。后面会加跨设备同步,也会出 Windows 版。 这一步到是意料之中,因为 Claude Code 现在已经被用在很多编程意外的领域,但是门槛略高,限制了使用群体是程序员或者懂点技术的用户,而且脚本执行权限会有很多安全上的隐患。Cowork 一下子降低了使用的门槛,通过图形化界面就可以操作,并且也让使用更安全。 现在还是早期版本,能做的事有限,安全机制也在完善中。但如果你是 Max + Mac 用户,值得一试。
分享
评论 0
0
宝玉
1个月前
下面是一套提示词,可以把输入内容拆解为小红书风格的系列信息图,输出每张图片的独立生成提示词,将每一张图片提示词放到 Gemini Pro 中用 Nano banana Pro 生成,就可以得到一系列的小红书图片。 你可也可以直接用我分享的 GEM: 这是一个示例会话: 这套提示词可以在 Gemini、Claude、ChatGPT 等大模型中使用,帮你生成每一页图片提示词,然后你也可以对生成的图片提示词进行微调。但是画图时还是 nano banana Pro 画图效果最好。 以下是完整提示词(请根据需要酌情修改):
分享
评论 0
0
宝玉
1个月前
还没到,skill 要用好: 1. 你要知道怎么设计 skill 2. 在 Skill 中你绕不开需要脚本/工具来让 Agent 调用 你要是不会编程不懂一点软件工程,你做不好 1,你不会编程做不好 2
分享
评论 0
0
宝玉
1个月前
Anthropic 有一帮天才的工程师,同时有个特别小心眼的 CEO,不知道这怎么组合到一起的,刚又断了 xAI 访问 Claude 模型的权限,一如当年断了 OpenAI 和 Windurf。 并且还限制了 OpenCode 中访问 Claude Code 订阅。 小心眼!
分享
评论 0
0
宝玉
1个月前
推荐王老师的教程,另外刚才测试了一下王老师写的自动发布 X 文章的 Skill,真的是强大,而且给我很大启发,理论上来说基于这个思路可以做一个发布微信公众号或者其他平台的 Skill。 原理是用脚本控制浏览器,用剪贴板把文字和图片粘贴到编辑器,最有创意的是,根据文字定位到图片要插入的位置👍
分享
评论 0
0
宝玉
1个月前
看看现在的 Claude Code 的更新速度和产品能力,再对比下 codex cli 现在这么弱的交互和迭代速度,我觉得当初决定用 Rust 重写的该就地开除!一起开除的还有现在的 codex 产品团队,subagent、plan mode 这些好东西都不支持!
分享
评论 0
0
宝玉
1个月前
华尔街日报最新发了一篇长文《How Google Got Its Groove Back and Edged Ahead of OpenAI》,讲的是 Google 在 AI 竞赛中如何从落后到反超的故事。 2024 年 8 月的一个凌晨两点半,Google 的一位 AI 项目经理 Naina Raisinghani 正在上传 DeepMind 实验室的最新成果,一个超快的图像生成器。她需要给它取个名字才能提交到 LM Arena 排名平台,但这个点没人在线。 于是她随手用朋友给她起的两个外号拼了一个:Nano Banana🍌。 几天后,Nano Banana 冲上排名榜首,在 X 上成为热门话题,用量远超 Google 预期。到 9 月,Gemini App 成了苹果应用商店下载量第一。11 月,Google 发布了迄今最强的 Gemini 模型,在多项指标上超越 ChatGPT,股价大涨。 OpenAI 内部随即发出 Code Red。 时间拨回 2015 年,Pichai 刚接任 Google CEO,那时候 AI 还只是学术圈的事。2016 年他发了一篇博客,说过去十年是智能手机的时代,未来十年将是 AI 优先的时代。 其实 Google 早就在布局。2011 年成立了 Google Brain,联合创始人 Jeff Dean 参与开发了神经网络技术,这是今天大语言模型的基础。后来又收购了伦敦的 DeepMind,创始人 Demis Hassabis 是个国际象棋神童,后来因为 AlphaFold 拿了诺贝尔奖。 还有一步棋当时不太引人注目:Google 开始自研 AI 芯片。他们认为语音识别这类应用会需要大量算力,于是设计了 TPU(张量处理单元),比传统 CPU 和 GPU 更省电。这步棋后来被证明是关键。 不过 Google 一开始对聊天机器人很谨慎。一些高管和研究员担心安全问题,早期模型很容易被诱导出种族歧视或性别歧视的回答。前 Google Brain 员工 Julia Winn 说,Google 对这类风险看得比她待过的任何公司都重。 这种谨慎让一些研究员很沮丧,有的选择了离开。 2022 年 8 月,Google 发布了一个叫 LaMDA 的聊天模型,只开放给少数人测试。测试 App 叫 AI Test Kitchen,有三个功能:想象它、列出它、聊狗。对,第三个功能只能聊狗。 三个月后,OpenAI 发布了 ChatGPT。五天内,一百万人注册。用户没有太多限制,想聊什么聊什么。 Google 内部一些在 AI 上耕耘多年的员工气坏了。分析师和投资者开始质疑:Google 是不是要错过科技史上的下一波大浪? 2023 年 1 月,Jeff Dean、Demis Hassabis 和新加入的机器人专家 James Manyika 向董事会汇报了打造最强模型的计划。 但 Google 等不及了,需要先推一个产品出来。2 月,他们匆忙发布了基于 LaMDA 的 Bard。 发布会翻车了。宣传视频里,Bard 被问到韦伯望远镜的问题,回答说它拍了第一张系外行星照片。这是错的。Alphabet 股价当天跌了 8%。 差不多同一时间,已经退休的联合创始人 Sergey Brin 在一个派对上碰到了 OpenAI 的研究员 Daniel Selsam。Selsam 问他:ChatGPT 这么厉害,作为计算机科学家你不心动吗?怎么不回来全职搞 AI? Brin 觉得他说得有道理,于是回归了。 2023 年大部分时间,Google 都在努力整合内部的 AI 力量。Google Brain 偏研究,DeepMind 偏产品,两边文化不同,合并后产生了不少摩擦。 不过 Google 有一个巨大优势:OpenAI 需要融资,Google 可以从自己几百亿的利润里拿钱做研发。 但 Google 还有一个难题:怎么在拥抱生成式 AI 的同时,不把自己的摇钱树给弄死?Google 占了网页搜索市场 90% 的份额,这是广告业务的根基。 为了弄清楚 AI 搜索应该长什么样,Google 启动了一个叫 Project Magi 的多团队项目,由后来成为搜索副总裁的 Liz Reid 牵头。 Reid 说,难点在于当答案不在单个网页上时,怎么让搜索快速给出清晰的回答。人们不只是在用搜索,而是在依赖搜索。搞砸了的话,你妈、你朋友、你孩子都会来找你算账。 2023 年底,Google 发布了第一版 Gemini。OpenAI 的 ChatGPT 主要用文本训练,Google 的 Gemini 从一开始就用文本、代码、音频、图像和视频一起训练。这是技术野心更大的方案,虽然开发时间更长,但后来证明是值得的。 2024 年 5 月,Google 推出了 AI Overviews,在搜索结果顶部显示 AI 生成的摘要。用户开始进行更复杂的搜索。随后 Google 开发了 AI Mode,一种聊天机器人式的搜索选项。 Reid 说,经过无数次迭代,团队开始发现自己不再只是为了测试而用它,而是真的想用它。 Brin 回来后做的很多工作是帮 Gemini 挑毛病。他还促成了一笔 27 亿美元的收购,把两位离开 Google 创业的 AI 研究员 Daniel De Freitas 和 Noam Shazeer 带了回来。这两人后来参与领导 Gemini 的开发。 2024 年 8 月,Nano Banana 爆火。负责 Gemini App 和 Google Labs 的 Josh Woodward 把这次发布称为成功的灾难:全球用户生成了数十亿张图片,Google 一度找不到足够的算力,只能紧急借用服务器。 到 10 月,Gemini 月活用户从 7 月的 4.5 亿涨到了 6.5 亿。 11 月 Gemini 3 发布又造成算力瓶颈。但 Google 十多年前就在准备这一天了。他们自研的 AI 芯片成了竞争优势,最新的 Ironwood 芯片大幅降低了 AI 模型的运行成本。 11 月底传出消息,Google 正在和 Meta 谈判,要卖给他们价值数十亿美元的芯片。这个消息让 Nvidia 股价当天跌了 7%。 Pichai 在 12 月的内部备忘录里写道:我们以很棒的姿态结束了 2025 年。想想一年前我们在什么位置,这个进步令人难以置信。 Google 用了十多年的积累,经历了 ChatGPT 的冲击和 Bard 的翻车,整合了内部资源,最终在 2025 年底完成逆袭。当然,OpenAI 后来也发布了更强的 ChatGPT,用户量仍然远超 Gemini。这场 AI 竞赛远没有结束。
分享
评论 0
0
宝玉
1个月前
Claude Code 迭代很快,已经到了 2.1.1 版本,这次有一堆更新,三个值得关注的更新: 1)技能热重载终于来了。改完 skills 文件夹里的东西立刻生效,不用重启 session 2)新增 context: fork 选项,技能和斜杠命令可以在独立子智能体里跑,不污染主对话上下文。那些需要大量中间步骤但你不想看全过程的任务,现在干净多了 3)子智能体(Task 工具)被拒绝权限后不再直接躺平,会自己尝试其他方案继续干活。这让 agentic 工作流更有韧性,不会因为一个权限卡住整个流程
分享
评论 0
0
宝玉
1个月前
有事没事别乱优化性能😂 刚看到的一条评论: > 一旦规模化,即使是你写的 Bug 也会拥有用户。 我大学毕业后的第一份工作是在一家公司,入职时有一个盛大的新员工培训研讨会。有一天,他们给我们讲了一个故事:那是 90 年代中期,技术团队把软件的加载时间从 5 分钟 优化到了 30 秒。 结果,客户的负面反馈瞬间爆发。 这次加载时间的优化,竟然摧毁了那家公司的企业文化。 原来,在优化之前,大家到了办公室,打开电脑,利用那 5 分钟的加载时间聊天、喝咖啡,开启轻松的一天。而现在,还没等他们从办公桌前站起来,软件就已经准备好,催着他们干活了! 这个故事的寓意——以及上面那句引言——并不是叫你不要去改进事物。相反,它是一个提醒:你构建的软件不仅仅存在于 PRD(产品需求文档) 或测试套件中。它是一个在现实世界中与人交互的系统。人们会围绕它养成习惯,开发出变通的方法(Workarounds),甚至为了实际使用场景而依赖某些 Bug。 这对作为软件工程师的你来说至关重要:你必须理解软件的真正用途和现实世界的使用方式。你的工作不是为了完成产品经理给的一堆工单(Tickets),你的工作是构建能够解决用户问题的软件。 链接:
分享
评论 0
0
上一页
1
2
3
4
5
6
7
8
9
10
11
12
13
...
37
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞