宝玉
5个月前
宝玉
5个月前
OpenAI 的经济研究团队和哈佛大学经济学家 David Deming 共同完成发布了一项迄今规模最大的ChatGPT使用情况研究报告。这份报告首次深入展现了这种被广泛普及的AI技术,如何通过提高人们的工作效率和改善个人生活而创造经济价值。 谁在使用ChatGPT? 随着AI技术变得越来越普及,用户之间的差距也在逐渐缩小。截至2025年中期,ChatGPT的男女用户比例已经接近整体成年人口比例。2024年1月,能够识别性别的用户名中,女性用户仅占37%;到了2025年7月,这一比例已上升到超过一半(52%)。 此外,ChatGPT在全球范围内被广泛采用,尤其是在中低收入国家增长迅速。到2025年5月,低收入国家用户的增长速度,是高收入国家的四倍以上。 人们用ChatGPT来做什么? 用户使用ChatGPT最主要的原因是解决日常问题。四分之三的对话都集中在获取实用指导、寻找信息以及写作上。其中,写作是最常见的工作任务,而编程和自我表达类的使用场景仍然属于小众活动。 从另一个角度来看,人们使用ChatGPT的模式可分为三类:询问(Asking)、行动(Doing) 和 表达(Expressing)。 - 大约一半的消息(49%)属于“询问”,这是增长最快、用户评价最高的类别,说明人们更倾向于将ChatGPT视作顾问,提供建议和决策参考,而非简单地完成任务。 - “行动” 类占40%,其中约三分之一与工作相关,包括撰写文字、规划任务和编程。人们会让模型帮助生成具体成果或完成实际工作。 - “表达” 类占11%,主要涉及个人的反思、探索和娱乐,而非明确的问题求助或具体任务。
宝玉
5个月前
ChatGPT 和 Claude 都有记忆功能,但两者实现原理截然不同。 以前研究 Claude Code 的时候,发现它不是基于 RAG 而是基于 grep 工具使用正则检索代码,没想到 Anthropic 把这一点进一步发扬光大,在 Claude 网页版的记忆功能中,也是基于实时搜索来做的,跟 ChatGPT 的记忆功能思路完全不一样。 ChatGPT 的记忆模式是自动化、魔法般的个性记忆,不需要用户提醒,自动的悄悄记录用户的使用细节。所以以前经常有提示词让 ChatGPT 根据对自己的记忆来描述自己或者画像。 当新开对话,ChatGPT 会把对用户的记忆作为上下文一起发给模型,让你觉得 GPT 很懂你。当然有时候也会因为错误的记忆导致一些混乱,尤其是多人共用账号的情况。 Claude的记忆模式是基于检索的,每次新开对话,都没有任何任何历史记忆,只有当你明确告诉 Claude 需要用到某条记忆内容,它才会从真实的历史记录中精准提取信息。 Claude的记忆功能分为两种:一是基于关键词搜索历史对话,二是以时间线为索引检索近期聊天。 Claude 这种设计很自然地适合专业用户——尤其是程序员、研究人员或科技爱好者。他们通常有清晰的意图,知道自己什么时候需要AI调用记忆。 而相对的,ChatGPT构建的并非历史记录检索,而是一种自动生成的用户画像。这种模式无需用户主动操作,也更符合大众消费产品的使用直觉:一切皆自动,一切皆便利。 对于这两种不同的记忆模式很难说孰优孰劣,各有优缺点。其实我个人还偏好 Claude 的一点,按需检索,而不会收到历史记录影响。 也许更好的模式是两者结合。
宝玉
5个月前
知名主持人塔克·卡尔森(Tucker Carlson)近日在对 OpenAI 首席执行官山姆·奥特曼(Sam Altman)的访谈节目中,当面追问 Sam Altman,就去年 OpenAI 前工程师苏奇尔·巴拉吉(Suchir Balaji)的离奇死亡事件提出质疑,引发了舆论关注。 苏奇尔·巴拉吉曾是 OpenAI 重要的研究人员,2024年曾公开讨论过大语言模型(LLM)训练的版权法律风险问题,并被《纽约时报》等媒体报道为可能出庭作证、参与针对 OpenAI 的诉讼。然而,2024 年 11 月,他被发现死于旧金山的家中,警方初步调查结论为**疑似自杀**。旧金山市法医部门于2025年2月发布官方报告,结论确认巴拉吉死于单一枪伤,现场未发现他杀证据,警方随后结案。 然而,巴拉吉的家属一直质疑官方的“自杀”结论,认为此事仍存诸多疑点,比如: - 为什么案发现场的监控摄像头线路被切断? - 为什么警方未解释他为何在两个不同房间均留下血迹? - 现场为何有不属于死者的假发? - 一名刚刚下单 DoorDash 外卖的年轻人,为何会在数分钟后突然开枪自杀? - 由第三方尸检指出死者可能存在第二处枪伤、搏斗痕迹及头部外伤等情况,却未被官方报告提及。 卡尔森在节目中表示,这些家属提出的疑点“令人极度不安”,并当场追问奥特曼,要求他对外界的质疑作出解释。从奥特曼的反应来看,他明显感到不适与紧张,视频随即引发了公众对于此案的再次热议。 目前,旧金山市官方仍坚持原先的调查结论,即巴拉吉属于自杀事件。但面对这些尚未完全解释的疑点,家属与部分公众人士仍在推动更深入的调查。 --- 视频文稿 --- 塔克·卡尔森(Tucker Carlson): 之前有一名程序员指责你们公司窃取别人的成果,还不给报酬,后来这名程序员就被谋杀了。这到底怎么回事? 山姆·奥特曼(Sam Altman): 那也是一场悲剧。他是自杀的。 塔克·卡尔森: 你真的相信他是自杀的吗? 山姆·奥特曼: 我真的这么认为。 塔克·卡尔森: 你看过相关的证据吗? 山姆·奥特曼: 他算是我的朋友吧。可能不是最亲密的朋友,但也是在OpenAI工作很久的人。他去世的消息让我很震惊。我花了很多时间去了解整件事,看了所有我能找到的资料,我觉得确实是自杀。 塔克·卡尔森: 你为什么这么肯定? 山姆·奥特曼: 现场找到的枪是他自己购买的。我知道说起来很残酷,但我确实看了完整的法医报告。 塔克·卡尔森: 你不觉得这看起来根本不像自杀吗?我个人认为他显然是被谋杀的。你看,现场明显有搏斗的痕迹,监控摄像头的线也被人剪断了。而且他刚点了外卖,刚从加州的卡塔利娜岛和朋友们度假回来。没有任何迹象表明他有自杀倾向,既没留遗书,也没有表现出任何异常。他刚跟家人通了电话,之后就发现他死了,而且房子里多个房间都有血迹。这种情况根本不可能是自杀,很明显是谋杀。你跟警方谈过这件事吗? 山姆·奥特曼: 我没有和警方交流过。 塔克·卡尔森: 他的母亲认为是你下令谋杀了他。 山姆·奥特曼: 你也相信这是真的吗? 塔克·卡尔森: 我只是提出家属的说法…… 山姆·奥特曼: 但你刚刚说了,你自己相信吗? 塔克·卡尔森: 我觉得这件事值得深入调查。我不是说你一定牵涉其中,但当有人指控你们公司犯罪之后却突然被发现死亡,并且现场有明显的搏斗痕迹,这种情况我们不能轻易就说“啊,这是自杀”。尤其当这个人毫无抑郁症状时,就更不能忽视。我想如果你真的把他当朋友,或许应该去和他母亲谈谈。 山姆·奥特曼: 我提出过见面,但她不愿意见我。 塔克·卡尔森: 你能理解外界对这件事的担忧吗?大家会觉得,“会不会真的发生了这种事情?” 山姆·奥特曼: 我还从来没有经历过这样的采访,被暗示涉嫌…… 塔克·卡尔森: 我绝对没有指控你的意思。我只是转达了他母亲的说法。我客观地看了所有证据,真的看不出有任何明显的自杀迹象。我不明白,旧金山市的警方为何能无视现场的可疑之处,直接将其定性为自杀?这太奇怪了。 山姆·奥特曼: 你应该能理解,这听起来像是在指控我。 塔克·卡尔森: 我再澄清一下,我绝对没有指控你做了什么坏事。但我觉得这件事值得搞清楚。我无法理解旧金山警方为何草草下了结论,不进一步调查。 山姆·奥特曼: 据我所知,警方调查了不止一次。说实话,我一开始也觉得挺可疑的。 塔克·卡尔森: 没错。 山姆·奥特曼: 后来又出了一份新的调查报告,更多细节出来后,我才觉得,“哦,也许真的是自杀”。 塔克·卡尔森: 是什么改变了你的想法? 山姆·奥特曼: 是第二份报告里提到的子弹进入的角度,还有现场推断的子弹轨迹和事发经过。 塔克·卡尔森: 这些我也看过,但完全没能说服我。你看,为什么监控摄像头线被剪断了?为什么开枪自杀的人会在两个房间里都有血迹?为什么现场还有一顶不是他的假发?你听过谁在没有任何自杀倾向时刚点了外卖,然后突然就自杀了吗?我做了很多年的警察新闻记者,从未听过这么离谱的情况。 山姆·奥特曼: 这种讨论真的让我觉得很难过,我希望能对逝者表现出更多尊重。 塔克·卡尔森: 我完全理解你的感受。但我是受他家人所托在询问这个问题。他们也只是想要答案。 山姆·奥特曼: 很多人自杀前不会留下遗书,这并不罕见。有些人甚至还会点自己喜欢的外卖再结束生命。这是一起悲剧。 塔克·卡尔森: 但他的家人坚定地认为他是被谋杀的。这就是我问这些问题的原因。 山姆·奥特曼: 如果我是他的家人,我也一定会想要真相,而且可能任何解释都无法真正让我感到安慰。 塔克·卡尔森: 没错。 山姆·奥特曼: 所以我能理解这种心情。但同时我也非常希望能给予他和他的家人应有的尊重。 塔克·卡尔森: 我理解,也非常尊重他的家人。这次采访本身就是他们的意愿。我强调,我并没有指控你参与此事,但我确实觉得所有的证据都指向谋杀。我无法理解旧金山市当局对这么多疑点视而不见,这件事确实让人对整个调查程序失去了信心。 山姆·奥特曼: 我只是想说,当初第一次看到这些信息时,我也觉得可疑。 塔克·卡尔森: 没错,所以并不是我故意挑刺吧? 山姆·奥特曼: 只是后来看到更多细节之后,我才接受了自杀的说法。 塔克·卡尔森: 而这些新的细节,我看了却依旧无法接受。我真的很困惑。 山姆·奥特曼: 说到这里,我真的很难受。这种讨论方式让我感到有些不尊重。 塔克·卡尔森: 我完全能理解你的感受。我只是代表他的家人提出这些疑问,希望能弄清楚到底发生了什么。
宝玉
5个月前
GitHub 上的 twitter/the-algorithm 最近更新了,其实我有拿各大 AI Agent (Claude Code、Codex、Gemini Cli)去帮我调研一下都有啥影响推文权重的,不过结论都不怎么样,这篇分析的看起来相对靠谱一点,直接先引用一下。 推特有个信用分系统(Tweepcred),这个很关键,它将每位用户标记为或高或低的信用评分,决定着你所发推文能够抵达的受众数量。 哪些行为会影响流量呢: - 使用“冒犯性语言”,即刻被大幅降权,流量损失高达80%; - 用户名冒犯性也会受到同样惩罚;甚至全部使用大写字母发帖,也会因为被视为“大喊大叫”而遭受限流; - 最令人困惑的是,如果帖子中包含外链,竟然也会遭受一定程度的惩罚。(所以大家现在第一帖都不放外链了) X 算法并未公开定义究竟什么算“冒犯”,这部分都在一个adult_tokens.text文件中,没发布。 另外还有一个很多推友遇到过的 shadow banning 确实存在,如果频繁被多人举报,打上“低质量推文”、“恶意内容”、“垃圾信息”等标签,你的流量就会受影响。 算法也包含了一些流量加持机制: - 用户在你的视频内容上停留超过10秒,或在文字内容上停留超过2秒,都会带来显著的流量提升; - 用户的引用、收藏等主动互动,被视作极高质量的互动,能有效推动内容进一步扩散; - 最现实的一点:X 的“蓝标认证”(Blue check mark)至关重要 建议: 1. 别使用冒犯性语言。 2. 持续提高信用分(不知道哪里可以查); 3. 尽可能创造能吸引高质量互动的内容,比如被引用或收藏; 4. 媒体内容注重质量而非数量,尤其是视频一定要让人停留超过10秒; 5. 善待你的读者,避免被举报或拉黑; 6. 尽快获取蓝标认证; 7. 内容撰写和设计都要有意识地促使读者停留超过2秒。 当然这都是原作者的分析结果,建议有兴趣的可以用 AI Agent 去交叉验证一下看是不是靠谱。
宝玉
5个月前
如何发掘 AI 应用场景 相对来说,我还比较善于发掘一些日常工作生活中能应用到 AI 的场景,比如上面这些场景,对我自己来说都是蛮实用蛮有价值的,相信很多人看到我的应用和提示词,也能照葫芦画瓢应用起来,说不定也能提升效率。 我经常会想这三个问题: 1. 日常生活中我有什么问题没有被解决好,让我很麻烦或者很痛苦的 2. AI 现在能做什么事情了 3. 如果这件事用 AI 做,该怎么做 比如给孩子 PS 证件照让我很痛苦、为 PPT 找配图很痛苦、为公众号文章配图很烦、要给孩子讲故事希望有好玩的图,这些都是痛点。 如果我有类似这种费时费力的痛点问题,我会习惯性想借助工具解决,现在有 AI 了就会想用 AI 解决,这已经成了我自己的一个习惯性的反应。 但有痛点不代表 AI 就能解决问题,比如之前 GPT-4o 画图能力不错,但 PS 证件照,或者写中文就不行,因为它图像一致性不好,中文支持也不好,所以还需要了解 AI 能力边界在哪里。这时候只能等 AI 模型的进化。 然后模型升级后,比如 nano banana 发布了, Seedream 4.0 发布了,AI 有了新的能力,这时候一些以前不能解决或者解决的不好的痛点问题,就可以再用新的模型新的技术去尝试,看是否解决了。 其实前两步对普通人来说都不难,难的是怎么做,比如你知道 AI 生成封面图,能生成小红书图片,但是怎么写提示词呢?
宝玉
5个月前
宝玉
5个月前
在正式对话结束后,扎克伯格私下凑到特朗普耳边,略带歉意地说道:“抱歉啊,总统,我刚才没准备好……我不太确定您心里想的是哪个数字。” 不料,这段本以为是私人交流的话却被桌上的麦克风悄悄录了下来 --- 硅谷巨头们频频造访华盛顿已不是什么新鲜事。他们常常带着巨额投资计划前来示好政界。就在上个月,苹果CEO蒂姆·库克就带着一座苹果造型的玻璃摆件登上椭圆形办公室,宣布未来四年将再投1000亿美元,使苹果对美投资总额达到惊人的6000亿美元。 或许正是这个数字,让Meta公司CEO马克·扎克伯格最近在白宫出席晚宴时,倍感压力。当时,他与特朗普总统就坐在一起,特朗普突然凑近问道:“你们未来几年准备投多少钱?” 扎克伯格明显被这个突如其来的问题打了个措手不及,他有些尴尬地回答道:“呃,我觉得可能至少会达到6000亿美元,到2028年吧。” 特朗普一脸若有所思地重复:“那可不少啊,真的不少。” 没错,这笔投资的确堪称天文数字。然而,更有趣的是,就在正式对话结束后,扎克伯格私下凑到特朗普耳边,略带歉意地说道:“抱歉啊,总统,我刚才没准备好……我不太确定您心里想的是哪个数字。” 不料,这段本以为是私人交流的话却被桌上的麦克风悄悄录了下来,一时间成了媒体竞相报道的焦点。 6000亿美元到底有多大?对于Meta来说,这意味着公司接下来几年要大幅增加在AI领域的投入。要知道,Meta今年7月才公开表示,预计2025年全年支出会在1140到1180亿美元之间。公司CFO苏珊·李(Susan Li)甚至表示:“我们还没开始2026年的预算规划呢。” 而明年Meta最大的成本主要集中在基础设施和员工薪酬,预计年度开支增速为20%至24%。这么看来,到2028年达到6000亿美元的投资目标实在野心勃勃,甚至有些夸张了。
宝玉
5个月前
推荐阅读:《高效学习:构建知识的20条黄金法则 (Effective learning: Twenty rules of formulating knowledge)》 我们都曾是知识的“囤积症”患者。 我们习惯于收藏长文、划下整段的重点、将密密麻麻的定义复制粘贴。在这个过程中,我们获得了一种“已经学到”的虚假满足感。然而,当需要调用这些知识时,大脑却一片空白。我们以为是记忆力出了问题,但真相可能恰恰相反:问题不在于我们记不住,而在于我们试图记忆的“知识”本身,就是无法被记忆的。 这听起来像个悖论,不是吗?我们总以为学习是“合并同类项”,是构建宏大的知识宫殿。但这篇文章将彻底颠覆这个预设。它提出了一个近乎于物理定律的观点:真正高效的学习,不是“加法”,而是“除法”——一种将知识进行原子化拆解,直至其不可再分的精密切割。 这篇文章的作者,Piotr Wozniak,不是一位空谈理论的教育家,他更像是一位认知的“工程师”。作为记忆软件SuperMemo的创造者,他从海量用户的记忆数据中,窥见了大脑记忆与遗忘的底层代码。他发现,知识的“形态”远比我们投入的“努力”更重要。一个臃肿、模糊、充满干扰的知识点,就像一个设计拙劣的程序,无论你运行多少次,都只会不断崩溃。 文中那个关于“死海”的例子,就是一面能照出我们所有人学习误区的镜子。它会逼你直面一个残酷的事实:你以为的“融会贯通”,很可能只是“囫囵吞枣”;你引以为傲的“知识体系”,或许只是一堆无法被大脑精准调用的松散素材。 在你下一次打开笔记本、准备划下长长的重点之前,你需要先阅读这篇文章。因为它所提供的,不是20条技巧,而是20把思想的手术刀,帮你剔除知识中所有无效的“脂肪”,只留下坚实的“肌肉”。这关乎的,不只是学习效率,更是你与知识之间最底层的关系。
宝玉
5个月前
FT:计算机科学家杰弗里·辛顿:“AI会让少数人更富,多数人更穷” “人工智能教父”畅谈:人类的“唯一希望”,中国的优势,以及机器何时将超越我们 我提前了十分钟到,但杰弗里·辛顿(Geoffrey Hinton)已经等在了多伦多一家雅致的餐吧——里士满车站(Richmond Station)的门厅里。这位计算机科学家——人工智能领域的先驱、诺贝尔物理学奖得主——之所以选在这里,是因为他曾与加拿大总理贾斯汀·特鲁多(Justin Trudeau)在此共进午餐。 我们穿过一个充满工业风、感觉很潮的酒吧,来到一间嘈杂的后厅,里面已经坐满了食客。辛顿摘下他那只旧旧的绿色谷歌科学家背包——这是他之前工作单位的纪念品。因为慢性背伤,他需要用背包当坐垫,好让身体坐直。 他像猫头鹰一样,白发从眼镜框边探出来,低头看着我,问我大学学的是什么专业。“因为如果对方有科学学位,你解释事情的方式就会不一样。”我没有。而特鲁多,至少还“懂点微积分”。 这位被誉为“人工智能教父”的学者,如今已习惯于向世人解释他毕生的心血,因为这项技术正开始渗透到我们生活的每个角落。他见证了人工智能如何从学术圈——他几乎整个职业生涯都在那里度过,包括在多伦多大学的二十多年——走向主流,被那些手握重金、渴望触达消费者和企业的科技公司推向风口浪尖。 辛顿因在20世纪80年代中期的“基础性发现与发明”而获得诺贝尔奖,这些成果促成了“基于人工神经网络的机器学习”。这种大致模仿人脑工作方式的方法,为我们今天触手可及的强大人工智能系统奠定了基础。 然而,ChatGPT的问世以及随之而来的人工智能开发热潮,让辛顿停下了脚步。他从一个技术的加速者,转变为一个对其风险大声疾呼的警示者。在过去的几年里,随着该领域的飞速发展,辛顿变得极度悲观,他指出人工智能有可能对人类造成严重伤害。 在两个小时的午餐中,我们谈论了许多话题:从核威胁(“一个普通人在AI的帮助下很快就能制造出生物武器,这太可怕了。想象一下,如果街上的普通人都能制造核弹会怎样”)到他自己使用AI的习惯(它“非常有用”),再到聊天机器人如何在他最近的分手中意外地成了“第三者”。 “这对我来说显而易见。你和这些东西交谈,问它们问题,它能理解,”辛顿继续说道。“技术圈里几乎没人怀疑这些东西会变得更聪明。” 辛顿在该领域的泰斗地位毋庸置疑,但也有人,甚至包括业内人士,认为现有技术不过是一种复杂的工具。例如,他的前同事、图灵奖共同得主杨立昆(Yann LeCun)——现任Meta首席人工智能科学家——就认为,支撑ChatGPT等产品的大语言模型(Large Language Models, LLM)能力有限,无法与物理世界进行有意义的互动。对于这些怀疑论者来说,这一代人工智能还无法达到人类的智能水平。 辛顿说:“我们对自己的心智知之甚少。”但对于人工智能系统,“是我们创造了它们,构建了它们……我们的理解水平远超对人脑的理解,因为我们知道每个神经元在做什么。”他说话时充满信心,但也承认存在许多未知。在整个谈话过程中,他很坦然地陷入长时间的思考,然后得出结论:“我不知道”或“没头绪”。 辛顿于1947年出生在伦敦西南部的温布尔登,父亲是昆虫学家,母亲是学校教师。在剑桥大学国王学院,他辗转于多个学科,最终选择了实验心理学作为本科学位,并在20世纪70年代初转向计算机科学。尽管神经网络(neural networks)曾被计算机科学界轻视和摒弃,但他始终坚持研究,直到2010年代取得突破,硅谷才开始拥抱这项技术。 当我们喝着汤时,房间里嘈杂的声响,与这位轻声细语、深思熟虑地谈论人类生存问题的长者形成了鲜明对比。他激情澎湃地提出了一个方案,来应对那些由“雄心勃勃、争强好胜的男人们”开发的现代人工智能系统所带来的风险。这些人设想人工智能成为个人助理。这听起来似乎无伤大雅,但辛顿不这么认为。 “当助理比你聪明得多的时候,你如何保住自己的权力?我们只知道一个例子,那就是一个智慧得多的生物被一个智慧得少的生物所控制,那就是母亲和婴儿……如果婴儿无法控制母亲,他们就会死掉。” 辛顿认为,人类“唯一的希望”是把人工智能设计成我们的母亲,“因为母亲非常关心孩子,会保护孩子的生命”和成长。“这才是我们应该追求的关系。” “这可以作为你文章的标题,”他笑着说,用勺子指了指我的记事本。 他告诉我,他以前的研究生伊利亞·蘇茲克維(Ilya Sutskever)也认同这个“母婴”方案。蘇茲克維是顶尖的人工智能研究员,也是OpenAI的联合创始人。在试图罢免首席执行官萨姆·奥尔特曼(Sam Altman)失败并离开OpenAI后,他现在正在自己的初创公司Safe Superintelligence开发新系统。但我猜测,奥尔特曼或埃隆·马斯克(Elon Musk)更有可能赢得这场竞赛。“是的。”那你更信任他们中的哪一个? 他停顿了很久,然后回忆起2016年共和党参议员林赛·格雷厄姆(Lindsey Graham)被问及在唐纳德·特朗普(Donald Trump)和特德·克鲁兹(Ted Cruz)之间选择总统候选人时的一句话:“这就像是被枪杀还是被毒死。” 说到这里,辛顿建议换个安静点的地方。我试图吸引忙碌的服务员的注意,但没成功。他却突然站起来开玩笑说:“我去跟他们说,我可以说我跟特鲁多一起来过这儿。” 换到门口的吧台高脚凳上坐定后,我们讨论了人工智能何时会达到超级智能(superintelligent)——届时它可能拥有超越人类的谋略。“很多科学家都认为在5到20年之间,这是最靠谱的猜测。” 虽然辛顿对自己的命运很坦然——“我已经77岁了,反正也快到头了”——但许多年轻人可能会对这种前景感到沮丧;他们该如何保持积极? “我真想说,‘他们为什么要保持积极?’也许如果他们不那么积极,反而会做得更多,”他用一个问题回答了我的问题——这是他惯常的习惯。 “假设你用望远镜看到一场外星人入侵,10年后就会抵达地球,你会说‘我们如何保持积极?’吗?不,你会说,‘我们到底该怎么应对?’如果保持积极意味着假装这一切不会发生,那人们就不应该保持积极。” 辛顿对西方政府的干预不抱希望,并批评美国政府缺乏监管人工智能的意愿。白宫称必须迅速行动,发展技术以击败中国并保护民主价值观。巧的是,辛顿刚刚从上海回来,还倒着时差。他在那里与一些政治局成员开了会。他们邀请他去谈论“人工智能的生存威胁”。 “中国很重视这件事。很多政界人士都是工程师出身。他们理解这个问题的深度,是律师和销售员无法比拟的,”他补充道。“对于生存威胁,只要有一个国家想出应对办法,就可以告诉其他国家。” 我们能相信中国会维护全人类的利益吗?“这是次要问题。人类的生存比过得舒不舒服更重要。你能相信美国吗?你能相信马克·扎克伯格(Mark Zuckerberg)吗?” 随着我们的中等熟度三文鱼端上桌,卧在甜玉米浓汤上,科技公司开发人工智能的动机也被摆上了台面。辛顿一边说,一边用一片鱼肉蘸着盘里的酱汁。 他之前曾主张暂停人工智能开发,并签署了多封信件,反对OpenAI转型为营利性公司——马斯克正试图在一场进行中的诉讼中阻止这一举动。 谈论人工智能的力量常常被说成是纯粹的炒作,目的是为了抬高开发它的初创公司的估值,但辛顿说,“一个说法可以既对科技公司有利,又同时是事实”。 我很好奇他在日常生活中是否经常使用人工智能。原来,ChatGPT是辛顿的首选产品,主要用于“研究”,但也用来做一些诸如询问如何修理烘干机之类的事情。然而,它甚至还出现在他最近与交往多年的伴侣分手的故事里。 “她让ChatGPT告诉我,我就是个渣男,”他说,并承认此举让他很惊讶。“她让聊天机器人解释我的行为有多恶劣,然后把内容给了我。我并不觉得自己是渣男,所以这并没有让我感觉太糟……我遇到了一个我更喜欢的人,你知道的,事情就是这样。”他笑了,然后补充道:“也许你不知道!” 我忍住了八卦前任的冲动,转而提到我刚庆祝了我的第一个结婚纪念日。“希望这暂时不会成为你的问题,”他回答道,我们都笑了起来。 **辛顿吃饭的速度快得多,**所以当他接到姐姐的电话时,我松了一口气。他告诉姐姐自己正在“一家非常嘈杂的餐厅”接受采访。他的姐姐住在塔斯马尼亚(“她想念伦敦”),哥哥住在法国南部(“他也想念伦敦”),而辛顿自己住在多伦多(当然,也想念伦敦)。 “所以我用从谷歌拿到的钱,在汉普斯特德西斯公园(Hampstead Heath)南边买了一座小房子”,这样他全家,包括他从拉丁美洲领养的两个孩子,都可以去住。 辛顿的谷歌钱来自于2013年卖掉的一家公司。这家公司是他和蘇茲克維以及另一位研究生亚历克斯·克里热夫斯基(Alex Krizhevsky)共同创办的,他们构建了一个能以人类水平的准确度识别物体的AI系统。他们卖了4400万美元,辛顿本想三人平分,但他的学生们坚持让他拿40%。交易完成后,他们加入了谷歌——辛顿在那里工作了十年。 他卖公司的动机是什么?为了支付他患有神经多样性(neurodiverse)的儿子的护理费用。辛顿“估算他大概需要500万美元……而我从学术界是拿不到这笔钱的”。他在脑子里算了算,税后从谷歌拿到的钱“略微超出了”这个目标。 他于2023年离开了这家科技巨头,并在接受《纽约时报》采访时警告了该技术的危险。媒体报道称,他辞职是为了能更坦率地谈论人工智能的风险。 “每次我和记者交谈,我都会纠正这个误解。但这从没什么效果,因为那个故事太吸引人了,”他说。“我离开是因为我75岁了,我的编程能力不如从前了,而且Netflix上还有一大堆我没来得及看的东西。我已经非常努力地工作了55年,我觉得是时候退休了……而且我想,既然我都要走了,我正好可以谈谈那些风险。” 科技高管们常常描绘一幅乌托邦式的未来图景,人工智能将帮助解决饥饿、贫困和疾病等宏大问题。辛顿曾因癌症失去了两位妻子,他对医疗保健和教育的前景感到兴奋——教育是他非常关心的领域,但对其他方面则不然。 “实际会发生的是,富人将使用人工智能来取代工人,”他说。“这将造成大规模失业和利润的急剧增长。它会让少数人变得更富,而大多数人变得更穷。这不是人工智能的错,这是资本主义制度的错。” 奥尔特曼和他的同行们曾建议,如果劳动力市场对人口来说变得太小,可以引入全民基本收入(universal basic income),但这“无法解决人的尊严问题”,因为人们从工作中获得价值感,辛顿说。他承认想念他的研究生们,可以和他们碰撞想法或向他们提问,因为“他们年轻,理解事物更快”。现在,他转而问ChatGPT。 这会导致我们变得懒惰和缺乏创造力吗?认知外包(Cognitive offloading)是目前正在讨论的一个概念,即人工智能工具的用户将任务委托出去,而没有进行批判性思考或记住检索到的信息。又到了打比方的时候了。 “我们穿衣服,因为穿衣服,我们的毛发就变少了。我们更容易因寒冷而死,但前提是我们没有衣服穿”。辛顿认为,只要我们能接触到有用的人工智能系统,它就是一个有价值的工具。 他看了看甜点选项,并确保这次自己先点:草莓配奶油。巧的是,这也是我想要的。他要了一杯卡布奇诺,我要了一杯茶。“这是我们产生分歧的地方。” 奶油实际上是微微融化的冰淇淋,在我描述一个在硅谷司空见惯,但对大多数人来说如同科幻的场景时,它正慢慢变成液体:我们幸福地生活在“具身AI”(embodied AI)——也就是机器人——中间,并随着我们将人造部件和化学物质添加到身体中以延长生命,而慢慢变成赛博格(cyborgs)。 “那有什么问题吗?”他问。我们会失去自我意识和作为人的意义,我反驳道。“那又有什么好的呢?”他回应道。我试图追问:这不一定非得是好的,但我们将不再拥有它,那就是灭绝,不是吗? “是的,”他说,停顿了一下。 “我们不知道将会发生什么,我们毫无头绪,那些告诉你将会发生什么的人只是在犯傻,”他补充道。“我们正处于历史的一个节点,一些惊人的事情正在发生,它可能好得惊人,也可能坏得惊人。我们可以猜测,但事情不会一成不变。” 克里斯蒂娜·克里德尔是《金融时报》驻旧金山的科技记者,负责报道人工智能领域
宝玉
5个月前
我们似乎正处在一个软件开发的黄金时代,又或者,是一个巨大的幻觉之中。 AI 一声令下,代码如瀑布般涌现,过去数周的工作量,如今在几小时内就能完成。我们痴迷于这种前所未有的“产出”速度,仿佛只要油门踩得够深,就能抵达任何目的地。 但这里有一个我们不愿正视的悖论:我们正以惊人的速度,奔向不确定的终点。 麦肯锡的报告和长达数十年的行业研究,像一面冷静的镜子,映照出一个尴尬的现实——绝大多数项目依然在预算超支、偏离目标的泥潭中挣扎。我们创造软件的速度,已经远远超过了我们验证它的速度。当代码的生产成本趋近于零,一个更严峻的瓶颈浮现了:我们如何确保自己没有在用更快的速度,制造更精致的垃圾? 这正是这篇文章试图引爆的认知奇点。它大胆地提出一个反直觉的论断:在 AI 时代,我们最需要的可能不是下一个加速器,而是一套精巧的“减速带”。 我们被“效率”的叙事绑架太久了,以至于忘记了软件开发的核心,从来都不是打字的速度。当一位产品战略顾问开始引述 90 年代的极限编程(XP)时,他并非在怀旧,而是在发出一个清醒的警告。他提醒我们,有些古老的智慧,在今天这个技术狂飙的时代,反而具有了前所未有的现实意义。 比如,那个听起来像是效率“公敌”的原则——结对编程。从账面上看,它直接将产出减半。但这篇文章会引导你看到硬币的另一面:你用一半的产出,换来了一倍的共识、提前暴露的假设、更健壮的代码质量,以及一个持续学习的团队。这笔投资,在 AI 加剧混乱的今天,显得无比划算。 它引导我们直面一个根本性的转变:当 AI 将“写代码”这件事变得越来越廉价,那么人类工程师的价值在哪里?答案不在于和机器比拼速度,而在于那些机器无法胜任的领域:沟通、反馈、简化、勇气和尊重。这篇文章的核心论点,正是那句振聋发聩的宣言:“在小处慢,才能在大处快”。 这不仅仅是一篇关于编程方法的文章,它更像一则关于“数字时代的匠人精神”的寓言。它在提醒我们,无论工具如何进化,软件的终点,永远是人。在 AI 可以为我们提供任何答案的未来,最稀缺的能力,是提出正确的问题。 而极限编程,恰恰是那个不断强迫我们停下来,去追问那个终极问题的框架: 我们正在构建的东西,是正确的吗? 在点击阅读之前,请先放下对速度的执念。因为这篇文章将带领你重新思考,在 AI 时代,真正的“快”究竟意味着什么。
宝玉
5个月前