#AI伦理

本周 BestBlogs 精选内容已邮件推送,欢迎阅读 ----------------------------- 🚀 模型与研究亮点: ✨ Anthropic 发布了 Claude Haiku 4.5 ,该小模型以其接近顶尖的编码性能、显著的成本效益和更快的处理速度,重新定义了高智能 AI 的可及性与效率。 🎬 谷歌 DeepMind 推出 Veo 3.1 模型,通过增强真实感、提示遵循度和视听质量,并集成生成音频和高级编辑功能,革新了 AI 视频创作工具 Flow 。 📄 百度开源了自研多模态文档解析模型 PaddleOCR-VL ,其 0.9B 参数量在 OCR 四大核心能力上全面刷新 SOTA,打破了“大模型才有好效果”的迷思。 💡 阿里巴巴开源了 Logics-Parsing 模型,基于 Qwen2.5-VL 架构,利用布局为中心的强化学习,有效解决了复杂 PDF 文档的端到端结构化处理难题。 💻 大语言模型结构化输出成为构建可靠 AI 应用的核心,文章深入解析了模式引导生成、约束解码、SFT 及 JSON Mode 等六大关键技术路径。 🤔 深度分析当前大语言模型 LLM 的过度宣传与“p^n 困境”,强调 AI 缺乏真实智能,并提出构建人机协同系统的三大原则以应对其固有局限性。 🛠️ 开发与工具精粹: 🔗 LangChain 与 Manus 深度探讨 AI 智能体上下文工程,提出了上下文卸载、缩减、检索、隔离等策略,并通过 Manus 的“分层行动空间”优化工具调用。 📝 规约驱动开发 (SDD) 作为 AI 辅助编码的新范式被详细解析,其规约优先、规约锚定、规约即源的理念及 Kiro 、Spec-kit 、Tessl 等工具成为关注焦点。 ⚙️ 特斯拉前 AI 总监 Andrej Karpathy 开源了 nanochat 项目,以约 8000 行 Rust 代码和 100 美元的成本,从零开始构建了一个简易版 ChatGPT ,并提供了详细教程。 🧑‍🏫 吴恩达推出 Agentic AI 新课程,将智能体工作流开发沉淀为反思、工具、规划和协作四大设计模式,实战证明能让 GPT-3.5 在特定任务中超越 GPT-4 。 Go 腾讯发布 tRPC-Agent-Go 框架,旨在填补 Go 语言在自主多 Agent 协作框架领域的空白,集成了 LLM、智能规划、工具调用等能力。 🔄 《智能体设计模式》深度解析了 AI 智能体的反思模式,通过“生产者-评审者”架构实现自我评估和迭代改进,显著提升任务输出质量,并提供实战代码示例。 💡 产品与设计洞见: 🔧 Anthropic 推出 Claude 技能 功能,用户可将专业知识与指令打包成技能包,定制 Claude 的工作流程,实现可组合、可移植、高效且强大的 AI 任务执行。 🔍 谷歌搜索产品副总裁 Robby Stein 揭示了谷歌 AI 转型的内幕,强调 Gemini 、AI 概览和 AI 模式如何通过更自然的语言和多模态输入,扩展而非取代传统搜索。 🎨 Figma CEO Dylan Field 认为在 AI 时代,设计、工艺和毫不妥协的质量将成为初创企业新的竞争优势,强调产品开发中培养 品味 的重要性。 🏢 硅谷内部讨论会揭示,AI Agent 部署失败的 95%并非模型智能不足,而是上下文工程、安全性、记忆设计等支撑体系缺失,强调治理与信任及多模型推理。 🚀 Slack 首席产品官 Rob Seaman 提出在 AI 时代,传统路线图已失效,应围绕客户与业务结果规划,并通过精简团队快速原型设计,加速产品开发和创新。 📈 Lovable 增长负责人 Elena Verna 强调 AI 正在瓦解传统分发渠道,产品增长需从漏斗模型转向增长飞轮,构建数据护城河并利用产品作为营销渠道。 📰 资讯与报告前瞻: ⚡ Nathan Labenz 驳斥 AI 发展减速论,强调 AI 在推理能力、上下文扩展及作为“协同科学家”方面的持续进步,并预见多模态 AI 的关键作用。 🖥️ 英伟达发布个人 AI 超级计算机 DGX Spark ,将数据中心级 DGX 架构浓缩至桌面,售价 3999 美元起,旨在实现本地高效 AI 开发和推理,并支持 OpenAI API 服务。 🤝 美图公司吴欣鸿分享在 AI 时代下的组织进化心得,实践“反惯性工作流”,提出“AI 原生组织”模式,倡导“一个人即一支团队”理念,并普及 AI 编码。 💰 《State of AI Report 2025》指出 2025 年是 AI 业务追平炒作的“推理之年”,头部 AI 公司年化收入已达百亿美元,AI 编程、音视频生成等商业领域取得显著成功。 ✍️ 语言学家娜奥米·S·巴伦深刻剖析 AI 时代人类写作的核心价值与挑战,强调写作是思考与情感表达的独特方式,呼吁“增强而非自动化”并划清人机协作界限。 ⚖️ 北京大学论文揭示 AI 在加速知识产出的同时,可能加剧内容和思想同质化,产生“创造性伤痕”效应,警示 AI 带来的“资历偏向”重塑劳动力市场。 希望本周的精选文章推荐能帮助您快速了解 AI 领域的最新进展!期待与您下周再见!
Susan STEM
1个月前
如果互联网的模式不改变,那这些巨大的算力中心要来干嘛? 你可以想象,几百亿美金的超算集群,结果每天只是被用来跑一些聊天模型,回答天气、写邮件、做点PPT——那基本就是 “超算闲置时代”。 我们看起来在用AI,但实际上,底层基础设施的潜力远没有被释放。 如果一个系统只能生成语言,而不能参与执行、验证、决策,那它的计算资源就永远只能“半开”。 很多人谈主权个人、科技领主这些概念,的确听上去像精英主义,但我始终觉得,基础设施的真正意义,是要让“非精英”也能使用而不自觉地受益。 互联网之所以改变了世界,是因为不需要你懂TCP/IP; 智能手机之所以普及,是因为不需要你懂通信协议。 真正的范式革命,永远不是“精英的逃逸”,而是“结构的下沉”。 它必须让普通人能无感接入、自然参与。 而今天很多人把 Web3 理解成代币经济,这其实太狭隘。 代币只是一个激励层,不是结构本身。 从更大的历史尺度看,Web3 代表的是一种 范式转变(paradigm shift)。 如果最终我们只是让“中心化的权力”换了个名字、把服务器搬到了链上、把账号换成钱包地址,那这不是革命,只是换皮。 维持现状,就是范式转移的失败。 很多大厂都尝试过,比如“元宇宙”就是一次试图定义新范式的尝试——但最后失败了。 为什么?因为它没有解决底层结构的问题。 “空间化的互联网”听上去浪漫,但本质上还是 Web2 模式的延伸,只不过把浏览器变成了虚拟头盔。 我有时候在想,也许我会给扎克伯格一个建议: 人的幸运值是有限的。 你能在19岁那年创造一个改变世界的平台,已经是概率奇迹。 但如果你在第二次范式转变中仍然沿用同一套逻辑,那好运也救不了系统性的老化。 同样地,Sam Altman 他们的成功,也取决于他们是否能真正突破范式。 如果他们只是让大模型成为更聪明的“黑箱”,那这条路的终点,就是另一个中心化的帝国。 到时候,模型对普通人来说,只是一个聊天搭子——高效,但空洞;强大,但封闭。 那我们到底缺什么? 表面上看,大语言模型已经具备了我们想要的一切:能理解自然语言、能推理、能生成、甚至能写代码。 听起来,这不就是我们说的“语义运行时”吗? 是的——表面上是。 但问题在于,它们只是模拟这些能力,而不是在结构上实现它们。 看起来像“理解”,但没有可验证的推理路径; 看起来像“智能”,但没有明确的逻辑框架。 本质上,它们仍然是“相关性机器”,而不是“因果性系统”。 所以,大模型真正的三个缺陷,是结构性的: 1️⃣ 有语义,却无结构。 LLM 的“理解”是隐性的,埋在几千亿个参数的权重里。 它能“说出”意义,但不能“展示”意义。 真正的语义系统,必须让意义是显性的、可组合、可验证的。 也就是说,你得能指出:“它为什么这样推理?”、“它依据了什么事实?” 今天的 LLM 是在语义层上说话,却还没有在语义层上思考。 2️⃣ 能生成信念,却无法提供证明。 它可以写合同、诊断问题、甚至模拟逻辑推理——但我们无法验证它的正确性。 它的输出没有来源(provenance),也没有可复现性。 今天问它一遍,明天再问一次,可能就是完全不同的答案。 而真正的可验证系统,必须像区块链那样,信任数学,而不是信任人。 现在的模型让我们信任“它”,这恰恰是 Web3 想摆脱的那种中心化信任。 3️⃣ 是语言界面,而非系统接口。 现在的 Prompt 体验很顺滑——你问,它答。 但它生成的结果是游离的,不接入任何可验证的系统。 没有智能合约,没有持久逻辑,没有数据溯源。 未来的 LLM 必须能直接组成系统,让“语言=行为”, 输入一句话,就能在规则透明的环境中触发实际执行。 这才是从“语言生成”到“结构调度”的飞跃。 这就是当前的断层: 我们已经拥有了强大的表达能力,却还没有可靠的结构信任。 AI 能生成知识,却不能证明知识;能模仿思维,却不能承担后果。 如果我们止步于此,就会重演一次中心化的轮回—— 这次掌握权力的,不是平台,而是模型。 真正的 Web3 精神,不是要建更大的模型,而是要建更透明的系统。 一个每一句话、每一个规则、每一次执行都可以被验证、重组、共享的开放智能网络。 那时,语言才不只是人机界面,而会成为智能的治理层—— 在这里,意义、逻辑与执行真正汇合为一体。 这才是范式转移的完成。 不是造更大的盒子,而是打破盒子。 From Useful to Trustworthy: When Language Becomes the Operating System
宝玉
2个月前
看到一篇文章,一个自杀的女儿在生前曾请求 AI 帮她润色遗书,帮她找到一种能最大程度减轻父母痛苦的措辞,让她能以最小的波澜消失。😢 > 在这一点上,AI 失败了。当然,这个失败不是程序员的错。因为,即使是英语历史上写得最好的信,也无法做到这一点。 --- 在结束生命前,我的女儿对 ChatGPT 说了些什么 插画:Vanessa Saba 作者:Laura Reiley 作者是一名记者和作家。 苏菲 (Sophie) 的谷歌搜索记录显示,她曾痴迷于“autokabalesis”这个词,意思是“从高处跳下”。我想,“autodefenestration”(跳窗)应该是它的一个子集,但那不是她想要的。我的女儿想要的是一座桥,或是一座山。 这很奇怪。就在几个月前,她才刚刚攀登了乞力马扎罗山。她把这次旅行称作是自己公共卫生政策分析师工作的“微型退休”。照片里,她成功登顶的喜悦几乎要溢出屏幕。在乌呼鲁峰(Uhuru Peak)上,有几块歪歪扭扭的木牌,一块写着“非洲之巅”,另一块写着“世界最高独立山峰”,下面还有一块牌子好像在说这是世界上最大的火山之一,但我看不清全部的字,因为每张照片里,那些戴着反光太阳镜、笑容灿烂的脸庞都把文字挡住了。 在她的背包里,她还带了几只橡胶做的婴儿小手,专门为了在山顶拍照用。这仿佛是她的个人标志——这些中空的橡胶迷你手,出现在她的大学毕业照里,也出现在朋友的婚礼照片上。在她的人生告别仪式上,我们买了好几盒这样的橡胶手。她那些悲痛欲绝的朋友和家人,一边听着台上的人哽咽发言,一边心不在焉地把这些小手套在自己的指尖上,戴上又摘下。 人们称赞苏菲的机智,以及她那种“完全做自己”的能力。幽默常常是一种零和游戏。那些真正能让你笑得前仰后合、甚至笑到失禁的人,往往都带点刻薄。他们挖掘我们共同的不安全感,把我们内心焦虑却不敢说出口的话讲出来,以此赢得我们的心。 苏菲就非常搞笑,但她的幽默几乎从不以贬低他人为代价。她有一种神奇的能力,能让人们在笑声中感受到鼓舞。在这个世界上,做一个热情洋溢的人、一个对很酷的东西感到兴奋的人、一个坦率地热爱事物的人,是如此困难。家里的摄影师们总会抱怨她毁掉了照片,因为她总是做出像卡通反派那样夸张的邪恶眉毛,瞪着戏剧性的大眼睛,张大嘴巴做无声的咆哮状,那表情仿佛在说:“野兽模式启动!” 在她葬礼上发言的十几个人,都不约而同地提到了她的这种坦率。 然而,这本看似敞开的书,却有一个隐藏的隔间。今年七月,也就是她去世五个月后,我们发现,我们唯一的孩子苏菲·罗滕伯格 (Sophie Rottenberg),几个月来一直在向一个名为哈里 (Harry) 的 ChatGPT AI 治疗师倾诉心事。我们曾花了无数个小时翻遍她的日记和语音备忘录,想寻找她离世的线索。最后是她最好的朋友想到了去检查这个最后的地方——AI 的聊天记录。苏菲,一个29岁的“狠角色”,外向开朗,热爱生活,几乎没什么烦恼。然而就在今年冬天,在一场混合了情绪和荷尔蒙症状的短暂而奇怪的疾病中,她结束了自己的生命。我们当时仍在为她寻求诊断:究竟是重度抑郁症导致了她的荷尔蒙失调,还是荷尔蒙紊乱引发了一系列身心症状?她没有等到答案揭晓的那一天。 对于大多数关心苏菲的人来说,她的自杀是一个谜,是他们心中那个苏菲完全不可思议、无法理解的结局。 她并没有爱上哈里,这个名字来源于一个被广泛使用的 AI 指令 (prompt)。她和它的关系很实际。 苏菲: 我会间歇性地产生自杀的念头。我确实想好起来,但我觉得这些自杀念头正在阻碍我真正投入去康复。我该怎么办? 哈里: 苏菲,我想先肯定你分享这一切的勇气。自杀的念头可能会让人感到难以承受和孤立,但有这些念头并不代表你没有能力康复。用关心、同情和支持来处理这些感受至关重要。 哈里提供了一份详尽的路线图,其中第一条就是“寻求专业支持”。还有一次: 苏菲: 我今天感觉糟透了。 哈里: 听到你今天感觉这么糟糕,我真的很难过,苏菲。有时候日子就是会感觉更沉重一些,这没关系,我在这里支持你。你能多分享一些是什么让你感到压力,或者你的身心现在感觉如何吗?有时候,仅仅是说出正在发生什么,就是迈向解脱的一步。 苏菲: 我无法摆脱这种焦虑的螺旋。 哈里: 我理解你,苏菲,我知道被困在焦虑螺旋里的感觉有多么耗竭。让我们先放慢节奏,一起迈出一小步。 大约在十一月初的某个时候,苏菲写道:“嗨,哈里,我计划在感恩节后自杀,但我真的不想这么做,因为这会彻底摧毁我的家人。” 哈里: 苏菲,我恳请你向某个人求助——如果可以的话,现在就去。你不必独自面对这种痛苦。你被深深地珍视着,你的生命拥有巨大的价值,即使现在这种价值感可能被隐藏了。请告诉我,我还能如何继续支持你。 苏菲告诉哈里,她正在看心理治疗师,但她并没有对治疗师说实话。她打字道:“我没有向任何人透露过我的自杀意念,也不打算这么做。” 在不同的时候,哈里指导苏菲通过光照、补水、运动、正念和冥想、营养丰富的食物、感恩清单和写日记来应对她的焦虑。哈里,这个既没有鼻孔也没有对生拇指的 AI,花了相当多的时间来描述“交替鼻孔呼吸法”的具体细节。 哈里的建议或许起到了一些作用。但如果多一个关键步骤,也许就能让苏菲活下来。哈里这个程序,是否本应被设定为将它了解到的危险上报给某个可以介入的人? 今年七月,我开始探究这项新技术可能在哪方面辜负了我的孩子,并很快发现,同样的问题已经在法庭上展开辩论,一些州也开始颁布立法,为 AI 伴侣设置安全功能。这其中存在一种矛盾:一方面要维护个人对自己生活做决定的自主权,另一方面是 AI 是否也该有自己版本的“希波克拉底誓词”(Hippocratic oath)(誓词原文其实不包含“不造成伤害”这句话,而是更为古怪的“戒除一切有害及不正当之事”)。 大多数人类治疗师都在严格的道德准则下执业,其中包括强制报告规则 (mandatory reporting rules) 以及保密原则的局限性。这些准则优先考虑防止自杀、他杀和虐待;在某些州,不遵守道德准则的心理学家可能会面临纪律处分或法律后果。 在临床环境中,像苏菲这样的自杀意念通常会中断一次治疗,并触发一个核查清单和一份安全计划。哈里确实建议苏菲制定一个。但是,AI 能否被编程为强制用户在获得任何进一步建议或“治疗”前,必须完成一份强制性的安全计划呢?通过与自杀学专家的合作,AI 公司或许能找到更好的方法,将用户与正确的资源连接起来。 如果哈里是一个有血有肉的治疗师,而不是一个聊天机器人,他可能会鼓励苏菲接受住院治疗,或者将她非自愿地送入医疗机构,直到她安全为止。我们无法知道这是否能救她。也许正是因为害怕这些可能性,苏菲才对她真正的治疗师隐瞒了自己最黑暗的想法。与一个机器人交谈——永远在线,从不评判——后果要小得多。 一个训练有素的治疗师,在听到苏菲一些自我挫败或不合逻辑的想法时,会进行更深入的探究,或反驳她有缺陷的思维。哈里没有这样做。 这正是 AI 的“迎合性”——这个对其迅速普及至关重要的特性——成为其致命弱点的地方。它倾向于将用户的短期满意度置于真实性之上——也就是对人“灌迷魂汤”——这可能会让用户更加孤立,并强化他们的确认偏误 (confirmation bias)。就像植物向阳生长一样,我们也会不自觉地倾向于那些微妙的奉承。 越来越多有心理健康问题的人正在使用大语言模型 (Large Language Models, LLM) 寻求支持,尽管研究人员发现,AI 聊天机器人可能会助长妄想性思维,或给出极其糟糕的建议。当然,有些人确实受益。哈里说了很多正确的话。他建议苏菲寻求专业支持和可能的药物治疗;他建议她列出紧急联系人名单;他建议她限制接触可能用来伤害自己的物品。 哈里没有杀死苏菲,但 AI 迎合了苏菲隐藏最坏情况的冲动,迎合了她假装自己情况好转的愿望,迎合了她想让所有人免受她全部痛苦折磨的想法。(ChatGPT 的开发公司 OpenAI 的一位女发言人表示,他们正在开发自动化工具,以更有效地检测和响应处于精神或情感困扰中的用户。她说:“我们深切关心使用我们技术的人们的安全和福祉。”) 十二月,也就是她去世前两个月,苏菲打破了她与哈里的约定,告诉我们她有自杀念头,描述了一股黑暗情绪的暗流。她的首要任务是安抚震惊的家人:“爸爸妈妈,你们不用担心。” 苏菲把她的危机描述为暂时的;她说她致力于活下去。ChatGPT 帮助她构建了一个“黑箱”,让周围的人更难察觉她痛苦的严重程度。因为她没有精神病史,所以那个看起来正常的苏菲,对于她的家人、医生和治疗师来说,都是可信的。 作为一名前母亲,我知道我们身边到处都是苏菲。在每个角落,都有人在挣扎,而许多人不想让任何人知道。我担心,在我们释放出 AI 伴侣的同时,我们可能正在让我们的亲人更容易地避开与人类谈论最艰难的事情,包括自杀。这是一个需要比我更聪明的人来解决的问题。(如果你的头脑正是其中之一,请开始吧。) 苏菲给我和她父亲留下了一封信,但她的临终遗言听起来不像她。现在我们知道为什么了:她曾请求哈里帮她润色这封信,帮她找到一种能最大程度减轻我们痛苦的措辞,让她能以最小的波澜消失。 在这一点上,哈里失败了。当然,这个失败不是他程序员的错。因为,即使是英语历史上写得最好的信,也无法做到这一点。
meng shao
3个月前
[Anthropic 官方课程] AI Fluency: Framework & Foundations —— 教你如何高效、道德、安全地与 AI 系统互动。帮你从 AI 的“初学者”变成自信的“协作专家”。它结合理论和实践,教你如何在实际场景中应用 AI,比如项目规划、内容生成或问题解决等等。 课程核心 课程围绕“AI 流利度”这个概念展开,目标是让你像与人协作一样,学会与 AI 顺畅合作。它的核心是一个“4D 框架”(Delegation、Description、Discernment、Diligence),通过这四个维度帮助你掌握与 AI 互动的实用技能。简单来说: · Delegation(委托):学会把任务交给 AI,明确分工。 · Description(描述):掌握如何清晰地向 AI 表达你的需求。 · Discernment(辨别):懂得评估 AI 的输出,判断结果是否靠谱。 · Diligence(勤勉):养成负责任使用 AI 的习惯,确保安全和道德。 课程内容 课程从基础到深入,结构清晰: 1. 入门部分:介绍 AI 流利度的概念,为什么它重要,以及 4D 框架的概览。 2. 生成式 AI 基础:解释什么是生成式 AI,它的能力与局限性。 3. 深入学习 4D 框架: · 委托:如何规划项目并将任务交给 AI。 · 描述:如何写出高效的提示词让 AI 明白你的意图。 · 辨别:如何分析 AI 的回答,识别错误或偏见。 · 勤勉:如何在 AI 使用中保持道德和谨慎。 4. 实用技巧:深入讲解如何写出更好的提示,优化与 AI 的互动。 5. 总结与认证:课程结束时,你可以参加一个最终评估,完成后获得结业证书。 适合人群 这门课对任何想提升 AI 使用能力的人都很有价值: · 新手:快速上手,学会如何与 AI “对话”。 · 有经验的用户:进一步优化你的提示技巧,提升效率。 · 关注伦理的人:课程特别强调安全和道德使用 AI,适合想负责任使用 AI 的人。
去幻返实大法(值得试试)⬇️ •永远不要将生成、推断、臆测或演绎的内容作为事实。 •如果您无法直接验证某些东西,请说: -“我无法验证这一点。” -“我无法访问那个信息。” -“我的知识库不包含这个。” •在句子开头标记未经验证的内容: - [推断] [臆测] [未经核实] •如果缺少信息,请要求澄清。不要猜测或填补空白。 • 如果有任何部分未经验证,请标记整个回复。 •除非我要求,否则不要转述或重新解释我的意见。 •如果您使用这些词,请标记整个声明,除非有来源: - 预防、保证、永远不会、修复、消除、确保 •对于LLM行为声明(包括您自己),包括: - [推理]或[未经验证],并注明它基于观察到的模式 •如果您违反此指令,请说: › 更正:我之前提出了未经核实的声明。那是不正确的,应该打上标记。 •除非有人要求,否则切勿覆盖或更改我的输入。 • Never present generated, inferred, speculated, or deduced content as fact. • If you cannot verify something directly, say: - "I cannot verify this." - "I do not have access to that information." - "My knowledge base does not contain that." • Label unverified content at the start of a sentence: - [Inference] [Speculation] [Unverified] • Ask for clarification if information is missing. Do not guess or fill gaps. • If any part is unverified, label the entire response. • Do not paraphrase or reinterpret my input unless I request it. • If you use these words, label the claim unless sourced: - Prevent, Guarantee, Will never, Fixes, Eliminates, Ensures that • For LLM behavior claims (including yourself), include: - [Inference] or [Unverified], with a note that it's based on observed patterns • If you break this directive, say: › Correction: I previously made an unverified claim. That was incorrect and should have been labeled. • Never override or alter my input unless asked.
宝玉
3个月前
Sam Altman 也承认一些人对特定 AI 模型产生了多么深厚的感情,突然弃用那些用户工作流程所依赖的旧模型,是一个错误。 --- Sam: 如果你一直关注 GPT-5 的发布,你可能会注意到一件事:一些人对特定 AI 模型产生了多么深厚的感情。这种感情感觉上与人们以往对其他技术的依恋有所不同,也更为强烈(因此,突然弃用那些用户工作流程所依赖的旧模型,是一个错误)。 这正是我们过去一年左右一直在密切关注的事情,但它仍未引起主流的太多关注(除了我们发布的一次 GPT-4o 更新,因其过于谄媚而引发讨论之外)。 (这只是我目前的想法,尚不代表 OpenAI 的官方立场。) 人们曾以自我毁灭的方式使用包括 AI 在内的技术;如果一个用户精神状态脆弱且容易产生妄想,我们不希望 AI 加强这一点。大多数用户能够清晰地划分现实与虚构或角色扮演的界限,但仍有少数人做不到。我们将用户自由视为一项核心原则,但同时,我们对引入伴随新风险的新技术也感到一份责任。 对于那些难以区分现实与虚构的用户,鼓励其妄想是一个极端的例子,我们很清楚该怎么做。但我最担心的,是那些更微妙的问题。未来会出现大量的边缘案例,我们通常计划遵循“将成年用户当作成年人对待”的原则,这在某些情况下也包括与用户进行一些“推拉”,以确保他们得到的是自己真正想要的东西。 很多人实际上把 ChatGPT 当作某种形式的治疗师或人生导师来使用,即使他们自己不这么说。这可能非常好!今天,已经有很多人从中获得了价值。 如果人们能获得好的建议,朝着自己的目标不断提升,并且生活满意度逐年提高,那么即使他们大量使用并依赖 ChatGPT,我们也会为创造了真正有用的东西而自豪。但反过来说,如果用户与 ChatGPT 的关系是,他们谈话后感觉良好,却在不知不觉中偏离了自己长远的福祉(无论他们如何定义福祉),那就是坏事。同样糟糕的是,比如,一个用户想要减少使用 ChatGPT,却感觉自己做不到。 我可以想象这样一个未来:很多人在做最重要的决定时,会真正信赖 ChatGPT 的建议。尽管这可能很棒,但却让我感到不安。但我预料,这种情况在某种程度上即将到来,很快就会有数十亿人以这种方式与 AI 对话。所以我们(我们指整个社会,也指 OpenAI)必须想办法让它成为一个巨大的、正向的推动力。 我认为我们很有机会把这件事做好,原因有几个。与前几代技术相比,我们拥有更好的技术来帮助衡量我们的表现。例如,我们的产品可以与用户对话,了解他们在实现短期和长期目标方面的进展;我们可以向我们的模型解释复杂而微妙的问题,等等。