4个月前
画的最清楚的 OpenAI 路线图 这是 LinkedIn 上博主 Peter Gostev 画的图(原始地址 ),很清晰明了。下面是相关文字说明。 逐步统一的 GPT-5 模型 OpenAI 罕见地分享了他们关于统一 GPT-5 模型的路线图。主要要点如下: - GPT-4.5 将在“数周内”推出,这是他们最后一个非推理类模型(类似 GPT-4o)。 - o3 不会作为独立模型发布。 - 取而代之的是,他们将在“数月内”推出 GPT-5,它将融合 o3 和 GPT-4.5。 - GPT-5 将成为一个能够使用所有工具(如语音、搜索、Canvas、深度研究等)的系统——它可以自动决定该使用什么工具以及使用多高程度的推理。 - 这将同时适用于 ChatGPT 和 API。 - 在 ChatGPT 中,免费用户将获得 GPT-5 的无限使用权限。 - Plus 用户将获得更高水平的智能,Pro 用户则会更高。 这真的感觉像是一个时代的终结。我很好奇他们会如何实现这一点。我希望这不会让他们的研发放慢脚步,因为我听 OpenAI 的团队成员说过,他们可以为新特性(比如 Canvas)训练自己版本的模型,然后再把它集成回去。我希望他们能完善系统的“智能路由”部分,因为到目前为止,对于是否自动选择使用哪些工具,系统做出的决策时好时坏。 我对 o3 无法推出感到遗憾,看起来它会是一个非常了不起的模型,尤其是 o3-pro 可能会非常惊艳。 我也有点担心将来 API 的样子。现在从非常便宜到非常昂贵都有各种不同的模型可供选择。我希望他们所计划的无论多么强大,都能保持便宜且快速,同时也能超级智能。
4个月前
Airbnb 首席执行官称,现在用 AI 来规划旅行还为时尚早 by Sarah Perez Airbnb 表示,公司已经准备好推出 AI 技术,但与消费者最初所期待的方式并不相同。 相较于为旅客提供借助 AI 智能体进行旅行规划或预订的工具,Airbnb 首先计划将 AI 引入其客服支持系统。该更新将于今年夏天晚些时候推出,这是该公司在周四的 2024 年第四季度财报电话会议上告知投资者的内容。 Airbnb 联合创始人兼首席执行官 Brian Chesky 解释称,AI 在客户服务方面可以发挥“令人难以置信的作用”,因为它能够使用任何语言,并且能理解数千页的文档。最初,AI 将被用作客户服务智能体,但其功能会随着时间的推移而逐步拓展。 虽然 OpenAI、Google 等公司正在研发 AI 智能体——也就是可以代表用户执行一系列任务的 AI 软件——Chesky 认为,这项技术仍然处于早期阶段,目前还不能对 Airbnb 产生明显的帮助。不过,他相信 AI 终将对旅行业产生“深远影响”,即便对主要的旅行平台而言,这种影响现在还未真正显现。 “我对 AI 的看法是:我觉得现在还很早,”Chesky 表示。“差不多就像……互联网在 90 年代中后期时的样子。” 他提到其他公司也在探索与旅行规划相关的 AI 整合,但他认为现在就说 AI 旅行规划成熟还为时过早。 “我不认为它已经准备好进入主流市场,”这位 CEO 补充道。 随着 AI 技术的不断发展,Airbnb 将会在客户服务之外进一步扩展 AI 的应用,将其与 Airbnb 的搜索功能结合。再往后,AI 最终还会成为“旅行和生活方式礼宾服务”,Chesky 如此展望。 除了客户服务之外,Airbnb 也提到公司在内部进行一些与工程相关的工作中使用了 AI,并获得了小幅度的生产力提升。但在这方面,Chesky 同样保持谨慎态度,他说:“我不认为它已带来生产力的根本性飞跃。” 不过在未来几年里,这些收益或许会在某种“中期”产生影响。Chesky 预计,技术和工程领域的生产力可能会因此提高 30% 左右。 Airbnb 并未透露其 AI 的应用是否会影响员工数量,但首席财务官 Ellie Mertz 暗示,特别是在客户服务领域,AI 技术的确可能带来更高的效率。 “至于 2025 年以及那之后的展望,我想说我们在可变成本方面还有额外的机会,比如支付处理和客户服务领域,这些地方可以更加高效,从而带来一定的利润率提升。”Mertz 向投资者表示。 Airbnb 在第四季度财报中表现强劲,盈利和营收双双超出预期后股价上涨了 15%。该公司当季营收为 24.8 亿美元,高于市场预期的 24.2 亿美元;每股收益为 0.73 美元,也高于预期的 0.58 美元。
5个月前
摘录自经济学人:人工智能如何区分“头部人才”和“普通员工” 乐观主义者曾希望这项技术能成为强大的均衡器,但它似乎更可能扩大社会差距 那些已经出类拔萃的人会越飞越高,而其他人则被远远甩在后面。在诸如研究和管理等复杂任务中,新的证据显示,高绩效者最有能力与人工智能进行协作(见下文相关表格或数据)。因为要评估AI模型的产出,需要专业知识和良好判断力。人工智能不仅没有缩小差距,反而更有可能像以往的技术革命一样,让劳动力市场的两极分化进一步加剧。 “让弱者变强”的早期信号与疑虑 曾有研究支持“AI可以成为平等力量”的观点,认为AI对经验不足的员工生产力提升更大。2023年,斯坦福大学的埃里克·布林约尔松(Erik Brynjolfsson)以及麻省理工学院的丹妮尔·李(Danielle Li)和林赛·雷蒙德(Lindsey Raymond)共同进行了一项研究,发现生成式人工智能(Generative AI)工具可以让初级客户服务人员的工作效率提高34%,帮助他们更快、更有效地解决客户问题。相比之下,资深员工收益不大,因为AI只是强化了他们已在使用的成熟方法。这项研究暗示,AI也许可以把“最有经验”的员工的方法传递给“较不熟练”的员工,从而缩小两者之间的差距。 在其他知识密集型任务中,也观察到了类似现象。同样来自麻省理工学院的沙克德·诺伊(Shakked Noy)和惠特尼·张(Whitney Zhang)研究发现,在起草新闻稿、报告等文书写作时,使用 OpenAI 的 ChatGPT 等工具时,写作水平较弱的人改进幅度最大。许多人只要直接使用 AI 输出的文本(甚至不做大幅度修改),就能让成品质量得到显著提升,说明AI的确可以提高“基本水平”的门槛。再比如南加州大学的乔纳森·崔(Jonathan Choi)等人也发现,对于法律工作(如起草合同),通用型AI工具对能力较弱的法学生帮助更大。 然而,问题在于,这些好处很可能会被另一个更大的趋势所淹没。一个岗位通常包含一系列不同的任务,而新技术可能会让其中一些任务“商品化(commoditise)”或让人类更轻松完成(assist)。例如,对空中交通管制员来说,技术属于“增强式”的:它可以处理飞行数据,但关键决定仍需人来做,因此管制员的薪资保持较高水平。与之相反,自助结账系统(self-check-out systems)则大大简化了收银员的工作,自动完成了找零等关键环节,使得对收银员技能的要求降低,工资也就停滞不前。 因此,尽管早期人们对AI在帮助低技能或重复性工作的群体抱有乐观期望,但客服人员和其他低技能工人仍可能走上和收银员类似的道路。他们的重复性任务极易被自动化替代。ServiceNow(一家商业软件公司)负责此项目的阿米特·扎韦里(Amit Zavery)估计,对某些客户而言,超过85%的客服请求已经无需人工介入。随着人工智能的不断升级,这个比例将进一步提高,只剩下更少的人工坐席来应对最复杂的情况。也就是说,AI的短期确实能带来生产力的提升,但长远来看,它会将某些技能商品化,最终让许多工作被自动化取代。 与以往替代机械性或重复性工作的自动化(比如流水线作业、传统记账)不同,AI的潜力还可能延伸到非重复性与创造性工作,因为它能通过模式识别进行预测,不需要手把手的显式指令;也许未来还能更成熟地编写剧本或设计产品。就目前来看,在高薪行业里,最先被取代的往往是初级员工。以A&O Shearman(法律事务所)为例,AI已经能完成很大一部分过去由律师助理或法律实习生(paralegals)处理的例行事务。该律所的AI软件可以分析合同,将其与以往案例进行对比,并在30秒内给出修订建议。A&O Shearman的AI负责人大卫·韦克林(David Wakeling)表示,顶尖律师在使用这一技术进行战略性决策上最有心得,也就是说,高绩效的人对AI的利用最为娴熟。 新的经济学研究:精英更精,普通更普通 近年来的新经济学研究与这一观察相互印证。早期研究认为“低绩效者直接照搬 AI 输出就可以显著提高成绩”,但更新的研究却聚焦于更复杂的任务(如科学研究、企业运营和投资决策),发现高绩效者比起低绩效者能从AI中获得更大的助力,有些情况下,低绩效者反而没有任何提升,甚至会退步。 智能设计(Intelligent design) 麻省理工学院的艾丹·托纳-罗杰斯(Aidan Toner-Rodgers)在一项研究中发现,当科研人员使用AI辅助工具来进行新材料发现时,处于高水平的研究者工作效率几乎翻了一倍,而处于“后段水平”的研究者则没有任何可见提升。这款AI工具的原理是:研究者只要告诉AI自己想要材料具备哪些属性,它就能生成具备这些特性的候选材料。优秀的科学家由于专业知识扎实,可以迅速鉴别哪些建议是有潜力的,哪些是糟糕的,而能力较弱的研究者却很难分清哪些AI输出值得进一步深入。 其他领域也出现了类似的结果。加州大学伯克利分校(University of California, Berkeley)的尼古拉斯·奥蒂斯(Nicholas Otis)等人发现,在肯尼亚的一次实验中,优秀的创业者借助AI辅助后,利润提升超过15%,而相对挣扎的创业者利润却有所下降。二者的差别就在于他们如何应用AI给出的建议:能力较弱的创业者只会照搬“多做广告”之类的“通用”主意,而能力更强的创业者则能更精准地找到适合自己业务的措施,比如在停电期间使用新的电力来源,从而把损失降到最低。 在金融决策方面,芝加哥大学(University of Chicago)的亚历克斯·金(Alex Kim)等人进行了一项实验,让参与者在阅读企业财报电话会议记录后,再利用AI进行辅助分析,最后分配1000美元的模拟投资组合。结果表明,投资经验丰富的参与者,借助AI后回报率高了近10%;而投资经验一般的人,只提升了2%。熟练投资者会更好地利用电话会议记录里关于研发(R&D,Research and Development)支出、股票回购和息税折旧摊销前利润等细节信息,从而作出更明智的投资选择。 新角色的出现:想象力与判断力将是关键 随着人工智能在工作中发挥的作用日益加深,新型的工作任务也在不断涌现。Atlassian(一家办公软件公司)的拉杰夫·拉詹(Rajeev Rajan)说,AI 工具能让公司的工程师每周多出好几个小时去做创造性的工作;初级律师也能减少琐碎重复的文书劳动,而花更多时间与客户沟通。一家大型投资机构的高管坦言:“那些真正聪明的人,以前也许觉得看财报是一件无聊的事情,现在却能在AI的帮助下挖掘更多创意和想象力,因此他们会最先受益。未来一段时间里,最有价值的技能就是如何用富有创造性的方式来使用 AI。”类似地,在律师、工程师和投资等行业,许多初级员工开始更早地参与到高级任务当中,因为AI已经帮他们完成了不少“基础体力活”。 回顾历史,劳动力市场一直在经历“旧职位消失、新职位出现”的动态过程。麻省理工学院的大卫·奥托尔(David Autor)估计,2018年美国约60%的工作,在1940年时甚至根本不存在。20世纪50年代的美国人口普查中才首次出现“飞机设计师”这个职位;到了90年代又新增了“会议策划师”的分类。那么,未来人工智能发展所带来的新工作,又会被谁占据呢? 历史经验告诉我们,每次技术变革都更青睐拥有技能的人。在工业革命时期,能熟练运用新机器的工程师收入飙升,而从事基础劳力的人则被淘汰;在计算机时代,软件工程师成为受益者,而打字员迅速被取代。如今的 AI 似乎延续了相同逻辑——它会奖励那些拥有良好判断力、灵活思维和专业知识的人,让他们在信息密集的环境中如鱼得水。 更何况,现阶段我们所看到的AI工具才只是开端。随着技术的演进,将会出现更加复杂的“半自主”AI 智能体,它们能够在一定程度上自主行动——正如黄仁勋所畅想的那样,到时候也许“人人都能当 CEO”。只不过,这并不意味着真正的“人人平等”:最优秀的人依然能把握机遇,成为掌舵人工智能的最佳‘CEO’。
5个月前
收到一位新手算法工程师的来信,咨询我: >“在 AI 时代,既然 AI 能生成高效的算法实现,那么新手该如何有效进行代码的设计和验证?” 这确实是当下新手工程师特别关心的问题。毕竟,AI 现在能轻松产出高质量的实现代码,可新人既缺乏“拆解需求”和“设计方案”的经验,又需要面对迅速变动的技术场景,难免会容易焦虑着急。 很多人会设想一种“理想状态”:我们先把需求细分成相对独立且定义明确的模块,然后把接口、数据结构、边界条件等都告诉 AI,AI 再自动完成这个模块的实现。最后,只要进行验证,就大功告成了。但现实中,别说新手,就算是已经有了几年开发经验的工程师而言,要掌握从需求到模块的拆分,再到最后测试和调优,这条链路很长,也很考验“工程能力”。 所以我对于 AI 时代的工程师的建议是:: > AI 时代,工程师仍需要掌握两大基础能力:编程技能和工程能力。 --- ** 编程技能:AI 时代仍需“做中学” 很多人会问:既然 AI 能写代码了,那我是不是就不用苦练“自己写”这件事?答案并不绝对。 - 编程是技能 就像学游泳或学骑车,如果你从头到尾都不下水,只是在岸上看视频或让别人代替你游,你自己很难真正学会。编程同理,需要动手才能真正理解和掌握。 - AI 帮你加速,但不能完全取代你的动手实践 比如,你遇到一个功能需求,不妨先自行思考一下可能的实现思路,然后让 AI 生成一个方案。接着,你可以亲手去改动、调试,甚至故意“手写一遍”看是否顺畅,或者是否能够理解 AI 生成的关键逻辑。只有这样,你才能更熟练地掌握编程能力,真正知道代码在做什么,而不只是“让 AI 代写”。 - 写得快已不再是全部目标 过去我们常常追求写代码又快又好,可是在 AI 的帮助下,“写得快”可以部分交给 AI,我们更多精力应投入到结构设计、逻辑思考、验证测试等更具价值的工作上。 --- ** 工程能力:从需求到可持续维护的系统 要想真正把需求落地成一套可运行、可维护、可演进的软件系统,工程能力就尤其关键了。它涉及到从需求分析、架构设计、实现编码、验证测试、运维部署到持续迭代的一整个流程,也可以理解为把需求变成可持续维护系统的综合能力。 试着想象一下,一个合格的(也可以说是“专业的”)工程师在日常开发中都要做些什么: 1. 需求和场景理解 - 与需求方沟通,确认数据规模、并发量、安全合规要求等,这能避免后续返工或踩坑。 2. 架构设计与技术选型 - 考虑技术栈、模块划分、API 设计等,并兼顾成本、性能、可扩展性,才能保证后面不会“撞墙”。 3. 测试与质量保证 - 包含单元测试、集成测试、端到端测试等,各类测试在不同层面保障质量。 - 通过持续集成(CI),快速发现改动对已有功能的影响。 - 新手尤其要培养“多写单元测试、用测试验证逻辑”的习惯,这对识别 AI 生成代码的缺陷非常有效。 4. 运维与监控 - 上线后如何发现错误、记录日志并快速定位问题,如何保障系统稳定运行,都需要事先规划。 5. 团队协作与项目管理 - 多人协作怎么做 Code Review?版本管理和需求排期如何安排?这些都属于工程能力的一部分,也是让团队高效协作的关键。 --- ** AI 时代下,工程能力的新挑战与机遇 虽然 AI 在编程层面突飞猛进,可以生成各种模块、自动化测试脚本,但在以下这些方面依旧需要人类发挥主导作用: 1. 掌控需求到实现的链路 - AI 只能依据你给的描述去生成实现。若需求描述和拆分不到位,AI 写出的代码很可能在后期难以集成或维护。 - 只有具备扎实的工程能力,才能确保需求、设计、实现三位一体。 2. 审阅与调试 AI 生成代码 - AI 写的实现并不总是完善,它可能忽略边界条件,也可能在性能或安全合规上欠考虑。 - 需要工程经验去审阅、调试,并结合单元测试、日志监控等手段,验证代码的正确性和鲁棒性。 3. 架构与模块拆分 - 哪些部分适合让 AI 来生成?哪些部分需资深工程师自己写? - 整个系统的版本、模块管理如何协调?在这些领域里,工程师对系统全局的把控能力非常重要。 4. 数据与安全合规 - 特别是算法工程师,常常涉及数据管线、数据隐私与合规等复杂场景。 - AI 生成一段跑模型的代码很容易,但若要兼顾隐私合规、合理负载、监控报警,就离不开工程化的思维。 --- ** 如何提升工程能力:实战中历练,持续总结 既然工程能力如此重要,该如何让自己成长得更快?以下几点建议可能对你有所帮助: 1. 多动手维护实际项目 - 读书和看文档可以打基础,但实际开发的踩坑和复盘最能帮你快速建立认知。小到个人开源项目,大到公司内部复杂系统,都能让你看到“设计-实现-测试-部署”的全流程。 2. 吸收业界最佳实践 - 去读优秀开源项目的源码,仔细观察他们如何组织目录结构、如何写测试、如何做持续集成;或者在团队里多参与 Code Review,学习他人写码和思考的方式。 3. 熟悉工具链与自动化 - 尝试了解并实践 CI/CD 流程,掌握单元测试框架、配置管理、运维监控工具等。这些在实际工程中都是必不可少的一环。 4. 主动思考架构与性能 - 无论是后端服务的分布式架构,前端的工程化,还是机器学习训练管线等,都有相应的设计模式和性能优化思路。多思考如何在逻辑与工程层面做得更好,而不是单纯依赖 AI 给出的实现。 5. 培养文档与沟通习惯 - 工程并非个人英雄主义。“写在你脑海里”的想法也需要变成清晰的文档、需求说明、接口规范、部署指南,这样不仅帮助团队,也有利于自我总结。 --- 总结一下: - 在 AI 时代,能帮我们写代码的“工具”越来越多,但“如何保证写得对”“如何把需求从无到有构建成高可维护、高可靠的系统”才是人类工程师真正的价值所在。 - 编程技能仍需“做中学”:AI 辅助写代码并不能完全替代亲自动手,不然难以真正掌握技术本质。通过实际项目增强经验:多踩坑、多总结,是积累工程思维的关键。 - 对于新手工程师,首先要在实践中不断提升编程技能,要能理解代码、能手写关键逻辑,另一方面,更要把精力放在工程能力上:需求分析、架构设计、模块拆分、测试与持续集成等。 - AI 不能替你做“架构设计与技术选型”:它只能在给定的框架内去编程,如何拆分、怎么确保安全与性能,依旧仰赖工程师的决策。 希望以上这些思路对你有所启发,也祝你能在 AI 时代下,快速成长为一名具备强大工程能力的算法工程师。加油!
5个月前
WSJ 今天发的一篇文章:《IT Unemployment Rises to 5.7% as AI Hits Tech Jobs[1]》,文章认为现在 IT 失业率攀升,主要是由于 AI 导致的,这篇文章在 HackerNews 上也引发了官方的讨论,也有很多网友并不认同文章中的观点,认为 “AI 取代程序员”是炒作或宏观经济裁员的借口。 • 绝大多数评论者并不相信“解雇所有程序员,用 AI 完成开发”是可行且有效的策略,认为这只会带来混乱和长期风险。 • AI 不会马上毁掉编程职业,更可能是让软件工程进入一个“人机协同、边界上移”的新阶段,程序员角色或许变得更加“总体规划+审校+深层逻辑”导向。 • “取代”论更多是被夸大、利用来制造话题或配合公司做短期人力成本决策,并未真正落地在大规模成熟软件开发上。 我把原文和讨论内容都整理在下面了。 IT失业率攀升至5.7%,人工智能冲击科技岗位 人工智能持续影响科技劳动力市场 作者:Belle Lin 根据咨询公司 Janco Associates 基于美国劳工部数据的报告,IT从业者的失业人数从去年12月的9.8万人增加至上个月的15.2万人。图片来源:Joe Raedle/Getty Images 最新数据显示,IT行业失业率从去年12月的3.9%上升至今年1月的5.7%,显著高于上月整体4%的失业率。随着自动化和人工智能(AI)应用的不断提升,科技劳动力市场正受到不利影响。 Janco Associates 的报告显示,IT失业人数已从去年12月的9.8万人增长至上个月的15.2万人。 美国劳工部上周五表示,整体经济在1月份增加了14.3万个就业岗位,就业市场依然保持增长,但增速相比之前两个月有所放缓。 Janco Associates 的首席执行官 Victor Janulaitis 表示,AI在一定程度上导致了科技领域的岗位减少。生成式AI的兴起使得科技巨头在AI基础设施上投入了大量资金,但并未相应产生更多IT岗位。 “在IT职能中,一些例行化、重复性的工作正在被裁减,比如报告制作、文书行政等,”Janulaitis 表示,“企业在考虑部署AI的同时,也希望减少程序员、系统设计师等岗位数量,希望AI能够带来价值并获得较好的投资回报率。” 越来越多的企业对AI的投资初见端倪,可能会导致未来在招聘方面进一步削减。一些科技高管开始将其称为“成本规避”:与其招聘新员工来完成可以轻松自动化的任务,不如让AI来承担这些工作,从而节省潜在支出。 图片 Indeed 招聘网站的经济学家 Cory Stahle 指出,最新的IT就业数据出现之际,白领失业率依然处于自2020年以来的最高水平。 Stahle 表示:“尤其是过去一年左右,我们看到就业机会出现分化,白领知识型岗位的雇主需求远低于那些需要线下操作的技术工种。” 他补充说,例如软件开发领域的Indeed新发布招聘信息,今年1月同比下降了8.5%,但在经历了2023年科技行业的大幅裁员后,现在开始出现趋稳迹象。 在加利福尼亚州圣克拉拉的云安全公司 Netskope,目前正在招聘多个技术岗位,包括数据工程师、数据分析师和云运营工程师,Netskope 的首席数字和信息官 Mike Anderson 表示。 Anderson 称,公司在IT部门组建新产品团队需要额外的人员投入,Netskope 正在“投资以提高全公司的生产力”。 Janulaitis 表示,造成今年1月科技岗位流失的另一个原因在于,许多企业开始执行今年早先既定的削减支出计划,而这些计划往往基于去年财年规划时对经济形势的预测。 一些大型科技公司也在继续裁员。上个月,Meta Platforms 宣布将在美国范围内基于绩效考核裁减5%的员工。本周三,企业软件巨头 Workday 宣布将裁员约8.5%。
5个月前
美国副总统万斯在巴黎AI峰会上发表了演讲。他强调,美国将继续在人工智能领域保持领先地位,不会受到过度监管、意识形态偏见或审查的束缚,同时也会推动一条有利于工人的发展道路。 万斯提出了四个主要观点: 1. 现任政府将确保美国的AI技术继续保持世界领先水平,并成为各国政府和企业在拓展AI应用时的首选合作伙伴。 2. 过度监管可能会扼杀这个正处于起步阶段的颠覆性产业。美国将努力推行有利于AI行业发展的政策,并对这次峰会中提到的“减少监管”趋势表示肯定。 3. AI必须避免被任何意识形态所操控,美国不会允许AI成为威权审查的工具。 4. 特朗普政府将坚持一条支持劳工的AI发展道路,让AI成为在美国创造就业机会的重要动力。万斯还赞同莫迪总理的看法,认为AI能够帮助人们提升效率和生产力,而不是取代人类。AI的出现会让我们更加高效、富足并拥有更多自由。 *** 万斯今天在巴黎AI峰会的演讲 感谢这番善意的介绍,我想先感谢马克龙总统主办此次活动,当然还有他昨晚带来的美味晚宴。在晚宴期间,马克龙总统看着我,问我是否愿意发言,我说:“总统先生,我是为了享受美好时光和免费红酒而来,但我今天必须要有所付出。” 我当然也要感谢莫迪总理能出席并共同主办此次峰会,还要感谢在座所有人的参与。 我今天早上并不是来谈论AI安全的,那是几年前这场会议的主题。我是来谈论AI机遇的。每当像这样的会议聚集起来讨论前沿技术时,我常常觉得我们的反应过于自我防范、过于害怕风险。然而,我从未见过有哪项技术突破能如此清晰地召唤我们去做恰恰相反的事情。 我们这届政府——也就是特朗普政府——相信AI将在经济创新、就业创造、国家安全、医疗保健、言论自由以及其他领域拥有数不胜数的革命性应用。而如果此时就限制其发展,不仅会让已经占据行业地位的企业不公平地受益,还意味着扼杀了这一代人所见过最有前景的技术之一。 现在,基于这些考量,我想提出今天的四个重点。第一,本届政府将确保美国的AI技术继续成为全球的黄金标准,并在其他国家以及企业扩展AI应用时,成为他们首选的合作伙伴。第二,我们相信,过度监管AI行业可能会在它刚刚起飞之际就扼杀这个具有变革性的产业,因此我们会尽一切努力来鼓励有利于增长的AI政策。我也很高兴看到放松管制的理念正在本次会议的许多讨论中得到体现。第三,我们非常坚信,AI必须免于意识形态偏见,而美国的AI不会被改造成威权审查的工具。最后,第四,特朗普政府将为AI保持一条有利于劳动者的增长路径,使其能够成为在美国创造就业的重要工具。我也赞同莫迪总理的观点。我真的相信AI将帮助人们提高生产力,而不是取代人类。它永远都不会取代人类。我认为,AI行业里有太多领导者在谈到取代工人的恐惧时,真的忽略了重点。我们相信,AI会让我们更具生产力、更繁荣,也更自由。 美利坚合众国在AI领域处于领先地位,我们的政府计划继续保持这种领先优势。美国拥有整个AI技术栈所需的所有组件,包括先进的半导体设计、前沿算法,以及具有变革性的应用。当然,这个技术栈所需的计算能力对推动AI技术的发展至关重要。为了维护美国的优势,特朗普政府将确保最强大的AI系统在美国本土建造,并使用美国设计和制造的芯片。 当然,仅仅因为我们是领头羊并不意味着我们想要或需要单打独斗。让我郑重强调这一点:美国希望与各位合作。我们希望以开放与协作的精神共同开启眼前的AI革命。但要建立这样的信任,我们需要能够促进AI技术发展的国际监管体系,而不是扼杀它。我们尤其需要我们的欧洲朋友以乐观而非惶恐的心态来面对这一新的前沿领域。 美国能发展出最前沿的AI并非偶然。通过保持一个开放的监管环境,我们鼓励了美国的创新者进行实验并投入前所未有的研发资金。到2028年,预计全球在AI领域的支出约为7000亿美元,其中超过一半很可能会投资在美国。 本届政府不会扼杀那些由初创企业和研究生们所创造的、最具突破性的人工智能应用。相反,我们的法律将确保大型科技公司、小型科技公司以及所有其他开发者都在同一公平环境中竞争。关于总统最近在AI方面签署的行政命令,我们正在制定一份AI行动计划,既能避免过度谨慎的监管体制,又能确保所有美国人都能从这项技术及其变革潜力中受益。现在,如果这种模式适合贵国,我们也邀请各位与我们合作并加以借鉴。 然而,特朗普政府对于一些外媒报道感到担忧:有些外国政府正考虑对美国那些具有国际影响力的科技公司收紧管制。美国不能也不会接受这种做法,我们认为这不仅对美国是个严重错误,对这些国家自身也同样错误。各种规模的美国创新者早已体会过应对繁琐国际规则的滋味。我们许多高产能的科技公司被迫应对欧盟《数字服务法案》以及其在内容移除和所谓错误信息监管方面制定的庞大规则。当然,我们希望确保互联网是一个安全的空间,但阻止在线捕食者伤害儿童和阻止成年人访问政府认为是“错误信息”的观点,这二者有着根本的不同。与此同时,对规模较小的企业而言,应对《通用数据保护条例》(GDPR)意味着无休止的法律合规成本,否则就有可能面临巨额罚款。对一些企业来说,为了避免这种进退两难的局面,他们最简单的办法就是直接屏蔽欧盟用户。先生们女士们,这真的是我们想要的未来吗?我想我们所有人的答案都应该是否定的。 在涉及能源的问题上,没有比监管更让我们担忧的了。同样,我也感谢本次会议上许多人的观点,因为他们都认识到我们正处在一个渴求可靠能源和高质量半导体的AI产业前沿。然而,我们的许多朋友一方面在去工业化,另一方面却把可靠电力赶出了自己的国家和电网。AI的未来不可能靠对安全的杞人忧天来赢得,而是要通过建立可靠的发电厂,以及能够生产未来所需芯片的制造设施来实现。 就我个人而言,AI最令我兴奋的地方在于它根植于真实且物质的经济之中。这个行业的成功不仅仅是聪明人坐在电脑屏幕前编程的结果,它还依赖那些亲手操作的人。即使是机器人技术也会改变我们的工厂,它当然能使我们的医疗服务提供者在治病方面更有成效,但同时也依赖那些医疗人员、医生和护士所产生的数据。我相信,它将帮助我们在未来创造并储存新的能源模式,但就眼下而言,如果世界没有建设好支持AI的能源基础设施,AI就无法真正起飞。 我认为,过去20年的技术创新往往让人想到一些聪明人盯着电脑屏幕,在比特的世界里进行工程设计。但AI经济主要将依赖并改变原子层面的世界。此刻,我们正面临一场新的工业革命的非凡前景,它可与蒸汽机或贝氏炼钢法的发明相提并论。然而,如果过度监管让创新者望而却步,我们就永远无法取得这些必要的进步;同样,如果我们允许AI被那些企图利用这项技术来审查或控制用户思想的庞大企业所主导,这场革命也不会发生。 我想请大家退一步,问问自己:是谁最积极地要求我们,也就是今天在场的政治领导人,推行最严厉的监管?很多时候,这些要求来自已经在市场上拥有既得利益的人。当一个庞大的现有企业来找我们要求制定安全监管时,我们应当质问,这项安全监管究竟是为了人民的利益,还是为了维护这家现有企业的利益? 在过去几年里,我们看到一些政府、企业和非营利组织通过AI推进了一些不得人心、甚至在我看来完全背离历史的社会议程。在美国,我们曾见到有AI图像生成器试图告诉我们乔治·华盛顿是黑人,或者说一战时期的美国士兵其实是女性。现在回头看,我们会觉得很可笑,当然这确实荒诞不经,但我们必须记住这荒诞时刻带给我们的教训。我们从中了解到,特朗普政府将确保在美国开发的AI系统不带有意识形态偏见,绝不限制公民的言论自由。我们相信我们的人民有能力独立思考、获取信息、形成自己的观点,并在公开的思想市场中彼此辩论。 我们也看到一些敌对的外国对手将AI软件武器化,用来改写历史和审查言论。当然,这并不是什么新鲜事。和他们对待其他技术一样,一些威权政权也通过窃取并使用AI来增强其军事情报和监控能力,窃取外国数据,并制造宣传来破坏其他国家的国家安全。我想明确表示:本届政府会彻底阻止这类行为。我们将保护美国的AI和芯片技术不被盗窃或滥用,并与我们的盟友和伙伴合作,加强并扩大这些防护措施,切断对手获得威胁我们所有人的AI能力的途径。 我也要提醒今天在场的国际友人,与这些政权合作从长远来看绝不会有好处。从闭路电视(CCTV)到5G设备,我们都很熟悉那些由威权政权补贴并出口到市场上的廉价技术。但正如我所知,并且我认为这里有些人也有过类似的经验,与他们合作就意味着把你的国家捆绑给一个试图渗透、深耕并控制你信息基础设施的威权主宰。如果一桩交易看起来好得令人难以置信,那就要记住我们在硅谷学到的一句老话:如果你没有为产品付费,那么你就是产品。 最后,本届政府想明确说明最后一点:我们将在AI政策中始终以美国工人为中心。我们拒绝将AI视为一种必然取代劳动力的纯颠覆性技术。我们相信并会推动相关政策,确保AI能够提升工人的生产力,并期望他们能因此获得更高的工资、更好的福利,以及更安全、更繁荣的社区。从法律到医学,再到制造业,AI最直接的应用几乎都是在辅助而不是取代美国人所进行的工作。现在,再加上本届政府在移民问题上的“工人优先”立场,我们相信,一旦美国劳动力准备好充分利用AI,反而会吸引那些将部分岗位外包到海外的企业回流。为此,本届政府将确保美国拥有世界上最优秀的受训劳动力。我们的学校会教学生如何管理、监督以及与AI工具互动,因为这些工具将越来越多地成为我们日常生活的一部分。随着AI创造新的就业岗位和行业,我们的政府、企业和劳动组织有义务共同努力,让工人受益,不仅在美国全国范围内,也在全球范围内。为此,对于联邦政府出台的所有主要AI政策决定,特朗普政府都会保证美国工人在决策桌上拥有一席之地,我们对此深感自豪。 好了,我已经占用了够多的时间,接下来我想用一个简短的故事来结束我的发言。 这是一个美丽的国家,马克龙总统,我知道你对此深感自豪,也理应如此。昨天,我带着我的三个孩子,与 Gravêthe 将军一起游览巴黎的荣军院时,他非常友善地向我展示了那把属于我们美国革命期间最亲密的国际友人——拉法耶特侯爵——的佩剑。他允许我拿起那把剑,但当然,在此之前他让我戴上了白手套。这让我开始思考这个国家——法国,以及我的祖国,还有我们通过那样的军刀所共同缔造的美好文明。武器若落入不当之人之手将会非常危险,但在对的人手里却是争取自由与繁荣的不可思议的工具。 我不禁想到今天的会议,如果我们在那些同样被视为危险的事物(比如AI)上选择了错误的方法,选择束缚自己,那将不仅影响我们的GDP或股市,还会改变拉法耶特和美国开国者当年所要开创的事业的未来。当然,这并不意味着我们要把所有安全担忧都抛诸脑后,但重点至关重要。我们现在必须聚焦于抓住这稍纵即逝的机会,释放我们最杰出的创新者的潜能,并利用AI来改善我们国家和人民的福祉。我可以非常自信地说,特朗普政府不会浪费这个机会。我们也希望今天在座的所有人都有同样的感受。谢谢你们,愿上帝保佑你们。谢谢。
5个月前
一名本科生推翻了图灵奖得主姚期智延续40年的数据科学猜想,能让哈希表平均查询时间成为一个与 x 无关的常数 自从计算机诞生以来,哈希表(hash table)就被视为最基础、最常用、研究最充分的数据结构之一。它能帮我们在海量数据中快速“插入、删除、查询”——效率之高使其遍布现代应用:从数据库管理到网络路由,再到编程语言的底层实现,几乎无处不在。也正因为它的重要性,围绕哈希表的理论研究和实践优化在过去几十年里始终没有停歇。 那么,哈希表还能多快? 在1985年的一篇里程碑式论文中,图灵奖得主姚期智(Andrew Yao)提出了一个被广泛接受的判断:在特定类型的哈希表中,要想在最坏情况下(例如表里只剩下最后一个空位)进行插入或查询,所需的操作次数与哈希表的“填充度”x(接近99%、99.9%乃至更高)呈正比。换言之,当哈希表已几近装满,要寻找空位或者特定元素时,每一次都需要“多试几个位置”才行。而这一推论,40年来一直是计算机科学领域的共识之一。 这次,一个来自本科生的意外发现,却推翻了这条“铁律”。 安德鲁·克拉皮文(Andrew Krapivin)本是罗格斯大学的一名普通本科生,却在阅读一篇名为“微型指针”(Tiny Pointers)的论文时,突发奇想:如果指针可以变得更“微型”,那能否连带着重新设计哈希表本身?结果不但设计出了全新结构,速度超出预期,更挑战了业界对“最坏情况下插入和查询速度”的旧有认知。在导师和合作者的帮助下,他证明这种新型哈希表在几近满载时,寻找元素或空位的耗时仅仅和(log𝑥)²成正比,而非 x 。 这一成果直接动摇了姚期智的著名猜想。 更令人惊讶的是,他们还证明了一个“平均查询时间”上的突破。 传统的研究结论认为,满足某些性质(例如“贪心”插入)的哈希表,其平均查询时间至少要达到(log𝑥)。但克拉皮文团队给出的非贪心策略却把这个瓶颈彻底打破,甚至能让平均查询时间成为一个与 x 无关的常数。这是此前的研究几乎无人想到的可能性。 具体信息可以看 QuantaMagazine 的这篇报道《Undergraduate Upends a 40-Year-Old Data Science Conjecture》。
5个月前
以后像图1这种虾扯蛋的观点,直接问问 DeepSeek 或者 ChatGPT 就能知道答案。 提示词:“请帮我从技术角度分析这个图片上的观点对不对,如果不对问题在哪?请详细指出” DeepSeek: 从技术角度分析,图片中的观点存在多处不准确或过度简化的问题,具体如下: 1. 信息密度的量化问题 • 观点:单个汉字的信息密度是英文单词的3.7倍。 • 问题: • 信息密度的定义模糊。信息论中通常用“熵”衡量信息量,但汉字和英文单词的对比需考虑上下文依赖、语法结构等复杂因素,简单用“3.7倍”缺乏严谨依据。 • 实际研究:中文确实在字符层面信息密度较高(如“肺炎”用2个汉字表达,英文“pneumonia”需10个字母),但英文通过词根词缀组合(如“tele-vision”)也能高效构词,且现代AI模型(如BERT、GPT)使用子词切分(subword tokenization)处理文本,大幅降低了字符数量的直接影响。 2. 新词汇增长的逻辑漏洞 • 观点:英语每年新增专业词汇是汉语的7.6倍,导致AI训练负担加重。 • 问题: • 数据来源存疑:未提供斯坦福大学报告的具体引用,且专业词汇的统计方法(如是否包含复合词、缩写等)未明确。 • AI训练的实际影响: • 英语新增词汇多为组合词(如“blockchain”=“block”+“chain”),模型可通过已有词根推断语义,无需完全重新学习。 • 中文新词虽依赖组合(如“人工智能”),但同样需要模型学习语义关联,并非天然节省训练成本。 • tokenization策略差异:英语使用子词切分(如WordPiece),中文使用字符或词语切分。子词切分能有效减少词汇表膨胀,降低新增词汇的负面影响。 3. 汉字结构优势的片面性 • 观点:汉字通过组合造词(如“肺炎”),而英语需创造新词,导致字符更多、代码量更大。 • 问题: • 英语同样利用词根词缀构词(如“pneumonia”来自希腊词根“pneumon”),并非完全依赖全新词汇。 • 代码量与训练成本:AI模型的输入是token序列,而非原始字符。英文虽字符多,但经过子词切分后,token数量可能与中文接近(例如“television”切分为“tele”和“vision”)。 4. 算力需求的夸张推论 • 观点:若英语词汇增速不变,2050年需要1.7个地球的算力。 • 问题: • 该说法是比喻,但缺乏技术依据。算力需求取决于模型架构、优化算法(如稀疏计算、量化)和数据效率,而非单纯词汇量增长。 • 技术进步(如MoE模型、分布式训练)可显著提升算力利用效率,线性外推不成立。 总结:核心误区 1. 将语言特性与AI训练成本直接挂钩,忽视了分词策略和模型优化的作用。 2. 过度简化语言复杂性,未考虑词根词缀、语义组合等因素。 3. 依赖未经验证的数据,如“3.7倍信息密度”和“7.6倍新词汇量”。 建议 若需优化多语言AI训练,应关注: • 分词策略:针对不同语言设计高效tokenization方法(如子词切分对英语、字符切分对中文)。 • 跨语言迁移学习:利用语言间的语义共性减少重复训练。 • 数据预处理:去噪、压缩和增强技术可降低数据量对算力的影响。 ------ o1 pro: 下面是一家之言,供参考。我把贴子中几条主要观点拎出来,逐一从技术层面分析为什么它们并不准确,以及问题出在哪里。 1. “汉字单字平均承载的信息量是英文单词的 3.7 倍” 这类“汉字信息密度更高”的说法网上常能见到,但通常是以偏概全: 1. “单个汉字 vs. 单个英文单词”本身就不对等。英文单词往往由多个字母组成,一个汉字只能对应一个音节或一个相对简短的语素。 2. 对“信息量”的衡量方式并不清晰。信息论里衡量信息量要看统计分布、熵、编码长度等等,很难用一句“一个汉字抵几个字母/单词”来简单结论。 3. 从自然语言处理角度看,模型往往使用「子词(subword)」或「BPE」等分词/切分方法,不会简单以“一个汉字”或“一个英文单词”作为最小粒度。因此并不是汉语文本就能“减少 3.7 倍的数据量”这么直接。 核心问题: • 贴子把“单字信息量”和“单词信息量”之间的关系绝对化了,没有看真实语言处理里更细的切分、上下文依赖、词频分布等要素。 • 即使某些场合汉语文本更“简洁”,也不代表可以大幅削减数据量和算力消耗,LLM 的训练流程远比“字符计数 × 信息密度”复杂。 2. “英语每年新增的专业词汇量是汉语的 7.6 倍,会给 AI 训练造成沉重负担” 这里至少有两个问题: 1. “7.6 倍”这一数值来源不明。即便有学者或词典统计过英语一年新增词条数,也很难说所有“专业词汇”都要被模型“重新从头学”。 2. 现代大模型对新词的处理方式并不是简单地“遇到新词就必须额外训练好多轮”。当前的预训练模型往往采用子词级别的分词算法,遇到新词,也可以由已有的子词(token)组合而成,不一定需要完全“手动添加一个全新的词向量”。 当然,语言本身在不断演化,确实会出现 domain-specific(领域专门) 的新概念需要更新训练数据,但这并不意味着“每个新词就等于乘以多少倍的训练难度”。 • 大模型可以增量训练或通过微调(Fine-tuning)、插件式扩展等方法来适应新术语。 • 对于绝大多数新专有名词,模型通过上下文已能大致学到含义,不见得要在“7.6 倍”的维度级别做繁琐的全量再训练。 核心问题: • 把新增词量与训练负担直接画等号,缺乏对实际 NLP 技术(如 subword、增量学习)的了解。 • 数据增多确会带来算力需求上升,但不会以线性倍数堆积到所谓“不可承受”地步。 3. “如果英语一直这样增长,到 2050 年可能需要 1.7 个地球的算力” 这是比较典型的耸人听闻或“线性外推”谬误: 1. 计算需求不会简单线性外推:芯片工艺、硬件结构(如 GPU 到 TPU 再到更先进的 AI 芯片)的演进,使算力的“单位功耗产出”在不断提高,能效也在提升。 2. 模型算法本身也在演进:从最早的 RNN -> LSTM -> Transformer -> 自注意力机制 -> 各类更高效的推理加速技术……当算法、结构、优化策略都在提升,训练所需的算力并非只会“被数据量拖着狂飙”。 3. 很多类似“需要 N 个地球才能支撑”的说法,本身大多是宣传或戏谑性质,与严谨的学术报告相去甚远。缺乏对硬件效率提升、分布式训练架构优化、模型剪枝/量化等技术手段的考量。 核心问题: • 该数据既无可靠出处,也没有考虑技术发展或摩尔定律等多种因素,属于严重的线性推演错误。 4. “汉语因为用字少、更简洁,所以能大幅减少训练成本” 确实,汉语在语料长度上常比英语更短一些,这会在相同语义负载下略微降低训练序列长度,但不是本质性地“省了好几倍”: • 子词切分后的总 token 数量并不会直接因“汉字”而锐减很多。某些场景下汉语虽然字符数少,但分词之后的有效 token 量可能跟英文并没有数量级的差异。 • “训练成本”还取决于模型规模、训练目标、超参设置、batch size、优化方法等等,并不只取决于字数多少。 • 当深入到许多专业领域(如生物医药、法律等),中文也会产生大量外来词、缩写、专有名词,实际训练起来同样需要庞大算力。 核心问题: • 过分夸大了“汉语字少”对整体训练成本的影响,忽视了现代语言模型对文本的切分、对专业名词的处理方式,以及整体算力瓶颈更多来自模型深度和数据规模的质量(而不仅是“字符量”)。 5. 小结 贴子给人的总体印象,是把语言增量与 AI 算力需求作了一个过度线性的推演,并且混淆了字符计数、信息密度、训练难度之间的关系。主要问题包括: 1. 数据和出处可疑:文中提到的“斯坦福大学统计”或“某教授结论”没有具体引用来源,也不符合常见的学术报告逻辑。 2. 忽略了当代 NLP 的技术细节:包括子词分词、增量训练、模型结构优化、硬件能效提升等。 3. 线性外推谬误:任何“到 X 年需要 N 个地球”之类的算法/算力预估,往往缺少对技术迭代和硬件进步的考虑,很难站得住脚。 4. 忽视了语言层面的真实复杂度:无论是中文还是英文,都存在大量派生词、专有名词、组合词,不能简单以“3.7 倍信息量”“7.6 倍新增词”来决定训练的最终难度。 简而言之: • 这些“汉字信息量比英文词大好多”“英语年增词汇让 AI 难以招架”“2050 年要 1.7 个地球算力”等结论,大都没有充分的技术依据。 • 真正影响大模型训练成本与难度的,是数据总规模的质量、模型的参数量/结构、算法效率和硬件性能的综合博弈,而不是纯粹数字符或数“新单词”。 建议的理性看法 • 语言增长本身确实会让我们处理的数据越来越多,但不会无限制地线性膨胀到“需要好几个地球来算”的地步。 • 中文 vs. 英文谁更“省算力”,要结合模型分词策略、任务目标和文本语料质量,不宜简单用单字/单词量化衡量。 • AI 算力需求的确在不断攀升,但同时硬件、算法层面都在加速迭代,不是一条“涨算力”单向死路。 总体来说,这种贴子更多是抓住了“汉语 vs. 英语”“数据爆炸”这些大众话题,做了一些过度延伸或夸张推理,不太符合当下 NLP/AI 的真实技术生态。
5个月前
推荐阅读:如何更好的为 OpenAI o1 这样的推理模型写提示词? 去年 OpenAI 发布 o1 这样的推理模型,接着 DeepSeek 也发布了 DeepSeek R1 推理模型,推理模型和传统的生成式语言模型的差别在于,传统的生成式语言模型在收到 Prompt 后就会马上生成,如果生成出现错误或者质量不好,是没机会纠正的,只能继续生成下去或者后续纠正继续生成,但是推理模型可以在向用户输出内容之前,会先输出思维脸(Chain of Thought),对输入的 Prompt 思考验证完成后,再开始生成,这样可以保证有更好的质量,在 o1 中,OpenAI 因为怕别人偷了了他们的推理数据,所以可以隐藏了思维链的输出内容,但是 DeepSeek 的完整思考过程是可以直接看到的。 说回来提示词(Prompt),既然推理模型自己就会做思维链,这意味着以前在提示词中加入思维链的方式已经没必要了,因为大多数时候推理模型自己写的思维链质量就很好了。另外大部分时候也不需要复杂的角色扮演、示例,因为由于思维链的存在,推理模型的“智能”程度高了很多,不需要角色设置、示例也能很好的理解和跟随指令。 所以到了推理模型,已经不需要太复杂的提示词模板,大多数时候简单的提示词就可以很好的效果,但上下文(背景信息)依旧很重要。微软的工程师写了一篇文章《Prompt Engineering for OpenAI’s O1 and O3-mini Reasoning Models》,详细说明了在给推理模型写提示词应该注意的问题,一个总结了 9 个点: 1. 保证提示清晰且具体 明确说明你想让模型完成什么。避免不相关的信息。如果问题复杂,可直接简要陈述,不要同时抛出多个话题或做过多背景描述。 2. 必要的上下文要提供,不相关的要省略 包含模型所需的领域信息或数据(如案例、事实),因为模型未必具备最新或小众知识;但别堆砌与任务无关的材料或一堆示例,以免干扰。 3. 尽量零示例或极少示例 优先采用零示例模式。只有当模型理解有误或者格式不对时,才加入简短的示例作为演示。O1/O3 本身不需要像旧版 GPT 那样大量示例来引导。 4. 使用 System/Developer 指令定位角色与风格 比如「你是一位法律分析师」,或「请做一名数学老师给学生讲解」,从而设置合适的专业度和语气;再如「请用条列式列出答案」,指定输出结构。 5. 通过指令控制回答长度与详细程度 若要简短回答,就写「限一段话内给出结论」;若要详细分析,就写「请详述你的推理过程」。O1 默认会倾向详尽,但你可以覆盖该默认。 6. 在 O3-mini 上使用“推理努力程度”参数 (若 API 允许)根据任务需求设置低/中/高,以在速度与准确性之间做平衡。 7. 避免重复的“逐步思考”指示 不必告诉 O1/O3「让我们一步步思考」,因为它们已在内部做链式推理;这类指令对 GPT-4o 更有效。只有当你想要输出“所有中间步骤”时才额外声明。 8. 测试和迭代 如果初始回答不理想,可以改变提示表述或更精确地说明需求。虽然 O1/O3 通常一次就能给出高质量解答,但微调提示仍能进一步提升可读性或输出形式。 9. 对重要结论做验证 对于需要高可靠度的回答,可进行追问或多次查询,并对比不同答案或让模型自检,以增强对结果的信心。即便是 O1 也有可能出错,务必审慎使用。