3个月前
最近,AI 圈子里有两个事值得关注:一个是 GPT-4o 推出了新的画图模型,另一个是豆包升级了“边搜边想”功能。这两个例子都指向了一个正在越来越被人接受和认同的 AI 新范式——“模型即产品”。它听起来有点抽象,但其实可能会影响未来 AI 产品的发展形态。那么“模型即产品”到底是什么意思,它跟传统的AI方式有什么不同,为什么它这么厉害但为什么又不够普及? 什么是“模型即产品”? 简单来说,“模型即产品”就是把AI模型本身当作产品,它的核心价值来自于模型的智能和能力,而不是靠一大堆复杂的软件或界面来包装。 比如说,GPT-4o的新画图模型,你只需要上缠图片写六个字:“吉卜力风格化”,它就能直接生成一张高度还原又可爱的吉卜力动画风格图片;或者你可以基于刚生成的吉卜力漫画形象再去生成个表情包,甚至还能生成一幅四格漫画。不需要你会用Photoshop,也不用切换好几个App,一个模型就搞定了一切。 想想以前画图的流程:你得先找素材、调颜色、画线条,还得用别的工具加文字,步骤多得让人头晕。而现在,GPT-4o的画图模型把这些都“学会”了,直接给你成品。 这就是“模型即产品”的魅力——模型可以直接满足各种场景下的不同情况,而不需要你去设计复杂的工作流或者在不同的 App 之间切换。 它和传统的工作流智能体有什么区别?各自有什么优缺点? 传统的AI应用大多是“工作流智能体”模式。啥意思呢?就是通过预先设计好固定的流程,把AI模型和其他工具串起来,按部就班地完成任务。比如前一段时间很火的 Manus,如果你让它“帮我规划一下北京到山西自驾游的详细行程”,那么它会设计一个类似于 TODO List 的工作流: - 搜索北京到山西之间的景点信息 - 搜索北京到山西自驾游的攻略 - 生成详细行程 这样的工作流优点就是容易执行,按部就班就能出来结果,缺点就是不够灵活,因为 TODO List / 工作流一旦定了,就不好根据返回的结果做调整。如果搜索结果中出现了最近北京到山西之间某一段高速施工的新闻资讯,或者未来会出现极端天气的新闻资讯,那么就需要增加对绕开高速路段的搜索和天气预报的搜索,最终综合调整行程。 豆包最近测试上线的「边搜边想」功能是另一个很好的例子。不同于传统AI的“先搜后想”——模型根据你的问题,一股脑搜索一遍网络资料,然后拿着这一份固定的信息来作答,豆包会在思考过程中进行多轮搜索。也就是说,模型边回答边判断:“我是不是还缺某方面的信息?” 如果是,它会主动再搜索。如此循环,直到把问题各个方面都弄清楚为止。 就像前面行程规划的例子,“边搜边想”先搜出基本景点和交通方案,再根据这些结果想到“还需要看看最新的天气预报和当地交通情况”,于是进行第二轮搜索获取这些动态信息,最后综合各方面数据,甚至连景点之间的小交通都考虑进去,给出一个周全的行程表。 这就像一个聪明的助手,会根据手头的信息动态调整策略,而不是死板地走完预定路线。 为什么“模型即产品”很难? 既然“模型即产品”的模式这么强大,为什么不都采用这种模式呢?因为将模型训练成一个适应不同场景的通用产品,简单易用太难了: - 研发门槛高:需要有很强大的基座模型;需要有优质数据;需要专门的强化训练。 - 资源烧钱:训练模型得用超级多的计算资源,像GPU集群,小公司根本玩不起。 - 市场风险大:投入大、周期长,投资者往往更爱快见效的应用,而不是这种“慢工出细活”的项目。 - 用户体验挑战:模型再牛,也得有个好用的界面。像 GPT-4o 在聊天框就可以画图,像豆包只要选中“深度思考”就可以自动“边搜边想”。 简单科普:强化学习 说到这,有必要提一提“模型即产品”背后的核心技术——强化学习(Reinforcement Learning, RL)。简单说,就是让AI自己试错,像训练马戏团的动物一样,给它奖励和反馈,让它慢慢学会做事。 举个经典例子:AlphaGo,那个打败人类围棋冠军的AI。它没靠人类教招式,而是通过强化学习,自己跟自己下棋。赢了有奖励,输了调整策略,玩了几百万局后,它不仅学会了围棋,还发现了人类几千年没想到的招数。这就是强化学习的厉害之处——让AI自己摸索出最佳方案。 比如豆包的“边搜边想”也是通过强化训练,通过模拟的搜索数据库,以及搜索训练集,让模型一遍遍的去对给定的问题去尝试不同的关键词和思考后再搜索,一次又一次地尝试后终于偶然找到了答案,得到奖励。然后,模型再尝试理解并总结出那些能提高下次找到相似答案可能性的规律。 这种自主学习能力,是“模型即产品”能取代复杂工作流的关键。 未来展望 尽管挑战不小,但可以看到“模型即产品”已经成为AI发展的重大趋势。展望未来,我们可以期待“模型即产品”带来更多惊喜。也许再过不久,你与AI的互动将不仅局限于问答,而更像是与一个能够替你执行复杂操作的数字伙伴合作。届时,我们的许多应用场景可能被重新定义:很多以前要在人和工具之间反复切换的事情,现在一个AI模型就能包办。从创作灵感的火花,到繁琐资料的整理,再到决策方案的拿出,AI模型将直接为你提供端到端的支持。 真正聪明的AI,不是你告诉它怎么做,而是它自己知道该怎么做。
3个月前
Sam Altman 被 OpenAI 解雇事件背后的真实故事 秘密、误导与破裂的信任。一场关于科技界最红 CEO 被迅速驱逐又戏剧性回归的内幕。 2023 年 11 月中旬一个温暖的晚上,亿万富翁风险投资家 Peter Thiel(彼得·蒂尔)在洛杉矶艺术区一家叫做 YESS 的前卫日本餐厅里,为自己的丈夫举办了一场生日派对。这家餐厅的建筑历史悠久,原本是一家拥有百年历史的银行。坐在蒂尔旁边的,是他的朋友 Sam Altman(山姆·奥特曼)。 十几年前,Thiel 曾投资过 Altman 的第一个风险投资基金,后来又一直充当这位年轻企业家的导师。Altman 如今是人工智能革命的标志性人物,担任 OpenAI 公司的 CEO。自从 OpenAI 在 2022 年 11 月推出爆火的聊天机器人 ChatGPT 后,整个科技股市在接下来的一年中一路飙升,创下了数十年来的最佳表现之一。然而,此刻 Thiel 却忧心忡忡。 早在结识 Altman 之前,Thiel 曾资助过另一位痴迷人工智能的天才 Eliezer Yudkowsky(埃利泽·尤德科夫斯基),并赞助了他的研究机构,目标是确保未来任何超越人类的 AI 对人类本身保持友好。2023 年 3 月,Yudkowsky 曾在《时代》杂志上公开警告:如果不立即停止当前的 AI 研究热潮,“地球上每个人都会死”。 “你根本不知道 Eliezer 给你们公司一半的人灌输了怎样的思想,”Thiel 在晚餐上严肃地提醒 Altman,“你应该更认真地对待这件事。” Altman 摆弄着面前的素食盘子,努力克制着不翻白眼。这已经不是 Thiel 第一次警告他公司被所谓的“EA 人士”(有效利他主义者)渗透了。有效利他主义(EA)原本关注的是如何解决全球贫困问题,但最近却突然把重点转向如何避免人工智能的失控导致人类灭亡。 Thiel 曾多次预言:“这些整天念叨 AI 安全问题的人,最终会毁掉整个 OpenAI。” Altman 回应道:“之前的马斯克确实有点这样,但我们不是把马斯克赶走了吗?”他所指的是 2018 年 OpenAI 与 Elon Musk(埃隆·马斯克)的那场混乱分裂。当时马斯克甚至形容研发人工智能等同于“召唤魔鬼”。 与此同时,OpenAI 的近 800 名员工正享受着公司快速腾飞的红利。他们即将迎来一次价值高达 860 亿美元的股份回购机会,买一栋海景度假屋的梦想似乎近在眼前。 所以在 Altman 看来,实在没什么可慌的。 38 岁的 Altman 刚刚度过了职业生涯中最耀眼的一年。这一年里,他成了家喻户晓的人物,到世界各国与总统和总理们频繁会面,更重要的是,他兑现了硅谷最看重的承诺——交付了一项足以改变世界的新技术。 然而,就在这两位好友兼投资伙伴在洛杉矶最时髦餐厅的华丽屋顶下庆祝时,OpenAI 六人董事会中有四位成员却在秘密举行视频会议,正认真讨论要不要将 Sam Altman 解雇掉——不过,原因倒并不是 Thiel 所担心的那个“有效利他主义势力”。 这篇报道基于对数十位亲历者的采访,讲述了一场硅谷商业史上最离奇的大戏之一——全球最火科技公司 OpenAI 的 CEO 突然被解雇,又在几天后戏剧性地被重新聘用。这场风暴的核心人物,是一个性格善变的领导者:他一方面用充满想象力的科技愿景激励着身边的每个人,另一方面,他神秘的行事风格和令人困惑的误导又不断让周围的人陷入不安和迷惑。 OpenAI 从一开始就注定是一家与众不同的科技公司,它由一个非营利性质的董事会进行管理,这个董事会的职责不是向股东负责,而是要对“全人类”负责。年初,CEO Sam Altman 曾经震惊了美国国会,当时他在听证会上宣誓作证,坦白自己在自己亲手创办的这家公司里并不拥有任何股份。为了成为董事会成员,Altman 同意了这样一种前所未有的安排:董事会的多数成员必须与公司没有任何经济利益关系。他在 2023 年 6 月对彭博电视台说:“董事会是可以解雇我的。这一点很重要。” 但在实际运营中,董事会渐渐感到挫败,因为他们发现真正掌控全局的人仍然是 Altman 本人。 过去一年里,董事会一直在纠结一个问题——究竟该增加哪一位人工智能安全领域的专家进入董事会。董事会曾经面试过一位名叫 Ajeya Cotra 的 AI 安全专家,她任职于有效利他主义(EA)慈善机构“Open Philanthropy”。但这件事一直没有进展,原因很大程度上在于 Altman 以及他的联合创始人 Greg Brockman(也是董事会成员)的拖延和阻挠。Altman 则提出了自己中意的人选。 Airbnb CEO Brian Chesky 本来也在 Altman 提名的董事候选人之列,他回忆道:“那时候董事会内部隐隐存在权力斗争,有一种说法是:只要是 Sam Altman 推荐的人,那这个人肯定会忠于 Sam,所以其他董事肯定会否决掉。” Sam Altman 在 2023 年 11 月 6 日举行的 OpenAI 首届开发者大会上演讲,这距离他突然被董事会解雇不到两周。 2023 年初,亲 Altman 阵营的三名董事会成员因各种利益冲突先后辞职,让情况进一步恶化。这导致非营利董事会仅剩下六位成员,而他们掌控着背后这家如日中天的商业 AI 公司。这六个人分别是:Altman 本人,他的亲密盟友 Brockman,另一位联合创始人 Ilya Sutskever,以及三位独立董事:Adam D’Angelo(问答网站 Quora 的 CEO,曾在 Facebook 担任高管)、Helen Toner(乔治城大学安全与新兴技术中心战略主管,曾任职于慈善机构 Open Philanthropy)、Tasha McCauley(前科技公司 CEO,同时也是英国 EA 慈善组织 Effective Ventures 董事)。 2022 年夏天,董事会成员们观看了一场关于最新的 AI 技术“GPT-4”的内部演示,这是一种性能强大的人工智能模型,甚至能轻松通过美国大学先修课程(AP)的生物考试。 亲眼目睹这项技术后,董事会对于公司治理和监督 Altman 行为的担忧立刻加剧了。 Helen Toner 表示:“类似 ChatGPT 和 GPT-4 这样的新技术,让董事会突然意识到公司所涉猎的东西影响越来越大了。倒也不是说明天世界就完蛋了,但董事会确实得好好履行职责才行。” 其实,此时的 Toner 和 McCauley 对 Altman 已经有些不信任了。为了在产品发布前评估可能的风险,OpenAI 和微软共同建立了一个联合安全委员会(微软是 OpenAI 的主要支持者之一,能优先使用 OpenAI 的技术)。在 2022 年冬季的一次会议上,委员会正在讨论 GPT-4 模型里三个略显争议的新增功能的发布事宜,Altman 当时声称,这三个新功能都已经获得联合安全委员会的批准。然而,Toner 提出了质疑,要求提供证据,结果调查后发现:实际上只有一个功能真正通过了批准。 几乎在同一时间,微软悄悄地在印度启动了一次对尚未公开的 GPT-4 的测试。这可是划时代的 AI 技术第一次在未经联合安全委员会批准的情况下,就偷偷溜到了外面的真实环境里试验。而更让人吃惊的是,OpenAI 的董事会对此竟然完全不知情!董事会的独立董事们之所以知道了这件事,只是因为某次长达六小时的董事会会议结束后,其中一位董事在走廊上,被一名 OpenAI 的员工拦下来私下告诉他的。讽刺的是,在刚刚过去的漫长会议上,Altman(CEO)和 Brockman(总裁)竟然对此只字未提。 接着,在 2023 年夏天的一个晚上,OpenAI 的一名董事在一场晚宴上偶然听到有人在抱怨“OpenAI 创业基金”的事。这个基金是 2021 年 OpenAI 专门成立,用来投资与 AI 相关的创业公司,最初明确说是由 OpenAI 自己“管理”。然而,这位董事却听到了惊人的抱怨,说这个基金赚来的利润并没有进入 OpenAI 投资人的口袋。 这消息对董事会来说是全新的,董事会立即向 Altman 问清楚情况。经过好几个月的询问,董事们才慢慢发现,这个基金居然是 Altman 个人名下拥有的!一开始,OpenAI 的高管们辩解说,这样做只是“出于税务上的原因”,后来才慢慢改口说,这么操作是为了节省时间,是一种临时的安排。OpenAI 还强调 Altman 从基金中并没有收取任何费用或利润,这种安排相当不寻常。 这些荒谬的解释让独立董事们无法接受,他们觉得这已经不仅仅是行政上的疏忽,而是一系列“故意欺瞒”的一部分。回想起之前发生的一些类似事件,董事们开始怀疑,这些事根本就是 Altman 有意隐瞒。比如,就连 2022 年秋天 OpenAI 发布 ChatGPT 这种震惊世界的产品时,董事会竟然也没有提前得到消息。 当时 ChatGPT 被包装成一个技术研究的“预览版”,但它后来迅速火爆全球。 2023 年 9 月末的一天,OpenAI 的首席科学家 Ilya 突然给董事 Toner 发邮件,问她第二天是否方便聊聊。 这举动本身就非常奇怪,因为两人平常几乎从不私下交流,只在董事会上碰面。在电话里,Ilya 欲言又止,犹豫了半天才挤出一句提示:“你应该多跟 Mira 聊聊。” Mira Murati 在 2022 年 5 月被晋升为 OpenAI 的首席技术官(CTO),从那之后,她实际上一直在负责公司每天的运营。当 Toner 联系上她之后,Murati 描述了一些令人意外的细节,她直指 Altman 的管理风格“有毒”,多年来一直在公司内部制造麻烦。 而且,她还提到了 Altman 与总裁 Brockman 之间的特殊关系——Brockman 名义上向她汇报,但每当她试图管束 Brockman 时,Brockman 都会越过她直接去找 Altman,这使得她几乎无法正常开展工作。 几个月前,Murati 曾直接找 Altman 提出这些问题,但 Altman 却反而把人力资源主管拉到两人的一对一会议上,连续几个星期都是这样,直到 Murati 不得不明确告诉 Altman,她并不打算把自己的意见反馈给董事会。 Toner 随后又回去找首席科学家 Ilya 了解更多情况。Ilya 明确表示,他早就对 Altman 失去了信任,原因有很多,包括 Altman 喜欢故意制造高管之间的矛盾冲突。2021 年时,Ilya 曾经专门组建了一支团队,规划了 OpenAI 未来的研究方向,但没过几个月,另一个研究员 Jakub Pachocki 又开始做起了几乎一样的事。 后来两个团队被强行合并,而当 Ilya 转而专注于 AI 安全时,Pachocki 却顺势接手了这个合并后的团队。之后,Altman 更直接提拔 Pachocki 成为研究部门主管,私底下却同时向两人都承诺“未来会让他们各自领导公司的研究方向”,结果导致团队几个月里效率极其低下。 Ilya 对 Altman 的不满已积蓄已久,他甚至早已等待着董事会内部形势允许的时候,能够正式取代 Altman 的 CEO 职位。 在随后的几周里,Murati 和 Ilya 非常谨慎地行动,生怕被 Altman 发现。他们私下逐一和几位独立董事聊了聊,暗中通气。正因为双方几乎每天都交流,这才让董事们逮到了 Altman 撒谎的铁证。 同样是在 10 月,董事会成员 Toner 发表了一篇文章,直言批评 OpenAI 的安全策略。Altman 看到后暴跳如雷。他私下告诉 Ilya,说另一名董事 McCauley 认为,Toner 显然应该因为写这篇文章而从董事会辞职。当 Ilya 把这番话转述给 McCauley 时,她震惊不已——自己明明从来没说过这话。 这段时间以来,Ilya 和 Murati 一直在秘密搜集 Altman 的问题证据。如今,Ilya 终于决定出手。他用 Gmail 的限时自毁邮件功能,将两份 PDF 文件发给了三位独立董事(Toner、McCauley 和 D’Angelo)。 其中一份是专门揭发 Altman 的,另一份则直指 Brockman。关于 Altman 的那份材料列举了几十个他涉嫌撒谎和有毒行为的例子,大部分都附有 Murati 提供的 Slack 聊天截图作为证据。比如有一条截图里,Altman 告诉 Murati,公司法务部门认为 GPT-4 Turbo 发布时不用经过联合安全委员会的审查。但 Murati 去问公司首席律师,律师却表示自己根本没说过这样的话。 而关于 Brockman 的材料则集中揭露了他涉嫌霸凌员工的行为。 Ilya 强调,如果要采取行动,就必须尽快动手。 于是,在 2023 年 11 月 16 日星期四下午,Ilya 和三名独立董事迅速进行了一次视频会议。他们在会上投票决定解雇 Altman。同时,他们也清楚 Murati 若要当临时 CEO,绝不可能接受向 Brockman 汇报,因此董事们一并把 Brockman 也从董事会撤掉了。投票结束后,独立董事们还对 Ilya 坦白,他们其实一直担心他是 Altman 派来的卧底,专门测试他们的忠诚度。 当天晚上,Murati 正在外地参加一个会议,四位董事突然打电话过来,告诉她第二天就会正式解雇 Altman,并邀请她临时接任 CEO。Murati 接受了邀请,但她问董事们到底为什么解雇 Altman,董事们却拒绝透露。 Murati 随即追问:“你们有提前通知微软 CEO Satya 吗?”她很清楚,微软 CEO Satya Nadella 的态度对于双方合作至关重要。董事们竟然还没通知微软,最后决定由 Murati 在公开宣布消息前的最后一刻通知微软。 第二天,Altman 被突击解雇的新闻瞬间轰动全球。 但董事会却对员工和公众没有任何合理解释,除了笼统地说 Altman 对董事会“不够坦诚”。 周五晚上,OpenAI 董事会和高管团队接连开了好几场越来越激烈的会议。Murati 此时开始觉得董事会的做法太不专业,事前根本没有对解雇 Altman 可能带来的严重后果做充分准备。 会议中,Murati 甚至带领整个高管团队,给董事会下了最后通牒:要求董事会在 30 分钟内清楚说明解雇 Altman 的真正理由,否则就集体辞职。 董事会这时陷入了两难:他们无法透露,实际上是 Murati 亲手向他们提供了关于 Altman 管理问题的绝大部分证据。本来他们还指望 Murati 能够安抚员工情绪,结果现在她却成了带头造反的人。 与此同时,Altman 阵营迅速散播出另一种说法,声称这次事件其实是 Ilya 策动的一场“政变”。他们说,Ilya 一直不满 Altman 提拔了 Pachocki,董事 Toner 则不满 Altman 试图逼她辞职,这才联手赶走 Altman。 Ilya 对此震惊不已。他原本以为 OpenAI 的员工们会为他们的决定而喝彩。 然而到了周一早晨,OpenAI 几乎所有员工都签署了一封公开信,威胁称如果 Altman 不立即复职,他们将集体辞职。联名信上赫然有 Murati 和 Ilya 自己的签名。局势已然非常明显:要阻止公司彻底崩溃,唯一的办法就是请回 Altman。 2023 年 10 月,Altman 和 Murati 曾共同在舞台上演讲。 (改编自 Keach Hagey 所著新书《The Optimist: Sam Altman, OpenAI, and the Race to Invent the Future》(《乐观主义者:Sam Altman、OpenAI 与创造未来的竞赛》),本书将由 W.W. Norton 出版社于 2025 年 5 月 20 日出版。版权所有归作者 Keach Hagey。)
3个月前
GPT-4o 的新的图像模型生成原理:自回归模型究竟是什么?为什么它如此惊艳? 你可能听说过OpenAI最新发布的GPT-4o能够流畅生成高质量图片,但与过去大热的Midjourney、DALL·E、Stable Diffusion这些“扩散模型(Diffusion Models)”不同,GPT-4o的图像生成采用了一种看起来简单却充满魔力的方式:自回归模型(autoregressive model)。 那么,自回归到底是什么意思?GPT-4o又如何做到逐像素、逐区域地生成清晰图片? 什么是自回归图像生成? 我们先从“自回归”这个词开始拆解: • “自”(Auto) 意味着自动,模型不需要额外干预; • “回归”(Regressive) 意味着模型会根据之前已经生成的信息去预测后续的信息。 打个简单比方: 你正在手绘一幅画,你不会一下子就画出完整的画面,而是会从一小块区域逐渐向外扩展,每一笔都是基于之前你所画的内容来决定下一笔的走向。 自回归模型的核心思想与这个绘画过程类似。具体到GPT-4o,就是: • 模型从顶部开始,依次往下逐行生成画面; • 在每一步,模型参考之前已生成的像素信息,预测下一个像素(或像素组)的内容; • 如此不断循环,逐步描绘出完整图像。 这与扩散模型完全不同,扩散模型就像是先把纸上泼满了颜料(噪声),再一步一步地擦去不需要的部分,直到剩下一幅清晰的画。 为什么要用自回归而非扩散? 扩散模型虽然出色,但有明显缺点: • 一开始全是噪点,无法在初期看到图像的任何轮廓。 • 在生成过程中很难逐步“引导”,更多的是一次性成像。 • 难以在过程中进行细致的修改与编辑。 而GPT-4o自回归的生成方式有两个明显优势: 1. 更强的连贯性(Coherence) 由于每一步生成时都会参考之前生成的内容,GPT-4o对图像的连贯性控制更精细。就像我们写文章时先列个提纲,再逐段写下来,每句话都与上文紧密相连,自然更加流畅。 举个生活化的例子: 假如你请AI画一只猫,如果用扩散模型,它可能一开始呈现的只是模糊的一团,猫咪的形态在很后期才逐渐明朗;但GPT-4o则会在最开始就勾勒出猫咪的大致轮廓,然后再慢慢细化每个细节,比如眼睛、耳朵、毛发,这种方式让生成过程更“人性化”。 2. 更精准的编辑能力 自回归的另一个巨大优势是可以精准地实现局部修改。因为图像是按顺序生成,用户可以随时介入修改局部的部分,AI随后生成的区域都会根据这个修改的内容自动适应。 比如: 假设AI正从上到下生成一张风景画,你在画到中途突然想让天空中多一些云彩,你只需要在生成天空的阶段做出指示,AI就可以在下一步中立即调整,生成符合你期望的云朵形状,而不必重新从头生成整幅图像。 从实际的生成过程看GPT-4o (图3,来源:Peter Gostev) 透过ChatGPT的网页端,我们可以用浏览器自带的开发者工具,观察到一些很有趣的细节: • 从上到下逐行生成 GPT-4o生成图像的过程就像绘画时从顶部开始逐渐填充内容。 • 初始轮廓迅速显现,随后逐步精细化 这类似于画家先快速勾勒出构图的大致轮廓,随后逐渐增加细节。 • 局部已生成的区域可能会被反复调整 即使局部区域已经生成,后续的生成过程依旧可能对这些区域作出较大调整,这表明模型有明显的全局连贯性优化策略——就像作家写完一段话后,也可能反复修改前面的文字,以使全文更加流畅。 • 生成简单图像明显更快 如果你只是要求生成一颗简单的苹果,模型几乎瞬间就能呈现;但如果你希望生成一幅复杂场景(如喧嚣的城市街景),过程会明显更久,中途还会显示多个“中间图像”,说明GPT-4o内部可能还利用了一种称为“投机解码”(speculative decoding)的技术,提前预测多个步骤的结果并进行修正,从而提升效率。 • 额外的背景移除机制 GPT-4o似乎具备某种外部背景去除能力:最初它会显示“伪透明”的方格背景,而真正的背景移除在生成结束后才完成,这个步骤明显是模型外部追加的后处理程序,而非GPT-4o本身固有的特性。 技术难点与实现的奇迹 OpenAI成功实现这种模型的最大难度,是如何在自回归生成方式中兼顾生成质量和速度。自回归模型通常要求庞大的参数量和计算资源来保持图像质量,而GPT-4o竟然做到既快速又高质,让不少业内人士感叹: “GPT-4o竟然用自回归方式做出了扩散模型一样甚至更好的效果,实在令人难以置信。” 这一实现,背后必然包含了极其高效的模型设计和优化算法。 对于普通人,这意味着什么? GPT-4o的成功代表着AI图像生成技术迈入了一个全新的阶段: • 我们可以更轻松地进行交互式设计,让AI快速而精准地生成想要的内容; • 它将使图片编辑变得更加直观,就像与AI一起逐步绘画,随心所欲地调整每个细节; • 甚至可能引领未来的视觉创意领域,让创作者不再拘泥于一次性的图片生成,而是享受随时交互、随时调整的自由创作。 最终,这种技术的突破既是计算机科学的成就,也是在提示我们: “技术真正的进步,并非为了替代人类,而是为了给每个人手中都放上更好的‘画笔’,以更自由的方式描绘属于自己的世界。” 或许 GPT-4o 告诉我们的,不只是AI能够做到什么,而是我们真正想要如何运用它。
3个月前
GPT-4o 生成复杂四格漫画提示词 工具(需付费订阅):ChatGPT GPT-4o 或 (推荐,可以一次生成多张) (注意:不是很稳定,需要生成几次才能有一张好的) 提示词: 经典的“Out the Window” Meme 四格漫画竖版布局,标题在漫画顶部居中,背景为现代办公会议室场景,风格简洁、幽默、清晰易懂,所有人物均以卡通风格表现,适合用于网络传播。 ### 标题(居中): 《如何借助 AI 提升开发效率?》(中文,加粗) ### 第一格(完整横格): - **场景**:公司会议室,老板站立在白板或投影幕前讲话,老板为分头发型、西装领带、严肃但略带疑惑的男性(参考图1)。 - **动作**:老板张开双手,似在询问,下方桌前并排坐着三位员工(从左到右:小明、小红、小互)。 - **对话气泡(老板)**:“我们要如何借助 AI 提升开发效率?” - **员工描述**: - 小明(程序员):男性,蓝色格子衬衫,戴眼镜,程序员气质。 - 小红(设计师):女性,休闲时尚穿搭,显出设计师的个性气质。 - 小互(测试员):女性,戴圆眼镜,职场休闲风(参考图2)。 ### 第二格(完整横格,画面中三个员工分别给出回答,表情认真自信): - **小明(左侧)对话气泡**:“我们用 AI 写单元测试。” - **小红(中间)对话气泡**:“我们用 AI 做代码审查。” - **小互(右侧)对话气泡**:“Vibe Coding。” ### 第三格(下半行左侧小格): - **老板特写镜头**,表情从严肃转为愤怒,面容阴沉,额头出现愤怒的青筋或“井”字符号。 ### 第四格(下半行右侧小格): - **场景切换到大楼外景**,高层窗户打开,眼镜女性员工小互夸张地被老板扔出窗外,表现幽默的动态姿势,小互表情惊讶并带有喜剧效果,窗内老板依然维持愤怒的表情和姿势。 --- ### 附加风格要求(可选但推荐): - 人物绘制:卡通化、线条清晰明快,颜色鲜明易辨,易于网络传播。 - 对话气泡:中文文字,字体清晰、大小适中且统一,采用黑色文字、白色背景的标准漫画气泡。
3个月前
纽约时报:知识型工作的衰退已经开始了吗? 近几年,大学毕业生的失业率上升速度超过了其他群体。这种现象到底有多严重呢? 作者:诺姆·谢贝尔(Noam Scheiber) 2025年3月25日 上个月,星巴克宣布裁员超过1000名公司职员。这一消息突显出白领阶层中令人担忧的趋势:最近几年,白领的失业率攀升得更快,薪资增长也更加缓慢。 这进一步引发了经济学家一直争论的问题:当前的裁员潮只是暂时现象,还是预示着更严重、更持久的危机? 整体失业率在两年多里一直低于4%,但从去年五月开始已突破了这个门槛。 经济学家认为,从历史上看,目前的就业市场仍算强劲。最近的疲软很大程度上和疫情后的经济调整有关。当时企业因需求暴涨而疯狂招聘,但随着美联储加息,不得不转向裁员,企业迫于投资者压力精简运营规模。 不过,在人工智能快速发展以及特朗普总统持续缩减联邦政府预算(联邦政府恰好是支撑大量白领岗位的主要资金来源)的背景下,有人开始担心,知识型工作可能正进入长期衰退期。 北方信托银行首席经济学家卡尔·坦嫩鲍姆(Carl Tannenbaum)表示:“我们正在见证白领工作的巨大转型,我告诉大家:一波浪潮即将来临。” 目前,没有哪个行业比电子游戏行业更能体现这种转变了。2020年疫情期间,美国人大量宅家,对电子游戏的需求爆发式增长,游戏公司因此大规模招聘。但好景不长,最近几年该行业大量裁员,仅去年和前年就有数千人失业。 2024年电子游戏开发者选择奖(游戏行业一年一度的重要颁奖典礼)的主持人在开场时便公开抱怨行业“史无前例的裁员潮”。同年,原本只限于薪资较低的游戏测试人员的工会运动,逐渐扩展到游戏制作人、设计师和工程师,比如开发热门游戏《辐射》和《魔兽世界》的公司。 微软旗下贝塞斯达游戏工作室(开发了《辐射》系列)员工表示,他们选择成立工会的原因之一,就是2023和2024年的裁员潮,让他们感到不安。“公司很久没有裁员了,这次真的把很多人吓到了,”该工作室制作人泰勒·韦林(Taylor Welling)表示,他拥有互动娱乐硕士学位。微软方面拒绝发表评论。 金融及相关行业的失业率仍处于较低水平,但从2022到2024年增长了约四分之一,原因是利率上升导致房贷需求下滑,企业被迫缩减开支。去年夏季,富国银行首席执行官表示,过去16个季度里,公司持续裁员,其中房贷部门员工自2023年以来几乎减半。 去年秋天,富国银行的企业行为管理团队(负责审查员工和客户的不当行为投诉)裁掉了约四分之一的员工。被裁员的律师希瑟·罗夫斯(Heather Rolfes)表示,她认为裁员目的就是为了缩减美国员工成本,同时针对近期曾计划成立工会的员工群体:“公司一石二鸟,裁员和反工会一步到位。”然而,富国银行的发言人否认裁员与工会相关,并强调管理层也有两人被裁。 企业战略专家、曾任职于麦当劳和亚马逊的阿提夫·拉菲克(Atif Rafiq)指出,很多公司正试图效仿亚马逊,建立跨职能的团队,打破程序员、营销人员等专业人士之间的壁垒。这种模式下,很容易发现人员重复,进而裁员。星巴克和日产汽车最近都宣布裁员时,给出的理由也类似:“减少冗余,打造更精简、更灵活的团队”。 纽约联邦储备银行最新数据显示,从2022年9月至今,大学毕业生失业率上升了约30%(从2%升至2.6%),而总体劳动者失业率则上升约18%(从3.4%升至4%)。ZipRecruiter招聘平台首席经济学家朱莉娅·波拉克(Julia Pollak)的分析表明,失业增加最多的是本科学历或有大学经历但未获得学位的人,而教育程度最高(拥有硕士以上)和最低(未完成高中学业)的群体失业率则保持稳定或下降。 根据ADP就业研究的数据,要求大学学历岗位的招聘速度,也明显慢于其他岗位。 不过,有经济学家认为,这些现象可能只是短期的,不必过于担心。哈佛大学劳工经济学家劳伦斯·卡茨(Lawrence Katz)指出,大学毕业生失业率虽稍高于整体失业率增长幅度,但从历史标准来看仍处于较低水平。 卡茨教授表示,近年来高学历人群薪资增长放缓,可能部分原因是这些人更看重居家办公的弹性,愿意牺牲部分薪资增长。但美国经济政策研究所数据显示,从2019年以来,收入排名70%到80%的中上阶层工人,薪资增长确实是最缓慢的。 长期来看,大学学历带来的收入优势在过去15年也趋于平缓。虽然大学学历与无学历群体薪资差距自1980年后一直在扩大,但近15年基本保持稳定,部分原因可能是大学毕业生人数增多,也可能是企业对应聘者学历要求降低,尤其是IT技术越来越成熟后,像记账员这类过去高薪且要求大学学历的岗位,现在并非必须要大学毕业生了。 人工智能(AI)的兴起可能进一步削弱大学学历的优势。最新学术研究表明,使用AI编程助手的软件开发者生产效率提高超过25%,尤其对经验较少的程序员帮助更大。这意味着AI技术的普及可能降低经验丰富程序员的薪资优势。 麻省理工学院经济学家梅特·德米雷尔(Mert Demirer)表示,未来程序员可能更多地扮演项目经理的角色,管理多个AI助手,这样可能反而提升人类员工的薪资。但短期来看,企业显然把AI当作裁员的工具,一家大型科技公司的软件工程师透露,他所在的团队去年裁员了一半,现在只能借助AI助手勉强维持原有工作量。 科技行业的失业率自2022年以来迅速上升,2024年已达到4.4%(之前为2.9%)。 此外,特朗普政府对联邦政府部门的改革导致大量联邦雇员及依赖政府资助的大学和非营利组织职员失业或冻结招聘。约翰·霍普金斯大学最近宣布全球范围裁员2000人,原因正是联邦资金减少。 哈佛的卡茨教授强调,大学毕业生就业很大一部分与联邦政府直接或间接关联,因此联邦科研、教育预算的大幅削减,“潜在影响将非常巨大”。 “目前大学毕业生的失业率虽然看起来还不算特别高,”卡茨教授补充道,“但半年后情况可能就不一样了。”
3个月前
The Verge:X 的工程负责人突然离职,马斯克正忙于 DOGE 和 xAI 作者:Kylie Robison 据知情人士透露,X公司工程总监王浩飞(音,Haofei Wang)已突然离职。 王浩飞于2023年7月加入由埃隆·马斯克领导的X公司。他在公司高层发挥着关键作用,经常充当马斯克与公司其他工程师之间沟通的桥梁。最近一段时间,由于马斯克更多地将注意力转向xAI和狗狗币(DOGE),王浩飞实际上已成为X公司工程与产品部门的实际领导人。目前,他为何突然离职尚不明确,王浩飞本人和X公司发言人在本文发布前均未回应置评请求。 最近,X公司新增了其他几名工程团队高管:迈克·道尔顿(Mike Dalton)和乌代·鲁达拉朱(Uday Ruddaraju)。二人均来自Robinhood(美国著名投资交易平台),并于今年1月加入X。他们的LinkedIn个人资料显示,两人也同时任职于xAI,这也凸显出过去一年中X公司与xAI之间越来越密切的关系。 得益于xAI日益增强的影响力以及马斯克近期政治地位的提升,X公司的业务似乎正在回暖。据称,该公司刚刚从投资人那里获得了440亿美元的估值,恰好与马斯克2022年收购推特时的价格相同。尽管马斯克仍频繁活跃在X平台上发帖,但自去年夏天起,他为特朗普总统竞选活动助力以来,个人精力和领导力逐渐出现了明显分散的情况。 马斯克最初收购推特时曾表示,他要把它改造成类似于中国微信的“万能应用”(everything app)。The Verge曾报道过一次内部会议,马斯克当时称,如果X在2024年年底前无法全面覆盖“一个人的所有金融生活”,他会感到非常意外。尽管目前这些计划尚未完全落地,但消息人士告诉我,名为“X Money”的支付平台正在积极筹备中,预计今年稍晚时候就会正式推出。
3个月前
彭博社:阿里巴巴蔡崇信警告——人工智能数据中心建设恐陷“泡沫” 阿里巴巴集团董事长蔡崇信近日发出警告称,当前人工智能数据中心的建设热潮可能存在泡沫。他指出,目前数据中心的建设速度可能已经超过了市场对AI服务的实际需求。 蔡崇信在周二举行的香港汇丰全球投资峰会上发表演讲时表示,现在从美国到亚洲,大型科技公司、投资基金和其他机构纷纷建设服务器基地,这种趋势已经显得有些盲目。这位身家不菲的企业家兼金融家称,目前不少项目甚至连明确的客户需求都没有,就匆忙开建。 目前,从微软到软银,环太平洋两岸的科技巨头们都在投入巨资抢购英伟达(Nvidia)和SK海力士(SK Hynix)生产的AI芯片。阿里巴巴自己也在2月份宣布全面押注人工智能,并计划未来三年内投入超过3800亿元人民币(约520亿美元)。从印度到马来西亚,大量服务器机房迅速崛起,而在美国,特朗普总统正积极推动一项名为“星际之门”(Stargate)的项目,预计投资规模高达5000亿美元。 然而,在蔡崇信发表这一言论后,阿里巴巴的股价在香港下跌超过3%。事实上,华尔街许多人已开始质疑这种巨额投资的必要性,尤其是在中国AI新秀DeepSeek最近发布了一个开源AI模型后。这家新兴企业声称,其模型性能已与美国最顶尖的AI技术不相上下,而开发成本却低得多。此外,许多批评者还指出,尽管AI热度很高,但实际的商业落地场景仍然非常有限。 蔡崇信在会上对现场嘉宾说道:“我已经开始看到某种泡沫的迹象。” 他指出,目前不少计划中的项目还没有签订实际的使用协议,就已经开始向市场募集资金。“我对那些盲目建设数据中心的行为感到忧虑。有不少人和基金涌入市场,轻易筹措了数十亿甚至数百万美元资金,这令人担心。” 2025年,阿里巴巴正经历一场明显的复兴,其中一个重要推力就是近期大热的“通义千问”(Qwen)AI平台。蔡崇信表示,该平台预计将极大提升阿里的核心电商业务以及云服务。在峰会上,他还提到阿里巴巴正经历一场“重启”,开始积极重新招募人才,逐渐走出过去几年监管压力所造成的增长停滞。同时,阿里巴巴已经启动了一系列人才招募计划,力图实现其发展“通用人工智能”(AGI)的远大目标。 不过,蔡崇信对于美国竞争对手的巨额AI投资却持有不同看法,甚至提出尖锐批评。 今年以来,亚马逊()、谷歌母公司Alphabet以及Meta三家公司,分别承诺投入1000亿美元、750亿美元以及最高650亿美元用于建设AI基础设施。 而早在2月份时,美国TD Cowen分析师就曾指出,微软已经取消了一些数据中心的租赁合同,这让人担忧微软可能超前建设了太多未来未必需要的AI计算资源。 但微软方面的高管淡化了这些担忧,表示公司当前的支出规模达到历史之最,其中大部分投入用于芯片和数据中心建设。微软曾表示,本财年公司在AI数据中心建设上的投入预计将达到800亿美元,但从今年7月开始,这种增长的势头应该会有所放缓。 蔡崇信告诉与会人士:“我依然对美国当前在AI领域所提到的投资数字感到震惊。” “现在人们随口就谈论投资5000亿美元、数千亿美元。我觉得这种规模的投资完全没有必要。某种程度上,许多人正在超前于现实需求进
3个月前
Cloudflare 推出「AI迷宫」,专门忽悠爬虫机器人! 与其阻止爬虫机器人,不如主动把它们引进一个由AI生成的「废话迷宫」,让它们自我迷失。 作者:韦斯·戴维斯(Wes Davis) 2025年3月22日发布于《The Verge》 全球最大的网络基础设施公司之一 Cloudflare 最近发布了一个叫做 「AI迷宫」(AI Labyrinth) 的全新工具,专门用来对付那些未经允许、到处抓取网页内容的爬虫机器人(Web Scraper)。这些机器人往往是为了获取免费数据,拿去训练AI模型。 根据Cloudflare在官方博客上的介绍,当系统检测到有“异常的爬虫行为”时,这个免费的可选工具就会开始发挥作用。它会引导这些坏机器人走进一个充满链接的迷宫。这些链接指向的全都是AI自动生成的「虚假页面」,而这些页面里的内容都是毫无价值、用来迷惑机器人的废话。目的是:“让这些不怀好意的机器人变得越来越慢、越来越迷茫,最终耗尽他们自己的资源”。 一直以来,网站管理员通常使用一种叫做「robots.txt」的文本文件,它像是君子协议一样,告诉爬虫哪些页面能抓,哪些不能碰。然而,许多AI公司,甚至是知名公司,比如 Anthropic 和 Perplexity AI 都曾被指控故意忽视这种协议,随意抓取网页内容来训练自己的AI模型。 Cloudflare表示,每天大约会收到超过 500亿次 来自网络爬虫的访问请求。虽然公司已经有了识别和拦截恶意爬虫的工具,但恶意爬虫总会迅速改变策略,形成一场永远无法停止的技术「军备竞赛」。 这一次,Cloudflare换了一种更聪明、更讽刺的方法:不再直接拦截机器人,而是把它们「带偏」。具体来说,「AI迷宫」会让机器人花费大量时间处理完全与目标网站无关的数据,陷入无止境的AI生成页面里。 Cloudflare还把这个功能称为“下一代的蜜罐陷阱”(Honeypot),因为人类访问者很容易分辨哪些链接是无用的,不会去点;但机器人会毫无顾忌地追逐每一个链接,越陷越深,无法自拔。通过这种方式,公司可以轻松记录机器人的行为模式,快速识别出新的爬虫类型,并不断优化自己的防御工具。 为了防止生成的虚假内容造成误导或传播假消息,Cloudflare强调这些生成的内容都是基于真实的科学事实,只是与目标网站完全无关,让机器人抓取的数据没有任何真正价值,也无法用作训练AI的有效数据。 目前,网站管理员只需前往自己Cloudflare管理后台中的“机器人管理”(Bot Management)界面,打开对应的开关,就能轻松使用这个工具。 Cloudflare表示,「AI迷宫」只是他们利用生成式AI来反制恶意爬虫的第一步。接下来他们的计划更加雄心勃勃:构建一整个由大量虚假页面组成的网络,让机器人彻底迷失其中,甚至难以察觉自己陷入了陷阱。科技媒体 Ars Technica 也指出,这种「AI迷宫」的理念类似于另一种名为 Nepenthes 的工具,据称Nepenthes能让机器人被困在虚假内容里长达“几个月”,消耗大量时间和资源。
3个月前
如何写好提示词?手把手教你用提示词玩转 AI(1) 如今,AI 已经无处不在,从聊天机器人、内容创作、程序开发,到工作学习中的各种辅助工具。但你有没有遇到过这样的情况? • AI 给出的答案文不对题? • 输出的内容一团糟? • 生成的文本不够具体,无法直接使用? 这些问题的根源,往往并不在 AI,而在于你写的「提示词」(Prompt)还不够清晰。要知道,AI 并不能真正理解你脑子里在想什么,它只能根据你输入的提示词,猜测你的需求。 本文将带你一步步学会写出高质量的提示词,从此让 AI 成为你的好帮手! 什么是提示词(Prompt)? 提示词是你告诉 AI 做什么、怎么做的一段描述。一个好的提示词,通常由四个关键要素组成: • 指令(Instruction):你想让 AI 做什么? • 上下文(Context):AI 完成任务需要哪些背景信息? • 输出格式(Output Format):你希望结果以什么样的形式输出? • 角色(Role):AI 应该以什么样的身份来执行任务? 掌握了这四个要素,你就能精确地控制 AI 生成的结果。 一、指令(Instruction)—— 清晰明确是关键! 指令到底是什么? 指令就像是你给 AI 下达的命令或提出的问题,比如: • 「帮我总结一下下面这篇文章的核心观点。」 • 「写一篇介绍人工智能发展历史的科普文章。」 但并不是所有的指令都是好指令。 什么样的指令算好的? ❌ 不好的指令示例: • 写篇文章 • 做一个小游戏 • 起个好名字 这些指令模糊不清,让 AI 无法确定你到底想要什么。 ✅ 好的指令示例: • 写一篇探讨人工智能在医疗诊断中应用的 1000 字文章,面向中学生,语言简单易懂,科普风格。 • 写一个可以在网页上运行的 3D 贪吃蛇小游戏,要求画面流畅,支持键盘操作。 • 为我的 AI 写作产品分别取 3 个创意、易记、突出主题的名字。 可以看到,清晰具体的指令能极大提升 AI 工作效果。 二、上下文(Context)—— 让 AI 更懂你 上下文是什么? 上下文指 AI 完成任务时所需要的额外背景信息,比如你正在写的论文草稿、公司过去的数据资料、具体任务的相关参考材料等。 举例来说: • 「以下是公司过去三年的销售数据,请分析后给出提升销售的建议。」 • 「我正在撰写人工智能方面的论文,这是我的初稿,请帮我完善,并添加适合引用的学术文献。」 上下文可以是你自己提供的内容,也可以是 AI 之前生成的内容。 为什么上下文很重要? AI 并不知道你脑子里的信息。缺乏上下文,它只能盲目地猜测,生成的内容自然会偏差甚至离题。 例如你说:「帮我写一份简历」。 AI 并不知道你的背景、技能、求职目标,只能泛泛而谈。但如果你给它提供上下文,例如: • 你的个人信息(姓名、学历、项目经验) • 目标职位和目标公司的文化背景 AI 就能轻松写出一份精准、适合你的简历。 如何提高上下文质量? • 检查自己有没有提供任务所需的全部信息。 • 主动向 AI 提问:「写好这篇文章,你还需要知道什么?」 • 提供参考案例或范文,让 AI 更清晰你的预期。 三、输出格式(Output Format)—— 让 AI 更好交作业 输出格式是告诉 AI 你想要结果以怎样的形式展现。例如: • 「请用表格展示以下信息,列分别为日期、事件、影响。」 • 「生成一份 500 字左右的摘要,要求分为引言、主要观点和结论三个部分。」 • 「请以 Markdown 格式输出,使用一级标题、二级标题和有序列表。」 常见易用的输出格式有哪些? • 文本类:Markdown、CSV、JSON、XML • 图示类:流程图(Mermaid)、思维导图 • 代码类:各类编程语言代码示例 • 数学公式:LaTeX 格式 如何精确指定格式? 最简单有效的方法: • 提供一个清晰的示例(few-shot):展示期望的输出模板。 • 详细描述每个部分的内容要求。 • 用伪代码或类型定义告诉 AI 结构。 例如你要 AI 生成一段 JSON: 请生成如下 JSON 格式: { "title": "文章标题", "content": [ { "heading": "一级标题", "paragraph": "内容段落" } ] } 这样 AI 就能轻松给你所需的精准格式。 四、角色(Role)—— 让 AI 拥有“灵魂” 角色就是 AI 在完成任务时扮演的身份。你可以不设置角色,但合适的角色能让 AI 更精准地把握你的需求,提供更专业的服务。 例如: • 「你是一位经验丰富的软件工程师,帮我审查并优化下面这段代码。」 • 「你是心理咨询师,请用温和、共情的语气帮我分析下面的问题。」 • 「你是一名苏格拉底式导师,请通过启发式的提问帮助我理解人工智能概念。」 角色设定的好处在于: • 明确 AI 的任务边界和思考角度。 • 让 AI 更精准地使用它训练过的特定领域知识。 综合示例:用好这四个要素,你就掌握了提示词的精髓 现在我们结合上面所有要素,看一个完整的高质量提示词示例: 任务:帮我写一个关于人工智能在医疗领域应用的总结。 「你是一位擅长用通俗语言讲解科技的科普作家(角色)。 请结合下方提供的两篇学术论文的摘要(上下文), 写一篇适合初中生阅读的 500 字以内的总结文章(输出格式)。 文章要通俗易懂,举至少两个具体的例子来说明人工智能如何改善医疗诊断效率(指令)。」 这样的提示词,AI 就会迅速准确地生成你想要的内容。 总结:写好提示词的秘诀 你要牢牢记住提示词的四大要素: ✅ 指令清晰具体 ✅ 上下文完整充分 ✅ 输出格式明确 ✅ 角色定位精确 下次再用 AI 时,不妨拿出这套方法练一练,相信你会得到意想不到的满意结果!
3个月前
TechCrunch:Anthropic公司似乎正在使用Brave搜索引擎,为旗下的Claude聊天机器人提供网页搜索功能 作者:Kyle Wiggers 本周早些时候,人工智能公司Anthropic为旗下的聊天机器人平台Claude推出了网页搜索功能,这使Claude在功能上追平了许多竞争对手。最初还不清楚Claude使用的是哪家的搜索引擎——有人猜测Anthropic可能开发了自己的搜索系统。不过,有迹象表明,他们实际上使用的是Brave浏览器公司提供的Brave搜索引擎。 本周五,软件工程师Antonio Zugaldia注意到,Anthropic在官网文档中悄悄把“Brave Search”添加到了合作伙伴列表中,这个列表专门列出那些帮Anthropic处理Claude数据的外部公司。此外,英国程序员Simon Willison发现,通过Claude搜索某些内容时,返回的引用来源与Brave搜索结果完全一致。他还注意到,Claude搜索功能中存在一个名为“BraveSearchParams”的参数(参数即编程代码中的特定设置)。 Brave此前已为其他聊天机器人提供网页搜索服务,比如Mistral公司旗下的聊天机器人Le Chat。今年2月,Brave与Mistral宣布,Le Chat已采用Brave提供的搜索API,以实现实时的网页搜索功能。 有一些AI公司对合作的搜索引擎信息守口如瓶,可能是出于竞争的原因。比如,OpenAI就与必应(Bing)达成了搜索合作,但ChatGPT实际使用的搜索结果来源可能还包括其他未公开的渠道。