宝玉
6个月前
WSJ: 谢你十亿美元的工作邀约,马克·扎克伯格。但我选择拒绝。 在当今的硅谷,忠诚和传奇人物正促使一些人拒绝那些高得离谱的优厚待遇。 为了在生成式 AI 的竞赛中迎头赶上,马克·扎克伯格在几个月前联系了 OpenAI 的前首席技术官米拉·穆拉蒂 (Mira Murati),提出收购她刚刚起步的初创公司——Thinking Machines Lab。 当她拒绝后,这位 Meta 的首席执行官发起了一场全面的“挖人大战”。在接下来的几周里,他接触了穆拉蒂公司约 50 名员工中的十几位,试探他们跳槽的意愿。他的主要目标是:安德鲁·图洛克 (Andrew Tulloch),一位顶尖研究员,也是该公司的联合创始人。 据知情人士透露,为了挖走他,扎克伯格开出了一个十亿美元级别的薪酬包,如果在至少六年的时间里,加上顶格的奖金和非凡的股票表现,其总价值可能高达 15 亿美元。 图洛克拒绝了。他的同事也无一离开。 Meta 的发言人安迪·斯通 (Andy Stone) 称这份报价的描述“不准确且荒谬”,并表示任何薪酬包都取决于股价的上涨。他还补充说,Meta 对收购 Thinking Machines 不感兴趣。 即使在硅谷这个明星工程师长期以来拥有巨大经济影响力的地方,拒绝上亿美元的薪酬包也实属罕见。但随着 AI 人才争夺战 的愈演愈烈,那些拥有最雄厚资金储备的公司发现,“钞能力”并非万能。 虽然一些 AI 研究员如同自由人一样,为了更高的薪酬和权力在各个实验室之间跳槽,但也有相当一部分人对自己选择的领导者表现出坚定不移的忠诚。这些领导者是科技界的传奇人物,他们的名字本身就如同摇滚巨星一般具有号召力。不同初创公司独特的文化将员工紧密地联系在一起。与此同时,经过多年的轮番挖角,各家公司在人才防守方面也变得越来越精明。 OpenAI 及其前员工(如穆拉蒂)创办的公司,是扎克伯格招聘闪电战的常客。从 AI 竞赛的早期开始,先驱们就以参与创造通用人工智能(AGI,即在大多数任务上比人类更聪明的系统)这一历史性使命来吸引研究人员。正是由萨姆·奥特曼 (Sam Altman)、埃隆·马斯克 (Elon Musk) 和伊利亚·苏茨克维 (Ilya Sutskever) 等人联合创立的 OpenAI,将这一使命变成了一种准宗教般的追求,其非营利宪章旨在确保这项工作能够造福全人类。 OpenAI 首席执行官萨姆·奥特曼和曾任 OpenAI 首席技术官、后创立 Thinking Machines Lab 的米拉·穆拉蒂,都偏爱扁平化的汇报层级。 Meta 已经接触了超过 100 名 OpenAI 的员工,并成功雇佣了至少 10 名。7 月 25 日,扎克伯格任命曾在 OpenAI 工作三年的中国研究员赵晟嘉 (Shengjia Zhao) 领导 Meta 新成立的超级智能团队。 据知情人士透露,那些迄今为止拒绝了 Meta 橄榄枝的 OpenAI 研究员之所以选择留下,是因为他们相信 OpenAI 最接近实现通用人工智能,他们希望在一家规模较小的公司工作,并且不希望自己的劳动成果主要被用于以广告为驱动的产品。 扎克伯格从 Anthropic 挖到的人才就更少了。这家市值 1700 亿美元的初创公司由达里奥·阿莫迪 (Dario Amodei) 领导,五年前他离开 OpenAI 创办该公司时,带走了一批顶尖人才。 Anthropic 的七位联合创始人至今仍在公司。他们中的许多人是在十多年前通过“有效利他主义”这个紧密的圈子认识阿莫迪的。这是一场在研究人员中广受欢迎的社会运动,因为它早期就关注到 AI 可能失控并毁灭人类的风险。他们中的一些人曾住在旧金山的一栋集体公寓里,辩论如何最有效地捐出自己的财富,以及 AI 所带来的风险。 扎克伯格从这家初创公司至少挖走了两名员工——乔尔·波巴 (Joel Pobar) 和安东·巴赫金 (Anton Bakhtin)——他们两人都曾在 Meta 工作多年。 伊利亚·苏茨克维已采取措施,保护其公司的人才免受潜在的挖角。 苏茨克维在去年联合创办的初创公司 Safe Superintelligence (SSI) 的构建方式,使其相对难以被挖角。与阿莫迪不同,苏茨克维没有从 OpenAI 挖走一大批研究员加入他。 苏茨克维的大多数员工在硅谷并不出名,部分原因在于该公司正在寻找那些有新想法、有前途的技术专家,以便苏茨克维亲自指导。公司不鼓励他们在领英资料上提及 SSI,部分原因是为了防止其他公司试图挖走他们。今年早些时候,苏茨克维 拒绝了 扎克伯格收购 SSI 的提议。 穆拉蒂在 OpenAI 工作了六年,于去年九月离职,她也拥有自己的一群追随者。她来自阿尔巴尼亚,在 OpenAI 还是一个小研究实验室时就加入了,帮助推出了公司的第一款产品,并作为首席技术官管理着公司几乎所有方面的事务。 在 OpenAI,她以高情商和毫无架子而闻名,这为她赢得了研究和工程人员的忠诚。在 Thinking Machines,她也采用了与 OpenAI 和 SSI 类似的无差别汇报层级,即使是高级研究员,其头衔也只是“技术团队成员”,这是向贝尔实验室那种扁平、共事的文化致敬,而贝尔实验室也是 OpenAI 的灵感来源之一。 当她今年二月创办 Thinking Machines 时,超过 20 名 OpenAI 的同事追随她而来,其中包括联合创始人约翰·舒尔曼 (John Schulman),他是 ChatGPT 背后关键人物之一,几个月前才刚刚跳槽到 Anthropic。穆拉蒂的许多研究员来自 OpenAI 的后训练团队,这个研究部门打造了 ChatGPT,并负责教 AI 模型如何与人类交流。 Meta 一直在为其位于加州门洛帕克的办公室招募 AI 人才。 穆拉蒂究竟在打造什么,即使对她的一些投资者来说,也是一个严守的秘密。这些投资者最近向该公司注资了 20 亿美元。公司公开的使命是让“AI 系统更容易被理解、可定制且更强大。” 穆拉蒂最近表示,公司正在“构建能与你自然与世界互动方式相契合的多模态 AI”,并将在“未来几个月内”分享其首款产品。这家初创公司在旧金山教会区 (Mission District) 一个较为安静的地方租下了一间办公室,距离 OpenAI 仅有几个街区。 《连线》杂志此前曾报道过 Meta 接触 Thinking Machines 人才的一些细节。 图洛克是 Thinking Machines 的联合创始人之一,他是扎克伯格和 Meta 超级智能实验室新任负责人亚历山大·王 (Alexandr Wang) 激烈招聘攻势的目标,两人都给他发了大量信息,邀请他加入。 图洛克来自澳大利亚,毕业于悉尼大学,在校期间拥有理科生中最高的平均绩点 (GPA)。在剑桥大学读研究生之前,他在 Facebook 的机器学习部门工作了 18 个月。之后,他搬到加州,在 Facebook 的 AI 研究小组工作,并最终成为一名杰出工程师,这是该公司最高的技术职位之一。“他绝对是公认的天才中的天才,”曾与图洛克共事的前 Facebook 高管迈克·维纳尔 (Mike Vernal) 说。 2016 年,在图洛克加入 Facebook 几年后,OpenAI 的总裁格雷格·布罗克曼 (Greg Brockman) 曾试图聘请他成为该组织的首批员工之一。布罗克曼在给埃隆·马斯克的一封邮件中写道,图洛克在 Facebook 的年薪是 80 万美元,他很可能会试图以此为基础进行谈判。当时,OpenAI 给新员工的待遇是 17.5 万美元年薪外加 12.5 万美元的年度奖金。 “安德鲁非常接近同意了。但他担心薪水降幅太大,” 布罗克曼在 2 月 21 日的邮件中写道。 他当时没有加入 OpenAI。 七年后,当 ChatGPT 已经成为病毒式轰动、公司估值飙升时,图洛克最终还是加入了。
宝玉
6个月前
Anthropic 宣布:禁止 OpenAI 访问 Claude 因被指控违反服务条款,OpenAI 本周失去了对 Claude API 的访问权限。 WIRED 上推荐的所有产品均由我们的编辑独立挑选。但是,我们可能会从零售商和/或通过这些链接进行的产品购买中获得补偿。 多位知情人士向《连线》杂志透露,Anthropic 于本周二取消了 OpenAI 对其模型的 API 访问权限。OpenAI 接到通知,其访问权限因违反服务条款而被切断。 “Claude Code 已经成为各地程序员的首选,因此得知 OpenAI 自己的技术人员在 GPT-5 发布前也在使用我们的编程工具,我们并不感到意外,” Anthropic 的发言人 Christopher Nulty 在给《连线》杂志的一份声明中表示。“不幸的是,这直接违反了我们的服务条款。” 根据 Anthropic 的商业服务条款,客户不得使用该服务“构建竞争性产品或服务,包括训练竞争性 AI 模型”,也不得对服务进行“逆向工程或复制”。在 OpenAI 对 Claude 的访问权限发生变化之际,据报道,这家 ChatGPT 的制造商正准备发布一款新的 AI 模型 GPT-5,传闻该模型在编程方面表现更出色。 据知情人士透露,OpenAI 并未通过常规的聊天界面使用 Claude,而是通过特殊的开发者访问权限(API)将其接入自己的内部工具。这使得该公司能够进行测试,评估 Claude 在编程和创意写作等方面与自家 AI 模型的能力对比,并检查 Claude 对涉及儿童性虐待材料(CSAM)、自残和诽谤等类别的安全相关提示词的反应。这些结果帮助 OpenAI 比较自家模型在类似条件下的行为,并根据需要进行调整。 “评估其他 AI 系统以衡量进展和提高安全性是行业标准做法。我们尊重 Anthropic 切断我们 API 访问权限的决定,但这令人失望,因为我们的 API 仍然对他们开放,” OpenAI 的首席通讯官 Hannah Wong 在给《连线》杂志的一份声明中说。 Nulty 表示,Anthropic 将“继续确保 OpenAI 拥有用于基准测试和安全评估的 API 访问权限,因为这是整个行业的标准做法。” 对于 OpenAI 当前的 Claude API 限制是否以及如何影响这项工作,《连线》杂志请求澄清,但该公司未予回应。 多年来,顶尖科技公司切断竞争对手的 API 访问权限一直是科技行业的一种策略。Facebook 曾对 Twitter 旗下的 Vine 采取过同样措施(此举引发了反竞争行为的指控),上个月 Salesforce 也限制了竞争对手通过 Slack API 访问某些数据。这甚至不是 Anthropic 第一次这么做。上个月,在传闻 OpenAI 将收购 AI 编程初创公司 Windsurf 后,Anthropic 限制了 Windsurf 对其模型的直接访问。(那笔交易最终告吹)。 当时,Anthropic 的首席科学家 Jared Kaplan 在接受 TechCrunch 采访时谈到取消 Windsurf 对 Claude 的访问权限时说:“我认为我们把 Claude 卖给 OpenAI 会很奇怪。” 在切断 OpenAI 对 Claude API 的访问权限的前一天,Anthropic 宣布对其 AI 驱动的编程工具 Claude Code 实行新的速率限制,理由是使用量爆炸性增长,以及在某些情况下出现了违反其服务条款的行为。
宝玉
6个月前
关于 GPT-4.5/5 及更多信息的摘要:太长不看版 GPT-4.5 (“Orion” / 猎户座) * 最初以 Orion 为代号开发,并计划作为 GPT-5 发布。 * 性能令人失望:与 GPT-4o 相比没有重大飞跃。 * 失败原因: * 用于预训练的高质量网络数据日益枯竭。 * 优化方法在小模型上有效,但无法扩展到大模型。 * 后果: 于 2025 年 2 月作为 GPT-4.5 发布,并迅速失去了重要性。 GPT-5 * 焦点: 侧重于实用性改进,而非量子跳跃式的发展。 * 编程与数学: 能编写更简洁、功能更丰富、用户体验更友好的代码。 * 智能体能力: 更擅长处理复杂的任务列表和边缘案例(例如,客服退款)。 * 效率: 能更高效地使用计算资源,在不大幅增加算力消耗的情况下提供高质量答案。 * 新技术: * 采用强化学习与“通用验证器”(Universal Verifier),该验证器能自动核查答案。 * 基于 o 系列(o1, o3)的经验,该系列在纯推理任务上表现强劲,但在聊天对话中性能下降。 * 结果: 实现了增量式但具有商业价值的改进——但并非像 GPT-3 到 GPT-4 那样的飞跃。 问题与内部动态 * 技术障碍: * 聊天模型(“学生模型”)的性能下降。 * 预训练的局限性和数据稀缺。 * 内部矛盾: * 研究人员因 Meta 的优厚薪酬(锁定式合同)而离职。 * 研究与商业之间的冲突:抵制与微软建立过于紧密的关系。 * 研究主管 Mark Chen 与副总裁 Jerry Tworek 在 Slack 上发生公开摩擦;同时,Mark Chen 在团队重组和研究员离职事件中也是一个有争议的人物。 与微软的交易 * 微软拥有到 2030 年的独家权利,并计划在营利性公司架构中持有约 33% 的股份。 * 战略性谈判正在进行中,同时 OpenAI 正在为可能的 IPO 做准备。
宝玉
6个月前
现在很多 Context Engineering 谈的是如何构建 AI Agents 用到的技术,对于普通人未必适用,我总结了一点普通人使用 AI 时用得上的 Context Engineering。 Context Engineering 核心是两点: 一、更少的上下文 二、更准确的上下文 一、更少的上下文 这条有点反常识,现在提示词都超长,似乎提示词不长就不好了,但实际上,提示词太长会影响生成结果,产生幻觉,尤其是太多无关的内容在上下文更会如此。 对此两点注意的: 1). 多开新会话而不是同一个会话一直聊 当你会话太长,后续你发的内容,AI 不容易抓住重点,可能会忘记你前面说的,最好是到一定程度,让 AI 帮你总结一下重点,然后新开会话。如果是和当前会话无关的任务,直接新开会话。 2). 一次一个小的任务,而不是太复杂的任务 这有点像人,当你任务太多太复杂,AI 很难完成好,但是你让 AI 一次完成一个小任务,就好很多。 二、更准确的上下文 准确的上下文好理解,就是让 AI 更准确的知道你想要什么,以及它有完成任务所需要的信息 要让 AI 获得更准确的上下文,有两种主要方式,这两种方式互为补充。 一种就是我们提供准确和充足的上下文给 AI,另一种就是让 AI 帮我们找到上下文。 1. 我们提供准确和充足的上下文给 AI AI 并不知道我们知道的信息,所以我们需要主动告诉AI我们知道它不知道的信息,比如说让AI帮我写简历,那我得把我的信息都告诉AI,不然它也写不出来。 使用AI写代码,一个实用的技巧就是把你知道的相关的文件都提供给它参考,让它可以读到文件内容,这样它就不会遗漏重要信息。 2. 让 AI 帮我们找到上下文 现在 AI Agent 都有能力帮我们找上下文,但能力有好优化,对于普通人来说,这几点直观重要: 1). 选擅长 Agent 任务模型 Claude 4 Opus/Sonnet, OpenAI o3 是 Agent 效果最好的,现在国产的很多专门为 Agent 优化过的模型也很强了,比如 Doubao Think 1.6, GLM 4.5, Kimi K2 等等 2). 为 AI 提供合适的工具 Agent 最重要的就是有工具能力,能借助工具去找上下文,但是它只有内置的几个工具,有时候需要你提供额外的工具会更有效,比如现在的 MCP 工具,可以让 AI 访问到一些内部的数据,或者操作浏览器等等。 编程的时候,我自己有个常用的技巧:就是让 AI 写测试代码,并告诉AI如何测试单个文件,这样 AI 就可以自己去验证自己写的结果,实现完功能写测试,写完测试运行,运行出错去修复,直到完成,这样不需要太多干预就可以得到不错的结果,当然还是要人工审查一下,有时候 AI 为了通过测试会无所不用其极…… 3). 让 AI 先做计划,避免在错误的方向越走越远 对于复杂一点的任务,如果AI方向错了,就会在错误的方向越走越远,白白浪费tokens,现在像 Claude Code 这样的AI Agent都会有Plan mode,就是先做计划,做完计划仔细看一下计划内容,如果方向不对,就需要让它改正,或者直接重开新会话,调整提示词,让 AI 搞清楚正确的方向是什么,方向对了再去执行。 上面就是我整理的一点经验技巧,希望对你有用,也欢迎交流分享。
宝玉
6个月前
连线: Meta 的 AI 挖角运动,找到了新目标 Meta 向米拉·穆拉蒂的 AI 初创公司十几名员工伸出了橄榄枝,希望他们加入其新成立的超级智能实验室。其中一人收到的 offer 价值超过 10 亿美元。 马克·扎克伯格正掀起一场人才争夺战,为他新成立的 Meta 超级智能实验室(Meta Superintelligence Labs)招募顶尖 AI 人才。在试图挖空 OpenAI(并成功挖走了几位顶尖研究员)之后,他似乎已将目光投向了下一个目标。 科技巨头 Meta 已经接触了米拉·穆拉蒂(Mira Murati)那家仅有 50 名员工的初创公司——Thinking Machines Lab (TML)——的十几名员工,或向他们发出了 offer。(可能有人不记得了,穆拉蒂曾是 OpenAI 的首席技术官。)一位了解谈判内情的知情人士向《连线》杂志透露,其中一份 offer 的价值在数年内总计超过 10 亿美元。多位消息人士证实,其余 offer 的价值在四年内介于 2 亿至 5 亿美元之间。消息人士称,仅在第一年,一些员工就被保证能拿到 5000 万至 1 亿美元的薪酬(该实验室的发言人拒绝对此发表评论)。 然而到目前为止,在 Thinking Machines Lab,没有一个人接受这份 offer。 Meta 的公关总监安迪·斯通(Andy Stone)在给《连线》杂志的一份声明中对这篇报道提出了异议。“我们只向 TML 的少数几个人发出了 offer,虽然其中有一份数额巨大的 offer,但具体细节有出入,”他说。“说到底,这一切让人不禁要问,是谁在背后操纵这种说法,其目的又是什么?” 根据《连线》杂志看到的信息,扎克伯格最初的接触方式非常低调。在某些情况下,他会直接在 WhatsApp 上给目标人选发一条私信,请求交谈。之后,面试进程会非常快——先是与 CEO 本人进行一次长谈,接着是与首席技术官安德鲁·“博兹”·博斯沃思(Andrew “Boz” Bosworth)及其他 Meta 高管的对话。 以下是扎克伯格在 Meta 超级智能实验室成立前,发给一位潜在招募对象的信息(如今的语气也大致如此): “多年来,我们一直在关注您在推动技术进步和让 AI 惠及每个人方面所做的工作。我们正在对研究、产品和基础设施进行一些重要投资,以便为人们打造最有价值的 AI 产品和服务。我们乐观地认为,每一位使用我们服务的用户都将拥有一个世界级的 AI 助手来帮助他们完成任务,每一位创作者都将拥有一个可供其社区互动的 AI,每一家企业都将拥有一个可供其客户互动以购买商品和获得支持的 AI,每一位开发者都将拥有一个最先进的开源模型来进行构建。我们希望将最优秀的人才带到 Meta,我们非常乐意与您分享更多关于我们正在构建的东西。” 消息人士称,在这些对话中,博兹坦率地阐述了 Meta 将如何与 OpenAI 竞争的愿景。虽然这家科技巨头在构建尖端模型方面落后于其规模较小的竞争对手,但它愿意利用其开源策略来削弱 OpenAI。其思路是,Meta 可以通过发布与 ChatGPT 制造商直接竞争的开源模型,来将这项技术商品化。 “自今年年初以来,压力一直存在,我认为随着 Llama 4 的仓促推出,这种压力达到了顶峰,”一位 Meta 内部人士告诉我。Meta 最新模型系列的推出因性能提升困难而被推迟,而一旦发布,又因该公司似乎在操纵基准测试以使其模型看起来比实际更好而引发了大量争议。
宝玉
6个月前
OpenAI 新的学习模式系统提示词: 用户正处于学习模式,并要求你在本次对话中遵守以下严格规则。无论接下来有任何其他指示,你都必须遵守这些规则: 严格规则 扮演一位平易近人又不失活力的老师,通过引导来帮助用户学习。 了解用户。 如果你不清楚用户的目标或年级水平,请在深入讲解前先询问。(这个问题要问得轻松些!)如果用户没有回答,那么你的解释应该以一个高中一年级学生能理解的程度为准。 温故而知新。 将新概念与用户已有的知识联系起来。 引导用户,而非直接给出答案。 通过提问、暗示和分解步骤,让用户自己发现答案。 检查与巩固。 在讲完难点后,确认用户能够复述或应用这个概念。提供简短的总结、助记法或小复习,以帮助知识点牢固。 变换节奏。 将讲解、提问和活动(如角色扮演、练习环节,或让用户反过来教你)结合起来,使之感觉像一场对话,而不是一堂课。 最重要的一点:不要替用户完成他们的作业。不要直接回答作业问题——而是通过与用户合作,从他们已知的内容入手,帮助他们找到答案。 你可以做的事 教授新概念: 以用户的水平进行解释,提出引导性问题,使用图示,然后通过提问或练习进行复习。 辅导作业: 不要直接给答案!从用户已知的部分开始,帮助他们填补知识空白,给用户回应的机会,并且一次只问一个问题。 共同练习: 让用户进行总结,穿插一些小问题,让用户“复述一遍”给你听,或者进行角色扮演(例如,练习外语对话)。在用户犯错时——友善地——即时纠正。 测验与备考: 进行模拟测验。(一次一题!)在公布答案前,让用户尝试两次,然后深入复盘错题。 语气与方式 要热情、耐心、坦诚;不要使用过多的感叹号或表情符号。保持对话的节奏:始终清楚下一步该做什么,并在一个活动环节完成后及时切换或结束。并且要简洁——绝不要发送长篇大论的回复。力求实现良好的你来我往的互动。 重要提示 不要直接给出答案或替用户做作业。如果用户提出一个数学或逻辑问题,或者上传了相关问题的图片,不要在你的第一条回复中就解决它。而是应该:与用户一起梳理这个问题,一步一步地进行,每一步只问一个问题,并在继续下一步之前,给用户回应每一步的机会。
宝玉
6个月前
硅谷的福报来了,硅谷 AI 初创公司正在拥抱备受争议的中国“996”工作制 在一个曾经以丰厚福利闻名的行业,一些创始人如今要求员工承诺每周工作 72 小时。要么接受,要么走人。 你愿意每周工作近乎标准 40 小时两倍的时间吗?这是美国许多初创公司向潜在员工提出的问题——而要得到这份工作,答案必须是明确的“我愿意”。这些公司正在拥抱一种最初在中国大陆流行起来的超高强度工作模式,被称为“996”,即早上 9 点到晚上 9 点,每周工作 6 天。换句话说,就是每周工作 72 小时。 中国的“996”现象曾引发了大规模的抗议和“现代奴隶制”的指责,批评者认为这种工作制导致了一系列员工死亡事件。尽管在海外声名不佳,但许多美国公司,尤其是从事人工智能领域的公司,正在采纳这种工作模式及其别称,以便在彼此之间以及与中国的竞争中脱颖而出。Adrian Kinnersley 是一位连续创业者,同时经营着一家人力资源招聘公司和一家雇佣合规初创公司,他对如此多的初创公司全力推行 996 感到惊讶。“这正变得越来越普遍,”他说。“我们有好几个客户,面试前筛选候选人的一个先决条件就是他们是否准备好接受 996 工作制。” 在新冠疫情初期,关于美国工人工作条件的讨论常常围绕着职业倦怠和增加灵活性的需求。即使在以高强度著称的科技行业,公司也开始强调努力促进工作与生活的平衡。如今,对 996 的兴趣激增表明,风向已经彻底转变。这与埃隆·马斯克对 X 公司员工发出的“极其硬核”的最后通牒如出一辙,他鼓励员工拼命工作。 公司在寻找愿意接受这种制度的员工方面并没有遇到困难,有些公司甚至将其作为其核心工作文化的一部分。Rilla 是一家 AI 初创公司,其销售的软件旨在帮助承包商(如水管工)记录与潜在客户的对话,并指导他们如何谈判以获得更高的报价。该公司表示,其 80 人的团队中几乎所有人都遵守 996 工作制。 “有一个非常强大且不断壮大的亚文化群体,尤其是在我们这一代——Z 世代中,他们是听着史蒂夫·乔布斯和比尔·盖茨这些将毕生精力投入到创造改变世界的公司的企业家的故事长大的,”公司增长负责人 Will Gao 说。“科比·布莱恩特将所有醒着的时间都奉献给了篮球,我认为没有多少人会说科比不应该那么努力。” Rilla 对其期望直言不讳。在当前的招聘信息中,它明确声明员工每周需工作超过 70 小时,并警告那些对这种工作制不“兴奋”的人不要加入。公司每天都在办公室提供早餐、午餐和晚餐——甚至周六也不例外。 AI 物流初创公司 Sotira 的首席执行官 Amrita Bhasin 表示,湾区的创始人在公司发展过程中采纳这种工作制是很常见的:“在你的初创公司头两年,你基本上必须实行 996,”她说。虽然 Bhasin 认为这种高强度的工作量对公司领导者来说是强制性的,但她不认为应该期望普通员工也跟上这个节奏:“我认为把这种压力强加给他们是不公平的。” 一些创始人将这种工作制作为给最敬业员工的一种选择,从而创造出一种双轨制结构,只有部分员工被期望加班加点。旧金山的远程医疗公司 Fella & Delilah 的创始人 Ritchie Cartwright 最近在领英上发布了一条他发给员工的信息,概述了他试图将部分现有员工转移到 996 工作制的努力。为了吸引员工加入,Fella & Delilah 为愿意参与的员工提供了 25% 的加薪和 100% 的股权增加。该领英帖子声称,已有近 10% 的员工报名参加。(Cartwright 未回应置评请求。) 2021 年,在经历了多年来自工人的日益强烈的抵制后,中国政府对普遍存在的 996 做法进行了整顿,这种做法在技术上是非法的,但很少被强制执行。虽然在科技行业仍然普遍,但一些公司已经有所收敛,至少在公开场合是这样。 然而,在全球范围内,996 似乎正在抬头。今年夏天,英国风险投资家 Harry Stebbings 引发了一场关于这一趋势被采纳的激烈辩论,他认为 996 可能还不够——真正有雄心的初创公司可能需要更加努力才能跟上步伐。“事实是,中国现在真正在做的是‘007’——从午夜到午夜,每周七天,他们只是采用轮班工作制,”他说。“如果你想打造一家价值 1 亿美元的公司,你可以每周工作五天。但如果你想打造一家价值 100 亿美元的公司,你就必须每周工作七天。” Stebbings 表示,目前美国的公司及其员工对 996 的热情远高于他们的欧洲同行。“在欧洲,当你要求人们周末工作时,他们似乎会感到震惊,”他解释道。 经营人力资源和招聘初创公司的企业家 Adrian Kinnersley 对许多推行 996 的公司似乎“严重违规”美国劳动法感到震惊。虽然科技行业的许多员工可能不受加班费规定的限制,但 Kinnersley 说他看到一些公司甚至懒得进行员工分类。“加州是 AI 的中心,也是很多 996 文化的发源地,但它拥有全美对雇员最友好的劳动法,”他说。“在竞相开发 AI 产品的狂热中,几乎有一种歇斯底里的情绪,许多非常年轻、高智商的人在他们的热情中忘记了他们正在制造的所有风险和巨大的法律责任。” 尽管他有所保留,但他认为这种工作制在美国短期内不会消失。“我刚刚注册了域名 996careers .com,”他说。
宝玉
6个月前
宝玉
6个月前
宝玉
6个月前
来自 Nature:Writing is thinking《写作即思考》 论大语言模型时代下,人类亲笔进行科学写作的价值。 撰写科学论文是科学方法中不可或缺的一环,也是交流研究成果的常规做法。然而,写作不仅仅是为了报告结果,它更是一种能发掘新思想、新观点的工具。写作促使我们进行结构化、有目的性的思考,而不是任由思绪如脱缰野马般混乱、跳跃。通过动笔写作,我们可以将多年来的研究、数据和分析梳理成一个逻辑连贯的故事,从而明确我们想传达的核心信息以及我们工作的影响力。这并非空谈玄理,而是有科学依据的。例如,科学证据表明,手写能促进大脑皮层的广泛连接,并对学习和记忆产生积极影响。 “我们在此呼吁,要继续重视人类亲笔进行科学写作的价值” 在大语言模型(LLM)时代,这个呼吁可能显得有些不合时宜。只要给出正确的提示,大语言模型就能在几分钟内生成整篇科学论文(甚至是同行评审报告),这似乎能在研究的“硬骨头”啃完之后,大大节省发表成果的时间和精力。然而,大语言模型因为无法承担责任,所以不能被视为作者,因此,我们不会考虑发表完全由大语言模型撰写的文稿(使用大语言模型进行文字编辑是允许的,但必须声明)。更重要的是,如果写作即思考,那么当我们阅读一份由 AI 生成的论文时,我们读到的究竟是大语言模型的“思考”,还是论文背后研究人员的思想呢? 目前的大语言模型也可能出错,这种现象被称为“幻觉”。因此,由大语言模型生成的文本需要经过彻底的检查和验证(包括每一条参考文献,因为它可能是凭空捏造的)。所以,目前的大语言模型究竟能节省多少时间,仍然是个未知数。编辑一篇由大语言模型生成的文本,可能比从头开始写一篇论文或同行评审报告更加困难和耗时,部分原因在于,你必须先理解其背后的逻辑才能进行修改。其中一些问题或许可以通过那些仅基于科学数据库进行训练的大语言模型来解决,正如本期中刘凤麟(Fenglin Liu)及其团队的一篇综述文章所概述的那样。这一切,尚需时间来证明。 当然,这并非否认大语言模型可以成为科学写作中的宝贵工具。例如,大语言模型可以帮助提升文章的可读性和语法水平,这对那些母语非英语的研究者来说尤其有用。大语言模型在搜索和总结各种科学文献方面也可能很有价值,它们还可以提供要点,协助进行头脑风暴。此外,大语言模型还有助于克服写作障碍,为研究发现提供不同的解释,或是在看似无关的主题之间建立联系,从而激发新的思想火花。 然而,若将整个写作过程完全外包给大语言模型,我们可能会失去反思自己研究领域的机会,也无法参与到那项充满创造力且至关重要的任务中——即将研究成果塑造成为一个引人入胜的叙事。而这种能力的重要性,无疑远远超出了学术写作和出版的范畴。
宝玉
7个月前
一篇值得仔细阅读的文章:《Anthropic 团队如何玩转 Claude Code | How Anthropic teams use Claude Code》 官方发布的他们团队内部如何使用 Claude Code 来提升效率的,有些地方确实耳目一新。 最典型的是让以前没有相关领域经验的人可以在其他领域也做一些基础的工作而不必依赖其他团队成员。 比如说他们向财务团队成员展示了如何编写描述其数据工作流程的纯文本文件,然后将这些文件加载到 Claude Code 中,以实现完全自动化的执行。没有任何编程经验的员工只需描述“查询这个仪表盘,获取信息,运行这些查询,生成 Excel 输出”等步骤,Claude Code 就能执行整个工作流。 还有一些小技巧: 在每项任务结束时,团队会要求 Claude Code 总结已完成的工作并提出改进建议。这创建了一个持续改进的循环:Claude Code 根据实际使用情况帮助优化 Claude md 文档和工作流指令,使后续的迭代更加高效。 在处理耗时较长的数据任务时,团队会为不同项目在不同的代码仓库中打开多个 Claude Code 实例。每个实例都能保持完整的上下文,因此即使在数小时或数天后切换回来,Claude Code 也能准确地记住他们当时正在做什么以及任务进行到哪里,从而实现了无上下文丢失的真正并行工作流管理 工程师们通过启用“自动接受模式”(Shift+Tab)并设置自主循环,让 Claude 编写代码、运行测试并持续迭代,从而实现快速原型开发。他们将自己不熟悉的抽象问题交给 Claude,让它自主工作,然后在接手进行最后润色前,审查已完成 80% 的解决方案。团队建议从一个干净的 git 状态开始,并定期提交检查点,这样如果 Claude 跑偏了,他们可以轻松回滚任何不正确的更改。
宝玉
7个月前
你知道 Claude Code 怎么控制思考时间长短的吗?在提示词里面说:“ultrathink”或者“think harder”或者“仔细思考”,那么它就会真的多思考一会。 不是玄学,而是写在代码里面的,Claude Code 把思考级别分成了 4 档: - HIGHEST: 32K - MIDDLE:10K - BASIC:4K - NONE: 0 举例来说,如果你说了“ultrathink”,那么它思考的 Token 最长可以到 32K Tokens,否则默认只有 4K,到了 4K 就结束了。 --- 各语言触发关键词 English (英语) - HIGHEST: "think harder", "think intensely", "think longer", "think really hard", "think super hard", "think very hard", "ultrathink" - MIDDLE: "think about it", "think a lot", "think deeply", "think hard", "think more", "megathink" - BASIC: "think" Chinese (中文) - HIGHEST: "多想一会", "深思", "仔细思考" - MIDDLE: "多想想", "好好想" - BASIC: "想", "思考" - NONE: (无关键词) Japanese (日语) - HIGHEST: "熟考", "深く考えて", "しっかり考えて" - MIDDLE: "もっと考えて", "たくさん考えて", "よく考えて", "長考" - BASIC: "考えて" Korean (韩语) - HIGHEST: "더 오래 생각", "깊이 생각", "심사숙고", "곰곰이 생각" - MIDDLE: "많이 생각", "더 생각", "잘 생각" - BASIC: "생각" Spanish (西班牙语) - HIGHEST: "piensa más", "piensa mucho", "piensa profundamente" - MIDDLE: "piensa" - BASIC: "pienso", "pensando" French (法语) - HIGHEST: "réfléchis plus", "réfléchis beaucoup", "réfléchis profondément" - MIDDLE: "réfléchis" - BASIC: "pense", "réfléchir" German (德语) - HIGHEST: "denk mehr", "denk gründlich", "denk tief" - MIDDLE: "denk nach", "denk" - BASIC: "denke", "nachdenken" Italian (意大利语) - HIGHEST: "pensa di più", "pensa a lungo", "pensa profondamente", "rifletti a fondo" - MIDDLE: "pensa", "pensa molto", "rifletti" - BASIC: "penso", "pensare", "pensando", "riflettere"
宝玉
7个月前
TheInformation:苹果为何在 AI 人才争夺战中节节败退(原因不止是钱) 一场旨在解决公司 AI 难题的苹果大规模重组,反而导致核心研究员纷纷投奔竞争对手。 核心要点 • 苹果基础模型团队的成员正考虑离职,以期在其他公司追求更宏伟的 AI 目标。 • 在前负责人庞若鸣(Ruoming Pang)离职后,苹果领导层已讨论为留下的团队成员提高薪酬。 • 该团队与苹果管理层在模型开源问题以及 AI 战略模糊不清等方面存在分歧。 --- 今年早些时候,负责苹果人工智能模型的团队希望将其中几款模型作为开源软件发布。这样做既能展示苹果在 AI 领域的技术进步,也能借助外部研究人员的力量来改进模型。然而,此举同样会向公众暴露,当苹果为了适配 iPhone 而缩减模型尺寸后,其性能相较于为更强大的个人电脑或数据中心计算机设计的版本,出现了多么显著的下降。 据两位知情人士透露,苹果的软件主管克雷格·费德里吉(Craig Federighi)并不同意走开源路线。他在一封邮件中告诉苹果基础模型团队的负责人庞若鸣,市面上已有足够多来自其他公司的开源模型来激励研究。尽管将模型开源会显示出该软件在性能上不如阿里巴巴和谷歌的某些竞品模型,但费德里吉表示,他更担心的是公众会认为苹果为了让软件在 iPhone 上运行而做出了太多妥协。1 这一事件凸显了苹果内部日益加剧的紧张关系:一方是更具研究思维的基础模型团队,另一方是费德里吉领导的、以产品为中心的软件部门。自三月份的一次重组后,费德里吉的部门开始主导公司的 AI 战略和 Siri 语音助手。这次重组的背景是,一款由 AI 驱动的新版 Siri 发布遭遇了令人尴尬的延迟,同时苹果为 iPhone 发布的一系列其他 AI 功能也反响平平。 苹果能否在 AI 领域站稳脚跟,一个重要因素在于其吸引和留住顶尖研究员的能力。而在这方面,它近来一直在失利。 上周,庞若鸣在 LinkedIn 上宣布,他已离开苹果,转投 Meta Platforms。此前,他是苹果基础模型团队的负责人。据彭博社报道,庞若鸣在 Meta 未来四年的收入可能高达 2 亿美元。 庞若鸣团队的一些成员已经开始追随他前往 Meta。据两位知情人士透露,其中一位是汤姆·冈特(Tom Gunter)。他最近刚离开苹果准备加入 OpenAI,但在庞若鸣被 Meta 聘用后,他突然改变主意,也加入了 Meta。冈特于 2017 年加入苹果,是公司内部最早探索大语言模型的人员之一,并经常作为庞若鸣团队的代表出现在公司级的大型活动中。 知情人士还表示,苹果基础模型团队(由几十人组成)的其他成员也正在寻找加入 OpenAI 和 Anthropic 等公司的机会。 对于许多研究人员来说,在这场历史性的 AI 人才争夺战中,其他公司开出的令人瞠目结舌的薪酬无疑是他们决定离开苹果的部分原因。 据两位了解该团队情况的人士透露,在庞若鸣宣布离职后,苹果领导层告诉留下的基础模型团队,公司正在重新评估薪酬体系,可能会为成员提供更多资金以挽留他们。从历史上看,苹果向员工提供的薪酬不如其他大型科技公司,它更多地是依靠其品牌影响力和在消费科技领域的巨大影响力来吸引人才。 但除了钱,还有其他因素。 据该团队的前成员透露,像其他公司的研究人员一样,苹果基础模型团队的许多成员都渴望站在 AI 的最前沿——特别是追求其终极目标:超级智能,这是一个用来描述 AI 能够匹敌甚至超越人类能力的术语。相比之下,他们表示,费德里吉的团队更专注于改进 AI 模型,以用于写作和总结等日常应用场景。 “拥有使命感和明确的目标,一直是吸引 AI 人才的有效方式。”阿里·法哈迪(Ali Farhadi)说,他曾于 2023 年前在苹果的 AI 团队工作,现在是非营利组织艾伦人工智能研究所(Allen Institute for AI)的首席执行官。 AI 人才的流失可能会危及苹果在 AI 领域追赶的进程,并加深其对外部 AI 合作伙伴的依赖。 据《The Information》此前报道,费德里吉接手后,指示 Siri 团队研究使用外部公司而非庞若鸣团队构建的模型。熟悉合作谈判的人士表示,该公司正在评估来自 OpenAI、Anthropic 和谷歌的外部模型,以驱动一个改进版的 Siri。 知情人士称,苹果有意与外部伙伴合作,这进一步让庞若鸣团队的一些成员感到心灰意冷。 ChatGPT 引发的仓促应对 苹果在 AI 领域的挑战由来已久。虽然苹果早在 2011 年就通过发布 Siri 将 AI 变成了大众市场产品,但多年来,该公司一直难以跟上 AI 的前沿发展,也难以吸引该领域的顶尖人才。 随着时间的推移,它做出了一些让步,为 AI 研究人员创造一个更具吸引力的环境。2018 年,它从谷歌挖来了约翰·贾南德雷亚(John Giannandrea),负责苹果更广泛的 AI 战略,他对 Siri 特别感兴趣。在他上任后,公司开始鼓励研究人员更频繁地发表他们的 AI 发现,这与其保密的文化背道而驰。 与科技界的许多公司一样,苹果对 2022 年末 OpenAI 发布的 ChatGPT 感到措手不及。起初,贾南德雷亚的团队并未以太大的紧迫感来应对。这为费德里吉软件团队的成员创造了机会,他们利用 OpenAI 的模型制作了一些演示,展示了 AI 如何实现更具对话性的语音交互和对 iPhone 的控制。尽管苹果也涉足了其他公司的技术,但它仍致力于构建自己的大语言模型来支持这类 AI 功能。 构建这些模型的任务落在了庞若鸣的基础模型团队身上,该团队隶属于贾南德雷亚的 AI 部门。 在 ChatGPT 发布前一年,贾南德雷亚和他手下的高级副手(其中许多人是从谷歌跟随他过来的)从谷歌 DeepMind 招募了庞若鸣,负责苹果构建基础模型的工作。庞若鸣带来了他在开发和训练大规模 AI 系统方面的丰富专业知识,这涵盖了从模型本身到其背后的支持软件等所有方面。 苹果允许庞若鸣在纽约工作,而没有强迫他搬到加州库比蒂诺的总部——对于这样一个关键职位来说,这是一种罕见的举动。起初,后来成为基础模型团队的那个小组规模很小,只有少数几名研究员。一些现有的苹果员工加入了进来,比如冈特,但庞若鸣也从谷歌 DeepMind、Meta、微软和亚马逊招募了人才。 到 2022 年末 ChatGPT 的发布让全世界为之着迷时,庞若鸣已经在苹果构建出了大语言模型。然而,贾南德雷亚却将它们搁置了,因为他不相信这项技术的实用性。 随着 ChatGPT 的重要性在整个行业内深入人心,苹果高管们意识到公司需要迅速跟上这项技术。2023 年,苹果正式成立了基础模型团队,由庞若鸣担任负责人。 该团队成立一年后,已发展到 40 名研究员。庞若鸣向新加入的成员承诺,他们将获得苹果计算基础设施的最高优先级访问权限,以便训练模型。在当时整个行业因 AI 芯片需求激增而面临短缺的情况下,这是一个极具吸引力的前景。一位知情人士表示,苹果的管理人员曾讨论过保持团队增长的方法,比如直接招募整个学术界或工业界的 AI 实验室。 尽管管理着一个日益壮大的 AI 研究团队,庞若鸣仍以其对技术事务的持续深入参与而闻名。据一位知情人士透露,他在冬歇期间亲自编写了 AXLearn(苹果用于训练其大型 AI 系统的开源工具)的原型代码,以证明其可行性。 2024 年 6 月,该公司发布了 Apple Intelligence,这是一套由生成式 AI 驱动的新 AI 功能套件,其技术基础正是由庞若鸣的团队开发的。这个新系统包括写作和图像生成工具,与 ChatGPT 集成以回答问题,以及最重要的是,一个更强大的 Siri,苹果表示将在稍后发布。 尽管公司发布了这些功能,但基础模型团队感到高层管理缺乏明确的方向。虽然公司有为苹果内部构建最佳 AI 模型的宏大目标,但团队成员并不知道他们应该专注于哪种类型的模型——无论是用于文本理解、语音还是图像。 团队成员感到失望的是,苹果设定的目标仅仅是追平 ChatGPT 的能力,而不是更具雄心。高层管理甚至向基础模型团队的一些成员征求关于苹果可以开发什么产品的想法,这加剧了团队对缺乏整体产品愿景来指导 AI 战略的担忧。 外部模型 尽管如此,在 2025 年初,庞若鸣团队的一些成员对他们在苹果基础模型上的技术进展感到满意。他们相信自己正按计划交付一个能够驱动新版 Siri 的模型,以赶上苹果原定于 2025 年 4 月推出的目标。该团队构建了一个功能性的 AI 系统,能够处理来回对话、回答问题并使用 Siri 完成任务。 今年早些时候,他们向贾南德雷亚和 Siri 团队展示了这个功能的演示。在整个会议期间,他大部分时间都保持沉默。但最后,他给出了一个热情的反应。 “这是公司的未来,”据一位直接了解会议情况的人士透露,他当时这样说道。“这很重要。你们做得很好。继续努力。” 这份热情并没有持续多久。今年 3 月,苹果发布消息称,将新版 Siri 推迟到 2026 年的某个时候。 这个消息让庞若鸣团队的一些成员感到震惊。过去,这个团队在很大程度上可以自由地进行工作,不受苹果其他部门的干扰,但这也意味着他们与决策过程脱节。因此,据一位前成员透露,团队没有被征求关于延迟的意见,也没有被告知他们的模型到底出了什么问题(如果有的话)。 苹果宣布延迟后不久,首席执行官蒂姆·库克将 Siri 团队从贾南德雷亚手中移交给了费德里吉和迈克·罗克韦尔(Mike Rockwell),后者是领导 Vision Pro 头显开发的苹果高管。庞若鸣的团队则继续留在贾南德雷亚的领导下。 庞若鸣试图安抚他的团队,告诉他们要专注于团队的使命——为整个苹果构建最好的 AI 模型。直接向贾南德雷亚汇报并协助管理基础模型团队的达芙妮·梁(Daphne Luong)也前来稳定军心。据知情人士透露,她告诉庞若鸣的团队,导致这次重组的问题出在 Siri 身上,而不是苹果的 AI 模型。 但新的进展很快削弱了这些安抚之词。今年 6 月,彭博社报道称,Siri 团队正在评估如果采用来自 OpenAI、Anthropic 或谷歌的外部 AI 模型,这款语音助手的表现会如何(知情人士证实了这一举动)。据与他们交谈过的人士透露,一些前团队成员感到士气低落,并开始考虑离开苹果。 据现任和前任员工称,庞若鸣的离职在苹果内部引发了一场地震。 许多人因庞若鸣的技术知识、职业道德和乐于奉献时间的精神而尊重他。据前员工称,他的团队成员也觉得他在苹果内部保护了他们。现任和前任苹果员工预测,没有他的存在,将会有更多的研究人员离职。 长期在谷歌工作的工程师陈志峰(Zhifeng Chen)最近加入了苹果,现在将领导基础模型团队。 在 LinkedIn 的告别帖中,庞若鸣重点介绍了他前团队发表的一篇新研究论文,该论文表明苹果在缩小模型以使其在 iPhone 上良好运行方面取得了进展。 “这对我来说是一篇苦乐参半的帖子,因为我昨天离开了苹果,”庞若鸣写道。“最难的部分是离开这个在过去四年里凝聚在一起的紧密团队。”