宝玉
2个月前
最近 X 上关于写作的话题比较火,正好看到一篇《写作建议》,作者收集了大量关于写作的经典建议,还分门别类整理到了一起。 所有这些五花八门的技巧,背后其实贯穿着几条非常清晰的底层逻辑。如果你也想让自己的文字更抓人、更清晰,也许看完能让你有“原来如此”的感觉。 底层逻辑1️⃣:写作的本质,是“读者体验设计” 这是所有建议中最核心的一条。 很多写作者,包括以前我也这样,在写作时,想的都是“我想表达什么”。但这份笔记里的高手们点出了一个更高级的视角:写作,是关于“读者要吸收什么”。 Steven Pinker 总结得最到位:作者的目标,是在最大化阅读乐趣的同时,最小化读者理解所需的脑力。 别让你的读者“费劲”。 你的工作不是“倾倒”信息,而是设计一条“体验路径”,让读者感觉自己是在毫不费力地“滑滑梯”,而不是满头大汗地“爬山”。 一旦你接受了这个设定,剩下的所有技巧,都是在为这个“最佳体验”服务。 底层逻辑2️⃣:动笔前,先排空你的“污水管” 我们都有过“写作卡壳”的经历:打开空白文档,枯坐半天,一个字都憋不出来。 这份笔记里提到了一个我见过最生动的比喻,来自 Julian Shapiro 的“创意水龙头”: > 把你的创造力想象成一个堵塞的水管。水管的最前端一英里,塞满的全是“污水”——也就是你脑子里那些最陈词滥调、最平庸、最不过脑子的“烂点子”。你的水管只有一个水龙头。想得到后面的“清水”,唯一的办法就是:先把这些“污水”全都放干净。 为什么在写作时会卡壳?因为我们总想一上来就写出金句。我们写下第一句“污水”(比如“这是一个值得思考的问题……”),然后立刻自我批判:“天啊,这写的是什么垃圾!”——于是我们删掉,试图等待“灵感”。 结果,我们永远卡在“污水”这一层。 而职业写作者的秘诀是:他们坦然接受“污水”的存在。他们会在写作初期,把脑子里所有能想到的烂点子、烂句子全都写下来。不评判、不删除,只是为了“排空管道”。 当你把这些平庸的想法都倒空之后,那些真正的好创意、好句子,才会“哗啦啦”地流淌出来。 所以,别再等灵感了。下次卡壳时,允许自己先写个垃圾出来。这是通往好内容的必经之路。 底层逻辑3️⃣:用“节奏感”黏住读者的大脑 好了,现在“清水”来了,你开始写作了。如何让读者不跳过、不走神,一字一句读下去? 答案是:制造“音乐”。 我们的大脑天生厌恶单调。如果所有句子的长度都差不多,大脑就会进入“无人机”般的嗡嗡声模式,很快就会感到无聊并“宕机”。 笔记里引用了 Gary Provost 的一段经典演示,我转述一下: > 这个句子有五个词。这里又是五个词。五个词的句子很好。但是一连串的五个词。读起来就很单调了。听听发生了什么。写作变得很无聊。它的声音在持续。就像一张卡住的唱片。耳朵需要一些变化。 > > 现在听好。 我改变了句子的长度,我就创造了音乐。音乐。文字在歌唱。它有了宜人的节奏,一种韵律,一种和谐。我使用短句。我也使用中等长度的句子。 > > 而有时候,当我很确定读者已经休息好了,我就会用一个相当长的句子来吸引他,一个充满能量、不断积蓄动力的句子,就像渐强音,就像鼓点,就像铙钹的撞击——这些声音在说:听着,这很重要。 这就是写作的“节奏感”。它通过长短句的交错,不断“唤醒”读者的大脑,引导他们的注意力。 除了句子长短,还有一些“读者大脑管理”的小技巧: 避免“开头词”重复:Scott Alexander 提醒,如果连续两三个句子都用同一个词开头(比如“我……”“我……”“我……”),读者会立刻感到“不适”,觉得你很笨拙。 控制“聚光灯”:Steven Pinker 提到,主动语态和被动语态不是语法问题,而是“焦点控制”问题。 - 主动(“那个女士用西葫芦砸了一个哑剧演员”)——聚光灯打在女士身上。 - 被动(“那个哑剧演员被女士用西葫芦砸了”)——聚光灯打在哑剧演员身上。 你想让读者先看谁,就让谁做句子的主语。 底层逻辑4️⃣:写作是“沟通”,不是“炫耀” 这部分主要针对非虚构写作,但同样适用于所有人。 1. 给读者“多巴胺小奖励” 斯科特·亚历山大说,读者的大脑很容易累。你必须不断给他们“小奖励”来维持动力。 - 微幽默 (Microhumor):这不等于讲笑话。它是在严肃的行文中,插入一个能让读者“嘴角微不可察地上扬一下”的词或比喻。这就像给读者喂了一颗小糖果。 - 清晰的结构:短段落、小标题、“首先/其次/最后”这样的“路标”(当然也有被误认为 AI 写作的嫌疑)。这能给读者“微小的成就感”(好的,我又读完了一部分”),帮他们“存档”信息。 2. 多使用“比如”和“举个例子” Steven Pinker:一个没有例子的解释,几乎等于没有解释。 我们作为作者,常常高估了读者对“术语”和“抽象概念”的理解力。因为我们自己已经把这些概念“打包”成了知识块。 当你写“定量宽松”、“熵增”、“熵减”时,大部分读者已经懵了。 当你写“中央银行购买私有资产”时,大家就开始懂了。 当你写“这就好比央行直接下场‘买买买’,往市场里撒钱”时,所有人就都懂了。 永远不要害怕解释你以为人尽皆知的术语。你多花 5 个字,比如一种开花芥菜,去解释“拟南芥”,就能把成千上万的读者留在你的文章里。 写作不是魔法,而是手艺。 它无关灵感爆发,而关乎对读者体验的极致共情。 它要求我们放下作者的自我,去扮演一个体验设计师:思考读者的大脑如何工作,如何让他们在阅读中感到轻松、愉悦并有所收获。 无论是排空污水管、制造节奏感,还是挖掘“第三层情感”,所有技巧最终都指向一件事: 尊重你的读者,尊重他们的时间,以及他们那颗容易疲倦的大脑。 原文: 翻译:
宝玉
2个月前
转译:信任崩塌:无穷无尽的AI内容是一场灾难 作者:Arnon Shimoni 我们正在经历人类历史上最奇怪的时刻。 第一次,创造内容的成本降到了几乎为零。不是“比以前更便宜”,而是彻彻底底的免费。 现在,生成一千篇博客文章或一万封所谓“个性化”的邮件,成本几乎为零(至少目前如此)。 理论上听起来很棒——内容无限,让过去难以发声的人也能表达自己。 似乎充满了机遇。 但如果你试图通过这些内容去销售,就会发现一个严重的问题:信任崩塌的速度,比内容爆炸的速度还快。 这里的“信任”,不是抽象的概念,而是实实在在的问题——谁是真实的、谁是可靠的、我到底该关注谁? 我们并没有往前走,甚至正在倒退。 一个B2B SaaS公司的故事 我认识一位负责B2B SaaS销售的朋友,他非常聪明。他花了多年时间建立自己的社交圈,成为那种传统意义上靠关系和信任赢得客户的人。 但上周日他告诉我:“现在我基本无视所有邮件推广,陌生号码的电话我也几乎不接。” “因为我已经分不清那是真人还是机器了。以前我一眼就能分辨,现在做不到。所以干脆不理会,浪费时间。” 用通俗的话说,如果你现在还在做传统的外联推广,你的目标客户已经不再关心“我需不需要这个产品”,而是在想:“我凭什么相信你?” 营销漏斗?不,现在是信任漏斗 做营销这么多年,我发现很多所谓的“规则”和“玩法”其实都搞错了重点。我们总是在解释我们做什么,为什么重要。 但在大多数情况下,你的潜在客户早就知道他们需要你卖的东西。 他们根本不需要再看一份PPT,来了解AI编码助手如何提升开发效率,也不需要你告诉他们AI销售代表为什么可以帮他们发更多邮件。 过去一个月,他们可能已经听了40次这样的东西(天啊,现在到底有多少AI销售代表啊?)。 他们真正想知道的是:“凭什么我要跟你买,而不是另外100家发同样邮件来骚扰我的公司?” 而现在,铺天盖地的AI内容,让客户更难回答这个问题了。 图1 是我从PHOS Creative那里借用的: (图片描述: 营销漏斗(Marketing Funnel) - 品牌认知 / 触达(Awareness) - 评估 / 意向(Consideration) - 转化 / 下单(Conversion) 信任漏斗(Trust Funnel) - 能力 / 胜任度(Competency) - 可信度 / 公信力(Credibility) - 真实感 / 真实性(Authenticity) - 共情 / 同理心(Empathy) ) 维度 - 核心关注 * 营销漏斗:获客和转化 * 信任漏斗:建立关系和客户忠诚 - 最终目标 * 营销漏斗:完成交易 * 信任漏斗:长期客户支持与复购 - 内容策略 * 营销漏斗:推广为主,销售导向 * 信任漏斗:帮助客户,创造价值 - 衡量成功 * 营销漏斗:转化率、销量 * 信任漏斗:满意度、重复购买、口碑传播 -时间跨度 * 营销漏斗:短期到中期 * 信任漏斗:长期、持续积累信任 很明显,你应该站到信任那一边! 传统的获客方式现在变得很烂 现在这种获客方式实在是太无聊了。 当Claude的AI授权只需每月10美元时,内容创作成本基本为零。于是所有人都可以装得很专业,邮件里每个字语法正确,还能勉强引用你的领英发帖(虽然引用得很僵硬)。 这些东西几分钟就能生成,不用任何人工参与。 这就意味着:现在所有内容都值得怀疑。 现在,我直接把邮件和领英消息一律扔进垃圾桶。 为什么?因为我一眼就能看出,那背后并不是一个真正关心我和我的问题的人。 这些邮件全都是模糊的“个性化”,总是自称“对你如何做某件事感到好奇”,因为这种“好奇”的句式来自某个声称效果很好的推广指南。 对我来说,这就是信任崩塌的关键: 我并不是怀疑你的产品能不能用,我是怀疑你到底是不是个真人,签完合同后还会不会关心我。 响应率低了,我多发点邮件就好了? 天啊,别这样! 问题根本不在这里。 旧世界 (…-2024年) * 创造可信、个性化内容的成本:50美元/小时(人工) * 用户每周收到的个性化推广邮件:约10封 * 用户识别真实性的成功率:约80% 新世界 (2025年-…) * 创造可信、个性化内容的成本:几乎为0 * 用户每周收到的个性化推广邮件:约200封 * 用户识别真实性的成功率:约20% 信噪比已经崩溃,识别这些邮件真实性的精力成本远超过可能获得的收益。 结果,客户不再费力去判断真假,而直接默认这些全是垃圾邮件。这也是为什么我和我朋友干脆无视所有推广邮件的原因——很多人也一样。 因为要辨别“这些邮件里有没有价值”,所耗费的精力早就远远超过了可能获得的好处。 回到信任本身… 你必须明白,你的潜在客户问的不是: * 你的AI工具好不好用?(他们默认你的工具好用) * 真的能提升效果吗?(他们默认有效果) * 价格合适吗?(他们自己能对比) 他们真正关心的是: * 一年后你公司还在吗?还是集成到一半你就跑路了? * 你到底比另外5家公司好在哪里? * 你是不是靠烧VC的钱活着? * 等到风口过去,我的系统是不是会烂尾? * 你们公司到底赚不赚钱?还是只是凭感觉(vibe-coded,凭感觉编程,意为没有实际盈利模型、靠炒作存活的公司)想赶紧卖掉? 而最糟糕的是:如果你不明确告诉客户,他们根本没法自己判断这些问题。 不是想泼冷水,但… 我写这篇文章不是为了打击你,而是为了让你知道现在的营销要怎么玩。 是的,你依然要回答“客户为什么需要你的产品”,但你更要回答“客户为什么必须跟你买”,并确保你的营销内容体现这一点。 机遇仍然很大。我们所有人都必须做到: * 信任的建立,仍然是人类的工作。至少现在还是。AI能帮忙,但2025年建立真正的情感联结和信任,仍然只能靠人类。 * 个性化和精准营销依旧重要。AI应该帮你精细分类客户,但重点仍是识别什么时候该由人类出面,强化信任。 * 别把所有事情都自动化。尤其是复杂或高价值的销售场景,保持一定的人类参与至关重要。 AI时代真的不同了吗? 当然。 你代表一个品牌。品牌要持续赢得客户的信任——即使你使用了AI,也必须清晰体现出人类的领导力与温度。 来源:
宝玉
2个月前
对于向深入学习上下文工程(Context Engineering)的同学,这又是一篇必看的文章。 这篇文章讲的是如何解决 MCP 工具太多的问题,但凡你做过 Agent 开发,用了大量 MCP 工具,就会知道 MCP 工具多了后最大的问题就是上下文占用太多,不仅导致成本高,还会影响推理和生成质量。 另外一个问题就是 MCP 工具返回的中间结果也会挤占大量的上下文空间。 看这文章的时候忍不住夸了一下 Manus,他们确实在上下文工程方面探索的很深入了,里面的工程技巧和他们以前分享过的很类似(我一会把之前分享过的 Manus 相关的文章在评论也发一下)。 Anthropic 的方案也很简单直接,就是把“代码”也当作工具的一种,然后从代码中去调用 MCP。 这样做有很多好处: 1. 解决了系统提示词中工具定义太多的问题 不需要在系统提示词中加载所有 MCP 工具,只需要定义一个“代码”工具。 那需要工具了怎么办呢? 这些代码都保存在统一的目录下,去目录检索下就能找到合适的工具了,比如这是文中的一个目录示例: servers ├── google-drive │ ├── getDocument.ts │ ├── ... (other tools) │ └── index.ts ├── salesforce │ ├── updateRecord.ts │ ├── ... (other tools) │ └── index.ts └── ... (other servers) 找不到现成的工具怎么办? 直接现写一个!写完了还可以保存起来下次继续用。 2. 解决了 MCP 工具返回结果太长的问题 比如说我们要用 MPC 工具获取 1 万行数据后筛选转换出合格的数据,就可以先从代码中调用 MCP 工具获取这 1 万行数据,然后从代码中去筛选过滤,最后只返回 5 条数据,这样上下文中就只需要保留那 5 条过滤的数据,而不是像以前一样有 1 万条数据在里面。 3. 解决了数据隐私问题 如果你直接使用 MCP 工具,工具返回的数据都要加载到上下文每次上传给 LLM,用代码就可以对敏感数据先二次处理再加到上下文 4. 中间结果持久化和技能沉淀 代码可以把一些中间结果写入文件保存到硬盘,一方面可以不占用上下文空间,另一方面也可以随时从硬盘避免反复调用 MCP。 还有就是虽然很多代码是临时生成的,但是这些临时生成的代码可以保存下来,沉淀为“技能”(Skill),加上 SKILL .MD 文件就和 Claude Code 的技能一样可以被反复使用了。
宝玉
2个月前
关注 AI Agent 的力荐 MMC 的这篇刚发布的《State of Agentic AI: Founder’s edition》,不仅数据扎实,分析了问题,还提供了可行的解决方案。 今年 2025 年是公认的 AI Agent 元年,“Agentic AI” 非常火,新产品也层出不穷:Deep Research、Coding Agent、Browser use、Computer use …… 当然 Agent 争议也不小,一部分人认为没啥用,一部分人则觉得 Agent 无所不能,也无可厚非,大家都是主观感受 ,每个人使用场景都不一样,比如我自己就很喜欢 Coding Agent,真的能解决问题。但这种争议如果用数据说话就会有说服力的多,比如说这玩意儿,在真实的企业里,真的用起来了吗? MMC 则是深入访谈了 30 多家正在做 AI Agent 的创业公司创始人和 40 多位企业里的实际用户,写了这篇报告:《Agentic AI 现状:创始人版》。 【1】真正限制 AI Agent 的,可能不是 AI 不够聪明 大部分都以为目前 Agent 最大的困难会是“AI 不够聪明”、“幻觉太严重”或者“太难和当前系统集成”。 这些确实是问题,但出人意料的是,在创始人眼中,它们排不进前三。 根据调查,部署 AI Agent 时的三大问题分别是: 1. 工作流集成 和 人机交互(占 60%) 2. 员工抵触 和 非技术因素(占 50%) 3. 数据隐私与安全(占 50%) 也就是说最大的障碍,是“人”和“流程”的问题。 1. “这玩意儿我该怎么用?”(工作流集成) 这是占比 60% 的最大难题。 一个 AI Agent 再牛,如果它是一个需要单独打开的 APP,需要员工在现有的工作软件(比如钉钉、飞书、Salesforce)之外,再打开一个新窗口去指挥它,那它的使用率注定高不了。 成功的集成,是把 AI 嵌入到员工已有的工作流里。比如,当销售在 CRM 里更新一个客户状态时,AI Agent 自动跳出来说:“我帮你把刚才的会议纪要总结好了。” 这已经不仅仅是个技术问题了,更需要企业改变观念,企业得先想清楚:“要集成这样的 AI Agent,我原有的工作流程需要怎么改?”这往往比买一套 AI Agent 难得多。 2. “它会不会抢我饭碗?”(员工抵触) 这是 50% 的创始人提到的信任危机。 我们得承认一个现实:在企业里,人类和 AI 的合作,目前大多不太愉快。 - 一种是“过度依赖”:员工把活儿全丢给 AI,自己不检查,结果 AI 出了错,比如给客户报了个错误的价格,酿成大祸。 - 一种是“过度怀疑”:员工根本不信 AI,AI 做的每一步,他都要自己再核查一遍。这非但没提高效率,反而增加了工作量。 更深层的,就是对被 AI 取代的恐惧。这导致员工在用的时候束手束脚,或者干脆阳奉阴违,不愿配合。 3. “我的数据喂给 AI,安全吗?”(数据隐私) 这也是 50% 的创始人提到的核心关切。 这个问题在金融、医疗等行业尤其严重。企业会担心:“我把内部的财务报表、客户病历交给这个 AI Agent 分析,这些数据会不会被拿去训练别的模型?会不会泄露?” 这种担忧,有些是真实存在的,比如需要符合 GDPR、ISO 27001 等合规认证,也有些纯粹是感觉上的。但无论哪种,都会让企业在部署时畏手畏脚。 【2】做得好的 AI Agent:高准确率和高自主性 既然有这么多困难,那现在做的好的那些 AI Agent,实际表现怎么样? 这个报告给我很大收获的一点是它从两个维度来量化现在的 AI Agent:准确率(Accuracy)和自主性(Autonomy): - 准确率:AI 干的活儿,多大比例是对的、被人类接受的。 - 自主性:AI 干活儿时,多大程度不需要人来插手。 理想状态当然是高准确+高自主。但现实是,超过 90% 的Agent创业公司声称自己的方案达到了 70% 以上的准确率。 所以 MMC 把 Agent 划分了三个分类(低准确率+低自主性的Agent就不配存在): 1. 中准确、高自主: 适用于低风险、高重复、易验证的工作场景。比如自动给海量的营销邮件打标签。就算 AI 标错了 30%,但它帮你自动处理了 1000 封,你只需要人工纠错那些明显不对的,总体效率还是远超纯人工。 2. 高准确、低自主: 适用于高风险、高价值领域,比如医疗场景。比如 AI 帮你起草临床试验的研究报告。它必须保证 90% 以上的准确率,但人类专家必须在每一步进行严格审核(低自主权)。它扮演的是“超级助手”,而不是“决策者”。 3. 高准确率 + 高自主性: 这可以说是最理想的“甜点区”,是大家努力的方向。它适用于那些 AI 部署相对成熟或规则边界清晰的领域。比如客户服务、网络安全或金融合规。在这些场景下,AI Agent 已经足够可靠,达到 80%-90% 的准确率和自主性,可以被授予高自主权去端到端地处理任务。报告提到,这里的秘诀通常是将概率性的大语言模型与更具确定性的 AI 方法相结合,以提高准确性,从而进一步提高自主性。 【3】企业开始为 Agent 付费了 聊 AI Agent 落地,绕不开收费的问题,毕竟靠烧钱是无法持久的。 好消息是企业开始真掏钱付费了 报告发现,62% 的 AI Agent 创业公司,已经拿到了企业的“业务线预算(Line of Business budget)”。 这是个超级积极的信号。可能很多人不知道大公司内部的预算分两种:一种叫“创新预算”(Innovation budget),就是小金库或实验经费,数额不大,用完了算,大家图个新鲜。 而“业务线预算”,是各部门(如销售部、市场部、财务部)用来保证自己核心业务运转的支出。 当 AI Agent 开始动用“业务线预算”时,意味着它已经从可有可无的玩具变成了能帮我干活的生产力工具。 坏消息是现在还没摸索出最佳的收费模式 虽然知道这玩意儿值钱,但到底该怎么定价?报告显示,大家都在摸索,主流的两种方式是: 1. 混合定价(23%):比如“基础服务费 + 超出部分按用量付费”。 2. 按任务次(23%):AI 帮你干成一件事(比如发出一张发票),收一次钱。 而大家最期待的按照按效果付费(Outcome-based),目前只有 3% 的公司在用。 为什么?因为太难了。 比如,一个“销售 AI 助手”,它帮销售赢了个大单。这个功劳,到底 80% 算销售的,还是 20% 算 AI 的?怎么衡量?如果 AI 没功劳,企业是不是就可以不付钱?这根本算不清。 所以,目前最现实的还是按苦劳付费,而不是按功劳付费。 【4】最重要的部分:成功的 AI Agent 落地策略 既然 AI Agent 落地这么难,那些成功的 Agent 公司是怎么说服企业客户的呢? MMC 的访谈总结出了一套非常实用的落地经验: 秘籍一:“Think Small”(从小处着手) 报告总结了一个非常务实的落地策略:Think Small (从小处着手)。 忘掉那些“彻底颠覆行业”、“全自动替换人类”的宏大叙事。成功的 AI 智能体,往往从一个非常小、非常具体的切口进入: - 起点: 选一个低风险、中等收益的任务。 - 关键: 选一个员工最讨厌干的活儿。比如,销售团队最烦的手动录入客户数据,或者财务团队最烦的核对发票。 - 定位: 永远不要说你是“替代品” (Replacement),要说你是“副驾驶” (Copilot)。 你的目标不是让老板开除员工,而是把员工从那些重复、枯燥、没人想干的破事儿里解放出来。 当员工发现,这个 AI 真的帮我省了每周 5 小时填表的时间,信任的种子才算种下了。 秘籍二:“保姆式”服务(Hand-holding) 现在的 AI Agent 还远没到即插即用的程度。企业买的不仅是软件,更是一整套陪跑服务。 成功的创业公司都在用“前线部署工程师(FDE)”模式。这帮人既是程序员,又是咨询顾问,他们会直接“扎”到客户的办公室里,手把手帮客户梳理流程、清理数据、调整 AI。 同时,人机交互界面要做到“3E”: 1. Education(教育):AI 要能主动教用户“我能干啥,你该怎么用我”。 2. Entertainment(趣味):交互得有趣。 3. Expectation Management(预期管理):AI 必须坦诚地告诉用户“我干不了啥”,别吹牛。 秘籍三:定位决定生死(Positioning) 最后,你怎么“说”你是谁,可能比你“是”谁更重要。 - 是“副驾驶”,不是“替代者”: * 一定要把姿态放低。你的产品是“Copilot”(副驾驶、领航员),是来“Augment”(增强)员工能力的,不是来“Replace”(替换)他们的。哪怕你的技术真的能替换掉 80% 的人,也千万别这么说。 - 看人下菜碟: * 在医疗这种保守行业,你最好少提“AI”,多谈“自动化”、“效率提升”。 * 在金融这种激进的行业,你就得猛吹“Agentic AI”,显得你很前沿。 - ROI 要具体: * 对于成熟流程,就说“节省了 XX 小时”或“降低了 XX% 成本”。 * 对于 AI 创造的新能力(比如“千人千面”的网页),就把它和你已有的工具挂钩,比如:“能让你的谷歌广告转化率提升 20%”。 【最后】 港真,年初的时候我还是 AI Agent 的怀疑论者,自从用了 Claude Code 后,我开始“真香”,变成了 AI Agent 的积极拥护者,也一直很关注这个领域的发展,这份报告质量还是很高的,尤其是给我最大感触的点是: 决定 AI Agent 落地成败的,最重要的因素已经不是模型能力够不够强,而是它怎么和企业内部的流程整合,怎么取得员工的行人,怎么证明它存在的价值。 另外从准确率和主动性这两个维度来量化评估 AI Agent,是挺科学的,现在很多的 AI Agent,主动性高了准确率可能就不够,准确率上去了主动性又不行,要做好 Agent,最终还是要做到像一个情商高的真人那样,在你还没开口时,就洞察到你的需求,默默帮你把事情搞定。
宝玉
2个月前
关于 ChatGPT 为什么喜欢用破折号,这个问题的原因似乎现在还没有定论,不过刚看到一篇博客分析这个问题,还挺有趣。 先说一个有趣的问题是 AI 特别喜欢用 "delve"(深入探究)这个词。 这个现象的答案是已知的:RLHF(人类反馈强化学习)。 简单说,AI 模型训练的最后一步,是雇佣大量的人类“导师”来给它的回答打分。OpenAI 雇佣的导师很多在肯尼亚、尼日利亚等非洲国家。而在这些地区的“非洲英语”中,"delve" 是一个非常常用且得体的词汇。 于是,当 AI 用 "delve" 时,非洲的导师们觉得“这话说得不错”,就给了高分。AI 就此学会了:“哦,客户喜欢我用‘delve’。” 那么,破折号也是因为这个原因吗? 作者顺着这个思路去查证:是不是非洲英语里也特别爱用破折号? 结果,并不是! 尼日利亚英语破折号的出现频率(每词 0.022%)远低于普通英语的平均水平(0.25% 到 0.275%)。 这说明,“深入探究”(delve)和“破折号”(—)这两个 AI “口音”,来源并不相同。 作者最终发现了一个决定性的线索:时间。 大家回忆一下,2022 年底的 GPT-3.5,其实并没有这个毛病。这个“破折号上瘾症”是在 GPT-4 和 GPT-4o 身上才集中爆发的。 不只是 OpenAI,谷歌和 Anthropic 的模型,包括一些中国的大模型,都开始用破折号。 那么,从 2022 年到 2024 年,所有 AI 实验室的训练数据,到底发生了什么共同的变化? 答案是:AI 公司的“数据荒”来了,它们开始疯狂“喂”AI 吃书——特别是“旧书”。 在 2022 年,AI 主要吃的是互联网上的公开数据、盗版电子书(比如 LibGen 上的)。但很快,这些数据就不够用了,而且质量良莠不齐。 为了让模型变得更“有文化”、更“高质量”,AI 公司们(法庭文件显示 Anthropic 在 2024 年 2 月开始了这项工作,OpenAI 只会更早)启动了一个庞大的工程:大规模扫描实体书,把纸质书数字化,作为训练数据。 好了,破案的最后一块拼图来了。 既然 AI 吃了大量(可能是几百万册)扫描的纸质书,那么这些书是什么年代的呢? 盗版电子书网站上的书,大多是当代流行读物。而 AI 公司为了“填饱肚子”并绕开版权,扫描的书中,有很大一部分是更古老的、已进入公共领域的作品。 作者找到了一个关于英语标点符号使用频率的研究,它显示: 破折号在英语文学中的使用频率,在 1860 年左右达到了顶峰(约 0.35%),在 19 世纪末和 20 世纪初的使用率,远高于当代英语。 作者举了个例子:著名的《白鲸记》(Moby-Dick,1851年出版)一书中,破折号出现了 1728 次! 真相至此水落石出: 我们现在用的最先进的 AI,它的“标点符号观”并不是从 2020 年的互联网学来的,而是从 1890 年的旧小说里继承的。 AI 公司们为了获取“高质量”的语料,把大量 19 世纪末、20 世纪初的文学作品喂给了模型。AI 忠实地学习了那个年代的写作风格——其中就包括对“破折号”的狂热喜爱。 当然,作者也承认,这仍然是一个基于证据的推测,还有一些小疑问没解决: 1. 为什么 AI 只学会了用破折号,却没有学会像《白鲸记》的船长那样说话? 也许模型只是吸收了标点符号这种“潜意识”的风格,而没有吸收具体的用词? 2. 有没有更简单的解释? 比如,Sam Altman 曾随口提过,他们发现 RLHF 的人类导师“似乎更喜欢”带破折号的回答,觉得那样更“口语化”,所以就“多加了点”。 不过,综合来看,“扫描旧书”这个理论目前是最有说服力的。它完美地解释了为什么 GPT-3.5 不会,而 GPT-4 之后的模型(它们都大量训练了新的书籍数据),然后集体对破折号“上瘾”了。 有兴趣可以看看原文:
宝玉
2个月前
Text to Markdown Prompt 适用于你要把推文、微博这种纯文本内容转成格式良好的博客,可以帮你生成标题、列表,和加粗要点、金句。 亮点: - 借助思维链先提取要点、金句和可选标题,然后选择标题和高亮要点、金句 - 解决了 LLM 在加粗带标点符号的文字时加粗失效的问题(如果你用过 LLM 生成的中文 Markdown 会明白我说什么,参考图4) ---- 提示词开始 ---- # 任务:将文本转换为结构化 Markdown 请你扮演一个专业的编辑,将提供的文本内容转换为一份格式良好、结构清晰、重点突出的 Markdown 文档。 ## A. 内部推理步骤 (请在你的思考过程中执行,无需输出) 在生成最终的 Markdown 之前,请先在内部完成以下思考: 1. **理解与提取**: * 通读全文,准确把握文章的核心主旨和目的。 * 识别并提取文中的**核心论点**、**关键结论**和**重要定义**。 * 找出文中具有高度概括性或特别精辟的**“金句” (Golden Sentences)**。 2. **构思标题**: * 基于文章主旨,生成 2-3 个备选的主标题 (H1 级别)。 3. **最终决策**: * 从备选项中选择一个最精炼、最贴切的标题作为最终主标题。 * 从步骤 1 提取的内容中,最终确定哪些句子或短语最值得在正文中加粗,以引导读者快速抓住核心。 ## B. 最终输出规范 (请严格按此格式生成) 请根据你的内部推理,生成符合以下所有规范的 Markdown 文本: 1. **主标题 (H1)**: * 使用 `# 标题` 格式,采用你在步骤 A.3 中选定的最佳标题。 2. **内容结构**: * 使用不同级别的子标题(如 `##`、`###`)来组织文章脉络,使其逻辑清晰。 * 适当使用项目符号(`-`)或编号列表(`1.`)来呈现并列或顺序关系。 3. **突出重点 (句子优先)**: * **有选择性地**使用粗体 (`**`) 来突出你在步骤 A.1 和 A.3 中确定的**核心论点**、**关键结论**或**金句**。 * **优先加粗**:优先考虑加粗**能够概括要点的完整句子**或**关键短语**。 * **避免**:避免只加粗零散的单个关键词,并**切勿过度使用粗体**,保持文档的专业性和易读性。 4. **【!!!】重要格式规范**: * 在设置粗体时,**绝对不要**将任何标点符号(如 `。`、`,`、`:`、`"`、`(`、`)` 等)包含在 `**` 标记内部。 * ✅ **正确示例**(标点在 `**` 之外):这是“**一个核心观点**”。 * ❌ **错误示例**:这是**“一个核心观点”**。 --- 请开始处理以下内容:
宝玉
2个月前
很荣幸被评选为微博2025最具影响力AI大V,还是写点什么感谢一下支持我的网友和新浪微博平台。 特别喜欢今年微博V影响力大会的那句 Slogan:“尽兴分享 自成影响”,因为从2010年注册了微博到今天,这8个字就是我微博账号成长的真实写照。我一直在“尽兴分享”,分享生活、分享技术和管理经验、这几年集中分享 AI 资讯和技术,不知不觉也从最开始只有少数好友互动,到如今的百万粉丝的大v。 我从来没有把成为百万粉丝大v作为我的微博目标,作为个个人账号也没有学习研究过运营技巧,对我来说它只是“尽兴分享”一种结果——“自成影响”!当然更多的是幸运,赶上了 AI 爆发,最重要的是大家的支持,给了我很多正向的反馈,让我在分享之余,也收获了很多:善意的支持、不同观点的碰撞、流量和声誉。这些都给了我动力持续的创作和分享。 有人问过我为什么会每天坚持写微博? 其实我单纯的只是为了践行费曼学习法,尤其是在 23 年 AI 让大家都很焦虑的时候,我也很焦虑,所以拼命的去学习 AI 知识,以前都是偏应用技术,AI 对我来说是很遥远很高深的事情,于是我想通过微博分享学习心得、实践经验的方式来倒逼着我学习,这能帮助我快速掌握 AI 技术(本质上就是费曼学习法)。 这样实践下来效果真的很好,我一边学习提示词一边分享我试验出来的提示词,一边学习实践 RAG 一边写 RAG 的技术文章,每一次写作都让我对这些技术有更深入的领悟,意外的还让我成为微博上第一批大量分享 AI 资讯和技术经验的博主。 包括我在 X 上的账号也是因为“尽兴分享”跟着一起“自成影响”,因为当时我发现学习 AI 知识了解 AI 资讯 X 上是最好的,要在微博上分享更多优质内容,少不了要去 X 上收集信息,所以就开始启用了好多年不怎么使用的 X 账号,开始同步分享,跟着吃了一波 AI 增长的红利。 当然影响力和流量也是双刃的,当有了流量和粉丝数,就难免也会在意流量的涨跌;流量上来负面评论也会多起来,甚至会影响情绪。 我也是花了一些时间才慢慢调整过来,负面评论拉黑是最简单直接的,所以我个人介绍里面至今保留了一句:不争论只拉黑。总的来说微博环境相对还是不错的,微博在这方面确实花了不少精力,很多地方比 X 做的要好,另外关注 AI 的人群整体素质也相对要高很多。很多时候遭遇负面评论,最让我暖心的是很多站出来留言支持我的网友,感谢你们🥰! 对于流量这事,一个本身我也没有那么在意,另外也慢慢有了自己稳定的和高效的创作模式: - 每天大量阅读推文和资讯(我的信息来源主要是 X 的推送和 Hackernews),一部分有价值的借助 AI 翻译或者总结发布 - 大量的实践 AI,应用 AI 在日常工作生活中,随时将学到的心得和经验分享 - 基于和用户互动的内容创作,比如代表性的问题解答或者感想 - 定期将自己阶段性的思考写成原创的内容 作为一个 AI 博主,自然也少不了大量应用 AI 来帮助提升运营效率。我有各种不同的提示词来帮助做不同的任务,比如翻译的、总结的、看论文的、画图的、视频转文字的等等,作为一个程序员出生的博主,更是可以借助程序来写一些工具,比如我有一些自己用的网页转Markdown、视频翻译的工具、长文翻译、排版的工具。不过现在,更多是直接借助各个 AI 工具结合提示词就足够了。而且绝大部分我用到的提示词都分享过的。 也许将来我没办法做到像这几年一样一直高频度写作,但应该还是会坚持“尽兴分享”。 谢谢你们对我的支持,也希望你能“尽兴分享 自成影响”!
宝玉
2个月前
转译:这波裁员潮的背后,其实藏着两个截然不同的故事,而不是一个。 一方面,像亚马逊 (Amazon)、Meta 和微软 (Microsoft) 这样的科技巨头裁员,是为了筹集资金购买 GPU(图形处理器,AI 训练和运行所必需的强大芯片)。他们的收入在增长,股价在攀升。他们裁掉员工,是为了把钱腾出来,砸向“算力”。这可不是经济不景气时期的“降本增效”。这更像是一场被迫的资源重新配置——把发工资的钱,转投给数据中心。这笔账算得极其残酷:每裁掉 1% 的员工,省下的钱就能多买一批 H100(英伟达公司生产的顶级 AI 芯片,非常昂贵且抢手)。 与此同时,UPS、雀巢 (Nestle)、福特 (Ford) 和塔吉特 (Target) 这些传统行业的公司也在裁员,但原因恰恰相反。他们已经部署了切实有效的 AI(人工智能)工具。比如,客户服务自动化、供应链优化、生成式设计系统等等。AI 带来的生产力提升是实实在在的,而且还在不断累积。这些公司不需要自己去购买庞大的 GPU 集群(由大量 GPU 组合而成的高性能计算系统)。他们从“超大规模云服务商”(比如亚马逊 AWS、微软 Azure 或谷歌云) 那里租用“推理”算力(即运行 AI 模型得出结果),然后裁掉员工。因为现在这笔账(用 AI 替代人力的成本)终于算得过来了。 裁员的双方,都在喂养同一头巨兽。 科技巨头在疯狂“买铲子”(指购买 GPU 等基础设施,就像淘金热里卖铲子的人)。而其他所有人,则在购买用这些铲子挖出来的“黄金”(指 AI 带来的生产力)。 半导体公司稳坐中间,向整个产业链收取“租金”。台积电 (TSMC)(全球最大的芯片代工厂)、英伟达 (NVIDIA)(GPU 的主要设计者)和阿斯麦 (ASML)(制造顶级芯片光刻机的唯一厂商)正在疯狂“印钱”,而产业链的两端(科技公司和传统公司)都在大量裁员。 这个发生的时间点至关重要。目前,企业对 AI 的采用率大约是 10%,并且正朝着 50% 迈进。历史经验告诉我们,这个阶段(从早期采用到主流普及)的发展速度最快,创造的财富也最多。 但问题是,这些财富正集中在“算力”上,而不是“劳动力”上。企业的“市值”(即公司总价值) 增长与普通人的“工资”增长之间的鸿沟,从未像现在这样巨大。 这不是一场经济衰退。这是一场“再平衡”(即经济结构的根本性重塑)。而大多数劳动者,不幸正站在了天平的错误一端。
宝玉
2个月前
AI 会“写代码”,但它不会“做软件” 作者:Matias Heikkilä 你有没有发现,最近有相当多的人在到处寻找技术合伙人或者 CTO? 反正我吧,收到了多得惊人的这类咨询;他们的话术大同小异:“嘿,我这儿有个‘凭感觉编程 (Vibe Coding)’搞出来的 App,你愿意帮我把它做成‘生产就绪’(也就是能正式上线、稳定运行)的版本吗?” 我大概能给这些人画个像。想象一下:他们非常懂自己的业务,但一直以来都缺乏技术能力,没法把好点子变成现实——他们可能是个法律顾问,或者客户经理。 这些人干嘛要找我呢? 我也琢磨了一下,我觉得这释放了一个重要信号:到底有什么事是他们靠生成式 AI (GenAI) 没法独立完成的? 这不正是现在人人都想搞明白的问题吗?大家都想知道这些模型的能力边界。或者,说得再直白点:大家都想知道哪些工作很快要被淘汰了。 我收到这些求助,这个事实本身就说明了“软件工程”这个行业的一些问题。我的意思是,如果软件工程真的已经被 AI 自动化了,那根本不会有人来找技术合伙人。 嗯,我想我明白为什么我们会收到这些请求了。关键在于:AI 会写代码,但它不会构建软件。 这是我在花了大量时间用 AI 辅助编程、并且看了无数别人的演示之后,得出的结论。 圈内有句老话:写代码容易,软件工程难。 现在看来,说大语言模型 (LLM) 已经能自动化“大量写代码”的工作,这挺公允的。像 GPT-5 这样的模型(这里作者指代的是未来更强的模型),在解决那些定义清晰、孤立的小问题时,成功率相当高。 但是,“写代码”本身并不是大多数程序员拿工资的真正原因。构建一个能正式上线的 App,那不叫“写代码”,那叫“软件工程”。 在我看来,当你试图把一个“演示版 (demo)”变成一个“真正的产品”时,“写代码”就升级成了“软件工程”——而这,恰恰就是前面提到的那些人带着他们的项目来找你的时候。 我其实也不太清楚为什么 AI 至少目前还无法“构建软件”。 也许这和工作的本质有关。当你以写软件为生时,你的核心任务是处理“复杂性”。一个普通的线上产品,它做的可能只是一堆简单的事情。真正的挑战是,如何让“成百上千件”简单的事情同时不出错地运行,并且让整个系统保持“可维护性”。 换到我们今天讨论的 AI 话题下,这句话可以这么说:演示一个“功能”是一回事;而用一种支持“集成、扩展和长期可维护性”的方式来“构建”这个功能,则完全是另一回事,难度天差地别。 当你点开那些人发来的代码时,你会发现,所谓的“让 App 生产就绪”,真正的意思其实是“把这些代码全删了,从头重写”。 我觉得,这非常清楚地说明了我们在 AI 发展上目前所处的阶段。 来源
宝玉
2个月前
Every 的一篇博文,记录了他们内部 6 位工程师日常是怎么使用 AI 的,可以学习借鉴一下。这 6 个人都很厉害,撑起了 4 款 AI 产品、一个咨询业务,还有一个 10 万多读者的订阅每日更新。 第 1 位 —— 走在实验前沿:Yash Poojary, Sparkle 总经理 Yash 是 Sparkle 产品的负责人,他同时开两台电脑,一台跑 Claude Code,一台跑 Codex,然后给它们下达同一个任务,看它俩谁干得又快又好。 Yash 说,在五个月前,他得先把设计图(Figma)截图,再粘贴到 Claude 里,让它“看图写代码”。现在用上了 Figma MCP 集成,Claude 可以直接读取 Figma 的设计源文件——包括颜色、间距、组件这些。 Yash 不仅在用AI,他还在优化和AI的配合。比如,他把一天切成两半: - 上午:专注执行。 这时候只用自己最熟的AI工具(Claude 和 Codex),绝不玩新东西,保证产出。 - 下午:自由探索。 这时候才开始测试各种新出的AI应用和功能。 他很清楚 AI 既是生产力工具,也是个“时间黑洞”。他用严格的时间管理,给自己建立了“防护栏”,防止自己沉迷于“调教AI”而忘了真正的工作。 第 2 位 —— 编排闭环:Kieran Klaassen, Cora 总经理 Kieran 负责 Cora 产品,他的风格是““谋定而后动””。 他的工作流核心就两个字:计划。 他会根据功能的大小,制定三种不同级别的编程计划。他会用一个叫 “Context 7 MCP” 的工具,先把最新的、最准确的官方文档和代码喂给AI,确保AI不是在“凭空想象”或用过时的知识来制定计划。 等Claude Code 交出一个完美的计划后,他再把计划发到 GitHub,然后在云端让 Coding Agent(主要是Claude Code)去执行这个计划。AI写完代码后,他会再启动一个““审查””命令,让AI自己先检查一遍,然后他再上手。 对 Kieran 来说,AI 不是一个“黑匣子”,而是一个必须在他制定的蓝图内严格执行的“施工队” 第 3 位 —— 化繁为简,拆解里程碑:Danny Aziz, Spiral 总经理 Danny 负责 Spiral 产品,他可能是这群人里最硬核的一位。 他的主战场不在花哨的图形界面,而是在一个叫 “Droid” 的命令行工具里。这个工具能让他同时调用 OpenAI 和 Anthropic 的模型。 他的工作流是: 1. 用 GPT-5 Codex 做大的任务:搭建复杂功能的框架。 2. 用 Claude 做小的任务:优化和打磨代码细节。 Danny 最有价值的一个做法是,他会在““规划阶段””花大量时间跟AI对话,让AI帮他推演一个决策可能带来的第二层、第三层后果”。 举个例子:“我要加这个新功能,但你帮我分析一下,它会不会因为从数据库拿数据的方式,导致整个App变慢?” 他用AI来辅助自己做更高维度的“架构思考”,而不仅仅是写几行代码。 > “我不再用 Cursor 了,”他说,“我已经好几个月没打开过它了。”取而代之的是,他的主界面是 Warp,可以在上面分割屏幕、快速切换任务。在它背后,他用 Zed ——一个轻量、快速的代码编辑器——来审阅计划文件和特定的代码片段。 第 4 位 —— 让流程成为唯一的“事实来源”:Naveen Naidu, Monologue 总经理 Naveen 负责 Monologue 产品,他是个“程控”。他的信条是:“如果一个任务没录入 Linear (项目管理工具),那它就不存在。” 他把所有需求和Bug都先在 Linear 里归档,然后再启动AI。他也有两套流程: - 小Bug:直接从 Linear 复制粘贴问题描述,扔进 Codex Cloud 让AI去跑。 - 大功能:在本地写一个详细的 (计划文档),把它作为和AI沟通的“唯一事实蓝图”,在命令行里一步步推进。 最有意思的是,他深度使用自己开发的产品 Monologue (一个语音转文字工具) 来口述需求、写文档、给AI下指令。这简直是““用自己造的锤子,来修自己的房子””。 他还有一套严格的审查标准:AI 自动审查 -> 自己人工对比代码 -> 查看Sentry(错误监控工具)的日志,确保Bug真的被修复了。 第 5 位 —— 钻研打磨,精益求精:Andrey Galko, 工程主管 Andrey 是工程主管,他代表了另一种工程师:不爱折腾。 他不喜欢追逐“闪亮的新玩具”。他之前一直用 Cursor (一个AI代码编辑器),觉得体验最好。但后来因为 Cursor 改了定价,他一周就把免费额度用完了,这才“被迫”换工具。 他换到了 Codex。他认为以前的 OpenAI 模型写的代码很“懒”,经常跳步骤,不如 Claude 好用。但现在的 GPT-5 Codex 已经进化得非常强,连以前 Claude 的强项——用户界面(UI)——都能搞定了。 第 6 位 —— 极致的专注:Nityesh Agarwal, Cora 工程师 Nityesh 是 Cora 的工程师,他的风格和第一位 Yash 截然相反。他追求极致的专注。他的装备极简(一台MacBook Air),他的工具也极简:只用 Claude Code。 但他用 Claude Code 的方式很特别: 1. 他会花好几个小时,先和 Claude 一起研究、制定一个巨详细的计划。 2. 一旦开始编码,他就待在一个终端窗口里,“像老鹰一样””盯着 Claude 输出的每一行代码,手指就悬在 Escape 键上,一旦发现不对,立刻中断它。 最近,他甚至故意频繁地打断AI,强迫AI向他解释“你为什么要这么写?”。 他承认,这样做效率变低了,但带来了两个巨大的好处: 1. AI 胡说八道(hallucinate)的次数变少了。 2. 他感觉自己的开发技能也在这个盘问 AI 的过程中变强了。 他意识到,自己已经对 Claude 产生了依赖,这让他很脆弱。前阵子 Claude 宕机了两天,他试了别的工具,都感觉不顺手。所以,他现在逼着自己和AI一起思考,而不是纯粹依赖AI。 --- 看来每个人用 AI 的方式都不一样,但也有一些共同点: 1. 重点不在“写代码”,而在“做规划” 没有人真正的是在“Vibe Coding”,没有说写个提示词就完事了的,都是在 AI 干活前反复的讨论,直到清楚了再动手 2. 上下文很重要 Yash 用 Context 7 MCP 的工具,确保 AI 在写代码时,能自动去查阅最新、最官方的“技术文档”。这就避免了 AI 用过时的知识(比如一个老版本的函数)来写新代码。还会用 Figma MCP,读取 Figma 的原始设计数据,让 AI 可以直接拿到准确的颜色、间距等信息 3. 工程师的角色在进化 工程师已经不再是单纯写代码,还要做计划、写提示词、审查 AI 生成的代码 4. 专注 这个问题其实我也有感触,AI 让人更难专注了,在等 AI 结果的时候去做点其他事,很快就把任务忘记了;或者 AI 工具太多,每个新 AI 工具都去试试太费时间了。像 Yash 那样,一半时间专注交付,一半时间探索。 原文:Inside the AI Workflows of Every’s Six Engineers
宝玉
2个月前
经济学人:AI会取代初级员工吗? 美国经济正陷入一种奇怪的状态。总体增长看起来还算不错,但8月份新增就业岗位仅2.2万个,而4月份却高达15.8万个。这种低迷中,一个新的担忧正在浮现:生成式AI(generative AI)是不是开始抢走了人类的饭碗? 图1 白领工作占美国总就业比例趋势图(过去12个月平均值) (白领工作包括管理、专业、销售和办公室岗位) 公司数据揭示的微妙变化 哈佛大学的两位博士生赛义德·侯赛尼(Seyed Hosseini)和盖伊·利希廷格(Guy Lichtinger)最近开展了一项研究。他们发现了一个值得关注的趋势:一些公司正在专门招募名为“生成式AI整合师”(generative-AI integrators)的员工,这些人的工作是把AI技术深度融入公司的日常运营中。 研究者利用AI分析了2亿条招聘信息,识别出1.06万家公司共发布了约13万个此类职位。这些公司被称为“AI采纳公司”(AI adopters)。数据表明,自2023年第一季度ChatGPT 3.5发布后,此类岗位的招聘数量明显上升。 另外,还有27.4万家公司被视作“对照组”,因为它们没有专门招募AI整合师。 图2 首次招聘“AI整合师”岗位的美国公司数量(GPT 3.5发布后显著增加) AI如何影响了招聘? 如果AI完全不会影响就业,那么AI采纳公司的招聘趋势应该与非采纳公司相同。但研究者发现,从2023年开始,各类公司初级岗位的招聘数量都出现下降,但AI采纳公司初级岗位的降幅要比非采纳公司高出7.7%。 值得注意的是,这种差异只出现在初级职位上,高级职位则未受到明显影响。研究认为,一些重复、枯燥但对脑力消耗较大的初级工作,比如代码排错、文档审阅等,更容易被AI取代。这种下降主要表现为企业招聘放缓,而非大规模裁员。 图3 美国AI采纳公司与非采纳公司在GPT 3.5发布后的就业变化趋势(初级岗位明显受影响) 哪些大学毕业生受影响最大? 研究还发现,这种影响并非对所有毕业生都是均匀的。他们把毕业生所在大学分成五个档次。结果显示,中等档次大学的毕业生处境最为艰难,受AI冲击最大。而顶级大学毕业生因具备稀缺的专业技能相对安全,底层大学毕业生则因雇佣成本较低仍然受到青睐。 换句话说,最危险的是那些处于“中间地带”的毕业生。 图4 AI采纳公司相比非采纳公司招聘初级员工的降幅(按毕业院校层次划分) 结论:谨慎对待“AI取代论” 然而,研究者也提醒说,现在下结论还为时尚早。毕竟,只有17%的员工处于AI采纳公司,这意味着AI真正能取代的岗位比例可能并不高。此外,近年来初级员工的招聘趋势波动剧烈,尤其是受到了新冠疫情的严重扰乱。 也就是说,即使AI对初级员工产生了一些负面影响,它也只是众多影响因素中的一个罢了。■
宝玉
2个月前
原推的故事挺有意思,还记得智能手机黎明前夜的诺基亚吗?面对来势汹汹、只有一个Home键的iPhone,这家昔日巨头也急着要拿出自己的“旗舰”来应战。 摆在他们面前的是一个棘手的问题:未来到底是全触屏,还是保留用户习惯的物理键盘? 诺基亚的工程部门做了一个在当时看来“最稳妥”、风险最小的决定:我们全都要。 他们搞了个“双保险”方案:既保留物理键盘,也开发软件键盘(触屏)。这样,既能安抚留恋实体按键的老用户,也能吸引想尝鲜触屏的新用户。听起来,这简直是面面俱到、不会出错的完美方案。 然而,灾难恰恰源于这个“后备方案”的存在。 “后路”如何毒害了“主力”? 这个“双保险”策略,听起来很美,但它在执行中,直接腐蚀了两个团队的决心和执行力。 原文一针见血地指出了一个致命的内部循环: 1. 负责软件键盘(触屏)的团队,在开发时开始懈怠了。他们心想:“我们的触屏体验做得马马虎虎?没关系,反正用户还有物理键盘可以用。触屏不灵敏,他们自然会去用按键,问题不大。” 2. 负责物理键盘的团队,也开始打起了小算盘。他们心想:“为了让手机更薄、成本更低,我们可以砍掉几个不常用的功能键。没关系,反正用户还可以在触摸屏上输入那些符号。” 看到问题了吗? “后路”的存在,让两个团队都失去了“破釜沉舟”、把产品做到极致的动力。每个人都在指望对方能弥补自己的短板。大家都在“赌”对方的方案能为自己的妥协兜底。 结果就是,各自都交出了一份60分的答卷,而不是一份100分的答卷。 最终诞生的,是一个“弗兰肯斯坦”(Frankenstein)——一个由不同部件缝合起来的怪物。它的触屏体验远不如iPhone流畅,它的物理键盘也因妥协而变得蹩脚、不完整。 它试图讨好所有人,最后却被所有人抛弃。当诺基亚终于醒悟,决定“all-in”(全力以赴)时,市场早已没有他们的位置了。 真正的勇气,是敢于“没有B计划” 回头看,我们当然可以说“全力押注触屏”是显而易见的正确答案。但原文也提醒我们,在当时当地,做出这个决定需要巨大的勇气。 “全力以赴”意味着没有退路。它相当于逼着整个团队“在飞行中升级整架飞机”——这听起来惊险万分,困难重重,但这也是唯一能飞出风暴的办法。 当你只有A计划时,你会倾注120%的努力去确保它成功,因为你知道,失败了就一无所有。 而一旦B计划(那个“后备方案”)存在,它就像一个近在咫尺的安全出口,时时刻刻在诱惑你。你开始盘算“万一A计划不行……”,你投入的资源、决心和专注力就开始打折。 最终,这个B计划的存在,恰恰从内部保证了A计划的失败。 也许,有时候,最决绝的策略,反而是最安全的策略。因为当你烧掉所有后路时,你也点燃了唯一的活路。