宝玉
2周前
“求职者正借助 AI 优化自己的简历,试图穿透算法的初筛;而企业则用 AI 搭建更高的围墙,来抵挡海量的、同样由 AI 润色过的申请。” 大西洋月刊:《找工作,正在变成一场地狱难度的“刷题”游戏》 哈里斯从加州大学戴维斯分校毕业前几个月,就开始了他的首次正式求职之旅。他自认为简历很优秀:在一家咨询公司做过实习,有多年的环境保护志愿经验,在农场、公园和办公室都干过活儿,GPA接近满分,推荐信质量也很高。他愿意为了保护加州的野生动物和公共土地而拼尽全力,哪怕是去挖沟、搬砖、填表这种苦活杂活都没问题,哪怕工作不稳定,哪怕只能睡在车里。 他一口气投了200份简历,结果收获了整整200次的拒绝。不,严格来说,哈里斯连拒绝都算不上,绝大多数公司根本就没回音。 现在,数百万像哈里斯一样的求职者都深陷类似的困境。从宏观数据上看,美国企业的利润仍然不错,全国失业率仅为4.3%,工资水平也在上涨。然而,招聘市场却几乎冻结了。最近四个月来,美国企业招新员工的比例创下了自“大萧条”后的最低点。四年前,企业每个月每100名员工还能新增四五个职位,现在只剩三个。 而从求职的体验来看,找工作更是变成了一场荒诞的“刷题”游戏。招聘平台的崛起本应简化找工作的流程,结果却演变成了像Tinder式约会软件那样的噩梦:海量的简历一键发送,AI机器人初筛,人类根本没有机会和真正的HR沟通,就已经被算法淘汰。 哈里斯每天打开LinkedIn或Indeed,总能看到一堆看起来非常适合的岗位。他仔细阅读招聘说明,调整简历,认真写介绍信,回答各种预筛问题,点击“发送”,然后祈祷好运,但一次次石沉大海。 其他求职者的经历也大同小异。住在弗吉尼亚郊区的玛蒂娜今年4月被解雇后,向律师事务所、非营利组织、大学和咨询公司投出了几十份简历,她拥有10年法律助理经验,却一次也没拿到offer。她苦笑着说:“现在就算有人正儿八经告诉我‘不行’,我也满足了。” 其实,企业的日子也不好过。他们发布职位后,每天都会收到成百上千封简历,其中大部分根本不符合要求,于是不得不借助AI快速筛选。一项调查显示,许多公司已经使用AI来撰写职位描述、评估候选人,甚至直接用AI聊天机器人进行第一轮面试。求职者坐在电脑前,对着屏幕上的虚拟面试官回答问题,AI则根据他们的关键词、语气和表现自动打分。 招聘网站Indeed的职业趋势专家普里亚·拉托德也承认,她理解求职者们“简历投进黑洞”的感受。但她认为,这些线上平台确实帮助求职者更容易发现职位,并且AI筛选在一定程度上加快了招聘流程——当然,前提是你的简历刚好符合企业的要求。 但问题在于,许多简历从来都没有机会被人类亲自看一眼。求职者为了增加成功率,不得不海量投递简历,于是大量使用ChatGPT这种AI工具来生成和优化自己的申请材料。哈里斯坦言,他大学时就天天用ChatGPT,现在依然用,因为它写出来的东西“比自己更专业”。但反过来,这种AI写作又造成了更多相似度极高的简历,逼得企业进一步依赖AI来过滤,求职与招聘就这样陷入了恶性循环。 现在,这个微妙的平衡正在崩塌,美国经济衰退的阴影也越来越明显。一方面是大规模裁员,包括特朗普政府此前大幅裁撤联邦员工,导致黑人群体失业率飙升,24岁以下年轻人求职难度也急剧增加。“绩效导向型裁员正日益增多”,咨询公司EY-Parthenon近期对客户的分析报告这样指出,“就业市场已经出现裂痕”。 普通的求职者能做什么呢?玛蒂娜继续投简历,而哈里斯则去做起了园艺工作,利用空闲时间继续当志愿者。拉托德建议,或许回到传统的人际关系网络,比如找招聘负责人喝杯咖啡、参加线下招聘会、向熟人打听工作机会,可能比AI海投更管用一些。 当然,这一切的前提是公司真的开始招人。如果情况得不到改善,未来可能会有更多人继续在无休止地往“招聘黑洞”中投简历,越陷越深。
宝玉
2周前
转译:一篇新的名为《通用智能体包含世界模型》(General agents contain world models)的论文论文给出了严格的数学证明:智能体想要变得聪明,就必须建立一个关于其所处世界的模型——无论我们是否在程序里这样要求它。 这证明,我们长期以来梦想的那条通往通用人工智能的“无模型”之路,可能从一开始就想反了。 多年来,人工智能领域一直存在一个巨大的争论:我们是需要为 AI 智能体 明确构建“世界模型”(就像在脑海里对环境进行模拟推演),还是说,智能可以从简单的试错中自发涌现(即“无模型”方法)? “无模型” (model-free) 的想法一度非常吸引人,因为对真实世界进行建模实在是太难了。然而,这项新发现告诉我们,这份苦差事,谁也躲不掉。 核心发现:强大的智能体必然自带世界模型 General agents contain world models 这篇名论文,其核心发现是一个严谨的数学证明。 它指出:任何一个能够以有限的失败率完成复杂、多步骤任务的智能体,都必然在内部学习到了一个精确的环境预测模型。 简单来说就是:如果一个 AI 擅长做长远规划,那么它的行为本身,就已经包含了模拟其世界所需要的全部信息。 它表现得越好(犯错越少),或者它能处理的任务链条越长(目标深度越深),它内部的世界模型就必须越精确。 “隐藏款”能力:世界模型是涌现出来的 这件事最有趣的地方在于,这个世界模型是一种隐藏的能力。 它不是你必须明确写进代码里的东西,而是 AI 为了获得通用能力,在训练过程中不得不产生的副产品。为了高效地完成任务,智能体被“逼上梁山”,不得不去学习世界运转的规律。 那么,研究人员是如何证明这一点的呢?方法出奇地简单。 他们设计了一种算法,通过给智能体提出“二选一”的复杂目标来“审问”它。智能体的每一次抉择,都暴露了它对“哪条路更可能成功”的内在预测。通过这种方式,研究人员就能反向推导出它内部模型中的概率。 这对我们意味着什么? 这个发现彻底改变了我对“黑箱”AI 的看法。那种想通过“无模型捷径”直达通用人工智能 (AGI) 的想法,现在看来是行不通了。世界建模这项艰苦的工作无法避免,它只是以一种不易察觉的方式,在神经网络内部悄然发生了。 最实际的影响是什么?安全与可解释性 (interpretability)。 这篇论文从理论上保证了,我们能从任何一个足够强大的智能体中提取出这个隐藏的世界模型,而方法仅仅是观察它的行为策略。这意味着,我们可以打开一个不透明的系统,拿出它的世界“蓝图”来进行审查。 从更宏观的视角看,这项研究可能会统一整个领域。与其再争论“基于模型 vs. 无模型”路线,未来的焦点可以转移到如何构建、提取和利用这些必然存在的世界模型上。 它也为我们在大语言模型 (LLM) 中观察到的“涌现能力” (emergent capabilities) 提供了一个严谨的解释。 同时,它也引出了一系列新问题: • 今天这些基础模型内部隐含的世界模型究竟长什么样? • 它们的精确度有多高? • 我们能否利用这种提取方法来调试它们,从而在有害行为发生前就及时阻止? 探索才刚刚开始。 说到底,这篇论文为一个古老的想法提供了数学上的定论:一个智能体不仅仅是拥有一个世界模型——从某种意义上说,它本身就是一个模型。 这不再仅仅是一个架构上的选择,它看起来更像是通用智能的一条基本定律。
我终于找到了不做 NPC、只做玩家的活法: 不当任人摆布的螺丝,不演向上管理的戏,只把真实成果交到用户手里。 毕业后我进入车企做产品经理,外表看着光鲜,真实生活是: 早高峰被人潮推着挤进地铁;白天在PRD评审与流程里反复拉齐;晚上推软件版本到凌晨 1 点;周末甚至春假加班,跟车体验测试新功能;每一季度OKR复盘时还要被老板PUA和画饼。 一个功能从提出到被用户看到,可能要一年,而我常常只是巨轮流程里的小螺丝🔩。工作像极了给洞洞鞋打洞,给草莓上籽。 工作第二年,我发现曾经那个意气风发的美少女不见了,留下的只是没有灵魂的行尸走肉,我开始问自己: 我想成为谁?我每天的努力只是为了获得他人的赞赏吗?我难道要打一辈子工吗? 如果日复一日不能让我更接近想要的生活,“稳定”和“体面”未必是答案。 于是我从副业小实验开始: 1年前我第一次接触“知识个体户”这个词,发售了一个「能量管理」的课程,在朋友的社群首次宣发,就有人付费了,赚了第一桶金2000,交付完成后用户满意率达100%。让我理解了需要先把最小可用价值交到真实用户手上,再迭代,让我深知把想法实践出来就能赚钱💰。 过去我对编程敬而远之,最近半年从零开始一个人靠AI做产品出海,边做边学,第一次把“点子 → 可用的产品”这条路走通:许多在大厂里要协调很久的功能,现在我一个人 1–2 天能做出雏形;下班后独立做了 5–6 款小产品,能实现0-1独立建站、把 Demo 交给真实用户试用并收集反馈🛠️。这一次,让我意识到走出舒适区才能拥有无限可能,我们最大的敌人是自己的恐惧,可笑的是我们恐惧的东西大部分时候并不存在。 过去我做过很多别人的产品,但现在我正朝着做完完全全属于我自己的这条路前进:有自己的用户,有自己的品牌,对真实的人负责。成为这个世界真正的玩家,而不是任人摆布的NPC。
宝玉
2周前
转译:耶鲁大学新研究揭示AGI时代的残酷现实: 一半人明天不上班,GDP也不会掉一点。 当人类不再重要 有一篇耶鲁大学最新的研究论文《We Wont be Missed: Work and Growth in the Era of AGI》,描绘了一幅让人震惊的未来图景: 在通用人工智能(AGI,Artificial General Intelligence)驱动的新经济中,人类的经济角色几乎完全丧失意义。一半以上的人明天停止工作,经济规模都不会受到影响。 过去几百年来,人类通过自己的劳动,推动了世界不断进步。我们建造城市、开拓科学前沿、创造财富。工作,不仅让我们赚钱,更让我们感到自己有价值、有贡献。 但是,AGI经济时代的到来,彻底斩断了“劳动与进步”之间的联系。 未来,我们仍然会有工作,却失去了经济上的意义,不再是社会发展的主要推动力。 瓶颈型 vs 辅助型工作 论文提出了一个关键概念:“瓶颈型工作”(bottleneck work)与“辅助型工作”(accessory work)。 •瓶颈型工作:是推动经济增长和社会进步不可或缺的关键劳动。 •辅助型工作:并非真正必需,只是锦上添花。 AGI的强大之处就在于,它可以轻松地自动化所有的“瓶颈型工作”,因为这些工作直接关系到经济增长。人类之所以还能保留一部分“辅助型工作”,比如心理咨询师、手工艺人、高档餐厅服务员等,并不是因为AI无法完成,而是因为劳动力已经过剩了,花费大量计算资源去自动化这些工作根本不划算。 简单地说,我们之所以还有事可做,只是因为用AI取代我们不值得。 工资的天花板:算力成本 一旦这个过程发生,我们的工资也不再取决于个人技能或贡献,而是由“计算机复制你工作的成本”决定,并且一分钱也不会多给。 随着算力指数级地增长(比如摩尔定律所预言的),复制人类劳动的算力成本将变得极其微不足道。人类劳动占GDP的比例逐渐下降,趋向于零,而所有的财富则流向了那些掌握算力资源的人。 经济仍然蓬勃发展,可绝大多数人的地位却原地踏步。 转型过程的剧烈与平缓 论文指出,经济如何过渡到这种状态,取决于技术发展速度与算力扩张速度之间的关系: •技术领先于算力增长:经济会剧烈波动,某些行业的人短期内暴富,但很快就跌入谷底,造成不公平的剧烈冲击。 •算力领先于技术发展:工资将逐渐下降,造成平缓但持续的衰退。 无论哪种情况,我们都要面对一个新问题: 我们不应该再想着如何“拯救就业”,而应该认真考虑如何重新分配由计算资源创造的巨大财富。比如,提供全民基本收入,或者将计算资源视作公共资源进行分配,可能成为未来不可避免的方案。 最终的灵魂拷问 在一个人类劳动经济价值趋于零的时代,人们还会主动选择工作吗? 当你清楚地知道: •你的工作对经济不再重要; •你的贡献对于社会的繁荣与进步没有意义; 你还愿意继续吗?