indigo
1个月前
红杉的合伙人 Konstantine 刚公开了一段分享「万亿的AI革命:为何它比工业革命更宏大」,其中有五个他们观察到的AI领域正涌现出的明确趋势: - 工作模式从追求“确定性”转向拥抱“高杠杆”; - 价值衡量从学术基准转向真实世界; - 强化学习技术走向应用中心; - AI 开始渗透到物理世界; - 以及“算力”正成为新的生产函数。 第一和第五个趋势,我认为是“工作”定义的范式转变,值得每个人思考并付诸于行动: 我们的工作模式正在发生根本性转变。过去,我们用 100% 的精力去完成一项任务,追求 100% 确定的结果。未来,我们将用 AI 获得超过 100%(甚至 1000%)的杠杆,但需要接受结果在表现形式上的一定不确定性。 例如一位销售人员,过去需要自己手动管理所有客户,逐一跟进。而在 AI 时代,他可以为每个客户部署一个AI Agent,这些代理 7x24 小时监控客户动态、寻找机会。这极大地提升了销售的覆盖面和效率(杠杆)。但 AI 代理的跟进方式、沟通风格可能与销售本人不完全一样,甚至可能犯错(不确定性),这时就需要人来介入和修正。 这要求大家从一个工作“执行者”转变为一个“AI 管理者”和“异常处理者”;对全人工的完美的追求,需要让位于对效率和规模的追求。 红杉对他们投资组合的调查显示,预计每个知识工作者消耗的算力,最保守的估计也将增长10倍。而乐观的预测,则可能达到 1000 倍甚至 10000 倍。正如第一个趋势所说,每个知识工作者未来都可能指挥成百上千个AI Agent,这将带来算力需求的爆炸式增长。 这不仅对提供推理(Inference)服务的公司是巨大机会,也利好那些保护推理过程(安全)和利用这种新生产函数触达更多用户的公司。目前来看,Anthropic 强化 Coding 和 Agentic 能力的策略奏效了,程序员和其它自动化需求强烈的知识工作者带来了高价值的大量 API 调用消耗🤔
宝玉
1个月前
推荐阅读:《AI 会取代人类思考吗?我们为什么仍要亲手写作和编程》 作者:Simon Späti 重新学习思考,警惕对 AI 的依赖。 每天关于 AI 的(吹捧的或无聊的)文章层出不穷。用它没问题,大家也都在用,但我们仍然需要打磨自己的手艺,并努力去思考。 就像 DHH(David Heinemeier Hansson,Ruby on Rails 框架创始人)所说: 精通某项技能比一直等着 AI 完成任务要有趣得多。 在我看来,AI 让我们不快乐的概率非常高。用,当然可以,但不能事事都用。我们可以用它来探索新知、梳理历史脉络,或者制作图表(比如用 Canva、Figma),但绝对不能用它来写作(或编程)。世界总需要有人贡献新的知识和见解,而 AI 无法自我训练。因此,文章、书籍和文字仍将被创作,当人人都依赖 AI,导致其发展停滞时,作家的价值反而会更加凸显。 从长远来看,这是一种损失——人们将停止思考和学习。时间会证明一切。我的浅见是,如果你在某个领域已是资深专家,你会比 AI 更懂。 Bsky 何时使用 AI 的指南 我从 ThePrimeagen 的一个视频中听到一个观点:这取决于你决策的影响有多长远。短期内,用 AI 自动补全代码没问题,但让它做架构设计这样重大的决策,绝对不行。 Image 这张图的横轴是时间,纵轴是错误数量。它表明,我们让 AI 参与的决策越是影响深远(比如系统架构),它产生的错误就可能越多。 如果我们用它来快速补全代码,或者写一个定义清晰的算法函数,那么出错的概率就小。在初始阶段,你可能会提升 20% 的效率;但到了后期,你失去的会更多。 这就像现实生活中,我等待决策的时间越长,掌握的信息就越多,做出的决定就越好。这正是 Shape Up 工作法所倡导的,决策周期最长为 6 周,不制定更长远的路线图和积压任务。使用 AI 也是同理,因为它的所有输出都是基于概率预测的。 Forrest Brazeal 的另一张图也很有启发性: Image 同时,也要牢记什么对你的应用场景最重要,正如 Thomas Ptacek 在《我的那些 AI 怀疑论朋友都疯了》一文中所展示的: Image 毫无灵魂 没人想读毫无灵魂的文字,即使它写得还不错,你又能从中得到什么呢?我认为这是一个巨大的陷阱,人们只有在时间流逝后才会意识到。当然,AI 能提供帮助,每个人在“某些”任务上都需要它们,但不应是写作本身。 归根结底,大语言模型 (LLM) 和 AI 需要引导,它们只是概率的产物。另见 亲手写作。 分心 我认为我们将比以往任何时候都更容易分心。我们甚至没有两秒钟的思考时间,Grammarly、Copilot 或 Cursor 就会跳出建议。于是,我们不再独立思考,只是随波逐流,渐渐失去了主导权。 这让我想起最近写的一篇文章《寻找心流》。更多关于“不要事事依赖 AI,否则你会停止思考和学习”的讨论,请见 AI 的使用 和 写作之难。 别误会 别误会,我自己也每天都用 AI,但用得更审慎。我关掉了 Grammarly 和 Copilot(很久以前就关了),这样我才有空间去思考和学习。偶尔用一两次没问题,但如果处处都用,你不仅会失去学习新技能的机会,也会失去其中的乐趣。 关于“人机协作智能”(LLM Collaborative Intelligence, LCI)的讨论很有趣。当然,它会带来很多好处,但我不确定这些 AI 产生的“洞见”能否与人类历经艰辛后感受、感知或体验到的洞见相提并论。所以,是的,我对此没有太多期望,也不希望它来创造新的见解。因为那是我工作中真正有趣的部分 :) 锻炼一项技能 事情永远不是“全有”或“全无”,而是在于度的把握。学习的问题在于,如果你频繁使用 AI,我认为你其实学不到太多东西。写作时只是复制粘贴,编程时只是不停地按 Tab 键。学习的过程消失了。如果这种情况持续下去,我们的大脑就不再习惯于学习,更严重的是,不再习惯于思考。就像记忆一样,我们现在还能记住几个手机号码?很少了。但在早期用电话的时代,我能记住很多,因为我每天都在训练这个能力。 这完全是一个熟能生巧的问题。我为自己总结出——虽然不一定适用于每个人——我发现自己不再学习或思考了。坦白说,也失去了乐趣。这主要是在我熟悉的领域。 在其他领域,比如创作一张图片(就像我为这篇文章做的那张 😆),或者用 HTML/CSS 更新我网站的首页,这些事因为不常做,AI 帮我省了很多时间。但我得说,除了学会了如何给 Claude Code 写提示词,我并没学到任何新东西。这始终是一种权衡,不是吗?:)
Michael Anti
1个月前
在这个Vibe Coding开始取代人类各种文案工作的黎明,有必要回顾下2000年Ted Chiang的一篇科幻小说,小说写的是未来的一本人类科学杂志对人类科学研究的悼词。 人类科学的演进 from 科幻小说集《你一生的故事》 距离我们编辑部门最后一次收到原创研究论文并予以发表,已过去二十五年。此刻重提当年引发广泛讨论的问题恰逢其时:当科学探索的前沿已超越人类理解范畴时,人类科学家的角色究竟是什么? 我们的许多订户定然还记得曾读过这样的论文——作者是史上首个获得所述研究成果的个体。但随着超人类开始主导实验研究,他们日益倾向于仅通过DNT(数字神经传输)发布发现,留给学术期刊的只是转译为人类语言的二手论述。 没有DNT,人类既无法完全理解先前的科研成果,也难以有效运用开展研究所需的新工具,而超人类则持续改进DNT并对其产生更深依赖。面向人类的学术期刊沦为了科普载体——且是拙劣的载体,因为即便最杰出的人类学者面对最新研究成果的译文时也感到困惑不解。无人否认超人类科学带来的诸多益处,但人类研究者付出的代价之一是意识到自己可能再无法为科学做出原创性贡献。有些人彻底离开了科研领域,而留下的人则将注意力从原创研究转向诠释学——致力于解读超人类的科学成果。 文本诠释学最先兴起,因为现存已有数TB计的超人类出版物,其译文虽晦涩难懂,但推测并非完全失准。破译这些文本与传统古文字学家的工作截然不同,但研究持续取得进展:近期实验验证了汉弗里斯对十多年前组织相容性遗传学著作的破译成果。 基于超人类科学所造设备的普及催生了器物阐释学。科学家开始尝试对这些器物进行"逆向工程",其目的并非制造竞争产品,而仅仅是理解其运作背后的物理原理。最常用的技术是对纳米器件的晶体学分析,这种方法常为机械合成领域带来新见解。 最新且最具推测性的研究方式是对超人类研究设施的遥感探测。近期调查目标是刚安装在戈壁沙漠下方的艾萨对撞机,其令人费解的中微子特征已引发诸多争议。(便携式中微子探测器当然也是超人类造物,其运作原理至今成谜。) 问题在于:这些研究是否值得科学家投入?有人认为这是浪费时间,将其比作当欧洲制造的钢制工具唾手可得时,美洲原住民却去研究青铜冶炼。如果人类与超人类存在竞争关系,这个比喻或许更贴切,但在当今丰裕经济中,并无证据表明存在此类竞争。 事实上,我们必须认识到——与历史上多数遭遇高技术文明的低技术文明不同——人类并不会面临被同化或灭绝的危险。目前仍无法将普通人脑升级为超人类脑部;杉本基因疗法必须在胚胎开始神经发生前实施,才能使大脑与数字神经接口(DNT)兼容。这种同化机制的缺失意味着:生育超人类子女的普通父母面临艰难抉择——要么允许孩子通过DNT接入超人类文化,眼睁睁看着子女成长为无法理解的存在;要么在子女成长阶段限制其接触DNT,这对超人类而言无异于遭受卡斯帕·豪瑟式的剥夺。近年来选择为子女实施杉本基因疗法的人类父母比例已骤降至近乎为零,也就不足为奇了。 因此,人类文明很可能长久存续,而科学传统正是该文明的核心组成部分。阐释学作为科学研究的合法方法,与原创性研究一样不断拓展着人类知识的疆界。此外,人类研究者可能发现超人类忽略的应用领域——后者的优势往往使其忽视我们的关切。例如设想某种新型智力增强疗法:它能让个体逐步将心智"升级"至超人类水平。这种疗法将架起跨越人类史上最巨大文化鸿沟的桥梁,但超人类或许根本不会探索这个方向;仅此一点就足以证明延续人类研究的价值。 我们无需为超人类科学的成就感到畏惧。永远要记得:造就超人类的技术最初是由人类发明的,而当时的他们并不比我们更聪明。
ginobefun
1个月前
#BestBlogs 那天,AI 大模型想起了,被「失忆」所束缚的枷锁 | 机器之心 | 机器之心 文章全面综述了 LLM 记忆能力的发展现状、类型、实现机制及未来挑战,从短期记忆到长期记忆,以及多模态和参数化记忆的最新进展。 摘要: 文章深入探讨了大型语言模型记忆能力的关键发展,指出 LLM 正从短期上下文记忆迈向跨会话的长期记忆。文章首先介绍了 Google Gemini、Anthropic Claude、OpenAI ChatGPT 和 xAI Grok 等主流大模型在记忆功能上的最新进展,强调了记忆在提升 AI 交互自然度和连贯性方面的核心作用。接着,文章详细阐述了 LLM 记忆的几种主要类型:受限于上下文窗口的“上下文内记忆”(短期记忆)、基于外部数据库和 RAG 技术的“外部记忆”(长期记忆)、将信息编码进模型参数的“参数化记忆”,以及受人类认知启发的“分层式记忆”和“情境记忆”。 文章还列举了 MemGPT、MemOS、MIRIX、G-Memory、M3-Agent、记忆层和 BTX 等具体实现记忆功能的项目和研究,涵盖了从内存管理到多模态记忆和原生模型记忆的多种创新方案。最后,文章分析了当前记忆系统面临的挑战,如遗忘机制、效率与成本平衡,并展望了多模态原生、终身自主演化和智能体间共享协作等未来趋势,指出记忆是通往通用人工智能的关键一步。 主要内容: 1. 大模型记忆能力正从短期迈向长期和跨会话。 -- 早期 LLM 记忆受限于上下文窗口,而最新进展使模型能跨多轮对话记住用户偏好和历史信息,提升交互连贯性。 2. LLM 记忆分为多种类型,外部记忆是当前主流的长期记忆方案。 -- 包括上下文内记忆(短期)、外部记忆(RAG)、参数化记忆,以及类人的分层/情境记忆,其中外部记忆通过向量数据库实现海量信息存储和检索。 3. 记忆不再是简单存储,而是涉及存储、检索、提炼和遗忘的复杂机制。 -- MemGPT、MemOS 等系统将记忆视为系统资源进行管理,MIRIX 等项目则对记忆进行多层细化和智能处理,提升记忆的效率和准确性。 4. 多模态记忆和将记忆原生融入模型是未来重要趋势。 -- 随着多模态 AI 发展,记忆需处理图像、视频等信息;Meta 的记忆层和 RockAI 的 Yan 2.0 Preview 尝试将记忆直接编码进模型参数,实现更深层次的内化。 5. 构建智能记忆系统面临挑战,是实现 AGI 的关键。 -- 挑战包括遗忘机制、效率成本平衡,未来需发展综合记忆架构、智能体间共享记忆,并实现记忆的自动演化,最终通向通用人工智能。 文章链接: