Michael Anti
3个月前
在这个Vibe Coding开始取代人类各种文案工作的黎明,有必要回顾下2000年Ted Chiang的一篇科幻小说,小说写的是未来的一本人类科学杂志对人类科学研究的悼词。 人类科学的演进 from 科幻小说集《你一生的故事》 距离我们编辑部门最后一次收到原创研究论文并予以发表,已过去二十五年。此刻重提当年引发广泛讨论的问题恰逢其时:当科学探索的前沿已超越人类理解范畴时,人类科学家的角色究竟是什么? 我们的许多订户定然还记得曾读过这样的论文——作者是史上首个获得所述研究成果的个体。但随着超人类开始主导实验研究,他们日益倾向于仅通过DNT(数字神经传输)发布发现,留给学术期刊的只是转译为人类语言的二手论述。 没有DNT,人类既无法完全理解先前的科研成果,也难以有效运用开展研究所需的新工具,而超人类则持续改进DNT并对其产生更深依赖。面向人类的学术期刊沦为了科普载体——且是拙劣的载体,因为即便最杰出的人类学者面对最新研究成果的译文时也感到困惑不解。无人否认超人类科学带来的诸多益处,但人类研究者付出的代价之一是意识到自己可能再无法为科学做出原创性贡献。有些人彻底离开了科研领域,而留下的人则将注意力从原创研究转向诠释学——致力于解读超人类的科学成果。 文本诠释学最先兴起,因为现存已有数TB计的超人类出版物,其译文虽晦涩难懂,但推测并非完全失准。破译这些文本与传统古文字学家的工作截然不同,但研究持续取得进展:近期实验验证了汉弗里斯对十多年前组织相容性遗传学著作的破译成果。 基于超人类科学所造设备的普及催生了器物阐释学。科学家开始尝试对这些器物进行"逆向工程",其目的并非制造竞争产品,而仅仅是理解其运作背后的物理原理。最常用的技术是对纳米器件的晶体学分析,这种方法常为机械合成领域带来新见解。 最新且最具推测性的研究方式是对超人类研究设施的遥感探测。近期调查目标是刚安装在戈壁沙漠下方的艾萨对撞机,其令人费解的中微子特征已引发诸多争议。(便携式中微子探测器当然也是超人类造物,其运作原理至今成谜。) 问题在于:这些研究是否值得科学家投入?有人认为这是浪费时间,将其比作当欧洲制造的钢制工具唾手可得时,美洲原住民却去研究青铜冶炼。如果人类与超人类存在竞争关系,这个比喻或许更贴切,但在当今丰裕经济中,并无证据表明存在此类竞争。 事实上,我们必须认识到——与历史上多数遭遇高技术文明的低技术文明不同——人类并不会面临被同化或灭绝的危险。目前仍无法将普通人脑升级为超人类脑部;杉本基因疗法必须在胚胎开始神经发生前实施,才能使大脑与数字神经接口(DNT)兼容。这种同化机制的缺失意味着:生育超人类子女的普通父母面临艰难抉择——要么允许孩子通过DNT接入超人类文化,眼睁睁看着子女成长为无法理解的存在;要么在子女成长阶段限制其接触DNT,这对超人类而言无异于遭受卡斯帕·豪瑟式的剥夺。近年来选择为子女实施杉本基因疗法的人类父母比例已骤降至近乎为零,也就不足为奇了。 因此,人类文明很可能长久存续,而科学传统正是该文明的核心组成部分。阐释学作为科学研究的合法方法,与原创性研究一样不断拓展着人类知识的疆界。此外,人类研究者可能发现超人类忽略的应用领域——后者的优势往往使其忽视我们的关切。例如设想某种新型智力增强疗法:它能让个体逐步将心智"升级"至超人类水平。这种疗法将架起跨越人类史上最巨大文化鸿沟的桥梁,但超人类或许根本不会探索这个方向;仅此一点就足以证明延续人类研究的价值。 我们无需为超人类科学的成就感到畏惧。永远要记得:造就超人类的技术最初是由人类发明的,而当时的他们并不比我们更聪明。
ginobefun
3个月前
#BestBlogs 那天,AI 大模型想起了,被「失忆」所束缚的枷锁 | 机器之心 | 机器之心 文章全面综述了 LLM 记忆能力的发展现状、类型、实现机制及未来挑战,从短期记忆到长期记忆,以及多模态和参数化记忆的最新进展。 摘要: 文章深入探讨了大型语言模型记忆能力的关键发展,指出 LLM 正从短期上下文记忆迈向跨会话的长期记忆。文章首先介绍了 Google Gemini、Anthropic Claude、OpenAI ChatGPT 和 xAI Grok 等主流大模型在记忆功能上的最新进展,强调了记忆在提升 AI 交互自然度和连贯性方面的核心作用。接着,文章详细阐述了 LLM 记忆的几种主要类型:受限于上下文窗口的“上下文内记忆”(短期记忆)、基于外部数据库和 RAG 技术的“外部记忆”(长期记忆)、将信息编码进模型参数的“参数化记忆”,以及受人类认知启发的“分层式记忆”和“情境记忆”。 文章还列举了 MemGPT、MemOS、MIRIX、G-Memory、M3-Agent、记忆层和 BTX 等具体实现记忆功能的项目和研究,涵盖了从内存管理到多模态记忆和原生模型记忆的多种创新方案。最后,文章分析了当前记忆系统面临的挑战,如遗忘机制、效率与成本平衡,并展望了多模态原生、终身自主演化和智能体间共享协作等未来趋势,指出记忆是通往通用人工智能的关键一步。 主要内容: 1. 大模型记忆能力正从短期迈向长期和跨会话。 -- 早期 LLM 记忆受限于上下文窗口,而最新进展使模型能跨多轮对话记住用户偏好和历史信息,提升交互连贯性。 2. LLM 记忆分为多种类型,外部记忆是当前主流的长期记忆方案。 -- 包括上下文内记忆(短期)、外部记忆(RAG)、参数化记忆,以及类人的分层/情境记忆,其中外部记忆通过向量数据库实现海量信息存储和检索。 3. 记忆不再是简单存储,而是涉及存储、检索、提炼和遗忘的复杂机制。 -- MemGPT、MemOS 等系统将记忆视为系统资源进行管理,MIRIX 等项目则对记忆进行多层细化和智能处理,提升记忆的效率和准确性。 4. 多模态记忆和将记忆原生融入模型是未来重要趋势。 -- 随着多模态 AI 发展,记忆需处理图像、视频等信息;Meta 的记忆层和 RockAI 的 Yan 2.0 Preview 尝试将记忆直接编码进模型参数,实现更深层次的内化。 5. 构建智能记忆系统面临挑战,是实现 AGI 的关键。 -- 挑战包括遗忘机制、效率成本平衡,未来需发展综合记忆架构、智能体间共享记忆,并实现记忆的自动演化,最终通向通用人工智能。 文章链接: