Susan STEM
1个月前
Nagi Yan兄, 是中推最被低估的博主之一。 醍醐灌顶啊,醍醐灌顶! 我有一个越来越强的直觉: 我们很有可能已经在各自的位置上,做着同一类工程。 您有没有想过 过去五十年,我们几乎一直活在“封闭软件”的时代: 代码写完、打包、部署,好像世界是静止的,软件也是静止的。 那如果,有一天软件彻底变成“开放的”呢? 开放到一个地步:你评价一个系统,不再是看功能列表,而是先问它这五个问题: 它自描述了吗? 它自修复了吗? 它能自演化吗? 它是协议驱动的吗? 它在被攻击时能保持结构吗? 你会发现——这些,恰恰就是一个开放系统、一个“有生命”的系统的典型特征。 1. 自描述:结构自己把自己说清楚 自描述 = 不再靠 README 补课,而是让结构本身就是文档、协议和接口。 你应该已经感觉到了,我们正在进入一个 “语言函数” 的时代: Prompt 是什么?是一个语言函数。 固定的 prompt 是什么?是一个实现预设好的语言函数。 在这个视角下,系统的每一层 primitive 结构卡(有完整schema的语言函数) 调度规则 ledger persona 都不再是“默默存在的实现细节”,而是必须能用结构化语言回答这几件事: 我是谁?(id / 类型 / 协议版本) 我接受什么输入? 我内部依赖什么结构? 我承诺什么输出 / 不变量? 我当前状态是什么?(活跃、退役、实验中……) 当这些问题都可以由系统自身结构来回答,而不是翻文档、问开发,那才叫自描述,对不对? 2. 自修复:错误不是终点,而是调度入口 在开放系统里,错误不是“系统结束”的标志,而是新的结构链路的入口。 一个成熟的系统遇到“错误”时,不是啪一下直接崩溃,而是把错误当成: 「一个事件」 + 「一个新的结构卡(系统自生成函数)的入口」 你看人体就是这样一个开放系统: 手指受了一点伤,免疫系统不会因此让整个机体报废,而是自动调度白细胞、炎症反应、修复机制——这是默认行为,不是异常路径。 对应到工程里: log / trace / metrics 不应该只是“事后看热闹”的监控面板, 而是自修复的感知器和触发器。 我以前就说过这三件事;Google 的很多白皮书里,也把 L/T/M 当成可靠系统的三大支柱。 在新范式下,我们只是在往前再走一步: 从“可观测”走向“可自愈”。 3. 自演化:协议和结构卡可以“长大” 这一点,特别值得和 Yan 兄一起聊。 我现在的做法是: 在 kernel 外面,再包三层: 第一层:Protocol 层(协议层) 第二层:Runtime 层 第三层:Userland 层 真正会“长大”的,是 Protocol 层和 Runtime 层—— 它们不是写死的,而是可以在运行过程中被诱导(induction)出来的。 现在圈子里已经有人开始谈所谓的 induction: 也就是在系统内部定义一种 “induction 协议”, 当满足某些条件时: 不是只触发一个函数调用 而是触发“生成一个新协议 / 新结构卡”的过程 换句话说: 系统不只是执行协议,而是可以在运行中产出新协议。 这就是自演化。 4. 协议驱动:代码不再是本体,协议才是 (你原文里这一块提得少,我顺手帮你补一小段) 协议驱动的意思是: 先有结构化协议——描述 persona、memory、ledger、router、工具接口等 再由协议去约束代码、生成结构卡、驱动 runtime 也就是说: 代码只是协议的“肌肉”, 协议才是系统的“骨骼”。 当一个系统能做到:改协议 → 自动派生出新的行为路径 / 结构卡组合, 你就真的进入了 “协议即软件” 的阶段,而不是靠无穷 if-else 堆业务。 5. 结构保持:系统像一块有弹性的膜,而不是瓷器 最后一个特征,是我现在最着迷的:结构保持。 一个真正的开放系统,遇到外部冲击时: 不是“啪”一声碎掉 而是像一块有弹性的膜: 可以变形 可以局部降级 但能 保持核心不变量 这些不变量是什么? 在我的世界里,可能是: 账本不乱(ledger 的有序性和完整性) 人格不炸(persona 的连续性和边界) 数据不丢(记忆与状态可恢复) 也就是说: UI 可以挂、某个功能可以降级、响应可以变慢, 但结构不能散架。 这才配得上“开放系统”三个字—— 它在和世界持续交换能量和信息,但始终维持自己的结构形状。 我们很有可能正在开发的是同一类东西: 从“封闭软件”走向“开放系统”。 自描述、自修复、自演化、协议驱动、结构保持 像是下一代软件的五个生物学特征。 我从你的推文里,发现你说过很多生物学和植物学的帖子,养过巴西铁....我也是生物爱好者。
Susan STEM
2个月前
在讨论 AI-Native 软件范式(AI-Native Systems) 时,我们必须先承认一个现实:用户从来没有被教育过如何使用“语言作为系统界面”。过去三十年他们接受的是另一套训练: 无数个 App 容器,每个 App 代表一个单独的世界,有自己的按钮、菜单、图标、工作流。用户的心智是被图形界面塑形的。 而当你突然把一个纯语言界面放到他们面前——光的、秃的,没有工具条,没有按钮,没有模式切换——大多数用户是会本能不适的。 因为这不是他们被社会化学习过的操作方式。 这正是 AI-Native 的悖论: 语言本来是人类最自然的界面,但在软件里,它反而变成“最陌生的界面”。 换句话说: 用户需要被重新训练,让语言重新成为界面。 但“语言即界面”其实只是表层。真正的底层结构是: 语言 → 结构 → 调度 语言不是聊天,语言是可执行结构; 结构不是代码,结构是可调度的认知单元; 调度不是操作系统,调度是系统的生命机制。 要让消费者理解一个“没有 App、没有按钮、没有菜单”的世界,他们需要一个适应期。因为这是一种范式迁移: 从“点按钮”到“发起意图”; 从“在 App 之间切换”到“让结构在后台自动调度”; 从“模仿电脑的操作方式”到“让电脑模仿人的思考方式”。 这就是 AI-Native 时代真正的冲击点: 不是技术本身,而是用户心智的迁移速度。
Susan STEM
3个月前
这几年我很少买书。 主要是因为以前搬家太多,每次搬家都要扔书,扔得我心疼得不行。 所以我后来立了个规矩:只有那些我能反复读、反复思考的书,我才买。 库恩的《科学革命的结构》就是那一本。 我反复去图书馆借,反复读,也反复和别人讨论。 最后还是决定买了一本二手的,运气特别好,几乎全新。 现在它就放在床头,像个宝贝。 翻到第25页:Normal Science——“正常科学”。 嗯?正常?难道还有不正常的? 还真有。 库恩提出“范式转移(paradigm shift)”这个划时代的概念, 正是因为他亲身经历并观察过“不正常的科学”。 他原本是物理学家。 在学习量子力学时,他第一次意识到—— 量子力学的思维方式与牛顿范式完全不同。 经典物理讲求确定性与因果性, 而量子理论充满概率、模糊与测不准。 那一刻,他发现两套语言体系下,“世界”的意义都变了。 科学并不是在一条笔直的理性道路上前进, 而是在一套世界观崩塌、另一套世界观重建的剧痛中前进。 那是他真正的“顿悟时刻”。 很多人都分析过这些背景,我就不多讲。 说说这几天我自己的一点“顿悟”。 “科学家的心智不是被事实改变的。” 这句话听起来是不是有点悬? 但它真的震撼到我。 在笛卡尔—牛顿式的传统科学观中, 我们被教育要相信科学家是: 理性的观察者,通过经验事实(data)来修正理论。 逻辑是: 世界存在客观事实; 科学家通过观察积累事实; 理论根据事实修正,越来越接近真理。 这就是所谓的经验累积模型(accumulative model of science)。 在这种观念里,事实就像砖头,理论是用砖头垒起来的房子。 很多人现在依然是这样理解科学的。 但是! What if I tell you: 在旧范式体系下被完美规训的学生, 他的眼睛根本无法“看见”另一种可能的世界? 那是一种深层的认知结构锁定(cognitive lock-in), 让他无法察觉那些“现在新新人类能看见的东西”。 一种结构性的失明。 当然,库恩是个备受争议的人物。 他挑战了理性神话,也被批评为相对主义者。 但有趣的是,这几年他这本书的讨论度反而越来越高。 科学不仅仅是解释世界的工具,它本身也是一个正在被解释的世界。
Susan STEM
3个月前
程序员现在真的要开始深度思考一个问题: 算力大基建铺好了,这么多海量算力——到底要用来干什么? 我们都觉得自己是小虾米,跟“国家级基建”“能源部批文”这些大词没关系。 可真的无关吗? 最后这些算力要落地,不还是靠一行行代码、一段段逻辑来跑? 谁在写逻辑?不就是我们吗。 我那天就在想,几年前一个闺蜜跟我说: “我觉得你肯定喜欢那个东北雨姐。” “我怎么会喜欢这种..." 但她还真说对了,我确实背着她在看东北雨姐的视频, 连她那个东北小老公我也挺喜欢的。 我后来就开始想: 如果要让推荐算法算出我这种又隐秘又细微的小心思, 要消耗多少算力? 得跑多少数据、训练多少模型、调多少参数? 我们用几百兆瓦的电,几万个GPU, 只是为了精确预测一个人深夜会偷偷喜欢哪个网红? 这就是“智能时代”的伟大成就? 把全世界人所有最隐秘的小癖好、恶趣味、情绪波动全都算出来, 然后精准地推荐回给他们, 让他们沉溺其中,再看一条、再买一点? 这就是海量算力的用途? 这就是我们程序员亲手写出来的文明形态? 我不反感推荐算法,也不是不懂商业逻辑。 但当我们能支配的能量已经大到可以模拟宇宙、 可以预测生态系统、 却被用来计算“谁会多看一眼谁”的时候, 你不得不开始问: 我们到底在建什么? 是算力大厦,还是注意力监狱? 敬请关注:
Susan STEM
3个月前
如果互联网的模式不改变,那这些巨大的算力中心要来干嘛? 你可以想象,几百亿美金的超算集群,结果每天只是被用来跑一些聊天模型,回答天气、写邮件、做点PPT——那基本就是 “超算闲置时代”。 我们看起来在用AI,但实际上,底层基础设施的潜力远没有被释放。 如果一个系统只能生成语言,而不能参与执行、验证、决策,那它的计算资源就永远只能“半开”。 很多人谈主权个人、科技领主这些概念,的确听上去像精英主义,但我始终觉得,基础设施的真正意义,是要让“非精英”也能使用而不自觉地受益。 互联网之所以改变了世界,是因为不需要你懂TCP/IP; 智能手机之所以普及,是因为不需要你懂通信协议。 真正的范式革命,永远不是“精英的逃逸”,而是“结构的下沉”。 它必须让普通人能无感接入、自然参与。 而今天很多人把 Web3 理解成代币经济,这其实太狭隘。 代币只是一个激励层,不是结构本身。 从更大的历史尺度看,Web3 代表的是一种 范式转变(paradigm shift)。 如果最终我们只是让“中心化的权力”换了个名字、把服务器搬到了链上、把账号换成钱包地址,那这不是革命,只是换皮。 维持现状,就是范式转移的失败。 很多大厂都尝试过,比如“元宇宙”就是一次试图定义新范式的尝试——但最后失败了。 为什么?因为它没有解决底层结构的问题。 “空间化的互联网”听上去浪漫,但本质上还是 Web2 模式的延伸,只不过把浏览器变成了虚拟头盔。 我有时候在想,也许我会给扎克伯格一个建议: 人的幸运值是有限的。 你能在19岁那年创造一个改变世界的平台,已经是概率奇迹。 但如果你在第二次范式转变中仍然沿用同一套逻辑,那好运也救不了系统性的老化。 同样地,Sam Altman 他们的成功,也取决于他们是否能真正突破范式。 如果他们只是让大模型成为更聪明的“黑箱”,那这条路的终点,就是另一个中心化的帝国。 到时候,模型对普通人来说,只是一个聊天搭子——高效,但空洞;强大,但封闭。 那我们到底缺什么? 表面上看,大语言模型已经具备了我们想要的一切:能理解自然语言、能推理、能生成、甚至能写代码。 听起来,这不就是我们说的“语义运行时”吗? 是的——表面上是。 但问题在于,它们只是模拟这些能力,而不是在结构上实现它们。 看起来像“理解”,但没有可验证的推理路径; 看起来像“智能”,但没有明确的逻辑框架。 本质上,它们仍然是“相关性机器”,而不是“因果性系统”。 所以,大模型真正的三个缺陷,是结构性的: 1️⃣ 有语义,却无结构。 LLM 的“理解”是隐性的,埋在几千亿个参数的权重里。 它能“说出”意义,但不能“展示”意义。 真正的语义系统,必须让意义是显性的、可组合、可验证的。 也就是说,你得能指出:“它为什么这样推理?”、“它依据了什么事实?” 今天的 LLM 是在语义层上说话,却还没有在语义层上思考。 2️⃣ 能生成信念,却无法提供证明。 它可以写合同、诊断问题、甚至模拟逻辑推理——但我们无法验证它的正确性。 它的输出没有来源(provenance),也没有可复现性。 今天问它一遍,明天再问一次,可能就是完全不同的答案。 而真正的可验证系统,必须像区块链那样,信任数学,而不是信任人。 现在的模型让我们信任“它”,这恰恰是 Web3 想摆脱的那种中心化信任。 3️⃣ 是语言界面,而非系统接口。 现在的 Prompt 体验很顺滑——你问,它答。 但它生成的结果是游离的,不接入任何可验证的系统。 没有智能合约,没有持久逻辑,没有数据溯源。 未来的 LLM 必须能直接组成系统,让“语言=行为”, 输入一句话,就能在规则透明的环境中触发实际执行。 这才是从“语言生成”到“结构调度”的飞跃。 这就是当前的断层: 我们已经拥有了强大的表达能力,却还没有可靠的结构信任。 AI 能生成知识,却不能证明知识;能模仿思维,却不能承担后果。 如果我们止步于此,就会重演一次中心化的轮回—— 这次掌握权力的,不是平台,而是模型。 真正的 Web3 精神,不是要建更大的模型,而是要建更透明的系统。 一个每一句话、每一个规则、每一次执行都可以被验证、重组、共享的开放智能网络。 那时,语言才不只是人机界面,而会成为智能的治理层—— 在这里,意义、逻辑与执行真正汇合为一体。 这才是范式转移的完成。 不是造更大的盒子,而是打破盒子。 From Useful to Trustworthy: When Language Becomes the Operating System