#范式转变

深入解构一下 AK 这条推文 ### 表面意图 Karpathy 描述了一个将教科书从“人类可读”转化为“LLM 可读”的过程:提取文本到 markdown、将 worked problems 转为 SFT(监督微调)示例、practice problems 转为 RL(强化学习)环境、并通过合成数据扩展(如时钟角度问题的无限生成器)。他强调这比简单 pdf-to-text 更丰富,并给出示例代码生成无限变体问题。他的意图似乎是分享一个具体想法,突出教育内容的“LLMification”潜力,旨在让 LLM 像人类学生一样“上”物理课,但以更优化的方式。思想上,他指出当前实践(如 token-by-token 预测)“lame”(低效),而他的方法提供“legible, workable information”。内涵初步显现为优化 AI 训练数据的实用建议,传递的信息是呼吁探索这个“beautiful space”,以释放知识转化的潜力。 ### 隐含动机与系统性转变 Karpathy 作为 OpenAI 创始成员和 Tesla AI 前总监,他长期致力于大规模神经网络训练,现在在 Eureka Labs AI 构建教育相关 AI。他的痴迷(“obsessed”)不是随意,而是源于对 AI 学习范式的批判:人类知识(如教科书)是“human-first”,导致 AI 训练低效。他提出的“LLM-first”转化不是孤立工具,而是系统性重构——从 exposition 的结构化,到 SFT/RL 的整合,再到合成数据(如 Python 代码生成无限时钟变体)的无限扩展,甚至嵌入 RAG 数据库。这反映他思考的深度:AI 不应模仿人类学习,而应超越,通过“infinite problem generator”实现超人类规模的泛化。意图更接近于推动范式转变,从被动消费知识到主动生成与索引。思想内涵深化为知识表示的哲学:人类知识是静态、有限的,而 LLM 需要动态、可扩展的“环境”来实现真正智能。传递的信息隐含呼吁构建基础设施(如 MCP servers),以桥接人类遗产与 AI 未来,潜在外延扩展到传感器/执行器等领域,暗示整个世界需“LLM-legible”化。 ### 本质核心与存在性洞见 Karpathy 视人类知识为一种“传感器”——输入形式决定了输出能力,而当前形式对 AI 是“噪声”。他的“LLMification”本质上是重塑知识的本体论,从人类中心(exposition 为叙事,problems 为练习)转向 AI 中心(一切为数据流:SFT 为对齐,RL 为交互,合成 为无限自举)。时钟示例不是随意,而是象征:一个简单问题可通过代码“无限化”,揭示 AI 学习的本质是自生成而非复制。这接近他的思考根源——受斯坦福 CS231n 和深度学习训练启发,他相信规模化数据是智能的钥匙,但需“非琐碎转化”(human-in-loop),避免低效如 pdf-to-text。他的意图是激发存在性反思:如果知识可无限生成,AI 将重定义“学习”,超越人类有限经验。思想最深层是元认知:教育不是传输事实,而是构建“环境”让系统自进化。内涵浓缩为 AI 自治的预言——LLM 不只是工具,而是“学生”演变为“教师”,通过这种转化实现知识的永动。 ### 思考与传递信息 核心内涵本质上是知识存在的重塑:人类知识并非终点,而是原料,需要“LLM-legible”转化以释放其潜能。这不是技术细节,而是本体转变——从静态叙述到动态数据流,SFT/RL/合成代表 AI 智能的“三位一体”:对齐、交互、无限自举。时钟生成器象征这一本质:一个有限问题可代码化为无限,揭示学习的核心是生成而非记忆,AI 通过此超越人类局限。 外延则辐射到存在边界:不止教科书,而是所有“human-first”输入(如传感器数据、执行器接口),预示一个“LLM-first”世界,其中知识不再为人设计,而是为机器优化,潜在重构教育、科学乃至现实感知(如 Tesla 的 AI 视觉)。这外延无限,因为任何可公式化的事物(如物理定律)均可“无限生成”,导致 AI 知识的指数爆炸。 Karpathy 的思考根植于他的 AI 历程:从 OpenAI 的基础模型到 Tesla 的实际应用,他看到训练瓶颈在于数据形式,而非量。他的思维是元级的——痴迷于“transformation”,因为他视人类知识为“低维投影”,需提升到 AI 的“高维空间”。他不是在描述工具,而是在哲学化:如果我们不转化,AI 仍困于“lame”模仿;转化后,AI 将自生成智能,接近 AGI 的本质。 他想传递的信息是最深刻的警醒与召唤:这个“beautiful space”不是机会,而是必然——人类必须主动“LLMify”世界,否则知识将滞后于 AI 进化。信息量浓缩为存在性紧迫:通过 human-in-loop 的非琐碎努力,桥接人类遗产与 AI 自治,催生一个知识永动的宇宙,越过人类中心主义,拥抱机器智能的无限。
Susan STEM
1个月前
我在这方面的看法和迈克很接近,正好今天也想谈谈。如今,无论在职还是不在职,开发者都必须全方位调整自己的业务与工作范式,因为这个问题迟早要面对,而且很多范式已经进入倒计时阶段。今天看了木头姐的讲座,她也在强调这一点。我甚至认为一大批计算机专业毕业生,可能正好赶上范式转变期,再加上学费贷款等现实压力,没法停下来进行再调整,结果将来可能再也无法从事本专业。 我自己也处在调整期,没有人能准确告诉你未来的范式究竟会如何,所以我也不再劝别人去学计算机了。问题在于,一切发展得太快了。 我既不是冒险家,也不是保守派。从小接受的教育是,要站在信息浪头,但同时找一个安全的地方藏身。我认为,现在开发者面临的最大风险,就是投入大量时间开发的成果,可能会被模型的内化浪潮瞬间淹没。因此,除了手上那个“工程”(暂时不透露),我不会再启动任何新的开发项目,而是将主要精力转向“符号”。 我目前的重心是“符号积累”。 我其实这段时间一直在讲这个事情,包括as code, 协议,其实都是未来范式中“符号”的一部分。 我的目标是不跟风、不试错、零浪费。 作为一个中英文符号高手(咳咳😅),在AI前途和盈利模式不确定的阶段推演出多条可深耕的路径,我有两层: 范式不依赖层(无论技术走向如何都成立) 范式对接层(某些方向一旦成熟,可以立刻切入) 在法律与合规、金融与风控、医疗与健康、制造与供应链、教育与培训、能源与基础设施等领域——这些我过去多次提到过的方向——都普遍存在“范式不依赖层”。简单来说,就是那些目前已经以自然语言存在、但仍需要大量工作才能转化为人机共通语言的领域。例如,将法律条款进行逻辑结构化处理,转化为清晰的 If–Then 条件链,就是一种典型的范式不依赖层工作。否则就算真正Rule as Code那一天到来了,也是符号缺失的。
Yangyi
1个月前
我不知道在几十年或者几百年后 历史书上会如何记录22年末到现在的时段 人们处在这个范式转变的洪流中 但大部分人却不自知 我打开很久没看的朋友圈 看到以前的同学晒着自己和对象甜蜜的二人双排工位 电脑里开着powerpoint展示着他的ppt成果 他或许还不知道让claudecode使用lucid之类的图库 能很快做出这种效果的页面进而去做汇报演示 更不要说有很多人在利用ai节约时间,利用ai省钱,甚至利用ai赚钱 同期在探讨ai的小伙伴 纷纷从厂子里出来 现在要么在ai创业 要么在ai自媒体 许多人利用ai做内容获客赚钱,很多人靠ai完成自己的效率工具,还有人在分享ai的使用方式做培训 23年我接触的那波做套壳的,现在很多开始了第二次创业,还有一些23年的创作者,愿意分享的,也都干上了公司咨询顾问,写了书,什么得到新商学,什么图灵社区,都有他们的影子 要么就是辗转在各种大会中,不断分享这两年经过的点点滴滴和经验洞察 GPT已经5了,虚拟网络的AGI我觉得已经近在咫尺了,当然具身智能可能还有点遥远 这AI仿佛加速了时间流逝一样,认识向阳的时候还是因为他在群里分享的飞书文档,结识铁锤的时候还是他发github的portal项目,加江树的时候是LangGPT的github,那时候还在默默看宝玉小互藏师傅的分享,就仿佛还都是昨天,却已经是两年前了 前几天跟黄叔聊 我说我21年做小红书的时候就知道你的号 他说从那时候穿越到ai的伙伴真的不多 这两年多发生了太多的变化 不论是从生产侧 还是流量侧 产业结构都在发生惊天巨变 我在23年末写了24年的预期 但如果未经洪流 也真的很难体会什么叫巨变 或许今天是一个和往常一样平常的周五 但如果你意识到身在洪流 就算当个咸鱼 也可以翻一翻身 说不准就跃了龙门 时代巨变的时刻 机会和风险都是无穷的 可不要20年后 后悔那个周五 当时看见了那条推特 我怎么就没想折腾折腾呢 折腾折腾 万一能有精彩呢?