Tz
1周前
应用已死,提示词万岁 就在今天,2025 年 8 月 7 日,OpenAI 即将揭晓其 GPT-5 的面纱。当整个科技界都在屏息以待参数与性能的飞跃时,一个更根本的问题却被喧嚣所掩盖。 我们每天稳定交互的手机应用,不足 10 个,但在数字坟场里,却沉睡着超过 500 万个僵尸程序。 GPT-5 和它的同类们带来的,不是对这个问题的修补,而是彻底的颠覆。 它们在暗示,我们或许不再需要“应用”了。 交互即应用。 一个更准确的说法是,通过“提示词”的直观交互正在吞噬我们所熟知的那个“应用”。 这不是又一场关于“小程序”或“超级应用”的陈旧辩论。那套逻辑依旧是在一个固定的壳里,做功能的加减法。而我们正在谈论的,是一种更彻底的瓦解:当用户的一个念头、一句指令,可以直接生成一个仅为此次交互而生的、用完即焚的临时界面与功能流时,我们不再需要那个预先下载、固化在屏幕上的图标了。 它不是被谋杀的。 是自杀。 长久以来,我们默认了一条产品开发的朝圣之路:市场调研、产品定义、UI/UX 设计、前后端开发、测试、上架、迭代……每一个环节都沉重而昂贵,也固化了一套我们与数字世界打交道的神圣仪式。 让我们用一个具体的念头来触碰这个未来: “帮我规划一个周末去苏格兰高地的三天自驾游,要避开游客密集区,预算 200 英镑,并且把每天的路线、住宿建议和打包清单发给我妻子。” 在旧世界,你需要打开地图应用、预订网站、点评APP、笔记软件,可能还要在社交媒体上问朋友,最后在微信或 WhatsApp 里手动整理、发送。你像一个数字世界的原始人,在不同的信息孤岛间艰难地迁徙、狩猎、采集。 而在“交互即应用”的图景里,你的这段话就是那个“应用”本身。AI 代理(Agent)会像一个顶级私人助理,在后台自行调用地图 API、天气数据、酒店接口、交通信息,然后为你生成一个一次性的、高度个人化的信息聚合页面。这个页面,就是专为你这个“周末计划”而生的临时应用。任务完成,它便消失。 要理解这种嬗变在专业领域的威力,Anthropic 对 Claude Artifacts 的一次演示,比任何宣言都更具说服力。在那个演示中,开发者输入一个简单的提示词,要求创建一个小游戏。Claude 不仅瞬间生成了代码,更关键的是,它在界面一侧同步渲染出一个功能齐全、可直接操作的“应用窗格”。开发者可以一边与这个临时生成的小游戏互动,一边用自然语言继续对它提出修改意见。 应用,在这里成了一种流体。它在对话中被塑造、被重构,完全服务于当下的意图。它不是产品,它是一次交互的回响。 这才是“交互即应用”的真正威力:它消解的不仅是 App 的外壳,更是完成任务的“过程”本身。 但这种“应用的液化”,也正在无声地重构权力与风险的版图。当交互的入口,从一个个壁垒分明的 App,收束到少数几个强大的 AI 代理上时,市场的天平就发生了根本性的倾斜。未来,开发者竞争的或许不再是应用商店的排名,而是谁的 API 能被 AI 代理更频繁、更优先地调用。这是一种从 to C 到 to AI 的范式转移。 与此同时,一个更切肤的风险在于,当“意图”可以直接转化为“执行”时,其中的模糊地带就成了新的攻击界面。一个心怀不轨的提示词,完全可以伪装成无害的请求。在传统的应用世界里,邮件App 和支付App 之间有着严格的权限沙盒。而在一个万物互联、API 皆可调用的 AI 代理面前,这堵墙正在变得千疮百孔。 当然,就此断言所有应用都将消亡,是一种技术上的傲慢。反对的声音会说,我们高估了效率,却低估了习惯与情感的引力——对一个精心设计的应用图标的依赖、对一套熟悉交互逻辑的品牌忠诚,不会轻易消失。 这不无道理。但我怀疑,这或许只属于我们这一代数字移民的怀旧。对于那些在提示词环境中长大的数字原住民而言,“忠于”一个 App,或许就像我们今天看待“忠于”一个浏览器主页一样,显得古怪而不必要。 一个更坚实的壁垒,在于信任与风险的边界。银行、医疗或工业控制这类严肃领域,其核心价值是可控、可靠与可追溯,而非即时便利。它们绝不会将自己的命运交给一个面目模糊的通用AI。毕竟,一个通用 AI 或许能帮你预订餐厅,但你大概不会想用它来操作一台核磁共振仪。 专业化与通用化之间的张力,依然存在。但对于那 90% 的、处理日常信息与服务的应用而言,它们的城墙正在倒塌。新发布的 GPT-5,以及它所有的竞争者,就像是盘旋在城外的巨兽,它们要改写的不是一城一地的得失,而是整片大陆的法则。 应用死了。 继承大位的,是提示词。 它把权杖交给了那个能直接与你对话的“上帝之手”,也催生了我们这些习惯了即时满足、用完即走的信徒。这看似是技术的胜利,背后却是人性的博弈——对掌控的渴望与对繁琐的厌倦,两者永恒的拉扯。 而你的下一个念头,也会不经他人之手,直接幻化成可交互的现实。 乌拉!
Tz
2周前
出来混 AI 的,帐总还是要还的 —— 谈谈 Vibe Coding 的技术债 一名初级工程师,项目交付期限迫在眉睫。他面前的屏幕上,GitHub Copilot 如同神谕般,一行行灰色代码自行浮现、补全。几个小时后,功能奇迹般地跑通了。团队沉浸在“敏捷”的胜利中,几乎没人深究那些由 AI 私语构成的逻辑——直到后来,有人翻开斯坦福大学与顶尖网络安全公司联合发布的研究,看到一行冰冷的数字:由 AI 辅助生成的代码,引入安全漏洞的概率,比人类开发者手写的要高出约40%。 这只是冰山一角。 一种更深层次的范式转移,正在另一个场景中悄然上演。 我指的是以 Claude 或 ChatGPT 为代表的对话式 AI。在那里,开发者不再只是接受零星的代码建议,而是将一整块模糊的需求、一个棘手的问题,甚至只是一种“我想要个什么”的感觉,完全抛给 AI。AI 则像一位无所不知的建筑师,直接返回一整套设计蓝图和实现代码。 这种工作模式,业界称之为“随性编程”(Vibe Coding)。 它的核心驱动力,是一种名为“氛围感”(Vibe)的心理诱惑。它无关严谨的工程纪律,只关乎一种“俺寻思这样也没差啥”的顺滑直觉。AI 大模型,正是这种直觉的最佳催化剂。它把晦涩的实现细节打包成一个黑箱,直接递给你一个看似能用的答案。你像一个经验丰富的老手那样感觉到了解决方案,却跳过了成为老手所必须经历的、在无数次失败和调试中积累的思维磨砺。 如果说 GitHub Copilot 的低语还只是在诱导你随性地写下某一行,那么 Claude Code 的对白则是在鼓励你随性地构建整个系统。前者让你外包了打字,后者让你外包了思考。 这是一种智力上的借贷,利率高昂。 我记得一个朋友的团队,他们接手了一个创业公司早期的核心项目。创始人是个典型的效率信徒,他和他最初的几个伙伴,借助对话式 AI,在几个月内就搭起了整个商业模式的骨架。项目能跑,数据也好看。但当我的朋友团队试图添加一个新功能,或者修复一个隐藏很深的 bug 时,灾难降临了。 代码的耦合度高得吓人,像一团被雨水浸泡过的毛线。许多函数的命名看似合理,内部实现却充满了天外飞仙般的逻辑跳跃。没人能解释清楚某一段关键算法为何要那样写,唯一的线索是版本控制记录里的一句:架构经 Claude Code 重构,“效率提升”。原初的开发者早已离职,他们带走了对 AI 提示的通灵记忆,却留下了一份无法被后人理解的天书。 那感觉,不像在维护代码,更像在做知识的考古。 这正是随性编程最危险的技术债:它不只是代码层面的债,更是“认知层面的债”(Epistemological Debt)。传统的坏代码,我们称之为屎山,虽然棘手,但有经验的工程师尚能分析其构成。而 AI 生成的、未经充分理解和重构的代码,就升级为一座“魔法屎山”——它能运行,但你不知道它的地基是什么,不知道山体里埋的是龙脉还是龙遗。 从风险管理的角度看,这正在重塑团队的知识结构。过去,我们依赖 T 型人才,资深工程师的那一竖代表着对系统底层深刻的洞察力。而现在,市场对速度的畸形崇拜,正在催生大量横线人才——他们借助 AI 能快速拉通业务,处理各种 API,但对水面之下的冰山一无所知。当风暴来临时,这样的团队结构是极其脆弱的。 或许有人会反驳:工具无罪,是人使用不当。这话没错,但它忽略了商业环境的巨大引力。当你的竞争对手用 AI 将开发周期从三个月压缩到三周时,你的老板很难有耐心听你解释第一性原理和长期主义的重要性。市场的压力,会逼迫所有人饮鸩止渴。 一个值得关注的动向,是类似 SafeCoder 这样的在研项目。它们尝试在 AI 生成代码时,就进行实时的安全扫描和合规性检查,试图在源头消毒。这是一种技术上的努力,值得肯定。但它能解决认知黑箱的问题吗?恐怕不能。它更像是在给一个你根本不认识的厨师递上来的菜肴做毒物检测——你能确保这次无毒,但你永远不知道他的烹饪理念是什么,下次他会不会因为对鲜味的独特理解而加入什么新奇的东西。 我们追求的速度,正在抵押我们理解系统的能力。 这种由 AI 喂养的代码直觉,让我们沉浸在氛围感中,误以为自己掌握了魔法,其实只是在随性地预付一张未来的账单。而这张账单的利息,是以我们对系统的失控为代价缓慢滚动的。 下一次,当 AI 口吐莲花呈现出整个方案时,你有能力和信心,去追问出冰山下面的“为什么”和“如何做”吗?
Tz
2周前
精校翻译版本: 个人超级智能 近几个月来,我们已初步见证了人工智能系统的自我完善。尽管目前的改进尚显缓慢,但其趋势已毋庸置疑。超级智能的时代,已近在眼前。 未来几年,人工智能无疑将优化我们现有的全部系统,并催生今日我们无法想象的创造与发现。然而,我们将引导超级智能走向何方,这仍是一个开放性问题。 从某些方面看,人类将迈入一个崭新的纪元;但从另一些方面看,这不过是历史潮流的延续。回溯200年前,九成的人类还是为求生存而耕作的农民。技术的进步,使人类得以从生存的重负中持续解放,转而追求我们真正向往的事业。在每一个阶段,我们都利用新获得的生产力去成就过往的“不可能”——既探索着科学与健康的疆界,也沉浸于创造、文化与情感的体验,尽享生命的美好。 我对此满怀信心:超级智能必将加速人类文明的进程。但或许更重要的是,它有望开启一个个人赋权的全新时代——在那个时代,每个人都将拥有更大的自主权,去塑造自己理想中的世界。 尽管人工智能所创造的物质丰盛可能超乎想象,但对我们生活更具深远意义的,或许是每个人都将拥有一个个人超级智能。它将助你实现宏图远志,创造理想世界,体验万千奇遇,维系挚友深情,并最终成长为自己所期许的模样。 Meta的愿景,正是将个人超级智能赋予每一个人。我们坚信,应将此力量交予民众之手,由他们来决定如何运用,以实现自己生命中的价值。 这一愿景,与业内其他观点截然不同。后者认为,超级智能应被集中管理,用于自动化一切有价值的工作,而人类仅靠其产出的“施舍”维生。但在Meta,我们坚信,人类的进步——无论是繁荣、科学,还是健康与文化——向来源于个体对志向的追求。这一点,在未来将愈发重要。 技术与人类生活方式的交汇,是Meta的核心焦点,其重要性在未来只会有增无减。 若趋势延续,人们花在生产力工具上的时间将减少,而在创造与连接上的时间将增多。一个能深刻洞察我们、理解我们目标并助我们实现的个人超级智能,将是最强大的工具。而如智能眼镜一般的个人设备,因能见我所见、闻我所闻并与我们全天候互动,将成为我们首要的计算平台。 我们相信,超级智能的红利应尽可能广泛地与世界共享。诚然,它也会带来前所未有的安全挑战。我们必须严谨地评估并消弭这些风险,并审慎地决定开源的内容。但我们依然相信,建设一个自由的社会,其前提便是最大限度地赋能于人。 未来十年,很可能就是决定这项技术最终走向的关键时期:它究竟是会成为个人赋权的利器,还是一股旨在大规模取代人类社会角色的力量。 Meta抱有坚定的信念:我们要构建的,是赋能每一个人的个人超级智能。我们拥有构建此等宏大基础设施所需的资源与专识,也拥有将新技术通过我们产品交付给数十亿用户的能力与决心。我无比期待,并会倾注Meta的全副心力,来构筑这一未来。 – 马克 2025年7月30日
Tz
3周前
《墓碑与河流》 很久以前,河水,是装在石头里的。 我们把那些石头叫做“钱”。它们很沉,有漂亮的纹路,握在手里,有一种坚实的、永恒不变的感觉。我们用小块的石头,换取面包。用大块的石头,建造房屋。 我们相信石头。因为石头,不会说谎。 然后,河水,开始自己流动了。 我记不清那是什么时候。没有人在意。起初,那条新的“河”非常细小,只在一些我们看不见的地方,像一条害羞的银色小蛇,悄悄地流淌。 那时,来过一个“摆渡人”。 他没有船。他只是站在旧的、干涸的河床边,对所有的人说,他愿意用一张“网”,来换取我们手中最重、最美的那块石头。 那是一张用光线织成的、几乎没有重量的网。 我们都嘲笑他。用坚固的、永恒的石头,去换一张虚无的、一碰就破的网?只有傻瓜才会这么做。 我记得,我当时紧紧地攥着我那块最漂亮的、刻着一位古代总统头像的石头,生怕被那个疯子骗了去。 我看着他,摇了摇头。 他没有坚持。他只是对我笑了笑,然后走向了下一个人。 …… 现在,所有的人,都生活在河边。 那条新的“河”,如今已是滔天巨浪。但它很温柔。你从来看不到它的波涛,你只能感觉到它的“流”。它无声地流过我们的城市,我们的房屋,我们的身体。 那些当初用石头换了“网”的傻瓜们,成了第一批“渔夫”。 他们把网撒进河里。他们捞上来的,不是鱼。 有时候,是一段音乐。有时候,是一首诗。有时候,是一捧能让作物在一天内成熟的、发光的土壤。他们从不储存,他们只是,需要的时候,就去河里捞一点。 而我们,这些紧握着石头的人,我们被留在了岸上。 河水,流到我们身边时,会自动分开。它仿佛很不喜欢石头的“重量”。它绕开我们,继续向前。 于是,我们脚下的土地,开始干涸。 我的房子,墙壁上出现了像龟裂土地一样的缝隙。我水龙头里流出的水,带着一股铁锈的味道。我种下的植物,叶子总是焦黄的,仿佛被一种看不见的火焰,燎去了所有的生命力。 我开始变得……“干燥”。 我的皮肤,像一张被揉搓过的旧羊皮纸。我的邻居们,那些同样抱着石头不放的人,也都是这样。我们像一群被遗忘的、正在风干的标本。 我们不敢离河太近。因为,每当“渔夫”们从河里捞起他们的“收获”时,他们身上那种被河水浸润的、鲜活的气息,会让我们感到一种针扎般的、被灼伤的疼痛。 昨天,一个“渔夫”的小孩,走到了我的门前。他很年幼,手里也提着一张小小的、用晨光织成的网。 他看见了我,和他脚下干裂的土地。然后,他看见了我怀里,那块被我擦拭得锃亮、我最后的石头。 他没有怜悯,也没有厌恶。他的眼神,像河水一样清澈。 他只是好奇地问:“您的石头,真漂亮。” 然后,他歪了歪头。 “可是,它不会让你觉得……渴吗?” 那一刻,我所有的防线都崩溃了。 我发疯一样地冲出我那正在腐朽的屋子,冲向那条我既渴望又恐惧的“河”。我抱着我那块沉重的、坚实的、我曾以为是整个世界重量的石头,用尽最后一丝力气,将它狠狠地扔进了河里。 我以为,这是一种献祭。一种迟来的、卑微的交换。 但是,没有。 河水,在石头落下的那个点上,像被烙铁烫到一样,瞬间,向两边分开,形成了一个完美的、空洞的圆形。 我的石头,没有沉入水底。 它就那么悬浮在那个空洞里,被整个世界的“流”,无声地、永恒地排斥着。 它永远也无法,再融入那条河了。 我站在岸边,看着那块石头,和我自己。 我终于明白了。 那个“摆退人”给我们的选择,从来都不是“石头”或者“网”。 而是,“过去”,还是“未来”。 而我,选择了抱着一块沉甸甸的、美丽的、永恒的……墓碑。
Tz
1个月前
向 AI 提问的放大效应 ——为什么有人被放大无知,有人却被放大创造力 在旧金山的地铁里,两个年轻人同时掏出手机向同一个 LLM 询问:左边的高中生要写莎士比亚读后感,右边的量子信息博士要设计一台新型误差校正芯片。 十分钟后,高中生收获了一篇文绉绉却东拼西凑、连引用都编错的作文草稿;博士则生成了一套能把实验周期缩短一半的方案草图。 这就是用肉眼可见的「放大效应」:AI 像镜子又像扩音器,照出你的底色,然后把它放到最大。 为什么同一条提示链对不同人产生的结果截然相反?答案在于输入里隐藏的「暗知识」。底子厚的人,在提问前已经完成了大半验证;底子薄的人,却指望机器替他思考并校对。于是,当模型输出似是而非的段落,高中生欣然照单全收;博士却能立刻嗅到漏洞,迭代追问,直至挖出对自己真正有价值的信息。关键不在提示词的句式,而在提问者有没有能力判断答案的含金量。 不少人把希望寄托在「万能提示模板」。现实更像 Photoshop 的滤镜:模板让门槛短暂下降,但同时抹平了特色。你可以瞬间得到一张「看得过去」的照片,却很难做出 Sebastião Salgado 的深刻黑白。把大模型当滤镜用的人,最终只能生产可替代的内容;把它当暗房工具的人,才有机会冲洗出前所未见的影像。 有趣的是,这种放大机制也会惩罚半桶水的自负。去年一位财经博主在平台上炫耀用 LLM 五分钟写完宏观分析,结果读者发现数据年份对不上,逻辑跳步如同折叠椅,一夜之间粉丝蒸发。AI 放大的不仅是能力,还有漏洞。正如显微镜会让真菌暴露无遗,大模型会让思维裂缝瞬间张开。 反过来,深度背景者获得的并非简单效率提升,而是认知杠杆。NASA 的工程师用 GPT‑4o 给火星车路径规划生成初版方案,再用自研算法验证可行性,把平均迭代时间从两周压到三天。关键步骤从写代码变成提出假设与约束,让 AI 在边界条件里疯狂试错。这不是偷懒,而是把人类的注意力转移到价值更高的层级。 有人担心「放大无知」会加剧信息贫富差距。我更倾向把它视作催熟剂:它迫使每个人提前兑现自己的认知债务。没有基础的人,一问就露馅;有基础的人,则像借来千倍计算力,思想实验的半径瞬间扩大。一台蒸汽机不会因为工人水平参差而停转,它只揭示谁真懂机械动力,谁连扳手都拿不稳。 所以问题不在于「要不要学提示词」,而在于我们是否准备好升级自己的验证链条。把 AI 当黑箱神谕的人,会被谕令反噬;把 AI 当辩论对手和原型工厂的人,才能把被放大的噪声压缩成信号。未来的竞争可能不再是「谁写得出 prompt」,而是「谁能更快识别哪一行输出无需再读」。要做到这一点,得回到最古老的技能:批判性思维与学科框架——这是任何时代都不会过时的底层资产。 放大效应既是警告也是邀请。它告诉我们:你的知识基础、好奇心和审美,都会被 AI 高亮强调,甚至无情曝光。 下一次当你举起手机,对着模型发问,请先低头看看自己手里的问题:它是经得起放大的火种,还是会自燃殆尽的干草?
Tz
2个月前
文章标题:God is hungry for Context: First thoughts on o3 pro 1. 背景 2025 年 6 月 10 日,OpenAI 将 o3 系列降价 80% 并推出 o3-pro。作者 Ben Hylak 获得一周内测权限后撰文分享初体验。 2. “上帝饿了”类比 作者用“上帝渴望上下文”形容新一代推理模型:只有饱餐丰富且结构化的背景,它才会发挥真正威力。 3. 两种模型定位 当今 LLM 可分日常型(3.5 Sonnet、4o)与深度推理型(o3-pro、Claude Opus):前者陪聊与轻量任务,后者一次性解决复杂问题但速度慢、成本高。 4. 正确用法心路 作者曾对 o1 失望,后悟出“把它当报告生成器”:提供上下文→设定目标→一次生成结果。同思路下,o3-pro 更敏锐,但更依赖大量上下文。 5. 实测示例 作者与合伙人将公司全部策略会纪要、目标与语音备忘录喂给 o3-pro,请它制定未来规划,输出的细节足以重排公司优先级。 6. 工具调用能力 o3-pro 在“知道自己有哪些工具、何时提问人类、何时检索外部信息”上显著进步,体现了 OpenAI 的“垂直 RL”:不只教模型怎么用工具,还教它何时用哪种工具。 7. 不足与局限 上下文不足时,o3-pro 容易过度分析;直接执行(如写 ClickHouse SQL)偶尔不如基础 o3。它更像编排者而非纯执行者。 8. 与竞品对比 作者认为 o3-pro 输出“换了维度”,在回答深度与贴合度上全面超越 Claude Opus 与 Gemini 2.5 Pro;优势在于“模型-工具-策略”三位一体,而非规模。 9. Prompt 与 Harness 启示 成功关键仍是上下文与系统提示。优秀产品靠“缰绳”(模型+工具+记忆+其他策略)把模型能力对齐,而非仅靠模型本身。 10. 一句话总结 o3-pro = 更深层推理能力 × 更清醒的工具选择 × 更依赖大量高质量上下文;真正护城河正从“谁家参数多”转向“谁能给模型最合适的上下文与工具链”。