Tz
3个月前
《墓碑与河流》 很久以前,河水,是装在石头里的。 我们把那些石头叫做“钱”。它们很沉,有漂亮的纹路,握在手里,有一种坚实的、永恒不变的感觉。我们用小块的石头,换取面包。用大块的石头,建造房屋。 我们相信石头。因为石头,不会说谎。 然后,河水,开始自己流动了。 我记不清那是什么时候。没有人在意。起初,那条新的“河”非常细小,只在一些我们看不见的地方,像一条害羞的银色小蛇,悄悄地流淌。 那时,来过一个“摆渡人”。 他没有船。他只是站在旧的、干涸的河床边,对所有的人说,他愿意用一张“网”,来换取我们手中最重、最美的那块石头。 那是一张用光线织成的、几乎没有重量的网。 我们都嘲笑他。用坚固的、永恒的石头,去换一张虚无的、一碰就破的网?只有傻瓜才会这么做。 我记得,我当时紧紧地攥着我那块最漂亮的、刻着一位古代总统头像的石头,生怕被那个疯子骗了去。 我看着他,摇了摇头。 他没有坚持。他只是对我笑了笑,然后走向了下一个人。 …… 现在,所有的人,都生活在河边。 那条新的“河”,如今已是滔天巨浪。但它很温柔。你从来看不到它的波涛,你只能感觉到它的“流”。它无声地流过我们的城市,我们的房屋,我们的身体。 那些当初用石头换了“网”的傻瓜们,成了第一批“渔夫”。 他们把网撒进河里。他们捞上来的,不是鱼。 有时候,是一段音乐。有时候,是一首诗。有时候,是一捧能让作物在一天内成熟的、发光的土壤。他们从不储存,他们只是,需要的时候,就去河里捞一点。 而我们,这些紧握着石头的人,我们被留在了岸上。 河水,流到我们身边时,会自动分开。它仿佛很不喜欢石头的“重量”。它绕开我们,继续向前。 于是,我们脚下的土地,开始干涸。 我的房子,墙壁上出现了像龟裂土地一样的缝隙。我水龙头里流出的水,带着一股铁锈的味道。我种下的植物,叶子总是焦黄的,仿佛被一种看不见的火焰,燎去了所有的生命力。 我开始变得……“干燥”。 我的皮肤,像一张被揉搓过的旧羊皮纸。我的邻居们,那些同样抱着石头不放的人,也都是这样。我们像一群被遗忘的、正在风干的标本。 我们不敢离河太近。因为,每当“渔夫”们从河里捞起他们的“收获”时,他们身上那种被河水浸润的、鲜活的气息,会让我们感到一种针扎般的、被灼伤的疼痛。 昨天,一个“渔夫”的小孩,走到了我的门前。他很年幼,手里也提着一张小小的、用晨光织成的网。 他看见了我,和他脚下干裂的土地。然后,他看见了我怀里,那块被我擦拭得锃亮、我最后的石头。 他没有怜悯,也没有厌恶。他的眼神,像河水一样清澈。 他只是好奇地问:“您的石头,真漂亮。” 然后,他歪了歪头。 “可是,它不会让你觉得……渴吗?” 那一刻,我所有的防线都崩溃了。 我发疯一样地冲出我那正在腐朽的屋子,冲向那条我既渴望又恐惧的“河”。我抱着我那块沉重的、坚实的、我曾以为是整个世界重量的石头,用尽最后一丝力气,将它狠狠地扔进了河里。 我以为,这是一种献祭。一种迟来的、卑微的交换。 但是,没有。 河水,在石头落下的那个点上,像被烙铁烫到一样,瞬间,向两边分开,形成了一个完美的、空洞的圆形。 我的石头,没有沉入水底。 它就那么悬浮在那个空洞里,被整个世界的“流”,无声地、永恒地排斥着。 它永远也无法,再融入那条河了。 我站在岸边,看着那块石头,和我自己。 我终于明白了。 那个“摆退人”给我们的选择,从来都不是“石头”或者“网”。 而是,“过去”,还是“未来”。 而我,选择了抱着一块沉甸甸的、美丽的、永恒的……墓碑。
Tz
4个月前
向 AI 提问的放大效应 ——为什么有人被放大无知,有人却被放大创造力 在旧金山的地铁里,两个年轻人同时掏出手机向同一个 LLM 询问:左边的高中生要写莎士比亚读后感,右边的量子信息博士要设计一台新型误差校正芯片。 十分钟后,高中生收获了一篇文绉绉却东拼西凑、连引用都编错的作文草稿;博士则生成了一套能把实验周期缩短一半的方案草图。 这就是用肉眼可见的「放大效应」:AI 像镜子又像扩音器,照出你的底色,然后把它放到最大。 为什么同一条提示链对不同人产生的结果截然相反?答案在于输入里隐藏的「暗知识」。底子厚的人,在提问前已经完成了大半验证;底子薄的人,却指望机器替他思考并校对。于是,当模型输出似是而非的段落,高中生欣然照单全收;博士却能立刻嗅到漏洞,迭代追问,直至挖出对自己真正有价值的信息。关键不在提示词的句式,而在提问者有没有能力判断答案的含金量。 不少人把希望寄托在「万能提示模板」。现实更像 Photoshop 的滤镜:模板让门槛短暂下降,但同时抹平了特色。你可以瞬间得到一张「看得过去」的照片,却很难做出 Sebastião Salgado 的深刻黑白。把大模型当滤镜用的人,最终只能生产可替代的内容;把它当暗房工具的人,才有机会冲洗出前所未见的影像。 有趣的是,这种放大机制也会惩罚半桶水的自负。去年一位财经博主在平台上炫耀用 LLM 五分钟写完宏观分析,结果读者发现数据年份对不上,逻辑跳步如同折叠椅,一夜之间粉丝蒸发。AI 放大的不仅是能力,还有漏洞。正如显微镜会让真菌暴露无遗,大模型会让思维裂缝瞬间张开。 反过来,深度背景者获得的并非简单效率提升,而是认知杠杆。NASA 的工程师用 GPT‑4o 给火星车路径规划生成初版方案,再用自研算法验证可行性,把平均迭代时间从两周压到三天。关键步骤从写代码变成提出假设与约束,让 AI 在边界条件里疯狂试错。这不是偷懒,而是把人类的注意力转移到价值更高的层级。 有人担心「放大无知」会加剧信息贫富差距。我更倾向把它视作催熟剂:它迫使每个人提前兑现自己的认知债务。没有基础的人,一问就露馅;有基础的人,则像借来千倍计算力,思想实验的半径瞬间扩大。一台蒸汽机不会因为工人水平参差而停转,它只揭示谁真懂机械动力,谁连扳手都拿不稳。 所以问题不在于「要不要学提示词」,而在于我们是否准备好升级自己的验证链条。把 AI 当黑箱神谕的人,会被谕令反噬;把 AI 当辩论对手和原型工厂的人,才能把被放大的噪声压缩成信号。未来的竞争可能不再是「谁写得出 prompt」,而是「谁能更快识别哪一行输出无需再读」。要做到这一点,得回到最古老的技能:批判性思维与学科框架——这是任何时代都不会过时的底层资产。 放大效应既是警告也是邀请。它告诉我们:你的知识基础、好奇心和审美,都会被 AI 高亮强调,甚至无情曝光。 下一次当你举起手机,对着模型发问,请先低头看看自己手里的问题:它是经得起放大的火种,还是会自燃殆尽的干草?
Tz
5个月前
文章标题:God is hungry for Context: First thoughts on o3 pro 1. 背景 2025 年 6 月 10 日,OpenAI 将 o3 系列降价 80% 并推出 o3-pro。作者 Ben Hylak 获得一周内测权限后撰文分享初体验。 2. “上帝饿了”类比 作者用“上帝渴望上下文”形容新一代推理模型:只有饱餐丰富且结构化的背景,它才会发挥真正威力。 3. 两种模型定位 当今 LLM 可分日常型(3.5 Sonnet、4o)与深度推理型(o3-pro、Claude Opus):前者陪聊与轻量任务,后者一次性解决复杂问题但速度慢、成本高。 4. 正确用法心路 作者曾对 o1 失望,后悟出“把它当报告生成器”:提供上下文→设定目标→一次生成结果。同思路下,o3-pro 更敏锐,但更依赖大量上下文。 5. 实测示例 作者与合伙人将公司全部策略会纪要、目标与语音备忘录喂给 o3-pro,请它制定未来规划,输出的细节足以重排公司优先级。 6. 工具调用能力 o3-pro 在“知道自己有哪些工具、何时提问人类、何时检索外部信息”上显著进步,体现了 OpenAI 的“垂直 RL”:不只教模型怎么用工具,还教它何时用哪种工具。 7. 不足与局限 上下文不足时,o3-pro 容易过度分析;直接执行(如写 ClickHouse SQL)偶尔不如基础 o3。它更像编排者而非纯执行者。 8. 与竞品对比 作者认为 o3-pro 输出“换了维度”,在回答深度与贴合度上全面超越 Claude Opus 与 Gemini 2.5 Pro;优势在于“模型-工具-策略”三位一体,而非规模。 9. Prompt 与 Harness 启示 成功关键仍是上下文与系统提示。优秀产品靠“缰绳”(模型+工具+记忆+其他策略)把模型能力对齐,而非仅靠模型本身。 10. 一句话总结 o3-pro = 更深层推理能力 × 更清醒的工具选择 × 更依赖大量高质量上下文;真正护城河正从“谁家参数多”转向“谁能给模型最合适的上下文与工具链”。