context is the new MOAT. “提示词工程”已过时,“上下文工程”正当时。 如果一个人还沉迷“魔法提示词”,不明觉厉的,复杂晦涩到人类看不懂的,可能 ta 还没真正理解 llm 的局限与真正潜力。 下一轮 llm 应用差距,不在提示词(随着 llm 能力提升,提示词工程已经基本不太重要了,只要说人话,把需求说清楚即可),而是 context: 谁能 持续、低摩擦、结构化 地供给高质量上下文,把 llm 的巨大 context window 充分用起来! (当前 llm 的上下文窗口巨大,chatgpt free 用户有 8k,plus 用户有 32k,pro 用户有 128k!这也是我充值 pro 的一大原因🤣) === 题外话:记录一切,疯狂记笔记,坚持个人知识管理,logseq/obsidian 上万条笔记...这一类行为习惯的含金量,在 llm 时代会“指数级”提升。 我把这些知识管理操作统称为“知识外化”:只有外化、数字化记录和存档的个人知识,才能把 mcp 打通,才能方便成为 chatgpt 的 context,才能发挥人机协作的巨大潜在价值。 从今天开始,请每天新写 5 条 logseq 笔记🤣