2025-06-16 21:15:00
最近这几个月,看了不少关于如何使用高级复杂提示词,以及选用大模型的技巧 基本都是完成一个目的:如何在使用者没有认知的情况下,让大模型输出听起来很有认知的语句 也的确有一些人拿到了结果(就算没赚钱,起码流量还是有) 但我还是觉得这个事情不对,功夫用错地方了 实际上,如果你把一篇有认知、有反常识结论、有深度思考的半成品稿子发给 AI AI 是可以非常轻松地给你补全一个升华结尾的,而且非常有 insight(至少看起来是这样) 不需要 o3、opus 这些模型,就基础的 claude 3.5、gpt 4 都可以实现,也不需要任何提示词技巧 你的稿子本身就是最好的提示词 那么问题就转化为:怎么才能有认知? 我的答案是:把自己没搞清的问题都回答清楚,而且是按层次回答清楚 【第一层:表象问题】 为什么我的内容没有获得预期的流量? 【第二层:认知偏差】 为什么我会误判内容的传播潜力? 【第三层:思维模式】 我的创作动机是自我表达还是服务受众? 【第四层:底层假设】 我是否默认了"深度=价值"这个未经验证的假设? 【第五层:元认知盲区】 为什么我意识不到自己的认知偏差? 【第六层:系统性根因】 我的学习系统是否存在结构性缺陷,导致我总是强化错误的模式? 【最深层:存在性追问】 如果没有外部反馈,我还会坚持创作吗? ------------ 实际上,上面这 7 个问题,就是 AI 写的 在我写了半成品文稿之后,让 AI 完成这 7 个问题是毫无压力的 但是如果没有半成品稿子,你要通过提示词技巧去完成这件事,我觉得这是人类使用工具的一段弯路
2025-06-16 21:15:00
2025-06-09 10:47:53
2025-06-04 10:02:46
2025-05-30 16:17:29