#知识拆解

prompt如何不变成玄学? 让生成结果螺旋起飞的妙计! 第一误区:简短提示词 简短的提示词缺失的是前因后果。没有合理的因,结不出准确的果。我们想创作一个选题,就不能只让他创作选题,这件事是在什么人物身上发生的,是一件具体什么样的事,他有着什么样的社会认知,在这个切面下有什么现象背后的观点? 所有的内容都是一步步铺陈出来的,不是一句话就无因无果创作出来的,提示词工程的基本盘,是给到结果之前合理的推理铺垫。 妙计:做一个内容写几个步骤,每个步骤校对一次结果,在不断的校对中,切中你想要的那个最准确的判断。 第二误区:逻辑是复杂的 AI生成的内容逻辑一点都不复杂,我们的眼光总容易盯着复杂的逻辑觉得模型可能不擅长什么。但逻辑本身是可以通过交叉组合的方式,实现复杂的推导,如果我们让他看见逻辑可以拆成简单的推导过程,模型就会被带到你的轨道上。 妙计:挖掘出所有的可能性,让模型的推理变成堆积木,积木最顶上的内容就是结果,下面的内容全是阶梯。 第三误区:专有名词很好用 专有名词的确能让模型快速进入到某个词库,比如扮演XX专家,但实际上帮助是有限了,结果只能用来做参考。一个人是立体且复杂的,某个专家一定会有失偏颇。 妙计:干脆不要用专有名词,如果你能把这个专有名词,拆成很多标签,然后把标签组合成文字逻辑的文本,你的提示词就会变得更准确。 第四误区:两个极端词交汇 昨天有看到大家用弱智的博士生,或者高素质导师的智力低下学生。这很有趣,而且也只是很有趣。真实的有作用拆解,是给出符合金字塔原理的逻辑和符合由浅入深的语言规律。让我们兴奋的,是进入愿意学习状态的提示词,并不完全是那个结果。 妙计:拆解知识找到最擅长讲知识的那个人,利用他讲知识的逻辑,完成一次更加符合人理解的知识生成。 第五误区:严禁之后为什么还有? 因为模型有自己的程序要求,那个函数被锁定在了大词库中,用严禁是无法规避那个权重较高的大词库的。 妙计:让没有这些内容的文本成为参考,简单易用。减少多轮对话。或者直接上手能累着你啊? 下面给一个我修改后的“背单词”的提示词吧! 在回复中自取.....