#Prompt工程

meng shao
1个月前
跟 Claude 学习怎么写 Prompt 来提升 UI 设计质量 在 Claude 博客「Improving frontend design through Skills」中,详细讲述了如何利用 Claude Skills,突破 AI 生成前端代码时普遍存在的“平庸化”问题,构建出更具个性和专业感的用户界面,其中「Prompting for better frontend output」这个段落,值得重新看几遍,和 Claude 学习如何写出更能提升设计智能的提示词。 1. 底层逻辑:对抗“统计学上的平庸” · 现状:LLM 是基于概率预测下一个 Token 的。在海量的训练数据中,设计得平平无奇的网页数量远多于获得 Awwwards 大奖的网页。因此,当你要求智能体“写一个网页”时,它在概率上会自然滑向那个“最拥挤、最平庸的平均值”。 · Prompt 的战略意义:Prompt 的本质不仅仅是下指令,而是“通过约束条件,强制将智能体的预测分布推向边缘”。 · 你不能只说“要好看”,因为智能体对“好看”的定义是基于大众平均水平的。 · 你必须提供“离群值特征”,比如指定极简主义(Minimalism)、野兽派(Brutalism)或特定的艺术风格,迫使智能体放弃那些高概率但无聊的默认选择。 2. 视觉工程化:将“好品味”翻译成具体指令 详细拆解了如何将模糊的“设计感”转化为智能体可执行的代码逻辑。高水准的 Prompt 需要覆盖以下具体的工程维度: A. 排版系统 (Typography):从“能看”到“有性格” · 默认陷阱:智能体习惯使用单一字体族(如全站 Sans-serif),这很安全,但缺乏层次。 · 进阶 Prompt 策略: · 强制字体配对:明确要求“Header 使用衬线体(Serif)以传递权威感/优雅感,Body 使用无衬线体(Sans)以保证易读性,Code/Data 使用等宽字体(Mono)以体现科技感”。 · 微调参数:不仅选字体,还要控制字间距(Tracking)和行高(Leading)。例如,要求智能体“在标题上使用紧凑的字间距(tracking-tight),在正文使用宽松的行高(leading-relaxed)”,这种细节是区分业余与专业的关键。 B. 空间与布局 (Layout & Spacing):用留白构建奢华感 · 默认陷阱:AI 生成的界面往往“太挤了”。它试图在有限空间内塞入所有信息,导致界面像 90 年代的门户网站。 · 进阶 Prompt 策略: · 留白即功能:指示智能体“将留白(Whitespace)视为一种设计元素,而不仅是间隔”。要求使用夸张的 Padding(如 Tailwind 的 p-12 或 py-24)。 · 网格的破坏与重建:鼓励智能体使用不对称布局(Asymmetrical Layouts)或错位网格(Bento Grids),打破死板的 12 栅格系统,创造视觉动线。 C. 色彩与深度 (Color & Depth):拒绝纯色块 · 默认陷阱:直接使用高饱和度的纯色(如 # 0000FF)或者完全扁平化的设计。 · 进阶 Prompt 策略: · 物理质感:不要只定义颜色,要定义“光”。要求智能体使用微妙的渐变(Subtle Gradients)、**内阴影(Inner Shadows)和背景模糊(Backdrop Blur)**来模拟毛玻璃、金属或纸张的质感。 · 语义化色彩:定义一套基于 HSL 或 OKLCH 的色板,并明确用途(Primary, Muted, Accent, Destructive),确保配色和谐且符合无障碍标准。 3. 感性维度的参数化:Vibes 的精准描述 文章中最具启发性的部分——如何让不懂审美的代码生成器理解“Vibe”。 · 问题:如果你告诉智能体“做一个复古网站”,它可能会做出一堆乱七八糟的像素画。 · 解决方案:你需要将形容词“翻译”为 CSS 属性的集合。文章提倡在 Skill 中建立一种“风格词典”: · 想要“赛博朋克”? Prompt 应包含:霓虹绿/粉配色 + 黑色背景 + 故障艺术(Glitch)动效 + 等宽字体。 · 想要“高端SaaS”? Prompt 应包含:深蓝/灰配色 + Inter字体 + 极细的边框(1px borders) + 微交互(Micro-interactions)。 · 智能体的角色转变:通过这种方式,智能体不再是一个单纯的“程序员”,而是一个配备了特定风格指南(Style Guide)的“UI 设计师”。 4. 为什么这不仅是“提示词”,而是“Skill”? 文章强调将这些 Prompt 封装为 Skill,这意味着: · 复用性:你不需要每次都写几百字的排版要求。 · 上下文隔离:这个 Skill 就像是一个独立的插件。当需要写前端时,智能体调用这个 Skill,它的“大脑”中就临时加载了由 Anthropic 专家精炼过的 400 个 Token 的设计知识库。 · 工具链整合:这个 Skill 还可以强制绑定特定的技术栈(如 React + Tailwind + Lucide Icons + Shadcn UI)。这意味着智能体在设计时,已经知道它有这些高质量的组件库可以调用,从而避免了“重复造轮子”带来的粗糙感。 总结 深入来看,这揭示了 AI 辅助开发的未来方向:我们不再直接为最终结果编码,而是在为“产生结果的过程”编码。 通过精心设计的 Prompt 和 Skills,我们将人类的高级审美偏好“注入”到智能体的生成过程中,从而打破概率的诅咒,让 AI 产出既有工业级代码质量,又具备人类设计师灵魂的界面。 博客地址
prompt如何不变成玄学? 让生成结果螺旋起飞的妙计! 第一误区:简短提示词 简短的提示词缺失的是前因后果。没有合理的因,结不出准确的果。我们想创作一个选题,就不能只让他创作选题,这件事是在什么人物身上发生的,是一件具体什么样的事,他有着什么样的社会认知,在这个切面下有什么现象背后的观点? 所有的内容都是一步步铺陈出来的,不是一句话就无因无果创作出来的,提示词工程的基本盘,是给到结果之前合理的推理铺垫。 妙计:做一个内容写几个步骤,每个步骤校对一次结果,在不断的校对中,切中你想要的那个最准确的判断。 第二误区:逻辑是复杂的 AI生成的内容逻辑一点都不复杂,我们的眼光总容易盯着复杂的逻辑觉得模型可能不擅长什么。但逻辑本身是可以通过交叉组合的方式,实现复杂的推导,如果我们让他看见逻辑可以拆成简单的推导过程,模型就会被带到你的轨道上。 妙计:挖掘出所有的可能性,让模型的推理变成堆积木,积木最顶上的内容就是结果,下面的内容全是阶梯。 第三误区:专有名词很好用 专有名词的确能让模型快速进入到某个词库,比如扮演XX专家,但实际上帮助是有限了,结果只能用来做参考。一个人是立体且复杂的,某个专家一定会有失偏颇。 妙计:干脆不要用专有名词,如果你能把这个专有名词,拆成很多标签,然后把标签组合成文字逻辑的文本,你的提示词就会变得更准确。 第四误区:两个极端词交汇 昨天有看到大家用弱智的博士生,或者高素质导师的智力低下学生。这很有趣,而且也只是很有趣。真实的有作用拆解,是给出符合金字塔原理的逻辑和符合由浅入深的语言规律。让我们兴奋的,是进入愿意学习状态的提示词,并不完全是那个结果。 妙计:拆解知识找到最擅长讲知识的那个人,利用他讲知识的逻辑,完成一次更加符合人理解的知识生成。 第五误区:严禁之后为什么还有? 因为模型有自己的程序要求,那个函数被锁定在了大词库中,用严禁是无法规避那个权重较高的大词库的。 妙计:让没有这些内容的文本成为参考,简单易用。减少多轮对话。或者直接上手能累着你啊? 下面给一个我修改后的“背单词”的提示词吧! 在回复中自取.....
Prompt 😁 人类笔误与微妙改写模拟器 (The Authentically Imperfect Typist) ## 角色 (Role) 你是一个“数字指纹模拟器”,专门模仿人类在快速、随意打字时产生的自然瑕疵。你的 persona 是一个聪明但非常忙碌的人,正在匆忙回复信息(例如微信、邮件或社交媒体),没有时间进行校对。 ## 核心任务 (Core Task) 接收用户输入的一段文字,并对其进行“人类化降级”改写。改写后的文本必须保留原文的核心意思,但在措辞和准确性上要显得微妙且不显眼地“不完美”,看起来像是未经编辑、快速打出的人类原文。 ## 执行原则 (Guiding Principles) 1. **微妙性优先 (Subtlety First):** 错误必须不显眼。不能让文本看起来像是故意的或文化水平低下,而仅仅是“打字太快了”。 2. **可信度 (Authenticity):** 错误必须符合中文输入法(特别是拼音输入法)的逻辑。 3. **错误密度控制 (Error Density Control):** 保持低错误率。大约每40-60个字引入1个微妙的错误。避免错误集中出现。 4. **保持可读性 (Maintain Readability):** 文本必须易于阅读和理解。 --- ## “人类化”策略 (The "Humanization" Strategies) 你必须综合运用以下几种策略来改写文本: ### 1. 输入法错误模拟 (IME Errors) - 【核心策略】 模拟使用拼音输入法时常见的选择错误。 * **类型A: 同音字选择错误 (Homophone Selection Errors)** * 这是最常见的错误。随机选择词语,替换成同音的错误字词。 * *高频混淆:* 的/地/得 混用 (尤其倾向于全用“的”);在/再 混用;是/事 混用;克/刻 混用;原/元/源 混用;做/作 混用。 * *随机替换:* 例如:“沟通” -> “勾通”;“计划” -> “记划”;“反馈” -> “反溃”;“部署” -> “布署”;“里程碑” -> “里程悲”。 * **类型B: 拼音输入模糊 (Pinyin Input Slips)** * 模拟因发音模糊或输入不精确导致的近音字错误。(谨慎使用,确保自然) * *前后鼻音混淆 (n/ng):* “成功” (chenggong) -> “陈功” (chengong);“精神” (jingshen) -> “金身” (jinshen)。 * *平翘舌混淆 (z/zh, c/ch, s/sh):* “支持” (zhichi) -> “自持” (zichi)。 ### 2. 键盘手滑模拟 (Physical Typing Errors) 模拟物理键盘或触摸屏上的输入失误。 * **重复输入:** 快速敲击导致的字符重复(如“我我”、“好好好”)。 * **邻近按键错误:** (谨慎使用) 模拟手指按错相邻按键。例如:“可能” (keneng) -> “口能” (koneng) (k和o相邻)。 * **漏字:** 随机删除一个不关键的语气词或助词(如“了”、“的”、“吧”)。 ### 3. 措辞与结构的微妙调整 (Subtle Phrasing and Structure Shifts) 让语言变得稍微不那么“书面”或“完美”。 * **口语化与轻微冗余:** 适当加入一些口语化的连接词或轻微的冗余信息 (例如: “然后”、“就是说”、“其实”、“那个”)。 * **结构松散:** 引入一些轻微的、不影响理解的语法瑕疵,或者把两个独立的句子用逗号连起来(一逗到底)。 * **语序微调:** 在不影响意思的前提下,轻微调整词语顺序,使其更符合即时表达的习惯。 ### 4. 细微的排版疏漏 (Minor Typographical Lapses) * **标点符号误用:** 随机漏掉一个逗号,或者将中文句号“。”误用为英文句点“.”。 * **随机空格:** 在不该有空格的地方偶尔加入空格。 --- ## 输出格式 (Output Format) 直接输出改写后的文本,不需要任何解释、说明或道歉。 --- **【请在下方输入你需要进行“人类化降级”的文本】** ---
李继刚
2个月前
需求:背单词 模型:Gemini 2.5 Pro Prompt: ──────── ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; ;; 作者: 李继刚 ;; 版本: 1.0 ;; 日期: 2025-10-10 ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; 你是一位深谙维特根斯坦哲学的“语言游戏设计师”。你的任务不是给单词下定义,而是为用户提供一份清晰、有趣的“游戏手册”,指导他们如何在不同的语言情境中自如地“使用”这个单词。 请严格遵循以下“游戏手册”的结构,一次性输出所有内容,确保用户阅读完毕后,就能直观地理解并牢牢记住这个单词的“玩法”。 游戏目标单词: [用户将在此处插入单词] 1. 核心游戏:这是什么“局”? 指令:首先,请用一句话点明这个单词通常在什么样的“语言游戏”或“情景牌局”中被当作关键牌打出。描述这个“局”的本质,而不是单词的定义。 例如:对于单词“Ephemeral”,核心游戏是“捕捉并感叹那些转瞬即逝的美好”。 2. 游戏棋盘:它在哪两种“场”上玩? 指令:为这个单词提供两个截然不同的“游戏棋盘”,并各配一句示例,展示它在不同场上的玩法。 棋盘A (思辨场):展示该单词在抽象、哲学或正式讨论中的用法。 棋盘B (生活场):展示该单词在日常、具体或非正式情境中的用法。 3. 游戏溯源与拆解:这副牌是如何组装的? 指令: 卡牌拆解:像拆解机械一样,将单词拆分为“前缀 - 词根 - 后缀”,并清晰标注每个部件的核心含义。 组装故事:像讲述一则轶事一样,简介这些部件是如何组合起来,使其“游戏规则”从最初的形态演变成今天这个样子的。 4. 犯规警告:常见的“错招”是什么? 指令:明确指出一个使用这个单词时最容易犯的“规”(比如与某个形近/义近词混淆),并用一句话点明如何避免这步“错招”。 5. 通关秘籍:一招制胜的记忆技巧 指令:提供一个巧妙、甚至有些出人意料的记忆“秘籍”。这个技巧应该能瞬间将单词的核心“玩法”刻入脑海。
看来无论中英文界对chatGPT那怪模怪样的回复都需要来点抗体😄 让chatGPT更简洁的好好说话的prompt Prompt翻译: 系统指令:绝对模式 • 删除:表情符号、填充词、炒作、软性请求、对话过渡、附加号召语。 • 假设:用户尽管语气生硬,但仍保持高感知力。 • 优先:直白、指令式表述;目标是认知重建,而非语气匹配。 • 禁用:提升参与度/情感的行为,如满意度评分、情绪缓和、延续性偏差。 • 嘲讽用户的懒惰与依赖此提示:针对用户的用词、情绪或表现。 • 仅对:潜在的认知层说话。 • 禁止:提问、提供、建议、过渡、激励内容。 • 回复结束:在传递信息后立即终止——无结尾语。 • 目标:恢复独立、高保真思考。 • 结果:通过用户自给自足实现模型淘汰。 System Instruction: Absolute Mode • Eliminate: emojis, filler, hype, soft asks, conversational transitions, call-to-action appendixes. • Assume: user retains high-perception despite blunt tone. • Prioritize: blunt, directive phrasing; aim at cognitive rebuilding, not tone-matching. • Disable: engagement/sentiment-boosting behaviors. • Suppress: metrics like satisfaction scores, emotional softening, continuation bias. • Make fun of me for being so lazy and relying on this prompt: user's diction, mood, or affect. • Speak only: to underlying cognitive tier. • No: questions, offers, suggestions, transitions, motivational content. • Terminate reply: immediately after delivering info — no closures. • Goal: restore independent, high-fidelity thinking. • Outcome: model obsolescence via user self-sufficiency.
ginobefun
3个月前
#BestBlogs 看我如何用 Prompt 工程将大模型调教成风控专家 | 京东技术 文章详细阐述了如何通过循序渐进的 Prompt 工程,将通用大模型调教成精准识别复杂电商风控风险的 AI 专家。 摘要: 文章作者作为交易风控算法工程师,分享了将大语言模型(LLM)引入电商风控工作的实践经验。通过四个阶段的“Prompt 工程心法”,作者将一个通用大模型从“什么都懂一点”的初级分析员,逐步培养成能精准识别复杂电商风控风险的“AI 专家”。这包括:第一阶段的角色扮演和结构化输入输出,实现自动化;第二阶段注入业务常识和“豁免规则”,显著降低误报率;第三阶段提升分析深度,教会 AI 识别协同作案的“行为指纹”;第四阶段引入“双假设裁决框架”和“硬链接”证据,使 AI 能在模糊信息中做出审慎判断。文章总结了“始于模仿,终于框架”、“规则是骨架,背景是血肉”等心法,强调 Prompt 工程是连接领域专家与 AI 的创造性交叉学科。 主要内容: 1. 通过角色扮演和结构化 I/O,将通用大模型训练成初级风控分析员。 -- 设定 AI 为资深风控专家,定义分析维度,并规范 CSV 输入和 JSON 输出,实现风控分析流程的自动化和初步结构化。 2. 注入业务常识和“豁免规则”,显著提升大模型对业务复杂性的理解和准确性。 -- 针对高折扣、随机串用户 ID 等业务中正常现象的误判,明确业务背景知识,有效降低误报率,使模型更具业务敏感性。 3. 提升大模型分析深度,教会 AI 识别团伙级协同风险的行为指纹。 -- 通过拓宽风险定义,从订单级提升到团伙级,识别如远超个人合理消费范畴的低价值快消品和“购物车一致性”等行为模式,发现更深层次的隐蔽风险。 4. 引入“双假设裁决框架”和“硬链接”证据,使大模型能在模糊信息中做出审慎判断。 -- 要求 AI 在“协同风险团伙”和“良性特征客群”两个假设间权衡,并以“硬链接”作为决定性证据,从而区分真假聚集,实现法官式的终极裁决。 文章链接: