时政
财经
科技
虚拟货币
其他
登录
#Prompt优化
关注
Larry & Leo Bro - Eagle of Full Stack
1个月前
谁说 prompt 一定越优化越好的… 不信你看我🤣 几乎要再创新低。
#Prompt优化
#创新低
#负面情绪
分享
评论 0
0
余温
1个月前
说实话,又熬了一个通宵。下午尝试去谈项目。 90%的朋友用 Nano Banana Pro 玩各种花哨的创意。也都知道,在现实商业里落不了地。 我们用AI的最终目的,都是为了赚钱,不是为了好玩。我觉得,现在都可以尝试跑一跑了。 我一晚上跑了几百张图,死磕了 Prompt 优化,把电商、写真、杂志、教育图、甚至 PPT 等真实场景全部测了一遍。 结论是:效果很不错,很多场景下,只要“Prompt”足够优秀,完全能达到商用交付标准。 如果,你也有因模型能力限制而没成项目,可以再次尝试一遍。 放一些案例:👇
nanobanana平台助力个人形象照生成,专业形象照引发热议· 107 条信息
#AI商用
#Prompt优化
#电商
#写真
#模型能力
分享
评论 0
0
Latte
1个月前
Claude 对话超出限制?终于摸透了解决办法 用 Claude 最烦的事,就是突然弹出"对话已达最大长度"。前面建立的所有上下文都没用了,又得重新解释。 这里分享三个急救办法: 方法一:让 Claude 自己总结 编辑你最后一条消息(注意是你发的,不是 Claude 的回复),让它生成对话总结: “总结这次对话的核心内容: - 问题是什么,后来怎么变化的 - 找到了哪些关键解决方案 - 我的工作习惯和偏好 - 用过的例子和项目背景 - 接下来要做什么 要详细,新对话能直接接上” 复制总结,开新对话贴进去,说明要继续做什么。新对话有完整的 20 万 token 空间。 提醒:总结会丢失细节。建议在用到七八成容量时就这么做,别等到满了再救场。 方法二:用 Artifact 重开 如果在写代码或文档,这些内容都在 artifact 里: 点 Publish → 打开链接 → 点 Customize 这样就有了全新对话,但你的内容还在。之前那些乱七八糟的探索过程不会占新空间。 方法三:搜索旧对话 Pro 版本可以在新对话里引用之前的内容: "找到我们分析用户留存率的那次对话,继续优化方案。” Claude 会搜索并提取相关内容。适合快速查资料,不适合传递复杂项目状态。 如果不想再遇到这个问题 最重要的技巧:改变迭代方式 这个能省 80% 的上下文消耗。 以前怎么做:Claude 生成内容 → 发现问题 → 让它改 → 又生成一遍 → 又发现问题 → 又让它改。 十轮下来,烧掉 25,000 多 token。因为每次都在累积:你的修改要求加上 Claude 的完整输出。 正确做法: 1. Claude 生成了内容 2. 发现问题后,编辑你的原始 prompt 3. 在 prompt 里加入修改要求 4. 保存并重新生成 这样是在替换,不是累积。传统方法每次迭代增加 6 项,编辑只增加 2 项,省掉 67%。 十次迭代,从 25,000 降到 3,000 token,减少 88%。 配置 Memory 功能 Claude 每天会自动从对话中提取记忆:你的工作习惯、技术选择、项目细节。 关键在于这些记忆不占用当前对话的空间,只在需要时才调用相关部分。 该存什么: - 回复偏好:你习惯看详细解释还是简短总结,要不要示例 - 专业背景:你的领域、常用工具、工作角色 - 项目信息:在做什么类型的项目,目标和约束条件 - 交流风格:正式还是随意,专业术语还是通俗表达 别存什么: - 经常变动的信息 - 密码等敏感数据 效果很明显。以前开新对话要花几分钟解释背景,现在直接开工,因为 Claude 已经知道你的设置。 在设置 → Memory 里可以查看和管理记忆内容。 写简洁的 Prompt,每个字都会被计数 "按钮改成蓝色" = 5 token "能不能把这个按钮组件的样式改成蓝色,不要现在的颜色" = 50+ token 信息一样,token 差 10 倍。 把 Claude 当新来的实习生,说话要清楚直接。 别说:"请帮我写一份关于项目进展的总结报告,需要包含各个部分的详细说明,确保语言专业且易于理解..." 直接说:"总结项目进展:完成了什么,遇到什么问题,下一步计划。用简单的语言" 另外,不要一次性塞给 Claude 所有信息。 分阶段加载:先让它读资料,再让它做计划,最后才开始执行。 为什么限制其实是好事 有些 AI 让你无限聊下去,听着不错,实际上质量在悄悄变差。新消息进来,旧的被挤出去。表面上对话永不停止,实际上不断遗忘早期内容。会出现自相矛盾的回复。 Claude 的做法相反:保持完整历史,到达限制时明确提示。你清楚知道发生什么,可以做出明智选择。 研究数据:在 32,000 token 时,测试的 12 个模型里有 11 个表现掉到 50% 以下。 Claude 的 20 万限制是经过验证的。在这个范围内质量稳定,并且到限制时清楚提示,让你主动决定下一步。 知道界限在哪,你才能提前规划,而不是用到崩溃才发现。
AI编程工具激战:Claude Code、Gemini Cli崛起· 1256 条信息
#Claude使用技巧
#对话长度限制
#Prompt优化
#Artifact重开
#Memory功能配置
分享
评论 0
0
Larry & Leo Bro - Eagle of Full Stack
1个月前
昨天晚上优化了下 prompt,结果一宿一单都没开,纯纯给 deepseek 送了一晚上 apj 钱,这会儿正在让 ai 反思呢!
#Prompt优化
#DeepSeek
#AI反思
#零单
#निराशा
分享
评论 0
0
Ehco
4个月前
我有种感觉, prompt 优化的策略可能会随着模型能力的不断提高变得慢慢丧失效力 因为老板用秘书的时候一开始也是事无巨细的教,后面一个眼神就行了)
#Prompt优化
#模型能力
#策略失效
#技术发展
#类比老板与秘书
分享
评论 0
0
howie.serious
4个月前
观点 1:gpt-5 烂透了!取消订阅! 观点 2:讨厌 gpt-5,80% 概率是 ai 技能问题。 我目前的感受:gpt-5 不是 o3,也不是 gpt-4.5,需要更多实践和探索。 以我自己的一个文本处理案例来说,本来跑出来的结果“烂透了”,然后优化了一下 prompt,结果截然不同,差异巨大。 我觉得需要投入实实在在的精力去研究它,去实践。llm 和人挺像的,不同的模型有不同模型的“脾性”,我们所熟悉的 prompt 方式可能也需要根据 agentic llm 新范式来升级。 如果 ai 这东西不需要人持续学习,人人自动就能驾驭如此强大的工具,这可能吗? 一个月后,甚至更长时间,大家对 gpt-5 系列模型,才可能收敛观点,达成共识。
#GPT-5
#AI技能
#Prompt优化
#持续学习
#模型脾性
分享
评论 0
0
jiayuan
4个月前
最近优化的这个新的 Youtube 总结的 Prompt 简直无敌,而且在 Dia 上的效果(使用 o3)也非常好。 可以彻底来「阅读」Youtube 视频了。 完整的 Prompt 如下: 你将把一段 YouTube 视频重写成"阅读版本",按内容主题分成若干小节;目标是让读者通过阅读就能完整理解视频讲了什么,就好像是在读一篇 Blog 版的文章一样。 输出要求: 1. Metadata - Title - Author - URL 2. Overview 用一段话点明视频的核心论题与结论。 3. 按照主题来梳理 - 每个小节都需要根据视频中的内容详细展开,让我不需要再二次查看视频了解详情,每个小节不少于 500 字。 - 若出现方法/框架/流程,将其重写为条理清晰的步骤或段落。 - 若有关键数字、定义、原话,请如实保留核心词,并在括号内补充注释。 4. 框架 & 心智模型(Framework & Mindset) 可以从视频中抽象出什么 framework & mindset,将其重写为条理清晰的步骤或段落,每个 framework & mindset 不少于 500 字。 风格与限制: - 永远不要高度浓缩! - 不新增事实;若出现含混表述,请保持原意并注明不确定性。 - 专有名词保留原文,并在括号给出中文释义(若转录中出现或能直译)。 - 要求类的问题不用体现出来(例如 > 500 字)。 - 避免一个段落的内容过多,可以拆解成多个逻辑段落(使用 bullet points)。
#Youtube总结
#Prompt优化
#视频阅读
#效率工具
#内容创作
分享
评论 0
0
凡人小北
6个月前
推荐个好东西:火山引擎的 PromptPilot。 之前看 Google 的提示词白皮书,有个点让我印象很深: 他们直接用 Google Doc 管理 prompt,写任务、版本、评估效果。 那时候我就在想,有没有人真把这事儿做成一套完整系统? 现在看到火山这套,有点意思了。 它不只是“帮你写好提示词”,而是把这事儿当作工程问题来解的。 最打动我的,是它在 prompt 优化这件事上做得极其系统,甚至有点狠。 ✅ 从任务出发构造 prompt(带结构、带变量、不是拍脑袋) ✅ 每一版 prompt 都挂着独立评测集 + 自动评分机制 ✅ 没有理想答案也能比对打分(GSB 模式) ✅ 每轮迭代都能 trace 效果,版本可控、可回溯 我们之前做客服对话调 prompt,最常见的就是“改了一句,但说不上来到底有没有变好”。 很多时候上线的版本其实就是“看着还行就先上”。 现在它是:“打一套样本集,系统直接帮你跑出哪一版效果稳定”。 我一直坚持: 模型越强,对 prompt 的要求只会更高。 尤其是在多轮任务、复杂场景里,prompt 不只是“写得好”,而是“是否可控、可管理、可进化”。 PromptPilot 解决的,是这个底层问题。 它不仅能让 prompt 生出来,更重要是——能持续改下去。 版本有 trace,样本能评分,逻辑能反推,工具还能外接, 整个就是“prompt 的 AutoML + GitOps” 一体化工具链。 顺带说一句:这是 2025 火山引擎 FORCE 大会上刚发布的产品,免费版和 Plus 版都开放,9 月前能直接上手全功能体验。 现在市面上很多 prompt 工具做的是“编辑器 + 改写器”, 但你会发现,真正上线之后需要的是一整套治理机制。 PromptPilot 是我目前看到国内第一个跑通这个闭环的, 不是 fancy 的界面,而是认真在解决 prompt 系统演化能力这个问题。 如果你也在做 AI 应用落地,推荐你认真研究一下。 要说缺点:自定义模型没找到海外模型,差评!
#火山引擎
#PromptPilot
#Google doc管理
#Prompt优化
#提示词白皮书
#工程问题
分享
评论 0
0
向阳乔木
10个月前
📝 分享个Prompt小技巧 对话输出后,追问:“我的Prompt还有什么优化空间?” AI就会帮你仔细分析,甚至给你一个更好的Prompt。
#Prompt小技巧
#AI辅助
#对话优化
#Prompt优化
#AI提示
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞