时政
财经
科技
虚拟货币
其他
登录
#Artifact重开
关注
Latte
1天前
Claude 对话超出限制?终于摸透了解决办法 用 Claude 最烦的事,就是突然弹出"对话已达最大长度"。前面建立的所有上下文都没用了,又得重新解释。 这里分享三个急救办法: 方法一:让 Claude 自己总结 编辑你最后一条消息(注意是你发的,不是 Claude 的回复),让它生成对话总结: “总结这次对话的核心内容: - 问题是什么,后来怎么变化的 - 找到了哪些关键解决方案 - 我的工作习惯和偏好 - 用过的例子和项目背景 - 接下来要做什么 要详细,新对话能直接接上” 复制总结,开新对话贴进去,说明要继续做什么。新对话有完整的 20 万 token 空间。 提醒:总结会丢失细节。建议在用到七八成容量时就这么做,别等到满了再救场。 方法二:用 Artifact 重开 如果在写代码或文档,这些内容都在 artifact 里: 点 Publish → 打开链接 → 点 Customize 这样就有了全新对话,但你的内容还在。之前那些乱七八糟的探索过程不会占新空间。 方法三:搜索旧对话 Pro 版本可以在新对话里引用之前的内容: "找到我们分析用户留存率的那次对话,继续优化方案。” Claude 会搜索并提取相关内容。适合快速查资料,不适合传递复杂项目状态。 如果不想再遇到这个问题 最重要的技巧:改变迭代方式 这个能省 80% 的上下文消耗。 以前怎么做:Claude 生成内容 → 发现问题 → 让它改 → 又生成一遍 → 又发现问题 → 又让它改。 十轮下来,烧掉 25,000 多 token。因为每次都在累积:你的修改要求加上 Claude 的完整输出。 正确做法: 1. Claude 生成了内容 2. 发现问题后,编辑你的原始 prompt 3. 在 prompt 里加入修改要求 4. 保存并重新生成 这样是在替换,不是累积。传统方法每次迭代增加 6 项,编辑只增加 2 项,省掉 67%。 十次迭代,从 25,000 降到 3,000 token,减少 88%。 配置 Memory 功能 Claude 每天会自动从对话中提取记忆:你的工作习惯、技术选择、项目细节。 关键在于这些记忆不占用当前对话的空间,只在需要时才调用相关部分。 该存什么: - 回复偏好:你习惯看详细解释还是简短总结,要不要示例 - 专业背景:你的领域、常用工具、工作角色 - 项目信息:在做什么类型的项目,目标和约束条件 - 交流风格:正式还是随意,专业术语还是通俗表达 别存什么: - 经常变动的信息 - 密码等敏感数据 效果很明显。以前开新对话要花几分钟解释背景,现在直接开工,因为 Claude 已经知道你的设置。 在设置 → Memory 里可以查看和管理记忆内容。 写简洁的 Prompt,每个字都会被计数 "按钮改成蓝色" = 5 token "能不能把这个按钮组件的样式改成蓝色,不要现在的颜色" = 50+ token 信息一样,token 差 10 倍。 把 Claude 当新来的实习生,说话要清楚直接。 别说:"请帮我写一份关于项目进展的总结报告,需要包含各个部分的详细说明,确保语言专业且易于理解..." 直接说:"总结项目进展:完成了什么,遇到什么问题,下一步计划。用简单的语言" 另外,不要一次性塞给 Claude 所有信息。 分阶段加载:先让它读资料,再让它做计划,最后才开始执行。 为什么限制其实是好事 有些 AI 让你无限聊下去,听着不错,实际上质量在悄悄变差。新消息进来,旧的被挤出去。表面上对话永不停止,实际上不断遗忘早期内容。会出现自相矛盾的回复。 Claude 的做法相反:保持完整历史,到达限制时明确提示。你清楚知道发生什么,可以做出明智选择。 研究数据:在 32,000 token 时,测试的 12 个模型里有 11 个表现掉到 50% 以下。 Claude 的 20 万限制是经过验证的。在这个范围内质量稳定,并且到限制时清楚提示,让你主动决定下一步。 知道界限在哪,你才能提前规划,而不是用到崩溃才发现。
AI编程工具激战:Claude Code、Gemini Cli崛起· 1151 条信息
#Claude使用技巧
#对话长度限制
#Prompt优化
#Artifact重开
#Memory功能配置
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞