时政
财经
科技
虚拟货币
其他
登录
#prompt设计
关注
johann.GPT
1个月前
Anthropic 这个文章,挺有意思的,很久之前其实我们就在讨论什么才是 AI Native,在我们对比 Cursor 和 Cline 的做法的时候,我们发现 Cline 从一开的做法,就是和 Anthropic 是一致的。 以前模型能力不行,我们要在 prompt 里写死每一步:"先做 A,再做 B,然后做 C"; 现在模型更聪明了,我们只需要说"这是你的目标,这些是你的工具,自己看着办",让 Agent 自主决策。 里面的关键是做好四件事:写清晰的 prompt、设计高效的工具、用即时检索代替预加载、管理好有限的 context 窗口(通过压缩、笔记或拆分 sub agent 等方式)。
#多智能体之争:Anthropic生态VS单智能体· 80 条信息
#AI native
#Anthropic
#Agent自主决策
#prompt设计
#Context窗口管理
分享
评论 0
0
Geek
2个月前
Structured Prompt Builder 一个用于帮助用户系统化、结构化地构建高质量提示词(Prompt)的开源工具。旨在简化与大型语言模型(LLM)交互的过程,使用户能够更清晰、高效地设计提示,从而获得更准确、一致和可预测的模型输出。
谷歌Deep Research:AI操作系统雏形?· 143 条信息
#开源工具
#提示词构建
#大型语言模型
#LLM交互
#prompt设计
分享
评论 0
0
howie.serious
5个月前
很多人问 “泄露天机”级别的deep research 翻译,prompt到底是什么。 来,接着!👇 > 把这篇文章全文翻译为中文,保留文章结构; > > 输出中英对照版本,一段英文,一段中文,英文在前,中文在后; > > 注意使用 paul graham 的风格,语言简洁,真诚,思想有深度; 是不是很朴素?一点都不高级?🤣 但这样的prompt真的足够了!之前推文里没说,也是因为只要把翻译需求用人话说清楚就可以,我才觉得没必要发prompt。 我的公众号里,凡是双语对照的文章,例如十几篇paul graham杂文(链接放评论区),都是用这个prompt翻译。(如果没坏,就没必要修。所以,我也一直没迭代🤣) 根本不需要深奥的、不明觉厉的那种prompt!模型即产品!省出时间来用最好的模型就行了! 另外,提供一个tip:把要翻译的文章,用chrome插件Markdonload一键下载为markdown文件,作为附件上传。这比让chatgpt联网访问更稳。 使用deep research时,研究阶段的底层模型都是o3,明确需求阶段,model picker选哪个几乎没有区别,不放心的话尽量选o3或gpt-4.5呗。 评论区是双语文章实例。看一眼效果。
#Deep Research
#prompt设计
#翻译技巧
分享
评论 0
0
Larry & Leo Bro - Eagle of Full Stack
5个月前
2 个 prompt,用 做了个家庭成员、事件、故事管理系统。太牛了!prompt 见回复。
#prompt设计
#家庭系统
#信息管理
#创新应用
分享
评论 0
0
凡人小北
6个月前
建议大家,别在简历里写“熟悉 RAG”了,或者面试前好好学学。 我面试过不少人,说熟悉 RAG,结果一问就穿帮。 RAG 绝大多数工程师只碰到前半段: 拿个 LangChain,上个向量库,把 chunk 和 embedding 丢进去跑个检索; 看起来跑通了,实际啥也没掌握。 但只要你简历上写了,面试官就会问你下面这些(当然不写也不一定逃得过): - chunk 是怎么切的?固定?语义?还是自适应? - embedding 模型选型和维度怎么来的? - rerank 用没用?怎么融合 BM25 和 dense 检索? - prompt 是你写的吗?有没有评估 hit rate、hallucination? 说实话,不是算法出身的人,如果没系统做过推荐系统或者检索优化,很多人说不清。 RAG 的前半段几乎就是推荐系统那套召回 + 排序 + 精排的逻辑: embedding = 向量化特征建模 检索 = 多路召回 rerank = 打分排序 但后半段还多了 prompt 设计、上下文拼接、生成模型行为控制这几个大坑。 所以我劝一句: RAG 真不是写个向量库调用就叫“熟悉”。写了,面试官只会当你能答全链。 别轻易说“熟悉”或“掌握”,你扛不住问。
谷歌Deep Research:AI操作系统雏形?· 143 条信息
#RAG面试
#LangChain
#向量数据库
#检索优化
#prompt设计
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞