wuw
2天前
wuw
2天前
Ryan-the-hito
5天前
dontbesilent
6天前
宝玉
1周前
一句简单的提示词就可以让 LLM 在翻译的时候更好的“意译” 以前为了让 LLM 达到更好的翻译效果,我尝试了很多方式,比如最初的先直译再意译,后来的直译、反思和意译。虽然效果好了,但是却复杂了。 现在随着模型能力增强,不再追求复杂的提示词技巧,而是尝试返璞归真,找到更好更简单的提示词方法。 我发现对于翻译的任务,有时候翻译的效果过于生硬,恰恰在于给模型的任务是“翻译”,因为是翻译,所以模型会尝试按照字面意思去翻译,尽量还原原始的格式,但也造成一些翻译过于直白和生硬。 这就像我们在学英语的时候,老师让我们去把英文翻译成中文,通常就会按照英文的单词和句式去翻译,但是如果老师让我们用中文“重写”而不是翻译,那么就可以自由的多,只需要去理解原来英文的意思,用中文的方式去重新表达,反而效果好很多。 所以我最近尝试了在做翻译任务的时候,让大语言模型去用“目标语言重写”而不是“翻译”,效果果然大不一样,结果不再拘泥于原有语言的格式语法,而是用更自然的方式表达出来。 比如说昨天 OpenAI 星际之门的公告,最后一句话: “We want to connect with firms across the built data center infrastructure landscape, from power and land to construction to equipment, and everything in between.” 如果“翻译”,就是按照字面意思: “我们希望与整个数据中心基础设施领域的企业建立联系,从电力和土地到建设再到设备,以及这其中的所有环节。” 如果“用中文重写”,就自然的多: “我们希望与整个数据中心基础设施领域的企业建立联系,包括电力和土地、建筑施工、设备等各个方面的合作伙伴。” 至于提示词,则很简单: “请尊重原意,保持原有格式不变,用简体中文重写下面的内容:” or "Please respect the original meaning, maintain the original format, and rewrite the following content in Simplified Chinese:" 翻译其他语言也类似,只要把提示词中目标语言部分换掉即可。 欢迎分享你用这个提示词成功或者失败的案例。
宝玉
2周前
DailyDoseofDS 这个图把传统 RAG 和 Agentic RAG 之间的差异分的比较清楚。 传统 RAG 就是先把文档向量化保存到向量数据库,然后在用户查询时,对用户的问题也做向量化,从向量数据库中找到相关的文档,再把问题和找出来的结果交给 LLM 去总结生成。 这种方式的优点就是简单,由于不需要太多次和 LLM 之间的交互,成本也相对低,但缺点是经常会因为做相似检索时,找不到合适的结果,而导致生成结果不理想。 Agentic RAG 则是在过程中引入 AI 智能体: - 先对用户的查询内容用智能体进行重写,比如修正拼写错误等 - 智能体判断是不是还需要额外的信息,比如可以去搜索引擎搜索,或者调用工具获取必要的信息 - 当 LLM 生成内容后,在返回给用户之前,让智能体去检查答案是不是和问题相关,是不是能解决用户的问题,如果不行,则返回第一步,修改查询内容,继续迭代,直到找到相关的内容,或者判断该问题无法回答,告知用户结果。 当然这样做的缺点是成本要相对高一些,并且耗时会更长。
Mr Panda
3周前
𝘁𝗮𝗿𝗲𝘀𝗸𝘆
4周前
单方面宣布 Project DIGITS 是我今年最想拥有的产品 128G 统一内存 1000 TFLOPS 的 FP4 算力(5090 大概是 104.8 TFLOPS 的 FP16 算力 能本地跑 200b 的 LLM(还可以两个 link 起来跑 405b 的 强到没朋友的情况下还这么小巧好看(Mac mini 那么大 女大遥遥领先到友商车连尾灯都看不见
源Genji
4周前
anton
1个月前