Mr Panda
0 关注者
howie.serious
3周前
对比下两种不同的说法: 1)书,在未来会成为“embedding化的智能副本” 2)“把这本书RAG一下” 更具体一点,多说一句话来解释:把一本书的文本切块,处理成高维向量(embedding)后放进向量数据库(vector DB);读者可以直接对书(的embedding)提问,用相似度算法把最相关段落检索出来,然后llm基于这本书的内容来回答读者问题。 简称为“RAG”。
凡人小北
4个月前
建议大家,别在简历里写“熟悉 RAG”了,或者面试前好好学学。 我面试过不少人,说熟悉 RAG,结果一问就穿帮。 RAG 绝大多数工程师只碰到前半段: 拿个 LangChain,上个向量库,把 chunk 和 embedding 丢进去跑个检索; 看起来跑通了,实际啥也没掌握。 但只要你简历上写了,面试官就会问你下面这些(当然不写也不一定逃得过): - chunk 是怎么切的?固定?语义?还
宝玉
8个月前
DailyDoseofDS 这个图把传统 RAG 和 Agentic RAG 之间的差异分的比较清楚。 传统 RAG 就是先把文档向量化保存到向量数据库,然后在用户查询时,对用户的问题也做向量化,从向量数据库中找到相关的文档,再把问题和找出来的结果交给 LLM 去总结生成。 这种方式的优点就是简单,由于不需要太多次和 LLM 之间的交互,成本也相对低,但缺点是经常会因为做相似检索时,找不到合
biantaishabi
给我的机器人加了几个工具: 编辑文件,他需要编辑部分而不是每次都是全部更新整个文件; 增加经验,(这个还需要一个搜索的,所以以后应该会把他每天批量移到一个向量数据库理让机器人搜索,以后动态构建系统提示词); 查文档的,这个项目比较简单让他读文件,还做了一个查rag的 我的机器人laoded了