Mr Panda
0 关注者
狂奔滴小马
3周前
什么向量数据库,如何对接 vercel ai sdk?
Y11
1个月前
听了Zilliz创始人Charles的分享,我有几点收获笔记跟大家分享: 五年前我们开始做向量数据库时,这还算是个相对前沿的技术方向。 直到2023年随着RAG技术的成熟,这个领域才真正具备了商业化的可能性。 这让我想到,有些技术的价值需要时间来验证,过早商业化往往会遇到很多问题。 作为基础设施软件领域的创业者,我们早期也面临着商业化困难的挑战。 坚持投入了五年时间,团队累计投入了约30
howie.serious
2个月前
对比下两种不同的说法: 1)书,在未来会成为“embedding化的智能副本” 2)“把这本书RAG一下” 更具体一点,多说一句话来解释:把一本书的文本切块,处理成高维向量(embedding)后放进向量数据库(vector DB);读者可以直接对书(的embedding)提问,用相似度算法把最相关段落检索出来,然后llm基于这本书的内容来回答读者问题。 简称为“RAG”。
凡人小北
5个月前
建议大家,别在简历里写“熟悉 RAG”了,或者面试前好好学学。 我面试过不少人,说熟悉 RAG,结果一问就穿帮。 RAG 绝大多数工程师只碰到前半段: 拿个 LangChain,上个向量库,把 chunk 和 embedding 丢进去跑个检索; 看起来跑通了,实际啥也没掌握。 但只要你简历上写了,面试官就会问你下面这些(当然不写也不一定逃得过): - chunk 是怎么切的?固定?语义?还
宝玉
9个月前
DailyDoseofDS 这个图把传统 RAG 和 Agentic RAG 之间的差异分的比较清楚。 传统 RAG 就是先把文档向量化保存到向量数据库,然后在用户查询时,对用户的问题也做向量化,从向量数据库中找到相关的文档,再把问题和找出来的结果交给 LLM 去总结生成。 这种方式的优点就是简单,由于不需要太多次和 LLM 之间的交互,成本也相对低,但缺点是经常会因为做相似检索时,找不到合