#Cline

2周前
RAG 向量 实时搜索大混战,cursor cline windsurf aider claude code大比拼 第一组:完全抛弃RAG的实时搜索派 Cline 和 Claude Code 相似点:都完全放弃了传统的RAG方法,采用实时动态搜索 区别: - Cline使用ripgrep等文件系统工具进行正则搜索,模拟人类开发者的代码探索方式 - Claude Code使用”agentic search”,通过grep、glob等标准开发工具,由AI模型动态编排多轮搜索 第二组:基于图结构的智能索引派 Aider 独树一帜 使用AST+图结构,将代码文件作为节点,依赖关系作为边,通过自定义排名算法(不是PageRank)优化代码映射 第三组:混合RAG+高级技术派 Cursor 和 Windsurf 相似点:都使用embeddings向量化+RAG,但加入了很多高级技术 区别: - Cursor:使用OpenAI的embedding模型+TurboPuffer向量数据库,实验DSI技术,支持云端分布式架构 - Windsurf:使用”M-Query技术”+本地/远程混合索引,专注企业级部署,有Cascade代理系统 技术路线的哲学差异 实时派(Cline/Claude Code)认为准确性和实时性比效率更重要,愿意用更高的token消耗换取完美的代码同步。 图结构派(Aider)把代码理解当作图优化问题而非语义相似性问题,在结构化理解方面表现出色。 混合派(Cursor/Windsurf)试图在效率和准确性之间找平衡,通过技术创新提升传统RAG的性能。 性能特点对比 Aider:token使用最少(1-8K),线性扩展,但无法理解运行时行为 Cline:数据完全同步,但token消耗较高,依赖文件系统性能 Cursor:查询响应快,处理大代码库好,但有embedding模型限制 Windsurf:延迟极低,内存使用高效,但需要大量初始索引时间 Claude Code:准确度最高,无需维护索引,但成本极高(有用户每天消费数千美元) 总的来说,业界正在从静态预索引向动态、探索性系统转变,你的记忆是对的 - Aider确实使用AST,但用的是图算法而不是PageRank;Claude Code确实不用RAG,直接用grep等工具进行搜索。
4个月前
openrouter(.)ai 排行榜第一名的Coding Agent --Cline--是如何工作的? 我用一个例子来分析 Cline 在内部是如何生成 prompt 调用 DeepSeek R1 完成任务的。 总结 1️⃣ Cline 是一个 ReACT 思维链循环 Agent Cline 作为一个 Agent 模式的 Coding 助手,可以自主思考、生成代码、执行工具(完成代码编辑)、感知 VS Code 上下文。 如果允许 Cline 自动执行所有操作,则它会一直运行下去直到它认为完成了任务,期间不需要人工干预。 画面很美好,代价也很高 2️⃣ Cline 对 Token 的消耗量巨大 这么简单的一个任务,累计消耗 token 数 1 百万,约花费 0.5 元。Cline 消耗 token 的速度实在太快了。 如果服务端支持 prompt cache,则可以显著的降低 API 调用成本。 3️⃣ 基于 prompt 也能搭建 Agent 应用 Cline 的 prompt 里包含了所有 tool 的定义、例子,使用 xml 标签来管理,并没有使用 JSON 格式来定义。使用 xml 标签的好处是通用,不强依赖 LLM 的 function call / json response 能力;同时容错性高,解析 xml 的输出更容易从错误中恢复。 上述测试过程中,即使强如 DeepSeek R1,也没有准确的遵循 system prompt,生成的 response 包含了多个 tool 调用。 Cline 对此也能即使中断模型输出。虽然 Cline 声称是基于 Claude 3.5 Sonnet 的能力开发,但使用 DeepSeek R1 / V3、Gemini 都能跑起来,甚至在本地部署的 DeepSeek R1 Distill Qwen 14B 的 Q8 量化版本都用用。 Cline 对整个 Agent 工作流程的设计,也对 Agent 应用开发有启发意义,值得借鉴参考。