时政
财经
科技
虚拟货币
其他
登录
#agent多轮对话
关注
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2天前
LLM客户端并无真正的“长期记忆”,而是通过“结构化存储 + 动态重构prompt”的方式模拟记忆。 长会话上下文的核心任务在于取舍与压缩: •哪些历史内容保留? •哪些内容通过摘要或检索再现? •如何让prompt在token限制下仍保持语义连续? 设计RAG,agent多轮对话,或者多agent与LLM交互,也要过类似LLM客户端上下文管理这一关! 否则就是RAG猜,agent演,然后老板会说,就这?项目就黄了。
#多智能体之争:Anthropic生态VS单智能体· 58 条信息
#LLM客户端
#长期记忆
#结构化存储
#动态重构prompt
#RAG
#agent多轮对话
#上下文管理
#项目失败
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞