𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2天前
LLM客户端并无真正的“长期记忆”,而是通过“结构化存储 + 动态重构prompt”的方式模拟记忆。 长会话上下文的核心任务在于取舍与压缩: •哪些历史内容保留? •哪些内容通过摘要或检索再现? •如何让prompt在token限制下仍保持语义连续? 设计RAG,agent多轮对话,或者多agent与LLM交互,也要过类似LLM客户端上下文管理这一关! 否则就是RAG猜,agent演,然后老板
dontbesilent
1周前
视频号用户画像