𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
LLM客户端并无真正的“长期记忆”,而是通过“结构化存储 + 动态重构prompt”的方式模拟记忆。 长会话上下文的核心任务在于取舍与压缩: •哪些历史内容保留? •哪些内容通过摘要或检索再现? •如何让prompt在token限制下仍保持语义连续? 设计RAG,agent多轮对话,或者多agent与LLM交互,也要过类似LLM客户端上下文管理这一关! 否则就是RAG猜,agent演,然后老板
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
人的智能演化,是trial & error的反馈循环,形成可泛化的行为模式; 山谷里那片果树林一被发现,一传十十传百,过一段时间就没了,知道四季轮回的,明年还可以再来。这就是长期记忆以及善于总结规律的预测能力。
央视网-新华网
1个月前
北京计划到2026年底发展通用人工智能产业创新伙伴成员规模至1000家