时政
财经
科技
虚拟货币
其他
登录
#MemOS
关注
Tw93
6小时前
最近在看 Agent / LLM 的长期记忆方案,顺便研究了一下 MemOS 给 OpenClaw 做的这个插件。 很多 Agent 在长期任务里都会遇到一个问题:Session 一长,Context 和 Token 开销就开始迅速增长,而且历史交互也不一定会沉淀成可复用经验,很多事情会反复试。 MemOS 的思路是把 Memory 从 Prompt 里抽出来,做成系统层的一部分。这样 Agent 不再只是依赖 Context 维持状态,而是有一个独立的长期 Memory 系统。官方 benchmark 里 Token 成本能降 70% 左右。 我给几个写代码的 Agent 接入跑了一段时间,整体集成挺快的。比较有意思的是对话会逐渐沉淀成 Task,再进化成可复用 Skill,一些之前遇到过的问题基本不会再问第二遍。插件是 100% 本地运行,数据存在本机 SQLite,也支持多个 Agent 共享知识协同工作。 如果平时在折腾 Agent 的长期记忆或者多 Agent 系统,可以看看这个项目。
#agent
#长期记忆
#MemOS
#OpenClaw
#Context
#Token
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞