Tw93 0 关注者 关注 1个月前 最近在看 Agent / LLM 的长期记忆方案时,发现一个挺有意思的项目:MemOS。它解决的不是「再塞更大的上下文窗口」或者「怎么更好的检索」,而是一个更基础的问题:记忆本身该怎么被管理。 做 AI Agent / 多轮问答的时候模型总是忘记上下文,用户的偏好、操作记录、上传的文档就像蒸发了一样。而 MemOS 通过核心的“共享记忆层”,不仅解决了这个问题,还让同一份记忆可以跨项目、跨多个A 前往原网页查看