RAG已死,请停止给LLM打“短期记忆补丁”!
讲个内幕:现在市面上绝大多数所谓LLM“长期记忆”方案,包括RAG,本质都是临时工。
它们解决了“知识获取”问题,但没解决“记忆管理”的根本难题,导致AI依然健忘、无法个性化,数据被困在各个应用里形成“记忆孤岛” 。
我们一直在给漏水的坝打补丁,而不是建一个真正的水库。
直到我看到了最近的一个关于LLM内存的论文:
MEMOS,一个真正的AI“内存操作系统” 。
它的思想完全是降维打击:
1. 统一管理: 创造了一个叫 MemCube 的标准单元 ,把参数 (固有知识)、KV缓存 (工作记忆)、外部明文 (瞬时知识) 三种形态的记忆全部统一管理 。
2. OS级调度: 像Windows/Linux调度硬件一样,MEMOS调度、融合、迁移这些MemCube,让LLM第一次拥有了可控、可塑、可持续进化的记忆 。
效果惊人: 在LOCOMO基准上,性能全面碾压LangMem, Zep, OpenAI Memory等一众对手 。更恐怖的是,它的KV缓存加速技术,能把TTFT(首字输出时间)缩短最高
91.4% !
这已经不是简单的技术优化,而是迈向“记忆训练” (Mem-training) 的范式革命 。
项目已开源,对于任何一个想构建真正有状态、能持续进化的AI Agent的开发者来说,非常建议读一下。
无状态AI的时代大概率要结束了。
项目地址:https://t.co/xpxOf6xtuq