berryxia@berryxia63腾讯AI团队经过6个月研发,开源了一套Agent记忆系统,针对长会话中上下文丢失问题提出三招解决方案:实时压缩过期上下文(token消耗降低61%)、用Mermaid语法生成结构化任务地图(减少30多步复杂流程中的丢轨概率)、建立Persona记忆(人格一致性从48%提升至76%)。这套系统已在GitHub开源,旨在解决Agent记忆的核心难题——让模型在正确时间用正确方式想起正确信息。AI产品智能体记忆系统开源/仓库腾讯AI上下文管理推荐理由:做Agent开发的团队终于有了开箱即用的记忆方案,不用再靠堆token硬扛长上下文——腾讯这套系统直接开源,建议立刻去试。
arXiv cs.LG@Seokwon Jung, Alexander Rubinstein, Arnas Uselis, Sangdoo Yun, Seong Joon Oh精选65MEME 是一个针对 LLM 智能体在多会话环境中记忆能力的新基准,覆盖了多实体和演化两个维度的六项任务,其中三项(级联、缺失、删除)是此前工作未评估的。在 100 个受控场景中测试了六种记忆系统,发现所有系统在默认配置下的依赖推理任务上表现极差(级联任务平均准确率 3%,缺失任务 1%),尽管静态检索性能尚可。提示优化、更深层检索、减少填充噪声以及更强的大模型都无法弥补这一差距。只有基于文件的智能体配合 Claude Opus 4.7 能部分改善,但成本是基准方案的约 70 倍,说明当前依赖推理的解决方案不具备可扩展性。论文LLM 智能体记忆系统基准测试依赖推理MEME推荐理由:做 LLM 智能体长期记忆系统的团队会发现,现有方案在依赖推理上几乎失效——MEME 基准暴露了被忽视的盲区,值得点开看看你的系统能否通过级联和缺失任务。