Agent-Memory-Paper-List

GitHub
1.8k 82 非常简单 1 次阅读 今天MITAgent
AI 解读 由 AI 自动生成,仅供参考

Agent-Memory-Paper-List 是一个专注于整理和追踪"AI 智能体记忆”领域前沿学术成果的开源项目。它依托于综述论文《Memory in the Age of AI Agents: A Survey》,旨在为这一快速发展的研究方向提供系统化的文献索引。

当前,智能体记忆研究虽呈爆发式增长,但面临术语定义模糊、分类标准不一的碎片化困境,且常与 RAG(检索增强生成)或上下文工程等概念混淆。该项目通过构建统一的分类体系,清晰界定了智能体记忆的边界,并从“形式”(存储介质)、“功能”(事实、经验与工作记忆)及“动态演化”(形成、巩固与检索)三个维度对海量论文进行梳理,帮助研究者理清技术脉络。

该资源特别适合人工智能领域的研究人员、算法工程师及对大模型智能体架构感兴趣的技术开发者使用。其核心亮点在于提出了一套创新的三维分类法,不仅区分了令牌级、参数级和潜在状态等不同记忆形态,还深入剖析了记忆的生命周期机制。无论是希望快速把握领域全貌的初学者,还是寻求特定技术突破的资深专家,都能在此找到清晰的理论支撑和最新的论文列表,是推动智能体记忆研究从分散走向规范的重要参考库。

使用场景

某 AI 初创公司的算法团队正在研发一款具备长期陪伴能力的个人助理 Agent,急需构建高效的记忆模块以支持跨天对话和个性化服务。

没有 Agent-Memory-Paper-List 时

  • 概念混淆严重:团队成员常将 RAG(检索增强生成)、上下文工程与真正的 Agent 记忆混为一谈,导致技术选型错误,架构设计偏离核心需求。
  • 文献调研低效:面对碎片化的学术论文,研究人员需花费数周手动筛选,难以区分基于 Token、参数还是隐状态的记忆形式,进度严重滞后。
  • 缺乏统一视角:由于缺少对记忆“形成、演化、检索”全生命周期的系统梳理,开发的记忆模块只能存储事实,无法实现经验提炼或动态遗忘,智能体显得僵化。
  • 重复造轮子:因不了解最新的“体验式记忆”或“工作记忆”研究成果,团队耗费大量资源复现了已被证明效果有限的旧方案。

使用 Agent-Memory-Paper-List 后

  • 概念清晰界定:借助其统一分类法,团队迅速厘清 Agent Memory 与 RAG 的边界,精准锁定了适合长程推理的“隐状态记忆”技术路线。
  • 调研效率倍增:直接利用按“形式、功能、动态”三维结构整理的论文列表,半天内便完成了从基础理论到 SOTA(最先进)方案的全面摸底。
  • 架构设计升级:参考列表中关于记忆演化机制的前沿论文,团队成功引入了动态巩固与遗忘策略,使 Agent 能像人类一样从交互中提炼技能并更新认知。
  • 创新起点提高:基于最新的“事件中心记忆”等成果,团队避开了过时方法,直接在最新研究基础上进行微调创新,大幅缩短了研发周期。

Agent-Memory-Paper-List 通过提供结构化的知识图谱,帮助开发者从混乱的学术海洋中快速提炼出构建高智能 Agent 所需的核心记忆范式。

运行环境要求

GPU

未说明

内存

未说明

依赖
notes该项目是一个论文列表仓库(Paper List),用于整理和展示关于 AI Agent 记忆领域的综述论文及相关研究,并非可执行的软件工具或模型代码库,因此没有特定的操作系统、GPU、内存、Python 版本或依赖库要求。用户只需通过浏览器访问链接或在本地查看 Markdown 文件即可使用。
python未说明
Agent-Memory-Paper-List hero image

快速开始

人工智能智能体时代的记忆:综述

arXiv Hugging Face 欢迎贡献 GitHub 星级图 许可证 Semantic Scholar 引用数

📢 新闻

  • [2026年1月29日] 🎉 我们的仓库已达到1000颗星!感谢大家对智能体记忆研究的支持与关注!
  • [2026年1月13日] 📄 我们更新了综述,纳入了几篇最新研究成果,并衷心感谢社区的宝贵贡献和建议。论文详见人工智能智能体时代的记忆:综述
  • [2025年12月16日] 🎉 我们的论文被收录于Huggingface每日论文#1
  • [2025年12月16日] 📚 我们创建了这个仓库,用于维护智能体记忆相关的论文列表。更多论文即将发布!
  • [2025年12月16日] 📄 我们的综述正式发布!论文详见人工智能智能体时代的记忆:综述
基于统一分类法整理的智能体记忆概览

图: 按照形式功能动态的统一分类法整理的智能体记忆概览。

👋 引言

记忆是基于基础模型的智能体的核心支柱,支撑着它们进行长时程推理、持续适应以及与复杂环境的有效交互。

尽管该领域的研究呈爆炸式增长,但目前的研究格局仍然高度分散,术语定义模糊不清且分类体系不一致。本仓库旨在弥合这一鸿沟。我们区分了智能体记忆与RAG、上下文工程等相关概念,并通过三个统一的视角提供全面概述:

  • 形式(记忆由什么承载?):根据存储介质将记忆分为标记级(显式且离散)、参数级(隐式权重)和潜在状态级(隐藏状态)。
  • 功能(智能体为何需要记忆?):超越简单的时序划分,提出功能性分类:事实性(知识)、经验性(洞见与技能)以及工作记忆(主动上下文管理)。
  • 动态(记忆如何演化?):将记忆的操作生命周期细分为形成(提取)、演化(巩固与遗忘)以及检索(访问策略)。

通过这一结构,我们希望为未来智能体智能中将记忆重新视为一等公民奠定概念基础。

💡 概念

概念对比

图: 智能体记忆大语言模型记忆RAG上下文工程的概念对比。

📚 论文列表

事实性记忆

词级别

  • [2026/01] 记忆更重要:以事件为中心的记忆作为智能体搜索与推理的逻辑图。[论文]
  • [2026/01] MAGMA:面向AI智能体的多图结构代理记忆架构。[论文]
  • [2026/01] EverMemOS:用于结构化长时序推理的自组织记忆操作系统。[论文]
  • [2025/12] 从上下文到EDU:通过基本话语单元分解实现忠实且结构化的上下文压缩。[论文]
  • [2025/12] MemVerse:面向终身学习智能体的多模态记忆。[论文]
  • [2025/12] MMAG:面向大型语言模型应用的混合记忆增强生成。[论文]
  • [2025/12] Sophia:一种持续性人工生命代理框架。[论文]
  • [2025/12] WorldMM:用于长视频推理的动态多模态记忆智能体。[论文]
  • [2025/12] Memoria:面向个性化对话式AI的可扩展代理记忆框架。[论文]
  • [2025/12] 后见之明:构建能够保持、回忆并反思的智能体记忆。[论文]
  • [2025/11] LLM智能体长期对话记忆的一个简单而强大的基线。[论文]
  • [2025/11] 通过深度研究实现通用代理记忆。[论文]
  • [2025/11] O-Mem:面向个性化、长时程、自我演进智能体的全息记忆系统。[论文]
  • [2025/11] RCR-Router:具有结构化记忆的多智能体LLM系统中高效的角色感知上下文路由。[论文]
  • [2025/11] 通过持久化记忆和用户画像,实现基于LLM的智能体中的个性化长期交互。[论文]
  • [2025/10] Livia:一款由模块化AI智能体和渐进式记忆压缩技术驱动的情感感知AR伴侣。[论文]
  • [2025/10] D-SMART:通过动态结构化记忆和推理树提升LLM对话一致性。[论文]
  • [2025/10] WebWeaver:利用动态提纲对网络规模证据进行结构化处理,以支持开放式深度研究。[论文]
  • [2025/10] CAM:基于建构主义视角的LLM阅读理解用代理记忆。[论文]
  • [2025/10] 情景记忆的预存储推理:将推理负担转移至记忆,以实现个性化对话。[论文]
  • [2025/10] LightMem:轻量级高效的记忆增强生成。[论文]
  • [2025/10] RGMem:基于重正化群理论的语言智能体用户画像记忆演化。[论文]
  • [2025/09] Mem-α:通过强化学习学习记忆构建。[论文]
  • [2025/09] SGMem:面向长期对话智能体的句子图记忆。[论文]
  • [2025/09] Nemori:受认知科学启发的自组织智能体记忆。[论文]
  • [2025/09] MOOM:超长角色扮演对话中记忆的维护、组织与优化。[论文]
  • [2025/09] 多重记忆系统以增强智能体的长期记忆。[论文]
  • [2025/09] 代理记忆中的语义锚定:利用语言结构维持持续的对话上下文。[论文]
  • [2025/09] ComoRAG:一种受认知启发、以记忆组织为核心的有状态长篇叙事推理框架。[论文]
  • [2025/08] 通过经验驱动的终身学习构建自我演进智能体:一个框架与基准测试。[论文]
  • [2025/08] 看、听、记、思:一款具备长期记忆的多模态智能体。[论文]
  • [2025/08] Memory-R1:通过强化学习提升大型语言模型智能体管理和利用记忆的能力。[论文]
  • [2025/08] 内在记忆智能体:通过结构化情境记忆实现异构多智能体LLM系统。[论文]
  • [2025/07] MIRIX:面向基于LLM的智能体的多智能体记忆系统。[论文]
  • [2025/07] 高效的LLM智能体长期推理用分层记忆。[论文]
  • [2025/06] G-Memory:追踪多智能体系统的分层记忆。[论文]
  • [2025/06] 身体化智能体与个性化相遇:探索记忆在个性化辅助中的应用。[论文]
  • [2025/05] MemGuide:面向目标导向多轮LLM智能体的情意驱动记忆选择。[论文]
  • [2025/05] 使用内部和外部知识对有限记忆语言模型进行预训练。[论文]
  • [2025/05] 身体化VideoAgent:来自第一人称视频和身体传感器的持久记忆实现了动态场景理解。[论文]
  • [2025/04] Mem0:使用可扩展的长期记忆构建生产就绪的AI智能体。[论文]
  • [2025/03] 展望与回顾:面向长期个性化对话智能体的反思式记忆管理。[论文]
  • [2025/02] SeCom:关于个性化对话智能体的记忆构建与检索。[论文]
  • [2025/02] Zep:一种用于智能体记忆的时间知识图架构。[论文]
  • [2025/02] R{({^3})}Mem:通过可逆压缩连接记忆保持与检索。[论文]
  • [2025/02] A-MEM:面向LLM智能体的代理记忆。[论文]
  • [2025/02] 揭示LLM智能体记忆中的隐私风险。[论文]
  • [2025/02] Mem2Ego:通过全局到第一人称的记忆赋能视觉-语言模型,实现长时程具身导航。[论文]
  • [2024/12] AI PERSONA:迈向LLM的终身个性化。[论文]
  • [2024/11] OASIS:拥有百万智能体的开放代理社交互动模拟。[论文]
  • [2024/10] Video-RAG:视觉对齐的检索增强型长视频理解。[论文]
  • [2024/10] Memolet:将用户-AI对话记忆的复用具体化。[论文]
  • [2024/10] 从孤立对话到层次化模式:LLM的动态树形记忆表示。[论文]
  • [2024/10] 通过内循环查询机制提升LLM的长上下文性能。[论文]
  • [2024/09] 基于可编辑记忆图的检索增强生成打造个性化智能体。[论文]
  • [2024/07] 受人类启发的情景记忆,适用于无限上下文的LLM。[论文]
  • [2024/07] Arigraph:利用情景记忆为LLM智能体学习知识图世界模型。[论文]
  • [2024/07] ChatHaruhi:通过大型语言模型将动漫角色复活于现实。[论文]
  • [2024/07] 迈向具备上下文和时间敏感长期记忆的对话式智能体。[论文]
  • [2024/06] 利用分层聚合树增强长期记忆,用于检索增强生成。[论文]
  • [2024/06] 通过基于时间线的记忆管理迈向终身对话智能体。[论文]
  • [2024/05] HippoRAG:受神经生物学启发的大型语言模型长期记忆。[论文]
  • [2024/05] 大型语言模型智能体之间的记忆共享。[论文]
  • [2024/05] 知识图调优:基于人类反馈的实时大型语言模型个性化。[论文]
  • [2024/04] 从局部到全局:一种基于图的RAG方法用于聚焦查询的摘要生成。[论文]
  • [2024/03] Memoro:利用大型语言模型实现实时记忆增强的简洁界面。[论文]
  • [2023/10] RoleLLM:大型语言模型角色扮演能力的基准测试、激发与提升。[论文]
  • [2023/10] MemGPT:迈向将LLM作为操作系统。[论文]
  • [2023/10] GameGPT:用于游戏开发的多智能体协作框架。[论文]
  • [2023/10] Lyfe Agents:用于低成本实时社交互动的生成式智能体。[论文]
  • [2023/08] CALYPSO:LLM作为地下城主的助手。[论文]
  • [2023/08] MetaGPT:面向多智能体协作框架的元编程。[论文]
  • [2023/08] 推荐AI智能体:整合大型语言模型实现交互式推荐。[论文]
  • [2023/08] MemoChat:调优LLM使其能够利用备忘录进行一致的长程开放域对话。[论文]
  • [2023/08] 递归摘要使大型语言模型具备长期对话记忆。[论文]
  • [2023/07] MovieChat:从密集标记到稀疏记忆,用于长视频理解。[论文]
  • [2023/07] S${}^3$:一款由大型语言模型赋能智能体的社会网络模拟系统。[论文]
  • [2023/05] 提示式LLM作为聊天机器人模块,用于长期开放域对话。[论文]
  • [2023/05] RecurrentGPT:交互式生成任意长度文本。[论文]
  • [2023/05] Memorybank:通过长期记忆增强大型语言模型。[论文]
  • [2023/05] RET-LLM:迈向大型语言模型的通用读写记忆。[论文]
  • [2023/04] 生成式智能体:人类行为的交互式模拟。[论文]
  • [2023/04] HuaTuo:用中医知识调优LLaMA模型。[论文]
  • [2023/04] SCM:通过自我控制的记忆框架增强大型语言模型。[论文]

参数化

  • [2025/10] MemLoRA:为设备端内存系统蒸馏专家适配器。[论文]
  • [2025/10] 基于层次化记忆的预训练:分离长尾知识与常用知识。[论文]
  • [2025/08] 内存解码器:一种用于大型语言模型的预训练即插即用型内存。[论文]
  • [2025/08] MLP内存:利用检索器预训练的外部内存进行语言建模。[论文]
  • [2024/10] 通过将上下文整合到模型参数中实现自更新的大规模语言模型。[论文]
  • [2024/10] AlphaEdit:面向语言模型的知识编辑,基于零空间约束。[论文]
  • [2024/08] ELDER:利用LoRA混合体增强终身模型编辑能力。[论文]
  • [2024/05] WISE:重新思考大型语言模型终身模型编辑中的知识记忆。[论文]
  • [2024/03] 利用摊销上下文记忆对语言模型进行在线适应。[论文]
  • [2024/01] 大型语言模型上知识编辑的邻域扰动。[论文]
  • [2023/11] CharacterGLM:利用大型语言模型定制社交角色。[论文]
  • [2023/10] Character-LLM:一种可训练的角色扮演代理。[论文]
  • [2021/10] 大规模快速模型编辑。[论文]
  • [2021/04] 编辑语言模型中的事实性知识。[论文]
  • [2020/02] K-Adapter:通过适配器将知识注入预训练模型。[论文]
  • [2013/02] ELLA:一种高效的终身学习算法。[论文]

隐变量

  • [2025/09] 相似性–距离–幅度激活。[论文]
  • [2025/08] 向视觉–语言模型的通用连续内存迈进。[论文]
  • [2025/03] M+:通过可扩展的长期记忆扩展MemoryLLM。[论文]
  • [2025/02] R3Mem:通过可逆压缩连接记忆保持与检索 [论文]
  • [2024/07] Memory${}^3$:具有显式记忆的语言建模。[论文]
  • [2024/03] 协作式多智能体强化学习中高效利用情景记忆。[论文]
  • [2023/10] Memoria:通过受人脑启发的记忆架构解决灾难性遗忘问题。[论文]
  • [2021/12] 从全局标签中检测局部洞见:基于卷积分解的监督与零样本序列标注。[论文]

经验记忆

令牌级别

  • [2026/01] MemRL:基于情景记忆的运行时强化学习实现自我进化的智能体。[论文]
  • [2025/12] MemEvolve:智能体记忆系统的元进化。[论文]
  • [2025/12] 记住我,完善我:一种面向经验驱动型智能体进化的动态程序化记忆框架。[论文]
  • [2025/12] 后见之明:构建能够保持、回忆并反思的记忆系统。[论文]
  • [2025/11] 智能体上下文工程:为自我改进的语言模型进化上下文。[论文]
  • [2025/11] FLEX:通过从经验中向前学习实现持续的智能体进化。[论文]
  • [2025/11] 通过经验合成扩展智能体学习能力。[论文]
  • [2025/11] UFO2:桌面版AgentOS。[论文]
  • [2025/10] PRINCIPLES:用于主动对话智能体的合成策略记忆。[论文]
  • [2025/10] 无训练的群体相对策略优化。[论文]
  • [2025/10] ToolMem:利用可学习的工具能力记忆增强多模态智能体。[论文]
  • [2025/10] H${}^2$R:面向多任务LLM智能体的层次化事后反思。[论文]
  • [2025/10] BrowserAgent:构建具有受人类启发的网页浏览行为的网络智能体。[论文]
  • [2025/10] LEGOMem:用于工作流自动化的多智能体LLM系统中的模块化程序记忆。[论文]
  • [2025/10] Alita-G:用于生成智能体的自我进化的生成式智能体。[论文]
  • [2025/09] ReasoningBank:借助推理记忆扩展智能体的自我进化能力。[论文]
  • [2025/09] Memento:无需微调LLM即可微调LLM智能体。[论文]
  • [2025/08] Memp:探索智能体的程序化记忆。[论文]
  • [2025/08] SEAgent:具备自主经验学习能力的自我进化的计算机使用智能体。[论文]
  • [2025/07] Agent KB:利用跨领域经验进行智能体问题解决。[论文]
  • [2025/07] MemTool:优化LLM智能体多轮对话中动态工具调用的短期记忆管理。[论文]
  • [2025/05] 达尔文哥德尔机器:自我改进型智能体的开放式进化。[论文]
  • [2025/05] Alita:通用型智能体,能够在最小预定义和最大自我进化的情况下实现可扩展的智能体推理。[论文]
  • [2025/05] SkillWeaver:网络智能体可通过发现和磨练技能实现自我改进。[论文]
  • [2025/05] LearnAct:具有统一演示基准的少样本移动GUI智能体。[论文]
  • [2025/05] 检索模型并不擅长工具:针对大型语言模型的工具检索基准测试。[论文]
  • [2025/04] 动态速查表:利用自适应记忆进行测试时学习。[论文]
  • [2025/04] 诱导智能体任务中的程序化技能。[论文]
  • [2025/03] COLA:用于Windows UI任务自动化可扩展的多智能体框架。[论文]
  • [2025/03] 面向LLM知识图谱推理的记忆增强查询重构。[论文]
  • [2025/02] 从探索到精通:通过自主交互使LLM掌握工具的能力。[论文]
  • [2025/02] 从RAG到记忆:大型语言模型的非参数持续学习。[论文]
  • [2024/12] 基于想象的规划:视觉-语言导航中的情景模拟与情景记忆。[论文]
  • [2024/10] RepairAgent:基于LLM的自主程序修复智能体。[论文]
  • [2024/09] SAGE:具备反思与记忆增强能力的自我进化的智能体。[论文]
  • [2024/07] 智能体工作流记忆。[论文]
  • [2024/07] Fincon:一种合成的LLM多智能体系统,通过概念性言语强化提升金融决策能力。[论文]
  • [2024/06] 思维缓冲区:大型语言模型的思维增强推理。[论文]
  • [2024/05] COLT:迈向面向完整性的大型语言模型工具检索。[论文]
  • [2023/11] JARVIS-1:具有记忆增强型多模态语言模型的开放世界多任务智能体。[论文]
  • [2023/08] RecMind:由大型语言模型驱动的推荐智能体。[论文]
  • [2023/08] ExpeL:LLM智能体是经验型学习者。[论文]
  • [2023/07] ToolLLM:帮助大型语言模型掌握超过16000个真实世界的API。[论文]
  • [2023/05] CREATOR:工具创建以解耦大型语言模型的抽象与具体推理。[论文]
  • [2023/03] Reflexion:具有言语强化学习能力的语言智能体。[论文]
  • [2023/02] Toolformer:语言模型可以自学如何使用工具。[论文]

参数级别

  • [2025/11] AgentEvolver:迈向高效的自我进化的智能体系统。[论文]
  • [2025/10] 基于早期经验的智能体学习。[论文]
  • [2025/10] 通过持续预训练扩展智能体规模。[论文]
  • [2024/10] ToolGen:通过生成实现统一的工具检索与调用。[论文]
  • [2023/08] Retroformer:具有策略梯度优化功能的回顾性大型语言智能体。[论文]
  • [2023/06] 一台同时具备短期、情景和语义记忆系统的机器。[论文]

隐含

  • [2025/11] 用于 GUI 代理的自动扩展连续内存。[论文]

工作记忆

令牌级别

  • [2026/01] MemRL:基于情景记忆的运行时强化学习实现自我进化代理。[论文]
  • [2026/01] 智能体记忆:为大型语言模型代理学习统一的长期与短期记忆管理。[论文]
  • [2025/11] 记忆即行动:面向长 horizon 智能体任务的自主上下文整理。[论文]
  • [2025/11] IterResearch:通过马尔可夫状态重构重新思考长 horizon 代理。[论文]
  • [2025/11] MemSearcher:通过端到端强化学习训练 LLM 进行推理、搜索和记忆管理。[论文]
  • [2025/10] AgentFold:具有主动上下文管理的长 horizon 网络代理。[论文]
  • [2025/10] PRIME:集成规划与检索的记忆,用于增强推理能力。[论文]
  • [2025/10] 上下文即记忆:基于记忆检索的场景一致交互式长视频生成。[论文]
  • [2025/10] DeepAgent:具有可扩展工具集的通用推理代理。[论文]
  • [2025/10] ACON:优化长 horizon LLM 代理的上下文压缩。[论文]
  • [2025/09] ReSum:通过上下文摘要解锁长 horizon 搜索智能。[论文]
  • [2025/08] Sculptor:通过主动上下文管理赋予 LLM 认知代理能力。[论文]
  • [2025/07] MemAgent:基于多卷积 RL 的记忆代理重塑长上下文 LLM。[论文]
  • [2024/10] Agent S:一个像人类一样使用计算机的开放智能体框架。[论文]

参数级别

  • [2024/05] 不同长度,恒定速度:利用闪电注意力实现高效语言建模。[论文]
  • [2024/01] 带有注意力汇的高效流式语言模型。[论文]

隐变量级别

  • [2025/11] VisMem:潜在视觉记忆释放视觉-语言模型的潜力 [论文]
  • [2025/09] MemGen:编织生成式隐变量记忆以支持自我进化代理。[论文]
  • [2025/09] 冲突感知的软提示用于检索增强型生成。[论文]
  • [2025/09] MemoryVLA:视觉-语言-动作模型中的感知-认知记忆,用于机器人操作。[论文]
  • [2025/06] MEM1:学习协同记忆与推理,以构建高效的长 horizon 代理。[论文]
  • [2025/05] RazorAttention:通过检索头实现高效的 KV 缓存压缩。[论文]
  • [2025/04] MemoRAG:借助全局记忆增强的检索增强技术提升长上下文处理能力。[论文]
  • [2025/04] SnapKV:LLM 在生成之前就知道你在寻找什么。[论文]
  • [2025/03] LM2:大型记忆模型。[论文]
  • [2025/02] SoftCoT:用于 LLM 高效推理的软思维链。[论文]
  • [2025/02] Time-VLM:探索多模态视觉-语言模型在增强时间序列预测中的应用。[论文]
  • [2025/02] Titans:在测试时学习记忆。[论文]
  • [2024/08] 利用长期记忆增强语言模型。[论文]
  • [2024/06] 深呼吸:利用哨兵标记提升大型语言模型的语言建模能力。[论文]
  • [2024/04] 适应性语言模型以压缩上下文。[论文]
  • [2024/03] 学习用要点标记压缩提示。[论文]
  • [2024/03] 剪刀手:利用重要性假设的持久性在测试时压缩 LLM 的 KV 缓存。[论文]
  • [2024/03] 聚焦变压器:用于上下文缩放的对比训练。[论文]
  • [2023/07] 大型语言模型中用于上下文压缩的上下文自编码器。[论文]
  • [2023/06] H2O:大型语言模型高效生成推理的重击者预言机。[论文]
  • [2022/08] 记忆化变压器。[论文]
  • [2022/07] XMem:基于阿特金森-希夫林记忆模型的长期视频目标分割。[论文]

📖 引用

如果您觉得本仓库对您有所帮助,我们非常感谢您能引用我们的论文:

@article{DBLP:journals/corr/abs-2512-13564,
  author       = {Yuyang Hu 和 Shichun Liu 和 Yanwei Yue 和 Guibin Zhang 和 Boyang Liu 和 Fangyi Zhu 和 Jiahang Lin 和 Honglin Guo 和 Shihan Dou 和 Zhiheng Xi 和 Senjie Jin 和 Jiejun Tan 和 Yanbin Yin 和 Jiongnan Liu 和 Zeyu Zhang 和 Zhongxiang Sun 和 Yutao Zhu 和 Hao Sun 和 Boci Peng 和 Zhenrong Cheng 和 Xuanbo Fan 和 Jiaxin Guo 和 Xinlei Yu 和 Zhenhong Zhou 和 Zewen Hu 和 Jiahao Huo 和 Junhao Wang 和 Yuwei Niu 和 Yu Wang 和 Zhenfei Yin 和 Xiaobin Hu 和 Yue Liao 和 Qiankun Li 和 Kun Wang 和 Wangchunshu Zhou 和 Yixin Liu 和 Dawei Cheng 和 Qi Zhang 和 Tao Gui 和 Shirui Pan 和 Yan Zhang 和 Philip Torr 和 Zhicheng Dou 和 Ji{-}Rong Wen 和 Xuanjing Huang 和 Yu{-}Gang Jiang 和 Shuicheng Yan},
  title        = {人工智能代理时代的记忆},
  journal      = {CoRR},
  volume       = {abs/2512.13564},
  year         = {2025},
  url          = {https://doi.org/10.48550/arXiv.2512.13564},
  doi          = {10.48550/ARXIV.2512.13564},
  eprinttype    = {arXiv},
  eprint       = {2512.13564},
  timestamp    = {周一, 2026年1月26日 16:10:18 +0100},
  biburl       = {https://dblp.org/rec/journals/corr/abs-2512-13564.bib},
  bibsource    = {dblp 计算机科学文献数据库, https://dblp.org}
}

⭐️ 星标历史

星标历史图表

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|2周前
Agent开发框架图像

n8n

n8n 是一款面向技术团队的公平代码(fair-code)工作流自动化平台,旨在让用户在享受低代码快速构建便利的同时,保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点,帮助用户轻松连接 400 多种应用与服务,实现复杂业务流程的自动化。 n8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”:既可以通过直观的可视化界面拖拽节点搭建流程,也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外,n8n 原生集成了基于 LangChain 的 AI 能力,支持用户利用自有数据和模型构建智能体工作流。在部署方面,n8n 提供极高的自由度,支持完全自托管以保障数据隐私和控制权,也提供云端服务选项。凭借活跃的社区生态和数百个现成模板,n8n 让构建强大且可控的自动化系统变得简单高效。

184.7k|★★☆☆☆|今天
数据工具开发框架Agent

AutoGPT

AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台,核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点,让用户只需设定目标,AI 即可自主规划步骤、调用工具并持续运行直至完成任务。 无论是开发者、研究人员,还是希望提升工作效率的普通用户,都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体;研究人员能基于开源架构探索多智能体协作机制;而非技术背景用户也可直接选用预置的智能体模板,立即投入实际工作场景。 AutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑,每个块负责单一动作,灵活且易于调试。同时,平台支持本地自托管与云端部署两种模式,兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本,即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛,让人人都能成为 AI 的创造者与受益者。

183.6k|★★★☆☆|今天
Agent语言模型插件

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|2周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

161.1k|★★☆☆☆|今天
开发框架Agent语言模型

opencode

OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信

144.3k|★☆☆☆☆|4天前
Agent插件