MemoryOS
MemoryOS 是一款专为个性化 AI 智能体打造的“记忆操作系统”。它借鉴了传统操作系统的内存管理理念,旨在解决当前 AI 在长对话或多轮交互中容易“遗忘”上下文、缺乏个性化连贯性的痛点。通过构建包含存储、更新、检索和生成四大核心模块的分层架构,MemoryOS 能让智能体像人类一样高效地管理短期与长期记忆,从而实现更自然、更懂用户的互动体验。
该项目特别适合 AI 开发者、研究人员以及希望构建具备长期记忆能力应用的技术团队使用。其独特的技术亮点在于采用了“即插即用”的模块化设计,开发者可以灵活替换存储引擎或检索算法;同时支持通过 MCP 服务器轻松集成到各类工作流中,并兼容 OpenAI、Deepseek、通义千问等主流大模型。在权威的 LoCoMo 基准测试中,MemoryOS 将关键指标提升了近 50%,展现了卓越的性能。无论是想要深化 AI 记忆机制研究,还是致力于开发更聪明的个人助理,MemoryOS 都提供了一个强大且开源的基础设施。
使用场景
一位资深开发者正在构建一个需要长期陪伴用户的个人健康教练 AI,该助手需跨越数周甚至数月持续跟踪用户的饮食、运动习惯及身体反馈。
没有 MemoryOS 时
- 记忆碎片化严重:AI 无法有效关联用户上周提到的“膝盖受伤”与今天计划的“高强度跑步”,导致建议缺乏连贯性甚至产生冲突。
- 上下文窗口溢出:随着对话轮次增加,早期关键的用户偏好(如“对花生过敏”)被挤出上下文窗口,AI 被迫反复询问相同的基础信息。
- 个性化程度低:每次交互都像初次见面,AI 只能基于通用知识库回答,无法根据用户长期的进步轨迹调整训练强度。
- 开发集成复杂:开发者需手动编写复杂的数据库读写逻辑和向量检索代码来模拟记忆功能,耗时且难以维护。
使用 MemoryOS 后
- 层级化记忆管理:MemoryOS 自动将“膝盖受伤”存入长期存储,并在生成建议时精准检索,主动提醒用户避免加重伤情的运动。
- 动态更新与遗忘:系统智能判断哪些信息需要保留(如过敏史),哪些临时状态可以更新或遗忘,确保核心画像始终清晰且不占冗余资源。
- 深度个性化交互:基于累积的历史数据,MemoryOS 让 AI 能像真人教练一样说:“考虑到你过去两周的耐力提升,今天我们可以尝试增加 10% 的负荷。”
- 即插即用架构:通过 MemoryOS-MCP 模块,开发者只需调用标准接口即可注入记忆能力,无需从零构建底层存储与检索引擎,大幅缩短开发周期。
MemoryOS 通过操作系统级的记忆管理机制,让 AI 代理真正拥有了“记住过去、理解现在、规划未来”的长期认知能力。
运行环境要求
- 未说明
未说明(支持本地部署 vLLM 和 Llama_factory,也支持调用 OpenAI、Deepseek、Qwen 等云端 API)
未说明

快速开始
MemoryOS
🎉 如果你喜欢我们的项目,请在 GitHub 上为我们点亮一颗星 ⭐,以获取最新更新。
MemoryOS 旨在为个性化 AI 代理提供记忆操作系统,从而实现更加连贯、个性化且具备上下文感知的交互。它借鉴了操作系统中的内存管理原理,采用分层存储架构,包含存储、更新、检索和生成四个核心模块,以实现全面而高效的记忆管理。在 LoCoMo 基准测试中,该模型在 F1 和 BLEU-1 指标上分别取得了平均 49.11% 和 46.18% 的提升。
- 论文: https://arxiv.org/abs/2506.06326
- 官网: https://baijia.online/memoryos/
- 文档: https://bai-lab.github.io/MemoryOS/docs
- YouTube 视频: MemoryOS MCP + RAG Agent That Can Remember Anything
- https://www.youtube.com/watch?v=WHQu8fpEOaU
✨核心特性
🏆 顶尖的记忆管理性能 在长期记忆基准测试中取得 SOTA 结果,在 LoCoMo 基准上将 F1 分数提升 49.11%,BLEU-1 提升 46.18%。
🧠 即插即用的记忆管理架构 支持无缝集成可插拔的记忆模块,包括存储引擎、更新策略和检索算法。
✨ 轻松创建代理工作流(MemoryOS-MCP) 通过调用 MCP 服务器提供的模块化工具,为各类 AI 应用注入长期记忆能力。
🌐 通用的 LLM 支持 MemoryOS 可与广泛的 LLM(如 OpenAI、Deepseek、Qwen 等)无缝集成。
🧠 记忆家族
欢迎加入我们的 记忆家族,这是一条致力于探索 AI 记忆的研究线。
AI 记忆综述:理论、分类、评估及新兴趋势
简而言之: 提供了一个统一的 AI 记忆理论框架,引入了全面的分类体系,并系统地分析了记忆机制、应用及评估方法。
📄 论文: http://github.com/BAI-LAB/Survey-on-AI-Memory/blob/main/Survey%20on%20AI%20Memory.pdf
LightSearcher: 基于经验记忆的高效深度搜索
简而言之: 将经验记忆引入深度搜索系统,使模型能够从成功的推理轨迹中学习,从而提高搜索效率。
📄 论文: https://arxiv.org/abs/2512.06653
AI 代理的记忆操作系统
简而言之: 提出了一种用于 AI 代理的记忆操作系统,通过分层存储、动态更新、检索和生成来管理短期、中期和长期个人记忆,从而提升长对话中的连贯性和个性化程度。
📄 论文: https://arxiv.org/abs/2506.06326
📣 最新消息
- [new] 🔥🔥🔥 [2026-01-15]: ✨发布 AI 记忆综述:理论、分类、评估及新兴趋势!
- [new] 🔥🔥 [2025-09-11]: 🚀开源了 Playground 平台!
- [new] 🔥🔥 [2025-08-21]: 🎉被 EMNLP 2025 主会场接收!
- [new] 🔥 [2025-07-15]: 🔌 支持向量数据库 Chromadb
- [new] 🔥 [2025-07-15]: 🔌 将 Docker 集成到部署流程中
- [new] [2025-07-14]: ⚡ 加速 MCP 的并行化
- [new] [2025-07-14]: 🔌 支持 BGE-M3 和 Qwen3 的嵌入模型在 PyPI 和 MCP 上。
- [new] [2025-07-09]: 📊 对 MemoryOS 在 LoCoMo 数据集上的评估: 公开可用 👉复现。
- [new] [2025-07-08]: 🏆 新配置参数
- 新增参数配置: similarity_threshold。有关配置文件,请参阅 📖 文档 页面。
- [new] [2025-07-07]: 🚀速度提升 5 倍
- MemoryOS (PYPI) 实现已升级: 通过并行化优化,速度提升了 5 倍(延迟显著降低)。
- [new] [2025-07-07]: ✨现在支持 R1 模型
- MemoryOS 支持配置和使用诸如 Deepseek-r1 和 Qwen3.. 等推理模型。
- [new] [2025-07-07]: ✨MemoryOS Playground 正式上线
- MemoryOS 平台的 Playground 已经上线!👉MemoryOS 平台。如需 邀请码,欢迎随时联系 联系我们。
- [new] [2025-06-15]:🛠️ 开源版 MemoryOS-MCP 发布!现在可在代理客户端上进行配置,实现无缝集成和定制化。👉 MemoryOS-MCP。
- [2025-05-30]: 📄 论文——AI 代理的记忆操作系统已在 arXiv 上发布:https://arxiv.org/abs/2506.06326。
- [2025-05-30]: 初始版本的 MemoryOS 正式上线!具备自动化的用户画像和知识更新功能,支持短期、中期和长期人格记忆。
🔥 MemoryOS 支持列表
| 类型 | 名称 | 开源 | 支持 | 配置 | 描述 |
|---|---|---|---|---|---|
| 代理客户端 | Claude Desktop | ❌ | ✅ | claude_desktop_config.json | Anthropic 官方客户端 |
| Cline | ✅ | ✅ | VS Code 设置 | VS Code 扩展 | |
| Cursor | ❌ | ✅ | 设置面板 | AI 代码编辑器 | |
| 模型提供商 | OpenAI | ❌ | ✅ | OPENAI_API_KEY | GPT-4、GPT-3.5 等 |
| Anthropic | ❌ | ✅ | ANTHROPIC_API_KEY | Claude 系列 | |
| Deepseek-R1 | ✅ | ✅ | DEEPSEEK_API_KEY | 中文大型模型 | |
| Qwen/Qwen3 | ✅ | ✅ | QWEN_API_KEY | 阿里巴巴通义千问 | |
| vLLM | ✅ | ✅ | 本地部署 | 本地模型推理 | |
| Llama_factory | ✅ | ✅ | 本地部署 | 本地微调部署 |
📑 目录
🏗️ 系统架构
🏗️ 项目结构
memoryos/
├── __init__.py # 初始化 MemoryOS 包
├── __pycache__/ # Python 缓存目录(自动生成)
├── long_term.py # 管理长期人格记忆(用户画像、知识)
├── memoryos.py # MemoryOS 主类,协调所有组件
├── mid_term.py # 管理中期记忆,整合短期交互
├── prompts.py # 包含用于 LLM 交互的提示词(如总结、分析)
├── retriever.py # 从各层记忆中检索相关信息
├── short_term.py # 管理近期交互的短期记忆
├── updater.py # 处理记忆更新,包括在各层之间传递信息
└── utils.py # 库中通用的工具函数
📖 MemoryOS_PyPi 快速入门
前置条件
- Python >= 3.10
- conda create -n MemoryOS python=3.10
- conda activate MemoryOS
安装
从 PyPi 下载
pip install memoryos-pro -i https://pypi.org/simple
从 GitHub 下载(最新版本)
git clone https://github.com/BAI-LAB/MemoryOS.git
cd MemoryOS/memoryos-pypi
pip install -r requirements.txt
基本用法
import os
from memoryos import Memoryos
# --- 基本配置 ---
USER_ID = "demo_user"
ASSISTANT_ID = "demo_assistant"
API_KEY = "YOUR_OPENAI_API_KEY" # 替换为你的密钥
BASE_URL = "" # 可选:如果使用自定义的 OpenAI 端点
DATA_STORAGE_PATH = "./simple_demo_data"
LLM_MODEL = "gpt-4o-mini"
def simple_demo():
print("MemoryOS 简单演示")
# 1. 初始化 MemoryOS
print("初始化 MemoryOS...")
try:
memo = Memoryos(
user_id=USER_ID,
openai_api_key=API_KEY,
openai_base_url=BASE_URL,
data_storage_path=DATA_STORAGE_PATH,
llm_model=LLM_MODEL,
assistant_id=ASSISTANT_ID,
short_term_capacity=7,
mid_term_heat_threshold=5,
retrieval_queue_capacity=7,
long_term_knowledge_capacity=100,
#支持 Qwen/Qwen3-Embedding-0.6B, BAAI/bge-m3, all-MiniLM-L6-v2
embedding_model_name="BAAI/bge-m3"
)
print("MemoryOS 初始化成功!\n")
except Exception as e:
print(f"错误: {e}")
return
# 2. 添加一些基本记忆
print("添加一些记忆...")
memo.add_memory(
user_input="你好!我是汤姆,在旧金山担任数据科学家。",
agent_response="你好,汤姆!很高兴认识你。数据科学真是个令人兴奋的领域。你主要处理什么样的数据呢?"
)
test_query = "你还记得我的工作吗?"
print(f"用户: {test_query}")
response = memo.get_response(
query=test_query,
)
print(f"助手: {response}")
if __name__ == "__main__":
simple_demo()
📖 MemoryOS-MCP 入门指南
🔧 核心工具
1. add_memory
将用户与 AI 助手之间的对话内容保存到记忆系统中,以构建持久的对话历史和上下文记录。
2. retrieve_memory
根据查询从记忆系统中检索相关的历史对话、用户偏好和知识信息,帮助 AI 助手理解用户的需要和背景。
3. get_user_profile
通过分析历史对话生成用户画像,包括用户的性格特征、兴趣偏好以及相关知识背景。
1. 安装依赖
cd memoryos-mcp
pip install -r requirements.txt
2. 配置
编辑 config.json:
{
"user_id": "用户ID",
"openai_api_key": "OpenAI API 密钥",
"openai_base_url": "https://api.openai.com/v1",
"data_storage_path": "./memoryos_data",
"assistant_id": "assistant_id",
"llm_model": "gpt-4o-mini"
"embedding_model_name":"BAAI/bge-m3"
}
3. 启动服务器
python server_new.py --config config.json
4. 测试
python test_comprehensive.py
5. 在 Cline 和其他客户端上配置
复制 mcp.json 文件,并确保文件路径正确。
command": "/root/miniconda3/envs/memos/bin/python"
#这应该更改为你的虚拟环境的 Python 解释器
📖MemoryOS_Chromadb 入门指南
1. 安装依赖
cd memoryos-chromadb
pip install -r requirements.txt
2. 测试
测试信息在 comprehensive_test.py 中
memoryos = Memoryos(
user_id='travel_user_test',
openai_api_key='',
openai_base_url='',
data_storage_path='./comprehensive_test_data',
assistant_id='travel_assistant',
embedding_model_name='BAAI/bge-m3',
mid_term_capacity=1000,
mid_term_heat_threshold=13.0,
mid_term_similarity_threshold=0.7,
short_term_capacity=2
)
python3 comprehensive_test.py
# 切换嵌入模型时,请务必使用不同的数据存储路径。
📖Docker 入门指南
你可以通过两种方式使用 Docker 运行 MemoryOS:拉取官方镜像或从 Dockerfile 构建自己的镜像。这两种方法都适用于快速搭建、测试和生产部署。
选项 1:拉取官方镜像
# 拉取最新的官方镜像
docker pull ghcr.io/bai-lab/memoryos:latest
docker run -it --gpus=all ghcr.io/bai-lab/memoryos /bin/bash
选项 2:从 Dockerfile 构建
# 克隆仓库
git clone https://github.com/BAI-LAB/MemoryOS.git
cd MemoryOS
# 构建 Docker 镜像(确保 Dockerfile 存在)
docker build -t memoryos .
docker run -it --gpus=all memoryos /bin/bash
📖Playground 入门指南
cd MemoryOS/memoryos-playground/memdemo/
python3 app.py
启动主界面后,填写相应的用户 ID、OpenAI API 密钥、模型和 API 基础 URL。

进入系统后,可以使用“帮助”按钮查看各个按钮的功能。
用户的记忆存储在 MemoryOS-main/memoryos-playground/memdemo/data 目录下。
🎯重现
cd eval
在代码中配置 API 密钥和其他设置
python3 main_loco_parse.py
python3 evalution_loco.py
☑️ 待办事项
MemoryOS 正在不断进化!以下是即将推出的功能:
- 持续进行🚀: 集成基准测试:为 Mem0、Zep 和 OpenAI 提供跨模型比较的标准基准测试套件
- 🏗️ 实现不同系统之间无缝的记忆交换与集成。
如果你有任何想法或建议,欢迎贡献!请随时提交问题或拉取请求!🚀
📖 文档
更详细的文档即将发布🚀,我们将在 文档 页面上更新。
📣 引用
如果您觉得这个项目有用,请考虑引用我们的论文:
@misc{kang2025memoryosaiagent,
title={AI 代理的记忆操作系统},
author={Jiazheng Kang 和 Mingming Ji 和 Zhe Zhao 和 Ting Bai},
year={2025},
eprint={2506.06326},
archivePrefix={arXiv},
primaryClass={cs.AI},
url={https://arxiv.org/abs/2506.06326},
}
🎯 联系我们
百家AI是由北京邮电大学白婷副教授指导的研究团队,致力于为人工智能智能体打造富有情感且具备超强记忆能力的大脑。
🤝 合作与建议:baiting@bupt.edu.cn
📣 关注我们的微信公众号,加入微信群或通过 https://discord.gg/SqVj7QvZ 获取最新动态。
🌟 星标历史
免责声明
本项目MemoryOS(记忆操作系统)由百家AI团队开发,与memoryOS(https://memoryos.com)无任何关联。此处使用“MemoryOS”这一名称仅用于学术讨论目的。
版本历史
V1.22025/07/18V1.12025/07/13v1.02025/07/12相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
