MemOS
MemOS 是一款专为大语言模型(LLM)和智能体系统打造的“记忆操作系统”。它旨在解决当前 AI 在跨任务场景中难以保留长期记忆、无法复用既有技能以及上下文窗口成本过高的问题。通过引入持久化的技能记忆机制,MemOS 让 AI 能够像人类一样积累经验,实现技能的持续进化与跨任务调用。
该项目特别适合 AI 开发者、研究人员以及希望构建具备长期记忆能力智能体的技术团队使用。无论是需要多智能体协作的复杂应用,还是追求数据隐私的本地部署场景,MemOS 都能提供灵活支持。其核心技术亮点包括:混合搜索架构(结合全文检索与向量搜索)、自动任务总结与技能自升级机制,以及云边端协同的记忆管理方案。实测数据显示,相比传统方案,MemOS 不仅能将记忆相关的 Token 消耗降低约 35%,还在多项长程记忆基准测试中显著提升了准确率。此外,它支持完全本地化部署,确保数据不出域,同时也提供云端服务以实现多实例间的记忆共享与无缝上下文切换,是构建下一代个性化、高智商 AI 助手的关键基础设施。
使用场景
一位独立开发者正在构建一个基于 OpenClaw 的多任务自动化助手集群,旨在处理从数据清洗到代码生成的复杂工作流。
没有 MemOS 时
- 技能无法复用:每个新任务(如“修复 Python 报错”或“优化 SQL 查询”)都需要重新向模型描述操作步骤,导致大量重复的 Prompt 输入。
- 上下文爆炸与成本高昂:为了保持连贯性,不得不将完整的聊天历史作为上下文传入,Token 消耗巨大且响应速度随对话轮数增加而显著变慢。
- 智能体间存在壁垒:负责数据分析的 Agent 无法利用负责代码编写的 Agent 之前学到的经验,多实例间如同孤岛,无法共享用户偏好或特定领域知识。
- 长期记忆缺失:一旦会话结束,之前调试成功的解决方案随即丢失,下次遇到类似问题时系统表现得像“失忆”一样从头开始。
使用 MemOS 后
- 技能持久化与进化:MemOS 自动将成功解决的任务抽象为“技能记忆”,后续遇到类似需求时直接调用并自我升级,无需重复教学。
- 精准检索降低开销:通过混合搜索技术仅提取相关记忆片段而非全量历史,相比传统方式节省约 72% 的 Token 用量,大幅提升响应效率。
- 跨智能体协同共享:不同功能的 Agent 通过统一的
user_id共享记忆库,数据分析师发现的规律可立即被代码生成器利用,实现无缝协作。 - 本地/云端灵活部署:开发者可选择本地 SQLite 存储确保数据隐私,或使用云服务实现多设备间的记忆同步,确保持续的学习能力不中断。
MemOS 通过赋予 AI 系统持久的技能记忆与进化能力,将一次性对话转化为可积累、可复用的智能资产,彻底解决了长程任务中的遗忘与高成本难题。
运行环境要求
- Linux
- macOS
- Windows
未说明(支持本地部署,依赖具体选择的 LLM 后端,如 Ollama 或 vLLM 可能需 GPU)
未说明

快速开始
MemOS 2.0:星尘(Stardust)
🎯 相比 OpenAI 内存,准确率提升 43.70%
🏆 顶级的长期记忆与个性化功能
💰 节省 35.24% 的内存 token 消耗
LoCoMo 75.80 • LongMemEval 提升 40.43% • PrefEval-10 提升 2568% • PersonaMem 提升 40.75%
🦞 使用 MemOS 插件增强 OpenClaw

🦞 您的龙虾现在拥有了工作记忆系统——选择“云端”或“本地”即可开始使用。
☁️ 云端插件——托管式内存服务
- token 使用量降低 72%——智能检索内存,而非加载完整聊天记录
- 多智能体共享内存——多个实例的智能体通过相同的 user_id 共享内存,自动进行上下文交接
获取您的 API 密钥:MemOS 控制台 完整教程 → MemOS-Cloud-OpenClaw-Plugin
🧠 本地插件——100% 本地设备内存
- 零云端依赖——所有数据均保存在您的设备上,采用持久化的本地 SQLite 存储
- 混合搜索 + 任务与技能进化——FTS5 + 向量搜索,自动总结任务,可重复使用的技能会自我升级
- 多智能体协作 + 内存查看器——内存隔离、技能共享,配备包含 7 个管理页面的完整 Web 控制台
📌 MemOS:面向 AI 智能体的记忆操作系统
MemOS 是一款专为 LLM 和 AI 智能体设计的记忆操作系统,它统一了长期记忆的存储 / 检索 / 管理功能,从而实现情境感知与个性化的交互,并内置了对知识库、多模态信息、工具记忆以及企业级优化的支持。
核心特性
- 统一的记忆 API:一个单一的 API 即可完成记忆的添加、检索、编辑和删除——以图结构组织,设计上可检查和编辑,而非黑盒式的嵌入存储。
- 多模态记忆:原生支持文本、图像、工具调用痕迹和角色人格,可在同一记忆系统中共同检索并进行推理。
- 多立方体知识库管理:将多个知识库作为可组合的记忆立方体进行管理,实现隔离、受控共享以及跨用户、项目和智能体的动态组合。
- 通过 MemScheduler 进行异步摄入:以毫秒级延迟异步执行记忆操作,确保高并发下的生产稳定性。
- 记忆反馈与修正:通过自然语言反馈来优化记忆——随着时间推移,可以纠正、补充或替换现有记忆。
新闻
2026年3月8日 · 🦞 MemOS OpenClaw 插件 — 云端与本地 官方 OpenClaw 内存插件正式发布。云端插件:托管式内存服务,令牌使用量降低 72%,支持多智能体内存共享(MemOS-Cloud-OpenClaw-Plugin)。本地插件(
v1.0.0):100% 本地设备端内存,采用持久化 SQLite 数据库、混合搜索(FTS5 + 向量)、任务摘要与技能进化、多智能体协作,以及完整的内存查看器仪表盘。2025年12月24日 · 🎉 MemOS v2.0:Stardust(星尘)发布 全面的知识库功能(文档/URL 解析 + 跨项目共享)、记忆反馈与精准删除、多模态记忆(图片/图表)、用于智能体规划的工具记忆、Redis Streams 调度 + 数据库优化、流式/非流式聊天、MCP 升级,以及轻量级快速/完整部署。
✨ 新特性
知识库与记忆
- 新增知识库支持,可从文档和 URL 中获取长期记忆
反馈与记忆管理
- 新增自然语言反馈与记忆修正功能
- 新增基于记忆 ID 的记忆删除 API
- 新增对 MCP 的支持,用于记忆删除和反馈
对话与检索
- 新增具备记忆感知检索功能的聊天 API
- 新增自定义标签的记忆过滤功能(云端与开源版)
多模态与工具记忆
- 新增工具记忆,用于记录工具使用历史
- 新增图像记忆支持,可用于对话和文档
📈 改进
数据与基础设施
- 升级数据库,提升稳定性和性能
调度器
- 使用 Redis Streams 和队列隔离重构任务调度器
- 新增任务优先级、自动恢复及配额制调度功能
部署与工程
- 新增轻量级部署模式,提供快速与完整两种选择
🐞 Bug 修复
记忆调度与更新
- 修复了旧版调度 API,确保记忆隔离正确
- 修复了记忆更新日志,使其能正确显示新记忆
2025年8月7日 · 🎉 MemOS v1.0.0(MemCube)发布 首个 MemCube 版本,包含文字游戏演示、LongMemEval 评估、BochaAISearchRetriever 集成、搜索能力提升,以及官方 Playground 正式上线。
✨ 新特性
Playground
- 扩展了 Playground 功能及算法性能。
MemCube 构建
- 基于 MemCube 小说新增文本游戏演示。
扩展评估集
- 新增 LongMemEval 评估结果及脚本。
📈 改进
纯文本记忆
- 集成 Bocha 的互联网搜索功能
- 扩展图数据库支持
- 为树状结构的纯文本记忆搜索界面增加了上下文理解能力
🐞 Bug 修复
KV 缓存拼接
- 修复了 concat_cache 方法。
纯文本记忆
- 修复了图搜索相关问题。
2025年7月7日 · 🎉 MemOS v1.0:Stellar(星河)预览版发布 一款面向 LLM 的 SOTA 记忆操作系统现已开源。
2025年7月4日 · 🎉 MemOS 论文发布 MemOS:面向 AI 系统的记忆操作系统 已在 arXiv 上发布。
2024年7月4日 · 🎉 Memory3 模型于 WAIC 2024 发布 具有记忆分层架构的 Memory3 模型在 2024 年世界人工智能大会上亮相。
🚀 快速入门指南
☁️ 1、云端 API(托管)
获取 API 密钥
- 在 MemOS 控制台 注册
- 进入 API 密钥 页面并复制您的密钥
下一步
- MemOS 云端入门:几分钟内连接到 MemOS 云端并启用记忆功能。
- MemOS 云平台:探索云端控制台、功能及工作流程。
🖥️ 2、自托管(本地/私有)
- 获取代码仓库。
git clone https://github.com/MemTensor/MemOS.git cd MemOS pip install -r ./docker/requirements.txt - 配置
docker/.env.example并复制到MemOS/.env
OPENAI_API_KEY、MOS_EMBEDDER_API_KEY、MEMRADER_API_KEY等可通过BaiLian申请。- 将相应配置填入
MemOS/.env文件中。 - 支持的 LLM 提供商:OpenAI、Azure OpenAI、Qwen(DashScope)、DeepSeek、MiniMax、Ollama、HuggingFace、vLLM。通过设置
MOS_CHAT_MODEL_PROVIDER来选择后端(例如openai、qwen、deepseek、minimax)。
- 启动服务。
通过 Docker 启动
提示:请确保已成功安装 Docker Compose,并在执行以下命令前进入 docker 目录(使用
cd docker)。# 进入 docker 目录 docker compose up详细步骤请参阅
Docker 参考。通过 uvicorn 命令行界面(CLI)启动
提示:请确保 Neo4j 和 Qdrant 已运行后再执行以下命令。
cd src uvicorn memos.api.server_api:app --host 0.0.0.0 --port 8001 --workers 1详细集成步骤请参阅
CLI 参考。
自托管基本使用
- 添加用户消息
import requests import json data = { "user_id": "8736b16e-1d20-4163-980b-a5063c3facdc", "mem_cube_id": "b32d0977-435d-4828-a86f-4f47f8b55bca", "messages": [ { "role": "user", "content": "我喜欢草莓" } ], "async_mode": "sync" } headers = { "Content-Type": "application/json" } url = "http://localhost:8000/product/add" res = requests.post(url=url, headers=headers, data=json.dumps(data)) print(f"result: {res.json()}") - 搜索用户记忆
import requests import json data = { "query": "我喜欢什么", "user_id": "8736b16e-1d20-4163-980b-a5063c3facdc", "mem_cube_id": "b32d0977-435d-4828-a86f-4f47f8b55bca" } headers = { "Content-Type": "application/json" } url = "http://localhost:8000/product/search" res = requests.post(url=url, headers=headers, data=json.dumps(data)) print(f"result: {res.json()}")
📚 资源
- Awesome-AI-Memory 这是一个精心整理的资源库,专注于大型语言模型的记忆与记忆系统相关资料。它系统性地收集了相关的研究论文、框架、工具以及实践见解。该仓库旨在梳理并呈现快速发展的LLM记忆研究领域,连接自然语言处理、信息检索、智能体系统和认知科学等多个研究方向。
- 开始使用 👉 IAAR-Shanghai/Awesome-AI-Memory
- MemOS Cloud OpenClaw 插件 MemOS Cloud 的官方 OpenClaw 生命周期插件。它会在智能体启动前自动从 MemOS 中调用上下文,并在智能体完成任务后将对话保存回 MemOS。
- 开始使用 👉 MemTensor/MemOS-Cloud-OpenClaw-Plugin
💬 社区与支持
加入我们的社区,提问、分享你的项目,并与其他开发者交流。
- GitHub Issues: 在我们的 GitHub Issues 中报告问题或请求功能。
- GitHub Pull Requests: 通过 Pull Requests 贡献代码改进。
- GitHub Discussions: 参与我们的 GitHub Discussions,提出问题或分享想法。
- Discord: 加入我们的 Discord 服务器。
- 微信: 扫描二维码加入我们的微信群。
📜 引用
[!NOTE] 我们于 2025年5月28日 公开发布了简版论文,使其成为最早提出面向LLM的记忆操作系统概念的工作。
如果你在研究中使用了 MemOS,我们非常感谢你引用我们的论文。
@article{li2025memos_long,
title={MemOS: A Memory OS for AI System},
author={Li, Zhiyu and Song, Shichao and Xi, Chenyang and Wang, Hanyu and Tang, Chen and Niu, Simin and Chen, Ding and Yang, Jiawei and Li, Chunyu and Yu, Qingchen and Zhao, Jihao and Wang, Yezhaohui and Liu, Peng and Lin, Zehao and Wang, Pengyuan and Huo, Jiahao and Chen, Tianyi and Chen, Kai and Li, Kehang and Tao, Zhen and Ren, Junpeng and Lai, Huayi and Wu, Hao and Tang, Bo and Wang, Zhenren and Fan, Zhaoxin and Zhang, Ningyu and Zhang, Linfeng and Yan, Junchi and Yang, Mingchuan and Xu, Tong and Xu, Wei and Chen, Huajun and Wang, Haofeng and Yang, Hongkang and Zhang, Wentao and Xu, Zhi-Qin John and Chen, Siheng and Xiong, Feiyu},
journal={arXiv preprint arXiv:2507.03724},
year={2025},
url={https://arxiv.org/abs/2507.03724}
}
@article{li2025memos_short,
title={MemOS: An Operating System for Memory-Augmented Generation (MAG) in Large Language Models},
author={Li, Zhiyu and Song, Shichao and Wang, Hanyu and Niu, Simin and Chen, Ding and Yang, Jiawei and Xi, Chenyang and Lai, Huayi and Zhao, Jihao and Wang, Yezhaohui and others},
journal={arXiv preprint arXiv:2505.22101},
year={2025},
url={https://arxiv.org/abs/2505.22101}
}
@article{yang2024memory3,
author = {Yang, Hongkang and Zehao, Lin and Wenjin, Wang and Wu, Hao and Zhiyu, Li and Tang, Bo and Wenqiang, Wei and Wang, Jinbo and Zeyun, Tang and Song, Shichao and Xi, Chenyang and Yu, Yu and Kai, Chen and Xiong, Feiyu and Tang, Linpeng and Weinan, E},
title = {Memory$^3$: Language Modeling with Explicit Memory},
journal = {Journal of Machine Learning},
year = {2024},
volume = {3},
number = {3},
pages = {300--346},
issn = {2790-2048},
doi = {https://doi.org/10.4208/jml.240708},
url = {https://global-sci.com/article/91443/memory3-language-modeling-with-explicit-memory}
}
🙌 贡献
我们欢迎社区的贡献!请阅读我们的 贡献指南 以开始参与。
📄 许可证
MemOS 采用 Apache 2.0 许可证 许可。
版本历史
v2.0.132026/04/10v2.0.122026/04/07v2.0.112026/03/27v2.0.102026/03/20v2.0.92026/03/16v2.0.82026/03/09v2.0.72026/02/28v2.0.62026/02/12v2.0.52026/02/10v2.0.42026/01/30v2.0.32026/01/23v2.0.22026/01/16v2.0.12026/01/09v2.0.02025/12/24v1.1.32025/11/07v1.1.22025/10/11v1.1.12025/09/24v1.1.02025/09/24v1.0.12025/09/10v1.0.02025/08/07常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。