[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-BAI-LAB--MemoryOS":3,"tool-BAI-LAB--MemoryOS":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":78,"owner_url":79,"languages":80,"stars":97,"forks":98,"last_commit_at":99,"license":100,"difficulty_score":23,"env_os":101,"env_gpu":102,"env_ram":101,"env_deps":103,"category_tags":108,"github_topics":109,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":118,"updated_at":119,"faqs":120,"releases":121},3841,"BAI-LAB\u002FMemoryOS","MemoryOS","[EMNLP 2025 Oral] MemoryOS is designed to provide a memory operating system for personalized AI agents.","MemoryOS 是一款专为个性化 AI 智能体打造的“记忆操作系统”。它借鉴了传统操作系统的内存管理理念，旨在解决当前 AI 在长对话或多轮交互中容易“遗忘”上下文、缺乏个性化连贯性的痛点。通过构建包含存储、更新、检索和生成四大核心模块的分层架构，MemoryOS 能让智能体像人类一样高效地管理短期与长期记忆，从而实现更自然、更懂用户的互动体验。\n\n该项目特别适合 AI 开发者、研究人员以及希望构建具备长期记忆能力应用的技术团队使用。其独特的技术亮点在于采用了“即插即用”的模块化设计，开发者可以灵活替换存储引擎或检索算法；同时支持通过 MCP 服务器轻松集成到各类工作流中，并兼容 OpenAI、Deepseek、通义千问等主流大模型。在权威的 LoCoMo 基准测试中，MemoryOS 将关键指标提升了近 50%，展现了卓越的性能。无论是想要深化 AI 记忆机制研究，还是致力于开发更聪明的个人助理，MemoryOS 都提供了一个强大且开源的基础设施。","# MemoryOS\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBAI-LAB_MemoryOS_readme_295c9ada8c41.png\" alt=\"logo\" width=\"400\"\u002F>\n\u003C\u002Fdiv>\n\u003Cp align=\"center\">\n    \u003Ca href=\"readme_cn.md\" target=\"_blank\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FReadme-中文-blue\" alt=\"Readme:中文\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.06326\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FArxiv-paper-red\" alt=\"Mem0 Discord\">\n  \u003C\u002Fa>\n  \u003Ca href=\"#contact-us\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FWechat-群二维码-green\" alt=\"Mem0 PyPI - Downloads\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=WHQu8fpEOaU\" target=\"blank\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYoutube-Video-red\" alt=\"Npm package\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FSqVj7QvZ\" target=\"_blank\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDiscord-Join_us-yellow\" alt=\"Discord\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0\" target=\"_blank\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache_2.0-blue\" alt=\"License: Apache 2.0\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Ch5 align=\"center\"> 🎉 If you like our project, please give us a star ⭐ on GitHub for the latest update.\u003C\u002Fh5>\n\n**MemoryOS** is designed to provide a memory operating system for personalized AI agents, enabling more coherent, personalized, and context-aware interactions. Drawing inspiration from memory management principles in operating systems, it adopts a hierarchical storage architecture with four core modules: Storage, Updating, Retrieval, and Generation, to achieve comprehensive and efficient memory management. On the LoCoMo benchmark, the model achieved average improvements of **49.11%** and **46.18%** in F1 and BLEU-1 scores.\n\n- **Paper**: \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.06326\" target=\"_blank\">https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.06326\u003C\u002Fa>\n- **Website**: \u003Ca href=\"https:\u002F\u002Fbaijia.online\u002Fmemoryos\u002F\" target=\"_blank\">https:\u002F\u002Fbaijia.online\u002Fmemoryos\u002F\u003C\u002Fa>\n- **Documentation**: \u003Ca href=\"https:\u002F\u002Fbai-lab.github.io\u002FMemoryOS\u002Fdocs\" target=\"_blank\">https:\u002F\u002Fbai-lab.github.io\u002FMemoryOS\u002Fdocs\u003C\u002Fa>\n- **YouTube Video**: **MemoryOS MCP + RAG Agent That Can Remember Anything**\n- \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=WHQu8fpEOaU \">https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=WHQu8fpEOaU \u003C\u002Fa>\n\n\n\u003Cspan id='features'\u002F>\n\n## ✨Key Features\n\n* 🏆 **TOP Performance** in Memory Management\n\u003C\u002Fbr> The SOTA results in long-term memory benchmarks, boosting F1 scores by 49.11% and BLEU-1 by 46.18% on the LoCoMo benchmark.\n\n* 🧠 **Plug-and-Play** Memory Management Architecture\n\u003C\u002Fbr>  Enables seamless integration of pluggable memory modules—including storage engines, update strategies, and retrieval algorithms.\n\n* ✨ **Agent Workflow Create with Ease** (**MemoryOS-MCP**)\n\u003C\u002Fbr> Inject long-term memory capabilities into various AI applications by calling modular tools provided by the MCP Server.\n\n* 🌐 **Universal LLM Support**\n\u003C\u002Fbr> MemoryOS seamlessly integrates with a wide range of LLMs (e.g., OpenAI, Deepseek, Qwen ...)\n\n\n\n\n\u003Cspan id='news'\u002F>\n\n## 🧠 Memory Family \n\nWelcome to our **Memory Family**, a research line dedicated to exploring AI Memory.\n\n> [**Survey on AI Memory: Theories, Taxonomies, Evaluations, and Emerging Trends**](http:\u002F\u002Fgithub.com\u002FBAI-LAB\u002FSurvey-on-AI-Memory\u002Fblob\u002Fmain\u002FSurvey%20on%20AI%20Memory.pdf)  \n> **TL;DR:** Provides a unified theoretical framework for AI Memory, introducing a comprehensive taxonomy and systematically analyzing memory mechanisms, applications, and evaluation methods.  \n> 📄 Paper: http:\u002F\u002Fgithub.com\u002FBAI-LAB\u002FSurvey-on-AI-Memory\u002Fblob\u002Fmain\u002FSurvey%20on%20AI%20Memory.pdf\n\n> [**LightSearcher: Efficient DeepSearch via Experiential Memory**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2512.06653)  \n> **TL;DR:** Introduces experiential memory into deep search systems, enabling models to learn from successful reasoning trajectories and improve search efficiency.  \n> 📄 Paper: https:\u002F\u002Farxiv.org\u002Fabs\u002F2512.06653\n\n> [**Memory OS of AI Agent**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.06326)  \n> **TL;DR:** Proposes a memory operating system for AI agents that manages short-term, mid-term, and long-term personal memory through hierarchical storage, dynamic updating, retrieval, and generation, improving coherence and personalization in long conversations.  \n> 📄 Paper: https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.06326\n\n## 📣 Latest News\n*   *\u003Cmark>[new]\u003C\u002Fmark>* 🔥🔥🔥  **[2026-01-15]**: **✨Released** [Survey on AI Memory: Theories, Taxonomies, Evaluations, and Emerging Trends](https:\u002F\u002Fgithub.com\u002FBAI-LAB\u002FSurvey-on-AI-Memory)!\n*   *\u003Cmark>[new]\u003C\u002Fmark>* 🔥🔥  **[2025-09-11]**: **🚀Open-sourced** the [Playground platform](#playground-getting-started)!\n*   *\u003Cmark>[new]\u003C\u002Fmark>* 🔥🔥  **[2025-08-21]**: **🎉Accepted**  by EMNLP 2025 main conference!\n*   *\u003Cmark>[new]\u003C\u002Fmark>* 🔥 **[2025-07-15]**: **🔌 Support** for Vector Database [Chromadb](#memoryos_chromadb-getting-started)\n*   *\u003Cmark>[new]\u003C\u002Fmark>* 🔥 **[2025-07-15]**: **🔌 Integrate** [Docker](#docker-getting-started) into deployment\n*   *\u003Cmark>[new]\u003C\u002Fmark>*   **[2025-07-14]**: **⚡ Acceleration** of MCP parallelization \n*   *\u003Cmark>[new]\u003C\u002Fmark>*   **[2025-07-14]**: **🔌 Support** for BGE-M3 & Qwen3 embeddings on PyPI and MCP.\n*   *\u003Cmark>[new]\u003C\u002Fmark>*   **[2025-07-09]**: **📊 Evaluation** of the MemoryOS on LoCoMo Dataset: Publicly Available [👉Reproduce](#reproduce).\n*   *\u003Cmark>[new]\u003C\u002Fmark>*  **[2025-07-08]**: **🏆 New Config Parameter**\n*   New parameter configuration: **similarity_threshold**. For configuration file, see 📖 [Documentation](https:\u002F\u002Fbai-lab.github.io\u002FMemoryOS\u002Fdocs) page.\n*   *\u003Cmark>[new]\u003C\u002Fmark>*   **[2025-07-07]**: **🚀5 Times Faster**\n*   The MemoryOS (PYPI) implementation has been upgraded: **5 times faster** (reduction in latency) through parallelization optimizations.\n*   *\u003Cmark>[new]\u003C\u002Fmark>*  **[2025-07-07]**: **✨R1 models Support Now**\n*   MemoryOS supports configuring and using inference models such as **Deepseek-r1 and Qwen3..**\n*   *\u003Cmark>[new]\u003C\u002Fmark>*  **[2025-07-07]**: **✨MemoryOS Playground Launched**\n*   The Playground of **MemoryOS Platform** has been launched! [👉MemoryOS Platform](https:\u002F\u002Fbaijia.online\u002Fmemoryos\u002F). If you need an **Invitation Code**, please feel free to reach [Contact US](#community).\n*   *\u003Cmark>[new]\u003C\u002Fmark>*   **[2025-06-15]**:🛠️ Open-sourced **MemoryOS-MCP** released! Now configurable on agent clients for seamless integration and customization. [👉 MemoryOS-MCP](#memoryos-mcp-getting-started).\n*   **[2025-05-30]**: 📄 Paper-**Memory OS of AI Agent** is available on arXiv: https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.06326.\n*   **[2025-05-30]**: Initial version of **MemoryOS** launched! Featuring short-term, mid-term, and long-term persona Memory with automated user profile and knowledge updating.\n\n  \n\n\u003Cspan id='list'\u002F>\n\n## 🔥 MemoryOS Support List\n\u003Ctable>\n  \u003Cthead>\n    \u003Ctr>\n      \u003Cth>Type\u003C\u002Fth>\n      \u003Cth>Name\u003C\u002Fth>\n      \u003Cth>Open&nbsp;Source\u003C\u002Fth>\n      \u003Cth>Support\u003C\u002Fth>\n      \u003Cth>Configuration\u003C\u002Fth>\n      \u003Cth>Description\u003C\u002Fth>\n    \u003C\u002Ftr>\n  \u003C\u002Fthead>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Ctd rowspan=\"3\">Agent Client\u003C\u002Ftd>\n      \u003Ctd>\u003Cstrong>Claude Desktop\u003C\u002Fstrong>\u003C\u002Ftd>\n      \u003Ctd>❌\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>claude_desktop_config.json\u003C\u002Ftd>\n      \u003Ctd>Anthropic official client\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cstrong>Cline\u003C\u002Fstrong>\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>VS Code settings\u003C\u002Ftd>\n      \u003Ctd>VS Code extension\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cstrong>Cursor\u003C\u002Fstrong>\u003C\u002Ftd>\n      \u003Ctd>❌\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>Settings panel\u003C\u002Ftd>\n      \u003Ctd>AI code editor\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd rowspan=\"6\">Model Provider\u003C\u002Ftd>\n      \u003Ctd>\u003Cstrong>OpenAI\u003C\u002Fstrong>\u003C\u002Ftd>\n      \u003Ctd>❌\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>OPENAI_API_KEY\u003C\u002Ftd>\n      \u003Ctd>GPT-4, GPT-3.5, etc.\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cstrong>Anthropic\u003C\u002Fstrong>\u003C\u002Ftd>\n      \u003Ctd>❌\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>ANTHROPIC_API_KEY\u003C\u002Ftd>\n      \u003Ctd>Claude series\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cstrong>Deepseek-R1\u003C\u002Fstrong>\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>DEEPSEEK_API_KEY\u003C\u002Ftd>\n      \u003Ctd>Chinese large model\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cstrong>Qwen\u002FQwen3\u003C\u002Fstrong>\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>QWEN_API_KEY\u003C\u002Ftd>\n      \u003Ctd>Alibaba Qwen\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cstrong>vLLM\u003C\u002Fstrong>\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>Local deployment\u003C\u002Ftd>\n      \u003Ctd>Local model inference\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cstrong>Llama_factory\u003C\u002Fstrong>\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>Local deployment\u003C\u002Ftd>\n      \u003Ctd>Local fine-tuning deployment\u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\nAll model calls use the OpenAI API interface; you need to supply the API key and base URL.\n\n\n\n## 📑 Table of Contents\n\n* \u003Ca href='#features'>✨ Features\u003C\u002Fa>\n* \u003Ca href='#news'>🔥 News\u003C\u002Fa>\n* \u003Ca href='#list'>🔍Support Lists \u003C\u002Fa>\n* \u003Ca href='#structure'> 📁Project Structure\u003C\u002Fa>\n* \u003Ca href='#pypi-mode'>🎯 Quick Start\u003C\u002Fa>\n  * \u003Ca href='pypi-mode'>PYPI Install MemoryOS\u003C\u002Fa>\n  * \u003Ca href='#MCP-mode'>MemoryOS-MCP\u003C\u002Fa>\n  * \u003Ca href='#memoryos_chromadb-getting-started'>MemoryOS-chromadb\u003C\u002Fa>\n  * \u003Ca href='#docker-getting-started'>Docker\u003C\u002Fa>\n  * \u003Ca href='#playground-getting-started'>Playground\u003C\u002Fa>\n* \u003Ca href='#todo'>☑️ Todo List\u003C\u002Fa>\n* \u003Ca href='#reproduce'>🔬 How to Reproduce the Results in the Paper \u003C\u002Fa>\n* \u003Ca href='#doc'>📖 Documentation \u003C\u002Fa>\n* \u003Ca href='#cite'>🌟 Cite\u003C\u002Fa>\n* \u003Ca href='#community'>🤝 Join the Community\u003C\u002Fa>\n\n\u003Cspan id='vedio'\u002F>\n\n\u003C!--## Demo-->\n\u003C!--[![Watch the video](https:\u002F\u002Fimg.youtube.com\u002Fvi\u002Fy9Igs0FnX_M\u002Fmaxresdefault.jpg)](https:\u002F\u002Fyoutu.be\u002Fy9Igs0FnX_M)-->\n\n\n\u003Cspan id='structure'\u002F>\n\n## 🏗️\tSystem Architecture\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBAI-LAB_MemoryOS_readme_955e6ef1c1a6.png\" width=\"80%\" alt=\"image\">\n\n## 🏗️ Project Structure\n\n```\nmemoryos\u002F\n├── __init__.py            # Initializes the MemoryOS package\n├── __pycache__\u002F           # Python cache directory (auto-generated)\n├── long_term.py           # Manages long-term persona memory (user profile, knowledge)\n├── memoryos.py            # Main class for MemoryOS, orchestrating all components\n├── mid_term.py            # Manages mid-term memory, consolidating short-term interactions\n├── prompts.py             # Contains prompts used for LLM interactions (e.g., summarization, analysis)\n├── retriever.py           # Retrieves relevant information from all memory layers\n├── short_term.py          # Manages short-term memory for recent interactions\n├── updater.py             # Processes memory updates, including promoting information between layers\n└── utils.py               # Utility functions used across the library\n```\n\n\n\u003C!--\n## 📖 How It Works\n\n1.  **Initialization:** `Memoryos` is initialized with user and assistant IDs, API keys, data storage paths, and various capacity\u002Fthreshold settings. It sets up dedicated storage for each user and assistant.\n2.  **Adding Memories:** User inputs and agent responses are added as QA pairs. These are initially stored in short-term memory.\n3.  **Short-Term to Mid-Term Processing:** When short-term memory is full, the `Updater` module processes these interactions, consolidating them into meaningful segments and storing them in mid-term memory.\n4.  **Mid-Term Analysis & LPM Updates:** Mid-term memory segments accumulate \"heat\" based on factors like visit frequency and interaction length. When a segment's heat exceeds a threshold, its content is analyzed:\n    *   User profile insights are extracted and used to update the long-term user profile.\n    *   Specific user facts are added to the user's long-term knowledge.\n    *   Relevant information for the assistant is added to the assistant's long-term knowledge base.\n5.  **Response Generation:** When a user query is received:\n    *   The `Retriever` module fetches relevant context from short-term history, mid-term memory segments, the user's profile & knowledge, and the assistant's knowledge base.\n    *   This comprehensive context is then used, along with the user's query, to generate a coherent and informed response via an LLM.\n-->    \n\n\u003Cspan id='pypi-mode'\u002F>\n\n## 📖MemoryOS_PyPi Getting Started\n\n\n\n### Prerequisites\n\n*   Python >= 3.10\n*   conda create -n MemoryOS python=3.10\n*   conda activate MemoryOS\n\n### Installation\n\n#### Download from PyPi\n```bash\npip install memoryos-pro -i https:\u002F\u002Fpypi.org\u002Fsimple\n```\n#### Download from GitHub (latest version)\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FBAI-LAB\u002FMemoryOS.git\ncd MemoryOS\u002Fmemoryos-pypi\npip install -r requirements.txt\n```\n\n\n\n### Basic Usage\n\n```python\n\nimport os\nfrom memoryos import Memoryos\n\n# --- Basic Configuration ---\nUSER_ID = \"demo_user\"\nASSISTANT_ID = \"demo_assistant\"\nAPI_KEY = \"YOUR_OPENAI_API_KEY\"  # Replace with your key\nBASE_URL = \"\"  # Optional: if using a custom OpenAI endpoint\nDATA_STORAGE_PATH = \".\u002Fsimple_demo_data\"\nLLM_MODEL = \"gpt-4o-mini\"\n\ndef simple_demo():\n    print(\"MemoryOS Simple Demo\")\n    \n    # 1. Initialize MemoryOS\n    print(\"Initializing MemoryOS...\")\n    try:\n        memo = Memoryos(\n            user_id=USER_ID,\n            openai_api_key=API_KEY,\n            openai_base_url=BASE_URL,\n            data_storage_path=DATA_STORAGE_PATH,\n            llm_model=LLM_MODEL,\n            assistant_id=ASSISTANT_ID,\n            short_term_capacity=7,  \n            mid_term_heat_threshold=5,  \n            retrieval_queue_capacity=7,\n            long_term_knowledge_capacity=100,\n            #Support Qwen\u002FQwen3-Embedding-0.6B, BAAI\u002Fbge-m3, all-MiniLM-L6-v2\n            embedding_model_name=\"BAAI\u002Fbge-m3\"\n        )\n        print(\"MemoryOS initialized successfully!\\n\")\n    except Exception as e:\n        print(f\"Error: {e}\")\n        return\n\n    # 2. Add some basic memories\n    print(\"Adding some memories...\")\n    \n    memo.add_memory(\n        user_input=\"Hi! I'm Tom, I work as a data scientist in San Francisco.\",\n        agent_response=\"Hello Tom! Nice to meet you. Data science is such an exciting field. What kind of data do you work with?\"\n    )\n     \n    test_query = \"What do you remember about my job?\"\n    print(f\"User: {test_query}\")\n    \n    response = memo.get_response(\n        query=test_query,\n    )\n    \n    print(f\"Assistant: {response}\")\n\nif __name__ == \"__main__\":\n    simple_demo()\n```\n\u003Cspan id='MCP-mode'\u002F>\n\n## 📖 MemoryOS-MCP Getting Started\n### 🔧 Core Tools\n\n#### 1. `add_memory`\nSaves the content of the conversation between the user and the AI assistant into the memory system, for the purpose of building a persistent dialogue history and contextual record.\n\n#### 2. `retrieve_memory`\nRetrieves related historical dialogues, user preferences, and knowledge information from the memory system based on a query, helping the AI assistant understand the user’s needs and background.\n\n#### 3. `get_user_profile`\nObtains a user profile generated from the analysis of historical dialogues, including the user’s personality traits, interest preferences, and relevant knowledge background.\n\n\n### 1. Install dependencies\n```bash\ncd memoryos-mcp\npip install -r requirements.txt\n```\n### 2. configuration\n\nEdit `config.json`：\n```json\n{\n  \"user_id\": \"user ID\",\n  \"openai_api_key\": \"OpenAI API key\",\n  \"openai_base_url\": \"https:\u002F\u002Fapi.openai.com\u002Fv1\",\n  \"data_storage_path\": \".\u002Fmemoryos_data\",\n  \"assistant_id\": \"assistant_id\",\n  \"llm_model\": \"gpt-4o-mini\"\n  \"embedding_model_name\":\"BAAI\u002Fbge-m3\"\n}\n```\n### 3. Start the server\n```bash\npython server_new.py --config config.json\n```\n### 4. Test\n```bash\npython test_comprehensive.py\n```\n### 5. Configure it on Cline and other clients\nCopy the mcp.json file over, and make sure the file path is correct.\n```bash\ncommand\": \"\u002Froot\u002Fminiconda3\u002Fenvs\u002Fmemos\u002Fbin\u002Fpython\"\n#This should be changed to the Python interpreter of your virtual environment\n```\n## 📖MemoryOS_Chromadb Getting Started\n\n### 1. Install dependencies\n```bash\ncd memoryos-chromadb\npip install -r requirements.txt\n```\n### 2. Test\n```bash\nThe edit information is in comprehensive_test.py\n    memoryos = Memoryos(\n        user_id='travel_user_test',\n        openai_api_key='',\n        openai_base_url='',\n        data_storage_path='.\u002Fcomprehensive_test_data',\n        assistant_id='travel_assistant',\n        embedding_model_name='BAAI\u002Fbge-m3',\n        mid_term_capacity=1000,\n        mid_term_heat_threshold=13.0,\n        mid_term_similarity_threshold=0.7,\n        short_term_capacity=2\n    )\npython3 comprehensive_test.py\n# Make sure to use a different data storage path when switching embedding models.\n```\n## 📖Docker Getting Started\nYou can run MemoryOS using Docker in two ways: by pulling the official image or by building your own image from the Dockerfile. Both methods are suitable for quick setup, testing, and production deployment.\n### Option 1: Pull the Official Image\n```bash\n# Pull the latest official image\ndocker pull ghcr.io\u002Fbai-lab\u002Fmemoryos:latest\n\ndocker run -it --gpus=all ghcr.io\u002Fbai-lab\u002Fmemoryos \u002Fbin\u002Fbash\n```\n### Option 2: Build from Dockerfile\n```bash\n# Clone the repository\ngit clone https:\u002F\u002Fgithub.com\u002FBAI-LAB\u002FMemoryOS.git\n          \ncd MemoryOS\n\n# Build the Docker image (make sure Dockerfile is present)\ndocker build -t memoryos .\n\ndocker run -it --gpus=all memoryos \u002Fbin\u002Fbash\n```\n\n## 📖Playground Getting Started\n\n```bash\ncd MemoryOS\u002Fmemoryos-playground\u002Fmemdemo\u002F\n\npython3 app.py\n```\nAfter launching the main interface, fill in the corresponding User ID, OpenAI API Key, Model, and API Base URL.\n\u003Cimg width=\"645\" height=\"645\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBAI-LAB_MemoryOS_readme_223d678e9222.png\" \u002F>\n\nAfter entering the system, you can use the Help button to view the functions of each button. \n\nThe user's memory is stored under MemoryOS-main\u002Fmemoryos-playground\u002Fmemdemo\u002Fdata\n\n\u003Cimg width=\"645\" height=\"645\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBAI-LAB_MemoryOS_readme_98ccf77ed8c0.png\" \u002F>\n\n## 🎯Reproduce\n```bash\ncd eval\nConfigure API keys and other settings in the code\npython3 main_loco_parse.py\npython3 evalution_loco.py\n```\n\n\n\u003Cspan id='todo'\u002F>\n\n## ☑️ Todo List\n\nMemoryOS is continuously evolving! Here's what's coming:\n\n- **Ongoing🚀**: **Integrated Benchmarks**: Standardized benchmark suite with a cross-model comparison for Mem0, Zep, and OpenAI\n- 🏗️ Enabling seamless Memory exchange and integration across diverse systems.\n\n  \n\nHave ideas or suggestions? Contributions are welcome! Please feel free to submit issues or pull requests! 🚀\n\n\u003Cspan id='doc'\u002F>\n\n## 📖 Documentation\n\nA more detailed documentation is coming soon 🚀, and we will update in the [Documentation](https:\u002F\u002Fbai-lab.github.io\u002FMemoryOS\u002Fdocs) page.\n\n\u003Cspan id='cite'\u002F>\n\n## 📣 Citation\n**If you find this project useful, please consider citing our paper:**\n\n```bibtex\n@misc{kang2025memoryosaiagent,\n      title={Memory OS of AI Agent}, \n      author={Jiazheng Kang and Mingming Ji and Zhe Zhao and Ting Bai},\n      year={2025},\n      eprint={2506.06326},\n      archivePrefix={arXiv},\n      primaryClass={cs.AI},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.06326}, \n}\n```\n\n\u003Cspan id='related'\u002F>\n\n\u003C!--## 🔍 Related Projects -->\n\u003C!--on going-->\n\n\u003Cspan id='community'\u002F>\n\n## 🎯 Contact us\nBaiJia AI is a research team guided by Associate Professor Bai Ting from Beijing University of Posts and Telecommunications, dedicated to creating emotionally rich and super-memory brains for AI agents. \n\n🤝 Cooperation and Suggestions: baiting@bupt.edu.cn \n\n📣Follow our **WeChat official account**, join the **WeChat group** or  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDiscord-yellow\" alt=\"Discord\"> https:\u002F\u002Fdiscord.gg\u002FSqVj7QvZ to get the latest updates.\n\n\u003Cdiv style=\"display: flex; justify-content: center; gap: 20px;\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBAI-LAB_MemoryOS_readme_369729c68afe.png\" alt=\"百家Agent公众号\" width=\"250\"\u002F> \n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBAI-LAB_MemoryOS_readme_1a484fe133c2.png\" alt=\"微信群二维码\" width=\"250\"\u002F>\n\n\u003C\u002Fdiv>\n\n## 🌟 Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBAI-LAB_MemoryOS_readme_c887c09d0798.png)](https:\u002F\u002Fwww.star-history.com\u002F#BAI-LAB\u002FMemoryOS&Timeline)\n\n## Disclaimer\nThis project, MemoryOS (Memory Operation System), is developed by the BaiJia AI team and has no affiliation with memoryOS (https:\u002F\u002Fmemoryos.com). The use of the name \"MemoryOS\" herein is solely for academic discussion purposes.\n\n\n","# MemoryOS\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBAI-LAB_MemoryOS_readme_295c9ada8c41.png\" alt=\"logo\" width=\"400\"\u002F>\n\u003C\u002Fdiv>\n\u003Cp align=\"center\">\n    \u003Ca href=\"readme_cn.md\" target=\"_blank\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FReadme-中文-blue\" alt=\"Readme:中文\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.06326\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FArxiv-paper-red\" alt=\"Mem0 Discord\">\n  \u003C\u002Fa>\n  \u003Ca href=\"#contact-us\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FWechat-群二维码-green\" alt=\"Mem0 PyPI - Downloads\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=WHQu8fpEOaU\" target=\"blank\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYoutube-Video-red\" alt=\"Npm package\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FSqVj7QvZ\" target=\"_blank\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDiscord-Join_us-yellow\" alt=\"Discord\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0\" target=\"_blank\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache_2.0-blue\" alt=\"License: Apache 2.0\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Ch5 align=\"center\"> 🎉 如果你喜欢我们的项目，请在 GitHub 上为我们点亮一颗星 ⭐，以获取最新更新。\u003C\u002Fh5>\n\n**MemoryOS** 旨在为个性化 AI 代理提供记忆操作系统，从而实现更加连贯、个性化且具备上下文感知的交互。它借鉴了操作系统中的内存管理原理，采用分层存储架构，包含存储、更新、检索和生成四个核心模块，以实现全面而高效的记忆管理。在 LoCoMo 基准测试中，该模型在 F1 和 BLEU-1 指标上分别取得了平均 **49.11%** 和 **46.18%** 的提升。\n\n- **论文**: \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.06326\" target=\"_blank\">https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.06326\u003C\u002Fa>\n- **官网**: \u003Ca href=\"https:\u002F\u002Fbaijia.online\u002Fmemoryos\u002F\" target=\"_blank\">https:\u002F\u002Fbaijia.online\u002Fmemoryos\u002F\u003C\u002Fa>\n- **文档**: \u003Ca href=\"https:\u002F\u002Fbai-lab.github.io\u002FMemoryOS\u002Fdocs\" target=\"_blank\">https:\u002F\u002Fbai-lab.github.io\u002FMemoryOS\u002Fdocs\u003C\u002Fa>\n- **YouTube 视频**: **MemoryOS MCP + RAG Agent That Can Remember Anything**\n- \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=WHQu8fpEOaU \">https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=WHQu8fpEOaU \u003C\u002Fa>\n\n\n\u003Cspan id='features'\u002F>\n\n## ✨核心特性\n\n* 🏆 **顶尖的记忆管理性能**\n\u003C\u002Fbr> 在长期记忆基准测试中取得 SOTA 结果，在 LoCoMo 基准上将 F1 分数提升 49.11%，BLEU-1 提升 46.18%。\n\n* 🧠 **即插即用的记忆管理架构**\n\u003C\u002Fbr> 支持无缝集成可插拔的记忆模块，包括存储引擎、更新策略和检索算法。\n\n* ✨ **轻松创建代理工作流**（**MemoryOS-MCP**）\n\u003C\u002Fbr> 通过调用 MCP 服务器提供的模块化工具，为各类 AI 应用注入长期记忆能力。\n\n* 🌐 **通用的 LLM 支持**\n\u003C\u002Fbr> MemoryOS 可与广泛的 LLM（如 OpenAI、Deepseek、Qwen 等）无缝集成。\n\n\n\n\n\u003Cspan id='news'\u002F>\n\n## 🧠 记忆家族 \n\n欢迎加入我们的 **记忆家族**，这是一条致力于探索 AI 记忆的研究线。\n\n> [**AI 记忆综述：理论、分类、评估及新兴趋势**](http:\u002F\u002Fgithub.com\u002FBAI-LAB\u002FSurvey-on-AI-Memory\u002Fblob\u002Fmain\u002FSurvey%20on%20AI%20Memory.pdf)  \n> **简而言之:** 提供了一个统一的 AI 记忆理论框架，引入了全面的分类体系，并系统地分析了记忆机制、应用及评估方法。  \n> 📄 论文: http:\u002F\u002Fgithub.com\u002FBAI-LAB\u002FSurvey-on-AI-Memory\u002Fblob\u002Fmain\u002FSurvey%20on%20AI%20Memory.pdf\n\n> [**LightSearcher: 基于经验记忆的高效深度搜索**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2512.06653)  \n> **简而言之:** 将经验记忆引入深度搜索系统，使模型能够从成功的推理轨迹中学习，从而提高搜索效率。  \n> 📄 论文: https:\u002F\u002Farxiv.org\u002Fabs\u002F2512.06653\n\n> [**AI 代理的记忆操作系统**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.06326)  \n> **简而言之:** 提出了一种用于 AI 代理的记忆操作系统，通过分层存储、动态更新、检索和生成来管理短期、中期和长期个人记忆，从而提升长对话中的连贯性和个性化程度。  \n> 📄 论文: https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.06326\n\n## 📣 最新消息\n*   *\u003Cmark>[new]\u003C\u002Fmark>* 🔥🔥🔥  **[2026-01-15]**: **✨发布** [AI 记忆综述：理论、分类、评估及新兴趋势](https:\u002F\u002Fgithub.com\u002FBAI-LAB\u002FSurvey-on-AI-Memory)!\n*   *\u003Cmark>[new]\u003C\u002Fmark>* 🔥🔥  **[2025-09-11]**: **🚀开源**了 [Playground 平台](#playground-getting-started)!\n*   *\u003Cmark>[new]\u003C\u002Fmark>* 🔥🔥  **[2025-08-21]**: **🎉被 EMNLP 2025 主会场接收**!\n*   *\u003Cmark>[new]\u003C\u002Fmark>* 🔥 **[2025-07-15]**: **🔌 支持**向量数据库 [Chromadb](#memoryos_chromadb-getting-started)\n*   *\u003Cmark>[new]\u003C\u002Fmark>* 🔥 **[2025-07-15]**: **🔌 将** [Docker](#docker-getting-started) 集成到部署流程中\n*   *\u003Cmark>[new]\u003C\u002Fmark>*   **[2025-07-14]**: **⚡ 加速** MCP 的并行化 \n*   *\u003Cmark>[new]\u003C\u002Fmark>*   **[2025-07-14]**: **🔌 支持** BGE-M3 和 Qwen3 的嵌入模型在 PyPI 和 MCP 上。\n*   *\u003Cmark>[new]\u003C\u002Fmark>*   **[2025-07-09]**: **📊 对 MemoryOS 在 LoCoMo 数据集上的评估**: 公开可用 [👉复现](#reproduce)。\n*   *\u003Cmark>[new]\u003C\u002Fmark>*  **[2025-07-08]**: **🏆 新配置参数**\n*   新增参数配置: **similarity_threshold**。有关配置文件，请参阅 📖 [文档](https:\u002F\u002Fbai-lab.github.io\u002FMemoryOS\u002Fdocs) 页面。\n*   *\u003Cmark>[new]\u003C\u002Fmark>*   **[2025-07-07]**: **🚀速度提升 5 倍**\n*   MemoryOS (PYPI) 实现已升级: 通过并行化优化，速度提升了 **5 倍**（延迟显著降低）。\n*   *\u003Cmark>[new]\u003C\u002Fmark>*  **[2025-07-07]**: **✨现在支持 R1 模型**\n*   MemoryOS 支持配置和使用诸如 **Deepseek-r1 和 Qwen3..** 等推理模型。\n*   *\u003Cmark>[new]\u003C\u002Fmark>*  **[2025-07-07]**: **✨MemoryOS Playground 正式上线**\n*   **MemoryOS 平台**的 Playground 已经上线！[👉MemoryOS 平台](https:\u002F\u002Fbaijia.online\u002Fmemoryos\u002F)。如需 **邀请码**，欢迎随时联系 [联系我们](#community)。\n*   *\u003Cmark>[new]\u003C\u002Fmark>*   **[2025-06-15]**:🛠️ 开源版 **MemoryOS-MCP** 发布！现在可在代理客户端上进行配置，实现无缝集成和定制化。[👉 MemoryOS-MCP](#memoryos-mcp-getting-started)。\n*   **[2025-05-30]**: 📄 论文——**AI 代理的记忆操作系统**已在 arXiv 上发布：https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.06326。\n*   **[2025-05-30]**: 初始版本的 **MemoryOS** 正式上线！具备自动化的用户画像和知识更新功能，支持短期、中期和长期人格记忆。\n\n  \n\n\u003Cspan id='list'\u002F>\n\n## 🔥 MemoryOS 支持列表\n\u003Ctable>\n  \u003Cthead>\n    \u003Ctr>\n      \u003Cth>类型\u003C\u002Fth>\n      \u003Cth>名称\u003C\u002Fth>\n      \u003Cth>开源\u003C\u002Fth>\n      \u003Cth>支持\u003C\u002Fth>\n      \u003Cth>配置\u003C\u002Fth>\n      \u003Cth>描述\u003C\u002Fth>\n    \u003C\u002Ftr>\n  \u003C\u002Fthead>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Ctd rowspan=\"3\">代理客户端\u003C\u002Ftd>\n      \u003Ctd>\u003Cstrong>Claude Desktop\u003C\u002Fstrong>\u003C\u002Ftd>\n      \u003Ctd>❌\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>claude_desktop_config.json\u003C\u002Ftd>\n      \u003Ctd>Anthropic 官方客户端\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cstrong>Cline\u003C\u002Fstrong>\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>VS Code 设置\u003C\u002Ftd>\n      \u003Ctd>VS Code 扩展\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cstrong>Cursor\u003C\u002Fstrong>\u003C\u002Ftd>\n      \u003Ctd>❌\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>设置面板\u003C\u002Ftd>\n      \u003Ctd>AI 代码编辑器\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd rowspan=\"6\">模型提供商\u003C\u002Ftd>\n      \u003Ctd>\u003Cstrong>OpenAI\u003C\u002Fstrong>\u003C\u002Ftd>\n      \u003Ctd>❌\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>OPENAI_API_KEY\u003C\u002Ftd>\n      \u003Ctd>GPT-4、GPT-3.5 等\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cstrong>Anthropic\u003C\u002Fstrong>\u003C\u002Ftd>\n      \u003Ctd>❌\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>ANTHROPIC_API_KEY\u003C\u002Ftd>\n      \u003Ctd>Claude 系列\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cstrong>Deepseek-R1\u003C\u002Fstrong>\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>DEEPSEEK_API_KEY\u003C\u002Ftd>\n      \u003Ctd>中文大型模型\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cstrong>Qwen\u002FQwen3\u003C\u002Fstrong>\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>QWEN_API_KEY\u003C\u002Ftd>\n      \u003Ctd>阿里巴巴通义千问\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cstrong>vLLM\u003C\u002Fstrong>\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>本地部署\u003C\u002Ftd>\n      \u003Ctd>本地模型推理\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cstrong>Llama_factory\u003C\u002Fstrong>\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>✅\u003C\u002Ftd>\n      \u003Ctd>本地部署\u003C\u002Ftd>\n      \u003Ctd>本地微调部署\u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n所有模型调用均使用 OpenAI API 接口；您需要提供 API 密钥和基础 URL。\n\n\n\n## 📑 目录\n\n* \u003Ca href='#features'>✨ 特性\u003C\u002Fa>\n* \u003Ca href='#news'>🔥 新闻\u003C\u002Fa>\n* \u003Ca href='#list'>🔍 支持列表\u003C\u002Fa>\n* \u003Ca href='#structure'> 📁 项目结构\u003C\u002Fa>\n* \u003Ca href='#pypi-mode'>🎯 快速入门\u003C\u002Fa>\n  * \u003Ca href='pypi-mode'>通过 PYPI 安装 MemoryOS\u003C\u002Fa>\n  * \u003Ca href='#MCP-mode'>MemoryOS-MCP\u003C\u002Fa>\n  * \u003Ca href='#memoryos_chromadb-getting-started'>MemoryOS-chromadb\u003C\u002Fa>\n  * \u003Ca href='#docker-getting-started'>Docker\u003C\u002Fa>\n  * \u003Ca href='#playground-getting-started'>Playground\u003C\u002Fa>\n* \u003Ca href='#todo'>☑️ 待办事项\u003C\u002Fa>\n* \u003Ca href='#reproduce'>🔬 如何复现论文中的结果\u003C\u002Fa>\n* \u003Ca href='#doc'>📖 文档\u003C\u002Fa>\n* \u003Ca href='#cite'>🌟 引用\u003C\u002Fa>\n* \u003Ca href='#community'>🤝 加入社区\u003C\u002Fa>\n\n\u003Cspan id='vedio'\u002F>\n\n\u003C!--## 演示-->\n\u003C!--[![观看视频](https:\u002F\u002Fimg.youtube.com\u002Fvi\u002Fy9Igs0FnX_M\u002Fmaxresdefault.jpg)](https:\u002F\u002Fyoutu.be\u002Fy9Igs0FnX_M)-->\n\n\n\u003Cspan id='structure'\u002F>\n\n## 🏗️\t系统架构\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBAI-LAB_MemoryOS_readme_955e6ef1c1a6.png\" width=\"80%\" alt=\"image\">\n\n## 🏗️ 项目结构\n\n```\nmemoryos\u002F\n├── __init__.py            # 初始化 MemoryOS 包\n├── __pycache__\u002F           # Python 缓存目录（自动生成）\n├── long_term.py           # 管理长期人格记忆（用户画像、知识）\n├── memoryos.py            # MemoryOS 主类，协调所有组件\n├── mid_term.py            # 管理中期记忆，整合短期交互\n├── prompts.py             # 包含用于 LLM 交互的提示词（如总结、分析）\n├── retriever.py           # 从各层记忆中检索相关信息\n├── short_term.py          # 管理近期交互的短期记忆\n├── updater.py             # 处理记忆更新，包括在各层之间传递信息\n└── utils.py               # 库中通用的工具函数\n```\n\n\n\u003C!--\n## 📖 工作原理\n\n1.  **初始化：** `Memoryos` 使用用户和助手 ID、API 密钥、数据存储路径以及各种容量\u002F阈值设置进行初始化。它为每个用户和助手建立专用存储空间。\n2.  **添加记忆：** 用户输入和代理响应以问答对的形式被添加。这些内容最初存储在短期记忆中。\n3.  **短期到中期处理：** 当短期记忆满时，`Updater` 模块会处理这些交互，将其整合为有意义的片段，并存储到中期记忆中。\n4.  **中期分析与 LPM 更新：** 中期记忆片段会根据访问频率、交互时长等因素积累“热度”。当某个片段的热度超过阈值时，其内容会被分析：\n    *   提取用户画像洞察，并用于更新用户的长期画像。\n    *   将特定的用户事实添加到用户的长期知识中。\n    *   将与助手相关的信息添加到助手的长期知识库中。\n5.  **生成回复：** 当收到用户查询时：\n    *   `Retriever` 模块会从短期历史记录、中期记忆片段、用户画像及知识，以及助手的知识库中提取相关上下文。\n    *   结合用户查询，利用这些全面的上下文，通过 LLM 生成连贯且信息丰富的回复。\n-->    \n\n\u003Cspan id='pypi-mode'\u002F>\n\n## 📖 MemoryOS_PyPi 快速入门\n\n\n\n### 前置条件\n\n*   Python >= 3.10\n*   conda create -n MemoryOS python=3.10\n*   conda activate MemoryOS\n\n### 安装\n\n#### 从 PyPi 下载\n```bash\npip install memoryos-pro -i https:\u002F\u002Fpypi.org\u002Fsimple\n```\n#### 从 GitHub 下载（最新版本）\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FBAI-LAB\u002FMemoryOS.git\ncd MemoryOS\u002Fmemoryos-pypi\npip install -r requirements.txt\n```\n\n\n\n### 基本用法\n\n```python\n\nimport os\nfrom memoryos import Memoryos\n\n# --- 基本配置 ---\nUSER_ID = \"demo_user\"\nASSISTANT_ID = \"demo_assistant\"\nAPI_KEY = \"YOUR_OPENAI_API_KEY\"  # 替换为你的密钥\nBASE_URL = \"\"  # 可选：如果使用自定义的 OpenAI 端点\nDATA_STORAGE_PATH = \".\u002Fsimple_demo_data\"\nLLM_MODEL = \"gpt-4o-mini\"\n\ndef simple_demo():\n    print(\"MemoryOS 简单演示\")\n    \n    # 1. 初始化 MemoryOS\n    print(\"初始化 MemoryOS...\")\n    try:\n        memo = Memoryos(\n            user_id=USER_ID,\n            openai_api_key=API_KEY,\n            openai_base_url=BASE_URL,\n            data_storage_path=DATA_STORAGE_PATH,\n            llm_model=LLM_MODEL,\n            assistant_id=ASSISTANT_ID,\n            short_term_capacity=7,  \n            mid_term_heat_threshold=5,  \n            retrieval_queue_capacity=7,\n            long_term_knowledge_capacity=100,\n            #支持 Qwen\u002FQwen3-Embedding-0.6B, BAAI\u002Fbge-m3, all-MiniLM-L6-v2\n            embedding_model_name=\"BAAI\u002Fbge-m3\"\n        )\n        print(\"MemoryOS 初始化成功！\\n\")\n    except Exception as e:\n        print(f\"错误: {e}\")\n        return\n\n    # 2. 添加一些基本记忆\n    print(\"添加一些记忆...\")\n    \n    memo.add_memory(\n        user_input=\"你好！我是汤姆，在旧金山担任数据科学家。\",\n        agent_response=\"你好，汤姆！很高兴认识你。数据科学真是个令人兴奋的领域。你主要处理什么样的数据呢？\"\n    )\n     \n    test_query = \"你还记得我的工作吗?\"\n    print(f\"用户: {test_query}\")\n    \n    response = memo.get_response(\n        query=test_query,\n    )\n    \n    print(f\"助手: {response}\")\n\nif __name__ == \"__main__\":\n    simple_demo()\n```\n\u003Cspan id='MCP-mode'\u002F>\n\n## 📖 MemoryOS-MCP 入门指南\n### 🔧 核心工具\n\n#### 1. `add_memory`\n将用户与 AI 助手之间的对话内容保存到记忆系统中，以构建持久的对话历史和上下文记录。\n\n#### 2. `retrieve_memory`\n根据查询从记忆系统中检索相关的历史对话、用户偏好和知识信息，帮助 AI 助手理解用户的需要和背景。\n\n#### 3. `get_user_profile`\n通过分析历史对话生成用户画像，包括用户的性格特征、兴趣偏好以及相关知识背景。\n\n\n### 1. 安装依赖\n```bash\ncd memoryos-mcp\npip install -r requirements.txt\n```\n### 2. 配置\n\n编辑 `config.json`：\n```json\n{\n  \"user_id\": \"用户ID\",\n  \"openai_api_key\": \"OpenAI API 密钥\",\n  \"openai_base_url\": \"https:\u002F\u002Fapi.openai.com\u002Fv1\",\n  \"data_storage_path\": \".\u002Fmemoryos_data\",\n  \"assistant_id\": \"assistant_id\",\n  \"llm_model\": \"gpt-4o-mini\"\n  \"embedding_model_name\":\"BAAI\u002Fbge-m3\"\n}\n```\n### 3. 启动服务器\n```bash\npython server_new.py --config config.json\n```\n### 4. 测试\n```bash\npython test_comprehensive.py\n```\n### 5. 在 Cline 和其他客户端上配置\n复制 mcp.json 文件，并确保文件路径正确。\n```bash\ncommand\": \"\u002Froot\u002Fminiconda3\u002Fenvs\u002Fmemos\u002Fbin\u002Fpython\"\n#这应该更改为你的虚拟环境的 Python 解释器\n```\n## 📖MemoryOS_Chromadb 入门指南\n\n### 1. 安装依赖\n```bash\ncd memoryos-chromadb\npip install -r requirements.txt\n```\n### 2. 测试\n```bash\n测试信息在 comprehensive_test.py 中\n    memoryos = Memoryos(\n        user_id='travel_user_test',\n        openai_api_key='',\n        openai_base_url='',\n        data_storage_path='.\u002Fcomprehensive_test_data',\n        assistant_id='travel_assistant',\n        embedding_model_name='BAAI\u002Fbge-m3',\n        mid_term_capacity=1000,\n        mid_term_heat_threshold=13.0,\n        mid_term_similarity_threshold=0.7,\n        short_term_capacity=2\n    )\npython3 comprehensive_test.py\n# 切换嵌入模型时，请务必使用不同的数据存储路径。\n```\n## 📖Docker 入门指南\n你可以通过两种方式使用 Docker 运行 MemoryOS：拉取官方镜像或从 Dockerfile 构建自己的镜像。这两种方法都适用于快速搭建、测试和生产部署。\n### 选项 1：拉取官方镜像\n```bash\n# 拉取最新的官方镜像\ndocker pull ghcr.io\u002Fbai-lab\u002Fmemoryos:latest\n\ndocker run -it --gpus=all ghcr.io\u002Fbai-lab\u002Fmemoryos \u002Fbin\u002Fbash\n```\n### 选项 2：从 Dockerfile 构建\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002FBAI-LAB\u002FMemoryOS.git\n          \ncd MemoryOS\n\n# 构建 Docker 镜像（确保 Dockerfile 存在）\ndocker build -t memoryos .\n\ndocker run -it --gpus=all memoryos \u002Fbin\u002Fbash\n```\n\n## 📖Playground 入门指南\n\n```bash\ncd MemoryOS\u002Fmemoryos-playground\u002Fmemdemo\u002F\n\npython3 app.py\n```\n启动主界面后，填写相应的用户 ID、OpenAI API 密钥、模型和 API 基础 URL。\n\u003Cimg width=\"645\" height=\"645\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBAI-LAB_MemoryOS_readme_223d678e9222.png\" \u002F>\n\n进入系统后，可以使用“帮助”按钮查看各个按钮的功能。 \n\n用户的记忆存储在 MemoryOS-main\u002Fmemoryos-playground\u002Fmemdemo\u002Fdata 目录下。\n\n\u003Cimg width=\"645\" height=\"645\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBAI-LAB_MemoryOS_readme_98ccf77ed8c0.png\" \u002F>\n\n## 🎯重现\n```bash\ncd eval\n在代码中配置 API 密钥和其他设置\npython3 main_loco_parse.py\npython3 evalution_loco.py\n```\n\n\n\u003Cspan id='todo'\u002F>\n\n## ☑️ 待办事项\n\nMemoryOS 正在不断进化！以下是即将推出的功能：\n\n- **持续进行🚀**: **集成基准测试**：为 Mem0、Zep 和 OpenAI 提供跨模型比较的标准基准测试套件\n- 🏗️ 实现不同系统之间无缝的记忆交换与集成。\n\n如果你有任何想法或建议，欢迎贡献！请随时提交问题或拉取请求！🚀\n\n\u003Cspan id='doc'\u002F>\n\n## 📖 文档\n\n更详细的文档即将发布🚀，我们将在 [文档](https:\u002F\u002Fbai-lab.github.io\u002FMemoryOS\u002Fdocs) 页面上更新。\n\n\u003Cspan id='cite'\u002F>\n\n## 📣 引用\n**如果您觉得这个项目有用，请考虑引用我们的论文：**\n\n```bibtex\n@misc{kang2025memoryosaiagent,\n      title={AI 代理的记忆操作系统}, \n      author={Jiazheng Kang 和 Mingming Ji 和 Zhe Zhao 和 Ting Bai},\n      year={2025},\n      eprint={2506.06326},\n      archivePrefix={arXiv},\n      primaryClass={cs.AI},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.06326}, \n}\n```\n\n\u003Cspan id='related'\u002F>\n\n\u003C!--## 🔍 相关项目 -->\n\u003C!--正在进行-->\n\n\u003Cspan id='community'\u002F>\n\n## 🎯 联系我们\n百家AI是由北京邮电大学白婷副教授指导的研究团队，致力于为人工智能智能体打造富有情感且具备超强记忆能力的大脑。\n\n🤝 合作与建议：baiting@bupt.edu.cn \n\n📣 关注我们的**微信公众号**，加入**微信群**或通过 \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDiscord-yellow\" alt=\"Discord\"> https:\u002F\u002Fdiscord.gg\u002FSqVj7QvZ 获取最新动态。\n\n\u003Cdiv style=\"display: flex; justify-content: center; gap: 20px;\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBAI-LAB_MemoryOS_readme_369729c68afe.png\" alt=\"百家Agent公众号\" width=\"250\"\u002F> \n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBAI-LAB_MemoryOS_readme_1a484fe133c2.png\" alt=\"微信群二维码\" width=\"250\"\u002F>\n\n\u003C\u002Fdiv>\n\n## 🌟 星标历史\n\n[![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBAI-LAB_MemoryOS_readme_c887c09d0798.png)](https:\u002F\u002Fwww.star-history.com\u002F#BAI-LAB\u002FMemoryOS&Timeline)\n\n## 免责声明\n本项目MemoryOS（记忆操作系统）由百家AI团队开发，与memoryOS（https:\u002F\u002Fmemoryos.com）无任何关联。此处使用“MemoryOS”这一名称仅用于学术讨论目的。","# MemoryOS 快速上手指南\n\nMemoryOS 是一个专为个性化 AI Agent 设计的记忆操作系统，通过分层存储架构（短期、中期、长期记忆）实现高效、连贯且具备上下文感知的交互。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：>= 3.10\n*   **包管理工具**：推荐使用 `conda` 或 `pip`\n*   **API Key**：准备好大模型服务商的 API Key（如 OpenAI, DeepSeek, Qwen 等）\n\n### 推荐环境配置\n建议使用 Conda 创建独立的虚拟环境以避免依赖冲突：\n\n```bash\nconda create -n memoryos python=3.10\nconda activate memoryos\n```\n\n## 2. 安装步骤\n\n您可以通过 PyPI 直接安装 MemoryOS 核心库。\n\n### 标准安装\n```bash\npip install memoryos\n```\n\n### 国内加速安装（推荐）\n如果您在中国大陆地区，建议使用清华源或阿里源以加快下载速度：\n\n```bash\npip install memoryos -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 可选组件安装\n如果您需要使用向量数据库（如 ChromaDB）或其他特定功能，可根据需求安装额外依赖：\n\n```bash\n# 安装 ChromaDB 支持\npip install memoryos[chromadb] -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 3. 基本使用\n\n以下是最简单的 Python 代码示例，展示如何初始化 MemoryOS 并进行一次带有记忆功能的对话。\n\n### 代码示例\n\n```python\nfrom memoryos import MemoryOS\n\n# 1. 初始化 MemoryOS\n# 请替换为您真实的 API Key 和 Base URL (如果使用非 OpenAI 官方接口)\nmemory_os = MemoryOS(\n    user_id=\"user_123\",\n    assistant_id=\"assistant_001\",\n    api_key=\"YOUR_API_KEY\", \n    base_url=\"https:\u002F\u002Fapi.openai.com\u002Fv1\", # 例如 DeepSeek: https:\u002F\u002Fapi.deepseek.com\n    model_name=\"gpt-4o\", # 或 deepseek-chat, qwen-plus 等\n    storage_path=\".\u002Fmemory_data\" # 本地记忆存储路径\n)\n\n# 2. 添加用户输入与助手回复 (构建记忆)\n# 模拟第一轮对话\nmemory_os.add_interaction(\n    user_input=\"你好，我叫张三，我是一名软件工程师，喜欢用 Python 编程。\",\n    assistant_response=\"你好张三！很高兴认识你。作为一名喜欢 Python 的软件工程师，有什么我可以帮你的吗？\"\n)\n\n# 模拟第二轮对话 (测试记忆检索)\nquery = \"你还记得我是做什么工作的吗？\"\nresponse = memory_os.generate_response(query)\n\nprint(f\"用户：{query}\")\nprint(f\"助手：{response}\")\n```\n\n### 关键配置说明\n*   **user_id \u002F assistant_id**: 用于区分不同用户和助手的唯一标识，确保记忆隔离。\n*   **model_name**: 支持主流模型，如 `gpt-4`, `deepseek-chat`, `qwen-max` 等。\n*   **storage_path**: 记忆数据将持久化存储在该目录下，包含短期、中期和长期记忆文件。\n\n### 下一步\n*   **MCP 集成**: 若需在 Claude Desktop、Cursor 或 Cline 中使用，请参考 MemoryOS-MCP 配置文档。\n*   **Docker 部署**: 生产环境建议使用 Docker 容器化部署。\n*   **详细文档**: 访问 [官方文档](https:\u002F\u002Fbai-lab.github.io\u002FMemoryOS\u002Fdocs) 获取高级配置（如相似度阈值、自定义 Prompt 等）。","一位资深开发者正在构建一个需要长期陪伴用户的个人健康教练 AI，该助手需跨越数周甚至数月持续跟踪用户的饮食、运动习惯及身体反馈。\n\n### 没有 MemoryOS 时\n- **记忆碎片化严重**：AI 无法有效关联用户上周提到的“膝盖受伤”与今天计划的“高强度跑步”，导致建议缺乏连贯性甚至产生冲突。\n- **上下文窗口溢出**：随着对话轮次增加，早期关键的用户偏好（如“对花生过敏”）被挤出上下文窗口，AI 被迫反复询问相同的基础信息。\n- **个性化程度低**：每次交互都像初次见面，AI 只能基于通用知识库回答，无法根据用户长期的进步轨迹调整训练强度。\n- **开发集成复杂**：开发者需手动编写复杂的数据库读写逻辑和向量检索代码来模拟记忆功能，耗时且难以维护。\n\n### 使用 MemoryOS 后\n- **层级化记忆管理**：MemoryOS 自动将“膝盖受伤”存入长期存储，并在生成建议时精准检索，主动提醒用户避免加重伤情的运动。\n- **动态更新与遗忘**：系统智能判断哪些信息需要保留（如过敏史），哪些临时状态可以更新或遗忘，确保核心画像始终清晰且不占冗余资源。\n- **深度个性化交互**：基于累积的历史数据，MemoryOS 让 AI 能像真人教练一样说：“考虑到你过去两周的耐力提升，今天我们可以尝试增加 10% 的负荷。”\n- **即插即用架构**：通过 MemoryOS-MCP 模块，开发者只需调用标准接口即可注入记忆能力，无需从零构建底层存储与检索引擎，大幅缩短开发周期。\n\nMemoryOS 通过操作系统级的记忆管理机制，让 AI 代理真正拥有了“记住过去、理解现在、规划未来”的长期认知能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBAI-LAB_MemoryOS_295c9ada.png","BAI-LAB","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FBAI-LAB_e253a3ba.png","",null,"https:\u002F\u002Fgithub.com\u002FBAI-LAB",[81,85,89,93],{"name":82,"color":83,"percentage":84},"Python","#3572A5",89.2,{"name":86,"color":87,"percentage":88},"HTML","#e34c26",10.7,{"name":90,"color":91,"percentage":92},"Shell","#89e051",0.1,{"name":94,"color":95,"percentage":96},"Dockerfile","#384d54",0,1307,129,"2026-04-03T17:36:27","Apache-2.0","未说明","未说明（支持本地部署 vLLM 和 Llama_factory，也支持调用 OpenAI、Deepseek、Qwen 等云端 API）",{"notes":104,"python":105,"dependencies":106},"该工具主要作为记忆管理系统，既支持通过 API 密钥调用云端大模型（如 OpenAI、Anthropic、Deepseek、Qwen），也支持本地部署推理（vLLM、Llama_factory）。提供了 Docker 部署方案和 MCP（Model Context Protocol）集成方式。建议使用 Conda 创建 Python 3.10 环境进行安装。","3.10+",[107],"未说明具体库版本（README 仅提及支持 Chromadb 向量数据库、BGE-M3 & Qwen3 嵌入模型）",[54,13,15,26],[110,111,112,113,114,115,116,117],"agent","language-model","llm","long-term-memory","operating-system","personalization","rag","retrieval-augmented-generation","2026-03-27T02:49:30.150509","2026-04-06T06:54:04.168241",[],[122,126,131],{"id":123,"version":124,"summary_zh":78,"released_at":125},107893,"V1.2","2025-07-18T07:21:44",{"id":127,"version":128,"summary_zh":129,"released_at":130},107894,"V1.1","增强了 MCP 和 PyPI 的并行化能力，新增了对多种嵌入模型的支持，并移除了 *llm_extract_keywords* 函数，因为它存在冗余且会增加 token 使用量。","2025-07-13T15:32:51",{"id":132,"version":133,"summary_zh":78,"released_at":134},107895,"v1.0","2025-07-12T14:53:40"]