[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-MemoriLabs--Memori":3,"tool-MemoriLabs--Memori":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",153609,2,"2026-04-13T11:34:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":104,"forks":105,"last_commit_at":106,"license":107,"difficulty_score":32,"env_os":76,"env_gpu":108,"env_ram":108,"env_deps":109,"category_tags":115,"github_topics":116,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":136,"updated_at":137,"faqs":138,"releases":168},7222,"MemoriLabs\u002FMemori","Memori","Memori is agent-native memory infrastructure. A SQL-native, LLM-agnostic layer that turns agent execution and conversation into structured, persistent state for production systems.","Memori 是一款专为 AI 智能体（Agent）打造的记忆基础设施，旨在让智能体不仅“记得”对话内容，更能从实际执行动作中汲取经验。它解决了当前大模型应用普遍存在的“健忘”痛点：在传统的无状态交互中，智能体难以跨会话保留用户偏好或任务进度，导致每次交流都需重新建立上下文。\n\n通过引入原生于智能体的记忆层，Memori 能将分散的对话和执行过程转化为结构化、可持久化的状态数据。其核心技术亮点在于高度的兼容性与灵活性：采用 SQL 原生架构以确保数据查询的高效与规范，同时保持对大模型（LLM）、数据存储方案及开发框架的完全无关性（Agnostic）。这意味着开发者无需重构现有系统架构，即可通过简单的 SDK 集成（支持 Python 和 TypeScript），让智能体自动在后台完成记忆的存储与召回。例如，当用户告知偏好后，智能体能在后续互动中自然调用该信息，无需重复询问。\n\n这款工具主要面向正在构建生产级 AI 应用的软件开发者和工程团队。对于那些希望提升智能体长期交互能力、实现个性化服务，且不愿被特定模型厂商锁定的技术人士来说，Memori 提供了一个零配置、高性能的解决方案，帮助","Memori 是一款专为 AI 智能体（Agent）打造的记忆基础设施，旨在让智能体不仅“记得”对话内容，更能从实际执行动作中汲取经验。它解决了当前大模型应用普遍存在的“健忘”痛点：在传统的无状态交互中，智能体难以跨会话保留用户偏好或任务进度，导致每次交流都需重新建立上下文。\n\n通过引入原生于智能体的记忆层，Memori 能将分散的对话和执行过程转化为结构化、可持久化的状态数据。其核心技术亮点在于高度的兼容性与灵活性：采用 SQL 原生架构以确保数据查询的高效与规范，同时保持对大模型（LLM）、数据存储方案及开发框架的完全无关性（Agnostic）。这意味着开发者无需重构现有系统架构，即可通过简单的 SDK 集成（支持 Python 和 TypeScript），让智能体自动在后台完成记忆的存储与召回。例如，当用户告知偏好后，智能体能在后续互动中自然调用该信息，无需重复询问。\n\n这款工具主要面向正在构建生产级 AI 应用的软件开发者和工程团队。对于那些希望提升智能体长期交互能力、实现个性化服务，且不愿被特定模型厂商锁定的技术人士来说，Memori 提供了一个零配置、高性能的解决方案，帮助轻松打造具备持续学习能力的智能系统。","[![Memori Labs](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMemoriLabs_Memori_readme_fa97452607e3.jpg)](https:\u002F\u002Fmemorilabs.ai\u002F)\n\n\u003Cp align=\"center\">\n  \u003Cstrong>Memory from what agents do, not just what they say.\u003C\u002Fstrong>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ci>Memori plugs into the software and infrastructure you already use. It is LLM, datastore and framework agnostic and seamlessly integrates into the architecture you've already designed.\u003C\u002Fi>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cstrong>→ \u003Ca href=\"https:\u002F\u002Fmemorilabs.ai\u002Fdocs\u002Fmemori-cloud\u002F\">Memori Cloud\u003C\u002Fa>\u003C\u002Fstrong> — Zero config. Get an API key and start building in minutes.\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F15418\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMemoriLabs_Memori_readme_bbada6ddd5d3.png\" alt=\"Memori%2fLabs%2FMemori | Trendshif\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fmemori\">\n    \u003Cimg src=\"https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fmemori.svg\" alt=\"PyPI version\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002F@memorilabs\u002Fmemori\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fnpm\u002Fv\u002F@memorilabs\u002Fmemori.svg\" alt=\"NPM version\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpepy.tech\u002Fprojects\u002Fmemori\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMemoriLabs_Memori_readme_6fbff0b26e80.png\" alt=\"Downloads\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicense\u002Fapache-2-0\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache%202.0-blue\" alt=\"License\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FabD4eGym6v\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1042405378304004156?logo=discord\" alt=\"Discord\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fstargazers\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F⭐%20Give%20a%20Star-Support%20the%20project-orange?style=for-the-badge\" alt=\"Give a Star\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cstrong>Choose memory that performs\u003C\u002Fstrong>\n\u003C\u002Fp>\n\n\n\n[![Memori Labs](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMemoriLabs_Memori_readme_cec854984891.jpg)](https:\u002F\u002Fmemorilabs.ai\u002Fbenchmark)\n\n---\n\n## Getting Started\n\n### Installation\n\n\u003Cdetails open>\n\u003Csummary>\u003Cb>TypeScript SDK\u003C\u002Fb>\u003C\u002Fsummary>\n\n```bash\nnpm install @memorilabs\u002Fmemori\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>Python SDK\u003C\u002Fb>\u003C\u002Fsummary>\n\n```bash\npip install memori\n```\n\u003C\u002Fdetails>\n\n### Quickstart\n\nSign up at [app.memorilabs.ai](https:\u002F\u002Fapp.memorilabs.ai), get a Memori API key, and start building. Full docs: [memorilabs.ai\u002Fdocs\u002Fmemori-cloud\u002F](https:\u002F\u002Fmemorilabs.ai\u002Fdocs\u002Fmemori-cloud\u002F).\n\nSet `MEMORI_API_KEY` and your LLM API key (e.g. `OPENAI_API_KEY`), then:\n\n\u003Cdetails open>\n\u003Csummary>\u003Cb>TypeScript SDK\u003C\u002Fb>\u003C\u002Fsummary>\n\n```typescript\nimport { OpenAI } from 'openai';\nimport { Memori } from '@memorilabs\u002Fmemori';\n\n\u002F\u002F Requires MEMORI_API_KEY and OPENAI_API_KEY in your environment\nconst client = new OpenAI();\nconst mem = new Memori().llm\n  .register(client)\n  .attribution('user_123', 'support_agent');\n\nasync function main() {\n  await client.chat.completions.create({\n    model: 'gpt-4o-mini',\n    messages: [{ role: 'user', content: 'My favorite color is blue.' }],\n  });\n  \u002F\u002F Conversations are persisted and recalled automatically in the background.\n\n  const response = await client.chat.completions.create({\n    model: 'gpt-4o-mini',\n    messages: [{ role: 'user', content: \"What's my favorite color?\" }],\n  });\n  \u002F\u002F Memori recalls that your favorite color is blue.\n}\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>Python SDK\u003C\u002Fb>\u003C\u002Fsummary>\n\n```python\nfrom memori import Memori\nfrom openai import OpenAI\n\n# Requires MEMORI_API_KEY and OPENAI_API_KEY in your environment\nclient = OpenAI()\nmem = Memori().llm.register(client)\n\nmem.attribution(entity_id=\"user_123\", process_id=\"support_agent\")\n\nresponse = client.chat.completions.create(\n    model=\"gpt-4o-mini\",\n    messages=[{\"role\": \"user\", \"content\": \"My favorite color is blue.\"}]\n)\n# Conversations are persisted and recalled automatically.\n\nresponse = client.chat.completions.create(\n    model=\"gpt-4o-mini\",\n    messages=[{\"role\": \"user\", \"content\": \"What's my favorite color?\"}]\n)\n# Memori recalls that your favorite color is blue.\n```\n\u003C\u002Fdetails>\n\n## Explore the Memories\n\nUse the [Dashboard](https:\u002F\u002Fapp.memorilabs.ai) — Memories, Analytics, Playground, and API Keys.\n\n> [!TIP]\n> Want to use your own database? Check out docs for Memori BYODB here:\n> [https:\u002F\u002Fmemorilabs.ai\u002Fdocs\u002Fmemori-byodb\u002F](https:\u002F\u002Fmemorilabs.ai\u002Fdocs\u002Fmemori-byodb\u002F).\n\n## LoCoMo Benchmark\n\nMemori was evaluated on the LoCoMo benchmark for long-conversation memory and achieved **81.95% overall accuracy** while using an average of **1,294 tokens per query**. That is just **4.97% of the full-context footprint**, showing that structured memory can preserve reasoning quality without forcing large prompts into every request.\n\nCompared with other retrieval-based memory systems, Memori outperformed Zep, LangMem, and Mem0 while reducing prompt size by roughly **67% vs. Zep** and lowering context cost by more than **20x vs. full-context prompting**.\n\nRead the [benchmark overview](docs\u002Fmemori-cloud\u002Fbenchmark\u002Foverview.mdx), see the [results](docs\u002Fmemori-cloud\u002Fbenchmark\u002Fresults.mdx), or download the [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2603.19935).\n\n![\"Memori's average accuracy along with the standard deviation\"](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMemoriLabs_Memori_readme_461ed6ff7429.webp)\n\n## OpenClaw (Persistent Memory for Your Gateway)\n\nBy default, OpenClaw agents forget everything between sessions. The Memori plugin fixes that. It captures durable facts and preferences after each conversation, then injects the most relevant context back into future prompts automatically.\n\nNo changes to your agent code or prompts are required. The plugin hooks into OpenClaw's lifecycle, so you get structured memory, Intelligent Recall, and Advanced Augmentation with a drop-in plugin.\n\n```bash\nopenclaw plugins install @memorilabs\u002Fopenclaw-memori\nopenclaw plugins enable openclaw-memori\n\nopenclaw config set plugins.entries.openclaw-memori.config.apiKey \"YOUR_MEMORI_API_KEY\"\nopenclaw config set plugins.entries.openclaw-memori.config.entityId \"your-app-user-id\"\n\nopenclaw gateway restart\n```\n\nFor setup and configuration, see the [OpenClaw Quickstart](docs\u002Fmemori-cloud\u002Fopenclaw\u002Fquickstart.mdx). For architecture and lifecycle details, see the [OpenClaw Overview](docs\u002Fmemori-cloud\u002Fopenclaw\u002Foverview.mdx).\n\n## MCP (Connect Your Agent in One Command)\n\nYour agent forgets everything between sessions. Memori fixes that. It remembers your stack, your conventions, and how you like things done so you stop repeating yourself.\n\nWorks for solo developers and teams. Your agent learns coding patterns, reviewer preferences, and project conventions over time. For teams, that means shared context that new engineers pick up on day one instead of absorbing tribal knowledge over months.\n\nIf you use Claude Code, Cursor, Codex, Warp, or Antigravity, you can connect Memori with no SDK integration needed:\n\n```bash\nclaude mcp add --transport http memori https:\u002F\u002Fapi.memorilabs.ai\u002Fmcp\u002F \\\n  --header \"X-Memori-API-Key: ${MEMORI_API_KEY}\" \\\n  --header \"X-Memori-Entity-Id: your_username\" \\\n  --header \"X-Memori-Process-Id: claude-code\"\n```\n\nFor Cursor, Codex, Warp, and other clients, see the [MCP client setup guide](docs\u002Fmemori-cloud\u002Fmcp\u002Fclient-setup.mdx).\n\n## Attribution\n\nTo get the most out of Memori, you want to attribute your LLM interactions to an entity (think person, place or thing; like a user) and a process (think your agent, LLM interaction or program).\n\nIf you do not provide any attribution, Memori cannot make memories for you.\n\n\u003Cdetails open>\n\u003Csummary>\u003Cb>TypeScript SDK\u003C\u002Fb>\u003C\u002Fsummary>\n\n```typescript\nmem.attribution(\"12345\", \"my-ai-bot\");\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>Python SDK\u003C\u002Fb>\u003C\u002Fsummary>\n\n```python\nmem.attribution(entity_id=\"12345\", process_id=\"my-ai-bot\")\n```\n\u003C\u002Fdetails>\n\n## Session Management\n\nMemori uses sessions to group your LLM interactions together. For example, if you have an agent that executes multiple steps you want those to be recorded in a single session.\n\nBy default, Memori handles setting the session for you but you can start a new session or override the session by executing the following:\n\n\u003Cdetails open>\n\u003Csummary>\u003Cb>TypeScript SDK\u003C\u002Fb>\u003C\u002Fsummary>\n\n```typescript\nmem.resetSession();\n\u002F\u002F or\nmem.setSession(sessionId);\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>Python SDK\u003C\u002Fb>\u003C\u002Fsummary>\n\n```python\nmem.new_session()\n# or\nmem.set_session(session_id)\n```\n\u003C\u002Fdetails>\n\n## Supported LLMs\n\n- Anthropic\n- Bedrock\n- DeepSeek\n- Gemini\n- Grok (xAI)\n- OpenAI (Chat Completions & Responses API)\n\n_(unstreamed, streamed, synchronous and asynchronous)_\n\n## Supported Frameworks\n\n- Agno\n- LangChain\n- Pydantic AI\n\n## Supported Platforms\n\n- DeepSeek\n- Nebius AI Studio\n\n## Examples\n\nFor more examples and demos, check out the [Memori Cookbook](https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002Fmemori-cookbook).\n\n## Memori Advanced Augmentation\n\nMemories are tracked at several different levels:\n\n- **entity**: think person, place, or thing; like a user\n- **process**: think your agent, LLM interaction or program\n- **session**: the current interactions between the entity, process and the LLM\n\n[Memori's Advanced Augmentation](docs\u002Fmemori-cloud\u002Fconcepts\u002Fadvanced-augmentation.mdx) enhances memories at each of these levels with:\n\n- attributes\n- events\n- facts\n- people\n- preferences\n- relationships\n- rules\n- skills\n\nMemori knows who your user is, what tasks your agent handles and creates unparalleled context between the two. Augmentation occurs in the background incurring no latency.\n\nBy default, Memori Advanced Augmentation is available without an account but rate limited. When you need increased limits, [sign up for Memori Advanced Augmentation](https:\u002F\u002Fapp.memorilabs.ai\u002Fsignup) or use the Memori CLI:\n\n```bash\n# Install the CLI via pip to manage your account\npython -m memori sign-up \u003Cemail_address>\n```\n\nMemori Advanced Augmentation is always free for developers!\n\nOnce you've obtained an API key, set the following environment variable (used by both Python and TypeScript SDKs):\n\n```bash\nexport MEMORI_API_KEY=[api_key]\n```\n\n## Managing Your Quota\n\nAt any time, you can check your quota using the Memori CLI (works for both SDKs):\n\n```bash\npython -m memori quota\n```\n\nOr by checking your account at [https:\u002F\u002Fapp.memorilabs.ai\u002F](https:\u002F\u002Fapp.memorilabs.ai\u002F). If you have reached your IP address quota, sign up and get an API key for increased limits.\n\nIf your API key exceeds its quota limits we will email you and let you know.\n\n## Command Line Interface (CLI)\n\nThe Memori CLI is the unified tool for managing your account, keys, and quotas across all SDKs. To use it, execute the following from the command line:\n\n```bash\n# Requires Python installed\npython -m memori\n```\n\nThis will display a menu of the available options. For more information about what you can do with the Memori CLI, please reference [Command Line Interface](docs\u002Fmemori-byodb\u002Fconcepts\u002Fcli-quickstart.mdx).\n\n## Contributing\n\nWe welcome contributions from the community! Please see our [Contributing Guidelines](https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fblob\u002Fmain\u002FCONTRIBUTING.md) for details on:\n\n- Setting up your development environment\n- Code style and standards\n- Submitting pull requests\n- Reporting issues\n\n---\n\n## Support\n\n- [**Memori Cloud Documentation**](https:\u002F\u002Fmemorilabs.ai\u002Fdocs\u002Fmemori-cloud)\n- [**Memori BYODB Documentation**](https:\u002F\u002Fmemorilabs.ai\u002Fdocs\u002Fmemori-byodb)\n- [**Discord**](https:\u002F\u002Fdiscord.gg\u002FFpytKAxnFb)\n- [**Issues**](https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fissues)\n---\n\n## License\n\nApache 2.0 - see [LICENSE](https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fblob\u002Fmain\u002FLICENSE)\n","[![Memori Labs](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMemoriLabs_Memori_readme_fa97452607e3.jpg)](https:\u002F\u002Fmemorilabs.ai\u002F)\n\n\u003Cp align=\"center\">\n  \u003Cstrong>记忆来自代理的行为，而不仅仅是他们的言语。\u003C\u002Fstrong>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ci>Memori 可以无缝接入您现有的软件和基础设施。它与大语言模型、数据存储和框架无关，能够平滑地融入您已有的架构设计中。\u003C\u002Fi>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cstrong>→ \u003Ca href=\"https:\u002F\u002Fmemorilabs.ai\u002Fdocs\u002Fmemori-cloud\u002F\">Memori Cloud\u003C\u002Fa>\u003C\u002Fstrong> — 无需配置。获取一个 API 密钥，几分钟内即可开始构建。\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F15418\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMemoriLabs_Memori_readme_bbada6ddd5d3.png\" alt=\"Memori%2fLabs%2FMemori | Trendshif\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fmemori\">\n    \u003Cimg src=\"https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fmemori.svg\" alt=\"PyPI 版本\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002F@memorilabs\u002Fmemori\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fnpm\u002Fv\u002F@memorilabs\u002Fmemori.svg\" alt=\"NPM 版本\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpepy.tech\u002Fprojects\u002Fmemori\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMemoriLabs_Memori_readme_6fbff0b26e80.png\" alt=\"下载量\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicense\u002Fapache-2-0\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache%202.0-blue\" alt=\"许可证\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FabD4eGym6v\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1042405378304004156?logo=discord\" alt=\"Discord\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fstargazers\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F⭐%20Give%20a%20Star-Support%20the%20project-orange?style=for-the-badge\" alt=\"给个 Star\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cstrong>选择高效的记忆系统\u003C\u002Fstrong>\n\u003C\u002Fp>\n\n\n\n[![Memori Labs](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMemoriLabs_Memori_readme_cec854984891.jpg)](https:\u002F\u002Fmemorilabs.ai\u002Fbenchmark)\n\n---\n\n## 开始使用\n\n### 安装\n\n\u003Cdetails open>\n\u003Csummary>\u003Cb>TypeScript SDK\u003C\u002Fb>\u003C\u002Fsummary>\n\n```bash\nnpm install @memorilabs\u002Fmemori\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>Python SDK\u003C\u002Fb>\u003C\u002Fsummary>\n\n```bash\npip install memori\n```\n\u003C\u002Fdetails>\n\n### 快速入门\n\n在 [app.memorilabs.ai](https:\u002F\u002Fapp.memorilabs.ai) 注册，获取 Memori API 密钥，然后开始构建。完整文档：[memorilabs.ai\u002Fdocs\u002Fmemori-cloud\u002F](https:\u002F\u002Fmemorilabs.ai\u002Fdocs\u002Fmemori-cloud\u002F)。\n\n设置 `MEMORI_API_KEY` 和您的 LLM API 密钥（例如 `OPENAI_API_KEY`），然后：\n\n\u003Cdetails open>\n\u003Csummary>\u003Cb>TypeScript SDK\u003C\u002Fb>\u003C\u002Fsummary>\n\n```typescript\nimport { OpenAI } from 'openai';\nimport { Memori } from '@memorilabs\u002Fmemori';\n\n\u002F\u002F 需要环境变量中设置 MEMORI_API_KEY 和 OPENAI_API_KEY\nconst client = new OpenAI();\nconst mem = new Memori().llm\n  .register(client)\n  .attribution('user_123', 'support_agent');\n\nasync function main() {\n  await client.chat.completions.create({\n    model: 'gpt-4o-mini',\n    messages: [{ role: 'user', content: '我的最喜欢的颜色是蓝色。' }],\n  });\n  \u002F\u002F 对话会自动在后台持久化并被召回。\n\n  const response = await client.chat.completions.create({\n    model: 'gpt-4o-mini',\n    messages: [{ role: 'user', content: \"我最喜欢的颜色是什么？\" }],\n  });\n  \u002F\u002F Memori 会回忆起您最喜欢的颜色是蓝色。\n}\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>Python SDK\u003C\u002Fb>\u003C\u002Fsummary>\n\n```python\nfrom memori import Memori\nfrom openai import OpenAI\n\n# 需要环境变量中设置 MEMORI_API_KEY 和 OPENAI_API_KEY\nclient = OpenAI()\nmem = Memori().llm.register(client)\n\nmem.attribution(entity_id=\"user_123\", process_id=\"support_agent\")\n\nresponse = client.chat.completions.create(\n    model=\"gpt-4o-mini\",\n    messages=[{\"role\": \"user\", \"content\": \"我的最喜欢的颜色是蓝色。\"}]\n)\n# 对话会自动持久化并被召回。\n\nresponse = client.chat.completions.create(\n    model=\"gpt-4o-mini\",\n    messages=[{\"role\": \"user\", \"content\": \"我最喜欢的颜色是什么？\"}]\n)\n# Memori 会回忆起您最喜欢的颜色是蓝色。\n```\n\u003C\u002Fdetails>\n\n## 探索记忆\n\n使用 [仪表板](https:\u002F\u002Fapp.memorilabs.ai) — 记忆、分析、游乐场和 API 密钥。\n\n> [!TIP]\n> 想使用您自己的数据库吗？请查看 Memori BYODB 的文档：\n> [https:\u002F\u002Fmemorilabs.ai\u002Fdocs\u002Fmemori-byodb\u002F](https:\u002F\u002Fmemorilabs.ai\u002Fdocs\u002Fmemori-byodb\u002F)。\n\n## LoCoMo 基准测试\n\nMemori 在 LoCoMo 长对话记忆基准测试中表现出色，整体准确率达到 **81.95%**，同时每次查询平均仅使用 **1,294 个 token**。这仅占完整上下文的 **4.97%**，表明结构化记忆可以在不将大量提示注入每个请求的情况下，保持推理质量。\n\n与其他基于检索的记忆系统相比，Memori 的表现优于 Zep、LangMem 和 Mem0，同时将提示大小减少了约 **67% 相对于 Zep**，并将上下文成本降低了超过 **20 倍相对于全上下文提示**。\n\n阅读 [基准测试概述](docs\u002Fmemori-cloud\u002Fbenchmark\u002Foverview.mdx)，查看 [测试结果](docs\u002Fmemori-cloud\u002Fbenchmark\u002Fresults.mdx)，或下载 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2603.19935)。\n\n![\"Memori 的平均准确率及标准差\"](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMemoriLabs_Memori_readme_461ed6ff7429.webp)\n\n## OpenClaw（为您的网关提供持久化记忆）\n\n默认情况下，OpenClaw 代理会在会话之间忘记所有内容。Memori 插件可以解决这一问题。它会在每次对话结束后捕获持久的事实和偏好，并自动将最相关的上下文注入到未来的提示中。\n\n无需更改您的代理代码或提示。该插件会挂钩到 OpenClaw 的生命周期，因此您只需通过一个即插即用的插件，就能获得结构化记忆、智能召回和高级增强功能。\n\n```bash\nopenclaw plugins install @memorilabs\u002Fopenclaw-memori\nopenclaw plugins enable openclaw-memori\n\nopenclaw config set plugins.entries.openclaw-memori.config.apiKey \"YOUR_MEMORI_API_KEY\"\nopenclaw config set plugins.entries.openclaw-memori.config.entityId \"your-app-user-id\"\n\nopenclaw gateway restart\n```\n\n有关设置和配置，请参阅 [OpenClaw 快速入门](docs\u002Fmemori-cloud\u002Fopenclaw\u002Fquickstart.mdx)。有关架构和生命周期的详细信息，请参阅 [OpenClaw 概述](docs\u002Fmemori-cloud\u002Fopenclaw\u002Foverview.mdx)。\n\n## MCP（一条命令连接你的代理）\n\n你的代理在会话之间会忘记所有内容。Memori 解决了这个问题。它会记住你的代码栈、编码规范以及你喜欢的工作方式，这样你就不再需要重复同样的操作。\n\n适用于个人开发者和团队。随着时间的推移，你的代理会学习编码模式、代码审查者的偏好以及项目规范。对于团队而言，这意味着新入职的工程师可以在第一天就快速掌握共享上下文，而无需花费数月时间去吸收那些“部落知识”。\n\n如果你使用 Claude Code、Cursor、Codex、Warp 或 Antigravity，无需任何 SDK 集成即可连接 Memori：\n\n```bash\nclaude mcp add --transport http memori https:\u002F\u002Fapi.memorilabs.ai\u002Fmcp\u002F \\\n  --header \"X-Memori-API-Key: ${MEMORI_API_KEY}\" \\\n  --header \"X-Memori-Entity-Id: your_username\" \\\n  --header \"X-Memori-Process-Id: claude-code\"\n```\n\n对于 Cursor、Codex、Warp 等客户端，请参阅 [MCP 客户端设置指南](docs\u002Fmemori-cloud\u002Fmcp\u002Fclient-setup.mdx)。\n\n## 归因\n\n为了充分发挥 Memori 的作用，你需要为你的 LLM 交互指定一个实体（例如用户）和一个流程（例如你的代理、LLM 交互或程序）。\n\n如果不提供任何归因信息，Memori 就无法为你创建记忆。\n\n\u003Cdetails open>\n\u003Csummary>\u003Cb>TypeScript SDK\u003C\u002Fb>\u003C\u002Fsummary>\n\n```typescript\nmem.attribution(\"12345\", \"my-ai-bot\");\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>Python SDK\u003C\u002Fb>\u003C\u002Fsummary>\n\n```python\nmem.attribution(entity_id=\"12345\", process_id=\"my-ai-bot\")\n```\n\u003C\u002Fdetails>\n\n## 会话管理\n\nMemori 使用会话来将你的 LLM 交互分组在一起。例如，如果你有一个执行多个步骤的代理，你希望这些步骤被记录在一个会话中。\n\n默认情况下，Memori 会自动为你设置会话，但你也可以通过以下命令开始一个新的会话或覆盖当前会话：\n\n\u003Cdetails open>\n\u003Csummary>\u003Cb>TypeScript SDK\u003C\u002Fb>\u003C\u002Fsummary>\n\n```typescript\nmem.resetSession();\n\u002F\u002F 或\nmem.setSession(sessionId);\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>Python SDK\u003C\u002Fb>\u003C\u002Fsummary>\n\n```python\nmem.new_session()\n# 或\nmem.set_session(session_id)\n```\n\u003C\u002Fdetails>\n\n## 支持的 LLM\n\n- Anthropic\n- Bedrock\n- DeepSeek\n- Gemini\n- Grok (xAI)\n- OpenAI（Chat Completions & Responses API）\n\n_（非流式、流式、同步和异步）_\n\n## 支持的框架\n\n- Agno\n- LangChain\n- Pydantic AI\n\n## 支持的平台\n\n- DeepSeek\n- Nebius AI Studio\n\n## 示例\n\n更多示例和演示，请查看 [Memori Cookbook](https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002Fmemori-cookbook)。\n\n## Memori 高级增强\n\n记忆会在多个不同层次上被跟踪：\n\n- **实体**：例如用户、地点或事物。\n- **流程**：例如你的代理、LLM 交互或程序。\n- **会话**：实体、流程与 LLM 之间的当前交互。\n\n[Memori 的高级增强功能](docs\u002Fmemori-cloud\u002Fconcepts\u002Fadvanced-augmentation.mdx)会在每个层次上通过以下内容增强记忆：\n\n- 属性\n- 事件\n- 事实\n- 人物\n- 偏好\n- 关系\n- 规则\n- 技能\n\nMemori 能够识别你的用户是谁、你的代理负责哪些任务，并在这两者之间建立无与伦比的上下文。增强过程在后台进行，不会引入任何延迟。\n\n默认情况下，Memori 高级增强功能无需账户即可使用，但存在速率限制。当你需要更高的限制时，可以 [注册 Memori 高级增强功能](https:\u002F\u002Fapp.memorilabs.ai\u002Fsignup) 或使用 Memori CLI：\n\n```bash\n# 通过 pip 安装 CLI 来管理你的账户\npython -m memori sign-up \u003Cemail_address>\n```\n\nMemori 高级增强功能对开发者始终免费！\n\n获取 API 密钥后，设置以下环境变量（Python 和 TypeScript SDK 均可使用）：\n\n```bash\nexport MEMORI_API_KEY=[api_key]\n```\n\n## 管理你的配额\n\n你可以随时使用 Memori CLI 检查你的配额（适用于所有 SDK）：\n\n```bash\npython -m memori quota\n```\n\n或者登录 [https:\u002F\u002Fapp.memorilabs.ai\u002F](https:\u002F\u002Fapp.memorilabs.ai\u002F) 查看你的账户。如果你已达到 IP 地址配额上限，请注册并获取 API 密钥以提高限制。\n\n如果你的 API 密钥超过其配额限制，我们会通过电子邮件通知你。\n\n## 命令行界面（CLI）\n\nMemori CLI 是用于跨所有 SDK 管理账户、密钥和配额的统一工具。要使用它，请在命令行中执行以下命令：\n\n```bash\n# 需要安装 Python\npython -m memori\n```\n\n这将显示可用选项菜单。有关 Memori CLI 的更多信息，请参阅 [命令行界面](docs\u002Fmemori-byodb\u002Fconcepts\u002Fcli-quickstart.mdx)。\n\n## 贡献\n\n我们欢迎社区的贡献！请参阅我们的 [贡献指南](https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fblob\u002Fmain\u002FCONTRIBUTING.md)，了解以下内容：\n\n- 设置开发环境\n- 代码风格和标准\n- 提交拉取请求\n- 报告问题\n\n---\n\n## 支持\n\n- [**Memori Cloud 文档**](https:\u002F\u002Fmemorilabs.ai\u002Fdocs\u002Fmemori-cloud)\n- [**Memori BYODB 文档**](https:\u002F\u002Fmemorilabs.ai\u002Fdocs\u002Fmemori-byodb)\n- [**Discord**](https:\u002F\u002Fdiscord.gg\u002FFpytKAxnFb)\n- [**问题追踪**](https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fissues)\n\n---\n\n## 许可证\n\nApache 2.0 - 详见 [LICENSE](https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fblob\u002Fmain\u002FLICENSE)","# Memori 快速上手指南\n\nMemori 是一个专为 AI Agent 设计的记忆层工具。它能从 Agent 的**实际行为**中提取记忆，而不仅仅是记录对话内容。Memori 与现有的 LLM、数据存储和框架无关，可无缝集成到你已有的架构中，实现上下文的自动持久化与智能召回。\n\n## 环境准备\n\n在开始之前，请确保满足以下条件：\n\n*   **运行环境**：支持 Node.js (TypeScript) 或 Python 3.8+ 环境。\n*   **API 密钥**：\n    1.  访问 [Memori Cloud](https:\u002F\u002Fapp.memorilabs.ai) 注册账号。\n    2.  获取 `MEMORI_API_KEY`。\n    3.  准备好你的 LLM 提供商 API Key（例如 `OPENAI_API_KEY`）。\n*   **环境变量**：建议在终端或 `.env` 文件中配置以下变量：\n    ```bash\n    export MEMORI_API_KEY=\"your_memori_api_key\"\n    export OPENAI_API_KEY=\"your_openai_api_key\"\n    ```\n\n## 安装步骤\n\n根据你的开发语言选择对应的 SDK 进行安装。\n\n### TypeScript \u002F Node.js\n```bash\nnpm install @memorilabs\u002Fmemori\n```\n\n### Python\n```bash\npip install memori\n```\n> **提示**：国内开发者若下载缓慢，可使用清华源或阿里源加速：\n> `pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple memori`\n\n## 基本使用\n\nMemori 的核心逻辑是：**注册 LLM 客户端 -> 设定归属（用户与进程） -> 正常调用 LLM**。\n一旦配置完成，Memori 会在后台自动持久化对话并召回相关记忆，无需修改原有的 Prompt 结构。\n\n### TypeScript 示例\n\n```typescript\nimport { OpenAI } from 'openai';\nimport { Memori } from '@memorilabs\u002Fmemori';\n\n\u002F\u002F 初始化 OpenAI 客户端\nconst client = new OpenAI();\n\n\u002F\u002F 注册 Memori 并设定归属：实体 ID (用户) 和 进程 ID (Agent 名称)\nconst mem = new Memori().llm\n  .register(client)\n  .attribution('user_123', 'support_agent');\n\nasync function main() {\n  \u002F\u002F 第一次对话：告诉 Agent 你的喜好\n  await client.chat.completions.create({\n    model: 'gpt-4o-mini',\n    messages: [{ role: 'user', content: 'My favorite color is blue.' }],\n  });\n  \u002F\u002F 此时记忆已自动保存\n\n  \u002F\u002F 第二次对话：询问之前的喜好\n  const response = await client.chat.completions.create({\n    model: 'gpt-4o-mini',\n    messages: [{ role: 'user', content: \"What's my favorite color?\" }],\n  });\n  \n  \u002F\u002F Memori 会自动在后台注入上下文，Agent 将回答 \"blue\"\n  console.log(response.choices[0].message.content);\n}\n\nmain();\n```\n\n### Python 示例\n\n```python\nfrom memori import Memori\nfrom openai import OpenAI\n\n# 初始化 OpenAI 客户端\nclient = OpenAI()\n\n# 注册 Memori 并设定归属\nmem = Memori().llm.register(client)\nmem.attribution(entity_id=\"user_123\", process_id=\"support_agent\")\n\n# 第一次对话：告诉 Agent 你的喜好\nresponse = client.chat.completions.create(\n    model=\"gpt-4o-mini\",\n    messages=[{\"role\": \"user\", \"content\": \"My favorite color is blue.\"}]\n)\n# 此时记忆已自动保存\n\n# 第二次对话：询问之前的喜好\nresponse = client.chat.completions.create(\n    model=\"gpt-4o-mini\",\n    messages=[{\"role\": \"user\", \"content\": \"What's my favorite color?\"}]\n)\n\n# Memori 会自动在后台注入上下文，Agent 将回答 \"blue\"\nprint(response.choices[0].message.content)\n```\n\n### 关键概念说明\n\n*   **Attribution (归属)**：必须指定 `entity_id`（如用户 ID）和 `process_id`（如 Agent 名称），否则 Memori 无法存储记忆。\n*   **Session (会话)**：默认情况下 Memori 自动管理会话。如需手动控制（例如将多步操作合并为一个会话），可使用 `mem.new_session()` (Python) 或 `mem.resetSession()` (TS)。\n*   **无感集成**：你不需要改变调用 LLM 的代码方式，记忆增强过程在后台异步完成，不会增加请求延迟。\n\n更多高级功能（如自定义数据库 BYODB、OpenClaw 插件集成或 MCP 协议连接）请参考官方文档。","某电商团队正在开发一款基于 LLM 的个性化购物助手，需要让 AI 记住用户的历史偏好、浏览记录和过往对话，以提供连贯的推荐服务。\n\n### 没有 Memori 时\n- **记忆碎片化**：开发者需手动编写代码将聊天记录存入数据库，并在每次请求时重新组装上下文，逻辑复杂且容易出错。\n- **状态丢失严重**：一旦会话中断或跨越多个请求周期，AI 便“失忆”，无法识别用户之前提到的喜好（如“只买蓝色商品”），导致推荐不精准。\n- **架构耦合度高**：记忆逻辑硬编码在业务代码中，更换大模型或调整存储方案时需重构大量代码，维护成本极高。\n- **开发效率低下**：团队花费大量时间构建和维护记忆基础设施，而非优化核心的购物推荐算法。\n\n### 使用 Memori 后\n- **自动持久化状态**：Memori 自动拦截 AI 交互，将用户的偏好和行为转化为结构化数据存入底层存储，无需手动管理数据库写入。\n- **无缝上下文召回**：当用户再次询问“有什么推荐的？”时，Memori 自动在后台注入“喜欢蓝色”等历史状态，AI 能立即给出精准回答。\n- **架构解耦灵活**：作为独立的基础设施层，Memori 与具体的大模型和数据库无关，团队可自由切换技术栈而无需修改业务逻辑。\n- **聚焦核心业务**：开发者仅需几行代码集成 SDK，即可拥有生产级的记忆能力，将精力集中在提升购物体验上。\n\nMemori 将原本繁琐的记忆工程转化为透明的基础设施，让 AI 代理真正具备从“行为”中学习并长期记忆的能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMemoriLabs_Memori_fa974526.jpg","MemoriLabs","Memori Labs","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FMemoriLabs_bc49a8f2.png","",null,"https:\u002F\u002Fmemorilabs.ai\u002F","https:\u002F\u002Fgithub.com\u002FMemoriLabs",[81,85,89,93,97,100],{"name":82,"color":83,"percentage":84},"Python","#3572A5",84.8,{"name":86,"color":87,"percentage":88},"TypeScript","#3178c6",10.5,{"name":90,"color":91,"percentage":92},"Jupyter Notebook","#DA5B0B",4.1,{"name":94,"color":95,"percentage":96},"Makefile","#427819",0.2,{"name":98,"color":99,"percentage":96},"JavaScript","#f1e05a",{"name":101,"color":102,"percentage":103},"Dockerfile","#384d54",0,13295,1719,"2026-04-13T13:26:08","NOASSERTION","未说明",{"notes":110,"python":108,"dependencies":111},"该工具主要作为客户端 SDK 或插件运行，依赖云端服务（Memori Cloud）或用户自有的数据库（BYODB），而非本地部署重型模型。因此 README 中未提及具体的操作系统、GPU、内存或 Python 版本限制。使用时需配置 MEMORI_API_KEY 环境变量，并支持 OpenAI、Anthropic、Bedrock 等多种 LLM 提供商。可通过 CLI (python -m memori) 进行管理，建议参考官方文档获取特定集成环境（如 OpenClaw, MCP）的详细要求。",[112,113,114],"@memorilabs\u002Fmemori (TypeScript SDK)","memori (Python SDK)","openai",[14,13,15,35],[117,118,119,120,121,122,123,124,125,126,127,128,129,130,131,132,133,134,135],"agent","ai","long-short-term-memory","memory","python","rag","aiagent","chatgpt","state-management","memori-ai","memory-management","llm","awesome","agent-memory","ai-memory","memory-mcp","openclaw-memory","stateful","typescript","2026-03-27T02:49:30.150509","2026-04-14T04:42:44.184657",[139,144,149,154,159,164],{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},32431,"遇到 OpenAI 返回 'metadata' 类型错误（期望对象却收到数组）怎么办？","这是一个已知问题，已在 memorisdk v2.3.3 版本中修复并发布。请升级您的 SDK 到该版本或更高版本以解决此错误。如果您仍在使用旧版本，建议尽快升级以避免生产环境中的请求失败。","https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fissues\u002F163",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},32432,"Memori 是否支持多用户隔离？为什么不同用户的数据会混在一起？","在 Memori v2 中存在多用户命名空间隔离的缺陷，导致数据泄露和 TPM 配额耗尽。该问题已在 Memori v3 重大更新中得到彻底解决。v3 引入了改进的多用户和多助手解决方案，请升级到 v3 版本以获得正确的隔离功能。","https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fissues\u002F136",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},32433,"使用流式响应（stream=True）时，对话内容为什么没有自动保存到数据库？","这是 Memori v2 的一个限制。该问题已在 Memori v3 中得到解决，新版本原生支持流式响应的自动存储。此外，社区也提交了针对 LiteLLM 流式响应的补丁（PR #169），但最推荐的方案是直接升级到具有重大改进的 Memori v3 版本。","https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fissues\u002F91",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},32434,"如何让 Memori 连接本地的 OpenAI 兼容接口（如 llama.cpp, koboldcpp）？","Memori v3 已经改进了对本地部署的支持，解决了 v2 中相关的配置问题。在新版本中，您可以更灵活地配置 LLM 和 Embedding 的基础 URL，从而轻松连接到本地运行的模型服务，实现完全离线或私有化部署。建议查阅 v3 的最新文档获取具体配置指南。","https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fissues\u002F40",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},32435,"重试装饰器（Retry Decorator）在所有尝试失败后没有抛出原始异常怎么办？","这是 Memori v2 中的一个边缘情况 Bug。由于项目已发布具有重大改进的 Memori v3，该问题在新版本架构中已不再存在或已被修复。维护者建议不再针对 v2 进行修补，而是直接迁移到 v3 版本以获得更稳定的错误处理机制。","https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fissues\u002F110",{"id":165,"question_zh":166,"answer_zh":167,"source_url":163},32436,"当前的 Issue 报告的是 v2 版本的 Bug，还需要修复吗？","大多数针对 v2 的 Bug 报告（如元数据错误、多用户隔离失效、流式存储缺失等）都被标记为“已在 v3 中解决”。维护者明确表示，随着 Memori v3 的发布，v2 的许多核心问题已通过重构解决。因此，遇到此类问题时，首选方案是升级到 v3 而不是等待 v2 的热修复。",[169,174,178,183,188,193,198,203,208,213,218,223,228,233,238,243,248,253,258,262],{"id":170,"version":171,"summary_zh":172,"released_at":173},247189,"v3.2.7","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fcompare\u002Fv3.2.6...v3.2.7","2026-04-06T21:13:50",{"id":175,"version":176,"summary_zh":77,"released_at":177},247190,"v3.2.6","2026-04-06T18:31:33",{"id":179,"version":180,"summary_zh":181,"released_at":182},247191,"v3.2.5","## 变更内容\n* Llm qol 更新，由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F387 中完成\n* 修复（嵌入）：在模型加载期间抑制 transformers 警告，由 @Jah-yee 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F332 中完成\n* 重构（嵌入）：改进 SentenceTrans… 的日志配置，由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F388 中完成\n* 重构（API）：增强 Memori 等的类型注解和文档字符串，由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F390 中完成\n* 实现 delete_entity_memories 方法及 BYODB 配置，由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F393 中完成\n* 修订 Memori 仓库的 README 以及 docs\u002Fmemori-cloud\u002Fmcp\u002Foverview，由 @jayyao18 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F394 中完成\n\n## 新贡献者\n* @Jah-yee 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F332 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fcompare\u002Fv3.2.4...v3.2.5","2026-04-06T15:23:48",{"id":184,"version":185,"summary_zh":186,"released_at":187},247192,"v3.2.4","## 新增内容\n\n本次发布对整个项目的文档进行了改进，扩展了基准测试的覆盖范围，并通过更高效的去重和日期处理提升了召回摘要的功能。此外，还新增了集成测试，并进行了内部代码清理工作。\n\n### 文档\n- 扩展了 Memori MCP 和 OpenClaw 的文档\n- 改进了 MCP 的设置指南，并在 README 中新增了专门的 MCP 章节\n- 添加了针对 LangChain、Notion 和 Slack 的新集成文档\n- 更新了 LoCoMo 基准测试的文档及论文引用\n- 修复了损坏的链接、README 中的语法问题以及一些小的文档错误\n\n### 基准测试\n- 新增了 LoCoMo 基准测试\n\n### 召回摘要\n- 增加了对云端召回摘要的支持\n- 新增了 BYODB 摘要\n- 优化了摘要收集功能，实现了更好的去重效果和更整洁的日期处理\n\n### 测试与维护\n- 为两个 SDK 分别添加了集成测试\n- 重构了 `BaseClient` 中的日期处理逻辑\n- 更新了相关测试用例，并移除了已废弃的代码\n\n## 新贡献者\n* @mcheemaa 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F361 中完成了首次贡献\n* @jayyao18 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F369 中完成了首次贡献\n* @lborro 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F373 中完成了首次贡献","2026-03-25T15:58:06",{"id":189,"version":190,"summary_zh":191,"released_at":192},247193,"v3.2.3","## 变更内容\n* 修复 Gemini 封装器的 bug… 由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F349 中完成\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fcompare\u002Fv3.2.2...v3.2.3","2026-03-10T19:12:52",{"id":194,"version":195,"summary_zh":196,"released_at":197},247194,"v3.2.2","## 变更内容\n* 添加 DeepSeek 文档，并由 @sandhub 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F325 中更新支持的提供商\n* 修复：由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F339 中进行的云端召回更新\n* 文档小幅更新：由 @sandhub 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F342 中完成\n* 保存人类可读的事实创建…：由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F346 中完成\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fcompare\u002Fv3.2.1...v3.2.2","2026-03-10T13:15:26",{"id":199,"version":200,"summary_zh":201,"released_at":202},247195,"v3.2.1","## 变更内容\n* 更新 MANIFEST.in，排除 TypeScript SDK，并修改 _handler.py t…，由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F316 中完成\n* 修复：在 LangChain 的 ChatGoogleGenerativeAI 适配器中支持新的 google.genai SDK，由 @SolariSystems 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F305 中完成\n* 杂项：更新 CI 工作流，加入 Python 3.13 和 3.14 版本，由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F317 中完成\n* 杂项：在 classifiers 中添加对 Python 3.13 和 3.14 版本的支持，由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F318 中完成\n\n## 新贡献者\n* @SolariSystems 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F305 中完成了首次贡献\n* @sandhub 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F320 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fcompare\u002Fv3.2.0...v3.2.1","2026-02-25T18:30:52",{"id":204,"version":205,"summary_zh":206,"released_at":207},247196,"v3.2.0","## 变更内容\n* 修复：在搜索中支持 MongoDB ObjectId（修复了 int() 转换错误），由 @harshalmore31 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F275 中完成\n* 更新：集成测试，由 @harshalmore31 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F280 中完成\n* 修复：Langchain 注册错误，并改进错误处理 (#234)，由 @Harshit28j 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F241 中完成\n* 修复 MongoDB 迁移中的 IndexOptionsConflict 错误（索引键重复），由 @colygon 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F283 中完成\n* 更新 README！由 @harshalmore31 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F297 中完成\n* 新增功能：增强 API 子域名处理和对话消息处理，由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F281 中完成\n* 新增功能：引入 UnsupportedLLMProviderError，以改善错误处理，由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F298 中完成\n* 托管指标，由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F299 中完成\n* 新增功能：引入 UnsupportedDatabaseError，以提升错误处理能力，由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F300 中完成\n* 新增功能：添加托管集成测试！由 @harshalmore31 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F301 中完成\n* 修复！由 @harshalmore31 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F302 中完成\n* 添加 CLI 测试，使用稳定的断言和模拟依赖项，由 @adityasasidhar 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F296 中完成\n* 修复：延迟加载 psycopg，由 @rpkruse 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F306 中完成\n* 检测 DeepSeek 和 NVIDIA NIM 平台，由 @rpkruse 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F307 中完成\n* 增强托管召回功能并重构 API 处理，由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F308 中完成\n* 更新托管文案，使其更符合云服务的表述，由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F309 中完成\n* 更新 pyproject.toml，排除所有测试文件并忽略未解析的…，由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F310 中完成\n* 修复 AzureOpenAI 的多轮对话导入问题，由 @lindseystead 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F231 中完成\n* 重构召回方法，使其接受可选的 limit 参数并更新…，由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F314 中完成\n\n## 新贡献者\n* @Harshit28j 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F241 中完成了首次贡献\n* @colygon 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F283 中完成了首次贡献\n* @adityasasidhar 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F296 中完成了首次贡献\n* @rpkruse 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F306 中完成了首次贡献\n* @lindseystead 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F231 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fcompare\u002Fv3.1.6...v3.2.0","2026-02-23T19:23:09",{"id":209,"version":210,"summary_zh":211,"released_at":212},247197,"v3.1.6","## 变更内容\n* 由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F271 中实现的 Recall API\n* 功能：为 Memori 和 Db 添加上下文管理和连接处理 by @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F272 中\n* 重构：在搜索中将 FactCandidates 替换为 FactCandidate 列表 by @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F273 中\n* 版本号从 3.1.5 升级到 3.1.6 by @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F279 中\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fcompare\u002Fv3.1.5...v3.1.6","2026-01-28T16:54:58",{"id":214,"version":215,"summary_zh":216,"released_at":217},247198,"v3.1.5","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fcompare\u002Fv3.1.4...v3.1.5","2026-01-21T21:56:52",{"id":219,"version":220,"summary_zh":221,"released_at":222},247199,"v3.1.4","## 变更内容\n* 集成测试 (#256)，由 @harshalmore31 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F257 中完成\n* 重构 Memori 中的嵌入和搜索工具，由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F261 中完成\n* 功能：添加 OpenAI 响应客户端支持，由 @harshalmore31 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F260 和 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F262 中完成\n* 功能：支持 OceanBase\u002FSeekDB，由 @PsiACE 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F266 中完成\n* 嵌入更新，由 @devwdave 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F268 中完成\n\n## 新贡献者\n* @PsiACE 在 https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F259 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fcompare\u002Fv3.1.3...v3.1.4","2026-01-21T21:20:30",{"id":224,"version":225,"summary_zh":226,"released_at":227},247200,"v3.1.3","## What's Changed\r\n* Benchmarking by @devwdave in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F240\r\n* Enhance embedding configuration and error handling by @devwdave in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F243\r\n* Add debug logging support and enhance documentation for Memori SDK by @harshalmore31 in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F244\r\n* Add AzureOpenAI client support by @harshalmore31 in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F248\r\n* Fix google-genai response handling  by @harshalmore31 in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F251\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fcompare\u002Fv3.1.2...v3.1.3","2026-01-05T17:44:36",{"id":229,"version":230,"summary_zh":231,"released_at":232},247201,"v3.1.2","## What's Changed\r\n* add link to the memori cookbook by @Boburmirzo in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F236\r\n* Add new exception classes for Memori API error handling by @devwdave & @HyoTaek-Jang in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F239\r\n\r\n## New Contributors\r\n* @HyoTaek-Jang made their first contribution in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F239\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fcompare\u002Fv3.1.1...v3.1.2","2025-12-17T17:12:01",{"id":234,"version":235,"summary_zh":236,"released_at":237},247202,"v3.1.1","## What's Changed\r\n* Update documentation to include Nebius AI Studio support and adjust P… by @devwdave in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F226\r\n* add troubleshooting guide by @Boburmirzo in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F217\r\n* Deprecation warning by @devwdave in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F228\r\n* Quota Testing Bug by @devwdave in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F229\r\n* fix: automatic memory injection for Google GenAI provider (#215) by @KarthikeyaKollu in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F221\r\n* Google drivers enhancements by @harshalmore31 in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F230\r\n\r\n## New Contributors\r\n* @KarthikeyaKollu made their first contribution in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F221\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fcompare\u002Fv3.1.0...v3.1.1","2025-12-12T17:52:23",{"id":239,"version":240,"summary_zh":241,"released_at":242},247203,"v3.1.0","## What's Changed\r\n* add Digital Ocean gradient example. by @harshalmore31 in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F211\r\n* LLM instrument registration by @devwdave in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F213\r\n* Refactor augmentation payload to include hashed entity and process ID… by @devwdave in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F219\r\n* Add augmentation.wait() method to gracefully handle interrupt\u002Ftermination@devwdave in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F222\r\n* Update Test Mode to route Advanced Aug tests to staging @devwdave in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F223\r\n* Add wait functionality for asynchronous memory augmentation in examples by @devwdave in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F224\r\n* Updates to markdown docs to demonstrate simple example with new registration method. \r\n* Added Security policy.\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fcompare\u002Fv3.0.6...v3.1.0","2025-12-09T20:32:15",{"id":244,"version":245,"summary_zh":246,"released_at":247},247204,"v3.0.6","## What's Changed\r\n* Add issue templates to be used to submit bugs and feature request by @devwdave in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F207\r\n* add quickstart page by @Boburmirzo in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F209\r\n* Pymongo bug by @devwdave in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F210\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fcompare\u002Fv3.0.5...v3.0.6","2025-12-04T15:53:39",{"id":249,"version":250,"summary_zh":251,"released_at":252},247205,"v3.0.5","## What's Changed\r\n* Unsupported Error Handling in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F206\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fcompare\u002Fv3.0.4...v3.0.5","2025-12-03T21:15:25",{"id":254,"version":255,"summary_zh":256,"released_at":257},247206,"v3.0.4","## What's Changed\r\n* Agno Support by @devwdave in https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fpull\u002F205\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FMemoriLabs\u002FMemori\u002Fcompare\u002Fv3.0.3...v3.0.4","2025-12-03T19:46:34",{"id":259,"version":260,"summary_zh":77,"released_at":261},247207,"v3.0.3","2025-12-03T00:12:58",{"id":263,"version":264,"summary_zh":77,"released_at":265},247208,"v3.0.2","2025-12-02T20:05:05"]