[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-agiresearch--A-mem":3,"tool-agiresearch--A-mem":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":23,"env_os":90,"env_gpu":91,"env_ram":92,"env_deps":93,"category_tags":100,"github_topics":101,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":105,"updated_at":106,"faqs":107,"releases":138},2305,"agiresearch\u002FA-mem","A-mem","A-MEM: Agentic Memory for LLM Agents","A-mem 是一款专为大语言模型（LLM）智能体设计的新型记忆系统。传统记忆模块往往仅具备基础的存储与检索功能，难以有效组织复杂的历史经验，导致智能体在处理长周期或高难度任务时表现受限。A-mem 通过引入“代理式”管理机制，让智能体能够像人类一样主动地整理、关联和进化记忆。\n\n该工具的核心亮点在于融合了“卡片盒笔记法”（Zettelkasten）理念，利用 ChromaDB 实现智能索引，并能自动分析新旧记忆间的关联，构建动态互联的知识网络。当新信息进入时，系统不仅会生成结构化笔记和标签，还会主动寻找历史记忆中的相似点建立链接，确保持续的知识演进。实验表明，其在多种基础模型上的表现均优于现有主流方案。\n\nA-mem 非常适合 AI 开发者、研究人员以及希望构建具备长期记忆能力智能体的工程师使用。通过简单的 Python 接口，用户即可快速集成这一系统，赋予智能体更强大的上下文理解与自适应决策能力，从而更好地应对现实世界中的复杂挑战。","# Agentic Memory 🧠\n\nA novel agentic memory system for LLM agents that can dynamically organize memories in an agentic way.\n\n## Introduction 🌟\n\nLarge Language Model (LLM) agents have demonstrated remarkable capabilities in handling complex real-world tasks through external tool usage. However, to effectively leverage historical experiences, they require sophisticated memory systems. Traditional memory systems, while providing basic storage and retrieval functionality, often lack advanced memory organization capabilities.\n\nOur project introduces an innovative **Agentic Memory** system that revolutionizes how LLM agents manage and utilize their memories:\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fagiresearch_A-mem_readme_55cb26dd6d7d.jpg\" alt=\"Traditional Memory System\" width=\"600\"\u002F>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fagiresearch_A-mem_readme_a60d682e3041.jpg\" alt=\"Our Proposed Agentic Memory\" width=\"600\"\u002F>\n  \u003Cbr>\n  \u003Cem>Comparison between traditional memory system (top) and our proposed agentic memory (bottom). Our system enables dynamic memory operations and flexible agent-memory interactions.\u003C\u002Fem>\n\u003C\u002Fdiv>\n\n> **Note:** This repository provides a memory system to facilitate agent construction. If you want to reproduce the results presented in our paper, please refer to: [https:\u002F\u002Fgithub.com\u002FWujiangXu\u002FAgenticMemory](https:\u002F\u002Fgithub.com\u002FWujiangXu\u002FAgenticMemory)\n\nFor more details, please refer to our paper: [A-MEM: Agentic Memory for LLM Agents](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.12110)\n\n\n## Key Features ✨\n\n- 🔄 Dynamic memory organization based on Zettelkasten principles\n- 🔍 Intelligent indexing and linking of memories via ChromaDB\n- 📝 Comprehensive note generation with structured attributes\n- 🌐 Interconnected knowledge networks\n- 🧬 Continuous memory evolution and refinement\n- 🤖 Agent-driven decision making for adaptive memory management\n\n## Framework 🏗️\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fagiresearch_A-mem_readme_e8b5e1ad47da.jpg\" alt=\"Agentic Memory Framework\" width=\"800\"\u002F>\n  \u003Cbr>\n  \u003Cem>The framework of our Agentic Memory system showing the dynamic interaction between LLM agents and memory components.\u003C\u002Fem>\n\u003C\u002Fdiv>\n\n## How It Works 🛠️\n\nWhen a new memory is added to the system:\n1. Generates comprehensive notes with structured attributes\n2. Creates contextual descriptions and tags\n3. Analyzes historical memories for relevant connections\n4. Establishes meaningful links based on similarities\n5. Enables dynamic memory evolution and updates\n\n## Results 📊\n\nEmpirical experiments conducted on six foundation models demonstrate superior performance compared to existing SOTA baselines.\n\n## Getting Started 🚀\n\n1. Clone the repository:\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FA-mem.git\ncd A-mem\n```\n\n2. Install dependencies:\nCreate and activate a virtual environment (recommended):\n```bash\npython -m venv .venv\nsource .venv\u002Fbin\u002Factivate  # On Windows, use: .venv\\Scripts\\activate\n```\n\nInstall the package:\n```bash\npip install .\n```\nFor development, you can install it in editable mode:\n```bash\npip install -e .\n```\n\n3. Usage Examples 💡\n\nHere's how to use the Agentic Memory system for basic operations:\n\n```python\nfrom agentic_memory.memory_system import AgenticMemorySystem\n\n# Initialize the memory system 🚀\nmemory_system = AgenticMemorySystem(\n    model_name='all-MiniLM-L6-v2',  # Embedding model for ChromaDB\n    llm_backend=\"openai\",           # LLM backend (openai\u002Follama)\n    llm_model=\"gpt-4o-mini\"         # LLM model name\n)\n\n# Add Memories ➕\n# Simple addition\nmemory_id = memory_system.add_note(\"Deep learning neural networks\")\n\n# Addition with metadata\nmemory_id = memory_system.add_note(\n    content=\"Machine learning project notes\",\n    tags=[\"ml\", \"project\"],\n    category=\"Research\",\n    timestamp=\"202503021500\"  # YYYYMMDDHHmm format\n)\n\n# Read (Retrieve) Memories 📖\n# Get memory by ID\nmemory = memory_system.read(memory_id)\nprint(f\"Content: {memory.content}\")\nprint(f\"Tags: {memory.tags}\")\nprint(f\"Context: {memory.context}\")\nprint(f\"Keywords: {memory.keywords}\")\n\n# Search memories\nresults = memory_system.search_agentic(\"neural networks\", k=5)\nfor result in results:\n    print(f\"ID: {result['id']}\")\n    print(f\"Content: {result['content']}\")\n    print(f\"Tags: {result['tags']}\")\n    print(\"---\")\n\n# Update Memories 🔄\nmemory_system.update(memory_id, content=\"Updated content about deep learning\")\n\n# Delete Memories ❌\nmemory_system.delete(memory_id)\n\n# Memory Evolution 🧬\n# The system automatically evolves memories by:\n# 1. Finding semantic relationships using ChromaDB\n# 2. Updating metadata and context\n# 3. Creating connections between related memories\n# This happens automatically when adding or updating memories!\n```\n\n### Advanced Features 🌟\n\n1. **ChromaDB Vector Storage** 📦\n   - Efficient vector embedding storage and retrieval\n   - Fast semantic similarity search\n   - Automatic metadata handling\n   - Persistent memory storage\n\n2. **Memory Evolution** 🧬\n   - Automatically analyzes content relationships\n   - Updates tags and context based on related memories\n   - Creates semantic connections between memories\n\n3. **Flexible Metadata** 📋\n   - Custom tags and categories\n   - Automatic keyword extraction\n   - Context generation\n   - Timestamp tracking\n\n4. **Multiple LLM Backends** 🤖\n   - OpenAI (GPT-4, GPT-3.5)\n   - Ollama (for local deployment)\n\n### Best Practices 💪\n\n1. **Memory Creation** ✨:\n   - Provide clear, specific content\n   - Add relevant tags for better organization\n   - Let the system handle context and keyword generation\n\n2. **Memory Retrieval** 🔍:\n   - Use specific search queries\n   - Adjust 'k' parameter based on needed results\n   - Consider both exact and semantic matches\n\n3. **Memory Evolution** 🧬:\n   - Allow automatic evolution to organize memories\n   - Review generated connections periodically\n   - Use consistent tagging conventions\n\n4. **Error Handling** ⚠️:\n   - Always check return values\n   - Handle potential KeyError for non-existent memories\n   - Use try-except blocks for LLM operations\n\n## Citation 📚\n\nIf you use this code in your research, please cite our work:\n\n```bibtex\n@article{xu2025mem,\n  title={A-mem: Agentic memory for llm agents},\n  author={Xu, Wujiang and Liang, Zujie and Mei, Kai and Gao, Hang and Tan, Juntao and Zhang, Yongfeng},\n  journal={arXiv preprint arXiv:2502.12110},\n  year={2025}\n}\n```\n\n## License 📄\n\nThis project is licensed under the MIT License. See LICENSE for details.\n","# 代理记忆 🧠\n\n一种用于LLM代理的新型代理记忆系统，能够以代理化的方式动态组织记忆。\n\n## 引言 🌟\n\n大型语言模型（LLM）代理通过调用外部工具，在处理复杂的现实世界任务方面展现了非凡的能力。然而，为了有效利用历史经验，它们需要先进的记忆系统。传统的记忆系统虽然提供了基本的存储和检索功能，但往往缺乏高级的记忆组织能力。\n\n我们的项目引入了一种创新的**代理记忆**系统，彻底改变了LLM代理管理和使用记忆的方式：\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fagiresearch_A-mem_readme_55cb26dd6d7d.jpg\" alt=\"传统记忆系统\" width=\"600\"\u002F>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fagiresearch_A-mem_readme_a60d682e3041.jpg\" alt=\"我们提出的代理记忆\" width=\"600\"\u002F>\n  \u003Cbr>\n  \u003Cem>传统记忆系统（上）与我们提出的代理记忆系统（下）的对比。我们的系统支持动态的记忆操作和灵活的代理-记忆交互。\u003C\u002Fem>\n\u003C\u002Fdiv>\n\n> **注：** 本仓库提供了一个便于构建代理的记忆系统。如果您想复现我们论文中展示的结果，请参考：[https:\u002F\u002Fgithub.com\u002FWujiangXu\u002FAgenticMemory](https:\u002F\u002Fgithub.com\u002FWujiangXu\u002FAgenticMemory)\n\n更多详情请参阅我们的论文：[A-MEM: LLM代理的代理记忆](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.12110)\n\n\n## 核心特性 ✨\n\n- 🔄 基于Zettelkasten原则的动态记忆组织\n- 🔍 通过ChromaDB实现记忆的智能索引与链接\n- 📝 具有结构化属性的全面笔记生成\n- 🌐 相互连接的知识网络\n- 🧬 持续的记忆演化与优化\n- 🤖 由代理驱动的决策机制，实现自适应的记忆管理\n\n## 框架 🏗️\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fagiresearch_A-mem_readme_e8b5e1ad47da.jpg\" alt=\"代理记忆框架\" width=\"800\"\u002F>\n  \u003Cbr>\n  \u003Cem>我们的代理记忆系统的框架，展示了LLM代理与记忆组件之间的动态交互。\u003C\u002Fem>\n\u003C\u002Fdiv>\n\n## 工作原理 🛠️\n\n当新记忆被添加到系统中时：\n1. 生成包含结构化属性的全面笔记\n2. 创建上下文描述和标签\n3. 分析历史记忆以寻找相关联系\n4. 基于相似性建立有意义的链接\n5. 实现记忆的动态演化与更新\n\n## 结果 📊\n\n在六种基础模型上进行的实证实验表明，该系统的表现优于现有的SOTA基准。\n\n## 快速开始 🚀\n\n1. 克隆仓库：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FA-mem.git\ncd A-mem\n```\n\n2. 安装依赖：\n建议创建并激活虚拟环境：\n```bash\npython -m venv .venv\nsource .venv\u002Fbin\u002Factivate  # Windows系统使用：.venv\\Scripts\\activate\n```\n\n安装包：\n```bash\npip install .\n```\n开发时可以使用可编辑模式安装：\n```bash\npip install -e .\n```\n\n3. 使用示例 💡\n\n以下是使用代理记忆系统进行基本操作的方法：\n\n```python\nfrom agentic_memory.memory_system import AgenticMemorySystem\n\n# 初始化记忆系统 🚀\nmemory_system = AgenticMemorySystem(\n    model_name='all-MiniLM-L6-v2',  # ChromaDB的嵌入模型\n    llm_backend=\"openai\",           # LLM后端（openai\u002Follama）\n    llm_model=\"gpt-4o-mini\"         # LLM模型名称\n)\n\n# 添加记忆 ➕\n# 简单添加\nmemory_id = memory_system.add_note(\"深度学习神经网络\")\n\n# 带元数据添加\nmemory_id = memory_system.add_note(\n    content=\"机器学习项目笔记\",\n    tags=[\"ml\", \"project\"],\n    category=\"研究\",\n    timestamp=\"202503021500\"  # YYYYMMDDHHmm格式\n)\n\n# 阅读（检索）记忆 📖\n# 根据ID获取记忆\nmemory = memory_system.read(memory_id)\nprint(f\"内容: {memory.content}\")\nprint(f\"标签: {memory.tags}\")\nprint(f\"上下文: {memory.context}\")\nprint(f\"关键词: {memory.keywords}\")\n\n# 搜索记忆\nresults = memory_system.search_agentic(\"神经网络\", k=5)\nfor result in results:\n    print(f\"ID: {result['id']}\")\n    print(f\"内容: {result['content']}\")\n    print(f\"标签: {result['tags']}\")\n    print(\"---\")\n\n# 更新记忆 🔄\nmemory_system.update(memory_id, content=\"关于深度学习的更新内容\")\n\n# 删除记忆 ❌\nmemory_system.delete(memory_id)\n\n# 记忆演化 🧬\n# 系统会自动对记忆进行演化，具体步骤如下：\n# 1. 利用ChromaDB查找语义关系\n# 2. 更新元数据和上下文\n# 3. 在相关记忆之间建立连接\n# 这些操作会在添加或更新记忆时自动完成！\n```\n\n### 高级特性 🌟\n\n1. **ChromaDB向量存储** 📦\n   - 高效的向量嵌入存储与检索\n   - 快速的语义相似度搜索\n   - 自动化的元数据管理\n   - 持久化的记忆存储\n\n2. **记忆演化** 🧬\n   - 自动分析内容之间的关系\n   - 根据相关记忆更新标签和上下文\n   - 在记忆之间建立语义连接\n\n3. **灵活的元数据** 📋\n   - 自定义标签和类别\n   - 自动提取关键词\n   - 自动生成上下文\n   - 时间戳追踪\n\n4. **多种LLM后端** 🤖\n   - OpenAI（GPT-4、GPT-3.5）\n   - Ollama（适用于本地部署）\n\n### 最佳实践 💪\n\n1. **记忆创建** ✨：\n   - 提供清晰、具体的内容\n   - 添加相关标签以便更好地组织\n   - 让系统自动处理上下文和关键词的生成\n\n2. **记忆检索** 🔍：\n   - 使用具体的查询语句\n   - 根据需求调整k值\n   - 同时考虑精确匹配和语义匹配\n\n3. **记忆演化** 🧬：\n   - 允许系统自动演化以整理记忆\n   - 定期审查生成的连接\n   - 使用一致的标签规范\n\n4. **错误处理** ⚠️：\n   - 始终检查返回值\n   - 处理可能存在的无效记忆KeyError\n   - 对LLM操作使用try-except块\n\n## 引用 📚\n\n如果您在研究中使用了本代码，请引用我们的工作：\n\n```bibtex\n@article{xu2025mem,\n  title={A-mem: LLM代理的代理记忆},\n  author={徐武江、梁祖杰、梅凯、高航、谭俊涛、张永峰},\n  journal={arXiv预印本 arXiv:2502.12110},\n  year={2025}\n}\n```\n\n## 许可证 📄\n\n本项目采用MIT许可证。详细信息请参阅LICENSE文件。","# A-mem 快速上手指南\n\nA-mem 是一个专为大语言模型（LLM）智能体设计的新型**代理记忆系统**。它基于卡片盒笔记法（Zettelkasten）原则，能够动态地组织、索引和演化记忆，帮助智能体更高效地利用历史经验。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：推荐 Python 3.8 及以上版本\n*   **前置依赖**：\n    *   `git`：用于克隆代码仓库\n    *   `pip`：Python 包管理工具\n    *   **API Key**：若使用 OpenAI 后端，需准备有效的 `OPENAI_API_KEY`；若使用本地部署，需安装并运行 Ollama。\n\n> **提示**：国内开发者在安装 Python 依赖时，建议指定清华或阿里镜像源以加速下载。\n\n## 安装步骤\n\n### 1. 克隆项目\n首先，将 A-mem 仓库克隆到本地：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FA-mem.git\ncd A-mem\n```\n\n### 2. 创建虚拟环境（推荐）\n为了避免依赖冲突，建议创建独立的虚拟环境：\n\n```bash\npython -m venv .venv\nsource .venv\u002Fbin\u002Factivate  # Windows 用户请使用：.venv\\Scripts\\activate\n```\n\n### 3. 安装依赖\n使用 pip 安装项目依赖。国内用户可添加 `-i` 参数使用镜像源：\n\n```bash\n# 标准安装\npip install . -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 或者以可编辑模式安装（适合二次开发）\npip install -e . -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n以下是最简单的使用示例，展示如何初始化系统、添加记忆、检索记忆以及更新记忆。\n\n### 初始化与基础操作\n\n```python\nfrom agentic_memory.memory_system import AgenticMemorySystem\n\n# 1. 初始化记忆系统 🚀\n# model_name: ChromaDB 使用的嵌入模型\n# llm_backend: LLM 后端 (支持 \"openai\" 或 \"ollama\")\n# llm_model: 具体的 LLM 模型名称\nmemory_system = AgenticMemorySystem(\n    model_name='all-MiniLM-L6-v2',\n    llm_backend=\"openai\",           \n    llm_model=\"gpt-4o-mini\"         \n)\n\n# 2. 添加记忆 ➕\n# 简单添加\nmemory_id = memory_system.add_note(\"深度学习神经网络基础\")\n\n# 带元数据添加（标签、分类、时间戳）\nmemory_id = memory_system.add_note(\n    content=\"机器学习项目笔记\",\n    tags=[\"ml\", \"project\"],\n    category=\"Research\",\n    timestamp=\"202503021500\"  # 格式：YYYYMMDDHHmm\n)\n\n# 3. 读取\u002F检索记忆 📖\n# 通过 ID 获取单条记忆\nmemory = memory_system.read(memory_id)\nprint(f\"内容：{memory.content}\")\nprint(f\"标签：{memory.tags}\")\nprint(f\"上下文：{memory.context}\")\nprint(f\"关键词：{memory.keywords}\")\n\n# 语义搜索（代理式搜索）\nresults = memory_system.search_agentic(\"神经网络\", k=5)\nfor result in results:\n    print(f\"ID: {result['id']}\")\n    print(f\"内容：{result['content']}\")\n    print(f\"标签：{result['tags']}\")\n    print(\"---\")\n\n# 4. 更新记忆 🔄\nmemory_system.update(memory_id, content=\"关于深度学习的更新内容\")\n\n# 5. 删除记忆 ❌\nmemory_system.delete(memory_id)\n```\n\n### 核心特性说明\n\n*   **自动演化**：系统在添加或更新记忆时，会自动利用 ChromaDB 分析语义关系，生成标签、上下文，并建立记忆间的关联，无需手动干预。\n*   **多后端支持**：默认配置为 OpenAI，如需本地私有化部署，可将 `llm_backend` 设置为 `\"ollama\"` 并确保本地 Ollama 服务已启动。\n*   **向量存储**：底层使用 ChromaDB 进行高效的向量嵌入存储和相似度检索。","一位 AI 研发工程师正在构建一个能长期处理复杂客户咨询任务的智能客服 Agent，需要其具备跨会话的记忆与推理能力。\n\n### 没有 A-mem 时\n- **记忆碎片化**：历史对话仅以线性日志存储，Agent 无法自动识别不同会话间关于同一客户偏好的潜在联系。\n- **检索效率低**：面对海量历史记录，传统向量检索只能返回关键词匹配的片段，缺乏上下文关联，导致回答断章取义。\n- **知识静止不前**：旧的经验数据一旦写入便不再更新，无法随着新交互的发生自动修正或细化已有的客户画像。\n- **缺乏结构化整理**：非结构化的文本堆积使得 Agent 难以提取关键属性（如“偏好夜间沟通”），每次决策都需重新分析原始长文本。\n\n### 使用 A-mem 后\n- **动态知识组网**：A-mem 基于 Zettelkasten 原则，自动将分散的客户偏好笔记链接成网，让 Agent 瞬间洞察跨会话的行为模式。\n- **智能关联检索**：通过 Agent 驱动的索引机制，不仅能找到关键词，还能顺藤摸瓜检索到语义相关的背景信息，提供连贯且精准的回复。\n- **记忆持续进化**：当获得新的客户反馈时，A-mem 会自动触发记忆更新流程，修正过时的标签并丰富现有笔记，保持知识库的时效性。\n- **结构化属性生成**：系统自动为每条记忆生成包含标签、类别和上下文的结构化属性，使 Agent 能直接调用“夜间沟通偏好”等关键特征辅助决策。\n\nA-mem 通过将静态存储升级为动态演进的“代理式记忆”，赋予了 LLM Agent 像人类专家一样积累、关联并迭代经验的核心能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fagiresearch_A-mem_55cb26dd.jpg","agiresearch","AGI Research","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fagiresearch_95b3bb71.png","",null,"https:\u002F\u002Fgithub.com\u002Fagiresearch",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,946,98,"2026-04-03T10:51:15","MIT","Linux, macOS, Windows","未说明（支持本地部署 Ollama 或云端 OpenAI，无强制 GPU 要求）","未说明",{"notes":94,"python":95,"dependencies":96},"该项目是一个记忆系统库，需通过 'pip install .' 安装。运行时需要配置 LLM 后端（支持 OpenAI 或本地 Ollama）以及嵌入模型（默认使用 all-MiniLM-L6-v2）。若选择本地部署 Ollama 或运行大型嵌入模型，可能需要较高的内存或 GPU 资源，具体取决于所选模型大小。","未说明（需支持 venv 及 pip 安装）",[97,98,99],"ChromaDB","all-MiniLM-L6-v2 (嵌入模型)","OpenAI API 或 Ollama",[13,26,15],[102,103,104],"agent","llm","memory","2026-03-27T02:49:30.150509","2026-04-06T05:38:00.960098",[108,113,118,123,128,133],{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},10573,"代码实现与论文中描述的方法（如自主链接生成机制）不一致，该如何复现论文结果？","本仓库主要用于构建代理内存系统。如果您希望复现论文中展示的结果（包括消融实验等），请使用专门的仓库：https:\u002F\u002Fgithub.com\u002FWujiangXu\u002FAgenticMemory。原仓库中的某些功能可能未完全对齐论文实验版本。","https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FA-mem\u002Fissues\u002F3",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},10574,"如何配置或更改嵌入模型（Embedding Model）？","在最新代码中，已修复了 `model_name` 参数被忽略的问题。现在您可以在初始化 `AgenticMemorySystem` 时直接传入所需的模型名称，例如：`memory = AgenticMemorySystem(model_name=\"sentence-transformers\u002Fparaphrase-mpnet-base-v2\")`。系统将不再强制使用硬编码的 `all-MiniLM-L6-v2` 模型。","https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FA-mem\u002Fissues\u002F9",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},10575,"如何在代码中观察或可视化内存（Memory）的结果？","本仓库主要提供内存系统构建功能，未直接包含可视化脚本。若需可视化，您可以手动保存内存的嵌入向量（embeddings），然后使用 T-SNE 等降维技术进行可视化展示。","https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FA-mem\u002Fissues\u002F5",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},10576,"项目是否支持 vLLM 作为后端？","目前尚未支持 vLLM。当前示例仅支持 OpenAI、Mock 和 Ollama 等后端。维护者表示将在未来版本中添加对 vLLM 的支持。","https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FA-mem\u002Fissues\u002F4",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},10577,"README 文件中的许可证说明与 LICENSE 文件内容不一致，以哪个为准？","维护者已修复该问题，将 `LICENSE.md` 文件更新为标准的 MIT 许可证，与 README 中的描述保持一致。请以最新的 MIT 许可证为准。","https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FA-mem\u002Fissues\u002F1",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},10578,"在 Windows 系统上安装时遇到 'No module named distutils' 错误怎么办？","该项目尚未在 Windows 系统上进行全面测试。遇到此错误通常是因为 Python 3.12+ 移除了 distutils 模块。建议检查您的 Python 版本及 setuptools 版本，或尝试在 Linux\u002FMac 环境下安装。如需在 Windows 运行，可能需要安装额外的构建工具或降级 Python 版本。","https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FA-mem\u002Fissues\u002F2",[]]