[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-RichmondAlake--memorizz":3,"tool-RichmondAlake--memorizz":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":77,"languages":78,"stars":103,"forks":104,"last_commit_at":105,"license":106,"difficulty_score":32,"env_os":107,"env_gpu":107,"env_ram":107,"env_deps":108,"category_tags":118,"github_topics":119,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":128,"updated_at":129,"faqs":130,"releases":131},9278,"RichmondAlake\u002Fmemorizz","memorizz","MemoRizz: A Python library serving as a memory layer for AI applications. Leverages popular databases and storage solutions to optimize memory usage. Provides utility classes and methods for efficient data management.","Memorizz 是一个专为构建具备“记忆”能力的 AI 智能体而设计的 Python 框架。它旨在解决大语言模型在会话中断后容易遗忘上下文、难以跨对话保留关键信息以及重复调用导致成本高昂等痛点。通过引入分层记忆系统，Memorizz 让 AI 能够像人类一样拥有短期记忆、长期语义记忆、情景记忆甚至程序性记忆，从而实现更连贯、个性化的交互体验。\n\n该工具特别适合 AI 应用开发者、研究人员以及希望快速原型化复杂智能体工作流的工程师使用。其核心亮点在于灵活的架构：支持多种存储后端（如 Oracle、MongoDB 或本地文件系统），内置语义检索与向量搜索功能，并能自动管理实体画像。此外，Memorizz 还提供了语义缓存机制以减少重复的 LLM 调用成本，支持多智能体协作共享“黑板”记忆，并集成了定时自动化任务与沙箱代码执行能力。无论是开发简单的助手应用，还是构建复杂的深度研究工作流，Memorizz 都能提供坚实的底层记忆支撑，帮助开发者轻松打造持久化、高智商的 AI 应用。需要注意的是，目前该项目仍处于实验阶段，主要面向教育与探索性用途。","\u003Cdiv align=\"center\">\n\n# Memorizz\n\n[![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fmemorizz.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fmemorizz)\n[![PyPI Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRichmondAlake_memorizz_readme_9c268d028339.png)](https:\u002F\u002Fpepy.tech\u002Fprojects\u002Fmemorizz)\n\n\u003C\u002Fdiv>\n\n> **Experimental software**\n>\n> Memorizz is an educational\u002Fexperimental framework. APIs may change and the project has not undergone security hardening for production workloads.\n\nMemorizz is a Python framework for building memory-augmented AI agents.\nIt provides:\n\n- multiple memory systems (episodic, semantic, procedural, short-term, shared)\n- pluggable storage providers (Oracle, MongoDB, filesystem)\n- agent builders and application modes (`assistant`, `workflow`, `deep_research`)\n- scheduled automations (cron, interval, one-shot) with optional WhatsApp delivery\n- optional internet access, sandbox code execution, and local web UI\n\n## Key Capabilities\n\n- **Persistent memory** across sessions and conversations\n- **Semantic retrieval** with embeddings + vector search\n- **Entity memory** tools for profile-style facts (`entity_memory_lookup` \u002F `entity_memory_upsert`)\n- **Tool calling** with automatic function registration\n- **Semantic cache** to reduce repeat LLM calls\n- **Multi-agent orchestration** with shared blackboard memory\n- **Context-window telemetry** via `get_context_window_stats()`\n- **Scheduled automations** via SDK, web UI, or agent conversation (see `src\u002Fmemorizz\u002Fautomation\u002FREADME.md`)\n\n## Installation\n\nBase install:\n\n```bash\npip install memorizz\n```\n\nCommon extras:\n\n```bash\npip install \"memorizz[oracle]\"          # Oracle provider\npip install \"memorizz[mongodb]\"         # MongoDB provider\npip install \"memorizz[filesystem]\"      # Local filesystem + FAISS\npip install \"memorizz[sandbox-e2b]\"     # E2B sandbox\npip install \"memorizz[sandbox-daytona]\" # Daytona sandbox\npip install \"memorizz[ui]\"              # Local web UI\npip install \"memorizz[all]\"             # Everything\n```\n\n## Quick Start (Filesystem Provider)\n\n```python\nimport os\nfrom pathlib import Path\n\nfrom memorizz.memagent.builders import MemAgentBuilder\nfrom memorizz.memory_provider import FileSystemConfig, FileSystemProvider\n\nos.environ[\"OPENAI_API_KEY\"] = \"your-openai-api-key\"\n\nprovider = FileSystemProvider(\n    FileSystemConfig(\n        root_path=Path(\"~\u002F.memorizz\").expanduser(),\n        embedding_provider=\"openai\",\n        embedding_config={\"model\": \"text-embedding-3-small\"},\n    )\n)\n\nagent = (\n    MemAgentBuilder()\n    .with_instruction(\"You are a helpful assistant with persistent memory.\")\n    .with_memory_provider(provider)\n    .with_llm_config(\n        {\n            \"provider\": \"openai\",\n            \"model\": \"gpt-4o-mini\",\n            \"api_key\": os.environ[\"OPENAI_API_KEY\"],\n        }\n    )\n    .with_semantic_cache(enabled=True, threshold=0.85)\n    .build()\n)\n\nprint(agent.run(\"Hi, my name is Leah and I work on payments systems.\"))\nprint(agent.run(\"What did I tell you about my work?\"))\n\nstats = agent.get_context_window_stats()\nprint(stats)\n```\n\n## Oracle Setup (Optional)\n\nIf you want Oracle AI Database as the backing store:\n\n```bash\n.\u002Finstall_oracle.sh\nmemorizz setup-oracle\n```\n\nThen configure `ORACLE_USER`, `ORACLE_PASSWORD`, `ORACLE_DSN`, and your LLM credentials. Full setup details are in `SETUP.md`.\n\nFor multi-client consistency (UI + notebooks), you can set shared embedding defaults:\n\n```bash\nexport MEMORIZZ_DEFAULT_EMBEDDING_PROVIDER=openai\nexport MEMORIZZ_DEFAULT_EMBEDDING_MODEL=text-embedding-3-small\nexport MEMORIZZ_DEFAULT_EMBEDDING_DIMENSIONS=1536\n```\n\n## Application Modes\n\n`ApplicationMode` presets automatically enable different memory stacks:\n\n- `assistant`: conversation, long-term, personas, entity memory, short-term, summaries\n- `workflow`: workflow memory, toolbox, long-term, short-term, summaries\n- `deep_research`: toolbox, shared memory, long-term, short-term, summaries\n\nExample:\n\n```python\nimport os\n\nfrom memorizz.enums import ApplicationMode\nfrom memorizz.memagent.builders import MemAgentBuilder\n\nllm_config = {\n    \"provider\": \"openai\",\n    \"model\": \"gpt-4o-mini\",\n    \"api_key\": os.environ[\"OPENAI_API_KEY\"],\n}\n\nagent = (\n    MemAgentBuilder()\n    .with_application_mode(ApplicationMode.DEEP_RESEARCH)\n    .with_memory_provider(provider)\n    .with_llm_config(llm_config)\n    .build()\n)\n```\n\n## Internet Access (Deep Research)\n\nDeep Research agents can attach internet providers and expose `internet_search` \u002F `open_web_page` tools.\n\n```python\nimport os\n\nfrom memorizz.internet_access import TavilyProvider\nfrom memorizz.memagent.builders import create_deep_research_agent\n\nllm_config = {\n    \"provider\": \"openai\",\n    \"model\": \"gpt-4o-mini\",\n    \"api_key\": os.environ[\"OPENAI_API_KEY\"],\n}\n\ninternet_provider = TavilyProvider(api_key=os.environ[\"TAVILY_API_KEY\"])\n\nagent = (\n    create_deep_research_agent(internet_provider=internet_provider)\n    .with_memory_provider(provider)\n    .with_llm_config(llm_config)\n    .build()\n)\n\nresults = agent.search_internet(\"latest vector database benchmark\")\n```\n\n## Sandbox Code Execution\n\nAttach a sandbox provider to enable `execute_code`, `sandbox_write_file`, and `sandbox_read_file` tools.\n\n```python\nimport os\n\nfrom memorizz.memagent import MemAgent\n\nllm_config = {\n    \"provider\": \"openai\",\n    \"model\": \"gpt-4o-mini\",\n    \"api_key\": os.environ[\"OPENAI_API_KEY\"],\n}\n\nagent = MemAgent(\n    llm_config=llm_config,\n    memory_provider=provider,\n    sandbox_provider=\"e2b\",  # or \"daytona\" \u002F \"graalpy\"\n)\n\nprint(agent.execute_code(\"print(2 ** 16)\"))\n```\n\n## Multi-Agent Deep Research Workflow\n\n```python\nfrom memorizz.memagent.orchestrators import DeepResearchWorkflow\n\nworkflow = DeepResearchWorkflow.from_config(\n    memory_provider=provider,\n    delegate_instructions=[\n        \"Financial researcher: collect metrics and citations.\",\n        \"Risk analyst: identify key downside scenarios.\",\n    ],\n)\n\nreport = workflow.run(\"Analyze the last 3 years of cloud infrastructure trends.\")\nprint(report)\n```\n\n## CLI\n\nAfter installation, the `memorizz` command exposes:\n\n```bash\nmemorizz run local                  # start local web UI (requires [ui])\nmemorizz install-oracle             # start Oracle container helper\nmemorizz setup-oracle               # initialize Oracle schema\u002Fuser\n```\n\n## Examples\n\n- `examples\u002Fsingle_agent\u002Fmemagent_local_oracle.ipynb`\n- `examples\u002Fsingle_agent\u002Fmemagent_remote_oracle.ipynb`\n- `examples\u002Fdeep_research\u002Fdeep_research_memagent.ipynb`\n- `examples\u002Fsandbox\u002Fmemagent_e2b_sandbox.ipynb`\n- `examples\u002Fsandbox\u002Fmemagent_daytona_sandbox.ipynb`\n- `examples\u002Fsandbox\u002Fmemagent_graalpy_sandbox.ipynb`\n- `examples\u002Fautomations\u002Fautomations_guide.ipynb`\n- `examples\u002Fmodel_providers\u002Fopenai_provider.ipynb`\n- `examples\u002Fmodel_providers\u002Fanthropic_provider.ipynb`\n- `examples\u002Fmodel_providers\u002Follama_provider.ipynb`\n- `examples\u002Fmodel_providers\u002Fcompare_providers.ipynb`\n\n## Documentation\n\n- Docs source: `docs\u002F`\n- Local preview: `make docs-serve` (or `mkdocs serve`)\n- Architecture notes: `src\u002Fmemorizz\u002FMEMORY_ARCHITECTURE.md`\n\n## License\n\nPolyForm Noncommercial 1.0.0.\nSee `LICENSE` and `NOTICE`.\n","\u003Cdiv align=\"center\">\n\n# Memorizz\n\n[![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fmemorizz.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fmemorizz)\n[![PyPI Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRichmondAlake_memorizz_readme_9c268d028339.png)](https:\u002F\u002Fpepy.tech\u002Fprojects\u002Fmemorizz)\n\n\u003C\u002Fdiv>\n\n> **实验性软件**\n>\n> Memorizz 是一个教育性和实验性的框架。其 API 可能会发生变化，且该项目尚未针对生产工作负载进行安全加固。\n\nMemorizz 是一个用于构建内存增强型 AI 代理的 Python 框架。\n它提供了：\n\n- 多种记忆系统（情景记忆、语义记忆、程序性记忆、短期记忆、共享记忆）\n- 可插拔的存储提供者（Oracle、MongoDB、文件系统）\n- 代理构建工具和应用模式（`assistant`、`workflow`、`deep_research`）\n- 定时自动化任务（cron、间隔、一次性），可选通过 WhatsApp 发送\n- 可选的互联网访问、沙盒代码执行以及本地 Web 界面\n\n## 核心功能\n\n- 跨会话和对话的**持久化记忆**\n- 基于嵌入向量与向量搜索的**语义检索**\n- 用于个人资料式事实的**实体记忆**工具（`entity_memory_lookup` \u002F `entity_memory_upsert`）\n- 自动注册函数的**工具调用**\n- 用于减少重复 LLM 调用的**语义缓存**\n- 共享黑板记忆的**多代理编排**\n- 通过 `get_context_window_stats()` 提供的**上下文窗口遥测**\n- 通过 SDK、Web 界面或代理对话实现的**定时自动化任务**（参见 `src\u002Fmemorizz\u002Fautomation\u002FREADME.md`）\n\n## 安装\n\n基础安装：\n\n```bash\npip install memorizz\n```\n\n常用扩展：\n\n```bash\npip install \"memorizz[oracle]\"          # Oracle 提供者\npip install \"memorizz[mongodb]\"         # MongoDB 提供者\npip install \"memorizz[filesystem]\"      # 本地文件系统 + FAISS\npip install \"memorizz[sandbox-e2b]\"     # E2B 沙盒\npip install \"memorizz[sandbox-daytona]\" # Daytona 沙盒\npip install \"memorizz[ui]\"              # 本地 Web 界面\npip install \"memorizz[all]\"             # 所有功能\n```\n\n## 快速入门（文件系统提供者）\n\n```python\nimport os\nfrom pathlib import Path\n\nfrom memorizz.memagent.builders import MemAgentBuilder\nfrom memorizz.memory_provider import FileSystemConfig, FileSystemProvider\n\nos.environ[\"OPENAI_API_KEY\"] = \"your-openai-api-key\"\n\nprovider = FileSystemProvider(\n    FileSystemConfig(\n        root_path=Path(\"~\u002F.memorizz\").expanduser(),\n        embedding_provider=\"openai\",\n        embedding_config={\"model\": \"text-embedding-3-small\"},\n    )\n)\n\nagent = (\n    MemAgentBuilder()\n    .with_instruction(\"You are a helpful assistant with persistent memory.\")\n    .with_memory_provider(provider)\n    .with_llm_config(\n        {\n            \"provider\": \"openai\",\n            \"model\": \"gpt-4o-mini\",\n            \"api_key\": os.environ[\"OPENAI_API_KEY\"],\n        }\n    )\n    .with_semantic_cache(enabled=True, threshold=0.85)\n    .build()\n)\n\nprint(agent.run(\"Hi, my name is Leah and I work on payments systems.\"))\nprint(agent.run(\"What did I tell you about my work?\"))\n\nstats = agent.get_context_window_stats()\nprint(stats)\n```\n\n## Oracle 设置（可选）\n\n若希望使用 Oracle AI 数据库作为后端存储：\n\n```bash\n.\u002Finstall_oracle.sh\nmemorizz setup-oracle\n```\n\n然后配置 `ORACLE_USER`、`ORACLE_PASSWORD`、`ORACLE_DSN` 以及您的 LLM 凭证。完整的设置说明请参阅 `SETUP.md`。\n\n为了确保多客户端一致性（UI 和笔记本），您可以设置共享的嵌入默认值：\n\n```bash\nexport MEMORIZZ_DEFAULT_EMBEDDING_PROVIDER=openai\nexport MEMORIZZ_DEFAULT_EMBEDDING_MODEL=text-embedding-3-small\nexport MEMORIZZ_DEFAULT_EMBEDDING_DIMENSIONS=1536\n```\n\n## 应用模式\n\n`ApplicationMode` 预设会自动启用不同的记忆堆栈：\n\n- `assistant`: 对话记忆、长期记忆、角色记忆、实体记忆、短期记忆、摘要\n- `workflow`: 工作流记忆、工具箱、长期记忆、短期记忆、摘要\n- `deep_research`: 工具箱、共享记忆、长期记忆、短期记忆、摘要\n\n示例：\n\n```python\nimport os\n\nfrom memorizz.enums import ApplicationMode\nfrom memorizz.memagent.builders import MemAgentBuilder\n\nllm_config = {\n    \"provider\": \"openai\",\n    \"model\": \"gpt-4o-mini\",\n    \"api_key\": os.environ[\"OPENAI_API_KEY\"],\n}\n\nagent = (\n    MemAgentBuilder()\n    .with_application_mode(ApplicationMode.DEEP_RESEARCH)\n    .with_memory_provider(provider)\n    .with_llm_config(llm_config)\n    .build()\n)\n```\n\n## 互联网访问（深度研究）\n\n深度研究代理可以附加互联网提供者，并暴露 `internet_search` 和 `open_web_page` 工具。\n\n```python\nimport os\n\nfrom memorizz.internet_access import TavilyProvider\nfrom memorizz.memagent.builders import create_deep_research_agent\n\nllm_config = {\n    \"provider\": \"openai\",\n    \"model\": \"gpt-4o-mini\",\n    \"api_key\": os.environ[\"OPENAI_API_KEY\"],\n}\n\ninternet_provider = TavilyProvider(api_key=os.environ[\"TAVILY_API_KEY\"])\n\nagent = (\n    create_deep_research_agent(internet_provider=internet_provider)\n    .with_memory_provider(provider)\n    .with_llm_config(llm_config)\n    .build()\n)\n\nresults = agent.search_internet(\"latest vector database benchmark\")\n```\n\n## 沙盒代码执行\n\n附加沙盒提供者以启用 `execute_code`、`sandbox_write_file` 和 `sandbox_read_file` 工具。\n\n```python\nimport os\n\nfrom memorizz.memagent import MemAgent\n\nllm_config = {\n    \"provider\": \"openai\",\n    \"model\": \"gpt-4o-mini\",\n    \"api_key\": os.environ[\"OPENAI_API_KEY\"],\n}\n\nagent = MemAgent(\n    llm_config=llm_config,\n    memory_provider=provider,\n    sandbox_provider=\"e2b\",  \u002F\u002F 或 \"daytona\" \u002F \"graalpy\"\n)\n\nprint(agent.execute_code(\"print(2 ** 16)\"))\n```\n\n## 多代理深度研究工作流\n\n```python\nfrom memorizz.memagent.orchestrators import DeepResearchWorkflow\n\nworkflow = DeepResearchWorkflow.from_config(\n    memory_provider=provider,\n    delegate_instructions=[\n        \"Financial researcher: collect metrics and citations.\",\n        \"Risk analyst: identify key downside scenarios.\",\n    ],\n)\n\nreport = workflow.run(\"Analyze the last 3 years of cloud infrastructure trends.\")\nprint(report)\n```\n\n## 命令行界面\n\n安装后，`memorizz` 命令提供以下功能：\n\n```bash\nmemorizz run local                  # 启动本地 Web 界面（需安装 [ui]）\nmemorizz install-oracle             # 启动 Oracle 容器辅助工具\nmemorizz setup-oracle               # 初始化 Oracle 模式\u002F用户\n```\n\n## 示例\n\n- `examples\u002Fsingle_agent\u002Fmemagent_local_oracle.ipynb`\n- `examples\u002Fsingle_agent\u002Fmemagent_remote_oracle.ipynb`\n- `examples\u002Fdeep_research\u002Fdeep_research_memagent.ipynb`\n- `examples\u002Fsandbox\u002Fmemagent_e2b_sandbox.ipynb`\n- `examples\u002Fsandbox\u002Fmemagent_daytona_sandbox.ipynb`\n- `examples\u002Fsandbox\u002Fmemagent_graalpy_sandbox.ipynb`\n- `examples\u002Fautomations\u002Fautomations_guide.ipynb`\n- `examples\u002Fmodel_providers\u002Fopenai_provider.ipynb`\n- `examples\u002Fmodel_providers\u002Fanthropic_provider.ipynb`\n- `examples\u002Fmodel_providers\u002Follama_provider.ipynb`\n- `examples\u002Fmodel_providers\u002Fcompare_providers.ipynb`\n\n## 文档\n\n- 文档源码：`docs\u002F`\n- 本地预览：`make docs-serve`（或 `mkdocs serve`）\n- 架构说明：`src\u002Fmemorizz\u002FMEMORY_ARCHITECTURE.md`\n\n## 许可证\n\nPolyForm 非商业许可 1.0.0。\n请参阅 `LICENSE` 和 `NOTICE`。","# Memorizz 快速上手指南\n\nMemorizz 是一个用于构建**记忆增强型 AI 智能体**的 Python 框架。它支持多种记忆系统（情景、语义、程序性等）、可插拔存储后端以及多智能体协作，旨在让 AI 具备跨会话的持久记忆能力。\n\n> **注意**：本项目目前处于实验阶段，API 可能发生变化，尚未针对生产环境进行安全加固。\n\n## 1. 环境准备\n\n在开始之前，请确保满足以下要求：\n\n- **Python 版本**：建议 Python 3.9 或更高版本。\n- **API 密钥**：\n  - **LLM 提供商**：需要 OpenAI API Key（或其他支持的模型提供商密钥）。\n  - **可选服务**：若使用联网搜索需 Tavily API Key；若使用云沙箱需对应平台密钥。\n- **操作系统**：支持 Linux、macOS 和 Windows。\n\n## 2. 安装步骤\n\n### 基础安装\n使用 pip 安装核心库：\n\n```bash\npip install memorizz\n```\n\n### 安装扩展功能\n根据需求选择安装额外的依赖包（国内用户如遇网络问题，可配置 `-i` 指定国内镜像源，如清华源 `https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`）：\n\n```bash\n# 本地文件系统存储 + FAISS 向量检索（推荐初学者）\npip install \"memorizz[filesystem]\"\n\n# Oracle 数据库存储\npip install \"memorizz[oracle]\"\n\n# MongoDB 存储\npip install \"memorizz[mongodb]\"\n\n# E2B 代码沙箱\npip install \"memorizz[sandbox-e2b]\"\n\n# 本地 Web UI 界面\npip install \"memorizz[ui]\"\n\n# 安装所有功能\npip install \"memorizz[all]\"\n```\n\n## 3. 基本使用\n\n以下示例展示如何使用**本地文件系统**作为存储后端，快速创建一个具备持久记忆的智能体。\n\n### 步骤 1: 配置环境变量\n在终端中设置你的 OpenAI API Key：\n\n```bash\nexport OPENAI_API_KEY=\"your-openai-api-key\"\n```\n*(Windows PowerShell 用户使用 `$env:OPENAI_API_KEY=\"your-openai-api-key\"`)*\n\n### 步骤 2: 编写代码\n创建 `main.py` 文件，填入以下代码：\n\n```python\nimport os\nfrom pathlib import Path\n\nfrom memorizz.memagent.builders import MemAgentBuilder\nfrom memorizz.memory_provider import FileSystemConfig, FileSystemProvider\n\n# 初始化文件系统存储提供商\n# 记忆数据将保存在 ~\u002F.memorizz 目录下\nprovider = FileSystemProvider(\n    FileSystemConfig(\n        root_path=Path(\"~\u002F.memorizz\").expanduser(),\n        embedding_provider=\"openai\",\n        embedding_config={\"model\": \"text-embedding-3-small\"},\n    )\n)\n\n# 构建智能体\nagent = (\n    MemAgentBuilder()\n    .with_instruction(\"You are a helpful assistant with persistent memory.\")\n    .with_memory_provider(provider)\n    .with_llm_config(\n        {\n            \"provider\": \"openai\",\n            \"model\": \"gpt-4o-mini\",\n            \"api_key\": os.environ[\"OPENAI_API_KEY\"],\n        }\n    )\n    .with_semantic_cache(enabled=True, threshold=0.85)\n    .build()\n)\n\n# 第一次对话：告知个人信息\nprint(agent.run(\"Hi, my name is Leah and I work on payments systems.\"))\n\n# 第二次对话：测试记忆检索\nprint(agent.run(\"What did I tell you about my work?\"))\n\n# 查看上下文窗口统计信息\nstats = agent.get_context_window_stats()\nprint(stats)\n```\n\n### 步骤 3: 运行\n执行脚本：\n\n```bash\npython main.py\n```\n\n**预期结果**：\n智能体在第二次回答时能够准确回忆起你之前提到的工作内容（payments systems），证明持久化记忆已生效。\n\n---\n\n### 进阶提示\n- **应用模式**：可通过 `.with_application_mode(ApplicationMode.DEEP_RESEARCH)` 快速启用深度研究模式。\n- **联网能力**：结合 `TavilyProvider` 可实现互联网搜索功能。\n- **代码执行**：配置 `sandbox_provider=\"e2b\"` 即可启用安全的代码执行沙箱。","某金融科技公司的开发团队正在构建一款能长期陪伴用户的个人理财助手，需要 AI 记住用户过往的投资偏好、风险承受能力及历史对话细节。\n\n### 没有 memorizz 时\n- **记忆断层严重**：每次新对话开始，AI 都会“失忆”，用户必须反复重申自己的姓名、职业（如支付系统工程师）及投资目标，体验极差。\n- **上下文成本高昂**：为了维持连贯性，开发者不得不将全部历史对话塞入提示词，迅速耗尽昂贵的 LLM 上下文窗口，导致响应变慢且费用激增。\n- **事实检索困难**：AI 难以从海量聊天记录中精准提取特定实体信息（如“上次提到的房贷利率”），常出现幻觉或回答模糊。\n- **重复计算浪费**：对于相似的用户咨询，系统无法识别并复用之前的优质回答，导致不必要的重复推理和 API 调用。\n\n### 使用 memorizz 后\n- **跨会话持久记忆**：memorizz 自动将用户的关键画像（如\"Leah，从事支付系统工作”）存入语义记忆库，下次交互时主动调用，无需用户复述。\n- **智能上下文管理**：通过语义检索仅动态加载相关记忆片段，大幅压缩上下文长度，在降低 Token 消耗的同时保持回复的精准度。\n- **实体记忆精准查找**：利用内置的 `entity_memory_lookup` 工具，AI 能像查数据库一样准确调取具体的财务事实，杜绝胡编乱造。\n- **语义缓存降本增效**：开启语义缓存功能后，针对高频重复问题直接返回缓存结果，显著减少 LLM 调用次数，提升响应速度。\n\nmemorizz 通过构建分层记忆架构，让 AI 应用从“单次问答机器”进化为具备长期认知能力的智能伙伴，同时大幅优化了运行成本与性能。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRichmondAlake_memorizz_1740dc74.png","RichmondAlake","Richmond Alake","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FRichmondAlake_aac0ded2.jpg",null,"https:\u002F\u002Fgithub.com\u002FRichmondAlake",[79,83,87,91,95,99],{"name":80,"color":81,"percentage":82},"Python","#3572A5",84.1,{"name":84,"color":85,"percentage":86},"HTML","#e34c26",10.1,{"name":88,"color":89,"percentage":90},"CSS","#663399",3.7,{"name":92,"color":93,"percentage":94},"Shell","#89e051",1.3,{"name":96,"color":97,"percentage":98},"JavaScript","#f1e05a",0.7,{"name":100,"color":101,"percentage":102},"Makefile","#427819",0.1,703,76,"2026-04-16T22:03:18","NOASSERTION","未说明",{"notes":109,"python":107,"dependencies":110},"该工具是一个实验性框架，尚未针对生产环境进行安全加固。核心功能依赖外部 LLM API（如 OpenAI），需配置 API Key。存储后端支持多种选项：本地文件系统（含 FAISS 向量搜索）、Oracle AI Database 或 MongoDB，需根据选择安装对应额外依赖（extras）。代码沙箱功能需连接 E2B 或 Daytona 等外部服务。提供本地 Web UI 需安装 [ui] 额外依赖。",[65,111,112,113,114,115,116,117],"openai","tavily-python","faiss-cpu","oracle-ai-database (可选)","pymongo (可选)","e2b-code-interpreter (可选)","daytona-sdk (可选)",[15,14,16,13],[120,121,122,123,124,125,126,127],"artificial-intelligence","data-management","python","semantic-search","mongodb","ai","oracle","oracle-database","2026-03-27T02:49:30.150509","2026-04-19T06:02:07.070827",[],[]]