memorizz

GitHub
703 76 简单 1 次阅读 2天前NOASSERTION图像开发框架数据工具Agent
AI 解读 由 AI 自动生成,仅供参考

Memorizz 是一个专为构建具备“记忆”能力的 AI 智能体而设计的 Python 框架。它旨在解决大语言模型在会话中断后容易遗忘上下文、难以跨对话保留关键信息以及重复调用导致成本高昂等痛点。通过引入分层记忆系统,Memorizz 让 AI 能够像人类一样拥有短期记忆、长期语义记忆、情景记忆甚至程序性记忆,从而实现更连贯、个性化的交互体验。

该工具特别适合 AI 应用开发者、研究人员以及希望快速原型化复杂智能体工作流的工程师使用。其核心亮点在于灵活的架构:支持多种存储后端(如 Oracle、MongoDB 或本地文件系统),内置语义检索与向量搜索功能,并能自动管理实体画像。此外,Memorizz 还提供了语义缓存机制以减少重复的 LLM 调用成本,支持多智能体协作共享“黑板”记忆,并集成了定时自动化任务与沙箱代码执行能力。无论是开发简单的助手应用,还是构建复杂的深度研究工作流,Memorizz 都能提供坚实的底层记忆支撑,帮助开发者轻松打造持久化、高智商的 AI 应用。需要注意的是,目前该项目仍处于实验阶段,主要面向教育与探索性用途。

使用场景

某金融科技公司的开发团队正在构建一款能长期陪伴用户的个人理财助手,需要 AI 记住用户过往的投资偏好、风险承受能力及历史对话细节。

没有 memorizz 时

  • 记忆断层严重:每次新对话开始,AI 都会“失忆”,用户必须反复重申自己的姓名、职业(如支付系统工程师)及投资目标,体验极差。
  • 上下文成本高昂:为了维持连贯性,开发者不得不将全部历史对话塞入提示词,迅速耗尽昂贵的 LLM 上下文窗口,导致响应变慢且费用激增。
  • 事实检索困难:AI 难以从海量聊天记录中精准提取特定实体信息(如“上次提到的房贷利率”),常出现幻觉或回答模糊。
  • 重复计算浪费:对于相似的用户咨询,系统无法识别并复用之前的优质回答,导致不必要的重复推理和 API 调用。

使用 memorizz 后

  • 跨会话持久记忆:memorizz 自动将用户的关键画像(如"Leah,从事支付系统工作”)存入语义记忆库,下次交互时主动调用,无需用户复述。
  • 智能上下文管理:通过语义检索仅动态加载相关记忆片段,大幅压缩上下文长度,在降低 Token 消耗的同时保持回复的精准度。
  • 实体记忆精准查找:利用内置的 entity_memory_lookup 工具,AI 能像查数据库一样准确调取具体的财务事实,杜绝胡编乱造。
  • 语义缓存降本增效:开启语义缓存功能后,针对高频重复问题直接返回缓存结果,显著减少 LLM 调用次数,提升响应速度。

memorizz 通过构建分层记忆架构,让 AI 应用从“单次问答机器”进化为具备长期认知能力的智能伙伴,同时大幅优化了运行成本与性能。

运行环境要求

操作系统
  • 未说明
GPU

未说明

内存

未说明

依赖
notes该工具是一个实验性框架,尚未针对生产环境进行安全加固。核心功能依赖外部 LLM API(如 OpenAI),需配置 API Key。存储后端支持多种选项:本地文件系统(含 FAISS 向量搜索)、Oracle AI Database 或 MongoDB,需根据选择安装对应额外依赖(extras)。代码沙箱功能需连接 E2B 或 Daytona 等外部服务。提供本地 Web UI 需安装 [ui] 额外依赖。
python未说明
memorizz
openai
tavily-python
faiss-cpu
oracle-ai-database (可选)
pymongo (可选)
e2b-code-interpreter (可选)
daytona-sdk (可选)
memorizz hero image

快速开始

Memorizz

PyPI version PyPI Downloads

实验性软件

Memorizz 是一个教育性和实验性的框架。其 API 可能会发生变化,且该项目尚未针对生产工作负载进行安全加固。

Memorizz 是一个用于构建内存增强型 AI 代理的 Python 框架。 它提供了:

  • 多种记忆系统(情景记忆、语义记忆、程序性记忆、短期记忆、共享记忆)
  • 可插拔的存储提供者(Oracle、MongoDB、文件系统)
  • 代理构建工具和应用模式(assistantworkflowdeep_research
  • 定时自动化任务(cron、间隔、一次性),可选通过 WhatsApp 发送
  • 可选的互联网访问、沙盒代码执行以及本地 Web 界面

核心功能

  • 跨会话和对话的持久化记忆
  • 基于嵌入向量与向量搜索的语义检索
  • 用于个人资料式事实的实体记忆工具(entity_memory_lookup / entity_memory_upsert
  • 自动注册函数的工具调用
  • 用于减少重复 LLM 调用的语义缓存
  • 共享黑板记忆的多代理编排
  • 通过 get_context_window_stats() 提供的上下文窗口遥测
  • 通过 SDK、Web 界面或代理对话实现的定时自动化任务(参见 src/memorizz/automation/README.md

安装

基础安装:

pip install memorizz

常用扩展:

pip install "memorizz[oracle]"          # Oracle 提供者
pip install "memorizz[mongodb]"         # MongoDB 提供者
pip install "memorizz[filesystem]"      # 本地文件系统 + FAISS
pip install "memorizz[sandbox-e2b]"     # E2B 沙盒
pip install "memorizz[sandbox-daytona]" # Daytona 沙盒
pip install "memorizz[ui]"              # 本地 Web 界面
pip install "memorizz[all]"             # 所有功能

快速入门(文件系统提供者)

import os
from pathlib import Path

from memorizz.memagent.builders import MemAgentBuilder
from memorizz.memory_provider import FileSystemConfig, FileSystemProvider

os.environ["OPENAI_API_KEY"] = "your-openai-api-key"

provider = FileSystemProvider(
    FileSystemConfig(
        root_path=Path("~/.memorizz").expanduser(),
        embedding_provider="openai",
        embedding_config={"model": "text-embedding-3-small"},
    )
)

agent = (
    MemAgentBuilder()
    .with_instruction("You are a helpful assistant with persistent memory.")
    .with_memory_provider(provider)
    .with_llm_config(
        {
            "provider": "openai",
            "model": "gpt-4o-mini",
            "api_key": os.environ["OPENAI_API_KEY"],
        }
    )
    .with_semantic_cache(enabled=True, threshold=0.85)
    .build()
)

print(agent.run("Hi, my name is Leah and I work on payments systems."))
print(agent.run("What did I tell you about my work?"))

stats = agent.get_context_window_stats()
print(stats)

Oracle 设置(可选)

若希望使用 Oracle AI 数据库作为后端存储:

./install_oracle.sh
memorizz setup-oracle

然后配置 ORACLE_USERORACLE_PASSWORDORACLE_DSN 以及您的 LLM 凭证。完整的设置说明请参阅 SETUP.md

为了确保多客户端一致性(UI 和笔记本),您可以设置共享的嵌入默认值:

export MEMORIZZ_DEFAULT_EMBEDDING_PROVIDER=openai
export MEMORIZZ_DEFAULT_EMBEDDING_MODEL=text-embedding-3-small
export MEMORIZZ_DEFAULT_EMBEDDING_DIMENSIONS=1536

应用模式

ApplicationMode 预设会自动启用不同的记忆堆栈:

  • assistant: 对话记忆、长期记忆、角色记忆、实体记忆、短期记忆、摘要
  • workflow: 工作流记忆、工具箱、长期记忆、短期记忆、摘要
  • deep_research: 工具箱、共享记忆、长期记忆、短期记忆、摘要

示例:

import os

from memorizz.enums import ApplicationMode
from memorizz.memagent.builders import MemAgentBuilder

llm_config = {
    "provider": "openai",
    "model": "gpt-4o-mini",
    "api_key": os.environ["OPENAI_API_KEY"],
}

agent = (
    MemAgentBuilder()
    .with_application_mode(ApplicationMode.DEEP_RESEARCH)
    .with_memory_provider(provider)
    .with_llm_config(llm_config)
    .build()
)

互联网访问(深度研究)

深度研究代理可以附加互联网提供者,并暴露 internet_searchopen_web_page 工具。

import os

from memorizz.internet_access import TavilyProvider
from memorizz.memagent.builders import create_deep_research_agent

llm_config = {
    "provider": "openai",
    "model": "gpt-4o-mini",
    "api_key": os.environ["OPENAI_API_KEY"],
}

internet_provider = TavilyProvider(api_key=os.environ["TAVILY_API_KEY"])

agent = (
    create_deep_research_agent(internet_provider=internet_provider)
    .with_memory_provider(provider)
    .with_llm_config(llm_config)
    .build()
)

results = agent.search_internet("latest vector database benchmark")

沙盒代码执行

附加沙盒提供者以启用 execute_codesandbox_write_filesandbox_read_file 工具。

import os

from memorizz.memagent import MemAgent

llm_config = {
    "provider": "openai",
    "model": "gpt-4o-mini",
    "api_key": os.environ["OPENAI_API_KEY"],
}

agent = MemAgent(
    llm_config=llm_config,
    memory_provider=provider,
    sandbox_provider="e2b",  // 或 "daytona" / "graalpy"
)

print(agent.execute_code("print(2 ** 16)"))

多代理深度研究工作流

from memorizz.memagent.orchestrators import DeepResearchWorkflow

workflow = DeepResearchWorkflow.from_config(
    memory_provider=provider,
    delegate_instructions=[
        "Financial researcher: collect metrics and citations.",
        "Risk analyst: identify key downside scenarios.",
    ],
)

report = workflow.run("Analyze the last 3 years of cloud infrastructure trends.")
print(report)

命令行界面

安装后,memorizz 命令提供以下功能:

memorizz run local                  # 启动本地 Web 界面(需安装 [ui])
memorizz install-oracle             # 启动 Oracle 容器辅助工具
memorizz setup-oracle               # 初始化 Oracle 模式/用户

示例

  • examples/single_agent/memagent_local_oracle.ipynb
  • examples/single_agent/memagent_remote_oracle.ipynb
  • examples/deep_research/deep_research_memagent.ipynb
  • examples/sandbox/memagent_e2b_sandbox.ipynb
  • examples/sandbox/memagent_daytona_sandbox.ipynb
  • examples/sandbox/memagent_graalpy_sandbox.ipynb
  • examples/automations/automations_guide.ipynb
  • examples/model_providers/openai_provider.ipynb
  • examples/model_providers/anthropic_provider.ipynb
  • examples/model_providers/ollama_provider.ipynb
  • examples/model_providers/compare_providers.ipynb

文档

  • 文档源码:docs/
  • 本地预览:make docs-serve(或 mkdocs serve
  • 架构说明:src/memorizz/MEMORY_ARCHITECTURE.md

许可证

PolyForm 非商业许可 1.0.0。 请参阅 LICENSENOTICE

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

160k|★★☆☆☆|今天
开发框架Agent语言模型

opencode

OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信

144.3k|★☆☆☆☆|2天前
Agent插件

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

109.2k|★★☆☆☆|今天
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|1周前
插件Agent图像