automem

GitHub
708 87 较难 1 次阅读 昨天MIT开发框架图像Agent数据工具语言模型
AI 解读 由 AI 自动生成,仅供参考

AutoMem 是一款专为 AI 助手打造的生产级长期记忆系统,旨在让人工智能像人类一样具备持久、关联且不断进化的记忆能力。传统方案中,AI 往往在会话结束后遗忘一切,或仅能通过向量数据库进行简单的关键词匹配,无法真正理解信息间的深层逻辑。AutoMem 通过独特的“图 + 向量”双架构解决了这一痛点:利用 FalkorDB 存储带有类型关系的记忆节点,结合 Qdrant 进行语义相似度搜索。这种混合模式不仅支持基于时间、重要性和上下文的混合检索,还能自动提取实体、发现模式并建立多达 11 种人为定义的关系连接。这意味着当用户询问“为何选择 PostgreSQL"时,AutoMem 不仅能找回相关记录,还能还原当时的推理过程、偏好及关联决策。凭借亚毫秒级的响应速度和源自 HippoRAG 2 等前沿研究的算法支撑,AutoMem 特别适合需要构建具备深度上下文理解能力的智能体开发者、AI 研究人员以及希望突破现有 RAG 技术瓶颈的技术团队,帮助 AI 从单纯的“检索者”进化为真正的“学习者”。

使用场景

某初创团队正在开发一款面向资深用户的个性化编程助手,需要其在长达数月的开发周期中持续理解项目架构演变与决策逻辑。

没有 automem 时

  • 记忆断层严重:每次新会话启动,AI 都会“失忆”,开发者不得不反复重申项目背景、技术栈偏好及之前的避坑指南。
  • 上下文碎片化:传统的 RAG 方案仅能检索相似代码片段,无法还原“为什么当初选择 PostgreSQL 而非 MongoDB"这类决策背后的因果链条。
  • 知识孤立无援:分散在不同时间的讨论记录(如需求变更、Bug 修复)彼此割裂,AI 无法主动关联历史事件来辅助当前调试。
  • 维护成本高昂:团队需手动整理长篇文档喂给 AI,且随着项目迭代,旧信息往往因关键词不匹配而被错误检索或遗漏。

使用 automem 后

  • 持久化记忆继承:automem 利用图向量混合架构,让 AI 跨会话自动记住核心实体与偏好,无需用户重复交代背景信息。
  • 推理脉络重现:当询问技术选型原因时,automem 不仅能返回结论,还能通过图谱关系追溯当时的讨论细节、权衡利弊及相关人员观点。
  • 动态知识关联:系统自动提取实体并建立时间线与语义连接,将数月前的需求变更与当前的代码报错智能关联,提供精准的排查建议。
  • 自我进化学习:随着交互增多,automem 自动压缩冗余信息并巩固重要模式,使 AI 对项目的理解随时间推移愈发深刻,检索响应保持在毫秒级。

automem 将 AI 从单纯的“即时问答机器”升级为具备长期演化能力的“项目合伙人”,真正实现了像人类一样的深度记忆与逻辑推理。

运行环境要求

操作系统
  • 未说明
GPU

未说明

内存

未说明

依赖
notes该工具主要作为服务部署(支持 Railway 一键部署),核心依赖外部数据库服务:FalkorDB(用于图存储)和 Qdrant(用于向量存储)。后台增强流程使用 spaCy 进行实体提取。README 未提供具体的本地开发环境操作系统、GPU、内存或 Python 版本要求,因其架构设计为客户端 - 服务端模式,计算密集型任务(如嵌入生成、图处理)通常在服务端运行。
python未说明
FalkorDB
Qdrant
Flask
spaCy
automem hero image

快速开始

AutoMem - Recall is Power

$AUTOMEM: Bags.fmJupiterPhotonDEXScreener

CA: CV485ySXfgFiwLtbh815JRukH4r9ChLhddqsAaZKBAGS (Solana)

真正会学习的AI记忆

AutoMem是一个面向AI助手的生产级长期记忆系统,拥有透明的LoCoMo基准测试基线(ACL 2024):在跳过第5类的情况下,locomo-mini的1-4类得分为89.27%;而在启用可选的第5类评判者时,完整locomo的得分为87.56%。有关方法论和当前基线,请参阅benchmarks/EXPERIMENT_LOG.md

60秒内即可部署:

railway up

图形查看器(独立版)

可视化工具现以独立服务/仓库(automem-graph-viewer)的形式运行。AutoMem仍保留/viewer作为兼容入口,并将用户重定向至独立应用。

请在AutoMem API服务上设置以下变量:

ENABLE_GRAPH_VIEWER=true
GRAPH_VIEWER_URL=https://<your-viewer-domain>
VIEWER_ALLOWED_ORIGINS=https://<your-viewer-domain>

当用户访问/viewer/#token=...时,AutoMem会保留哈希令牌,并将其重定向至独立查看器,同时附带server=<automem-origin>参数。


为什么需要AutoMem?

您的AI会在每次会话之间遗忘所有内容。RAG只会检索相似文档。向量数据库虽然能匹配关键词,却无法捕捉语义含义。它们都无法真正学习。

AutoMem赋予AI助手记忆、关联并不断进化理解能力的能力,就像人类的长期记忆一样。

AutoMem的工作原理

AutoMem结合了两种互补的存储系统:

  • FalkorDB(图数据库):将记忆存储为节点,并通过类型化的关系连接起来
  • Qdrant(向量数据库):通过嵌入实现语义相似性搜索

这种双层架构使您能够提出诸如“我们为什么选择PostgreSQL?”这样的问题,不仅得到相关记忆,还能了解背后的推理、偏好以及与其相关的决策过程。

核心功能

  • 🧠 存储记忆,附带元数据、重要性评分和时间上下文
  • 🔍 召回:通过混合搜索结合语义、关键词、图结构和时间信号
  • 🔗 连接记忆,支持11种可自定义的关系类型,以及系统自动生成的语义和时间边
  • 🎯 学习:自动提取实体、检测模式并进行整合
  • 性能:在数千条记忆中实现亚百毫秒级别的召回速度

研究基础

AutoMem实现了多项经过同行评审的记忆研究技术:

  • HippoRAG 2(俄亥俄州立大学,2025年):基于图与向量的混合模型,用于联想记忆
  • A-MEM(2025年):采用泽特尔卡斯滕式聚类的动态记忆组织
  • MELODI(DeepMind,2024年):通过概要表示进行压缩
  • ReadAgent(DeepMind,2024年):通过情景记忆扩展上下文

架构

flowchart TB
    subgraph service [AutoMem服务 Flask]
        API[REST API<br/>记忆生命周期]
        Enrichment[后台增强<br/>管道]
        Consolidation[整合<br/>引擎]
        Backups[自动化备份<br/>可选]
    end

    subgraph storage [双层存储]
        FalkorDB[(FalkorDB<br/>图数据库)]
        Qdrant[(Qdrant<br/>向量数据库)]
    end

    Client[AI客户端] -->|存储/召回/关联| API
    API --> FalkorDB
    API --> Qdrant
    Enrichment -->|11种边类型<br/>模式节点| FalkorDB
    Enrichment -->|语义搜索<br/>3072维向量| Qdrant
    Consolidation --> FalkorDB
    Consolidation --> Qdrant
    Backups -.->|可选| FalkorDB
    Backups -.->|可选| Qdrant

FalkorDB(图数据库):用于记录规范信息、关系及整合 Qdrant(向量数据库):用于语义召回和相似性搜索 双层存储:内置冗余和灾难恢复机制

为什么选择图+向量?

flowchart LR
    subgraph trad [传统RAG:仅向量]
        direction TB
        Query1[查询:什么数据库?]
        VectorDB1[(向量数据库)]
        Result1[✅ PostgreSQL记忆<br/>❌ 无推理<br/>❌ 无关联]

        Query1 -->|相似性搜索| VectorDB1
        VectorDB1 --> Result1
    end

    subgraph automem [AutoMem:图+向量]
        direction TB
        Query2[查询:什么数据库?]

        subgraph hybrid [混合搜索]
            VectorDB2[(Qdrant<br/>向量)]
            GraphDB2[(FalkorDB<br/>图)]
        end

        Result2[✅ PostgreSQL记忆<br/>✅ 更倾向于MongoDB<br/>✅ 与团队专长相关<br/>✅ 源自枯燥的技术理念]

        Query2 --> VectorDB2
        Query2 --> GraphDB2
        VectorDB2 --> Result2
        GraphDB2 --> Result2
    end

传统RAG(仅向量)

记忆:“因可靠性选择了PostgreSQL”
查询:“我应该使用什么数据库?”
结果:✅ 找到了记忆
         ❌ 不知道您为何选择它
         ❌ 无法连接到相关决策

AutoMem(图+向量)

记忆:“因可靠性选择了PostgreSQL”
图:更倾向于MongoDB
       与“团队专长”记忆相关
       源自“枯燥技术”原则

查询:“我应该使用什么数据库?”
结果:✅ 找到了记忆
        ✅ 知道您的决策因素
        ✅ 展示了相关偏好
        ✅ 解释了您的推理模式

实际工作流程

多跳桥接发现

当你提出一个问题时,AutoMem 不仅会找到相关的记忆,还会找到这些记忆之间的连接。这被称为桥接发现:通过图关系来揭示那些将初始结果串联起来的记忆。

graph TB
    Query[用户查询:<br/>为什么选择枯燥的技术来使用 Kafka?]

    Seed1[种子记忆 1:<br/>PostgreSQL 迁移<br/>为了操作简便]

    Seed2[种子记忆 2:<br/>Kafka 与 RabbitMQ<br/>对比评估]

    Bridge[桥接记忆:<br/>团队偏好简单可靠的技术<br/>经过验证、易于调试的系统]

    Result[结果:<br/>AI 理解的是架构<br/>哲学,而不仅仅是孤立的选择]

    Query -->|初始召回| Seed1
    Query -->|初始召回| Seed2
    Seed1 -.->|DERIVED_FROM| Bridge
    Seed2 -.->|DERIVED_FROM| Bridge
    Bridge --> Result
    Seed1 --> Result
    Seed2 --> Result

传统 RAG: 返回“Kafka”相关记忆(遗漏了其中的联系)

AutoMem 桥接发现:

  • 种子记忆 1:“为操作简便迁移到 PostgreSQL”
  • 种子记忆 2:“评估 Kafka 和 RabbitMQ 作为消息队列”
  • 桥接记忆:“团队偏好简单可靠的技术——成熟稳定、易于调试的系统”

AutoMem 找到了连接这两个决策的桥梁 → 结果:AI 理解了你的架构哲学,而不仅仅是孤立的选择。

如何启用:

  • 在召回请求中设置 expand_relations=true(默认已启用)
  • 使用 relation_limitexpansion_limit 参数控制深度
  • 结果会根据关系强度、时间相关性和重要性进行排序

不断演化的知识图谱

# 存储后:“为操作简便迁移到 PostgreSQL”

AutoMem 自动:
├── 提取实体(PostgreSQL、操作简便)
├── 自动打标签(entity:tool:postgresql, entity:concept:ops-simplicity)
├── 发现模式(“偏好简单技术”)
├── 建立时间关联(PRECEDED_BY 迁移计划)
└── 进行语义连接(SIMILAR_TO “Redis 部署”)

# 下一次查询:“我们应该使用 Kafka 吗?”
AI 回忆起:
- PostgreSQL 决策
- “简单技术”模式(在多条记忆中得到强化)
- 对操作简便的偏好
→ 建议:“根据您的模式,建议考虑 RabbitMQ 而不是 Kafka”

9 组分混合评分

flowchart LR
    Query[用户查询:<br/>数据库迁移<br/>标签=decision<br/>时间=上个月]

    subgraph scoring [混合评分组件]
        direction TB
        V[向量 25%<br/>语义相似度]
        K[关键词 15%<br/>TF-IDF 匹配]
        R[关系 25%<br/>图强度]
        C[内容 25%<br/>标记重叠]
        T[时间 15%<br/>时间一致性]
        Tag[标签 10%<br/>标签匹配]
        I[重要性 5%<br/>用户优先级]
        Conf[置信度 5%<br/>记忆置信度]
        Rec[最近性 10%<br/>新鲜度提升]
    end

    FinalScore[最终得分:<br/>按意义排序,<br/>而非单纯相似度]

    Query --> V
    Query --> K
    Query --> R
    Query --> C
    Query --> T
    Query --> Tag
    Query --> I
    Query --> Conf
    Query --> Rec

    V --> FinalScore
    K --> FinalScore
    R --> FinalScore
    C --> FinalScore
    T --> FinalScore
    Tag --> FinalScore
    I --> FinalScore
    Conf --> FinalScore
    Rec --> FinalScore
GET /recall?query=database%20migration&tags=decision&time_query=last%20month

# AutoMem 结合九种信号:
score = vector×0.25       # 语义相似度
      + keyword×0.15      # TF-IDF 文本匹配
      + relation×0.25     # 图关系强度
      + content×0.25      # 直接标记重叠
      + temporal×0.15     # 与查询的时间一致性
      + tag×0.10          # 标签匹配
      + importance×0.05   # 用户指定的优先级
      + confidence×0.05   # 记忆置信度
      + recency×0.10      # 新鲜度提升

# 结果:记忆按意义排序,而非单纯相似度

功能

核心记忆操作

  • 存储 - 丰富的带元数据、重要性、时间戳和嵌入的记忆
  • 召回 - 混合搜索(向量 + 关键词 + 标签 + 时间窗口)
  • 更新 - 修改记忆,自动重新生成嵌入
  • 删除 - 从图和向量存储中同时移除
  • 关联 - 创建记忆之间的类型化关系
  • 筛选 - 基于标签的查询,支持前缀或精确匹配

内存整合

AutoMem 使用受神经科学启发的整合周期——类似于人类睡眠——来保持记忆的相关性:

周期 频率 目的
衰减 每日 指数级相关性评分(年龄、访问次数、连接数、重要性)
创造 每周 类似 REM 的处理过程,发现不明显的联系
聚类 每月 将相似的记忆分组,并生成元模式
遗忘 已禁用 归档低相关性(<0.2),启用时则删除极旧的记忆(<0.05)

工作原理:

  • 错误的记忆路径会自然消退(约 30–45 天无人访问)
  • 重要且连接紧密的记忆会永久保留
  • 记忆会在被删除前先归档(相关性介于 0.05–0.2 之间)
  • 系统会学习对你而言什么才是重要的,而不是你明确标注的内容

背景智能

每条记忆都会在后台自动增强(不会阻塞你的 API 调用):

增强管道(存储后立即运行):

  • 实体提取 - 识别人物、项目、工具、概念(spaCy NLP)
  • 自动打标签 - 生成 entity:<type>:<slug> 格式,便于结构化查询
  • 摘要 - 轻量级概要,方便快速浏览
  • 时间关联 - 通过 PRECEDED_BY 关系连接到近期记忆
  • 语义邻近 - 通过余弦相似度查找相似记忆(SIMILAR_TO
  • 模式检测 - 强化贯穿整个记忆图的新兴主题

整合引擎(按可配置的时间表运行):

  • 参见上方的【内存整合】部分

11 种可编写的关系类型

构建丰富的知识图谱:

类型 使用场景 示例
RELATES_TO 一般性连接 错误报告 → 相关问题
LEADS_TO 因果关系 问题 → 解决决
OCCURRED_BEFORE 时间顺序 计划 → 执行
PREFERS_OVER 用户偏好 PostgreSQL → MongoDB
EXEMPLIFIES 模式示例 代码审查 → 最佳实践
CONTRADICTS 冲突信息 旧方法 → 新方法
REINFORCES 支持性证据 决策 → 验证决
INVALIDATED_BY 过时信息 旧文档 → 当前文档
EVOLVED_INTO 知识演进 初步设计 → 最终设计
DERIVED_FROM 来源追踪 实现 → 规格
PART_OF 层次结构 功能 → 壮举

系统生成的关系类型:

  • SIMILAR_TO - 由增强功能创建的语义邻近关系
  • PRECEDED_BY - 由增强功能创建的时序链接
  • DISCOVERED - 由整合创建的内部启发式边(kind=explains|shares_theme|parallel_context

快速入门

选项 1:Railway(推荐)

在 60 秒内将 AutoMem 部署到 Railway:

Deploy on Railway

这将自动部署 3 项服务:

  • memory-service — 核心 AutoMem API
  • falkordb — 具有持久化存储的图数据库
  • mcp-sse-server — 用于 ChatGPT、Claude.ai、ElevenLabs 的 MCP 桥接器

👉 部署指南 提供详细的 Railway 设置说明

选项 2:Docker Compose(本地)

在本地运行所有内容:

# 克隆并启动服务
git clone https://github.com/verygoodplugins/automem.git
cd automem
make dev

# API:http://localhost:8001
# FalkorDB:localhost:6379
# Qdrant:localhost:6333

选项 3:开发模式

无需 Docker 即可运行 API:

python3 -m venv venv
source venv/bin/activate
pip install -r requirements-dev.txt
PORT=8001 python app.py

API 示例

存储记忆

curl -X POST http://localhost:8001/memory \
  -H "Authorization: Bearer YOUR_TOKEN" \
  -H "Content-Type: application/json" \
  -d '{
    "content": "为了 ACID 兼容性选择了 PostgreSQL 而不是 MongoDB",
    "type": "Decision",
    "confidence": 0.95,
    "tags": ["database", "architecture"],
    "importance": 0.9,
    "metadata": {
      "source": "architecture-meeting",
      "alternatives": ["MongoDB", "MySQL"],
      "deciding_factors": ["ACID", "team_expertise"]
    }
  }'

可用的记忆类型DecisionPatternPreferenceStyleHabitInsightContext(默认)

  • 建议明确指定 type,当您知道分类时
  • 省略 type,让增强功能根据内容自动分类

召回记忆

# 结合标签和时间的混合搜索
GET /recall?query=database&tags=decision&time_query=last%20month

# 带向量的语义搜索
GET /recall?embedding=0.12,0.56,...&limit=10

# 标签前缀匹配(查找 slack:U123:*, slack:channel-ops 等)
GET /recall?tags=slack&tag_match=prefix

# 带过滤的图扩展(减少相关记忆中的噪声)
GET /recall?query=auth%20architecture&expand_relations=true&expand_min_importance=0.5&expand_min_strength=0.3

# 多跳实体扩展(例如,“Sarah 的姐姐是做什么工作的?”)
GET /recall?query=What%20is%20Sarah%27s%20sister%27s%20job&expand_entities=true

创建关系

curl -X POST http://localhost:8001/associate \
  -H "Authorization: Bearer YOUR_TOKEN" \
  -H "Content-Type: application/json" \
  -d '{
    "memory1_id": "uuid-postgres-decision",
    "memory2_id": "uuid-mongodb-evaluation",
    "type": "PREFERS_OVER",
    "strength": 0.9
  }'

与 AI 平台结合使用

AutoMem 可通过以下方式与任何 AI 平台配合使用:

MCP(模型上下文协议)

本地 MCP 桥接器(Claude Desktop、Cursor、Claude Code):

# 安装官方 MCP 桥接器
npm install -g @verygoodplugins/mcp-automem

# 为本地 AI 工具配置
npx @verygoodplugins/mcp-automem setup

远程 MCP(云 AI 平台):

通过 HTTPS 将 AutoMem 连接到云 AI 平台。适用于:

  • ChatGPT(需要开发者模式)
  • Claude.ai 网页界面
  • Claude 移动应用
  • ElevenLabs Agents

请参阅 远程 MCP 文档 以获取设置说明。

👉 资源

直接 API

任何语言、任何框架:

import requests

response = requests.post(
    "https://your-automem.railway.app/memory",
    headers={"Authorization": f"Bearer {token}"},
    json={"content": "Memory content", "importance": 0.8}
)

与替代方案的比较

与传统 RAG 系统相比

传统 RAG 会检索相似的文档。而 AutoMem 则理解关系:

RAG:“这里有 5 份关于 PostgreSQL 的文档” AutoMem:“你选择 PostgreSQL 而不是 MongoDB,是因为你喜欢简单易用的技术。这种模式也影响了你对 Redis 和 RabbitMQ 的决策。”

  • 类型化关系 - 不仅仅是“相似”,还有“导致”、“矛盾”、“源于”
  • 时间感知 - 知道什么先于什么,什么被什么推翻,什么又随之出现
  • 模式学习 - 发现你的偏好和决策风格
  • 整合 - 记忆会根据使用情况加强或淡化——就像人类记忆一样

与向量数据库(Pinecone、Weaviate、Qdrant)相比

向量数据库匹配嵌入向量。而 AutoMem 构建的是知识图谱:

  • 多跳推理 - 桥接发现可以跨对话线程连接记忆
  • 11 种关系类型 - 结构化的语义,而非仅靠余弦相似度
  • 背景智能 - 自动增强、模式检测、衰减周期
  • 9 组件评分 - 结合语义、词汇、图、时间以及重要性信号

与自行构建相比

AutoMem 可为您节省数月的迭代时间:

  • 基准验证 - 对 judge-off 和 judge-on 评估均采用透明的 LoCoMo 基准
  • 研究验证 - 实现了 HippoRAG 2、A-MEM、MELODI、ReadAgent 的原则
  • 生产就绪 - 身份验证、管理工具、健康监测、自动备份
  • 实战检验 - 增强管道、整合引擎、重试逻辑、双层存储
  • 开源 - MIT 许可证,可部署于任何地方,无供应商锁定

基准测试结果

LoCoMo 基准测试 (ACL 2024)

AutoMem 发布了使用 Voyage 4 嵌入的两个参考基线:

设置 范围 分数 备注
快速迭代 locomo-mini,不启用评委 89.27% (208/233) 仅包含类别 1–4;跳过了 71 道类别 5 的问题
完整基准测试 locom, 启用评委 (gpt-4o) 87.56% (1739/1986) 包括类别 5,得分为 95.74% (427/446)

在禁用评委的情况下,locomo-mini 的类别细分如下:

类别 AutoMem 备注
开放领域 96.49% 一般知识回忆
时间理解 92.06% 具有时序感知的查询
单跳回忆 79.07% 基本事实检索
多跳推理 46.15% 连接分散的记忆
复杂推理 N/A 在此设置中被跳过;请使用启用评委的运行

参考点:

系统 分数
已发表的 CORE 结果 88.24%
AutoMem locomo-mini 不启用评委 89.27%
AutoMem locom 启用评委 87.56%

方法论说明: 我们并不将其视为严格的排行榜声明。已发表的 CORE 数字是一个有用的参考点,但公开的 LoCoMo 设置并不完全可比,尤其是在处理类别 5 的方式上。AutoMem 在 locomo-mini 的类别 1–4 测试中高于该参考值,而在完整的启用评委测试中则低于该参考值。 历史说明: 此前版本报告的分数为 90.53%,但其中包含了两个评估错误:时间匹配比较了错误的文本(假阴性),而类别 5 则匹配空字符串(假阳性)。有关更正后的时间线,请参阅 benchmarks/EXPERIMENT_LOG.md

运行基准测试:make bench-eval BENCH=locomo-mini CONFIG=baseline(快速)或 BENCH_JUDGE_MODEL=gpt-4o make bench-eval BENCH=locom CONFIG=baseline(完整版,包含类别 5)

生产特性

  • 100 毫秒以下的召回速度 - 即使拥有 10 万条以上的记忆
  • 🔄 并发写入 - 后台增强不会阻塞 API
  • 🛡️ 优雅降级 - 即使没有 Qdrant 也能正常工作(仅图模式)
  • ♻️ 自动重试 - 失败的增强任务会排队等待重新处理
  • 💚 健康监测 - /health/enrichment/status 端点
  • 💾 双重存储冗余 - 数据同时保存在 FalkorDB 和 Qdrant 中
  • 📦 自动化备份 - 可选的灾难恢复备份服务

配置

必需

  • AUTOMEM_API_TOKEN - 所有端点的身份验证(除 /health 外)
  • FALKORDB_HOST / FALKORDB_PORT - 图数据库连接

可选

  • QDRANT_URL / QDRANT_API_KEY - 启用语义搜索(设置指南
  • EMBEDDING_PROVIDER - 选择 voyageopenailocalollamaplaceholder 后端
  • VOYAGE_API_KEY / VOYAGE_MODEL - 使用 Voyage 嵌入(如果选择 voyage
  • OPENAI_API_KEY - 使用 OpenAI 嵌入(如果选择 openai
  • OPENAI_BASE_URL - OpenAI 兼容提供商的自定义端点(OpenRouter、LiteLLM、vLLM 等)
  • OLLAMA_BASE_URL / OLLAMA_MODEL - 使用 Ollama 嵌入(如果选择 ollama
  • ADMIN_API_TOKEN - 用于 /admin/reembed 和增强控制
  • 整合调优:CONSOLIDATION_*_INTERVAL_SECONDS
  • 增强调优:ENRICHMENT_*(相似度阈值、重试限制等)

👉 完整配置指南

文档

社区与支持

研究背景

AutoMem 的架构基于记忆系统和图论领域的同行评审研究:

HippoRAG 2(俄亥俄州立大学,2025 年 6 月)

发现:图-向量混合模型的联想记忆性能比纯向量 RAG 提升 7%,接近人类长期记忆的表现。

AutoMem 实现:双层 FalkorDB(图)+ Qdrant(向量)架构,配备 11 种类型的关联边。

A-MEM(2025 年 7 月)

发现:基于 Zettelkasten 原则的动态记忆组织能够催生新兴的知识结构。

AutoMem 实现:模式检测、聚类循环以及自动实体链接,从而从对话中构建知识图谱。

MELODI(DeepMind,2024 年)

发现:通过概要表示和选择性保留,实现 8 倍的内存压缩,且不损失质量。

AutoMem 实现:摘要生成、重要性评分以及整合周期,强化相关记忆并淡化噪声。

ReadAgent(DeepMind,2024 年)

发现:通过情景记忆和时间组织,可将上下文扩展 20 倍。

AutoMem 实现:时间关系类型(PRECEDED_BY、OCCURRED_BEFORE)以及时序感知评分,以保持对话流畅。

贡献

我们欢迎您的贡献!请按照以下步骤操作:

  1. 分支仓库
  2. 创建功能分支
  3. 为您的更改添加测试
  4. 提交拉取请求

有关运行测试套件的信息,请参阅 TESTING.md

许可证

MIT - 因为 AI 内存应该是自由的。


开始使用

railway up

开源。经研究验证。生产就绪。


MIT 许可证。可在任何地方部署。无供应商锁定。

版本历史

v0.15.12026/03/25
v0.15.02026/03/25
v0.14.02026/03/07
v0.13.02026/03/02
v0.12.02026/02/20
v0.11.02026/02/16
v0.10.12026/02/07
v0.10.02026/02/06
v0.9.32025/12/10

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

154.3k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|4天前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|4天前
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|1周前
插件开发框架