automem
AutoMem 是一款专为 AI 助手打造的生产级长期记忆系统,旨在让人工智能像人类一样具备持久、关联且不断进化的记忆能力。传统方案中,AI 往往在会话结束后遗忘一切,或仅能通过向量数据库进行简单的关键词匹配,无法真正理解信息间的深层逻辑。AutoMem 通过独特的“图 + 向量”双架构解决了这一痛点:利用 FalkorDB 存储带有类型关系的记忆节点,结合 Qdrant 进行语义相似度搜索。这种混合模式不仅支持基于时间、重要性和上下文的混合检索,还能自动提取实体、发现模式并建立多达 11 种人为定义的关系连接。这意味着当用户询问“为何选择 PostgreSQL"时,AutoMem 不仅能找回相关记录,还能还原当时的推理过程、偏好及关联决策。凭借亚毫秒级的响应速度和源自 HippoRAG 2 等前沿研究的算法支撑,AutoMem 特别适合需要构建具备深度上下文理解能力的智能体开发者、AI 研究人员以及希望突破现有 RAG 技术瓶颈的技术团队,帮助 AI 从单纯的“检索者”进化为真正的“学习者”。
使用场景
某初创团队正在开发一款面向资深用户的个性化编程助手,需要其在长达数月的开发周期中持续理解项目架构演变与决策逻辑。
没有 automem 时
- 记忆断层严重:每次新会话启动,AI 都会“失忆”,开发者不得不反复重申项目背景、技术栈偏好及之前的避坑指南。
- 上下文碎片化:传统的 RAG 方案仅能检索相似代码片段,无法还原“为什么当初选择 PostgreSQL 而非 MongoDB"这类决策背后的因果链条。
- 知识孤立无援:分散在不同时间的讨论记录(如需求变更、Bug 修复)彼此割裂,AI 无法主动关联历史事件来辅助当前调试。
- 维护成本高昂:团队需手动整理长篇文档喂给 AI,且随着项目迭代,旧信息往往因关键词不匹配而被错误检索或遗漏。
使用 automem 后
- 持久化记忆继承:automem 利用图向量混合架构,让 AI 跨会话自动记住核心实体与偏好,无需用户重复交代背景信息。
- 推理脉络重现:当询问技术选型原因时,automem 不仅能返回结论,还能通过图谱关系追溯当时的讨论细节、权衡利弊及相关人员观点。
- 动态知识关联:系统自动提取实体并建立时间线与语义连接,将数月前的需求变更与当前的代码报错智能关联,提供精准的排查建议。
- 自我进化学习:随着交互增多,automem 自动压缩冗余信息并巩固重要模式,使 AI 对项目的理解随时间推移愈发深刻,检索响应保持在毫秒级。
automem 将 AI 从单纯的“即时问答机器”升级为具备长期演化能力的“项目合伙人”,真正实现了像人类一样的深度记忆与逻辑推理。
运行环境要求
- 未说明
未说明
未说明

快速开始
$AUTOMEM: Bags.fm • Jupiter • Photon • DEXScreener
CA: CV485ySXfgFiwLtbh815JRukH4r9ChLhddqsAaZKBAGS (Solana)
真正会学习的AI记忆
AutoMem是一个面向AI助手的生产级长期记忆系统,拥有透明的LoCoMo基准测试基线(ACL 2024):在跳过第5类的情况下,locomo-mini的1-4类得分为89.27%;而在启用可选的第5类评判者时,完整locomo的得分为87.56%。有关方法论和当前基线,请参阅benchmarks/EXPERIMENT_LOG.md。
60秒内即可部署:
railway up
图形查看器(独立版)
可视化工具现以独立服务/仓库(automem-graph-viewer)的形式运行。AutoMem仍保留/viewer作为兼容入口,并将用户重定向至独立应用。
请在AutoMem API服务上设置以下变量:
ENABLE_GRAPH_VIEWER=true
GRAPH_VIEWER_URL=https://<your-viewer-domain>
VIEWER_ALLOWED_ORIGINS=https://<your-viewer-domain>
当用户访问/viewer/#token=...时,AutoMem会保留哈希令牌,并将其重定向至独立查看器,同时附带server=<automem-origin>参数。
为什么需要AutoMem?
您的AI会在每次会话之间遗忘所有内容。RAG只会检索相似文档。向量数据库虽然能匹配关键词,却无法捕捉语义含义。它们都无法真正学习。
AutoMem赋予AI助手记忆、关联并不断进化理解能力的能力,就像人类的长期记忆一样。
AutoMem的工作原理
AutoMem结合了两种互补的存储系统:
- FalkorDB(图数据库):将记忆存储为节点,并通过类型化的关系连接起来
- Qdrant(向量数据库):通过嵌入实现语义相似性搜索
这种双层架构使您能够提出诸如“我们为什么选择PostgreSQL?”这样的问题,不仅得到相关记忆,还能了解背后的推理、偏好以及与其相关的决策过程。
核心功能
- 🧠 存储记忆,附带元数据、重要性评分和时间上下文
- 🔍 召回:通过混合搜索结合语义、关键词、图结构和时间信号
- 🔗 连接记忆,支持11种可自定义的关系类型,以及系统自动生成的语义和时间边
- 🎯 学习:自动提取实体、检测模式并进行整合
- ⚡ 性能:在数千条记忆中实现亚百毫秒级别的召回速度
研究基础
AutoMem实现了多项经过同行评审的记忆研究技术:
- HippoRAG 2(俄亥俄州立大学,2025年):基于图与向量的混合模型,用于联想记忆
- A-MEM(2025年):采用泽特尔卡斯滕式聚类的动态记忆组织
- MELODI(DeepMind,2024年):通过概要表示进行压缩
- ReadAgent(DeepMind,2024年):通过情景记忆扩展上下文
架构
flowchart TB
subgraph service [AutoMem服务 Flask]
API[REST API<br/>记忆生命周期]
Enrichment[后台增强<br/>管道]
Consolidation[整合<br/>引擎]
Backups[自动化备份<br/>可选]
end
subgraph storage [双层存储]
FalkorDB[(FalkorDB<br/>图数据库)]
Qdrant[(Qdrant<br/>向量数据库)]
end
Client[AI客户端] -->|存储/召回/关联| API
API --> FalkorDB
API --> Qdrant
Enrichment -->|11种边类型<br/>模式节点| FalkorDB
Enrichment -->|语义搜索<br/>3072维向量| Qdrant
Consolidation --> FalkorDB
Consolidation --> Qdrant
Backups -.->|可选| FalkorDB
Backups -.->|可选| Qdrant
FalkorDB(图数据库):用于记录规范信息、关系及整合 Qdrant(向量数据库):用于语义召回和相似性搜索 双层存储:内置冗余和灾难恢复机制
为什么选择图+向量?
flowchart LR
subgraph trad [传统RAG:仅向量]
direction TB
Query1[查询:什么数据库?]
VectorDB1[(向量数据库)]
Result1[✅ PostgreSQL记忆<br/>❌ 无推理<br/>❌ 无关联]
Query1 -->|相似性搜索| VectorDB1
VectorDB1 --> Result1
end
subgraph automem [AutoMem:图+向量]
direction TB
Query2[查询:什么数据库?]
subgraph hybrid [混合搜索]
VectorDB2[(Qdrant<br/>向量)]
GraphDB2[(FalkorDB<br/>图)]
end
Result2[✅ PostgreSQL记忆<br/>✅ 更倾向于MongoDB<br/>✅ 与团队专长相关<br/>✅ 源自枯燥的技术理念]
Query2 --> VectorDB2
Query2 --> GraphDB2
VectorDB2 --> Result2
GraphDB2 --> Result2
end
传统RAG(仅向量)
记忆:“因可靠性选择了PostgreSQL”
查询:“我应该使用什么数据库?”
结果:✅ 找到了记忆
❌ 不知道您为何选择它
❌ 无法连接到相关决策
AutoMem(图+向量)
记忆:“因可靠性选择了PostgreSQL”
图:更倾向于MongoDB
与“团队专长”记忆相关
源自“枯燥技术”原则
查询:“我应该使用什么数据库?”
结果:✅ 找到了记忆
✅ 知道您的决策因素
✅ 展示了相关偏好
✅ 解释了您的推理模式
实际工作流程
多跳桥接发现
当你提出一个问题时,AutoMem 不仅会找到相关的记忆,还会找到这些记忆之间的连接。这被称为桥接发现:通过图关系来揭示那些将初始结果串联起来的记忆。
graph TB
Query[用户查询:<br/>为什么选择枯燥的技术来使用 Kafka?]
Seed1[种子记忆 1:<br/>PostgreSQL 迁移<br/>为了操作简便]
Seed2[种子记忆 2:<br/>Kafka 与 RabbitMQ<br/>对比评估]
Bridge[桥接记忆:<br/>团队偏好简单可靠的技术<br/>经过验证、易于调试的系统]
Result[结果:<br/>AI 理解的是架构<br/>哲学,而不仅仅是孤立的选择]
Query -->|初始召回| Seed1
Query -->|初始召回| Seed2
Seed1 -.->|DERIVED_FROM| Bridge
Seed2 -.->|DERIVED_FROM| Bridge
Bridge --> Result
Seed1 --> Result
Seed2 --> Result
传统 RAG: 返回“Kafka”相关记忆(遗漏了其中的联系)
AutoMem 桥接发现:
- 种子记忆 1:“为操作简便迁移到 PostgreSQL”
- 种子记忆 2:“评估 Kafka 和 RabbitMQ 作为消息队列”
- 桥接记忆:“团队偏好简单可靠的技术——成熟稳定、易于调试的系统”
AutoMem 找到了连接这两个决策的桥梁 → 结果:AI 理解了你的架构哲学,而不仅仅是孤立的选择。
如何启用:
- 在召回请求中设置
expand_relations=true(默认已启用) - 使用
relation_limit和expansion_limit参数控制深度 - 结果会根据关系强度、时间相关性和重要性进行排序
不断演化的知识图谱
# 存储后:“为操作简便迁移到 PostgreSQL”
AutoMem 自动:
├── 提取实体(PostgreSQL、操作简便)
├── 自动打标签(entity:tool:postgresql, entity:concept:ops-simplicity)
├── 发现模式(“偏好简单技术”)
├── 建立时间关联(PRECEDED_BY 迁移计划)
└── 进行语义连接(SIMILAR_TO “Redis 部署”)
# 下一次查询:“我们应该使用 Kafka 吗?”
AI 回忆起:
- PostgreSQL 决策
- “简单技术”模式(在多条记忆中得到强化)
- 对操作简便的偏好
→ 建议:“根据您的模式,建议考虑 RabbitMQ 而不是 Kafka”
9 组分混合评分
flowchart LR
Query[用户查询:<br/>数据库迁移<br/>标签=decision<br/>时间=上个月]
subgraph scoring [混合评分组件]
direction TB
V[向量 25%<br/>语义相似度]
K[关键词 15%<br/>TF-IDF 匹配]
R[关系 25%<br/>图强度]
C[内容 25%<br/>标记重叠]
T[时间 15%<br/>时间一致性]
Tag[标签 10%<br/>标签匹配]
I[重要性 5%<br/>用户优先级]
Conf[置信度 5%<br/>记忆置信度]
Rec[最近性 10%<br/>新鲜度提升]
end
FinalScore[最终得分:<br/>按意义排序,<br/>而非单纯相似度]
Query --> V
Query --> K
Query --> R
Query --> C
Query --> T
Query --> Tag
Query --> I
Query --> Conf
Query --> Rec
V --> FinalScore
K --> FinalScore
R --> FinalScore
C --> FinalScore
T --> FinalScore
Tag --> FinalScore
I --> FinalScore
Conf --> FinalScore
Rec --> FinalScore
GET /recall?query=database%20migration&tags=decision&time_query=last%20month
# AutoMem 结合九种信号:
score = vector×0.25 # 语义相似度
+ keyword×0.15 # TF-IDF 文本匹配
+ relation×0.25 # 图关系强度
+ content×0.25 # 直接标记重叠
+ temporal×0.15 # 与查询的时间一致性
+ tag×0.10 # 标签匹配
+ importance×0.05 # 用户指定的优先级
+ confidence×0.05 # 记忆置信度
+ recency×0.10 # 新鲜度提升
# 结果:记忆按意义排序,而非单纯相似度
功能
核心记忆操作
- 存储 - 丰富的带元数据、重要性、时间戳和嵌入的记忆
- 召回 - 混合搜索(向量 + 关键词 + 标签 + 时间窗口)
- 更新 - 修改记忆,自动重新生成嵌入
- 删除 - 从图和向量存储中同时移除
- 关联 - 创建记忆之间的类型化关系
- 筛选 - 基于标签的查询,支持前缀或精确匹配
内存整合
AutoMem 使用受神经科学启发的整合周期——类似于人类睡眠——来保持记忆的相关性:
| 周期 | 频率 | 目的 |
|---|---|---|
| 衰减 | 每日 | 指数级相关性评分(年龄、访问次数、连接数、重要性) |
| 创造 | 每周 | 类似 REM 的处理过程,发现不明显的联系 |
| 聚类 | 每月 | 将相似的记忆分组,并生成元模式 |
| 遗忘 | 已禁用 | 归档低相关性(<0.2),启用时则删除极旧的记忆(<0.05) |
工作原理:
- 错误的记忆路径会自然消退(约 30–45 天无人访问)
- 重要且连接紧密的记忆会永久保留
- 记忆会在被删除前先归档(相关性介于 0.05–0.2 之间)
- 系统会学习对你而言什么才是重要的,而不是你明确标注的内容
背景智能
每条记忆都会在后台自动增强(不会阻塞你的 API 调用):
增强管道(存储后立即运行):
- 实体提取 - 识别人物、项目、工具、概念(spaCy NLP)
- 自动打标签 - 生成
entity:<type>:<slug>格式,便于结构化查询 - 摘要 - 轻量级概要,方便快速浏览
- 时间关联 - 通过
PRECEDED_BY关系连接到近期记忆 - 语义邻近 - 通过余弦相似度查找相似记忆(
SIMILAR_TO) - 模式检测 - 强化贯穿整个记忆图的新兴主题
整合引擎(按可配置的时间表运行):
- 参见上方的【内存整合】部分
11 种可编写的关系类型
构建丰富的知识图谱:
| 类型 | 使用场景 | 示例 |
|---|---|---|
RELATES_TO |
一般性连接 | 错误报告 → 相关问题 |
LEADS_TO |
因果关系 | 问题 → 解决决 |
OCCURRED_BEFORE |
时间顺序 | 计划 → 执行 |
PREFERS_OVER |
用户偏好 | PostgreSQL → MongoDB |
EXEMPLIFIES |
模式示例 | 代码审查 → 最佳实践 |
CONTRADICTS |
冲突信息 | 旧方法 → 新方法 |
REINFORCES |
支持性证据 | 决策 → 验证决 |
INVALIDATED_BY |
过时信息 | 旧文档 → 当前文档 |
EVOLVED_INTO |
知识演进 | 初步设计 → 最终设计 |
DERIVED_FROM |
来源追踪 | 实现 → 规格 |
PART_OF |
层次结构 | 功能 → 壮举 |
系统生成的关系类型:
SIMILAR_TO- 由增强功能创建的语义邻近关系PRECEDED_BY- 由增强功能创建的时序链接DISCOVERED- 由整合创建的内部启发式边(kind=explains|shares_theme|parallel_context)
快速入门
选项 1:Railway(推荐)
在 60 秒内将 AutoMem 部署到 Railway:
这将自动部署 3 项服务:
- memory-service — 核心 AutoMem API
- falkordb — 具有持久化存储的图数据库
- mcp-sse-server — 用于 ChatGPT、Claude.ai、ElevenLabs 的 MCP 桥接器
👉 部署指南 提供详细的 Railway 设置说明
选项 2:Docker Compose(本地)
在本地运行所有内容:
# 克隆并启动服务
git clone https://github.com/verygoodplugins/automem.git
cd automem
make dev
# API:http://localhost:8001
# FalkorDB:localhost:6379
# Qdrant:localhost:6333
选项 3:开发模式
无需 Docker 即可运行 API:
python3 -m venv venv
source venv/bin/activate
pip install -r requirements-dev.txt
PORT=8001 python app.py
API 示例
存储记忆
curl -X POST http://localhost:8001/memory \
-H "Authorization: Bearer YOUR_TOKEN" \
-H "Content-Type: application/json" \
-d '{
"content": "为了 ACID 兼容性选择了 PostgreSQL 而不是 MongoDB",
"type": "Decision",
"confidence": 0.95,
"tags": ["database", "architecture"],
"importance": 0.9,
"metadata": {
"source": "architecture-meeting",
"alternatives": ["MongoDB", "MySQL"],
"deciding_factors": ["ACID", "team_expertise"]
}
}'
可用的记忆类型:Decision、Pattern、Preference、Style、Habit、Insight、Context(默认)
- 建议明确指定
type,当您知道分类时 - 省略
type,让增强功能根据内容自动分类
召回记忆
# 结合标签和时间的混合搜索
GET /recall?query=database&tags=decision&time_query=last%20month
# 带向量的语义搜索
GET /recall?embedding=0.12,0.56,...&limit=10
# 标签前缀匹配(查找 slack:U123:*, slack:channel-ops 等)
GET /recall?tags=slack&tag_match=prefix
# 带过滤的图扩展(减少相关记忆中的噪声)
GET /recall?query=auth%20architecture&expand_relations=true&expand_min_importance=0.5&expand_min_strength=0.3
# 多跳实体扩展(例如,“Sarah 的姐姐是做什么工作的?”)
GET /recall?query=What%20is%20Sarah%27s%20sister%27s%20job&expand_entities=true
创建关系
curl -X POST http://localhost:8001/associate \
-H "Authorization: Bearer YOUR_TOKEN" \
-H "Content-Type: application/json" \
-d '{
"memory1_id": "uuid-postgres-decision",
"memory2_id": "uuid-mongodb-evaluation",
"type": "PREFERS_OVER",
"strength": 0.9
}'
与 AI 平台结合使用
AutoMem 可通过以下方式与任何 AI 平台配合使用:
MCP(模型上下文协议)
本地 MCP 桥接器(Claude Desktop、Cursor、Claude Code):
# 安装官方 MCP 桥接器
npm install -g @verygoodplugins/mcp-automem
# 为本地 AI 工具配置
npx @verygoodplugins/mcp-automem setup
远程 MCP(云 AI 平台):
通过 HTTPS 将 AutoMem 连接到云 AI 平台。适用于:
- ChatGPT(需要开发者模式)
- Claude.ai 网页界面
- Claude 移动应用
- ElevenLabs Agents
请参阅 远程 MCP 文档 以获取设置说明。
👉 资源:
- NPM 桥接器(本地):
@verygoodplugins/mcp-automem - 远程 MCP 设置:docs/MCP_SSE.md
直接 API
任何语言、任何框架:
import requests
response = requests.post(
"https://your-automem.railway.app/memory",
headers={"Authorization": f"Bearer {token}"},
json={"content": "Memory content", "importance": 0.8}
)
与替代方案的比较
与传统 RAG 系统相比
传统 RAG 会检索相似的文档。而 AutoMem 则理解关系:
RAG:“这里有 5 份关于 PostgreSQL 的文档” AutoMem:“你选择 PostgreSQL 而不是 MongoDB,是因为你喜欢简单易用的技术。这种模式也影响了你对 Redis 和 RabbitMQ 的决策。”
- ✅ 类型化关系 - 不仅仅是“相似”,还有“导致”、“矛盾”、“源于”
- ✅ 时间感知 - 知道什么先于什么,什么被什么推翻,什么又随之出现
- ✅ 模式学习 - 发现你的偏好和决策风格
- ✅ 整合 - 记忆会根据使用情况加强或淡化——就像人类记忆一样
与向量数据库(Pinecone、Weaviate、Qdrant)相比
向量数据库匹配嵌入向量。而 AutoMem 构建的是知识图谱:
- ✅ 多跳推理 - 桥接发现可以跨对话线程连接记忆
- ✅ 11 种关系类型 - 结构化的语义,而非仅靠余弦相似度
- ✅ 背景智能 - 自动增强、模式检测、衰减周期
- ✅ 9 组件评分 - 结合语义、词汇、图、时间以及重要性信号
与自行构建相比
AutoMem 可为您节省数月的迭代时间:
- ✅ 基准验证 - 对 judge-off 和 judge-on 评估均采用透明的 LoCoMo 基准
- ✅ 研究验证 - 实现了 HippoRAG 2、A-MEM、MELODI、ReadAgent 的原则
- ✅ 生产就绪 - 身份验证、管理工具、健康监测、自动备份
- ✅ 实战检验 - 增强管道、整合引擎、重试逻辑、双层存储
- ✅ 开源 - MIT 许可证,可部署于任何地方,无供应商锁定
基准测试结果
LoCoMo 基准测试 (ACL 2024)
AutoMem 发布了使用 Voyage 4 嵌入的两个参考基线:
| 设置 | 范围 | 分数 | 备注 |
|---|---|---|---|
| 快速迭代 | locomo-mini,不启用评委 |
89.27% (208/233) | 仅包含类别 1–4;跳过了 71 道类别 5 的问题 |
| 完整基准测试 | locom, 启用评委 (gpt-4o) |
87.56% (1739/1986) | 包括类别 5,得分为 95.74% (427/446) |
在禁用评委的情况下,locomo-mini 的类别细分如下:
| 类别 | AutoMem | 备注 |
|---|---|---|
| 开放领域 | 96.49% | 一般知识回忆 |
| 时间理解 | 92.06% | 具有时序感知的查询 |
| 单跳回忆 | 79.07% | 基本事实检索 |
| 多跳推理 | 46.15% | 连接分散的记忆 |
| 复杂推理 | N/A | 在此设置中被跳过;请使用启用评委的运行 |
参考点:
| 系统 | 分数 |
|---|---|
| 已发表的 CORE 结果 | 88.24% |
AutoMem locomo-mini 不启用评委 |
89.27% |
AutoMem locom 启用评委 |
87.56% |
方法论说明: 我们并不将其视为严格的排行榜声明。已发表的 CORE 数字是一个有用的参考点,但公开的 LoCoMo 设置并不完全可比,尤其是在处理类别 5 的方式上。AutoMem 在
locomo-mini的类别 1–4 测试中高于该参考值,而在完整的启用评委测试中则低于该参考值。 历史说明: 此前版本报告的分数为 90.53%,但其中包含了两个评估错误:时间匹配比较了错误的文本(假阴性),而类别 5 则匹配空字符串(假阳性)。有关更正后的时间线,请参阅benchmarks/EXPERIMENT_LOG.md。
运行基准测试:make bench-eval BENCH=locomo-mini CONFIG=baseline(快速)或 BENCH_JUDGE_MODEL=gpt-4o make bench-eval BENCH=locom CONFIG=baseline(完整版,包含类别 5)
生产特性
- ⚡ 100 毫秒以下的召回速度 - 即使拥有 10 万条以上的记忆
- 🔄 并发写入 - 后台增强不会阻塞 API
- 🛡️ 优雅降级 - 即使没有 Qdrant 也能正常工作(仅图模式)
- ♻️ 自动重试 - 失败的增强任务会排队等待重新处理
- 💚 健康监测 -
/health和/enrichment/status端点 - 💾 双重存储冗余 - 数据同时保存在 FalkorDB 和 Qdrant 中
- 📦 自动化备份 - 可选的灾难恢复备份服务
配置
必需
AUTOMEM_API_TOKEN- 所有端点的身份验证(除/health外)FALKORDB_HOST/FALKORDB_PORT- 图数据库连接
可选
QDRANT_URL/QDRANT_API_KEY- 启用语义搜索(设置指南)EMBEDDING_PROVIDER- 选择voyage、openai、local、ollama或placeholder后端VOYAGE_API_KEY/VOYAGE_MODEL- 使用 Voyage 嵌入(如果选择voyage)OPENAI_API_KEY- 使用 OpenAI 嵌入(如果选择openai)OPENAI_BASE_URL- OpenAI 兼容提供商的自定义端点(OpenRouter、LiteLLM、vLLM 等)OLLAMA_BASE_URL/OLLAMA_MODEL- 使用 Ollama 嵌入(如果选择ollama)ADMIN_API_TOKEN- 用于/admin/reembed和增强控制- 整合调优:
CONSOLIDATION_*_INTERVAL_SECONDS - 增强调优:
ENRICHMENT_*(相似度阈值、重试限制等)
👉 完整配置指南
文档
- 📦 安装指南 - Railway、Docker、开发环境设置
- 🔍 Qdrant 设置指南 - 向量数据库的分步配置
- 🌉 远程 MCP - 将云端 AI 平台(ChatGPT、Claude.ai、ElevenLabs)连接到 AutoMem
- 💾 监控与备份 - 健康监测和自动化备份
- 🔧 API 参考 - 所有端点及示例
- 🧪 测试指南 - 单元测试、集成测试、线上服务器测试以及 LoCoMo 基准测试
- 📊 LoCoMo 基准测试 - 对 ACL 2024 长期记忆基准进行验证
- 🔄 迁移指南 - 从 MCP SQLite 迁移
- 🌐 automem.ai - 官方网站及指南
社区与支持
- 🌐 automem.ai - 官方网站
- 💬 Discord - 社区聊天室
- 🐦 X 社区 - 关注最新动态
- 📺 YouTube - 教程和演示
- 🐙 GitHub - 源代码
- 📦 NPM MCP 桥 - MCP 集成
- 🐛 问题 - 错误报告和功能请求
研究背景
AutoMem 的架构基于记忆系统和图论领域的同行评审研究:
HippoRAG 2(俄亥俄州立大学,2025 年 6 月)
发现:图-向量混合模型的联想记忆性能比纯向量 RAG 提升 7%,接近人类长期记忆的表现。
AutoMem 实现:双层 FalkorDB(图)+ Qdrant(向量)架构,配备 11 种类型的关联边。
A-MEM(2025 年 7 月)
发现:基于 Zettelkasten 原则的动态记忆组织能够催生新兴的知识结构。
AutoMem 实现:模式检测、聚类循环以及自动实体链接,从而从对话中构建知识图谱。
MELODI(DeepMind,2024 年)
发现:通过概要表示和选择性保留,实现 8 倍的内存压缩,且不损失质量。
AutoMem 实现:摘要生成、重要性评分以及整合周期,强化相关记忆并淡化噪声。
ReadAgent(DeepMind,2024 年)
发现:通过情景记忆和时间组织,可将上下文扩展 20 倍。
AutoMem 实现:时间关系类型(PRECEDED_BY、OCCURRED_BEFORE)以及时序感知评分,以保持对话流畅。
贡献
我们欢迎您的贡献!请按照以下步骤操作:
- 分支仓库
- 创建功能分支
- 为您的更改添加测试
- 提交拉取请求
有关运行测试套件的信息,请参阅 TESTING.md。
许可证
MIT - 因为 AI 内存应该是自由的。
开始使用
railway up
开源。经研究验证。生产就绪。
MIT 许可证。可在任何地方部署。无供应商锁定。
版本历史
v0.15.12026/03/25v0.15.02026/03/25v0.14.02026/03/07v0.13.02026/03/02v0.12.02026/02/20v0.11.02026/02/16v0.10.12026/02/07v0.10.02026/02/06v0.9.32025/12/10常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器