hindsight
Hindsight 是一款专为 AI 智能体设计的“学习型”记忆系统。与传统的记忆方案仅侧重于机械地存储和检索对话历史不同,Hindsight 的核心目标是让智能体在交互过程中真正具备从经验中学习并持续进化的能力。
它有效解决了现有技术在处理长期记忆任务时的局限性,克服了检索增强生成(RAG)和知识图谱等方法在准确性与上下文理解上的不足。在权威的 LongMemEval 基准测试中,Hindsight 展现了业界领先的性能,能够更精准地管理复杂场景下的长周期记忆,且其测试结果已获弗吉尼亚理工学院等机构独立复现验证。
这款工具主要面向 AI 开发者、研究人员以及致力于构建高级自主智能体的技术团队。其独特的技术亮点在于极致的易用性与强大的性能并存:开发者仅需两行代码,通过 LLM 包装器即可将现有智能体升级为具备自动记忆存取功能的“学习型”代理;同时也提供灵活的 SDK 和 HTTP API 以满足更深度的定制需求。无论是希望快速原型验证的初创团队,还是需要在生产环境中部署高可靠性智能体的大型企业,Hindsight 都能提供坚实的记忆基础设施支持。
使用场景
某电商企业正在开发一款能够处理复杂售后问题的智能客服 Agent,需要其记住用户跨会话的历史偏好与过往纠纷细节。
没有 hindsight 时
- 记忆碎片化:Agent 仅能检索当前对话片段,无法关联用户上周提到的“对乳胶过敏”或上个月的“物流延误投诉”,导致每次沟通都像初次接触。
- 重复询问惹恼用户:由于缺乏长期记忆,客服机器人反复询问用户已提供过的订单号和个人偏好,严重降低用户体验。
- 上下文丢失导致误判:在处理多轮次复杂的退换货流程时,Agent 经常遗忘早期的关键承诺(如“承诺补偿运费”),引发新的客诉。
- 传统方案效果有限:尝试引入 RAG(检索增强生成)或知识图谱,但面对长周期、非结构化的对话历史,检索准确率低下且维护成本极高。
使用 hindsight 后
- 真正的持续学习:hindsight 让 Agent 具备了随时间进化的记忆能力,自动将用户半年前的过敏史与当前的商品推荐关联,实现个性化服务。
- 零冗余交互:用户无需重复背景信息,hindsight 精准调用历史记忆,使对话流畅自然,仿佛由一位熟悉老顾客的人工专员接待。
- 长程逻辑闭环:即便相隔数周的售后流程,hindsight 也能完整回溯早期的赔偿承诺与处理进度,确保服务一致性,避免纠纷升级。
- 极简集成高性能:仅需两行代码替换 LLM 客户端,即可在 LongMemEval 基准测试中达到业界领先的记忆准确度,无需构建复杂的向量数据库架构。
hindsight 的核心价值在于将 AI 代理从“只会短期回忆的聊天机器”升级为“具备长期经验积累的智能助手”。
运行环境要求
- Linux
- macOS
- Windows
未说明 (主要依赖外部 LLM 提供商如 OpenAI, Anthropic 等,本地运行 Ollama/LMStudio 时取决于所选模型)
未说明 (Docker 容器运行通常建议至少 4GB-8GB,具体取决于并发量和记忆库大小)

快速开始
Hindsight 是什么?
Hindsight™ 是一个智能体记忆系统,旨在构建能够随时间不断学习的更智能的智能体。大多数智能体记忆系统专注于回忆对话历史,而 Hindsight 则专注于让智能体不仅记住,还能真正地学习。
它克服了 RAG 和知识图谱等替代技术的不足,在长期记忆任务上实现了最先进的性能。
记忆性能与准确性
根据基准测试结果,Hindsight 是迄今为止测试过的最准确的智能体记忆系统。它在 LongMemEval 基准测试中取得了最先进的成绩,该基准广泛用于评估各种对话式 AI 场景中的记忆系统性能。截至 2026 年 1 月,Hindsight 及其他智能体记忆解决方案的当前报告性能如下:

Hindsight 的基准测试数据已由弗吉尼亚理工大学 桑加尼人工智能与数据分析中心 和《华盛顿邮报》的研究合作者独立复现。其他分数则由软件供应商自行报告。
Hindsight 目前已被财富 500 强企业和越来越多的 AI 创业公司投入生产使用。
将 Hindsight 添加到您的 AI 智能体中
将 Hindsight 与现有智能体结合使用的最简单方法是使用 LLM 包装器。只需两行代码即可为您的智能体添加记忆功能,这会将您当前的 LLM 客户端替换为 Hindsight 包装器。此后,每当您调用 LLM 时,记忆都会自动存储和检索。
如果您需要更精细地控制智能体存储和检索记忆的方式和时机,还可以通过 SDK 或直接通过 HTTP 集成一个简单的 API。

🤖 正在使用编程智能体吗? 安装 Hindsight 文档技能,即可在编码时即时访问文档:
npx skills add https://github.com/vectorize-io/hindsight --skill hindsight-docs适用于 Claude Code、Cursor 等 AI 编程助手。
快速入门
Docker(推荐)
export OPENAI_API_KEY=sk-xxx
docker run --rm -it --pull always -p 8888:8888 -p 9999:9999 \
-e HINDSIGHT_API_LLM_API_KEY=$OPENAI_API_KEY \
-v $HOME/.hindsight-docker:/home/hindsight/.pg0 \
ghcr.io/vectorize-io/hindsight:latest
您可以通过设置 HINDSIGHT_API_LLM_PROVIDER 来更改 LLM 提供商。有效选项包括 openai、anthropic、gemini、groq、ollama、lmstudio 和 minimax。更多关于支持模型的信息,请参阅文档:https://hindsight.vectorize.io/developer/models。
Docker(外置 PostgreSQL)
export OPENAI_API_KEY=sk-xxx
export HINDSIGHT_DB_PASSWORD=choose-a-password
cd docker/docker-compose
docker compose up
客户端
pip install hindsight-client -U
# 或
npm install @vectorize-io/hindsight-client
Python
from hindsight_client import Hindsight
client = Hindsight(base_url="http://localhost:8888")
# Retain:存储信息
client.retain(bank_id="my-bank", content="Alice 在 Google 担任软件工程师")
# Recall:搜索记忆
client.recall(bank_id="my-bank", query="Alice 是做什么的?")
# Reflect:生成考虑情境的响应
client.reflect(bank_id="my-bank", query="给我讲讲 Alice 吧")
Node.js / TypeScript
npm install @vectorize-io/hindsight-client
const { HindsightClient } = require('@vectorize-io/hindsight-client');
const main = async () => {
const client = new HindsightClient({ baseUrl: 'http://localhost:8888' });
await client.retain('my-bank', 'Alice 喜欢去优胜美地徒步');
const results = await client.recall('my-bank', 'Alice 喜欢什么?');
console.log(results);
}
main();
Python 内嵌(无需服务器)
pip install hindsight-all -U
import os
from hindsight import HindsightServer, HindsightClient
with HindsightServer(
llm_provider="openai",
llm_model="gpt-5-mini",
llm_api_key=os.environ["OPENAI_API_KEY"]
) as server:
client = HindsightClient(base_url=server.url)
client.retain(bank_id="my-bank", content="Alice 在 Google 工作")
results = client.recall(bank_id="my-bank", query="Alice 在哪里工作?")
使用场景
Hindsight 旨在支持对话式 AI 智能体以及那些计划自主执行任务的智能体。Hindsight 的理想应用场景是那些需要兼具这些功能的智能体,例如能够处理开放式任务、根据用户反馈调整行为,并学习完成复杂任务以实现接近人类水平自动化工作的 AI 员工。Hindsight 可以与 n8n 等类似工具构建的简单 AI 工作流一起使用,但对于此类应用来说可能有些过于强大了。
每个用户的记忆与聊天记录
你可以使用 Hindsight 的一个较为简单的用例,就是通过存储和调用与单个用户相关的记忆,来个性化 AI 聊天机器人和其他对话式智能体。
此用例的需求通常如下所示:

在 Hindsight 中满足这些需求非常简单。当新的用户输入和工具调用通过 retain 操作被摄入 Hindsight 时,可以使用自定义元数据来丰富新记忆。元数据提供了一种便捷的方式,用于隔离那些需要限制为特定用户访问的记忆。一旦这些数据被送入 retain 操作,任何生成的原始记忆和心智模型都可以在检索相关记忆时进行过滤。

架构与操作

大多数智能体记忆实现依赖于基础向量搜索,有时也会使用知识图谱。而 Hindsight 则采用仿生数据结构来组织智能体记忆,其方式更接近人类记忆的工作机制:
- 世界: 关于世界的事实(“炉子会变热”)
- 经历: 智能体自身的经历(“我摸了炉子一下,真的很疼”)
- 心智模型: 通过对原始记忆和经历进行反思而形成的对智能体所处世界的理解。
Hindsight 中的记忆被存储在记忆库中。当记忆被添加到 Hindsight 时,它们会被推送到世界事实或经历记忆路径中。随后,这些记忆会被表示为实体、关系和时间序列的组合,并附带稀疏/密集向量表示,以帮助后续的回忆。
Hindsight 提供了三种简单的交互方法:
- 保留(Retain): 向 Hindsight 提供你希望它记住的信息
- 回忆(Recall): 从 Hindsight 中检索记忆
- 反思(Reflect): 对记忆和经历进行反思,从而从现有记忆中生成新的观察和洞见。
保留(Retain)
retain 操作用于将新记忆推送到 Hindsight 中。它告诉 Hindsight 要“保留”你作为输入传递的信息。
from hindsight_client import Hindsight
client = Hindsight(base_url="http://localhost:8888")
# 简单示例
client.retain(
bank_id="my-bank",
content="Alice 在 Google 担任软件工程师"
)
# 带上下文和时间戳的示例
client.retain(
bank_id="my-bank",
content="Alice 被晋升为高级工程师",
context="职业更新",
timestamp="2025-06-15T10:00:00Z"
)
在后台,retain 操作会使用 LLM 来提取关键事实、时间数据、实体和关系。然后,这些信息会经过归一化处理,转化为规范化的实体、时间序列和搜索索引,同时附带元数据。这些表示形式为 recall 和 reflect 操作中的准确记忆检索奠定了基础。

回忆(Recall)
recall 操作用于检索记忆。这些记忆可以来自任何类型的记忆(世界、经历等)。
from hindsight_client import Hindsight
client = Hindsight(base_url="http://localhost:8888")
# 简单示例
client.recall(bank_id="my-bank", query="Alice 是做什么的?")
# 时间相关的示例
client.recall(bank_id="my-bank", query="六月份发生了什么?")
Recall 会并行执行四种检索策略:
- 语义:向量相似度
- 关键词:BM25 精确匹配
- 图:实体/时间/因果链接
- 时间:时间范围过滤

各个检索结果会被合并,然后根据相关性使用倒排秩融合和交叉编码器重排序模型进行排序。
最终输出会根据需要进行截断,以符合 token 限制。
反思(Reflect)
reflect 操作用于对现有记忆进行更深入的分析。这使得智能体能够在记忆之间建立新的联系,从而更全面地理解其所处的世界。
例如,reflect 操作可用于支持以下用例:
- 一位 AI 项目经理 反思项目中需要缓解哪些风险。
- 一位 销售代理 反思为什么某些外联消息得到了回复,而其他消息却没有。
- 一位 客服代理 反思客户有哪些问题目前的产品文档尚未解答。
reflect 操作也可用于处理需要更深入思考的按需问答或分析任务。
from hindsight_client import Hindsight
client = Hindsight(base_url="http://localhost:8888")
client.reflect(bank_id="my-bank", query="关于 Alice 我应该知道些什么?")

资源
文档:
客户端:
社区:
星标历史
贡献
请参阅 CONTRIBUTING.md。
许可证
MIT — 请参阅 LICENSE
由 Vectorize.io 构建
版本历史
v0.4.222026/03/31v0.4.212026/03/30v0.4.202026/03/24v0.4.192026/03/18v0.4.182026/03/13v0.4.172026/03/10v0.4.162026/03/05v0.4.152026/03/03v0.4.142026/02/26v0.4.132026/02/19v0.4.122026/02/18v0.4.112026/02/13v0.4.102026/02/09v0.4.92026/02/04v0.4.82026/02/03v0.4.72026/01/31v0.4.62026/01/30v0.4.52026/01/30v0.4.42026/01/30v0.4.32026/01/30常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备


