SimpleMem

GitHub
3.2k 304 简单 4 次阅读 2天前MITAgent视频音频其他图像数据工具开发框架语言模型
AI 解读 由 AI 自动生成,仅供参考

SimpleMem 是一款专为大语言模型(LLM)智能体打造的高效终身记忆系统,支持文本、图像、音频及视频等多模态数据。它核心解决了 AI 在长期交互中容易“遗忘”上下文、难以积累持续知识,以及因记忆数据膨胀导致处理效率下降的痛点。

通过独特的语义无损压缩技术,SimpleMem 能够智能地存储、压缩并检索海量长期记忆,既保留了关键信息的完整性,又大幅降低了资源消耗。这意味着无论是复杂的代码开发对话,还是跨天的多模态任务协作,AI 都能像拥有“长期大脑”一样,精准调用过往经验。

该工具非常适合开发者、研究人员以及希望提升本地或云端 AI 助手能力的进阶用户。其最大的亮点在于广泛的兼容性:基于 MCP(模型上下文协议)或 Python 集成,它可以无缝接入 Claude Desktop、Cursor、LM Studio、Cherry Studio 等主流平台。无需重构现有工作流,用户即可让手中的 AI 工具具备跨越时间的记忆能力,实现更连贯、更智能的人机协作。

使用场景

一位独立开发者正在构建一个跨模态的个人生活助手,需要让 AI 长期记住用户的文字日记、会议录音截图以及日常拍摄的照片细节。

没有 SimpleMem 时

  • 记忆碎片化严重:AI 只能依赖有限的上下文窗口,一旦对话轮数过多,上周提到的“项目截止日期”或“家人生日”等关键信息就会被遗忘。
  • 多模态数据无法关联:用户上传的会议白板照片和对应的录音笔记分散在不同文件中,AI 无法将图像内容与文字描述进行语义层面的深度绑定。
  • 存储成本高昂且低效:为了保留历史数据,不得不将所有原始记录反复填入提示词,导致 Token 消耗剧增且响应速度显著变慢。
  • 缺乏长期演进能力:每次开启新会话都像是“失忆”状态,无法基于用户过去半年的习惯偏好提供个性化的建议或总结。

使用 SimpleMem 后

  • 实现无损长期记忆:SimpleMem 通过语义无损压缩技术,将海量历史交互浓缩存储,AI 能随时精准召回数月前的关键细节而不占用当前上下文。
  • 多模态记忆深度融合:无论是文本、图片还是音视频,SimpleMem 都能统一编码存储,让 AI 能理解“这张照片里的草图是上周会议讨论的方案”这类复杂关联。
  • 高效检索与低成本运行:仅在需要时动态检索相关记忆片段,大幅降低了 Token 用量,同时保持了极快的响应速度和较低的算力开销。
  • 具备持续成长的人格:随着时间推移,SimpleMem 帮助 AI 不断积累对用户风格和偏好的理解,使其从一个通用助手进化为懂你的专属伙伴。

SimpleMem 通过高效的多模态记忆压缩与检索机制,彻底打破了 LLM 代理的“短期记忆”瓶颈,让 AI 真正拥有了伴随用户成长的终身记忆能力。

运行环境要求

操作系统
  • 未说明
GPU

未说明

内存

未说明

依赖
notes该工具主要作为 Python 包或 MCP 服务器运行,支持文本及多模态(图像、音频、视频)记忆。可通过 pip 安装,也提供 Docker 支持。具体底层深度学习框架依赖(如 PyTorch)在提供的片段中未明确列出,但多模态功能通常隐含需要相应的推理环境。
python3.8+
simplemem_router
SimpleMem hero image

快速开始

simplemem_logo

面向大型语言模型代理的高效终身记忆——文本与多模态

以语义无损压缩技术存储、压缩并检索长期记忆。现新增对文本、图像、音频及视频的多模态支持。兼容Claude、Cursor、LM Studio等多种平台。

适用于任何支持MCP或Python集成的AI平台

Claude Desktop
Claude Desktop
Cursor
Cursor
LM Studio
LM Studio
Cherry Studio
Cherry Studio
PyPI
PyPI软件包
+ 任意MCP
客户端

🔥 最新消息

  • [04/02/2026] 🧠 Omni-SimpleMem——多模态记忆现已上线! SimpleMem现支持文本、图像、音频及视频记忆。在LoCoMo(F1=0.613,提升47%)和Mem-Gallery(F1=0.810,提升51%)两项基准测试中,均超越现有最佳水平。Omni-SimpleMem为您的代理带来最先进的多模态终身记忆功能。查看Omni-SimpleMem →
  • [02/09/2026] 🚀 跨会话记忆上线——性能比Claude-Mem提升64%! SimpleMem现支持跨对话的持久化记忆。在LoCoMo基准测试中,SimpleMem相比Claude-Mem实现了64%的性能提升。您的代理现在能够自动回忆起先前会话中的上下文、决策及学习成果。查看跨会话文档 →
  • [01/20/2026] SimpleMem现已上架PyPI! 📦 您可直接通过pip install simplemem进行安装。查看软件包使用指南 →
  • [01/19/2026] 为SimpleMem技能新增本地内存存储功能! 💾 SimpleMem技能现可在Claude Skills中支持本地内存存储。
  • [01/18/2026] SimpleMem现已支持Claude Skills! 🚀 您可在claude.ai中使用SimpleMem实现跨对话的长期记忆。请前往mcp.simplemem.cloud注册账号、配置Token,并导入该技能!
  • [01/14/2026] SimpleMem MCP服务器现已上线且开源! 🎉 位于mcp.simplemem.cloud的云端记忆服务已正式启用。可通过可流式传输的HTTP MCP协议与LM Studio、Cherry Studio、Cursor以及Claude Desktop等平台集成。查看MCP文档 →
  • [01/08/2026] 🔥 欢迎加入我们的Discord微信交流群,共同协作、交流想法!
  • [01/05/2026] SimpleMem论文已在arXiv上发表!

📑 目录


🚀 快速入门

🧠 理解基本工作流程

从高层次来看,SimpleMem 是一个用于基于 LLM 的智能体的长期记忆系统。其工作流程包含三个简单步骤:

  1. 存储信息——对话或事实被处理并转化为结构化的原子级记忆。
  2. 索引记忆——通过语义嵌入和结构化元数据对存储的记忆进行组织。
  3. 检索相关记忆——当收到查询时,SimpleMem 会根据语义而非关键词来检索最相关的信息。

这种设计使 LLM 智能体能够保持上下文、高效地回忆过往信息,并避免重复处理冗余的历史记录。

🎓 基本使用方法

SimpleMem 提供了一个统一的入口点 simplemem_router。默认的 mode="auto" 会根据你调用的方法自动检测应使用哪个后端,无需手动配置:

import simplemem_router as simplemem

mem = simplemem.create()  # mode="auto" — 后端由首次调用决定

你首次调用的方法决定了所使用的后端:

首次调用 选择的后端 原因
add_dialogue() 文本(SimpleMem) 对话型 API → 文本模式
add_text() / add_image() / add_audio() / add_video() 多模态(Omni-SimpleMem) 多模态 API → 多模态模式

📝 自动 → 文本(纯文本输入)

import simplemem_router as simplemem

mem = simplemem.create()  # 自动模式

# add_dialogue() → 自动选择文本后端
mem.add_dialogue(
    "Alice",
    "Bob, let's meet at Starbucks tomorrow at 2pm",
    "2025-11-15T14:30:00",
)
mem.add_dialogue(
    "Bob",
    "Sure, I'll bring the market analysis report",
    "2025-11-15T14:31:00",
)
mem.finalize()

answer = mem.ask("When and where will Alice and Bob meet?")
# → "16 November 2025 at 2:00 PM at Starbucks"

🧠 自动 → 多模态(多模态输入)

import simplemem_router as simplemem

mem = simplemem.create()  # 自动模式

# add_image() → 自动选择多模态后端
mem.add_text(
    "User loves hiking in the Rocky Mountains.",
    tags=["session_id:D1"],
)
mem.add_image("photo.jpg", tags=["session_id:D1"])
mem.add_audio("voice_note.wav", tags=["session_id:D1"])

result = mem.query("What does the user enjoy?", top_k=5)
for item in result.items:
    print(item["summary"])

mem.close()

💡 小贴士:自动模式会根据你的数据选择最轻量的后端。如果你更倾向于明确指定模式,也可以直接使用 mode="text"mode="omni"


🚄 高级:并行处理

对于大规模对话处理,可以启用并行模式:

import simplemem_router as simplemem

mem = simplemem.create(
    mode="text",
    clear_db=True,
    enable_parallel_processing=True,  # ⚡ 并行构建记忆
    max_parallel_workers=8,
    enable_parallel_retrieval=True,   # 🔍 并行执行查询
    max_retrieval_workers=4
)

💡 专业提示:并行处理可显著降低批量操作的延迟!


🌟 概述

SimpleMem 是一系列高效的记忆框架——用于文本的 SimpleMem 和用于多模态(文本、图像、音频、视频)的 Omni-SimpleMem——基于 语义无损压缩,旨在解决 LLM 智能体长期记忆效率 的根本挑战。与现有系统不同,后者要么被动积累冗余上下文,要么依赖昂贵的迭代推理循环,SimpleMem 通过三阶段流水线最大化了 信息密度token 利用率

🔍 第一阶段

语义结构化压缩

将非结构化交互提炼为紧凑、多视角索引的记忆单元

🗂️ 第二阶段

在线语义合成

在会话内即时整合相关上下文,形成统一的抽象表示,以消除冗余

🎯 第三阶段

意图感知检索规划

推断搜索意图,动态确定检索范围并高效构建精确的上下文

关于多模态记忆,请参阅下方的 Omni-SimpleMem

SimpleMem 架构

SimpleMem 架构:(1) 语义结构化压缩过滤掉低效对话,将有价值的信息窗口转化为紧凑、与上下文无关的记忆单元。(2) 在线语义合成在写入过程中整合相关片段,保持记忆拓扑的紧凑性和连贯性。(3) 意图感知检索规划推断搜索意图,调整检索范围和查询形式,实现多视角并行检索和 token 效率高的上下文构建。


🏆 性能对比

性能与效率权衡

SimpleMem 以极低的 token 开销(约 550)实现了卓越的 F1 分数(43.24%),位于理想左上角位置。

速度对比演示

SimpleMem 与基线:实时速度对比演示

LoCoMo-10 基准测试结果(GPT-4.1-mini)

模型 ⏱️ 构建时间 🔎 检索时间 ⚡ 总时间 🎯 平均 F1
A-Mem 5140.5s 796.7s 5937.2s 32.58%
LightMem 97.8s 577.1s 675.9s 24.63%
Mem0 1350.9s 583.4s 1934.3s 34.20%
SimpleMem 92.6s 388.3s 480.9s 43.24%

📈 结果

📊 基准测试结果(LoCoMo)

🏆 会话间记忆对比
系统 LoCoMo 分数 相比 SimpleMem
SimpleMem 48
Claude-Mem 29.3 +64%
🔬 高能力模型(GPT-4.1-mini)
任务类型 SimpleMem F1 Mem0 F1 提升幅度
多跳 43.46% 30.14% +43.8%
时间序列 58.62% 48.91% +19.9%
单跳 51.12% 41.3% +23.8%
⚙️ 高效模型(Qwen2.5-1.5B)
指标 SimpleMem Mem0 备注
平均 F1 25.23% 23.77% 与规模小 99 倍的模型相当

🧠 Omni-SimpleMem 结果

🏆 0.613 F1
LoCoMo(较先前 SOTA 提升 47%)
🏆 0.810 F1
Mem-Gallery(较先前 SOTA 提升 51%)
检索吞吐量提升 3.5 倍
检索效率
🧠 支持 4 种模态
文本·图像·音频·视频

📝 SimpleMem:文本记忆

1️⃣ 语义结构化压缩

SimpleMem 在 LLM 生成过程中集成了一种 隐式语义密度门控机制,用于过滤冗余的交互内容。系统将原始对话流重新构建为 紧凑的记忆单元——包含已解析的核心指代和绝对时间戳的自洽事实。每个单元通过三种互补的表示方式进行索引,以实现灵活的检索:

🔍 层级 📊 类型 🎯 目的 🛠️ 实现
语义 密集 概念相似性 向量嵌入(1024 维)
词汇 稀疏 精确术语匹配 BM25 式关键词索引
符号 元数据 结构化筛选 时间戳、实体、人物

✨ 示例转换:

- 输入:  "他明天下午两点会见鲍勃"  [❌ 相对、模糊]
+ 输出: "爱丽丝将于 2025 年 11 月 16 日 14:00:00 在星巴克会见鲍勃"  [✅ 绝对、原子]

2️⃣ 在线语义合成

与依赖异步后台维护的传统系统不同,SimpleMem 在写入阶段 实时进行合成。相关记忆单元会在当前会话范围内被合成为更高层次的抽象表示,从而允许重复或结构相似的经历被 立即去噪并压缩

✨ 示例合成:

- 片段 1: "用户想要咖啡"
- 片段 2: "用户喜欢燕麦奶"
- 片段 3: "用户喜欢热的"
+ 整合后: "用户喜欢热燕麦奶咖啡"

这种主动合成确保了记忆拓扑结构保持紧凑,避免冗余碎片化。


3️⃣ 意图感知检索规划

不同于固定深度的检索,SimpleMem 利用 LLM 的推理能力生成一个 全面的检索计划。给定查询时,规划模块会推断出 潜在的搜索意图,以动态确定检索范围和深度:

$${ q_{\text{sem}}, q_{\text{lex}}, q_{\text{sym}}, d } \sim \mathcal{P}(q, H)$$

随后,系统会跨语义、词汇和符号索引执行 并行多视角检索,并通过基于 ID 的去重合并结果:

🔹 简单查询

  • 通过单个记忆单元直接查找事实
  • 检索深度极浅
  • 响应迅速

🔸 复杂查询

  • 跨多个事件的聚合
  • 扩展检索深度
  • 覆盖面更广

📈 结果:F1 得分为 43.24%,且所需 token 数量仅为全上下文方法的 三十分之一


🧠 Omni-SimpleMem:多模态记忆

新增——SimpleMem 现在可处理文本、图像、音频和视频。

Omni-SimpleMem 将 SimpleMem 扩展至 统一的多模态记忆——支持文本、图像、音频和视频体验,并在所有五种经过测试的 LLM 后端中均表现出最先进的准确性。

其构建基于三大原则:选择性摄入(针对每种模态的熵驱动过滤)、渐进式检索(FAISS 和 BM25 混合搜索,结合金字塔式 token 预算扩展)以及 知识图谱增强(多跳跨模态推理)。

📖 完整文档、基准测试及架构详情:Omni-SimpleMem →


📦 安装

📝 新手须知

  • 请确保您使用的 Python 3.10 是活动环境中的版本,而不仅仅是全局安装的版本。
  • 必须在运行任何记忆构建或检索操作之前配置好兼容 OpenAI 的 API 密钥,否则初始化可能会失败。
  • 使用非 OpenAI 提供商(如 Qwen 或 Azure OpenAI)时,请务必在 config.py 中验证模型名称和 OPENAI_BASE_URL
  • 对于大型对话数据集,启用并行处理可以显著缩短记忆构建时间。

📋 需求

  • 🐍 Python 3.10
  • 🔑 兼容 OpenAI 的 API(OpenAI、Qwen、Azure OpenAI 等)

🛠️ 设置

# 📥 克隆仓库
git clone https://github.com/aiming-lab/SimpleMem.git
cd SimpleMem

# 📦 安装依赖
pip install -r requirements.txt

# ⚙️ 配置 API 设置
cp config.py.example config.py
# 根据您的 API 密钥和偏好编辑 config.py

⚙️ 配置示例

# config.py
OPENAI_API_KEY = "your-api-key"
OPENAI_BASE_URL = None  # 或 Qwen/Azure 的自定义端点

LLM_MODEL = "gpt-4.1-mini"
EMBEDDING_MODEL = "Qwen/Qwen3-Embedding-0.6B"  # 最先进的检索模型

🐳 使用 Docker 运行

MCP 服务器可以在 Docker 中运行,以提供一致且隔离的环境。数据(LanceDB 和用户数据库)会持久化到主机卷中。

先决条件

快速运行

# 从仓库根目录
docker compose up -d

数据存储在主机的 ./data 目录中(自动创建)。

自定义配置

  1. 复制环境模板并编辑:
    cp .env.example .env
    # 编辑 .env:设置 JWT_SECRET_KEY、ENCRYPTION_KEY、LLM_PROVIDER、模型 URL 等
    
  2. 使用该环境文件运行:
    docker compose --env-file .env up -d
    

在主机上使用 Ollama

LLM_PROVIDER=ollama 且 Ollama 在您的机器上运行(而非在 Docker 容器中)时,请在 .env 文件中设置:

LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434/v1

在 Linux 系统上,host.docker.internal 会通过 Compose 文件自动启用。

常用命令

docker compose logs -f simplemem   # 实时查看日志
docker compose down                 # 停止并移除容器

📖 如需自行部署 MCP 服务器(Docker 或裸金属环境),请参阅 MCP 文档


🔌 路由器工具

路由器采用基于注册表的工厂模式——后端仅在请求时才会被延迟加载,并且会在实例化前检查依赖项是否满足。

import simplemem_router as simplemem

# 列出所有已注册的模式
simplemem.list_modes()
# {'text': '单模态文本记忆,支持语义无损压缩',
#  'omni': '多模态记忆——文本、图像、音频、视频(Omni-SimpleMem)'}

# 检查某模式的依赖项是否已满足
simplemem.is_available("omni")  # True / False

# 检查自动选择的模式
mem = simplemem.create()
print(mem.mode)  # "auto"(待定)、"text" 或 "omni"

# 注册自定义后端
simplemem.register(
    mode="my_backend",
    module_path="my_package.memory",
    class_name="MyMemorySystem",
    description="自定义记忆后端",
    required_deps=["my_package"],
)
mem = simplemem.create(mode="my_backend")

❓ 常见设置问题与故障排除

如果您在首次设置或运行 SimpleMem 时遇到问题,请检查以下常见情况:

1️⃣ API 密钥未检测到

  • 确保您的 API 密钥已在 config.py 中正确设置。
  • 对于兼容 OpenAI 的提供商(如 Qwen、Azure 等),请确认 OPENAI_BASE_URL 是否配置正确。
  • 更新密钥后,请重启 Python 环境。

2️⃣ Python 版本不匹配

  • SimpleMem 需要 Python 3.10
  • 使用以下命令检查您的 Python 版本:
    python --version
    

🔄 跨会话记忆 (文本记忆)

SimpleMem-Cross 在 SimpleMem 的基础上扩展了持久化的跨对话记忆功能。智能体可以回忆起之前会话中的上下文、决策和观察结果,从而实现对话间的连续性,而无需手动重新注入上下文。

主要特性

特性 描述
会话生命周期 完整的会话管理,包括开始、记录、停止和结束等阶段
自动上下文注入 根据令牌预算,自动将先前会话的上下文注入到当前会话中
事件收集 记录消息、工具使用、文件变更等信息,并自动进行脱敏处理
观察提取 通过启发式方法提取决策、发现和学习内容
溯源追踪 每条记忆都可追溯到其来源证据
整合优化 对旧记忆进行衰减、合并和修剪,以保持记忆质量

快速示例

from cross.orchestrator import create_orchestrator

async def main():
    orch = create_orchestrator(project="my-project")

    # 开始会话——自动注入先前的上下文
    result = await orch.start_session(
        content_session_id="session-001",
        user_prompt="继续构建 REST API",
    )
    print(result["context"])  # 来自先前会话的相关上下文

    # 在会话中记录事件
    await orch.record_message(result["memory_session_id"], "用户询问关于 JWT 的问题")
    await orch.record_tool_use(
        result["memory_session_id"],
        tool_name="read_file",
        tool_input="auth/jwt.py",
        tool_output="class JWTHandler: ...",
    )

    # 结束会话——提取观察结果、生成摘要并存储记忆
    report = await orch.stop_session(result["memory_session_id"])
    print(f"已存储 {report.entries_stored} 条记忆")

    await orch.end_session(result["memory_session_id"])
    orch.close()

架构

智能体框架(Claude Code / Cursor / 自定义)
                    |
     +--------------+--------------+
     |                             |
钩子/生命周期适配器      HTTP/MCP API(FastAPI)
     |                             |
     +--------------+--------------+
                    |
           CrossMemOrchestrator
                    |
  +-----------------+------------------+
  |                 |                  |
会话管理器  上下文注入器  整合优化
(SQLite)         (按预算打包) (衰减/合并/修剪)
  |                 |                  |
  +---------+-------+                  |
            |                          |
   跨会话向量存储(LanceDB) <--+

模块参考

模块 描述
cross/types.py Pydantic 模型、枚举和记录
cross/storage_sqlite.py SQLite 后端,用于存储会话、事件和观察结果
cross/storage_lancedb.py LanceDB 向量存储,支持溯源
cross/hooks.py 生命周期钩子(会话开始/工具使用/结束)
cross/collectors.py 三层脱敏的事件收集功能
cross/session_manager.py 完整的会话生命周期编排
cross/context_injector.py 基于令牌预算的上下文构建器
cross/orchestrator.py 最上层的接口和工厂
cross/api_http.py FastAPI REST 端点
cross/api_mcp.py MCP 工具定义
cross/consolidation.py 内存维护模块

📖 更多详细的 API 文档,请参阅 跨会话 README


🔌 MCP 服务器 (文本记忆)

SimpleMem 可作为一款基于模型上下文协议(MCP)的云端记忆服务提供,能够与 Claude Desktop、Cursor 等兼容 MCP 的 AI 助手无缝集成。

🌐 云服务: mcp.simplemem.cloud — 或者您也可以使用 Docker 在本地自建 MCP 服务器。

主要特性

特性 描述
可流式传输的 HTTP 支持 MCP 2025-03-26 协议及 JSON-RPC 2.0
多租户隔离 每个用户的独立数据表,通过令牌认证访问
混合检索 语义搜索 + 关键字匹配 + 元数据过滤
生产优化 通过集成 OpenRouter 提升响应速度

快速配置

{
  "mcpServers": {
    "simplemem": {
      "url": "https://mcp.simplemem.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_TOKEN"
      }
    }
  }
}

📖 更多详细的设置说明和自建指南,请参阅 MCP 文档


🗺️ 路线图

Omni-SimpleMem 基础设施 —— 将多模态记忆引入所有共享组件:

  • Omni 跨会话记忆(文本 + 图像 + 音频 + 视频持久化)
  • Omni MCP 服务器(通过 MCP 协议实现多模态记忆)
  • Omni Docker 支持
  • Omni PyPI 包(pip install omni-simplemem
  • Omni Claude Skills 集成

核心改进:

  • 流式摄取,用于实时记忆更新
  • 多智能体之间的记忆共享
  • 基准测试扩展(更多多模态基准)

欢迎贡献!请开一个 issue 进行讨论。


📊 评估

🧪 运行基准测试

# 🎯 完整 LoCoMo 基准测试
python test_locomo10.py

# 📉 子集评估(5 个样本)
python test_locomo10.py --num-samples 5

# 💾 自定义输出文件
python test_locomo10.py --result-file my_results.json

🔬 复现论文结果

请使用 config.py 中的精确配置:

  • 🚀 高性能:GPT-4.1-mini、Qwen3-Plus
  • ⚙️ 高效:Qwen2.5-1.5B、Qwen2.5-3B
  • 🔍 嵌入:Qwen3-Embedding-0.6B(1024 维)

📝 引用

如果您在研究中使用了 SimpleMem,请引用以下内容:

@article{simplemem2025,
  title={SimpleMem: 针对 LLM 智能体的高效终身记忆},
  author={Liu, Jiaqi and Su, Yaofeng and Xia, Peng and Zhou, Yiyang and Han, Siwei and  Zheng, Zeyu and Xie, Cihang and Ding, Mingyu and Yao, Huaxiu},
  journal={arXiv 预印本 arXiv:2601.02553},
  year={2025},
  url={https://github.com/aiming-lab/SimpleMem}
}
@article{omnisimplemem2026,
  title   = {Omni-SimpleMem:自主研究引导的终身多模态智能体记忆发现},
  author  = {Liu, Jiaqi and Ling, Zipeng and Qiu, Shi and Liu, Yanqing and Han, Siwei and Xia, Peng and Tu, Haoqin and Zheng, Zeyu and Xie, Cihang and Fleming, Charles and Ding, Mingyu and Yao, Huaxiu},
  journal = {arXiv 预印本 arXiv:2604.01007},
  year    = {2026},
}

📄 许可证

本项目采用 MIT 许可证——详情请参阅 LICENSE 文件。


🙏 致谢

我们感谢以下项目和团队:

  • 🔍 嵌入模型Qwen3-Embedding - 业界领先的检索性能
  • 🗄️ 向量数据库LanceDB - 高性能列式存储
  • 📊 基准测试LoCoMo - 长上下文记忆评估框架

版本历史

v0.2.02026/04/03
v0.1.02026/03/10

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|2天前
Agent图像开发框架