ReMe

GitHub
2.6k 214 简单 2 次阅读 今天Apache-2.0Agent开发框架
AI 解读 由 AI 自动生成,仅供参考

ReMe 是一个专为 AI 智能体设计的记忆管理工具包,旨在解决智能体在对话和任务处理中的记忆问题。它通过文件存储和向量存储两种方式,帮助智能体实现长期记忆功能,避免因上下文窗口限制导致的信息丢失,同时让新会话能够继承历史数据,而不是从零开始。

ReMe 的核心优势在于其“真实记忆”能力:它可以自动压缩旧对话、持久存储重要信息,并在未来的交互中智能召回相关上下文。无论是个人助理、客服机器人还是代码助手,ReMe 都能让这些应用更好地记住用户偏好、项目背景或问题历史,从而提供更个性化的服务。例如,它可以帮代码助手记录开发者的风格偏好,或为客服系统追踪用户的过往问题和需求。

对于开发者和研究人员来说,ReMe 提供了灵活的解决方案。它的文件存储模式(ReMeLight)将记忆以 Markdown 文件的形式保存,便于阅读、编辑和迁移;而向量存储模式则支持语义搜索和精准匹配,适合构建知识库或多轮对话系统。此外,ReMe 在 LoCoMo 和 HaluMem 等基准测试中表现出色,展现了其技术实力。

如果你正在开发需要长期记忆功能的 AI 应用,或者希望提升智能体的上下文管理能力,ReMe 会是一个值得尝试的开源工具。

使用场景

一位开发者正在为电商网站构建智能客服机器人,需要处理大量用户咨询并记住用户的偏好和历史问题。

没有 ReMe 时

  • 用户每次咨询都需要重复提供基本信息,例如订单号、商品名称,导致体验差且效率低
  • 客服机器人无法记住用户的特殊需求(如只接受环保包装),每次对话都像“第一次见面”
  • 长时间的多轮对话中,早期的关键信息经常丢失,导致问题解决过程反复且混乱
  • 历史对话数据存储在数据库中,难以直接查看或编辑,调整记忆内容需要复杂的操作
  • 当系统迁移或扩展时,记忆数据的导出和导入非常麻烦,容易出现数据不一致

使用 ReMe 后

  • 用户的历史信息和偏好被自动记录并持久存储,新对话可以直接调用相关背景,提升用户体验
  • 通过文件化的记忆系统,开发人员可以随时查看和编辑 Markdown 格式的记忆文件,灵活调整内容
  • 长对话中的关键信息会被自动压缩和提炼,确保重要上下文始终保留在有限的上下文窗口中
  • 支持语义搜索和精确匹配,客服机器人能快速从历史记忆中召回相关信息,提供更精准的服务
  • 记忆数据以文件形式存储,迁移和备份变得简单直观,大幅降低了系统扩展的复杂度

ReMe 让智能客服机器人真正拥有了“长期记忆”,显著提升了服务效率和用户满意度。

运行环境要求

操作系统
  • 未说明
GPU

未说明

内存

未说明

依赖
notes需要配置环境变量(如 LLM_API_KEY 和 EMBEDDING_API_KEY),并支持从源码安装。首次运行可能需要下载相关模型文件。
python3.10+
reme-ai
agentscope-ai
transformers
asyncio
ReMe hero image

快速开始

ReMe Logo

Python 版本 PyPI 版本 PyPI 下载量 GitHub 提交活动

许可证 英文 简体中文 GitHub 星标 DeepWiki

agentscope-ai%2FReMe | Trendshift

一个面向 AI 智能体的记忆管理工具包 —— 记住我,优化我。

对于旧版本,请参考 0.2.x 文档


🧠 ReMe 是一个专为 AI 智能体设计的记忆管理框架,提供基于文件向量的两种记忆系统。

它解决了智能体记忆的两个核心问题:有限的上下文窗口(长时间对话中早期信息被截断或丢失)和无状态会话(新会话无法继承历史记录,总是从头开始)。

ReMe 为智能体赋予了真实记忆——旧对话会被自动压缩,重要信息持久存储,并在未来的交互中自动召回相关上下文。

ReMe 在 LoCoMo 和 HaluMem 基准测试中取得了最先进的结果;详见实验结果

使用 ReMe 可以做什么
  • 个人助理:为像 CoPaw 这样的智能体提供长期记忆,记住用户偏好和对话历史。
  • 编程助手:记录代码风格偏好和项目上下文,在不同会话间保持一致的开发体验。
  • 客户服务机器人:跟踪用户问题历史和偏好设置,提供个性化服务。
  • 任务自动化:从历史任务中学习成功/失败模式,

🚀 快速开始

安装

从源码安装:

git clone https://github.com/agentscope-ai/ReMe.git
cd ReMe
pip install -e ".[light]"

更新到最新版本:

git pull
pip install -e ".[light]"

环境变量

ReMeLight 使用环境变量来配置嵌入模型(embedding model)和存储后端:

变量 描述 示例
LLM_API_KEY LLM API 密钥 sk-xxx
LLM_BASE_URL LLM 基础 URL https://dashscope.aliyuncs.com/compatible-mode/v1
EMBEDDING_API_KEY 嵌入 API 密钥(可选) sk-xxx
EMBEDDING_BASE_URL 嵌入基础 URL(可选) https://dashscope.aliyuncs.com/compatible-mode/v1

Python 使用方法

import asyncio

from reme.reme_light import ReMeLight


async def main():
    # 初始化 ReMeLight
    reme = ReMeLight(
        default_as_llm_config={"model_name": "qwen3.5-35b-a3b"},
        # default_embedding_model_config={"model_name": "text-embedding-v4"},
        default_file_store_config={"fts_enabled": True, "vector_enabled": False},
        enable_load_env=True,
    )
    await reme.start()

    messages = [...]  # 对话消息列表

    # 1. 检查上下文大小(token 计数,判断是否需要压缩)
    messages_to_compact, messages_to_keep, is_valid = await reme.check_context(
        messages=messages,
        memory_compact_threshold=90000,  # 触发压缩的阈值(tokens)
        memory_compact_reserve=10000,  # 为最近的消息保留的 token 数量
    )

    # 2. 将对话历史压缩为结构化摘要
    summary = await reme.compact_memory(
        messages=messages,
        previous_summary="",
        max_input_length=128000,  # 模型上下文窗口(tokens)
        compact_ratio=0.7,  # 超过 max_input_length * 0.7 时触发压缩
        language="zh",  # 摘要语言(例如 "zh" / "")
    )

    # 3. 压缩长工具输出(防止工具结果占用过多上下文)
    messages = await reme.compact_tool_result(messages)

    # 4. 推理前钩子(自动压缩工具结果 + 检查上下文 + 生成摘要)
    processed_messages, compressed_summary = await reme.pre_reasoning_hook(
        messages=messages,
        system_prompt="你是一个有用的 AI 助手。",
        compressed_summary="",
        max_input_length=128000,
        compact_ratio=0.7,
        memory_compact_reserve=10000,
        enable_tool_result_compact=True,
        tool_result_compact_keep_n=3,
    )

    # 5. 将重要记忆持久化到文件(写入 memory/YYYY-MM-DD.md)
    summary_result = await reme.summary_memory(
        messages=messages,
        language="zh",
    )

    # 6. 语义记忆搜索(向量 + BM25 混合检索)
    result = await reme.memory_search(query="Python 版本偏好", max_results=5)

    # 7. 创建会话内记忆实例(管理单个对话的上下文)
    memory = reme.get_in_memory_memory()  # 自动配置 dialog_path
    for msg in messages:
        await memory.add(msg)
    token_stats = await memory.estimate_tokens(max_input_length=128000)
    print(f"当前上下文使用率: {token_stats['context_usage_ratio']:.1f}%")
    print(f"消息 token 数量: {token_stats['messages_tokens']}")
    print(f"估计总 token 数量: {token_stats['estimated_tokens']}")

    # 8. 标记消息为已压缩(自动持久化到 dialog/YYYY-MM-DD.jsonl)
    # await memory.mark_messages_compressed(messages_to_compact)

    # 关闭 ReMeLight
    await reme.close()


if __name__ == "__main__":
    asyncio.run(main())

📂 完整示例: test_reme_light.py 📋 示例运行日志: test_reme_light_log.txt (223,838 tokens → 1,105 tokens, 99.5% 压缩率)

基于文件的 ReMeLight 内存系统架构

上下文数据结构

flowchart TD
    A[Context] --> B[compact_summary]
    B --> C[dialog path guide + Goal/Constraints/Progress/KeyDecisions/NextSteps]
    A --> E[messages: full dialogue history]
    A --> F[File System Cache]
    F --> G[dialog/YYYY-MM-DD.jsonl]
    F --> H[tool_result/uuid.txt N-day TTL]

CoPaw MemoryManager 继承了 ReMeLight 并将其内存能力集成到代理推理循环中:

graph LR
    Agent[Agent] -->|每次推理步骤之前| Hook[pre_reasoning_hook]
    Hook --> TC[compact_tool_result<br>压缩工具输出]
    TC --> CC[check_context<br>Token 计数]
    CC -->|超出限制| CM[compact_memory<br>生成摘要]
    CC -->|超出限制| SM[summary_memory<br>异步持久化]
    SM -->|ReAct + FileIO| Files[memory/*.md]
    CC -->|超出限制| MMC[mark_messages_compressed<br>持久化原始对话]
    MMC --> Dialog[dialog/*.jsonl]
    Agent -->|显式调用| Search[memory_search<br>向量+BM25]
    Agent -->|会话内| InMem[ReMeInMemoryMemory<br>Token 感知内存]
    InMem -->|压缩/清除| Dialog
    Files -.->|FileWatcher| Store[(FileStore<br>向量+FTS 索引)]
    Search --> Store

1. check_context — 上下文检查

ContextChecker 使用 token 计数来判断上下文是否超过阈值,并自动将消息分为“待压缩”组和“保留”组。

graph LR
    M[messages] --> H[AsMsgHandler<br>Token 计数]
    H --> C{total > threshold?}
    C -->|No| K[返回所有消息]
    C -->|Yes| S[从尾部保留<br>reserve tokens]
    S --> CP[messages_to_compact<br>较早的消息]
    S --> KP[messages_to_keep<br>最近的消息]
    S --> V{is_valid<br>工具调用对齐?}
  • 核心逻辑: 从尾部保留 reserve 个 token;其余标记为待压缩消息。
  • 完整性保证: 保留完整的用户-助手轮次以及 tool_use/tool_result 对,不拆分它们。

2. compact_memory — 对话压缩

Compactor 使用 ReActAgent 将对话历史压缩为结构化上下文摘要

graph LR
    M[messages] --> H[AsMsgHandler<br>format_msgs_to_str]
    H --> A[ReActAgent<br>reme_compactor]
    P[previous_summary] -->|增量更新| A
    A --> S[结构化摘要<br>目标/进展/决策...]

摘要结构(上下文检查点):

字段 描述
## Goal 用户目标
## Constraints 限制条件和偏好
## Progress 任务进度
## Key Decisions 关键决策
## Next Steps 下一步计划
## Critical Context 关键数据,例如文件路径、函数名称、错误消息等
  • 增量更新:当提供 previous_summary 时,新对话将合并到现有摘要中。
  • 思维增强:通过设置 add_thinking_block=True(默认值),在生成摘要前增加推理步骤以提高质量。

3. summary_memory — 持久化记忆

Summarizer 使用 ReAct + 文件工具 模式,使 AI 能够决定写什么以及写在哪里。

graph LR
    M[messages] --> A[ReActAgent<br>reme_summarizer]
    A -->|read| R[Read memory/YYYY-MM-DD.md]
    R --> T{Reason: how to merge?}
    T -->|write| W[Overwrite]
    T -->|edit| E[Edit in place]
    W --> F[memory/YYYY-MM-DD.md]
    E --> F

文件工具 (FileIO):

工具 功能
read 读取文件内容
write 覆盖文件
edit 查找替换编辑

4. compact_tool_result — 工具结果压缩

ToolResultCompactor 解决了长工具输出导致上下文膨胀的问题。它根据消息是否在 recent_n 窗口内应用两种不同的截断策略:

graph LR
    M[messages] --> B{Within recent_n?}
    B -->|Yes - recent| C[Low truncation recent_max_bytes=100KB<br>Save full content to tool_result/uuid.txt<br>Hint: 'Read from line N']
    B -->|No - old| D[High truncation old_max_bytes=3KB<br>Reference existing file<br>More aggressive truncation]
    C --> E[cleanup_expired_files<br>Delete expired files]
    D --> E
参数 默认值 描述
recent_n 1 视为“最近”的最少连续尾部工具结果消息数量(使用低截断)
recent_max_bytes 100 * 1024 (100 KB) 最近消息的截断阈值;超出此大小的内容保存到 tool_result/ 并附带文件路径和起始行提示
old_max_bytes 3000 (3 KB) 较旧消息的截断阈值;截断更加激进
retention_days 3 工具结果文件的保留天数;过期文件会自动清理
  • 自动清理:过期文件(超过 retention_days 的文件)会在 start / close / compact_tool_result 期间自动删除。

5. memory_search — 记忆检索

MemorySearch 提供 向量 + BM25 混合检索

graph LR
    Q[query] --> E[Embedding<br>Vectorization]
    E --> V[vector_search<br>Semantic similarity]
    Q --> B[BM25<br>Keyword matching]
    V -->|" weight: 0.7 "| M[Deduplicate + weighted merge]
    B -->|" weight: 0.3 "| M
    M --> F[min_score filter]
    F --> R[Top-N results]
  • 融合机制:向量权重 0.7 + BM25 权重 0.3 —— 平衡语义相似性和精确匹配。

6. ReMeInMemoryMemory — 会话内记忆

ReMeInMemoryMemory 扩展了 AgentScope 的 InMemoryMemory,提供基于 token 的记忆管理以及原始对话持久化。

graph LR
    C[content] --> G[get_memory<br>exclude_mark=COMPRESSED]
    G --> F[Filter out compressed messages]
    F --> P{prepend_summary?}
    P -->|Yes| S[Prepend previous summary]
    S --> O[Output messages]
    P -->|No| O
    M[mark_messages_compressed] --> D[Persist to dialog/YYYY-MM-DD.jsonl]
    D --> R[Remove from memory]
功能 描述
get_memory 根据标记过滤消息并自动附加摘要
estimate_tokens 估算上下文的 token 使用量
state_dict / load_state_dict 序列化/反序列化状态(会话持久化)
mark_messages_compressed 标记消息已压缩并持久化到对话目录
clear_content 在清除内存之前持久化所有消息

原始对话持久化:当消息被压缩或清除时,它们会自动保存到 {dialog_path}/{date}.jsonl,每行一条 JSON 格式的消息。


7. pre_reasoning_hook — 推理前处理

这是一个统一的入口点,将上述所有组件连接在一起,并在每次推理步骤之前自动管理上下文。

graph LR
    M[messages] --> TC[compact_tool_result<br>Compact long tool outputs]
    TC --> CC[check_context<br>Compute remaining space]
    CC --> D{messages_to_compact<br>Non-empty?}
    D -->|No| K[Return original messages + summary]
    D -->|Yes| V{is_valid?}
    V -->|No| K
    V -->|Yes| CM[compact_memory<br>Sync summary generation]
    V -->|Yes| SM[add_async_summary_task<br>Async persistence]
    CM --> R[Return messages_to_keep + new summary]

执行流程

  1. compact_tool_result — 对所有消息(最近的 tool_result_compact_keep_n 条除外)压缩长工具输出。
  2. check_context — 检查上下文是否超出限制(剩余空间 = 阈值减去系统提示和压缩摘要所用的 token 数)。
  3. compact_memory — 生成紧凑的摘要(同步),追加到 compact_summary 中。
  4. summary_memory — 将记忆持久化到 memory/*.md 文件中(异步后台运行,非阻塞)。
关键参数 默认值 描述
tool_result_compact_keep_n 3 跳过对最近 N 条消息的工具结果压缩(保留完整内容)
memory_compact_reserve 10000 为最近的消息保留的 token 数;超过此值的消息将触发压缩
compact_ratio 0.7 压缩阈值比率:max_input_length × compact_ratio × 0.95

🗃️ 基于向量的记忆系统

ReMe Vector Based 是基于向量的记忆系统的核心类。它管理三种类型的记忆:

记忆类型 使用场景
个人记忆 记录用户偏好和习惯
程序记忆 记录任务执行经验及成功/失败模式
工具记忆 记录工具使用经验和参数调整

核心功能

方法 功能 描述
summarize_memory 🧠 总结 自动从对话中提取并存储记忆
retrieve_memory 🔍 检索 根据查询检索相关记忆
add_memory ➕ 添加 手动将记忆添加到向量存储中
get_memory 📖 获取 通过 ID 获取单个记忆
update_memory ✏️ 更新 更新现有记忆的内容或元数据
delete_memory 🗑️ 删除 删除特定记忆
list_memory 📋 列表 列出记忆(支持过滤和排序)

安装与环境变量

安装和环境配置与 ReMeLight 相同。 API 密钥通过环境变量配置,并可以存储在项目根目录下的 .env 文件中。

Python 使用示例

import asyncio

from reme import ReMe


async def main():
    # 初始化 ReMe
    reme = ReMe(
        working_dir=".reme",
        default_llm_config={
            "backend": "openai",
            "model_name": "qwen3.5-plus",
        },
        default_embedding_model_config={
            "backend": "openai",
            "model_name": "text-embedding-v4",
            "dimensions": 1024,
        },
        default_vector_store_config={
            "backend": "local",  # 支持 local/chroma/qdrant/elasticsearch
        },
    )
    await reme.start()

    messages = [
        {"role": "user", "content": "Help me write a Python script", "time_created": "2026-02-28 10:00:00"},
        {"role": "assistant", "content": "Sure, I'll help you with that.", "time_created": "2026-02-28 10:00:05"},
    ]

    # 1. 从对话中总结记忆(自动提取用户偏好、任务经验等)
    result = await reme.summarize_memory(
        messages=messages,
        user_name="alice",  # 个人记忆
        # task_name="code_writing",  # 程序记忆
    )
    print(f"Summary result: {result}")

    # 2. 检索相关记忆
    memories = await reme.retrieve_memory(
        query="Python programming",
        user_name="alice",
        # task_name="code_writing",
    )
    print(f"Retrieved memories: {memories}")

    # 3. 手动添加记忆
    memory_node = await reme.add_memory(
        memory_content="The user prefers concise code style.",
        user_name="alice",
    )
    print(f"Added memory: {memory_node}")
    memory_id = memory_node.memory_id

    # 4. 通过 ID 获取单个记忆
    fetched_memory = await reme.get_memory(memory_id=memory_id)
    print(f"Fetched memory: {fetched_memory}")

    # 5. 更新记忆内容
    updated_memory = await reme.update_memory(
        memory_id=memory_id,
        user_name="alice",
        memory_content="The user prefers concise code with comments.",
    )
    print(f"Updated memory: {updated_memory}")

    # 6. 列出用户的全部记忆(支持过滤和排序)
    all_memories = await reme.list_memory(
        user_name="alice",
        limit=10,
        sort_key="time_created",
        reverse=True,
    )
    print(f"User memory list: {all_memories}")

    # 7. 删除特定记忆
    await reme.delete_memory(memory_id=memory_id)
    print(f"Deleted memory: {memory_id}")

    # 8. 删除所有记忆(请谨慎使用)
    # await reme.delete_all()

    await reme.close()


if __name__ == "__main__":
    asyncio.run(main())

技术架构

graph LR
    User[用户 / 代理] --> ReMe[基于向量的 ReMe]
    ReMe --> Summarize[总结记忆]
    ReMe --> Retrieve[检索记忆]
    ReMe --> CRUD[CRUD 操作]
    Summarize --> PersonalSum[个人总结器]
    Summarize --> ProceduralSum[程序总结器]
    Summarize --> ToolSum[工具总结器]
    Retrieve --> PersonalRet[个人检索器]
    Retrieve --> ProceduralRet[程序检索器]
    Retrieve --> ToolRet[工具检索器]
    PersonalSum --> VectorStore[向量数据库]
    ProceduralSum --> VectorStore
    ToolSum --> VectorStore
    PersonalRet --> VectorStore
    ProceduralRet --> VectorStore
    ToolRet --> VectorStore

实验结果

评估基于两个基准测试:LoCoMoHaluMem。实验设置如下:

  1. ReMe 主干模型:如每个表格中指定。
  2. 评估协议:遵循 MemOS 的 LLM-as-a-Judge 方法——每个答案由 GPT-4o-mini 进行评分。

基线结果尽可能在一致的设置下从各自论文中复现。

LoCoMo

方法 单跳 多跳 时间性 开放域 总体
MemoryOS 62.43 56.50 37.18 40.28 54.70
Mem0 66.71 58.16 55.45 40.62 61.00
MemU 72.77 62.41 33.96 46.88 61.15
MemOS 81.45 69.15 72.27 60.42 75.87
HiMem 89.22 70.92 74.77 54.86 80.71
Zep 88.11 71.99 74.45 66.67 81.06
TiMem 81.43 62.20 77.63 52.08 75.30
TSM 84.30 66.67 71.03 58.33 76.69
MemR3 89.44 71.39 76.22 61.11 81.55
ReMe 89.89 82.98 83.80 71.88 86.23

HaluMem

方法 记忆完整性 记忆准确性 QA 准确性
MemoBase 14.55 92.24 35.53
Supermemory 41.53 90.32 54.07
Mem0 42.91 86.26 53.02
ProMem 73.80 89.47 62.26
ReMe 67.72 94.06 88.78

🧪 程序记忆论文

我们的程序(任务)记忆论文已在 arXiv 上发布。

🌍 Appworld 基准测试

我们在 Appworld 环境中使用 Qwen3-8B(非思考模式)评估 ReMe:

方法 Avg@4 Pass@4
w/o ReMe 0.1497 0.3285
w/ ReMe 0.1706 (+2.09%) 0.3631 (+3.46%)

Pass@K 衡量的是 K 个生成的候选者中至少有一个成功完成任务(得分=1)的概率。 当前实验使用的是内部 AppWorld 环境,可能与公开版本略有不同。

有关如何重现实验的更多详细信息,请参阅 quickstart.md

🔧 BFCL-V3 基准测试

我们在 BFCL-V3 多轮任务(随机拆分 50 训练 / 150 验证)上使用 Qwen3-8B(思考模式)评估 ReMe:

方法 Avg@4 Pass@4
w/o ReMe 0.4033 0.5955
w/ ReMe 0.4450 (+4.17%) 0.6577 (+6.22%)

有关如何重现实验的更多详细信息,请参阅 quickstart.md

⭐ 社区与支持

  • Star & Watch:加星有助于更多代理开发者发现 ReMe;关注可以让你及时了解新版本和功能。
  • 分享你的成果:在 Issues 或 Discussions 中分享 ReMe 如何增强你的代理——我们很乐意展示优秀的社区用例。
  • 需要新功能? 提交功能请求;我们将与社区一起发展 ReMe。
  • 代码贡献:欢迎任何形式的贡献。请参阅 贡献指南
  • 致谢:感谢 OpenClaw、Mem0、MemU 和 CoPaw 等优秀开源项目提供的灵感和支持。

贡献者

感谢所有为 ReMe 做出贡献的人:

Contributors

📄 引用

@software{AgentscopeReMe2025,
  title = {AgentscopeReMe: Memory Management Kit for Agents},
  author = {ReMe Team},
  url = {https://reme.agentscope.io},
  year = {2025}
}

⚖️ 许可证

本项目在 Apache License 2.0 下开源。详见 LICENSE


🤔 为什么选择 ReMe?

ReMe 代表 Remember Me(记住我)和 Refine Me(优化我),象征着我们帮助 AI 代理“记住”用户并通过交互“优化”自身的目标。我们希望 ReMe 不仅仅是一个冰冷的记忆模块,而是一个真正帮助代理理解用户、积累经验并不断进化的伙伴。


📈 Star 历史

Star History Chart

版本历史

v0.3.1.82026/03/31
v0.3.1.72026/03/31
v0.3.1.62026/03/28
v0.3.1.52026/03/27
v0.3.1.42026/03/26
v0.3.1.32026/03/24
v0.3.1.2-22026/03/23
v0.3.1.12026/03/19
v0.3.1.02026/03/19
v0.3.0.92026/03/19
v0.3.0.82026/03/17
v0.3.0.72026/03/17
v0.3.0.62026/03/17
v0.3.0.6b32026/03/10
v0.3.0.6b22026/03/07
v0.3.0.6b12026/03/07
v0.3.0.52026/03/04
v0.3.0.42026/03/04
v0.3.0.32026/03/04
v0.3.0.22026/03/03

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|2天前
Agent图像开发框架