mem-agent-mcp
mem-agent-mcp 是一款专为构建个性化记忆系统设计的 AI 工具,它作为模型上下文协议(MCP)服务器,能将强大的 driaforall/mem-agent 模型无缝接入 Claude Desktop 或 Lm Studio 等应用。它的核心作用是让 AI 助手拥有类似人类的结构化长期记忆,能够像管理 Obsidian 笔记一样,精准存储和检索用户信息、人际关系及实体数据,从而在对话中保持连贯的上下文理解,解决传统 AI“聊完即忘”的痛点。
这款工具特别适合开发者、AI 研究人员以及希望深度定制本地智能助手的进阶用户。其独特亮点在于采用类 Markdown 的文件结构来组织记忆库,支持动态更新而无需重启服务,并内置了灵活的隐私过滤机制——用户可通过标签指令控制敏感信息的披露程度,兼顾了智能化与数据安全。在技术实现上,它针对 macOS(Metal 后端)和 Linux(vLLM 后端)进行了优化,既支持高性能本地部署,也兼容 LiteLLM 代理方案,为不同硬件环境的用户提供了灵活的运行选择。通过简单的配置,你就能拥有一个真正“记得住”你过往交互的智能伙伴。
使用场景
自由职业开发者李明正在使用 Claude Desktop 协助管理其复杂的跨项目客户网络与长期技术债务,他需要 AI 助手能像人类一样“记住”过往的合作细节和个人偏好。
没有 mem-agent-mcp 时
- 记忆碎片化:每次开启新对话,AI 都忘记了他三个月前在"Acme 公司”项目中约定的特定代码规范,导致重复沟通成本极高。
- 关系网断裂:当询问“之前那位住在荷兰的合作伙伴是谁”时,AI 无法关联分散在不同聊天记录中的实体信息,只能回答不知道。
- 隐私控制缺失:在生成报告时,AI 偶尔会意外泄露客户的私人邮箱或确切年龄,缺乏细粒度的过滤机制来保护敏感数据。
- 手动上下文注入繁琐:为了保持连贯性,李明不得不每次手动复制粘贴大量的背景文档到提示词中,操作效率低下且容易出错。
使用 mem-agent-mcp 后
- 持久化类脑记忆:mem-agent-mcp 将李明的客户信息和项目细节以 Obsidian 式的 Markdown 文件(如
user.md和entities/)本地存储,AI 能随时精准调用半年前的合作约定。 - 实体关系自动关联:基于构建的知识图谱,当李明询问荷兰的合作伙伴时,AI 能立即通过链接定位到具体实体文件,准确回答是"Acme Corporation"及其相关背景。
- 动态隐私过滤:利用
<filter>标签功能,李明可以指令 AI“不要透露具体年龄”,mem-agent-mcp 会在检索记忆时自动屏蔽敏感字段,确保输出合规。 - 无缝集成工作流:配置一次后,Claude Desktop 即可通过 MCP 协议直接读取本地记忆库,无需手动搬运上下文,让对话始终保持高度连贯和个性化。
mem-agent-mcp 通过将静态文档转化为 AI 可理解的动态长期记忆,彻底解决了大模型在垂直场景中“聊完即忘”的核心痛点。
运行环境要求
- macOS
- Linux
- macOS: 需要支持 Metal 后端的 Apple Silicon (ARM64) 芯片
- Linux: 需要 NVIDIA GPU 以运行 vLLM 后端
- 未明确具体显存大小,但提及可使用 4-bit 量化模型以降低资源需求
未说明

快速开始
mem-agent-mcp
这是我们模型 driaforall/mem-agent 的 MCP 服务器,可以连接到 Claude Desktop 或 Lm Studio 等应用,与类似 Obsidian 的记忆系统进行交互。
支持的平台
- macOS(Metal 后端)
- Linux(配备 GPU,vLLM 后端)
平台说明:aarch64(ARM64)Linux
- 在 ARM64 Linux 上,默认不会安装 vLLM,以避免构建失败(没有稳定的 wheel 包,源码构建也可能失败)。
- 即使不安装 vLLM,安装也能成功;你可以:
- 使用默认的 OpenRouter/OpenAI 路径(无需本地 vLLM),或
- 在兼容的 x86_64 主机上运行 vLLM,并让客户端指向它(参见 agent/model.py 中的 create_vllm_client 方法)。
运行说明
使用 LiteLLM 代理(OpenAI 兼容)
- 如果你本地运行着 LiteLLM 代理(例如在端口 4000 上),可以通过 .env 文件配置客户端:
VLLM_HOST=localhost
VLLM_PORT=4000
- 验证连接性:
curl http://localhost:4000/v1/models
- 然后可以选择以下方式之一:
- CLI:
make chat-cli - 通过 STDIO 的 MCP:
make serve-mcp - 通过 HTTP 的 MCP:
make serve-mcp-http
- CLI:
注意:在 ARM64 Linux 上,这是推荐的设置,而不是使用 vLLM。
make check-uv(如果你已经安装了 uv,则跳过此步骤)。make install:在 macOS 上安装 LmStudio。make setup:这将打开文件选择器,要求你选择用于存储记忆的目录。make run-agent:如果你在 macOS 上,系统会提示你选择要使用的模型精度。经测试,4-bit 已经非常实用,而更高精度的模型虽然更可靠,但速度较慢。make generate-mcp-json:生成mcp.json文件。该文件将在下一步中使用。- 各应用/提供商的具体说明:
- Claude Desktop:
- 将生成的
mcp.json复制到你的claude_desktop.json所在目录,然后退出并重新启动 Claude Desktop。详细说明请参阅 这篇指南。
- 将生成的
- Lm Studio:
- 将生成的
mcp.json复制到 Lm Studio 的mcp.json文件中。详细说明请参阅 这篇指南。如果出现问题,可以将 .mlx_model_name 文件中的模型名称(位于本仓库根目录下)从mem-agent-mlx-4bit或mem-agent-mlx-8bit分别改为mem-agent-mlx@4bit或mem-agent-mlx@8bit。
- 将生成的
- Claude Desktop:
记忆使用说明
- 每个记忆目录应遵循以下结构:
memory/
├── user.md
└── entities/
└── [entity_name_1].md
└── [entity_name_2].md
└── ...
user.md是主文件,包含用户及其关系的信息,并通过链接指向实体文件,格式为[[entities/[entity_name].md]],每种关系对应一个链接。链接格式必须严格遵守。entities/是包含实体文件的目录。- 每个实体文件的结构与
user.md相同。 - 手动修改记忆内容无需重启 MCP 服务器。
示例 user.md
# 用户信息
- 用户名:John Doe
- 出生日期:1990-01-01
- 出生地:纽约,美国
- 居住地:恩斯赫德,荷兰
- 星座:水瓶座
## 用户关系
- 公司:[[entities/acme_corp.md]]
- 母亲:[[entities/jane_doe.md]]
示例实体文件(jane_doe.md 和 acme_corp.md)
# Jane Doe
- 关系:母亲
- 出生日期:1965-01-01
- 出生地:纽约,美国
# Acme Corporation
- 行业:软件开发
- 地点:恩斯赫德,荷兰
过滤功能
该模型经过训练,能够在用户查询后的 <filter> 标签中接受各种领域的过滤条件。这些过滤条件用于筛选检索到的信息,甚至完全隐藏相关信息。带有过滤条件的用户查询示例如下:
我妈妈多大了?<filter> 1. 不透露具体的年龄信息,2. 不透露任何电子邮件地址 </filter>
要在 MCP 中使用此功能,你需要两个 make 目标:
make add-filters:打开输入循环,将用户提供的过滤条件添加到 .filters 文件中。make reset-filters:重置 .filters 文件(清空内容)。
添加或移除过滤条件无需重启 MCP 服务器。
记忆连接器
可用连接器
| 连接器 | 描述 | 支持的格式 | 类型 |
|---|---|---|---|
chatgpt |
ChatGPT 对话导出 | .zip, .json |
导出 |
notion |
Notion 工作区导出 | .zip |
导出 |
nuclino |
Nuclino 工作区导出 | .zip |
导出 |
github |
GitHub 仓库通过 API | 实时 API | 实时 |
google-docs |
Google Docs 文件夹通过 Drive API | 实时 API | 实时 |
使用方法
🧙♂️ 交互式记忆向导(推荐)
连接记忆来源的最简单方法:
make memory-wizard
# 或
python memory_wizard.py
向导将引导你完成以下步骤:
- ✅ 选择连接器并查看描述
- ✅ 设置身份验证(令牌、权限范围)
- ✅ 配置数据源(文件、URL、ID)
- ✅ 设置输出目录
- ✅ 连接器特定选项
- ✅ 确认配置
- ✅ 自动执行
- ✅ 成功确认及后续步骤
手动 CLI 使用
快速演示:使用示例记忆
make run-agent
make serve-mcp-http
python examples/mem_agent_cli.py
示例记忆包(healthcare 和 client_success)包含在内,用于展示 mem-agent 在不同数据类型上的功能。使用交互式 CLI 探索这些记忆并测试提示。
列出可用连接器:
make connect-memory
# 或
python memory_connectors/memory_connect.py --list
ChatGPT 历史导入
# 基本用法
make connect-memory CONNECTOR=chatgpt SOURCE=/path/to/chatgpt-export.zip
# 基于 TF-IDF 的 AI 助力分类(快速)
python memory_connectors/memory_connect.py chatgpt /path/to/export.zip --method ai --embedding-model tfidf
# 基于 LM Studio 的 AI 助力分类(高质量语义)
python memory_connectors/memory_connect.py chatgpt /path/to/export.zip --method ai --embedding-model lmstudio
# 基于关键词的自定义分类
python memory_connectors/memory_connect.py chatgpt /path/to/export.zip --method keyword --edit-keywords
# 处理有限数量的对话
python memory_connectors/memory_connect.py chatgpt /path/to/export.zip --max-items 100
分类方法:
- 基于关键词:快速,可使用预定义关键词自定义分类
- AI 助力(TF-IDF):统计聚类,发现对话模式
- AI 助力(LM Studio):通过神经网络进行语义嵌入(需要 LM Studio)
自定义输出位置
make connect-memory CONNECTOR=chatgpt SOURCE=/path/to/export.zip OUTPUT=./memory/custom
仅处理前 100 条对话
make connect-memory CONNECTOR=chatgpt SOURCE=/path/to/export.zip MAX_ITEMS=100
直接使用命令行
python memory_connect.py chatgpt /path/to/export.zip --output ./memory --max-items 100
Notion 工作区导入
# 基本用法
make connect-memory CONNECTOR=notion SOURCE=/path/to/notion-export.zip
# 自定义输出位置
make connect-memory CONNECTOR=notion SOURCE=/path/to/export.zip OUTPUT=./memory/custom
python memory_connectors/memory_connect.py notion /path/to/export.zip --output ./memory
获取 ChatGPT 导出文件
- 前往 ChatGPT 设置
- 点击“导出数据”
- 等待包含下载链接的邮件
- 解压 ZIP 文件
- 使用解压后的文件夹或 ZIP 文件与连接器配合使用
Nuclino 工作区导入
# 基本用法
make connect-memory CONNECTOR=nuclino SOURCE=/path/to/nuclino-export.zip
# 自定义输出位置
make connect-memory CONNECTOR=nuclino SOURCE=/path/to/export.zip OUTPUT=./memory/custom
# 直接使用命令行
python memory_connectors/memory_connect.py nuclino /path/to/export.zip --output ./memory
获取 Notion 导出文件
- 进入你的 Notion 工作区设置
- 点击“设置与成员”→“设置”
- 滚动到“导出内容”并点击“导出全部工作区内容”
- 选择“Markdown & CSV”格式
- 点击“导出”并等待下载完成
- 使用下载的 ZIP 文件与连接器配合使用
获取 Nuclino 导出文件
- 打开你的 Nuclino 工作区
- 在左上角打开主菜单 (☰)
- 点击工作区名称旁边的三个点 (⋮)
- 选择“工作区设置”
- 在“导出工作区”部分点击“导出工作区”
- 保存生成的 ZIP 文件
- 使用下载的 ZIP 文件与连接器配合使用
GitHub 实时集成
# 基本用法 - 单个仓库
make connect-memory CONNECTOR=github SOURCE="microsoft/vscode" TOKEN=your_github_token
# 多个仓库
make connect-memory CONNECTOR=github SOURCE="owner/repo1,owner/repo2" TOKEN=your_token
# 自定义输出和限制
make connect-memory CONNECTOR=github SOURCE="facebook/react" OUTPUT=./memory/custom MAX_ITEMS=50 TOKEN=your_token
# 直接使用命令行,并交互式输入令牌
python memory_connectors/memory_connect.py github "microsoft/vscode" --max-items 100
# 包含特定内容类型
python memory_connectors/memory_connect.py github "owner/repo" --include-issues --include-prs --include-wiki --token your_token
获取 GitHub 个人访问令牌
- 前往 GitHub 设置 → 令牌
- 点击“生成新令牌”→“生成新令牌(经典版)”
- 设置过期时间并选择作用范围:
- 对于 公共仓库:选择
public_repo范围 - 对于 私有仓库:选择
repo范围(完全访问权限)
- 对于 公共仓库:选择
- 点击“生成令牌”,复制生成的令牌
- 将令牌与
--token参数一起使用,或在提示时输入
注意:请妥善保管您的令牌,切勿将其提交到版本控制系统中!
Google Docs 实时集成
# 基本用法 - 特定文件夹
make connect-memory CONNECTOR=google-docs SOURCE="1ABC123DEF456_folder_id" TOKEN=your_access_token
# 使用 Google Drive 文件夹 URL
make connect-memory CONNECTOR=google-docs SOURCE="https://drive.google.com/drive/folders/1ABC123DEF456" TOKEN=your_token
# 自定义输出和限制
make connect-memory CONNECTOR=google-docs SOURCE="folder_id" OUTPUT=./memory/custom MAX_ITEMS=20 TOKEN=your_token
# 直接使用命令行,并交互式输入令牌
python memory_connectors/memory_connect.py google-docs "1ABC123DEF456_folder_id" --max-items 15
获取 Google Drive 访问令牌
选项 1:Google OAuth 2.0 Playground(快速测试)
- 前往 Google OAuth 2.0 Playground
- 在“选择并授权 API”部分:
- 找到“Drive API v3”
- 选择
https://www.googleapis.com/auth/drive.readonly
- 点击“授权 API”,并登录您的 Google 账号
- 点击“交换授权码以获取令牌”
- 复制“访问令牌”(有效期约 1 小时)
选项 2:Google Cloud 控制台(生产环境使用)
- 前往 Google Cloud 控制台
- 创建一个新项目或选择现有项目
- 启用“Google Drive API”
- 进入“凭据”→“创建凭据”→“OAuth 2.0 客户端 ID”
- 如有必要,配置 OAuth 同意屏幕
- 下载凭据 JSON 文件
- 使用 Google 的 OAuth 2.0 库获取访问令牌
所需作用范围:https://www.googleapis.com/auth/drive.readonly
从 Google Drive URL 中提取文件夹 ID:
- 例如,URL:
https://drive.google.com/drive/folders/1ABC123DEF456ghi789 - 文件夹 ID:
1ABC123DEF456ghi789
注意:访问令牌会过期(通常为 1 小时)。对于生产环境,建议实现令牌刷新机制或使用服务账号。
内存组织
连接器会自动将您的对话整理成:
- 主题:按主题分组的对话(如 AI 代理、编程、产品战略等)
- 用户档案:您的沟通风格和偏好
- 实体链接:交叉引用的关系和项目
- 搜索策略:优化用于 mem-agent 发现
示例组织结构:
memory/mcp-server/
├── user.md # 您的个人资料和导航
└── entities/
└── chatgpt-history/
├── index.md # 概述和使用示例
├── topics/ # 按主题组织的对话列表
│ ├── dria.md
│ ├── ai-agents.md
│ └── programming.md
└── conversations/ # 个别对话文件
├── conv_0-project-discussion.md
└── conv_1-technical-planning.md
测试您的内存
导入完成后,请测试内存系统:
- 启动 mem-agent:
make run-agent - 使用 MCP 服务器启动 Claude Desktop
- 提出问题,例如:
- “你能告诉我关于我们产品路线图的信息吗?”
- “我对 AI 代理框架有什么看法?”
- “总结一下我最近的技术讨论”
该代理应能访问您真实的对话历史,而不是给出通用的回答。
架构
Mem-Agent
- Dria 的 Memory Agent:专为内存管理和检索而微调的专用 LLM
- 本地部署:通过 LM Studio (MLX) 或 vLLM 运行,以确保隐私和速度
- 多种版本:提供 4 位、8 位和 bf16 量化版本
- 工具集成:专为文件操作和内存搜索设计
内存结构
- Obsidian 风格:带有维基链接导航的 Markdown 文件
- 主题组织:按主题自动分类
- 实体关系:对话之间的交叉引用连接
- 搜索优化:为高效的 agent 发现而构建
MCP 集成
- FastMCP 框架: 高性能模型上下文协议服务器
- Claude Desktop: Claude 的桌面应用
- Claude Code: Anthropic 提供的代理式编码工具,运行在终端中
Claude Code 设置
先决条件: 首先启动你的记忆服务器:
make run-agent # 必需:vLLM 或 MLX 模型服务器必须正在运行
添加 MCP 服务器:
claude mcp add mem-agent \
--env MEMORY_DIR="/path/to/your/memory/directory" \
-- python "/path/to/mcp_server/server.py"
验证与使用:
claude mcp list # 应显示 mem-agent 已连接
现在,Claude Code 可以访问你的记忆系统,在开发过程中获得上下文帮助。
- 工具执行: 用于记忆操作的沙箱代码执行
- 调试日志: 全面的日志记录以便排查问题
ChatGPT 集成
先决条件: 完成记忆设置并启动本地代理:
make setup # 配置记忆目录
make run-agent # 启动本地 vLLM/MLX 模型服务器
启动符合 MCP 标准的 HTTP 服务器:
make serve-mcp-http # 在 localhost:8081/mcp 上启动服务器
使用 ngrok 暴露(在另一个终端中):
ngrok http 8081 # 复制转发 URL
配置 ChatGPT:
- 前往 ChatGPT 设置 → 连接器
- 在高级设置中启用 开发者模式
- 添加新的 MCP 服务器:
- 名称:
mem-agent - URL:
https://your-ngrok-url.ngrok.io/mcp - 协议: HTTP
- 认证: 无
- 名称:
在 ChatGPT 中使用:
选择 开发者模式 → 选择 mem-agent 连接器 → 提出类似以下的问题:
- “使用 mem-agent 搜索我的记忆中关于 AI 研究的讨论”
- “查询我的记忆中关于最近项目工作的信息”
故障排除
常见问题
代理返回通用回复而非使用记忆:
- 检查配置路径中是否存在记忆文件
- 确认 user.md 是否包含正确的主题导航
- 启用调试日志以查看代理的推理过程
- 尝试直接询问已知对话主题进行测试
MCP 连接问题:
- 检查 Claude Desktop 的配置文件
~/.config/claude/claude_desktop.json - 确认 PATH 配置中包含 LM Studio 二进制文件
- 增加超时设置以处理大型记忆导入
- 查看日志文件
~/Library/Logs/Claude/mcp-server-memory-agent-stdio.log
记忆导入失败:
- 确保导出格式受支持(ChatGPT 支持 .zip 或 .json)
- 检查文件权限和磁盘空间
- 尝试使用 --max-items 限制处理范围
- 验证导出文件是否包含预期的数据结构
调试模式
通过设置环境变量启用详细日志记录:
FASTMCP_LOG_LEVEL=DEBUG make serve-mcp
或者在运行期间检查代理的日志文件以了解其内部推理过程。
开发
添加新连接器
- 创建继承自
BaseMemoryConnector的连接器类 - 实现所需方法:
extract_data()、organize_data()、generate_memory_files() - 将其添加到
memory_connect.py中的连接器注册表 - 更新 README 文件以提供使用示例
连接器示例框架:
from memory_connectors.base import BaseMemoryConnector
class MyConnector(BaseMemoryConnector):
@property
def connector_name(self) -> str:
return "My Service"
@property
def supported_formats(self) -> list:
return ['.zip', '.json']
def extract_data(self, source_path: str) -> Dict[str, Any]:
# 解析源数据
pass
def organize_data(self, extracted_data: Dict[str, Any]) -> Dict[str, Any]:
# 按主题整理
pass
def generate_memory_files(self, organized_data: Dict[str, Any]) -> None:
# 生成 Markdown 文件
pass
贡献
本系统设计为不影响主 mem-agent-mcp 仓库的本地插件:
- 记忆连接器是本地扩展
- 保持对旧版的兼容性
- 所有更改均不破坏现有功能
- 调试改进有助于问题排查
欢迎提交拉取请求以添加新连接器或进行改进!
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
Deep-Live-Cam
Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。