basic-memory
basic-memory 是一款让 AI 对话真正拥有“记忆”的开源工具。它通过模型上下文协议(MCP),将 Claude 等大语言模型与你本地的 Markdown 文件连接起来,使 AI 能够自动读取、写入并管理你的知识库。
以往使用 AI 辅助编程或创作时,用户往往需要在每次新对话中重复介绍项目背景。basic-memory 解决了这一痛点,它能将对话内容实时保存为本地笔记,并在后续交流中自动加载相关上下文,让你无需重新解释即可无缝延续之前的工作流。
这款工具特别适合开发者、研究人员及知识工作者使用。它采用“本地优先”架构,所有数据均以简单的 Markdown 格式存储在你自己的电脑上,既保障了隐私安全,又便于版本管理。同时,它也提供了可选的云同步服务,支持跨设备访问。
在技术亮点方面,basic-memory 不仅支持基于关键词的搜索,还引入了语义向量搜索,能根据含义而非仅仅匹配字词来查找笔记。此外,它还具备知识结构推断与验证功能,帮助维护知识库的规范性。安装配置简单,只需几条命令即可集成到 Claude Desktop 等主流客户端中,是构建个人持久化知识系统的得力助手。
使用场景
资深后端工程师李明正在维护一个复杂的微服务架构项目,需要频繁与 AI 助手协作进行代码重构和技术文档更新。
没有 basic-memory 时
- 每次开启新对话,李明都必须重新粘贴项目架构图、技术栈说明和当前的待办事项,耗费大量时间“热身”。
- AI 经常遗忘上周讨论过的数据库变更方案,导致生成的代码与现有结构冲突,需要人工反复纠正。
- 分散在聊天记录中的关键决策(如 API 设计规范)难以检索,随着对话变长,重要上下文逐渐丢失。
- 不同设备间的开发进度无法同步,在办公室电脑上的讨论记录无法直接延续到家里的笔记本上。
使用 basic-memory 后
- 李明只需自然地说“继续昨天的支付模块重构”,basic-memory 自动从本地 Markdown 文件中加载完整的项目背景和历史决策。
- AI 能实时读取并更新本地知识库,准确引用之前确定的数据库 Schema,生成的代码可直接复用且逻辑连贯。
- 利用语义向量搜索功能,李明可以通过“查找关于重试机制的讨论”瞬间定位到具体的笔记片段,无需翻阅冗长记录。
- 借助云同步选项,他在公司电脑上的对话上下文无缝流转到个人设备,真正实现跨平台的连续开发体验。
basic-memory 将短暂的聊天转化为持久的项目记忆,让 AI 真正成为懂你项目的长期合作伙伴。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
🚀 Basic Memory 云服务已上线!
- 跨设备与多平台支持现已实现。 您的知识图谱现在可在桌面、网页和移动端上使用。
- 云端服务为可选功能。 本地优先的开源工作流将一如既往地继续运行。
- OSS 折扣: 使用优惠码
BMFOSS可享受 3 个月 20% 的折扣。
附带 7 天免费试用
Basic Memory
Basic Memory 让您通过与大型语言模型(LLMs)如 Claude 进行自然对话来构建持久的知识,同时将所有内容保存在您计算机上的简单 Markdown 文件中。它使用模型上下文协议(MCP)使任何兼容的 LLM 都能读取和写入您的本地知识库。
v0.19.0 新特性
- 语义向量搜索 —— 不再仅依赖关键词查找笔记,而是根据语义进行匹配。结合了全文检索和向量相似度,利用 FastEmbed 嵌入实现混合搜索。
- 模式系统 —— 使用
schema_infer、schema_validate和schema_diff工具推断、验证并比较知识库的结构。 - 项目级云路由 —— 通过 API 密钥认证(
basic-memory project set-cloud),可将个别项目路由到云端,而其他项目则保持本地存储。 - FastMCP 3.0 —— 升级至 FastMCP 3.0,并添加工具注解以更好地集成客户端。
- CLI 全面升级 —— 新增 JSON 输出模式(
--json)用于脚本编写;引入工作区感知命令及 htop 风格的项目仪表板。 - 更智能的编辑功能 ——
edit_note在笔记不存在时会自动创建;write_note则具备覆盖保护机制,防止意外数据丢失。 - 更丰富的搜索结果 —— 搜索结果中返回匹配的文本片段,以便更好地理解上下文。
详情请参阅完整的 CHANGELOG。
- 官网:basicmemory.com
- 文档:docs.basicmemory.com
- 社区:Discord
从上次中断的地方继续您的对话
- AI 助手可以在新对话中加载本地文件中的上下文
- 笔记会实时以 Markdown 文件的形式保存在本地
- 无需特殊项目知识或提示词即可使用
https://github.com/user-attachments/assets/a55d8238-8dd0-454a-be4c-8860dbbd0ddc
快速开始
# 推荐使用 uv 安装
uv tool install basic-memory
# 配置 Claude Desktop(编辑 ~/Library/Application Support/Claude/claude_desktop_config.json)
# 在配置中添加以下内容:
{
"mcpServers": {
"basic-memory": {
"command": "uvx",
"args": [
"basic-memory",
"mcp"
]
}
}
}
# 现在在 Claude Desktop 中,您可以:
# - 写笔记:“创建一篇关于咖啡冲泡方法的笔记”
# - 阅读笔记:“我了解哪些关于手冲咖啡的知识?”
# - 搜索:“查找有关埃塞俄比亚咖啡豆的信息”
您可以通过 ~/basic-memory 目录(默认位置)中的文件查看共享的上下文。
自动更新
Basic Memory 为 CLI 安装提供了默认开启的自动更新流程。
- 支持自动安装:
uv tool和 Homebrew 安装 - 默认检查间隔: 每 24 小时(86400 秒)
- MCP 安全行为: 更新检查将在
basic-memory mcp模式下静默运行 uvx行为: 被跳过(运行时是临时的,由uvx管理)
手动更新命令:
# 立即检查并安装(如果支持)
bm update
# 仅检查,不安装
bm update --check
~/.basic-memory/config.json 中的配置选项:
{
"auto_update": true,
"update_check_interval": 86400
}
要禁用自动更新,请将 "auto_update" 设置为 false。
为什么选择 Basic Memory?
大多数 LLM 交互都是短暂的——您提出一个问题,得到答案后便被遗忘。每次对话都从头开始,缺乏之前对话的上下文或知识。目前的替代方案存在诸多局限性:
- 对话历史记录只能捕捉对话内容,却无法形成结构化的知识;
- RAG 系统可以查询文档,但不允许 LLM 将信息写回;
- 向量数据库需要复杂的部署,且通常托管在云端;
- 知识图谱通常需要专门的工具来维护。
Basic Memory 采用一种简单的方法解决了这些问题:使用结构化的 Markdown 文件,供人类和 LLM 共同读写。其主要优势如下:
- 本地优先: 所有知识都保存在您掌控的文件中;
- 双向互动: 您和 LLM 都可以读写同一份文件;
- 结构化且简单: 使用熟悉的 Markdown 格式,并结合语义模式;
- 可遍历的知识图谱: LLM 可以通过链接在不同主题之间导航;
- 标准格式: 可与 Obsidian 等现有编辑器无缝兼容;
- 轻量级基础设施: 仅需本地文件,并在本地 SQLite 数据库中建立索引。
借助 Basic Memory,您可以:
- 进行基于先前知识的对话;
- 在自然对话中创建结构化的笔记;
- 与 LLM 进行能够记住过往讨论内容的对话;
- 以语义方式导航您的知识图谱;
- 将所有内容保留在本地并完全掌控;
- 使用 Obsidian 等熟悉工具查看和编辑笔记;
- 构建一个随时间不断增长的个人知识库;
- 通过双向同步将知识同步到云端;
- 通过订阅验证对云项目进行身份验证和管理;
- 挂载云存储以直接访问文件。
实际操作流程
假设你在探索咖啡冲泡方法,并希望记录下你的知识。以下是具体的操作步骤:
- 首先,正常地与模型聊天:
我一直在尝试不同的咖啡冲泡方法。目前学到的关键点有:
- 手冲法比法压壶更能展现咖啡的清晰风味
- 水温至关重要——大约205°F(96°C)最为理想
- 新鲜研磨的咖啡豆对风味影响巨大
… 继续对话。
- 请求大模型帮助整理这些知识:
“我们来写一篇关于咖啡冲泡方法的笔记吧。”
大模型会在你的系统中创建一个新的Markdown文件(你可以在Obsidian或编辑器中立即看到):
---
title: 咖啡冲泡方法
permalink: coffee-brewing-methods
tags:
- coffee
- brewing
---
# 咖啡冲泡方法
## 观察
- [方法] 手冲法能提供更清晰的风味,突出细腻的层次感
- [技巧] 水温保持在205°F (96°C) 可以萃取出最佳的风味成分
- [原则] 新鲜研磨的咖啡豆能够更好地保留香气和风味
## 关系
- 与[[咖啡豆产地]]相关
- 需要[[正确的研磨技巧]]
- 影响[[风味萃取]]
这篇笔记通过简单的Markdown格式嵌入了语义内容,并与其他主题建立了链接。
- 你会在当前项目目录(默认为
~/$HOME/basic-memory)中实时看到这个文件。
- 你可以通过运行
basic-memory sync --watch来启用实时同步功能。
- 在与大模型的对话中,你可以引用某个主题:
看看`coffee-brewing-methods`,了解关于手冲咖啡的相关信息。
现在,大模型可以根据知识图谱构建丰富的上下文。例如:
根据“与[[咖啡豆产地]]相关”的关系:
- 找到了关于埃塞俄比亚耶加雪菲的信息
- 记录了哥伦比亚咖啡豆的坚果风味特点
- 高海拔对咖啡豆特性的影响
根据“需要[[正确的研磨技巧]]”的关系:
- 锥形磨芯与刀片式磨豆机的对比
- 不同冲泡方式对应的研磨度建议
- 研磨颗粒一致性对萃取效果的影响
每个相关的文档都可以进一步扩展上下文,从而构建出对你知识库的丰富语义理解。
这种方式形成了一个双向流动:
- 人类编写和编辑Markdown文件
- 大模型通过MCP协议读取和写入数据
- 同步功能确保所有内容的一致性
- 所有知识都保存在本地文件中。
技术实现
在底层,Basic Memory:
- 将所有内容存储在Markdown文件中
- 使用SQLite数据库进行搜索和索引
- 从简单的Markdown模式中提取语义信息
- 文件被转换为“实体”对象
- 每个“实体”可以包含与其相关的“观察”,即事实
- “关系”将各个实体连接起来,形成知识图谱
- 维护基于文件生成的本地知识图谱
- 提供文件与知识图谱之间的双向同步机制
- 实现用于AI集成的模型上下文协议(MCP)
- 提供工具,使AI助手能够遍历和操作知识图谱
- 使用memory:// URL来跨工具和对话引用实体
文件格式只是带有简单标记的Markdown:
每个Markdown文件包含:
前言部分
title: <实体标题>
type: <实体类型>(例如:笔记)
permalink: <URI别名>
- <可选元数据>(如标签)
观察
“观察”是关于某个主题的事实。可以通过创建特殊格式的Markdown列表来添加,该列表可以引用“类别”、使用“#”符号标记“标签”,以及可选的“上下文”。
观察的Markdown格式如下:
- [类别] 内容 #标签(可选上下文)
观察的例子:
- [方法] 手冲法比法压壶更能萃取出花香调
- [技巧] 手冲时研磨度应为中细 #冲泡
- [偏好] 埃塞俄比亚咖啡豆具有明亮的果味(尤其是来自耶加雪菲的)
- [事实] 浅度烘焙的咖啡通常比深度烘焙含有更多的咖啡因
- [实验] 尝试了1:15的粉水比例,效果不错
- [资源] James Hoffman在YouTube上的V60冲泡技巧非常棒
- [问题] 水温是否会影响不同化合物的萃取效率?
- [备注] 我最喜欢的本地咖啡店采用30秒的闷蒸时间
关系
“关系”是指与其他主题的链接,它定义了实体在知识图谱中的连接方式。
Markdown格式如下:
- 关系类型 [[维基链接]](可选上下文)
关系的例子:
- 与[[巧克力甜点]]很搭
- 生长于[[埃塞俄比亚]]
- 与[[茶的冲泡方法]]形成对比
- 需要[[锥形磨豆机]]
- 更适合使用[[新鲜咖啡豆]]
- 与[[早晨作息]]有关
- 灵感来源于[[日本咖啡文化]]
- 记录在[[咖啡日记]]中
与VS Code结合使用
在VS Code的用户设置(JSON)文件中添加以下JSON块。你可以通过按下Ctrl + Shift + P并输入“Preferences: Open User Settings (JSON)”来完成此操作。
{
"mcp": {
"servers": {
"basic-memory": {
"command": "uvx",
"args": ["basic-memory", "mcp"]
}
}
}
}
你也可以选择将其添加到工作区中的.vscode/mcp.json文件中,这样就可以与他人共享配置。
{
"servers": {
"basic-memory": {
"command": "uvx",
"args": [
"basic-memory",
"mcp"
]
}
}
}
你可以使用Basic Memory与VS Code配合,在编程时轻松地检索和存储信息。
与Claude Desktop结合使用
Basic Memory基于MCP(模型上下文协议)构建,可与Claude桌面应用程序(https://claude.ai/)一起使用:
- 配置Claude Desktop以使用Basic Memory:
编辑你的MCP配置文件(通常位于OS X系统的~/Library/Application Support/Claude/claude_desktop_config.json):
{
"mcpServers": {
"basic-memory": {
"command": "uvx",
"args": [
"basic-memory",
"mcp"
]
}
}
}
如果你想使用特定的项目(参见下方的“多项目”部分),请更新你的Claude Desktop配置:
{
"mcpServers": {
"basic-memory": {
"command": "uvx",
"args": [
"basic-memory",
"mcp",
"--project",
"你的项目名称"
]
}
}
}
- 同步你的知识:
# 一次性同步本地知识更新
basic-memory sync
# 推荐运行实时同步进程
basic-memory sync --watch
- 云端功能(可选,需订阅):
# 使用云端认证(OAuth令牌会本地存储)
basic-memory cloud login
# (可选)安装/configure rclone以执行文件同步命令
basic-memory cloud setup
# 检查云端认证状态及健康状况
basic-memory cloud status
按项目路由云端请求(基于API密钥):
单个项目可以通过云端路由,而其他项目则保留在本地。这需要为每个项目的请求使用一个API密钥:
basic-memory cloud route --project your-project-name --api-key YOUR_API_KEY
这样,特定项目的请求就会通过云端处理,而其他项目仍保持本地存储。
保存 API 密钥(可在 Web 应用或 CLI 中创建)
basic-memory cloud set-key bmc_abc123...
或通过 CLI 创建密钥(需先进行 OAuth 登录)
basic-memory cloud create-key "my-laptop"
将项目设置为通过云端路由
basic-memory project set-cloud research
将项目恢复为本地模式
basic-memory project set-local research
列出项目及路由元数据
basic-memory project list
`basic-memory cloud login` / `basic-memory cloud logout` 是身份验证命令。它们不会改变默认的 CLI 路由行为。
**路由标志**:
使用路由标志来明确命令目标:
```bash
# 强制此命令使用本地路由
basic-memory status --local
basic-memory project list --local
basic-memory project ls --name main --local
# 强制此命令使用云路由
basic-memory status --cloud
basic-memory project info my-project --cloud
basic-memory project ls --name main --cloud
在没有项目上下文时,不使用标志的行为默认为本地路由。
本地 MCP 服务器按传输方式路由:--transport stdio 遵循每个项目的路由设置(本地或云端),而 --transport streamable-http 和 --transport sse 始终使用本地路由。
CLI 笔记编辑(tool edit-note):
# 追加内容
basic-memory tool edit-note project-plan --operation append --content $'\n## 下一步\n- 完成部署'
# 查找/替换并验证替换次数
basic-memory tool edit-note docs/api --operation find_replace --find-text "v0.14.0" --content "v0.15.0" --expected-replacements 2
# 替换某节内容
basic-memory tool edit-note docs/setup --operation replace_section --section "## 安装" --content $'更新了安装步骤\n- 只需运行安装程序'
# 为集成输出 JSON 元数据
basic-memory tool edit-note docs/setup --operation append --content $'\n- 添加备注' --format json
- 在 Claude Desktop 中,LLM 现在可以使用这些工具:
内容管理:
write_note(title, content, folder, tags, output_format="text"|"json") - 创建或更新笔记
read_note(identifier, page, page_size, output_format="text"|"json") - 按标题或永久链接读取笔记
read_content(path) - 读取原始文件内容(文本、图片、二进制)
view_note(identifier) - 以格式化形式查看笔记
edit_note(identifier, operation, content, output_format="text"|"json") - 逐步编辑笔记
move_note(identifier, destination_path, output_format="text"|"json") - 移动笔记并保持数据库一致性
delete_note(identifier, output_format="text"|"json") - 从知识库中删除笔记
知识图谱导航:
build_context(url, depth, timeframe, output_format="json"|"text") - 通过 memory:// URL 导航知识图谱
recent_activity(type, depth, timeframe, output_format="text"|"json") - 查找最近更新的信息
list_directory(dir_name, depth) - 浏览目录内容并进行筛选
搜索与发现:
search(query, page, page_size) - 在整个知识库中搜索
search_notes(query, page, page_size, search_type, types, entity_types, after_date, metadata_filters, tags, status, project) - 带过滤条件的搜索(仅使用过滤条件时查询可为空)
项目管理:
list_memory_projects(output_format="text"|"json") - 列出所有可用项目
create_memory_project(project_name, project_path, output_format="text"|"json") - 创建新项目
get_current_project() - 显示当前项目统计信息
sync_status() - 检查同步状态
对于这些工具,output_format 默认为 "text",以保持当前人类可读的响应。build_context 默认为 "json",但在需要紧凑的 Markdown 输出时也可切换为 "text"。
云端发现(可选):
cloud_info() - 显示可选的云端概览和设置指南
release_notes() - 显示最新版本说明
可视化:
canvas(nodes, edges, title, folder) - 生成知识可视化
- 可尝试的示例提示:
“创建一篇关于我们项目架构决策的笔记”
“在我的笔记中查找有关 JWT 认证的信息”
“为我的项目组件生成一张可视化图表”
“阅读我关于认证系统的笔记”
“过去一周我一直在做什么?”
更多信息
请参阅 文档,了解更多内容,包括:
遥测
Basic Memory 会收集匿名的最小化使用事件,以了解 CLI 到云端转换流程的表现。这有助于我们确定功能优先级并改进产品。
我们收集的内容:
- 云端推广展示次数(当推广横幅显示时)
- 云端登录尝试及其结果
- 推广退出事件
我们不收集的内容:
- 不收集任何文件内容、笔记标题或知识库数据
- 不收集任何个人身份信息 (PII)
- 不追踪 IP 地址或进行指纹识别
- 不对每次命令或工具调用进行单独追踪
事件会被发送到我们的 Umami Cloud 实例,这是一个开源且注重隐私的分析平台。事件会在后台线程中“发送后即忘”——分析绝不会阻塞或减慢 CLI 的运行。
退出方法:设置环境变量:
export BASIC_MEMORY_NO_PROMOS=1
这将禁用所有推广消息以及所有遥测事件。
日志记录
Basic Memory 使用 Loguru 进行日志记录。不同入口点的日志记录行为有所不同:
| 入口点 | 默认行为 | 使用场景 |
|---|---|---|
| CLI 命令 | 仅写入文件 | 防止日志输出干扰命令输出 |
| MCP 服务器 | 仅写入文件 | 如果使用 stdout,会破坏 JSON-RPC 协议 |
| API 服务器 | 文件(本地)或 stdout(云端) | Docker/云端部署使用 stdout |
日志文件位置:~/.basic-memory/basic-memory.log(10MB 轮转,保留 10 天)
环境变量
| 变量 | 默认值 | 描述 |
|---|---|---|
BASIC_MEMORY_LOG_LEVEL |
INFO |
日志级别:DEBUG、INFO、WARNING、ERROR |
BASIC_MEMORY_CLOUD_MODE |
false |
当为 true 时,API 会将日志输出到 stdout,并附带结构化上下文 |
BASIC_MEMORY_FORCE_LOCAL |
false |
当为 true 时,强制使用本地 API 路由 |
BASIC_MEMORY_FORCE_CLOUD |
false |
当为 true 时,强制使用云端 API 路由 |
BASIC_MEMORY_EXPLICIT_ROUTING |
false |
当为 true 时,路由选择会被标记为显式(--local/--cloud) |
BASIC_MEMORY_ENV |
dev |
设置为 test 以启用测试模式(仅 stderr 输出) |
BASIC_MEMORY_NO_PROMOS |
false |
当为 true 时,禁用云端推广消息和遥测数据 |
示例
# 启用调试日志
BASIC_MEMORY_LOG_LEVEL=DEBUG basic-memory sync
# 查看日志
tail -f ~/.basic-memory/basic-memory.log
# 云端/Docker 模式(stdout 日志并带有结构化上下文)
BASIC_MEMORY_CLOUD_MODE=true uvicorn basic_memory.api.app:app
开发
运行测试
Basic Memory 支持双数据库后端(SQLite 和 Postgres)。默认情况下,测试会在 SQLite 上运行。设置 BASIC_MEMORY_TEST_POSTGRES=1 可以在 Postgres 上运行测试(使用 testcontainers - 需要 Docker)。
快速入门:
# 在 SQLite 上运行所有测试(默认,速度快)
just test-sqlite
# 在 Postgres 上运行所有测试(使用 testcontainers)
just test-postgres
# 同时运行 SQLite 和 Postgres 测试
just test
可用的测试命令:
just test- 在 SQLite 和 Postgres 上运行所有测试just test-sqlite- 在 SQLite 上运行所有测试(速度快,无需 Docker)just test-postgres- 在 Postgres 上运行所有测试(使用 testcontainers)just test-unit-sqlite- 在 SQLite 上运行单元测试just test-unit-postgres- 在 Postgres 上运行单元测试just test-int-sqlite- 在 SQLite 上运行集成测试just test-int-postgres- 在 Postgres 上运行集成测试just test-windows- 运行 Windows 特定的测试(在其他平台上自动跳过)just test-benchmark- 运行性能基准测试just testmon- 运行受最近更改影响的测试(pytest-testmon)just test-smoke- 运行快速的 MCP 端到端冒烟测试just fast-check- 运行修复/格式化/类型检查 + 受影响测试 + 冒烟测试just doctor- 使用临时配置运行本地文件与数据库一致性检查
Postgres 测试:
Postgres 测试使用 testcontainers,它会在 Docker 中自动启动一个 Postgres 实例。无需手动设置数据库,只需确保 Docker 正在运行即可。
Testmon 注意事项: 如果没有文件发生变化,just testmon 可能会收集到 0 个测试。这是正常的,意味着未检测到受影响的测试。
测试标记:
测试使用 pytest 标记进行选择性执行:
windows- Windows 特定的数据库优化benchmark- 性能测试(默认运行中排除)smoke- 快速的 MCP 端到端冒烟测试
其他开发命令:
just install # 安装包含开发依赖项
just lint # 运行代码风格检查
just typecheck # 运行类型检查
just typecheck-ty # 运行 ty 类型检查(作为 pyright 的增量补充)
just format # 使用 ruff 格式化代码
just fast-check # 快速本地循环(修复/格式化/类型检查 + testmon + 冒烟测试)
just doctor # 本地一致性检查(使用临时配置)
just check # 运行所有质量检查
just migration "msg" # 创建数据库迁移
类型检查策略:
just typecheck(Pyright)仍然是主要的、阻塞式的类型检查工具。just typecheck-ty(Astralty)作为补充检查工具,在逐步采用规则的过程中可用。- 建议在本地同时运行两者,同时随着时间推移减少
ty的诊断信息。
本地一致性检查:
basic-memory doctor # 在临时项目中验证文件与数据库的同步情况
完整的开发命令列表请参阅 justfile。
许可证
AGPL-3.0
欢迎贡献。有关如何在本地设置项目以及提交 PR 的信息,请参阅 贡献指南。
星标历史
由 Basic Machines 用心打造
版本历史
v0.20.32026/03/27v0.20.22026/03/11v0.20.12026/03/11v0.20.02026/03/11v0.19.22026/03/10v0.19.12026/03/08v0.19.02026/03/07v0.18.52026/02/20v0.18.42026/02/12v0.18.22026/02/12v0.18.12026/02/11v0.18.02026/01/30v0.17.92026/01/24v0.17.82026/01/24v0.17.72026/01/19v0.17.62026/01/17v0.17.52026/01/11v0.17.42026/01/06v0.17.32026/01/03v0.17.22025/12/29常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。