basic-memory

GitHub
2.8k 180 简单 1 次阅读 2天前AGPL-3.0开发框架图像插件语言模型Agent
AI 解读 由 AI 自动生成,仅供参考

basic-memory 是一款让 AI 对话真正拥有“记忆”的开源工具。它通过模型上下文协议(MCP),将 Claude 等大语言模型与你本地的 Markdown 文件连接起来,使 AI 能够自动读取、写入并管理你的知识库。

以往使用 AI 辅助编程或创作时,用户往往需要在每次新对话中重复介绍项目背景。basic-memory 解决了这一痛点,它能将对话内容实时保存为本地笔记,并在后续交流中自动加载相关上下文,让你无需重新解释即可无缝延续之前的工作流。

这款工具特别适合开发者、研究人员及知识工作者使用。它采用“本地优先”架构,所有数据均以简单的 Markdown 格式存储在你自己的电脑上,既保障了隐私安全,又便于版本管理。同时,它也提供了可选的云同步服务,支持跨设备访问。

在技术亮点方面,basic-memory 不仅支持基于关键词的搜索,还引入了语义向量搜索,能根据含义而非仅仅匹配字词来查找笔记。此外,它还具备知识结构推断与验证功能,帮助维护知识库的规范性。安装配置简单,只需几条命令即可集成到 Claude Desktop 等主流客户端中,是构建个人持久化知识系统的得力助手。

使用场景

资深后端工程师李明正在维护一个复杂的微服务架构项目,需要频繁与 AI 助手协作进行代码重构和技术文档更新。

没有 basic-memory 时

  • 每次开启新对话,李明都必须重新粘贴项目架构图、技术栈说明和当前的待办事项,耗费大量时间“热身”。
  • AI 经常遗忘上周讨论过的数据库变更方案,导致生成的代码与现有结构冲突,需要人工反复纠正。
  • 分散在聊天记录中的关键决策(如 API 设计规范)难以检索,随着对话变长,重要上下文逐渐丢失。
  • 不同设备间的开发进度无法同步,在办公室电脑上的讨论记录无法直接延续到家里的笔记本上。

使用 basic-memory 后

  • 李明只需自然地说“继续昨天的支付模块重构”,basic-memory 自动从本地 Markdown 文件中加载完整的项目背景和历史决策。
  • AI 能实时读取并更新本地知识库,准确引用之前确定的数据库 Schema,生成的代码可直接复用且逻辑连贯。
  • 利用语义向量搜索功能,李明可以通过“查找关于重试机制的讨论”瞬间定位到具体的笔记片段,无需翻阅冗长记录。
  • 借助云同步选项,他在公司电脑上的对话上下文无缝流转到个人设备,真正实现跨平台的连续开发体验。

basic-memory 将短暂的聊天转化为持久的项目记忆,让 AI 真正成为懂你项目的长期合作伙伴。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明

内存

未说明

依赖
notes该工具采用本地优先架构,核心依赖本地 Markdown 文件和 SQLite 数据库进行知识存储与索引,无需重型 GPU 支持。推荐使用 'uv' 包管理器进行安装(如 uv tool install basic-memory)。支持通过 MCP 协议与 Claude Desktop、VS Code 等客户端集成。可选云同步功能,但核心工作流完全在本地运行。
python3.12+
FastEmbed
FastMCP>=3.0
SQLite
basic-memory hero image

快速开始

许可证:AGPL v3 PyPI版本 Python 3.12+ 测试 Ruff

🚀 Basic Memory 云服务已上线!

  • 跨设备与多平台支持现已实现。 您的知识图谱现在可在桌面、网页和移动端上使用。
  • 云端服务为可选功能。 本地优先的开源工作流将一如既往地继续运行。
  • OSS 折扣: 使用优惠码 BMFOSS 可享受 3 个月 20% 的折扣。

立即注册 →

附带 7 天免费试用

Basic Memory

Basic Memory 让您通过与大型语言模型(LLMs)如 Claude 进行自然对话来构建持久的知识,同时将所有内容保存在您计算机上的简单 Markdown 文件中。它使用模型上下文协议(MCP)使任何兼容的 LLM 都能读取和写入您的本地知识库。

v0.19.0 新特性

  • 语义向量搜索 —— 不再仅依赖关键词查找笔记,而是根据语义进行匹配。结合了全文检索和向量相似度,利用 FastEmbed 嵌入实现混合搜索。
  • 模式系统 —— 使用 schema_inferschema_validateschema_diff 工具推断、验证并比较知识库的结构。
  • 项目级云路由 —— 通过 API 密钥认证(basic-memory project set-cloud),可将个别项目路由到云端,而其他项目则保持本地存储。
  • FastMCP 3.0 —— 升级至 FastMCP 3.0,并添加工具注解以更好地集成客户端。
  • CLI 全面升级 —— 新增 JSON 输出模式(--json)用于脚本编写;引入工作区感知命令及 htop 风格的项目仪表板。
  • 更智能的编辑功能 —— edit_note 在笔记不存在时会自动创建;write_note 则具备覆盖保护机制,防止意外数据丢失。
  • 更丰富的搜索结果 —— 搜索结果中返回匹配的文本片段,以便更好地理解上下文。

详情请参阅完整的 CHANGELOG

从上次中断的地方继续您的对话

  • AI 助手可以在新对话中加载本地文件中的上下文
  • 笔记会实时以 Markdown 文件的形式保存在本地
  • 无需特殊项目知识或提示词即可使用

https://github.com/user-attachments/assets/a55d8238-8dd0-454a-be4c-8860dbbd0ddc

快速开始

# 推荐使用 uv 安装
uv tool install basic-memory

# 配置 Claude Desktop(编辑 ~/Library/Application Support/Claude/claude_desktop_config.json)
# 在配置中添加以下内容:
{
  "mcpServers": {
    "basic-memory": {
      "command": "uvx",
      "args": [
        "basic-memory",
        "mcp"
      ]
    }
  }
}
# 现在在 Claude Desktop 中,您可以:
# - 写笔记:“创建一篇关于咖啡冲泡方法的笔记”
# - 阅读笔记:“我了解哪些关于手冲咖啡的知识?”
# - 搜索:“查找有关埃塞俄比亚咖啡豆的信息”

您可以通过 ~/basic-memory 目录(默认位置)中的文件查看共享的上下文。

自动更新

Basic Memory 为 CLI 安装提供了默认开启的自动更新流程。

  • 支持自动安装: uv tool 和 Homebrew 安装
  • 默认检查间隔: 每 24 小时(86400 秒)
  • MCP 安全行为: 更新检查将在 basic-memory mcp 模式下静默运行
  • uvx 行为: 被跳过(运行时是临时的,由 uvx 管理)

手动更新命令:

# 立即检查并安装(如果支持)
bm update

# 仅检查,不安装
bm update --check

~/.basic-memory/config.json 中的配置选项:

{
  "auto_update": true,
  "update_check_interval": 86400
}

要禁用自动更新,请将 "auto_update" 设置为 false

为什么选择 Basic Memory?

大多数 LLM 交互都是短暂的——您提出一个问题,得到答案后便被遗忘。每次对话都从头开始,缺乏之前对话的上下文或知识。目前的替代方案存在诸多局限性:

  • 对话历史记录只能捕捉对话内容,却无法形成结构化的知识;
  • RAG 系统可以查询文档,但不允许 LLM 将信息写回;
  • 向量数据库需要复杂的部署,且通常托管在云端;
  • 知识图谱通常需要专门的工具来维护。

Basic Memory 采用一种简单的方法解决了这些问题:使用结构化的 Markdown 文件,供人类和 LLM 共同读写。其主要优势如下:

  • 本地优先: 所有知识都保存在您掌控的文件中;
  • 双向互动: 您和 LLM 都可以读写同一份文件;
  • 结构化且简单: 使用熟悉的 Markdown 格式,并结合语义模式;
  • 可遍历的知识图谱: LLM 可以通过链接在不同主题之间导航;
  • 标准格式: 可与 Obsidian 等现有编辑器无缝兼容;
  • 轻量级基础设施: 仅需本地文件,并在本地 SQLite 数据库中建立索引。

借助 Basic Memory,您可以:

  • 进行基于先前知识的对话;
  • 在自然对话中创建结构化的笔记;
  • 与 LLM 进行能够记住过往讨论内容的对话;
  • 以语义方式导航您的知识图谱;
  • 将所有内容保留在本地并完全掌控;
  • 使用 Obsidian 等熟悉工具查看和编辑笔记;
  • 构建一个随时间不断增长的个人知识库;
  • 通过双向同步将知识同步到云端;
  • 通过订阅验证对云项目进行身份验证和管理;
  • 挂载云存储以直接访问文件。

实际操作流程

假设你在探索咖啡冲泡方法,并希望记录下你的知识。以下是具体的操作步骤:

  1. 首先,正常地与模型聊天:
我一直在尝试不同的咖啡冲泡方法。目前学到的关键点有:

- 手冲法比法压壶更能展现咖啡的清晰风味
- 水温至关重要——大约205°F(96°C)最为理想
- 新鲜研磨的咖啡豆对风味影响巨大

… 继续对话。

  1. 请求大模型帮助整理这些知识:
“我们来写一篇关于咖啡冲泡方法的笔记吧。”

大模型会在你的系统中创建一个新的Markdown文件(你可以在Obsidian或编辑器中立即看到):

---
title: 咖啡冲泡方法
permalink: coffee-brewing-methods
tags:
- coffee
- brewing
---

# 咖啡冲泡方法

## 观察

- [方法] 手冲法能提供更清晰的风味,突出细腻的层次感
- [技巧] 水温保持在205°F (96°C) 可以萃取出最佳的风味成分
- [原则] 新鲜研磨的咖啡豆能够更好地保留香气和风味

## 关系

- 与[[咖啡豆产地]]相关
- 需要[[正确的研磨技巧]]
- 影响[[风味萃取]]

这篇笔记通过简单的Markdown格式嵌入了语义内容,并与其他主题建立了链接。

  1. 你会在当前项目目录(默认为~/$HOME/basic-memory)中实时看到这个文件。
  • 你可以通过运行basic-memory sync --watch来启用实时同步功能。
  1. 在与大模型的对话中,你可以引用某个主题:
看看`coffee-brewing-methods`,了解关于手冲咖啡的相关信息。

现在,大模型可以根据知识图谱构建丰富的上下文。例如:

根据“与[[咖啡豆产地]]相关”的关系:
- 找到了关于埃塞俄比亚耶加雪菲的信息
- 记录了哥伦比亚咖啡豆的坚果风味特点
- 高海拔对咖啡豆特性的影响

根据“需要[[正确的研磨技巧]]”的关系:
- 锥形磨芯与刀片式磨豆机的对比
- 不同冲泡方式对应的研磨度建议
- 研磨颗粒一致性对萃取效果的影响

每个相关的文档都可以进一步扩展上下文,从而构建出对你知识库的丰富语义理解。

这种方式形成了一个双向流动:

  • 人类编写和编辑Markdown文件
  • 大模型通过MCP协议读取和写入数据
  • 同步功能确保所有内容的一致性
  • 所有知识都保存在本地文件中。

技术实现

在底层,Basic Memory:

  1. 将所有内容存储在Markdown文件中
  2. 使用SQLite数据库进行搜索和索引
  3. 从简单的Markdown模式中提取语义信息
    • 文件被转换为“实体”对象
    • 每个“实体”可以包含与其相关的“观察”,即事实
    • “关系”将各个实体连接起来,形成知识图谱
  4. 维护基于文件生成的本地知识图谱
  5. 提供文件与知识图谱之间的双向同步机制
  6. 实现用于AI集成的模型上下文协议(MCP)
  7. 提供工具,使AI助手能够遍历和操作知识图谱
  8. 使用memory:// URL来跨工具和对话引用实体

文件格式只是带有简单标记的Markdown:

每个Markdown文件包含:

前言部分

title: <实体标题>
type: <实体类型>(例如:笔记)
permalink: <URI别名>

- <可选元数据>(如标签)

观察

“观察”是关于某个主题的事实。可以通过创建特殊格式的Markdown列表来添加,该列表可以引用“类别”、使用“#”符号标记“标签”,以及可选的“上下文”。

观察的Markdown格式如下:

- [类别] 内容 #标签(可选上下文)

观察的例子:

- [方法] 手冲法比法压壶更能萃取出花香调
- [技巧] 手冲时研磨度应为中细 #冲泡
- [偏好] 埃塞俄比亚咖啡豆具有明亮的果味(尤其是来自耶加雪菲的)
- [事实] 浅度烘焙的咖啡通常比深度烘焙含有更多的咖啡因
- [实验] 尝试了1:15的粉水比例,效果不错
- [资源] James Hoffman在YouTube上的V60冲泡技巧非常棒
- [问题] 水温是否会影响不同化合物的萃取效率?
- [备注] 我最喜欢的本地咖啡店采用30秒的闷蒸时间

关系

“关系”是指与其他主题的链接,它定义了实体在知识图谱中的连接方式。

Markdown格式如下:

- 关系类型 [[维基链接]](可选上下文)

关系的例子:

- 与[[巧克力甜点]]很搭
- 生长于[[埃塞俄比亚]]
- 与[[茶的冲泡方法]]形成对比
- 需要[[锥形磨豆机]]
- 更适合使用[[新鲜咖啡豆]]
- 与[[早晨作息]]有关
- 灵感来源于[[日本咖啡文化]]
- 记录在[[咖啡日记]]中

与VS Code结合使用

在VS Code的用户设置(JSON)文件中添加以下JSON块。你可以通过按下Ctrl + Shift + P并输入“Preferences: Open User Settings (JSON)”来完成此操作。

{
  "mcp": {
    "servers": {
      "basic-memory": {
        "command": "uvx",
        "args": ["basic-memory", "mcp"]
      }
    }
  }
}

你也可以选择将其添加到工作区中的.vscode/mcp.json文件中,这样就可以与他人共享配置。

{
  "servers": {
    "basic-memory": {
      "command": "uvx",
      "args": [
        "basic-memory",
        "mcp"
      ]
    }
  }
}

你可以使用Basic Memory与VS Code配合,在编程时轻松地检索和存储信息。

与Claude Desktop结合使用

Basic Memory基于MCP(模型上下文协议)构建,可与Claude桌面应用程序(https://claude.ai/)一起使用:

  1. 配置Claude Desktop以使用Basic Memory:

编辑你的MCP配置文件(通常位于OS X系统的~/Library/Application Support/Claude/claude_desktop_config.json):

{
  "mcpServers": {
    "basic-memory": {
      "command": "uvx",
      "args": [
        "basic-memory",
        "mcp"
      ]
    }
  }
}

如果你想使用特定的项目(参见下方的“多项目”部分),请更新你的Claude Desktop配置:

{
  "mcpServers": {
    "basic-memory": {
      "command": "uvx",
      "args": [
        "basic-memory",
        "mcp",
        "--project",
        "你的项目名称"
      ]
    }
  }
}
  1. 同步你的知识:
# 一次性同步本地知识更新
basic-memory sync

# 推荐运行实时同步进程
basic-memory sync --watch
  1. 云端功能(可选,需订阅):
# 使用云端认证(OAuth令牌会本地存储)
basic-memory cloud login

# (可选)安装/configure rclone以执行文件同步命令
basic-memory cloud setup

# 检查云端认证状态及健康状况
basic-memory cloud status

按项目路由云端请求(基于API密钥):

单个项目可以通过云端路由,而其他项目则保留在本地。这需要为每个项目的请求使用一个API密钥:

basic-memory cloud route --project your-project-name --api-key YOUR_API_KEY

这样,特定项目的请求就会通过云端处理,而其他项目仍保持本地存储。

保存 API 密钥(可在 Web 应用或 CLI 中创建)

basic-memory cloud set-key bmc_abc123...

或通过 CLI 创建密钥(需先进行 OAuth 登录)

basic-memory cloud create-key "my-laptop"

将项目设置为通过云端路由

basic-memory project set-cloud research

将项目恢复为本地模式

basic-memory project set-local research

列出项目及路由元数据

basic-memory project list


`basic-memory cloud login` / `basic-memory cloud logout` 是身份验证命令。它们不会改变默认的 CLI 路由行为。

**路由标志**:

使用路由标志来明确命令目标:

```bash
# 强制此命令使用本地路由
basic-memory status --local
basic-memory project list --local
basic-memory project ls --name main --local

# 强制此命令使用云路由
basic-memory status --cloud
basic-memory project info my-project --cloud
basic-memory project ls --name main --cloud

在没有项目上下文时,不使用标志的行为默认为本地路由。

本地 MCP 服务器按传输方式路由:--transport stdio 遵循每个项目的路由设置(本地或云端),而 --transport streamable-http--transport sse 始终使用本地路由。

CLI 笔记编辑(tool edit-note

# 追加内容
basic-memory tool edit-note project-plan --operation append --content $'\n## 下一步\n- 完成部署'

# 查找/替换并验证替换次数
basic-memory tool edit-note docs/api --operation find_replace --find-text "v0.14.0" --content "v0.15.0" --expected-replacements 2

# 替换某节内容
basic-memory tool edit-note docs/setup --operation replace_section --section "## 安装" --content $'更新了安装步骤\n- 只需运行安装程序'

# 为集成输出 JSON 元数据
basic-memory tool edit-note docs/setup --operation append --content $'\n- 添加备注' --format json
  1. 在 Claude Desktop 中,LLM 现在可以使用这些工具:

内容管理

write_note(title, content, folder, tags, output_format="text"|"json") - 创建或更新笔记
read_note(identifier, page, page_size, output_format="text"|"json") - 按标题或永久链接读取笔记
read_content(path) - 读取原始文件内容(文本、图片、二进制)
view_note(identifier) - 以格式化形式查看笔记
edit_note(identifier, operation, content, output_format="text"|"json") - 逐步编辑笔记
move_note(identifier, destination_path, output_format="text"|"json") - 移动笔记并保持数据库一致性
delete_note(identifier, output_format="text"|"json") - 从知识库中删除笔记

知识图谱导航

build_context(url, depth, timeframe, output_format="json"|"text") - 通过 memory:// URL 导航知识图谱
recent_activity(type, depth, timeframe, output_format="text"|"json") - 查找最近更新的信息
list_directory(dir_name, depth) - 浏览目录内容并进行筛选

搜索与发现

search(query, page, page_size) - 在整个知识库中搜索
search_notes(query, page, page_size, search_type, types, entity_types, after_date, metadata_filters, tags, status, project) - 带过滤条件的搜索(仅使用过滤条件时查询可为空)

项目管理

list_memory_projects(output_format="text"|"json") - 列出所有可用项目
create_memory_project(project_name, project_path, output_format="text"|"json") - 创建新项目
get_current_project() - 显示当前项目统计信息
sync_status() - 检查同步状态

对于这些工具,output_format 默认为 "text",以保持当前人类可读的响应。build_context 默认为 "json",但在需要紧凑的 Markdown 输出时也可切换为 "text"

云端发现(可选)

cloud_info() - 显示可选的云端概览和设置指南
release_notes() - 显示最新版本说明

可视化

canvas(nodes, edges, title, folder) - 生成知识可视化
  1. 可尝试的示例提示:
“创建一篇关于我们项目架构决策的笔记”
“在我的笔记中查找有关 JWT 认证的信息”
“为我的项目组件生成一张可视化图表”
“阅读我关于认证系统的笔记”
“过去一周我一直在做什么?”

更多信息

请参阅 文档,了解更多内容,包括:

遥测

Basic Memory 会收集匿名的最小化使用事件,以了解 CLI 到云端转换流程的表现。这有助于我们确定功能优先级并改进产品。

我们收集的内容

  • 云端推广展示次数(当推广横幅显示时)
  • 云端登录尝试及其结果
  • 推广退出事件

我们不收集的内容

  • 不收集任何文件内容、笔记标题或知识库数据
  • 不收集任何个人身份信息 (PII)
  • 不追踪 IP 地址或进行指纹识别
  • 不对每次命令或工具调用进行单独追踪

事件会被发送到我们的 Umami Cloud 实例,这是一个开源且注重隐私的分析平台。事件会在后台线程中“发送后即忘”——分析绝不会阻塞或减慢 CLI 的运行。

退出方法:设置环境变量:

export BASIC_MEMORY_NO_PROMOS=1

这将禁用所有推广消息以及所有遥测事件。

日志记录

Basic Memory 使用 Loguru 进行日志记录。不同入口点的日志记录行为有所不同:

入口点 默认行为 使用场景
CLI 命令 仅写入文件 防止日志输出干扰命令输出
MCP 服务器 仅写入文件 如果使用 stdout,会破坏 JSON-RPC 协议
API 服务器 文件(本地)或 stdout(云端) Docker/云端部署使用 stdout

日志文件位置~/.basic-memory/basic-memory.log(10MB 轮转,保留 10 天)

环境变量

变量 默认值 描述
BASIC_MEMORY_LOG_LEVEL INFO 日志级别:DEBUG、INFO、WARNING、ERROR
BASIC_MEMORY_CLOUD_MODE false 当为 true 时,API 会将日志输出到 stdout,并附带结构化上下文
BASIC_MEMORY_FORCE_LOCAL false 当为 true 时,强制使用本地 API 路由
BASIC_MEMORY_FORCE_CLOUD false 当为 true 时,强制使用云端 API 路由
BASIC_MEMORY_EXPLICIT_ROUTING false 当为 true 时,路由选择会被标记为显式(--local/--cloud
BASIC_MEMORY_ENV dev 设置为 test 以启用测试模式(仅 stderr 输出)
BASIC_MEMORY_NO_PROMOS false 当为 true 时,禁用云端推广消息和遥测数据

示例

# 启用调试日志
BASIC_MEMORY_LOG_LEVEL=DEBUG basic-memory sync

# 查看日志
tail -f ~/.basic-memory/basic-memory.log

# 云端/Docker 模式(stdout 日志并带有结构化上下文)
BASIC_MEMORY_CLOUD_MODE=true uvicorn basic_memory.api.app:app

开发

运行测试

Basic Memory 支持双数据库后端(SQLite 和 Postgres)。默认情况下,测试会在 SQLite 上运行。设置 BASIC_MEMORY_TEST_POSTGRES=1 可以在 Postgres 上运行测试(使用 testcontainers - 需要 Docker)。

快速入门:

# 在 SQLite 上运行所有测试(默认,速度快)
just test-sqlite

# 在 Postgres 上运行所有测试(使用 testcontainers)
just test-postgres

# 同时运行 SQLite 和 Postgres 测试
just test

可用的测试命令:

  • just test - 在 SQLite 和 Postgres 上运行所有测试
  • just test-sqlite - 在 SQLite 上运行所有测试(速度快,无需 Docker)
  • just test-postgres - 在 Postgres 上运行所有测试(使用 testcontainers)
  • just test-unit-sqlite - 在 SQLite 上运行单元测试
  • just test-unit-postgres - 在 Postgres 上运行单元测试
  • just test-int-sqlite - 在 SQLite 上运行集成测试
  • just test-int-postgres - 在 Postgres 上运行集成测试
  • just test-windows - 运行 Windows 特定的测试(在其他平台上自动跳过)
  • just test-benchmark - 运行性能基准测试
  • just testmon - 运行受最近更改影响的测试(pytest-testmon)
  • just test-smoke - 运行快速的 MCP 端到端冒烟测试
  • just fast-check - 运行修复/格式化/类型检查 + 受影响测试 + 冒烟测试
  • just doctor - 使用临时配置运行本地文件与数据库一致性检查

Postgres 测试:

Postgres 测试使用 testcontainers,它会在 Docker 中自动启动一个 Postgres 实例。无需手动设置数据库,只需确保 Docker 正在运行即可。

Testmon 注意事项: 如果没有文件发生变化,just testmon 可能会收集到 0 个测试。这是正常的,意味着未检测到受影响的测试。

测试标记:

测试使用 pytest 标记进行选择性执行:

  • windows - Windows 特定的数据库优化
  • benchmark - 性能测试(默认运行中排除)
  • smoke - 快速的 MCP 端到端冒烟测试

其他开发命令:

just install          # 安装包含开发依赖项
just lint             # 运行代码风格检查
just typecheck        # 运行类型检查
just typecheck-ty     # 运行 ty 类型检查(作为 pyright 的增量补充)
just format           # 使用 ruff 格式化代码
just fast-check       # 快速本地循环(修复/格式化/类型检查 + testmon + 冒烟测试)
just doctor           # 本地一致性检查(使用临时配置)
just check            # 运行所有质量检查
just migration "msg"  # 创建数据库迁移

类型检查策略:

  • just typecheck(Pyright)仍然是主要的、阻塞式的类型检查工具。
  • just typecheck-ty(Astral ty)作为补充检查工具,在逐步采用规则的过程中可用。
  • 建议在本地同时运行两者,同时随着时间推移减少 ty 的诊断信息。

本地一致性检查:

basic-memory doctor   # 在临时项目中验证文件与数据库的同步情况

完整的开发命令列表请参阅 justfile

许可证

AGPL-3.0

欢迎贡献。有关如何在本地设置项目以及提交 PR 的信息,请参阅 贡献指南

星标历史

星标历史图表

Basic Machines 用心打造

版本历史

v0.20.32026/03/27
v0.20.22026/03/11
v0.20.12026/03/11
v0.20.02026/03/11
v0.19.22026/03/10
v0.19.12026/03/08
v0.19.02026/03/07
v0.18.52026/02/20
v0.18.42026/02/12
v0.18.22026/02/12
v0.18.12026/02/11
v0.18.02026/01/30
v0.17.92026/01/24
v0.17.82026/01/24
v0.17.72026/01/19
v0.17.62026/01/17
v0.17.52026/01/11
v0.17.42026/01/06
v0.17.32026/01/03
v0.17.22025/12/29

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架