Backlog.md
Backlog.md 是一款专为 Git 生态系统设计的轻量级项目管理工具,旨在优化人类开发者与 AI 智能体之间的协作流程。它将传统的任务看板转化为纯 Markdown 文件,直接存储在代码仓库中,无需依赖任何外部服务器或复杂的配置即可运行。
在 AI 辅助编程日益普及的今天,开发者常面临任务上下文丢失、AI 输出不可控以及项目状态不同步等痛点。Backlog.md 通过“规范驱动开发”的理念解决了这些问题。它允许用户以结构化的 Markdown 文档定义任务、验收标准和实施计划,确保 AI 智能体(如 Claude Code、Gemini CLI 等)能够准确理解需求并交付可预测的代码结果。这种“单一事实来源”的设计,使得任务管理与代码版本控制完美融合,既保证了数据的 100% 隐私与离线可用性,又实现了跨平台的无缝同步。
Backlog.md 特别适合热衷于使用 AI 编程助手的软件开发者、技术团队负责人以及开源项目维护者。它不仅提供命令行下的即时看板视图和现代化的 Web 管理界面,还支持模糊搜索、任务导出及灵活的查询命令。其独特的技术亮点在于原生支持 MCP(模型上下文协议)和 CLI 集成,能够自动为 AI 助手生成工作流指令,让 AI 真正“读懂”项目 backlog。如果你希望在不引入重型项目管理软件的前提下,实现高效、透明且对 AI 友好的开发协作,Backlog.md 是一个简洁而强大的选择。
使用场景
资深全栈开发者 Alex 正在独立开发一个基于 Next.js 的 SaaS 仪表盘,他计划利用 Claude Code 等 AI 编程助手加速功能迭代,但需要确保代码质量与架构的一致性。
没有 Backlog.md 时
- 任务上下文碎片化:需求分散在聊天窗口、便签或口头记忆中,AI 经常因缺乏完整背景而“幻觉”出错误的实现方案,导致反复修正。
- 协作状态不透明:无法直观追踪哪些功能已完成、哪些待办,每次开启新的 AI 会话都要重新粘贴大量代码和背景信息,极易超出上下文窗口限制。
- 验收标准模糊:AI 生成的代码往往只满足表面功能,缺少统一的“完成定义”(Definition of Done),导致测试覆盖率低或边缘情况被忽略。
- 历史记录难追溯:决策过程和任务变更散落在漫长的对话日志中,后期复盘或排查 Bug 时难以定位当初的设计意图。
使用 Backlog.md 后
- 结构化任务驱动:Alex 通过
backlog init初始化项目,将大需求拆解为独立的.md任务文件。AI 代理直接读取 Markdown 中的详细描述和验收标准,确保每次输出都精准对齐需求。 - 可视化进度管理:运行
backlog board即可在终端看到实时看板,清晰区分 To-Do、In Progress 和 Done 状态。每个任务独立对应一次 Git 提交,上下文隔离完美,避免信息过载。 - 标准化交付质量:利用内置的“完成定义”模板,AI 在编码前会自动生成实施计划并等待确认,确保包含单元测试和文档更新,显著提升代码健壮性。
- 本地化知识沉淀:所有任务、决策和搜索记录均存储在 Git 仓库中,支持离线模糊搜索。Alex 可随时回溯历史决策,形成可维护的项目知识库。
Backlog.md 通过将非结构化的 AI 对话转化为 Git 原生的结构化工作流,让开发者在享受 AI 高效编码的同时,牢牢掌握项目的控制权与可维护性。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
Backlog.md
原生支持 Markdown 的任务管理器与看板可视化工具,适用于任何 Git 仓库
npm i -g backlog.md 或 bun add -g backlog.md 或 brew install backlog-md 或 nix run github:MrLesk/Backlog.md

Backlog.md 可以将任意包含 Git 仓库的文件夹转换为一个自包含的项目看板, 完全基于纯 Markdown 文件和零配置的命令行工具。专为规范驱动的 AI 开发而设计——通过结构化任务,让 AI 助手交付可预测的结果。
特性
📝 原生 Markdown 任务 -- 将每个问题都以普通的
.md文件形式进行管理🤖 AI 就绪 -- 兼容 Claude Code、Gemini CLI、Codex、Kiro 以及其他任何符合 MCP 或 CLI 标准的 AI 助手
📊 即时终端看板 --
backlog board命令可在你的终端中实时绘制出看板视图🌐 现代化 Web 界面 --
backlog browser命令会启动一个简洁美观的 Web UI,用于可视化任务管理🔍 强大的搜索功能 -- 使用
backlog search命令可在任务、文档和决策中进行模糊搜索📋 丰富的查询命令 -- 轻松查看、列出、筛选或归档任务
✅ 完成标准默认设置 -- 为每个新任务添加可复用的检查清单
📤 看板导出 --
backlog board export命令可以生成可分享的 Markdown 报告🔒 100% 私密且离线 -- Backlog 的所有数据完全存储在你的仓库内,你可以完全在本地管理一切
💻 跨平台 -- 支持 macOS、Linux 和 Windows
🆓 MIT 许可且开源 -- 个人及商业用途均可免费使用
入门指南
# 安装
bun i -g backlog.md
# 或:npm i -g backlog.md
# 或:brew install backlog-md
# 在任意 Git 仓库中初始化
backlog init "我的超棒项目"
初始化向导会询问你希望如何连接 AI 工具:
- MCP 连接器(推荐)— 自动配置 Claude Code、Codex、Gemini CLI、Kiro 或 Cursor,并为你的助手添加工作流说明。
- CLI 命令 — 创建指令文件(CLAUDE.md、AGENTS.md 等),以便助手通过 CLI 使用 Backlog。
- 跳过 — 不进行 AI 设置;仅将 Backlog.md 作为纯粹的任务管理工具使用。
Backlog 的数据会存储在项目本地的 backlog/、.backlog/ 文件夹中,或者通过 backlog.config.yml 配置的自定义相对路径。任务始终是人类可读的 Markdown 文件(例如 task-10 - 添加核心搜索功能.md)。
与 AI 助手协作
这是针对 Claude Code、Codex、Gemini CLI、Kiro 等工具推荐的工作流程——遵循规范驱动的 AI 开发方法。运行 backlog init 并选择 MCP 或 CLI 集成后,按照以下循环操作:
步骤 1 — 描述你的想法。 向助手说明你想构建什么,并请它将工作拆分为多个小任务,每个任务都应有清晰的描述和验收标准。
🤖 请求你的 AI 助手:
我想在网页视图中添加一个搜索功能,能够搜索任务、文档和决策。请将其分解为若干个 Backlog.md 任务。
[!NOTE] 审查检查点 #1 — 阅读任务描述和验收标准。
步骤 2 — 每次处理一个任务。 每次与助手对话只处理一个任务,每个任务对应一个 Pull Request。良好的任务拆分意味着每次对话都可以独立完成,不会产生冲突。确保每个任务足够小,能够在一次对话中完成。这样可以避免上下文窗口不足的问题。
步骤 3 — 编写计划再编码。 请助手研究并编写任务的实现计划。务必在实施之前执行此步骤,以确保计划反映当前代码库的状态。
🤖 请求你的 AI 助手:
请只处理 BACK-10 任务。研究代码库并在任务中写下实现计划。等待我的批准后再开始编码。
[!NOTE] 审查检查点 #2 — 阅读计划。这个方案是否合理?批准它,或者要求助手修改。
步骤 4 — 实现并验证。 让助手完成任务的实现。
[!NOTE] 审查检查点 #3 — 审查代码,运行测试,检查代码风格,并确认结果符合预期。
如果输出不够理想:清除计划、笔记和最终总结,重新细化任务描述和验收标准,然后在新的对话中再次执行该任务。
不使用 AI 助手时的操作
将 Backlog.md 作为独立的任务管理工具,通过终端或浏览器进行操作。
# 创建和优化任务
backlog task create "将 Markdown 渲染为看板"
backlog task edit BACK-1 -d "详细背景信息" --ac "明确的验收标准"
# 跟踪工作
backlog task list -s "待办"
backlog search "看板"
backlog board
# 在浏览器中进行可视化操作
backlog browser
你可以随时在 AI 辅助和手动工作流之间切换——两者都基于相同的 Markdown 任务文件。建议通过 Backlog.md 提供的命令行工具(CLI/MCP/Web)来修改任务,而不是直接编辑任务文件,这样可以保持字段类型和元数据的一致性。
Web 界面
启动一个现代化、响应式的 Web 界面,用于可视化任务管理:
# 启动 Web 服务器(自动打开浏览器)
backlog browser
# 自定义端口
backlog browser --port 8080
# 不自动打开浏览器
backlog browser --no-open
功能:
- 带拖拽功能的交互式看板
- 丰富的表单用于创建和编辑任务
- 带检查清单的交互式验收标准编辑器
- 所有视图实时更新
- 适配桌面和移动设备的响应式设计
- 带确认对话框的任务归档功能
- 与命令行无缝集成——所有更改都会同步到 Markdown 文件中

🔧 MCP 集成(模型上下文协议)
将 Backlog.md 与 Claude Code、Codex、Gemini CLI 和 Kiro 等 AI 编码助手连接的最简单方式是通过 MCP 协议。你可以运行 backlog init(即使你已经初始化过 Backlog.md)来自动设置 MCP 集成,或者按照下面的手动步骤操作。
客户端指南
Claude Code
claude mcp add backlog --scope user -- backlog mcp start
Codex
codex mcp add backlog backlog mcp start
Gemini CLI
gemini mcp add backlog -s user backlog mcp start
Kiro
kiro-cli mcp add --scope global --name backlog --command backlog --args mcp,start
在所有地方都使用共享的 backlog 服务器名称——MCP 服务器会自动检测当前目录是否已初始化,并在需要时回退到 backlog://init-required。
手动配置
{
"mcpServers": {
"backlog": {
"command": "backlog",
"args": ["mcp", "start"],
"env": {
"BACKLOG_CWD": "/absolute/path/to/your/project"
}
}
}
}
如果您的 IDE 无法为 MCP 服务器设置进程工作目录,请按照上述方式设置 BACKLOG_CWD。如果您的 IDE 支持自定义参数但不支持环境变量,您也可以使用 ["mcp", "start", "--cwd", "/absolute/path/to/your/project"]。
[!重要] 手动添加 MCP 服务器时,应在 CLAUDE.md/AGENTS.md 文件中添加一些额外的说明,以告知代理关于 Backlog.md 的信息。 使用
backlog init时不需要此步骤,因为它会自动添加这些说明。 Backlog.md 中关于代理的说明可在/src/guidelines/mcp/agent-nudge.md找到。
连接成功后,代理可以通过资源 backlog://docs/task-workflow 阅读 Backlog.md 工作流说明。
请在您的 AI 工具(Claude Code、Codex、Kiro)中使用 /mcp 命令来验证连接是否正常工作。
CLI 参考
完整的命令参考——任务管理、搜索、看板、文档、决策等:CLI-INSTRUCTIONS.md
快速示例:backlog task create、backlog task list、backlog task edit、backlog search、backlog board、backlog browser。
完整帮助:backlog --help
配置
Backlog.md 合并了以下几层配置(从高到低):
- CLI 标志
- 项目配置文件:
- 如果存在
backlog.config.yml,则优先使用 - 否则使用
backlog/config.yml或.backlog/config.yml
- 如果存在
- 内置默认值
交互式向导(backlog config)
运行 backlog config 而不带任何参数即可启动完整的交互式向导。这与您在选择高级设置时通过 backlog init 触发的体验相同,它将引导您完成整个配置流程:
- 跨分支准确性:
checkActiveBranches、remoteOperations和activeBranchDays。 - Git 工作流:
autoCommit和bypassGitHooks。 - ID 格式化:启用或调整
zeroPaddedIds的长度。 - 编辑器集成:选择一个带有可用性检查的
defaultEditor。 - 完成标准默认值:以交互方式添加/删除/重新排序/清空项目级别的
definition_of_done检查清单项。 - Web UI 默认值:选择
defaultPort以及是否应自动打开浏览器。
如果您跳过向导(在初始化过程中回答“否”),则会应用 Backlog.md 自带的安全默认值:
checkActiveBranches=true、remoteOperations=true、activeBranchDays=30。autoCommit=false、bypassGitHooks=false。zeroPaddedIds已禁用。defaultEditor未设置(将回退到您的环境)。defaultPort=6420、autoOpenBrowser=true。
无论何时您再次访问 backlog init 或重新运行 backlog config,向导都会预先填充您当前的值,以便您只需调整已更改的部分。
完成标准默认值
您可以通过 backlog config(或在 backlog init 的高级设置中)、Web UI(设置 → 完成标准默认值)或直接编辑项目配置文件来设置项目范围内的 DoD 项目:
definition_of_done:
- 测试通过
- 文档已更新
- 未引入回归
当项目使用根目录配置发现功能时,请编辑 backlog.config.yml 而不是 backlog/config.yml。
这些项目默认会添加到每个新任务中。您可以在创建任务时使用 --dod 添加更多项目,或使用 --no-dod-defaults 禁用默认项目。
有关完整配置参考(所有选项、命令及详细说明),请参阅 ADVANCED-CONFIG.md。
许可证
Backlog.md 采用 MIT 许可证 发布——您可以自由使用,但需注明出处。详情请参阅 LICENSE。
版本历史
v1.44.02026/03/21v1.43.02026/03/21v1.42.02026/03/15v1.41.02026/03/15v1.40.02026/03/02v1.39.22026/02/22v1.39.12026/02/22v1.39.02026/02/21v1.38.12026/02/21v1.38.02026/02/20v1.37.02026/02/20v1.36.02026/02/17v1.35.72026/02/11v1.35.62026/02/09v1.35.52026/02/09v1.35.42026/01/23v1.35.32026/01/22v1.35.22026/01/21v1.35.12026/01/21v1.35.02026/01/19常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
OpenHands
OpenHands 是一个专注于 AI 驱动开发的开源平台,旨在让智能体(Agent)像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点,通过自动化流程显著提升开发速度。 无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员,还是需要快速原型验证的技术团队,都能从中受益。OpenHands 提供了灵活多样的使用方式:既可以通过命令行(CLI)或本地图形界面在个人电脑上轻松上手,体验类似 Devin 的流畅交互;也能利用其强大的 Python SDK 自定义智能体逻辑,甚至在云端大规模部署上千个智能体并行工作。 其核心技术亮点在于模块化的软件智能体 SDK,这不仅构成了平台的引擎,还支持高度可组合的开发模式。此外,OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩,证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能,支持与 Slack、Jira 等工具集成,并提供细粒度的权限管理,适合从个人开发者到大型企业的各类用户场景。