next-devtools-mcp
next-devtools-mcp 是一款专为 Next.js 开发打造的智能辅助工具,它基于模型上下文协议(MCP)构建,旨在让 Claude、Cursor 等 AI 编程助手更深入地理解并操作 Next.js 项目。
在开发复杂的 Next.js 应用时,通用型 AI 往往难以精准掌握框架特有的路由规则、服务端渲染机制或目录结构,导致生成的代码需要大量人工修正。next-devtools-mcp 通过提供专用的开发工具集,填补了这一空白。它能将项目的上下文信息准确传递给 AI,使助手能够执行更精准的文件生成、配置调整及错误排查任务,从而显著提升开发效率与代码质量。
这款工具主要面向使用 Next.js 进行全栈或前端开发的程序员,特别是那些已经习惯借助 AI 编辑器(如 Cursor、VS Code Copilot)或终端助手(如 Claude Code)来提升工作流的开发者。其核心亮点在于广泛的兼容性,支持一键集成到主流 AI 开发环境中,无论是通过命令行快速安装,还是手动配置 JSON,都能轻松启用。只需简单的设置,即可让现有的 AI 助手瞬间变身成为精通 Next.js 的专家伙伴,让编码过程更加流畅自然。
使用场景
资深前端工程师正在使用 Cursor 或 Claude Code 重构一个遗留的 Next.js 电商项目,需要快速理解复杂的路由结构并修复页面渲染错误。
没有 next-devtools-mcp 时
- 开发者必须手动翻阅
app/或pages/目录下的数十个文件,才能拼凑出完整的路由层级和动态参数定义。 - 排查“白屏”或数据加载失败问题时,只能依靠在终端反复重启服务并肉眼扫描日志,效率极低且容易遗漏关键报错。
- 询问 AI 助手关于特定路由的配置时,由于缺乏实时上下文,AI 常基于通用知识产生幻觉,给出不符合当前项目结构的错误代码。
- 修改环境变量或中间件逻辑后,无法即时验证对特定路由的影响,需频繁进行手动浏览器测试,打断心流。
使用 next-devtools-mcp 后
- next-devtools-mcp 直接让 AI 读取项目实时的路由清单与元数据,开发者只需一句指令即可获取精确的文件路径和参数结构。
- 遇到渲染错误时,AI 能通过工具自动分析构建输出和运行时状态,直接定位到具体的组件或 API 调用失败原因。
- 基于 next-devtools-mcp 提供的真实上下文,AI 生成的修复代码能完美匹配当前项目的路由约定和中间件配置,无需二次调整。
- 开发者可要求 AI 模拟特定路由的请求场景,即时反馈配置变更后的预期行为,将验证过程从分钟级缩短至秒级。
next-devtools-mcp 通过将 Next.js 的内部开发状态转化为 AI 可理解的上下文,彻底消除了人工查错与上下文对齐的摩擦,让编码代理真正成为懂项目的结对伙伴。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
Next.js 开发工具 MCP
next-devtools-mcp 是一个模型上下文协议 (MCP) 服务器,为 Claude 和 Cursor 等编码助手提供 Next.js 开发工具和实用程序。
快速入门
要求
使用 add-mcp 安装
为所有编码助手安装 MCP 服务器:
npx add-mcp next-devtools-mcp@latest
添加 -y 可跳过确认提示,并将该服务器安装到项目目录中已检测到的所有助手上。添加 -g 可以全局安装到所有项目中。
手动安装
将以下配置添加到您的 MCP 客户端:
{
"mcpServers": {
"next-devtools": {
"command": "npx",
"args": ["-y", "next-devtools-mcp@latest"]
}
}
}
[!NOTE] 使用
next-devtools-mcp@latest可确保您的 MCP 客户端始终使用最新版本的 Next.js 开发工具 MCP 服务器。
MCP 客户端配置
Amp
使用 Amp CLI:
amp mcp add next-devtools -- npx next-devtools-mcp@latest
或手动配置:
请参考 Amp 的 MCP 文档,并应用上述标准配置。
Claude Code
使用 Claude Code CLI 添加 Next.js 开发工具 MCP 服务器:
claude mcp add next-devtools npx next-devtools-mcp@latest
或者,您也可以手动编辑 MCP 设置文件,添加上述配置。
Codex
使用 Codex CLI:
codex mcp add next-devtools -- npx next-devtools-mcp@latest
或手动配置:
按照 MCP 设置指南,使用标准配置格式:
- 命令:
npx - 参数:
-y, next-devtools-mcp@latest
Windows 11 特殊配置:
更新 .codex/config.toml 文件,添加环境变量并增加启动超时时间:
env = { SystemRoot="C:\\Windows", PROGRAMFILES="C:\\Program Files" }
startup_timeout_ms = 20_000
Gemini
使用 Gemini CLI:
项目范围安装:
gemini mcp add next-devtools npx next-devtools-mcp@latest
全局安装:
gemini mcp add -s user next-devtools npx next-devtools-mcp@latest
或手动配置:
按照 MCP 设置指南,使用以下参数:
- 命令:
npx - 参数:
-y, next-devtools-mcp@latest
Google Antigravity
在 MCP 配置文件中配置:
将以下内容添加到您的 Antigravity MCP 配置文件:.gemini/antigravity/mcp_config.json
{
"mcpServers": {
"next-devtools": {
"command": "npx",
"args": ["-y", "next-devtools-mcp@latest"]
}
}
}
更多信息请参阅 Antigravity MCP 文档。
VS Code / Copilot
使用 VS Code CLI:
code --add-mcp '{"name":"next-devtools","command":"npx","args":["-y","next-devtools-mcp@latest"]}'
或手动配置:
按照官方 VS Code MCP 服务器设置指南,在 VS Code 设置中添加 Next.js 开发工具服务器。
Warp
使用 Warp UI:
导航至 设置 | AI | 管理 MCP 服务器,选择 + 添加,使用以下配置注册新的 MCP 服务器:
- 名称:
next-devtools - 命令:
npx - 参数:
-y, next-devtools-mcp@latest
快速开始
对于 Next.js 16+ 项目(推荐)
要充分发挥运行时诊断功能,请启动您的 Next.js 开发服务器:
npm run dev
Next.js 16+ 默认启用了 MCP,地址为 http://localhost:3000/_next/mcp(或您的开发服务器使用的其他端口)。next-devtools-mcp 服务器会自动发现并连接到它。
⚠️ 重要提示:每次启动 Next.js 会话时,请先调用 init 工具以设置正确的上下文:
使用 init 工具设置 Next.js 开发工具上下文
这将初始化 MCP 上下文,确保 AI 助手在所有查询中都使用官方 Next.js 文档。
初始化完成后,您可以尝试以下提示来探索运行时诊断功能:
Next Devtools,我的 Next.js 应用程序中有哪些错误?
Next Devtools,展示我的路由结构
Next Devtools,开发服务器日志中有什么内容?
您的编码助手将使用 nextjs_index 和 nextjs_call 工具查询您正在运行的应用程序的实际状态。
对于所有 Next.js 项目
无论 Next.js 版本如何,您都可以使用开发自动化和文档工具:
Next Devtools,帮我将我的 Next.js 应用升级到 16 版
Next Devtools,启用我 Next.js 应用中的缓存组件
Next Devtools,搜索 Next.js 文档中的 generateMetadata
💡 专业提示:在每个会话中自动初始化
为了让您的 AI 助手在每次 Next.js 会话开始时无需提示即可自动调用 init 工具,请将以下指令添加到您的代理配置文件中:
Claude Code / Claude Desktop
添加到 ~/.claude/CLAUDE.md(全局)或 ./.claude/CLAUDE.md(项目特定):
**在开始处理 Next.js 项目时,务必首先调用 next-devtools-mcp 中的 `init` 工具,以设置正确的上下文并确立文档优先的要求。此操作应自动执行,无需提示。**
Cursor
添加到项目根目录下的 .cursorrules 文件或 Cursor 的全局设置中:
在使用 Next.js 时,应在会话开始时始终调用 next-devtools-mcp 中的 init 工具,以建立适当的上下文和文档优先要求。
Codex / 其他 AI 编程助手
添加到您的代理配置文件中(例如 .codex/instructions.md、agent.md 或类似文件):
**Next.js 初始化**:当开始处理 Next.js 项目时,应首先自动调用 next-devtools-mcp 服务器中的 `init` 工具。这将建立正确的上下文,并确保所有 Next.js 相关查询都使用官方文档。
这样做有何意义:
- ✅ 确保在所有 Next.js 工作中保持一致的上下文
- ✅ 自动确立“文档优先”的要求
- ✅ 无需每次都手动调用 init
- ✅ 适用于您所有的 Next.js 项目
MCP 资源
知识库资源会自动提供给您的编程助手,并被划分为多个重点部分,以便高效管理上下文。当前资源 URI 如下:
📚 可用知识库资源(点击展开)
缓存组件(12 个部分):
cache-components://overviewcache-components://core-mechanicscache-components://public-cachescache-components://private-cachescache-components://runtime-prefetchingcache-components://request-apiscache-components://cache-invalidationcache-components://advanced-patternscache-components://build-behaviorcache-components://error-patternscache-components://test-patternscache-components://reference
Next.js 16 迁移:
nextjs16://migration/beta-to-stablenextjs16://migration/examples
Next.js 基础知识:
nextjs-fundamentals://use-client
这些资源由您的编程助手按需加载,提供有针对性的知识,而不会使上下文窗口过于拥挤。
MCP 提示语
预配置的提示语,用于帮助处理常见的 Next.js 开发任务:
💡 可用提示语(点击展开)
upgrade-nextjs-16- 升级到 Next.js 16 的指南enable-cache-components- 将 Next.js 16 迁移到缓存组件模式并启用该功能
MCP 工具
init
初始化 Next.js 开发工具 MCP 上下文,并确立文档优先的要求。
功能:
- 为使用 Next.js 的 AI 助手设置合适的上下文
- 确立在所有 Next.js 相关查询中必须使用
nextjs_docs的要求 - 记录所有可用的 MCP 工具及其使用场景
- 提供使用 MCP 进行 Next.js 开发的最佳实践
- 包含示例工作流程和快速入门检查清单
适用场景:
- 在 Next.js 开发会话开始时
- 了解可用工具并建立适当的上下文
- 确保采用文档优先的 Next.js 开发方法
输入:
project_path(可选)— Next.js 项目的路径(默认为当前目录)
输出:
- 完整的初始化上下文及使用 MCP 工具进行 Next.js 开发的指导信息
nextjs_docs
搜索并检索 Next.js 官方文档和知识库。
功能:
- 分两步进行:1) 根据关键词搜索文档路径,2) 根据路径获取完整的 Markdown 内容
- 使用官方 Next.js 文档搜索 API
- 提供对全面的 Next.js 指南、API 参考和最佳实践的访问
- 支持按路由器类型筛选(App Router、Pages Router 或两者)
输入:
action(必填)— 要执行的操作:search用于查找文档,get用于获取完整内容query(可选)— 必须用于search。关键词搜索查询(例如,“metadata”、“generateStaticParams”、“middleware”)path(可选)— 必须用于get。来自搜索结果的文档路径(例如,“/docs/app/api-reference/functions/refresh”)anchor(可选)— 可用于get。来自搜索结果的锚点或章节(例如,“usage”)routerType(可选)— 仅用于search。筛选条件:app、pages或all(默认为all)
输出:
- 包含文档标题、路径、内容摘要、章节和锚点的搜索结果
- 特定文档页面的完整 Markdown 内容
browser_eval
使用 Playwright 浏览器自动化工具来自动测试 Web 应用程序。
适用场景:
- 验证 Next.js 项目中的页面(尤其是在升级或测试期间)
- 测试用户交互和流程
- 截取屏幕截图以进行视觉验证
- 检测运行时错误、水合问题以及客户端问题
- 捕获浏览器控制台中的错误和警告信息
重要提示: 对于 Next.js 项目,应优先使用 nextjs_index 和 nextjs_call 工具,而不是通过浏览器控制台转发日志。只有在这些工具不可用时,才应将 browser_eval 的 console_messages 功能作为备用方案。
可用操作:
start— 启动浏览器自动化(如果需要会自动安装)navigate— 导航到指定 URLclick— 点击某个元素type— 在元素中输入文本fill_form— 一次性填写多个表单字段evaluate— 在浏览器上下文中执行 JavaScriptscreenshot— 截取页面的屏幕截图console_messages— 获取浏览器控制台消息close— 关闭浏览器drag— 执行拖放操作upload_file— 上传文件list_tools— 列出服务器上所有可用的浏览器自动化工具
输入:
action(必填)— 要执行的操作browser(可选)— 要使用的浏览器:chrome、firefox、webkit、msedge(默认为chrome)headless(可选)— 是否以无头模式运行浏览器(默认为true)- 操作特定的参数(详情请参阅工具描述)
输出:
- 包含操作结果、截图(Base64 编码)、控制台消息或错误信息的 JSON 数据
nextjs_index
发现所有正在运行的 Next.js 开发服务器,并列出它们可用的 MCP 工具。
此工具的作用:
自动发现您机器上所有正在运行的 Next.js 16+ 开发服务器,并列出每个服务器在 /_next/mcp 内置 MCP 端点上可用的运行时诊断工具。
无需参数 - 直接调用该工具即可扫描服务器。
可用的 Next.js 运行时工具(因 Next.js 版本而异):
get_errors- 获取当前构建、运行时和类型错误get_logs- 获取开发日志文件路径(浏览器控制台 + 服务器输出)get_page_metadata- 查询应用路由、页面和组件元数据get_project_metadata- 获取项目结构、配置和开发服务器 URLget_server_action_by_id- 根据 ID 查找服务器操作以定位源文件
要求:
- Next.js 16+(默认启用 MCP)
- 正在运行的开发服务器(
npm run dev)
输出:
- 包含已发现服务器列表的 JSON,每个服务器包含:
- 端口、PID、URL
- 可用工具及其描述和输入模式
示例提示:
- “Next Devtools,有哪些服务器正在运行?”
- “Next Devtools,给我看看可用的诊断工具”
nextjs_call
在正在运行的 Next.js 开发服务器上执行特定的 MCP 工具。
此工具的作用:
调用 Next.js 16+ 开发服务器内置 MCP 端点 /_next/mcp 上的特定运行时诊断工具。
输入参数:
port(必填)- 开发服务器端口(请先使用nextjs_index发现)toolName(必填)- 要调用的 Next.js 工具名称args(可选)- 该工具的参数对象(仅当该工具需要参数时)
要求:
- Next.js 16+(默认启用 MCP)
- 正在运行的开发服务器(
npm run dev) - 请先使用
nextjs_index发现可用的服务器和工具
典型工作流程:
// 第一步:发现服务器和工具
// (先调用 nextjs_index)
// 第二步:调用特定工具
{
"port": 3000,
"toolName": "get_errors"
// args 是可选的,只有当工具需要参数时才需要
}
输出:
- 包含工具执行结果的 JSON
使用此工具的示例提示:
- “Next Devtools,我的 Next.js 应用中有哪些错误?”
- “Next Devtools,给我看看我的应用路由”
- “Next Devtools,开发服务器日志里有什么?”
- “Next Devtools,找到 ID 为 xyz 的服务器操作”
upgrade_nextjs_16
指导将 Next.js 升级到版本 16,并自动执行代码转换。
功能:
- 自动运行官方 Next.js 代码转换(需要干净的 Git 状态)
- 处理异步 API 变更(params、searchParams、cookies、headers)
- 迁移配置更改
- 更新图像默认设置和优化
- 修复并行路由和动态段
- 处理已弃用 API 的移除
- 提供 React 19 兼容性指导
输入:
project_path(可选)- Next.js 项目的路径(默认为当前目录)
输出:
- 包含逐步升级指导的结构化 JSON
enable_cache_components
为 Next.js 16 完成缓存组件的设置、启用和迁移,并自动检测和修复错误。此工具用于将 Next.js 应用迁移到缓存组件模式。
功能:
- 预检检查(包管理器、Next.js 版本、配置)
- 启用缓存组件配置
- 启动启用 MCP 的开发服务器
- 自动验证路由并检测错误
- 自动修复错误,智能设置边界(Suspense、缓存指令、静态参数)
- 最终验证和构建测试
输入:
project_path(可选)- Next.js 项目的路径(默认为当前目录)
输出:
- 包含完整设置指导和分阶段说明的结构化 JSON
示例用法:
通过 Claude Code:
Next Devtools,帮我在我 Next.js 16 应用中启用缓存组件
通过其他代理或编程方式:
{
"tool": "enable_cache_components",
"args": {
"project_path": "/path/to/project"
}
}
隐私与遥测
收集的数据
next-devtools-mcp 会收集匿名使用遥测数据,以帮助改进该工具。收集以下数据:
- 工具使用情况:调用了哪些 MCP 工具(例如
nextjs_index、nextjs_call、browser_eval、upgrade_nextjs_16) - 错误事件:工具失败时的匿名错误信息
- 会话元数据:会话 ID、时间戳以及基本环境信息(操作系统、Node.js 版本)
不会收集的内容:
- 您的项目代码、文件内容或文件路径
- 个人信息或可识别数据
- API 密钥、凭据或其他敏感配置
- 传递给工具的参数(工具名称除外)
本地文件会写入 ~/.next-devtools-mcp/ 目录下(包含匿名的 telemetry-id、telemetry-salt 和调试日志 mcp.log)。事件会在后台发送到遥测端点,以帮助我们了解使用模式并提高可靠性。
选择退出
要完全禁用遥测,请设置环境变量:
export NEXT_TELEMETRY_DISABLED=1
将其添加到您的 shell 配置文件(如 ~/.bashrc、~/.zshrc)以使其永久生效。
您也可以随时删除本地遥测数据:
rm -rf ~/.next-devtools-mcp
故障排除
模块未找到错误
如果您遇到类似以下错误:
Error [ERR_MODULE_NOT_FOUND]: Cannot find module '...\next-devtools-mcp\dist\resources\(cache-components)\...'
解决方案: 清除 npx 缓存并重启您的 MCP 客户端(Cursor、Claude Code 等)。服务器将被重新安装。
“未找到服务器信息”错误
如果您看到 [error] No server info found:
解决方案:
- 确保您的 Next.js 开发服务器正在运行:
npm run dev - 如果您使用的是 Next.js 15 或更早版本,请使用
upgrade_nextjs_16工具升级到 Next.js 16+ - 验证您的开发服务器是否成功启动且没有错误
注意: nextjs_index 和 nextjs_call 工具需要 Next.js 16+ 并且开发服务器正在运行。其他工具(nextjs_docs、browser_eval、upgrade_nextjs_16、enable_cache_components)无需运行服务器即可使用。
本地开发
要在本地运行 MCP 服务器进行开发:
克隆仓库
安装依赖项:
pnpm install pnpm build配置您的 MCP 客户端以使用本地版本:
{ "mcpServers": { "next-devtools": { "command": "node", "args": ["/absolute/path/to/next-devtools-mcp/dist/index.js"] } } }注意:将
/absolute/path/to/next-devtools-mcp替换为您克隆仓库的实际绝对路径。或者手动添加,例如使用 codex:
codex mcp add next-devtools-local -- node dist/index.js
功能
该 MCP 服务器通过三种主要机制,为编码代理提供全面的 Next.js 开发能力:
1. 运行时诊断与实时状态访问(Next.js 16+)
直接连接到您正在运行的 Next.js 开发服务器内置的 MCP 端点,以查询:
- 实时构建和运行时错误
- 应用程序路由、页面和组件元数据
- 开发服务器日志和诊断信息
- Server Actions 和组件层级结构
2. 开发自动化
针对常见 Next.js 工作流的工具:
- 使用官方 codemod 自动完成 Next.js 16 升级
- 带有错误检测和自动修复功能的 Cache Components 迁移与设置
- 通过 Playwright 集成浏览器测试,实现视觉验证
3. 知识库与文档
- 精选的 Next.js 16 知识库(包含 12 个关于 Cache Components、异步 API 等主题的重点资源)
- 通过搜索 API 直接访问官方 Next.js 文档
- 预配置的提示,用于升级指导和 Cache Components 的启用
了解更多: 请参阅 Next.js MCP 文档,了解 MCP 服务器如何与 Next.js 及编码代理协同工作。
工作原理
本包提供一个 桥接 MCP 服务器,将您的编码代理与 Next.js 开发工具连接起来:
编码代理
↓
next-devtools-mcp(本包)
↓
├─→ Next.js 开发服务器 MCP 端点(/_next/mcp)← 运行时诊断
├─→ Playwright MCP 服务器 ← 浏览器自动化
└─→ 知识库与工具 ← 文档、升级、设置自动化
关键架构要点:
适用于 Next.js 16+ 项目:该服务器会自动发现并连接到您正在运行的 Next.js 开发服务器在
http://localhost:PORT/_next/mcp上的内置 MCP 端点。这使得编码代理可以直接访问运行时错误、路由、日志和应用状态。适用于所有 Next.js 项目:提供开发自动化工具(升级、Cache Components 设置)、文档访问以及独立于运行时连接的浏览器测试功能。
简单的工作流程:调用
nextjs_index查看所有服务器及可用工具,然后使用特定端口和所需工具名称调用nextjs_call来执行相应操作。
许可证
MIT 许可证
版本历史
v0.3.102026/01/08v0.3.82026/01/02v0.3.72025/12/12v0.3.62025/12/05v0.3.52025/11/25v0.3.42025/11/21v0.3.32025/11/13v0.3.22025/11/08v0.3.12025/11/06v0.3.02025/11/05v0.2.62025/11/04v0.2.52025/11/03v0.2.42025/11/03v0.2.32025/10/29v0.2.22025/10/28v0.2.02025/10/22常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备