inspector
MCPJam Inspector 是一款专为 MCP(Model Context Protocol)生态打造的开发平台,旨在帮助开发者高效地调试、聊天、检查和评估 MCP 服务器、应用及 ChatGPT 应用。它解决了传统开发中依赖 ngrok 内网穿透或付费订阅大模型服务才能进行测试的痛点,让本地和远程服务的迭代更加流畅。
这款工具非常适合正在构建或维护 MCP 服务的开发者使用。通过 Inspector,用户可以直观地查看每一条 JSON-RPC 消息和 OAuth 认证流程的详细追踪,无需猜测即可定位问题。其内置的聊天功能允许直接与任意大模型对话,并实时透视工具调用和上下文传递过程。此外,它还支持跨多个模型运行自动化评估(Evals),帮助团队尽早发现性能回退。
技术亮点在于其灵活的使用方式:既可以直接在浏览器中使用托管版网页应用,也能通过命令行或桌面客户端连接本地 STDIO 服务,甚至能集成到 CI/CD 流水线中进行自动化测试。无论是单人开发还是团队协作,MCPJam Inspector 都能提供从手动调试到自动化验证的全链路支持,是提升 MCP 项目开发效率的得力助手。
使用场景
某后端工程师正在开发一个连接企业内部数据库的 MCP 服务器,需要确保 AI 助手能准确调用工具查询数据并安全地完成 OAuth 认证。
没有 inspector 时
- 调试 JSON-RPC 消息如同“盲人摸象”,只能依靠稀疏的终端日志猜测请求为何失败,定位问题耗时极长。
- 测试 OAuth 流程必须反复在浏览器与代码间切换,一旦令牌过期或配置错误,很难直观看到具体的交换细节。
- 验证工具在不同大模型下的表现缺乏统一界面,每次更换模型都要重新编写测试脚本,难以快速对比结果差异。
- 团队协作时,无法直接分享实时的服务器状态链接,只能通过截图或口述传达复杂的上下文环境。
- 缺乏自动化评估手段,代码提交后若出现功能回退(Regression),往往要等到用户反馈才能察觉。
使用 inspector 后
- 通过全链路追踪面板,工程师能实时查看每一条 JSON-RPC 消息和完整的调用堆栈,瞬间锁定参数格式错误。
- 内置的 OAuth 调试器可视化展示了整个认证握手过程,任何一步的失败原因都清晰可见,配置效率提升数倍。
- 在统一的聊天界面中即可切换不同 LLM 进行测试,直接观察工具调用轨迹和上下文变化,无需编写额外代码。
- 生成可共享的 Web 链接发给团队成员,对方打开浏览器即可同步 inspect 当前的服务器状态和工具列表,协作无缝衔接。
- 利用内置的评估(Evals)功能设置自动化测试,每次 PR 提交自动运行多模型准确率检查,提前拦截潜在回归。
inspector 将原本碎片化、黑盒化的 MCP 开发流程转变为透明、可视且可自动化的闭环,极大缩短了从编码到稳定上线的周期。
运行环境要求
- macOS
- Windows
- Linux
未说明
未说明

快速开始
MCPJam 是用于 MCP 服务器、MCP 应用以及 ChatGPT 应用的开发平台。
- 调试:跨主机配置全面追踪,检查每一条 JSON-RPC 消息和 OAuth 交换。
- 聊天:与任意 LLM 对话,同时在代理、宿主应用和您的服务器之间全程跟踪工具调用及上下文信息。
- 检查:在一个地方探索您服务器的工具、资源和提示。
- 评估:在多个 LLM 上运行评估,并随时间跟踪准确率,以便尽早发现回归问题。
- CLI:直接从终端探测服务器、执行诊断检查、测试 OAuth 流程,并列出工具/资源/提示。
- SDK:以编程方式驱动检查、快照服务器能力,并在您自己的测试中断言工具/资源的结构。
- CI/CD:将 CLI 和 SDK 集成到 GitHub Actions(或任何流水线)中,以便在每次 PR 提交时运行端到端测试、评估、OAuth 检查以及规范符合性验证。
不再需要 ngrok 或 ChatGPT/Claude 订阅。MCPJam 是迭代任何 MCP 项目最快的方式。
🚀 快速入门
打开托管的 Web 应用程序,无需安装。
或者在本地运行 MCPJam,适用于 HTTP/S 和本地 STDIO 服务器:
npx @mcpjam/inspector@latest
目录
安装指南
MCPJam Inspector 可通过三种方式运行:托管 Web 应用、适用于 Mac 和 Windows 的桌面应用,或通过您的终端。Web 应用仅支持 HTTPS,无需安装。终端和桌面应用则支持 HTTP/S 和本地 STDIO 服务器。
系统要求
仅终端安装(npx)需要 Node.js 20 或更高版本。而托管 Web 应用和桌面应用则无需本地运行时环境。
托管 Web 应用
在浏览器中打开 app.mcpjam.com 即可使用。无需安装,始终为最新版本,您可以像分享 Google 文档一样与团队成员共享 MCP 服务器链接。
- 仅支持 HTTPS 的 MCP 服务器 URL(对于 HTTP 或本地 STDIO 服务器,请使用桌面版或终端版)。
- 不支持 STDIO、隧道、技能或任务等功能,这些功能需要本地检查器。
详细信息请参阅 托管应用文档。
大众桌面应用
下载适合您操作系统的安装程序。支持 HTTP/S 和本地 STDIO 服务器,无需 Node.js。
终端版
通过 npx 运行检查器(支持 HTTP/S 和本地 STDIO):
npx @mcpjam/inspector@latest
启动后,在浏览器中打开打印出的 localhost URL。
Docker 版
使用 Docker 运行 MCPJam Inspector,并将其绑定到 localhost 以确保安全:
docker run -p 127.0.0.1:6274:6274 mcpjam/mcp-inspector
应用程序可在 http://127.0.0.1:6274 访问。务必使用 -p 127.0.0.1:6274:6274(而非 -p 6274:6274),以确保检查器仅限于本地访问。在 macOS/Windows 上,连接到主机 MCP 服务器时,请使用 http://host.docker.internal:PORT 而不是 127.0.0.1。
核心功能
| 功能 | 描述 |
|---|---|
| 应用构建器 | 使用工具调用或面板内聊天,结合“聊天”、“追踪”和“原始”视图,针对模型调试您的服务器。支持 OpenAI Apps SDK 和 MCP 应用 UI、文本工具以及 Chrome DevTools 风格的小部件模拟器。了解更多 |
| 聊天 | 在前沿模型上进行多服务器聊天(免费)。提供“聊天”、“追踪”、“原始”视图;可同时比较最多 3 个模型。了解更多 |
| OAuth 调试器 | 引导式 MCP OAuth 兼容性检查:协议版本 03-26、06-18、11-25;DCR、客户端预注册、CIMD。了解更多 |
| MCP 服务器调试 | 手动运行工具、资源、模板和诱导流程;提供完整的 JSON-RPC 日志。 |
| 技能 | 在聊天和应用构建器中使用技能;仅限本地文件系统。了解更多 |
| 工作空间 | 共享服务器组,支持团队实时同步。了解更多 |
| 评估 | 包含预期工具调用的测试用例,在不同 LLM 上运行,并生成指标。了解更多 |
| CLI | 从终端运行 MCPJam 检查、探测和评估。非常适合本地开发循环和 CI 流程。了解更多 |
| SDK | 通过编程方式访问 MCPJam,用于自定义工具、脚本编写和集成。了解更多 |
| CI/CD | 在 GitHub Actions 及其他 CI 系统中运行 MCPJam 检查和评估,以阻止包含回归问题的 PR 合并。了解更多 |
应用构建器
使用工具调用或面板内聊天,结合“聊天”、“追踪”和“原始”视图,针对模型调试您的服务器。支持 OpenAI Apps SDK 和 MCP 应用 UI、文本工具以及 Chrome DevTools 风格的小部件模拟器,方便您在本地迭代小部件。
- 手动调用工具即可立即查看小部件,或使用 LLM 与您的服务器聊天。
- 在日志中查看所有 JSON-RPC 消息和
window.openai消息。 - 更改模拟器设备为桌面、平板或移动设备视图。
- 测试应用的区域设置变化、CSP 权限、浅色/深色模式、悬停与触控操作,以及安全区域边距。
追踪视图:每一条工具调用、代理步骤和 JSON-RPC 消息。
聊天
免费使用前沿模型进行多服务器聊天,或自行提供 API 密钥。提供“聊天”、“追踪”和“原始”视图;可并排比较最多 3 个模型。查看您的服务器的令牌使用情况。
OAuth 调试器
提供逐步解释的引导式 MCP OAuth 兼容性检查。可针对 OAuth 规范的各个版本(03-26、06-18 和 11-25)进行测试。支持客户端预注册、动态客户端注册 (DCR) 和客户端 ID 元数据文档 (CIMD)。
MCP 服务器调试
MCPJam 包含测试您的 MCP 服务器所需的所有工具。您可以手动运行工具、资源、资源模板、提示词和诱导流程,并获得完整的 JSON-RPC 可观测性。MCPJam 拥有原始检查器的所有功能,并在此基础上进行了扩展。
技能
在聊天和应用构建器中使用技能,以本地、可重用的行为扩展模型。仅限本地文件系统。您的数据绝不会离开您的机器。了解更多
工作空间
将您的服务器分组到共享的工作空间中,实现团队的实时同步,确保团队中的每个人都在相同的配置下进行测试。了解更多
评估
定义包含预期工具调用的测试用例,并在多个 LLM 上运行。随着时间的推移跟踪准确率指标,以便及早发现回归问题,并在每次迭代中改进您的服务器。了解更多
CLI
从终端运行 MCPJam,适用于快速的本地开发循环和 CI 集成。无需离开终端即可探测服务器、运行 OAuth 检查、检查工具和资源,并执行评估。了解更多
SDK
通过编程方式访问 MCPJam,用于自定义工具、脚本编写和集成。基于 MCPJam 的检查和评估原语构建您自己的工作流。了解更多
CI/CD
将 MCPJam 集成到 GitHub Actions、GitLab CI 或您选择的 CI 系统中,以便在每个 PR 上运行兼容性测试、端到端测试和评估。在 MCP 服务器出现回归问题之前将其拦截。了解更多
贡献 👨💻
我们非常感谢您考虑为 MCPJam 做出贡献。请阅读我们的贡献指南。
加入我们的Discord 社区,这里是贡献者们交流的地方。
链接 🔗
社区 🌍
致谢 📣
我们的一些合作伙伴和喜爱的框架:
- Stytch。我们最喜欢的 MCP OAuth 提供商。
- xMCP。TypeScript 版本的 MCP 框架。可在 Vercel 上即时部署。
- Alpic。托管 MCP 服务器。不妨试试他们新推出的用于 ChatGPT 应用的 Skybridge 框架!
许可证 📄
本项目采用 Apache 2.0 许可证 许可。请参阅 LICENSE 文件。
版本历史
v2.2.02026/04/13v2.1.02026/04/06v2.0.202026/04/01v2.0.192026/04/01v2.0.182026/03/24v2.0.172026/03/23v2.0.162026/03/23v2.0.152026/03/23v2.0.142026/03/22v2.0.132026/03/21v2.0.122026/03/21v2.0.112026/03/21v2.0.102026/03/20v2.0.92026/03/17v2.0.82026/03/17v2.0.72026/03/14v2.0.62026/03/14v2.0.52026/03/09v2.0.42026/03/03v2.0.32026/02/25常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器