mcp-jetbrains
mcp-jetbrains 是一个用于连接 JetBrains 系列 IDE(如 IntelliJ IDEA、PyCharm、WebStorm 和 Android Studio)的模型上下文协议(MCP)代理服务器。它允许外部 AI 工具(例如 VS Code 中的 MCP 客户端或 Claude Desktop)访问 JetBrains IDE 中的项目上下文信息,比如当前打开的文件、代码结构等,从而在其他环境中实现更智能的代码理解和辅助。
这个工具主要解决了跨开发环境共享代码上下文的问题,让非 JetBrains 用户也能利用其强大的代码索引能力与 AI 协同工作。适合使用 VS Code 或 Claude Desktop 但同时依赖 JetBrains IDE 进行开发的开发者,尤其是希望在不同编辑器间无缝衔接、提升 AI 编程体验的技术用户。
值得一提的是,mcp-jetbrains 通过代理方式桥接标准输入输出(STDIO)或 SSE 协议,使 JetBrains IDE 的内部数据能被外部安全调用。不过需要注意,该项目目前已弃用——自 2025.2 版本起,JetBrains 已将 MCP 功能直接集成到所有基于 IntelliJ 的 IDE 中,用户无需再单独安装此工具,只需参考官方文档启用内置支持即可。
使用场景
一位 Android 开发工程师在使用 Claude Desktop 辅助编码时,需要频繁参考当前在 Android Studio 中打开的项目上下文,例如查看某个 Activity 的实现或资源文件结构。
没有 mcp-jetbrains 时
- Claude 完全无法感知 Android Studio 中打开的项目内容,只能基于用户手动复制粘贴的代码片段进行回答。
- 工程师需在 IDE 和 Claude 之间反复切换,手动查找并粘贴相关类、方法或 XML 布局代码,效率低下。
- 当项目结构复杂时,Claude 因缺乏完整上下文,容易给出与实际工程不符的建议,甚至引入错误依赖。
- 无法直接让 AI 分析当前正在编辑的文件或引用的模块,限制了智能辅助的深度和准确性。
使用 mcp-jetbrains 后
- Claude Desktop 通过 mcp-jetbrains 自动连接到正在运行的 Android Studio,实时获取项目文件结构、当前打开的源码及资源。
- 工程师只需在 Claude 中提问“这个 Fragment 是如何初始化 ViewModel 的?”,AI 即可基于真实项目代码精准回答。
- 支持跨文件上下文理解,例如自动关联 Java/Kotlin 代码与对应的 layout XML,提升建议的相关性。
- 减少手动复制操作,开发专注度更高,AI 辅助真正融入编码工作流。
mcp-jetbrains 让 JetBrains 系 IDE 成为 AI 工具的“眼睛”,将本地项目上下文无缝注入外部智能助手,显著提升开发效率与准确性。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
⚠️ 已弃用
本仓库不再维护。 核心功能自 2025.2 版本起已集成到所有基于 IntelliJ 的 IDE 中。
内置功能支持 SSE(Server-Sent Events,服务器发送事件)和基于 JVM 的代理(用于 STDIO),因此不再需要此 NPM 包。
迁移指南: 有关如何使用内置功能的详细信息,请参阅 官方文档。
问题与支持: 如需报告内置 MCP(Model Context Protocol,模型上下文协议)功能相关的 Bug 或提出功能请求,请使用 JetBrains YouTrack。
JetBrains MCP 代理服务器
该服务器将客户端请求代理至 JetBrains IDE。
安装 MCP Server 插件
https://plugins.jetbrains.com/plugin/26071-mcp-server
VS Code 安装
如需一键安装,请点击下方任一安装按钮:
手动安装
将以下 JSON 块添加到 VS Code 的用户设置(JSON)文件中。可通过按下 Ctrl + Shift + P 并输入 Preferences: Open User Settings (JSON) 来打开该文件。
{
"mcp": {
"servers": {
"jetbrains": {
"command": "npx",
"args": ["-y", "@jetbrains/mcp-proxy"]
}
}
}
}
您也可以选择将其添加到工作区中的 .vscode/mcp.json 文件:
{
"servers": {
"jetbrains": {
"command": "npx",
"args": ["-y", "@jetbrains/mcp-proxy"]
}
}
}
与 Claude Desktop 配合使用
若要在 Claude Desktop 中使用,请将以下内容添加到您的 claude_desktop_config.json 文件中。
MacOS 上的完整路径为:~/Library/Application\ Support/Claude/claude_desktop_config.json,Windows 上为:%APPDATA%/Claude/claude_desktop_config.json。
{
"mcpServers": {
"jetbrains": {
"command": "npx",
"args": ["-y", "@jetbrains/mcp-proxy"]
}
}
}
安装 MCP Server 插件并将上述 JSON 添加到配置文件后,请重启 Claude Desktop,并确保在重启前已打开 JetBrains 产品。
配置
如果您运行了多个启用了 MCP 服务器的 IDE,并希望连接到特定的一个,请在 MCP 服务器配置中添加:
"env": {
"IDE_PORT": "<IDE 内置 Web 服务器的端口>"
}
默认情况下,我们会连接到 127.0.0.1 上的 IDE,但您也可以指定不同的地址/主机:
"env": {
"HOST": "<IDE 内置 Web 服务器的主机/地址>"
}
如需启用日志记录,请添加:
"env": {
"LOG_ENABLED": "true"
}
故障排除
Node.js 版本要求
问题: 出现错误信息:Cannot find module 'node:path'
解决方案:
MCP Proxy 不支持 Node 16。
请将您的 Node.js 升级至 18 或更高版本。确保配置中的 command 指向正确的 Node.js 版本。
建议尝试使用最新版 Node.js 的完整路径。
MacOS:插件无法检测通过 nvm 安装的 Node.js
问题: 在 MacOS 上,如果您通过 nvm(Node Version Manager)安装了 Node.js,MCP Server 插件可能无法检测到您的 Node.js 安装。
解决方案: 在 /usr/local/bin 中创建一个指向 nvm 的 npx 可执行文件的符号链接:
which npx &>/dev/null && sudo ln -sf "$(which npx)" /usr/local/bin/npx
该命令会检查 npx 是否存在于您的路径中,并以适当的权限创建所需的符号链接。
与外部客户端或 Docker 容器配合使用(LibreChat、Cline 等)
问题: 当尝试从外部客户端、Docker 容器或第三方应用程序(如 LibreChat)连接 JetBrains MCP 代理时,对类似 http://host.docker.internal:6365/api/mcp/list_tools 的端点的请求可能会返回 404 错误或连接失败。
解决方案: 需解决两个关键问题:
启用外部连接:
在 JetBrains IDE 中,进入 Settings | Build, Execution, Deployment | Debugger,勾选 “Can accept external connections”。使用局域网 IP 和端口进行配置:
使用您机器的局域网 IP 地址,而非host.docker.internal;
在配置中显式设置IDE_PORT和HOST。以下是 LibreChat 或类似外部客户端的示例配置:
mcpServers:
intellij:
type: stdio
command: sh
args:
- "-c"
- "IDE_PORT=YOUR_IDEA_PORT HOST=YOUR_IDEA_LAN_IP npx -y @jetbrains/mcp-proxy"
替换:
YOUR_IDEA_PORT为您 IDE 的调试端口(可在 IDE 设置中找到)YOUR_IDEA_LAN_IP为您计算机的本地网络 IP(例如 192.168.0.12)
如何构建
- 已在 macOS 上测试
brew install node pnpm- 运行
pnpm build构建项目
版本历史
dxt-v1.0.22025/07/01dxt-v1.0.12025/06/30dxt-v1.0.02025/06/30v1.9.02025/03/26v1.8.02025/01/16v1.7.02025/01/16v1.6.02025/01/09v1.5.02025/01/07v1.4.02024/12/23v1.3.02024/12/13v1.1.02024/12/11v1.0.102024/12/10v1.0.92024/12/10v1.0.82024/12/10v1.0.72024/12/10v1.0.62024/12/10v1.0.52024/12/10v1.0.42024/12/10v1.0.32024/12/10v1.0.22024/12/10常见问题
相似工具推荐
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
MoneyPrinterTurbo
MoneyPrinterTurbo 是一款利用 AI 大模型技术,帮助用户一键生成高清短视频的开源工具。只需输入一个视频主题或关键词,它就能全自动完成从文案创作、素材匹配、字幕合成到背景音乐搭配的全过程,最终输出完整的竖屏或横屏短视频。 这款工具主要解决了传统视频制作流程繁琐、门槛高以及素材版权复杂等痛点。无论是需要快速产出内容的自媒体创作者,还是希望尝试视频生成的普通用户,无需具备专业的剪辑技能或昂贵的硬件配置(普通电脑即可运行),都能轻松上手。同时,其清晰的 MVC 架构和对多种主流大模型(如 DeepSeek、Moonshot、通义千问等)的广泛支持,也使其成为开发者进行二次开发或技术研究的理想底座。 MoneyPrinterTurbo 的独特亮点在于其高度的灵活性与本地化友好性。它不仅支持中英文双语及多种语音合成,允许用户精细调整字幕样式和画面比例,还特别优化了国内网络环境下的模型接入方案,让用户无需依赖 VPN 即可使用高性能国产大模型。此外,工具提供批量生成模式,可一次性产出多个版本供用户择优,极大地提升了内容创作的效率与质量。
oh-my-openagent
oh-my-openagent(简称 omo)是一款强大的开源智能体编排框架,前身名为 oh-my-opencode。它致力于打破单一模型供应商的生态壁垒,解决开发者在构建 AI 应用时面临的“厂商锁定”难题。不同于仅依赖特定模型的封闭方案,omo 倡导开放市场理念,支持灵活调度多种主流大模型:利用 Claude、Kimi 或 GLM 进行任务编排,调用 GPT 处理复杂推理,借助 Minimax 提升响应速度,或发挥 Gemini 的创意优势。 这款工具特别适合希望摆脱平台限制、追求极致性能与成本平衡的开发者及研究人员使用。通过统一接口,用户可以轻松组合不同模型的长处,构建更高效、更具适应性的智能体系统。其独特的技术亮点在于“全模型兼容”架构,让用户不再受制于某一家公司的策略变动或定价调整,真正实现对前沿模型资源的自由驾驭。无论是构建自动化编码助手,还是开发多步骤任务处理流程,oh-my-openagent 都能提供灵活且稳健的基础设施支持,助力用户在快速演进的 AI 生态中保持技术主动权。
onlook
Onlook 是一款专为设计师打造的开源 AI 优先设计工具,被誉为“设计师版的 Cursor”。它旨在打破设计与开发之间的壁垒,让用户能够以可视化的方式直接构建、样式化和编辑 React 应用。通过 Onlook,用户无需深入编写复杂代码,即可在类似 Figma 的直观界面中完成网页原型的搭建与调整,并实时预览最终效果。 这款工具主要解决了传统工作流中设计稿到代码转换效率低、沟通成本高的问题。以往,设计师使用 Figma 等工具完成设计后,需要开发人员手动将其转化为代码,过程繁琐且容易出错。Onlook 允许用户直接在浏览器 DOM 中进行可视化编辑,底层自动生成基于 Next.js 和 TailwindCSS 的高质量代码,实现了“所见即所得”的开发体验。它不仅支持从文本或图像快速生成应用,还具备分支管理、资源管理及一键部署等功能,极大地简化了从创意到成品的流程。 Onlook 特别适合前端开发者、UI/UX 设计师以及希望快速验证产品创意的独立开发者使用。对于设计师而言,它降低了参与前端开发的门槛;对于开发者来说,它提供了一个高效的视觉化调试和原型构建环境。其核心技术亮点在于
serena
Serena 是一款专为编程智能体(Coding Agent)打造的强大工具包,被誉为“智能体的集成开发环境(IDE)”。它通过模型上下文协议(MCP)与各类大语言模型及客户端无缝集成,旨在解决传统 AI 在复杂代码库中因依赖行号或简单文本搜索而导致的效率低下和准确性不足的问题。 与传统方法不同,Serena 采用“智能体优先”的设计理念,提供基于语义的代码检索、编辑和重构能力。它能像资深开发者使用 IDE 一样,深入理解代码的符号层级和关联结构,从而让智能体在大型项目中运行得更快、更稳、更可靠。无论是终端用户(如 Claude Code)、IDE 插件(VSCode、Cursor)还是桌面应用,都能轻松接入 Serena 以扩展功能。 Serena 特别适合需要处理大规模代码项目的开发者、研究人员以及希望提升 AI 编码能力的技术团队。其核心技术亮点在于灵活的后端支持:既默认集成了基于语言服务器协议(LSP)的开源方案,支持超过 40 种编程语言;也可选配强大的 JetBrains 插件,利用专业 IDE 的深度分析能力。这让 Serena 成为连接人工智能与复杂软件工程的高效桥
sam2
SAM 2 是 Meta 推出的新一代基础模型,旨在解决图像与视频中的“提示式视觉分割”难题。无论是静态图片还是动态视频,用户只需提供简单的点击、框选等提示,SAM 2 就能精准识别并分割出目标对象。它将单张图像视为单帧视频进行处理,成功打破了以往模型在视频理解上的局限。 这款工具特别适合计算机视觉开发者、AI 研究人员以及需要处理视频内容的设计师使用。对于希望探索多目标跟踪或构建交互式应用的技术团队,SAM 2 提供了强大的底层支持。其核心亮点在于采用了带有流式记忆机制的 Transformer 架构,能够实现实时的视频处理性能。此外,项目配套发布了迄今为止规模最大的视频分割数据集(SA-V),并通过“模型闭环数据引擎”不断自我进化。最新更新的 SAM 2.1 版本不仅提供了更优的预训练权重,还支持全模型编译加速及灵活的多目标独立追踪,让复杂场景下的视频分析变得更加高效与便捷。