deepwiki-mcp
deepwiki-mcp 是一款专为 Cursor 等代码编辑器设计的 MCP 服务器工具,旨在帮助开发者快速获取 DeepWiki 上的最新技术文档。它通过接收 DeepWiki 链接,自动抓取相关页面并清洗掉导航、广告等无关内容,将其转换为纯净的 Markdown 格式,方便在编辑器中直接阅读或作为上下文输入给 AI。
该工具主要解决了开发者在查阅开源库文档时,需要手动复制粘贴或面对杂乱网页内容的痛点。只需输入简单的自然语言指令(如“如何使用 shadcn 创建新模块”)或仓库简称,deepwiki-mcp 即可智能检索并返回结构化的文档内容。其独特亮点包括严格的域名安全机制、自动链接重写功能,以及支持聚合单文档或多页面结构化输出两种模式,同时具备可调节的爬取深度与高并发性能。
需要注意的是,由于 DeepWiki 官方近期限制了爬虫访问,当前版本可能暂时无法使用,建议优先关注官方提供的替代方案。尽管如此,其设计思路非常适合需要频繁查阅技术文档的软件开发者和研究人员,能够显著提升在编码过程中获取知识信息的效率,让 AI 助手更精准地理解项目上下文。
使用场景
前端开发者小李正在为项目集成最新的 shadcn-ui 组件库,急需理解其底层 Block 创建机制以进行二次开发。
没有 deepwiki-mcp 时
- 信息检索低效:需要在浏览器中手动打开多个 DeepWiki 页面,反复切换标签页查找分散的文档片段。
- 内容噪音干扰:复制文档时不得不手动剔除网页头部、导航栏、广告脚本等无关 HTML 元素,耗时且易出错。
- 上下文断裂:难以将多页关联内容整合成连贯的知识块,导致在 Cursor 中提问时缺乏完整的背景信息,AI 回答往往不够精准。
- 链接失效风险:直接粘贴的网页链接在代码编辑器中无法预览,手动转换为 Markdown 格式繁琐且容易遗漏层级关系。
使用 deepwiki-mcp 后
- 一键获取纯净知识:只需在 Cursor 中输入
deepwiki fetch how can i create new blocks in shadcn?,工具自动抓取并清洗内容,直接返回无噪音的 Markdown 文档。 - 智能聚合上下文:deepwiki-mcp 自动遍历相关子页面并将它们合并为一个完整的文档流,让 AI 基于全量知识库提供深度准确的代码建议。
- 格式原生适配:抓取的內容自动转换为标准的 Markdown 格式,内部链接已重写好,直接在编辑器中阅读或作为 Prompt 发送给 AI 均无障碍。
- 实时进度反馈:爬虫过程透明可见,毫秒级响应展示抓取页数与字节数,让开发者清晰掌握知识加载状态,无需等待焦虑。
deepwiki-mcp 将碎片化的网页文档瞬间转化为编辑器内可操作的结构化知识,极大缩短了从“查找文档”到“编写代码”的路径。
运行环境要求
- Linux
- macOS
- Windows
不需要 GPU
未说明

快速开始
Deepwiki MCP 服务器
⚠️ 重要通知:由于 DeepWiki 已经切断了爬取其内容的可能性,此服务器目前无法正常工作。我们建议暂时使用官方的 DeepWiki MCP 服务器,地址为 https://docs.devin.ai/work-with-devin/deepwiki-mcp。
这是一个 非官方的 DeepWiki MCP 服务器
它通过 MCP 接收 DeepWiki 的 URL,抓取所有相关页面,将其转换为 Markdown 格式,并以单个文档或按页面分组的形式返回。
功能特性
- 🔒 域名安全:仅处理来自 deepwiki.com 的 URL
- 🧹 HTML 净化:移除页眉、页脚、导航栏、脚本和广告
- 🔗 链接重写:调整链接使其在 Markdown 中可用
- 📄 多种输出格式:可获取单个文档或结构化的页面集合
- 🚀 性能优化:快速爬取,支持自定义并发数和爬取深度
- NLP:仅针对库名称进行搜索
使用方法
您可以使用的提示命令如下:
deepwiki fetch 如何将 gpt-image-1 与 "vercel ai" SDK 配合使用
deepwiki fetch 如何在 shadcn 中创建新组件?
deepwiki fetch 我想了解 X 是如何工作的
获取完整文档(默认)
use deepwiki https://deepwiki.com/shadcn-ui/ui
use deepwiki multiple pages https://deepwiki.com/shadcn-ui/ui
单个页面
use deepwiki fetch single page https://deepwiki.com/tailwindlabs/tailwindcss/2.2-theme-system
通过简短形式获取
use deepwiki fetch tailwindlabs/tailwindcss
deepwiki fetch library
deepwiki fetch url
deepwiki fetch <name>/<repo>
deepwiki multiple pages ...
deepwiki single page url ...
Cursor 集成
将以下内容添加到 .cursor/mcp.json 文件中:
{
"mcpServers": {
"mcp-deepwiki": {
"command": "npx",
"args": ["-y", "mcp-deepwiki@latest"]
}
}
}

MCP 工具集成
该包注册了一个名为 deepwiki_fetch 的工具,您可以在任何兼容 MCP 的客户端中使用:
{
"action": "deepwiki_fetch",
"params": {
"url": "https://deepwiki.com/user/repo",
"mode": "aggregate",
"maxDepth": "1"
}
}
参数说明
url(必填):DeepWiki 仓库的起始 URLmode(可选):输出模式,aggregate表示生成一个单一的 Markdown 文档(默认),pages表示返回结构化的页面数据maxDepth(可选):最大爬取深度(默认值为 10)
响应格式
成功响应(聚合模式)
{
"status": "ok",
"data": "# 页面标题\n\n页面内容...\n\n---\n\n# 另一页\n\n更多内容...",
"totalPages": 5,
"totalBytes": 25000,
"elapsedMs": 1200
}
成功响应(页面模式)
{
"status": "ok",
"data": [
{
"path": "index",
"markdown": "# 首页\n\n欢迎来到该仓库。"
},
{
"path": "section/page1",
"markdown": "# 第一页\n\n这是第一页的内容。"
}
],
"totalPages": 2,
"totalBytes": 12000,
"elapsedMs": 800
}
错误响应
{
"status": "error",
"code": "DOMAIN_NOT_ALLOWED",
"message": "仅允许 deepwiki.com 域名"
}
部分成功响应
{
"status": "partial",
"data": "# 页面标题\n\n页面内容...",
"errors": [
{
"url": "https://deepwiki.com/user/repo/page2",
"reason": "HTTP 错误:404"
}
],
"totalPages": 1,
"totalBytes": 5000,
"elapsedMs": 950
}
进度事件
使用该工具时,您会在爬取过程中收到进度事件:
已抓取 https://deepwiki.com/user/repo:450 毫秒内抓取 12500 字节(状态:200)
已抓取 https://deepwiki.com/user/repo/page1:320 毫秒内抓取 8750 字节(状态:200)
已抓取 https://deepwiki.com/user/repo/page2:280 毫秒内抓取 6200 字节(状态:200)
本地开发 - 安装
本地使用
{
"mcpServers": {
"mcp-deepwiki": {
"command": "node",
"args": ["./bin/cli.mjs"]
}
}
}
从源码安装
# 克隆仓库
git clone https://github.com/regenrek/deepwiki-mcp.git
cd deepwiki-mcp
# 安装依赖
npm install
# 构建项目
npm run build
直接 API 调用
对于 HTTP 传输,您可以直接调用 API:
curl -X POST http://localhost:3000/mcp \
-H "Content-Type: application/json" \
-d '{
"id": "req-1",
"action": "deepwiki_fetch",
"params": {
"url": "https://deepwiki.com/user/repo",
"mode": "aggregate"
}
}'
配置
环境变量
DEEPWIKI_MAX_CONCURRENCY:最大并发请求数(默认值:5)DEEPWIKI_REQUEST_TIMEOUT:请求超时时间,单位为毫秒(默认值:30000)DEEPWIKI_MAX_RETRIES:失败请求的最大重试次数(默认值:3)DEEPWIKI_RETRY_DELAY:重试退避的基础延迟时间,单位为毫秒(默认值:250)
要配置这些变量,请在项目根目录下创建一个 .env 文件:
DEEPWIKI_MAX_CONCURRENCY=10
DEEPWIKI_REQUEST_TIMEOUT=60000
DEEPWIKI_MAX_RETRIES=5
DEEPWIKI_RETRY_DELAY=500
Docker 部署(未测试)
构建并运行 Docker 镜像:
# 构建镜像
docker build -t mcp-deepwiki .
# 使用 stdio 传输(用于开发)
docker run -it --rm mcp-deepwiki
# 使用 HTTP 传输(用于生产)
docker run -d -p 3000:3000 mcp-deepwiki --http --port 3000
# 使用环境变量运行
docker run -d -p 3000:3000 \
-e DEEPWIKI_MAX_CONCURRENCY=10 \
-e DEEPWIKI_REQUEST_TIMEOUT=60000 \
mcp-deepwiki --http --port 3000
开发
# 安装依赖
pnpm install
# 在开发模式下使用 stdio 运行
pnpm run dev-stdio
# 运行测试
pnpm test
# 运行代码检查
pnpm run lint
# 构建项目
pnpm run build
故障排除
常见问题
权限不足:如果在运行 CLI 时出现 EACCES 错误,请确保将二进制文件设置为可执行:
chmod +x ./node_modules/.bin/mcp-deepwiki连接被拒绝:请确保端口可用且未被防火墙阻止:
# 检查端口是否被占用 lsof -i :3000超时错误:对于大型仓库,可以考虑增加超时时间和并发数:
DEEPWIKI_REQUEST_TIMEOUT=60000 DEEPWIKI_MAX_CONCURRENCY=10 npx mcp-deepwiki
贡献
我们欢迎您的贡献!详细信息请参阅 CONTRIBUTING.md。
许可证
MIT
链接
- X/Twitter:@kregenrek
- Bluesky:@kevinkern.dev
课程
- 学习 Cursor AI:终极 Cursor 课程
- 学习如何用 AI 构建软件:instructa.ai
查看我的其他项目:
- AI Prompts - 为 Cursor AI、Cline、Windsurf 和 Github Copilot 精选的 AI 提示词
- codefetch - 通过一条简单的终端命令,将代码转换为适用于大语言模型的 Markdown 格式
- aidex 一个 CLI 工具,提供关于 AI 语言模型的详细信息,帮助开发者根据需求选择合适的模型。# 工具入门
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。