[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-regenrek--deepwiki-mcp":3,"tool-regenrek--deepwiki-mcp":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":77,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":32,"env_os":99,"env_gpu":100,"env_ram":101,"env_deps":102,"category_tags":109,"github_topics":77,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":110,"updated_at":111,"faqs":112,"releases":113},9780,"regenrek\u002Fdeepwiki-mcp","deepwiki-mcp","📖 MCP server for fetch deepwiki.com and get latest knowledge in Cursor and other Code Editors","deepwiki-mcp 是一款专为 Cursor 等代码编辑器设计的 MCP 服务器工具，旨在帮助开发者快速获取 DeepWiki 上的最新技术文档。它通过接收 DeepWiki 链接，自动抓取相关页面并清洗掉导航、广告等无关内容，将其转换为纯净的 Markdown 格式，方便在编辑器中直接阅读或作为上下文输入给 AI。\n\n该工具主要解决了开发者在查阅开源库文档时，需要手动复制粘贴或面对杂乱网页内容的痛点。只需输入简单的自然语言指令（如“如何使用 shadcn 创建新模块”）或仓库简称，deepwiki-mcp 即可智能检索并返回结构化的文档内容。其独特亮点包括严格的域名安全机制、自动链接重写功能，以及支持聚合单文档或多页面结构化输出两种模式，同时具备可调节的爬取深度与高并发性能。\n\n需要注意的是，由于 DeepWiki 官方近期限制了爬虫访问，当前版本可能暂时无法使用，建议优先关注官方提供的替代方案。尽管如此，其设计思路非常适合需要频繁查阅技术文档的软件开发者和研究人员，能够显著提升在编码过程中获取知识信息的效率，让 AI 助手更精准地理解项目上下文。","# Deepwiki MCP Server\n\n> ⚠️ **IMPORTANT NOTICE**: This server is currently not working since DeepWiki has cut off the possibility to scrape it. We recommend using the official DeepWiki MCP server at https:\u002F\u002Fdocs.devin.ai\u002Fwork-with-devin\u002Fdeepwiki-mcp for the time being.\n\nThis is an **unofficial Deepwiki MCP Server**\n\nIt takes a Deepwiki URL via MCP, crawls all relevant pages, converts them to Markdown, and returns either one document or a list by page.\n\n## Features\n\n- 🔒 **Domain Safety**: Only processes URLs from deepwiki.com\n- 🧹 **HTML Sanitization**: Strips headers, footers, navigation, scripts, and ads\n- 🔗 **Link Rewriting**: Adjusts links to work in Markdown\n- 📄 **Multiple Output Formats**: Get one document or structured pages\n- 🚀 **Performance**: Fast crawling with adjustable concurrency and depth\n- **NLP**: It's to search just for the library name\n\n## Usage\n\nPrompts you can use:\n\n```\ndeepwiki fetch how can i use gpt-image-1 with \"vercel ai\" sdk\n```\n\n```\ndeepwiki fetch how can i create new blocks in shadcn?\n```\n\n```\ndeepwiki fetch i want to understand how X works\n```\n\nFetch complete Documentation (Default)\n```\nuse deepwiki https:\u002F\u002Fdeepwiki.com\u002Fshadcn-ui\u002Fui\nuse deepwiki multiple pages https:\u002F\u002Fdeepwiki.com\u002Fshadcn-ui\u002Fui\n```\n\nSingle Page\n```\nuse deepwiki fetch single page https:\u002F\u002Fdeepwiki.com\u002Ftailwindlabs\u002Ftailwindcss\u002F2.2-theme-system\n```\n\nGet by shortform\n```\nuse deepwiki fetch tailwindlabs\u002Ftailwindcss\n```\n\n```\ndeepwiki fetch library\n\ndeepwiki fetch url\ndeepwiki fetch \u003Cname>\u002F\u003Crepo>\n\ndeepwiki multiple pages ...\ndeepwiki single page url ...\n```\n\n## Cursor\n\nAdd this to `.cursor\u002Fmcp.json` file.\n\n```\n{\n  \"mcpServers\": {\n    \"mcp-deepwiki\": {\n      \"command\": \"npx\",\n      \"args\": [\"-y\", \"mcp-deepwiki@latest\"]\n    }\n  }\n}\n```\n\n![Deepwiki Logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fregenrek_deepwiki-mcp_readme_5044c5912b1a.jpg)\n\n### MCP Tool Integration\n\nThe package registers a tool named `deepwiki_fetch` that you can use with any MCP-compatible client:\n\n```json\n{\n  \"action\": \"deepwiki_fetch\",\n  \"params\": {\n    \"url\": \"https:\u002F\u002Fdeepwiki.com\u002Fuser\u002Frepo\",\n    \"mode\": \"aggregate\",\n    \"maxDepth\": \"1\"\n  }\n}\n```\n\n#### Parameters\n\n- `url` (required): The starting URL of the Deepwiki repository\n- `mode` (optional): Output mode, either \"aggregate\" for a single Markdown document (default) or \"pages\" for structured page data\n- `maxDepth` (optional): Maximum depth of pages to crawl (default: 10)\n\n### Response Format\n\n#### Success Response (Aggregate Mode)\n\n```json\n{\n  \"status\": \"ok\",\n  \"data\": \"# Page Title\\n\\nPage content...\\n\\n---\\n\\n# Another Page\\n\\nMore content...\",\n  \"totalPages\": 5,\n  \"totalBytes\": 25000,\n  \"elapsedMs\": 1200\n}\n```\n\n#### Success Response (Pages Mode)\n\n```json\n{\n  \"status\": \"ok\",\n  \"data\": [\n    {\n      \"path\": \"index\",\n      \"markdown\": \"# Home Page\\n\\nWelcome to the repository.\"\n    },\n    {\n      \"path\": \"section\u002Fpage1\",\n      \"markdown\": \"# First Page\\n\\nThis is the first page content.\"\n    }\n  ],\n  \"totalPages\": 2,\n  \"totalBytes\": 12000,\n  \"elapsedMs\": 800\n}\n```\n\n#### Error Response\n\n```json\n{\n  \"status\": \"error\",\n  \"code\": \"DOMAIN_NOT_ALLOWED\",\n  \"message\": \"Only deepwiki.com domains are allowed\"\n}\n```\n\n#### Partial Success Response\n\n```json\n{\n  \"status\": \"partial\",\n  \"data\": \"# Page Title\\n\\nPage content...\",\n  \"errors\": [\n    {\n      \"url\": \"https:\u002F\u002Fdeepwiki.com\u002Fuser\u002Frepo\u002Fpage2\",\n      \"reason\": \"HTTP error: 404\"\n    }\n  ],\n  \"totalPages\": 1,\n  \"totalBytes\": 5000,\n  \"elapsedMs\": 950\n}\n```\n\n### Progress Events\n\nWhen using the tool, you'll receive progress events during crawling:\n\n```\nFetched https:\u002F\u002Fdeepwiki.com\u002Fuser\u002Frepo: 12500 bytes in 450ms (status: 200)\nFetched https:\u002F\u002Fdeepwiki.com\u002Fuser\u002Frepo\u002Fpage1: 8750 bytes in 320ms (status: 200)\nFetched https:\u002F\u002Fdeepwiki.com\u002Fuser\u002Frepo\u002Fpage2: 6200 bytes in 280ms (status: 200)\n```\n\n## Local Development - Installation\n\n### Local Usage\n\n```\n{\n  \"mcpServers\": {\n    \"mcp-deepwiki\": {\n      \"command\": \"node\",\n      \"args\": [\".\u002Fbin\u002Fcli.mjs\"]\n    }\n  }\n}\n```\n\n### From Source\n\n```bash\n# Clone the repository\ngit clone https:\u002F\u002Fgithub.com\u002Fregenrek\u002Fdeepwiki-mcp.git\ncd deepwiki-mcp\n\n# Install dependencies\nnpm install\n\n# Build the package\nnpm run build\n```\n\n#### Direct API Calls\n\nFor HTTP transport, you can make direct API calls:\n\n```bash\ncurl -X POST http:\u002F\u002Flocalhost:3000\u002Fmcp \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -d '{\n    \"id\": \"req-1\",\n    \"action\": \"deepwiki_fetch\",\n    \"params\": {\n      \"url\": \"https:\u002F\u002Fdeepwiki.com\u002Fuser\u002Frepo\",\n      \"mode\": \"aggregate\"\n    }\n  }'\n```\n\n## Configuration\n\n### Environment Variables\n\n- `DEEPWIKI_MAX_CONCURRENCY`: Maximum concurrent requests (default: 5)\n- `DEEPWIKI_REQUEST_TIMEOUT`: Request timeout in milliseconds (default: 30000)\n- `DEEPWIKI_MAX_RETRIES`: Maximum retry attempts for failed requests (default: 3)\n- `DEEPWIKI_RETRY_DELAY`: Base delay for retry backoff in milliseconds (default: 250)\n\nTo configure these, create a `.env` file in the project root:\n\n```\nDEEPWIKI_MAX_CONCURRENCY=10\nDEEPWIKI_REQUEST_TIMEOUT=60000\nDEEPWIKI_MAX_RETRIES=5\nDEEPWIKI_RETRY_DELAY=500\n```\n\n## Docker Deployment (Untested)\n\nBuild and run the Docker image:\n\n```bash\n# Build the image\ndocker build -t mcp-deepwiki .\n\n# Run with stdio transport (for development)\ndocker run -it --rm mcp-deepwiki\n\n# Run with HTTP transport (for production)\ndocker run -d -p 3000:3000 mcp-deepwiki --http --port 3000\n\n# Run with environment variables\ndocker run -d -p 3000:3000 \\\n  -e DEEPWIKI_MAX_CONCURRENCY=10 \\\n  -e DEEPWIKI_REQUEST_TIMEOUT=60000 \\\n  mcp-deepwiki --http --port 3000\n```\n\n## Development\n\n```bash\n# Install dependencies\npnpm install\n\n# Run in development mode with stdio\npnpm run dev-stdio\n\n# Run tests\npnpm test\n\n# Run linter\npnpm run lint\n\n# Build the package\npnpm run build\n```\n\n## Troubleshooting\n\n### Common Issues\n\n1. **Permission Denied**: If you get EACCES errors when running the CLI, make sure to make the binary executable:\n   ```bash\n   chmod +x .\u002Fnode_modules\u002F.bin\u002Fmcp-deepwiki\n   ```\n\n2. **Connection Refused**: Make sure the port is available and not blocked by a firewall:\n   ```bash\n   # Check if port is in use\n   lsof -i :3000\n   ```\n\n3. **Timeout Errors**: For large repositories, consider increasing the timeout and concurrency:\n   ```\n   DEEPWIKI_REQUEST_TIMEOUT=60000 DEEPWIKI_MAX_CONCURRENCY=10 npx mcp-deepwiki\n   ```\n\n## Contributing\n\nWe welcome contributions! Please see [CONTRIBUTING.md](CONTRIBUTING.md) for details.\n\n## License\n\nMIT\n\n## Links\n\n- X\u002FTwitter: [@kregenrek](https:\u002F\u002Fx.com\u002Fkregenrek)\n- Bluesky: [@kevinkern.dev](https:\u002F\u002Fbsky.app\u002Fprofile\u002Fkevinkern.dev)\n\n## Courses\n- Learn Cursor AI: [Ultimate Cursor Course](https:\u002F\u002Fwww.instructa.ai\u002Fen\u002Fcursor-ai)\n- Learn to build software with AI: [instructa.ai](https:\u002F\u002Fwww.instructa.ai)\n\n## See my other projects:\n\n* [AI Prompts](https:\u002F\u002Fgithub.com\u002Finstructa\u002Fai-prompts\u002Fblob\u002Fmain\u002FREADME.md) - Curated AI Prompts for Cursor AI, Cline, Windsurf and Github Copilot\n* [codefetch](https:\u002F\u002Fgithub.com\u002Fregenrek\u002Fcodefetch) - Turn code into Markdown for LLMs with one simple terminal command\n* [aidex](https:\u002F\u002Fgithub.com\u002Fregenrek\u002Faidex) A CLI tool that provides detailed information about AI language models, helping developers choose the right model for their needs.# tool-starter\n","# Deepwiki MCP 服务器\n\n> ⚠️ **重要通知**：由于 DeepWiki 已经切断了爬取其内容的可能性，此服务器目前无法正常工作。我们建议暂时使用官方的 DeepWiki MCP 服务器，地址为 https:\u002F\u002Fdocs.devin.ai\u002Fwork-with-devin\u002Fdeepwiki-mcp。\n\n这是一个 **非官方的 DeepWiki MCP 服务器**\n\n它通过 MCP 接收 DeepWiki 的 URL，抓取所有相关页面，将其转换为 Markdown 格式，并以单个文档或按页面分组的形式返回。\n\n## 功能特性\n\n- 🔒 **域名安全**：仅处理来自 deepwiki.com 的 URL\n- 🧹 **HTML 净化**：移除页眉、页脚、导航栏、脚本和广告\n- 🔗 **链接重写**：调整链接使其在 Markdown 中可用\n- 📄 **多种输出格式**：可获取单个文档或结构化的页面集合\n- 🚀 **性能优化**：快速爬取，支持自定义并发数和爬取深度\n- **NLP**：仅针对库名称进行搜索\n\n## 使用方法\n\n您可以使用的提示命令如下：\n\n```\ndeepwiki fetch 如何将 gpt-image-1 与 \"vercel ai\" SDK 配合使用\n```\n\n```\ndeepwiki fetch 如何在 shadcn 中创建新组件？\n```\n\n```\ndeepwiki fetch 我想了解 X 是如何工作的\n```\n\n获取完整文档（默认）\n```\nuse deepwiki https:\u002F\u002Fdeepwiki.com\u002Fshadcn-ui\u002Fui\nuse deepwiki multiple pages https:\u002F\u002Fdeepwiki.com\u002Fshadcn-ui\u002Fui\n```\n\n单个页面\n```\nuse deepwiki fetch single page https:\u002F\u002Fdeepwiki.com\u002Ftailwindlabs\u002Ftailwindcss\u002F2.2-theme-system\n```\n\n通过简短形式获取\n```\nuse deepwiki fetch tailwindlabs\u002Ftailwindcss\n```\n\n```\ndeepwiki fetch library\n\ndeepwiki fetch url\ndeepwiki fetch \u003Cname>\u002F\u003Crepo>\n\ndeepwiki multiple pages ...\ndeepwiki single page url ...\n```\n\n## Cursor 集成\n\n将以下内容添加到 `.cursor\u002Fmcp.json` 文件中：\n\n```\n{\n  \"mcpServers\": {\n    \"mcp-deepwiki\": {\n      \"command\": \"npx\",\n      \"args\": [\"-y\", \"mcp-deepwiki@latest\"]\n    }\n  }\n}\n```\n\n![Deepwiki Logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fregenrek_deepwiki-mcp_readme_5044c5912b1a.jpg)\n\n### MCP 工具集成\n\n该包注册了一个名为 `deepwiki_fetch` 的工具，您可以在任何兼容 MCP 的客户端中使用：\n\n```json\n{\n  \"action\": \"deepwiki_fetch\",\n  \"params\": {\n    \"url\": \"https:\u002F\u002Fdeepwiki.com\u002Fuser\u002Frepo\",\n    \"mode\": \"aggregate\",\n    \"maxDepth\": \"1\"\n  }\n}\n```\n\n#### 参数说明\n\n- `url`（必填）：DeepWiki 仓库的起始 URL\n- `mode`（可选）：输出模式，`aggregate` 表示生成一个单一的 Markdown 文档（默认），`pages` 表示返回结构化的页面数据\n- `maxDepth`（可选）：最大爬取深度（默认值为 10）\n\n### 响应格式\n\n#### 成功响应（聚合模式）\n\n```json\n{\n  \"status\": \"ok\",\n  \"data\": \"# 页面标题\\n\\n页面内容...\\n\\n---\\n\\n# 另一页\\n\\n更多内容...\",\n  \"totalPages\": 5,\n  \"totalBytes\": 25000,\n  \"elapsedMs\": 1200\n}\n```\n\n#### 成功响应（页面模式）\n\n```json\n{\n  \"status\": \"ok\",\n  \"data\": [\n    {\n      \"path\": \"index\",\n      \"markdown\": \"# 首页\\n\\n欢迎来到该仓库。\"\n    },\n    {\n      \"path\": \"section\u002Fpage1\",\n      \"markdown\": \"# 第一页\\n\\n这是第一页的内容。\"\n    }\n  ],\n  \"totalPages\": 2,\n  \"totalBytes\": 12000,\n  \"elapsedMs\": 800\n}\n```\n\n#### 错误响应\n\n```json\n{\n  \"status\": \"error\",\n  \"code\": \"DOMAIN_NOT_ALLOWED\",\n  \"message\": \"仅允许 deepwiki.com 域名\"\n}\n```\n\n#### 部分成功响应\n\n```json\n{\n  \"status\": \"partial\",\n  \"data\": \"# 页面标题\\n\\n页面内容...\",\n  \"errors\": [\n    {\n      \"url\": \"https:\u002F\u002Fdeepwiki.com\u002Fuser\u002Frepo\u002Fpage2\",\n      \"reason\": \"HTTP 错误：404\"\n    }\n  ],\n  \"totalPages\": 1,\n  \"totalBytes\": 5000,\n  \"elapsedMs\": 950\n}\n```\n\n### 进度事件\n\n使用该工具时，您会在爬取过程中收到进度事件：\n\n```\n已抓取 https:\u002F\u002Fdeepwiki.com\u002Fuser\u002Frepo：450 毫秒内抓取 12500 字节（状态：200）\n已抓取 https:\u002F\u002Fdeepwiki.com\u002Fuser\u002Frepo\u002Fpage1：320 毫秒内抓取 8750 字节（状态：200）\n已抓取 https:\u002F\u002Fdeepwiki.com\u002Fuser\u002Frepo\u002Fpage2：280 毫秒内抓取 6200 字节（状态：200）\n```\n\n## 本地开发 - 安装\n\n### 本地使用\n\n```\n{\n  \"mcpServers\": {\n    \"mcp-deepwiki\": {\n      \"command\": \"node\",\n      \"args\": [\".\u002Fbin\u002Fcli.mjs\"]\n    }\n  }\n}\n```\n\n### 从源码安装\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fregenrek\u002Fdeepwiki-mcp.git\ncd deepwiki-mcp\n\n# 安装依赖\nnpm install\n\n# 构建项目\nnpm run build\n```\n\n#### 直接 API 调用\n\n对于 HTTP 传输，您可以直接调用 API：\n\n```bash\ncurl -X POST http:\u002F\u002Flocalhost:3000\u002Fmcp \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -d '{\n    \"id\": \"req-1\",\n    \"action\": \"deepwiki_fetch\",\n    \"params\": {\n      \"url\": \"https:\u002F\u002Fdeepwiki.com\u002Fuser\u002Frepo\",\n      \"mode\": \"aggregate\"\n    }\n  }'\n```\n\n## 配置\n\n### 环境变量\n\n- `DEEPWIKI_MAX_CONCURRENCY`：最大并发请求数（默认值：5）\n- `DEEPWIKI_REQUEST_TIMEOUT`：请求超时时间，单位为毫秒（默认值：30000）\n- `DEEPWIKI_MAX_RETRIES`：失败请求的最大重试次数（默认值：3）\n- `DEEPWIKI_RETRY_DELAY`：重试退避的基础延迟时间，单位为毫秒（默认值：250）\n\n要配置这些变量，请在项目根目录下创建一个 `.env` 文件：\n\n```\nDEEPWIKI_MAX_CONCURRENCY=10\nDEEPWIKI_REQUEST_TIMEOUT=60000\nDEEPWIKI_MAX_RETRIES=5\nDEEPWIKI_RETRY_DELAY=500\n```\n\n## Docker 部署（未测试）\n\n构建并运行 Docker 镜像：\n\n```bash\n# 构建镜像\ndocker build -t mcp-deepwiki .\n\n# 使用 stdio 传输（用于开发）\ndocker run -it --rm mcp-deepwiki\n\n# 使用 HTTP 传输（用于生产）\ndocker run -d -p 3000:3000 mcp-deepwiki --http --port 3000\n\n# 使用环境变量运行\ndocker run -d -p 3000:3000 \\\n  -e DEEPWIKI_MAX_CONCURRENCY=10 \\\n  -e DEEPWIKI_REQUEST_TIMEOUT=60000 \\\n  mcp-deepwiki --http --port 3000\n```\n\n## 开发\n\n```bash\n# 安装依赖\npnpm install\n\n# 在开发模式下使用 stdio 运行\npnpm run dev-stdio\n\n# 运行测试\npnpm test\n\n# 运行代码检查\npnpm run lint\n\n# 构建项目\npnpm run build\n```\n\n## 故障排除\n\n### 常见问题\n\n1. **权限不足**：如果在运行 CLI 时出现 EACCES 错误，请确保将二进制文件设置为可执行：\n   ```bash\n   chmod +x .\u002Fnode_modules\u002F.bin\u002Fmcp-deepwiki\n   ```\n\n2. **连接被拒绝**：请确保端口可用且未被防火墙阻止：\n   ```bash\n   # 检查端口是否被占用\n   lsof -i :3000\n   ```\n\n3. **超时错误**：对于大型仓库，可以考虑增加超时时间和并发数：\n   ```\n   DEEPWIKI_REQUEST_TIMEOUT=60000 DEEPWIKI_MAX_CONCURRENCY=10 npx mcp-deepwiki\n   ```\n\n## 贡献\n\n我们欢迎您的贡献！详细信息请参阅 [CONTRIBUTING.md](CONTRIBUTING.md)。\n\n## 许可证\n\nMIT\n\n## 链接\n\n- X\u002FTwitter：[@kregenrek](https:\u002F\u002Fx.com\u002Fkregenrek)\n- Bluesky：[@kevinkern.dev](https:\u002F\u002Fbsky.app\u002Fprofile\u002Fkevinkern.dev)\n\n## 课程\n- 学习 Cursor AI：[终极 Cursor 课程](https:\u002F\u002Fwww.instructa.ai\u002Fen\u002Fcursor-ai)\n- 学习如何用 AI 构建软件：[instructa.ai](https:\u002F\u002Fwww.instructa.ai)\n\n## 查看我的其他项目：\n\n* [AI Prompts](https:\u002F\u002Fgithub.com\u002Finstructa\u002Fai-prompts\u002Fblob\u002Fmain\u002FREADME.md) - 为 Cursor AI、Cline、Windsurf 和 Github Copilot 精选的 AI 提示词\n* [codefetch](https:\u002F\u002Fgithub.com\u002Fregenrek\u002Fcodefetch) - 通过一条简单的终端命令，将代码转换为适用于大语言模型的 Markdown 格式\n* [aidex](https:\u002F\u002Fgithub.com\u002Fregenrek\u002Faidex) 一个 CLI 工具，提供关于 AI 语言模型的详细信息，帮助开发者根据需求选择合适的模型。# 工具入门","# deepwiki-mcp 快速上手指南\n\n> ⚠️ **重要提示**：由于 DeepWiki 官方已禁止爬虫抓取，本非官方服务器目前**无法正常工作**。建议暂时使用 Devin 官方提供的 MCP 服务器：https:\u002F\u002Fdocs.devin.ai\u002Fwork-with-devin\u002Fdeepwiki-mcp。以下内容仅供技术参考或本地开发调试使用。\n\n## 环境准备\n\n- **系统要求**：支持 Node.js 的操作系统（Windows \u002F macOS \u002F Linux）\n- **前置依赖**：\n  - Node.js (推荐 v18 或更高版本)\n  - npm 或 pnpm 包管理器\n  - 可选：Docker（如需容器化部署）\n\n## 安装步骤\n\n### 方式一：通过 Cursor 集成（推荐）\n\n在项目的 `.cursor\u002Fmcp.json` 文件中添加以下配置，Cursor 将自动通过 `npx` 运行最新版本的工具：\n\n```json\n{\n  \"mcpServers\": {\n    \"mcp-deepwiki\": {\n      \"command\": \"npx\",\n      \"args\": [\"-y\", \"mcp-deepwiki@latest\"]\n    }\n  }\n}\n```\n\n### 方式二：本地源码安装\n\n如果你需要自定义配置或进行开发，可以从源码安装：\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fregenrek\u002Fdeepwiki-mcp.git\ncd deepwiki-mcp\n\n# 安装依赖\nnpm install\n\n# 构建项目\nnpm run build\n```\n\n配置本地运行（修改 `.cursor\u002Fmcp.json` 或对应配置文件）：\n\n```json\n{\n  \"mcpServers\": {\n    \"mcp-deepwiki\": {\n      \"command\": \"node\",\n      \"args\": [\".\u002Fbin\u002Fcli.mjs\"]\n    }\n  }\n}\n```\n\n### 方式三：Docker 部署\n\n```bash\n# 构建镜像\ndocker build -t mcp-deepwiki .\n\n# 运行（HTTP 模式）\ndocker run -d -p 3000:3000 mcp-deepwiki --http --port 3000\n```\n\n## 基本使用\n\n安装完成后，你可以在支持 MCP 的客户端（如 Cursor）中直接使用自然语言指令或特定命令来获取 DeepWiki 文档。\n\n### 1. 自然语言查询（推荐）\n\n直接在对话框中输入以下格式的指令，工具会自动解析并抓取相关内容：\n\n```text\ndeepwiki fetch how can i use gpt-image-1 with \"vercel ai\" sdk\n```\n\n```text\ndeepwiki fetch how can i create new blocks in shadcn?\n```\n\n### 2. 指定 URL 抓取完整文档\n\n获取整个仓库的文档并合并为一个 Markdown 文件：\n\n```text\nuse deepwiki https:\u002F\u002Fdeepwiki.com\u002Fshadcn-ui\u002Fui\n```\n\n### 3. 指定仓库简写\n\n通过 `作者\u002F仓库名` 的形式快速抓取：\n\n```text\ndeepwiki fetch tailwindlabs\u002Ftailwindcss\n```\n\n### 4. 高级参数调用（API 模式）\n\n如果你需要通过代码或 HTTP 直接调用，可以使用以下 JSON 结构：\n\n```json\n{\n  \"action\": \"deepwiki_fetch\",\n  \"params\": {\n    \"url\": \"https:\u002F\u002Fdeepwiki.com\u002Fuser\u002Frepo\",\n    \"mode\": \"aggregate\",\n    \"maxDepth\": \"1\"\n  }\n}\n```\n\n**参数说明：**\n- `url`: 必填，DeepWiki 仓库起始地址。\n- `mode`: 选填，`aggregate`（合并为单文档，默认）或 `pages`（返回分页结构）。\n- `maxDepth`: 选填，最大爬取深度，默认为 10。\n\n### 5. 环境变量配置（可选）\n\n在项目根目录创建 `.env` 文件以调整并发和超时设置，优化大仓库抓取性能：\n\n```bash\nDEEPWIKI_MAX_CONCURRENCY=10\nDEEPWIKI_REQUEST_TIMEOUT=60000\nDEEPWIKI_MAX_RETRIES=5\nDEEPWIKI_RETRY_DELAY=500\n```","前端开发者小李正在为项目集成最新的 shadcn-ui 组件库，急需理解其底层 Block 创建机制以进行二次开发。\n\n### 没有 deepwiki-mcp 时\n- **信息检索低效**：需要在浏览器中手动打开多个 DeepWiki 页面，反复切换标签页查找分散的文档片段。\n- **内容噪音干扰**：复制文档时不得不手动剔除网页头部、导航栏、广告脚本等无关 HTML 元素，耗时且易出错。\n- **上下文断裂**：难以将多页关联内容整合成连贯的知识块，导致在 Cursor 中提问时缺乏完整的背景信息，AI 回答往往不够精准。\n- **链接失效风险**：直接粘贴的网页链接在代码编辑器中无法预览，手动转换为 Markdown 格式繁琐且容易遗漏层级关系。\n\n### 使用 deepwiki-mcp 后\n- **一键获取纯净知识**：只需在 Cursor 中输入 `deepwiki fetch how can i create new blocks in shadcn?`，工具自动抓取并清洗内容，直接返回无噪音的 Markdown 文档。\n- **智能聚合上下文**：deepwiki-mcp 自动遍历相关子页面并将它们合并为一个完整的文档流，让 AI 基于全量知识库提供深度准确的代码建议。\n- **格式原生适配**：抓取的內容自动转换为标准的 Markdown 格式，内部链接已重写好，直接在编辑器中阅读或作为 Prompt 发送给 AI 均无障碍。\n- **实时进度反馈**：爬虫过程透明可见，毫秒级响应展示抓取页数与字节数，让开发者清晰掌握知识加载状态，无需等待焦虑。\n\ndeepwiki-mcp 将碎片化的网页文档瞬间转化为编辑器内可操作的结构化知识，极大缩短了从“查找文档”到“编写代码”的路径。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fregenrek_deepwiki-mcp_5044c591.jpg","regenrek","Kevin Kern","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fregenrek_3e068492.jpg","Agentic Coding\r\nFounder: instructa.ai @instructa \r\nFounder: macherjek.at\r\nWebsite: kevinkern.dev",null,"Austria","kevinkern","http:\u002F\u002Fkevinkern.dev","https:\u002F\u002Fgithub.com\u002Fregenrek",[83,87,91],{"name":84,"color":85,"percentage":86},"TypeScript","#3178c6",94.7,{"name":88,"color":89,"percentage":90},"JavaScript","#f1e05a",3.7,{"name":92,"color":93,"percentage":94},"Dockerfile","#384d54",1.6,1329,76,"2026-04-19T08:27:51","MIT","Linux, macOS, Windows","不需要 GPU","未说明",{"notes":103,"python":104,"dependencies":105},"该工具是一个非官方的 DeepWiki MCP 服务器，目前因 DeepWiki 禁止抓取而暂时无法使用。运行环境需要安装 Node.js 和 npm。支持通过 npx 直接运行或从源码构建。可通过环境变量配置并发数、超时时间和重试策略。提供 Docker 部署方案（但未测试）。","未说明 (基于 Node.js)",[106,107,108],"node","npm","npx",[45,14],"2026-03-27T02:49:30.150509","2026-04-20T07:17:15.232542",[],[]]