[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-mrkrsl--web-search-mcp":3,"tool-mrkrsl--web-search-mcp":61},[4,18,26,36,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,2,"2026-04-06T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,60],"视频",{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":75,"owner_twitter":72,"owner_website":78,"owner_url":79,"languages":80,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":10,"env_os":93,"env_gpu":94,"env_ram":95,"env_deps":96,"category_tags":103,"github_topics":104,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":110,"updated_at":111,"faqs":112,"releases":138},4522,"mrkrsl\u002Fweb-search-mcp","web-search-mcp","A simple, locally hosted Web Search MCP server for use with Local LLMs","web-search-mcp 是一款专为本地大语言模型设计的开源网络搜索服务工具。它无需申请任何 API 密钥，即可让本地运行的 AI 直接获取实时互联网信息，有效解决了本地模型因训练数据截止而无法回答最新时事或查询特定网页内容的痛点。\n\n这款工具特别适合希望在本地私有化部署环境中使用 AI 的开发者、技术研究人员及高级用户。其核心亮点在于智能的多引擎搜索策略：系统会按优先级自动尝试 Bing、Brave 和 DuckDuckGo 搜索引擎，并结合浏览器自动化与快速 HTTP 请求两种模式，确保在复杂网络环境下也能稳定返回结果。此外，它还支持并发处理，能同时提取多个网页的正文内容并自动过滤广告与导航栏，提供纯净的阅读材料。\n\nweb-search-mcp 提供了三种专用功能模式，既能进行深度的全网内容检索，也能快速获取摘要或直接解析指定网址。目前，它在 LM Studio 和 LibreChat 等平台上表现良好，尤其推荐搭配 Qwen3、Gemma 3 等较新的模型使用，以获得最佳的工具调用效果。通过简单的配置，用户即可为本地 AI 装上“联网”的眼睛。","# Web Search MCP Server for use with Local LLMs\n\nA TypeScript MCP (Model Context Protocol) server that provides comprehensive web search capabilities using direct connections (no API keys required) with multiple tools for different use cases.\n\n## Features\n\n- **Multi-Engine Web Search**: Prioritises Bing > Brave > DuckDuckGo for optimal reliability and performance\n- **Full Page Content Extraction**: Fetches and extracts complete page content from search results\n- **Multiple Search Tools**: Three specialised tools for different use cases\n- **Smart Request Strategy**: Switches between playwright browesrs and fast axios requests to ensure results are returned\n- **Concurrent Processing**: Extracts content from multiple pages simultaneously\n\n## How It Works\n\nThe server provides three specialised tools for different web search needs:\n\n### 1. `full-web-search` (Main Tool)\nWhen a comprehensive search is requested, the server uses an **optimised search strategy**:\n1. **Browser-based Bing Search** - Primary method using dedicated Chromium instance\n2. **Browser-based Brave Search** - Secondary option using dedicated Firefox instance\n3. **Axios DuckDuckGo Search** - Final fallback using traditional HTTP\n4. **Dedicated browser isolation**: Each search engine gets its own browser instance with automatic cleanup\n5. **Content extraction**: Tries axios first, then falls back to browser with human behavior simulation\n6. **Concurrent processing**: Extracts content from multiple pages simultaneously with timeout protection\n7. **HTTP\u002F2 error recovery**: Automatically falls back to HTTP\u002F1.1 when protocol errors occur\n\n### 2. `get-web-search-summaries` (Lightweight Alternative)\nFor quick search results without full content extraction:\n1. Performs the same optimised multi-engine search as `full-web-search`\n2. Returns only the search result snippets\u002Fdescriptions\n3. Does not follow links to extract full page content\n\n### 3. `get-single-web-page-content` (Utility Tool)\nFor extracting content from a specific webpage:\n1. Takes a single URL as input\n2. Follows the URL and extracts the main page content\n3. Removes navigation, ads, and other non-content elements\n\n## Compatibility\n\nThis MCP server has been developed and tested with **LM Studio** and **LibreChat**. It has not been tested with other MCP clients.\n\n### Model Compatibility\n**Important:** Prioritise using more recent models designated for tool use. \n\nOlder models (even those with tool use specified) may not work or may work erratically. This seems to be the case with Llama and Deepseek. Qwen3 and Gemma 3 currently have the best restults.\n\n- ✅ Works well with: **Qwen3**\n- ✅ Works well with: **Gemma 3**\n- ✅ Works with: **Llama 3.2**\n- ✅ Works with: Recent **Llama 3.1** (e.g 3.1 swallow-8B)\n- ✅ Works with: Recent **Deepseek R1** (e.g 0528 works)\n- ⚠️ May have issues with: Some versions of **Llama** and **Deepseek R1**\n- ❌ May not work with: Older versions of **Llama** and **Deepseek R1**\n\n## Installation (Recommended)\n\n**Requirements:**\n- Node.js 18.0.0 or higher\n- npm 8.0.0 or higher\n\n1. Download the latest release zip file from the [Releases page](https:\u002F\u002Fgithub.com\u002Fmrkrsl\u002Fweb-search-mcp\u002Freleases)\n2. Extract the zip file to a location on your system (e.g., `~\u002Fmcp-servers\u002Fweb-search-mcp\u002F`)\n3. **Open a terminal in the extracted folder and run:**\n   ```bash\n   npm install\n   npx playwright install\n   npm run build\n   ```\n   This will create a `node_modules` folder with all required dependencies, install Playwright browsers, and build the project.\n\n   **Note:** You must run `npm install` in the root of the extracted folder (not in `dist\u002F`).\n4. Configure your `mcp.json` to point to the extracted `dist\u002Findex.js` file:\n\n```json\n{\n  \"mcpServers\": {\n    \"web-search\": {\n      \"command\": \"node\",\n      \"args\": [\"\u002Fpath\u002Fto\u002Fextracted\u002Fweb-search-mcp\u002Fdist\u002Findex.js\"]\n    }\n  }\n}\n```\n**Example paths:**\n- macOS\u002FLinux: `~\u002Fmcp-servers\u002Fweb-search-mcp\u002Fdist\u002Findex.js`\n- Windows: `C:\\\\mcp-servers\\\\web-search-mcp\\\\dist\\\\index.js`\n\nIn LibreChat, you can include the MCP server in the librechat.yaml. If you are running LibreChat in Docker, you must first mount your local directory in docker-compose.override.yml.\n\nin `docker-compose.override.yml`:\n```yaml\nservices:\n  api:\n    volumes:\n    - type: bind\n      source: \u002Fpath\u002Fto\u002Fyour\u002Fmcp\u002Fdirectory\n      target: \u002Fapp\u002Fmcp\n```\nin `librechat.yaml`:\n```yaml\nmcpServers:\n  web-search:\n    type: stdio\n    command: node\n    args:\n    - \u002Fapp\u002Fmcp\u002Fweb-search-mcp\u002Fdist\u002Findex.js\n    serverInstructions: true\n```\n\n**Troubleshooting:**\n- If `npm install` fails, try updating Node.js to version 18+ and npm to version 8+\n- If `npm run build` fails, ensure you have the latest Node.js version installed\n- For older Node.js versions, you may need to use an older release of this project\n- **Content Length Issues:** If you experience odd behavior due to content length limits, try setting `\"MAX_CONTENT_LENGTH\": \"10000\"`, or another value, in your `mcp.json` environment variables:\n\n```json\n{\n  \"mcpServers\": {\n    \"web-search\": {\n      \"command\": \"node\",\n      \"args\": [\"\u002Fpath\u002Fto\u002Fweb-search-mcp\u002Fdist\u002Findex.js\"],\n      \"env\": {\n        \"MAX_CONTENT_LENGTH\": \"10000\",\n        \"BROWSER_HEADLESS\": \"true\",\n        \"MAX_BROWSERS\": \"3\",\n        \"BROWSER_FALLBACK_THRESHOLD\": \"3\"\n      }\n    }\n  }\n}\n```\n\n## Environment Variables\n\nThe server supports several environment variables for configuration:\n\n- **`MAX_CONTENT_LENGTH`**: Maximum content length in characters (default: 500000)\n- **`DEFAULT_TIMEOUT`**: Default timeout for requests in milliseconds (default: 6000)\n- **`MAX_BROWSERS`**: Maximum number of browser instances to maintain (default: 3)\n- **`BROWSER_TYPES`**: Comma-separated list of browser types to use (default: 'chromium,firefox', options: chromium, firefox, webkit)\n- **`BROWSER_FALLBACK_THRESHOLD`**: Number of axios failures before using browser fallback (default: 3)\n\n### Search Quality and Engine Selection\n\n- **`ENABLE_RELEVANCE_CHECKING`**: Enable\u002Fdisable search result quality validation (default: true)\n- **`RELEVANCE_THRESHOLD`**: Minimum quality score for search results (0.0-1.0, default: 0.3)\n- **`FORCE_MULTI_ENGINE_SEARCH`**: Try all search engines and return best results (default: false)\n- **`DEBUG_BROWSER_LIFECYCLE`**: Enable detailed browser lifecycle logging for debugging (default: false)\n\n## Troubleshooting\n\n### Slow Response Times\n- **Optimised timeouts**: Default timeout reduced to 6 seconds with concurrent processing for faster results\n- **Concurrent extraction**: Content is now extracted from multiple pages simultaneously\n- **Reduce timeouts further**: Set `DEFAULT_TIMEOUT=4000` for even faster responses (may reduce success rate)\n- **Use fewer browsers**: Set `MAX_BROWSERS=1` to reduce memory usage\n\n### Search Failures\n- **Check browser installation**: Run `npx playwright install` to ensure browsers are available\n- **Try headless mode**: Ensure `BROWSER_HEADLESS=true` (default) for server environments\n- **Network restrictions**: Some networks block browser automation - try different network or VPN\n- **HTTP\u002F2 issues**: The server automatically handles HTTP\u002F2 protocol errors with fallback to HTTP\u002F1.1\n\n### Search Quality Issues\n- **Enable quality checking**: Set `ENABLE_RELEVANCE_CHECKING=true` (enabled by default)\n- **Adjust quality threshold**: Set `RELEVANCE_THRESHOLD=0.5` for stricter quality requirements\n- **Force multi-engine search**: Set `FORCE_MULTI_ENGINE_SEARCH=true` to try all engines and return the best results\n\n### Memory Usage\n- **Automatic cleanup**: Browsers are automatically cleaned up after each operation to prevent memory leaks\n- **Limit browsers**: Reduce `MAX_BROWSERS` (default: 3)\n- **EventEmitter warnings**: Fixed - browsers are properly closed to prevent listener accumulation\n\n## For Development\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fmrkrsl\u002Fweb-search-mcp.git\ncd web-search-mcp\nnpm install\nnpx playwright install\nnpm run build\n```\n\n## Development\n\n```bash\nnpm run dev    # Development with hot reload\nnpm run build  # Build TypeScript to JavaScript\nnpm run lint   # Run ESLint\nnpm run format # Run Prettier\n```\n\n## MCP Tools\n\nThis server provides three specialised tools for different web search needs:\n\n### 1. `full-web-search` (Main Tool)\nThe most comprehensive web search tool that:\n1. Takes a search query and optional number of results (1-10, default 5)\n2. Performs a web search (tries Bing, then Brave, then DuckDuckGo if needed)\n3. Fetches full page content from each result URL with concurrent processing\n4. Returns structured data with search results and extracted content\n5. **Enhanced reliability**: HTTP\u002F2 error recovery, reduced timeouts, and better error handling\n\n**Example Usage:**\n```json\n{\n  \"name\": \"full-web-search\",\n  \"arguments\": {\n    \"query\": \"TypeScript MCP server\",\n    \"limit\": 3,\n    \"includeContent\": true\n  }\n}\n```\n\n### 2. `get-web-search-summaries` (Lightweight Alternative)\nA lightweight alternative for quick search results:\n1. Takes a search query and optional number of results (1-10, default 5)\n2. Performs the same optimised multi-engine search as `full-web-search`\n3. Returns only search result snippets\u002Fdescriptions (no content extraction)\n4. Faster and more efficient for quick research\n\n**Example Usage:**\n```json\n{\n  \"name\": \"get-web-search-summaries\",\n  \"arguments\": {\n    \"query\": \"TypeScript MCP server\",\n    \"limit\": 5\n  }\n}\n```\n\n### 3. `get-single-web-page-content` (Utility Tool)\nA utility tool for extracting content from a specific webpage:\n1. Takes a single URL as input\n2. Follows the URL and extracts the main page content\n3. Removes navigation, ads, and other non-content elements\n4. Useful for getting detailed content from a known webpage\n\n**Example Usage:**\n```json\n{\n  \"name\": \"get-single-web-page-content\",\n  \"arguments\": {\n    \"url\": \"https:\u002F\u002Fexample.com\u002Farticle\",\n    \"maxContentLength\": 5000\n  }\n}\n```\n\n## Standalone Usage\n\nYou can also run the server directly:\n```bash\n# If running from source\nnpm start\n```\n\n## Documentation\n\nSee [API.md](.\u002Fdocs\u002FAPI.md) for complete technical details.\n\n## License\n\nMIT License - see [LICENSE](.\u002FLICENSE) for details.\n\n## Feedback\n\nThis is an open source project and we welcome feedback! If you encounter any issues or have suggestions for improvements, please:\n\n- Open an issue on GitHub\n- Submit a pull request\n","# 用于本地大模型的网页搜索 MCP 服务器\n\n一个基于 TypeScript 的 MCP（模型上下文协议）服务器，通过直接连接（无需 API 密钥）多种工具，为不同用例提供全面的网页搜索功能。\n\n## 特性\n\n- **多引擎网页搜索**：优先使用必应 > 布拉夫 > 鸭鸭搜，以确保最佳的可靠性和性能\n- **完整页面内容提取**：从搜索结果中获取并提取完整的页面内容\n- **多种搜索工具**：三种专门的工具，适用于不同的应用场景\n- **智能请求策略**：在 Playwright 浏览器和快速的 Axios 请求之间切换，以确保返回结果\n- **并发处理**：同时从多个页面提取内容\n\n## 工作原理\n\n该服务器提供三种专门的工具，以满足不同的网页搜索需求：\n\n### 1. `full-web-search`（主工具）\n当请求全面搜索时，服务器会使用**优化的搜索策略**：\n1. **基于浏览器的必应搜索** - 使用专用的 Chromium 实例作为主要方法\n2. **基于浏览器的布拉夫搜索** - 使用专用的 Firefox 实例作为次要选项\n3. **Axios 鸭鸭搜** - 最后使用传统的 HTTP 请求作为备用\n4. **专用浏览器隔离**：每个搜索引擎都有自己的浏览器实例，并自动清理\n5. **内容提取**：首先尝试 Axios，然后回退到模拟人类行为的浏览器\n6. **并发处理**：同时从多个页面提取内容，并设置超时保护\n7. **HTTP\u002F2 错误恢复**：当出现协议错误时，自动回退到 HTTP\u002F1.1\n\n### 2. `get-web-search-summaries`（轻量级替代工具）\n对于不需要完整内容提取的快速搜索结果：\n1. 执行与 `full-web-search` 相同的优化多引擎搜索\n2. 只返回搜索结果摘要\u002F描述\n3. 不会跟随链接提取完整页面内容\n\n### 3. `get-single-web-page-content`（实用工具）\n用于从特定网页提取内容：\n1. 接受单个 URL 作为输入\n2. 跟随该 URL 并提取主要页面内容\n3. 移除导航、广告和其他非内容元素\n\n## 兼容性\n\n此 MCP 服务器已针对 **LM Studio** 和 **LibreChat** 进行开发和测试。尚未在其他 MCP 客户端上进行测试。\n\n### 模型兼容性\n**重要提示**：优先使用专为工具调用设计的较新模型。\n\n较旧的模型（即使指定了工具调用功能）可能无法正常工作或表现不稳定。这似乎在 Llama 和 Deepseek 上尤为明显。目前，Qwen3 和 Gemma 3 表现最佳。\n\n- ✅ 与 **Qwen3** 兼容良好\n- ✅ 与 **Gemma 3** 兼容良好\n- ✅ 与 **Llama 3.2** 兼容\n- ✅ 与近期的 **Llama 3.1**（如 3.1 swallow-8B）兼容\n- ✅ 与近期的 **Deepseek R1**（如 0528 版本）兼容\n- ⚠️ 部分版本的 **Llama** 和 **Deepseek R1** 可能存在问题\n- ❌ 较旧版本的 **Llama** 和 **Deepseek R1** 可能不兼容\n\n## 安装（推荐）\n\n**要求**：\n- Node.js 18.0.0 或更高版本\n- npm 8.0.0 或更高版本\n\n1. 从 [Releases 页面](https:\u002F\u002Fgithub.com\u002Fmrkrsl\u002Fweb-search-mcp\u002Freleases) 下载最新发布的压缩包\n2. 将压缩包解压到系统中的某个位置（例如 `~\u002Fmcp-servers\u002Fweb-search-mcp\u002F`）\n3. **在解压后的文件夹中打开终端并运行以下命令**：\n   ```bash\n   npm install\n   npx playwright install\n   npm run build\n   ```\n   这将创建包含所有必要依赖项的 `node_modules` 文件夹，安装 Playwright 浏览器，并构建项目。\n\n   **注意**：必须在解压后的根目录下运行 `npm install`，而不是在 `dist\u002F` 目录下。\n4. 配置你的 `mcp.json` 文件，使其指向解压后的 `dist\u002Findex.js` 文件：\n\n```json\n{\n  \"mcpServers\": {\n    \"web-search\": {\n      \"command\": \"node\",\n      \"args\": [\"\u002Fpath\u002Fto\u002Fextracted\u002Fweb-search-mcp\u002Fdist\u002Findex.js\"]\n    }\n  }\n}\n```\n\n**示例路径**：\n- macOS\u002FLinux：`~\u002Fmcp-servers\u002Fweb-search-mcp\u002Fdist\u002Findex.js`\n- Windows：`C:\\\\mcp-servers\\\\web-search-mcp\\\\dist\\\\index.js`\n\n在 LibreChat 中，你可以将 MCP 服务器添加到 `librechat.yaml` 文件中。如果你在 Docker 中运行 LibreChat，则需要先在 `docker-compose.override.yml` 文件中挂载本地目录。\n\n在 `docker-compose.override.yml` 中：\n```yaml\nservices:\n  api:\n    volumes:\n    - type: bind\n      source: \u002Fpath\u002Fto\u002Fyour\u002Fmcp\u002Fdirectory\n      target: \u002Fapp\u002Fmcp\n```\n\n在 `librechat.yaml` 中：\n```yaml\nmcpServers:\n  web-search:\n    type: stdio\n    command: node\n    args:\n    - \u002Fapp\u002Fmcp\u002Fweb-search-mcp\u002Fdist\u002Findex.js\n    serverInstructions: true\n```\n\n**故障排除**：\n- 如果 `npm install` 失败，请尝试将 Node.js 更新至 18 版本及以上，npm 更新至 8 版本及以上\n- 如果 `npm run build` 失败，请确保已安装最新版本的 Node.js\n- 对于较旧的 Node.js 版本，可能需要使用该项目的旧版本\n- **内容长度问题**：如果因内容长度限制而出现异常行为，可在 `mcp.json` 的环境变量中设置 `\"MAX_CONTENT_LENGTH\": \"10000\"`，或其他值：\n\n```json\n{\n  \"mcpServers\": {\n    \"web-search\": {\n      \"command\": \"node\",\n      \"args\": [\"\u002Fpath\u002Fto\u002Fweb-search-mcp\u002Fdist\u002Findex.js\"],\n      \"env\": {\n        \"MAX_CONTENT_LENGTH\": \"10000\",\n        \"BROWSER_HEADLESS\": \"true\",\n        \"MAX_BROWSERS\": \"3\",\n        \"BROWSER_FALLBACK_THRESHOLD\": \"3\"\n      }\n    }\n  }\n}\n```\n\n## 环境变量\n\n该服务器支持多个环境变量进行配置：\n\n- **`MAX_CONTENT_LENGTH`**：最大内容长度（默认：500000 字符）\n- **`DEFAULT_TIMEOUT`**：默认请求超时时间（单位：毫秒，默认：6000 毫秒）\n- **`MAX_BROWSERS`**：最多可维护的浏览器实例数量（默认：3 个）\n- **`BROWSER_TYPES`**：要使用的浏览器类型列表，用逗号分隔（默认：chromium,firefox；可选：chromium,firefox,webkit）\n- **`BROWSER_FALLBACK_THRESHOLD`**：在使用浏览器回退之前，允许的 Axios 失败次数（默认：3 次）\n\n### 搜索质量和引擎选择\n\n- **`ENABLE_RELEVANCE_CHECKING`**：启用或禁用搜索结果质量验证（默认：开启）\n- **`RELEVANCE_THRESHOLD`**：搜索结果的最低质量分数（0.0-1.0，默认：0.3）\n- **`FORCE_MULTI_ENGINE_SEARCH`**：尝试所有搜索引擎并返回最佳结果（默认：关闭）\n- **`DEBUG_BROWSER_LIFECYCLE`**：启用详细的浏览器生命周期日志记录，用于调试（默认：关闭）\n\n## 故障排除\n\n### 响应时间过慢\n- **优化超时设置**：默认超时时间已缩短至 6 秒，并采用并发处理以加快响应速度\n- **并发提取**：现在可以同时从多个页面提取内容\n- **进一步缩短超时时间**：将 `DEFAULT_TIMEOUT=4000`，以获得更快的响应（可能会降低成功率）\n- **减少浏览器数量**：将 `MAX_BROWSERS=1`，以减少内存占用\n\n### 搜索失败\n- **检查浏览器安装**：运行 `npx playwright install` 以确保浏览器已正确安装。\n- **尝试无头模式**：在服务器环境中，请确保设置 `BROWSER_HEADLESS=true`（默认值）。\n- **网络限制**：某些网络会阻止浏览器自动化操作，可尝试更换网络或使用 VPN。\n- **HTTP\u002F2 问题**：服务器会自动处理 HTTP\u002F2 协议错误，并回退到 HTTP\u002F1.1。\n\n### 搜索质量问题\n- **启用质量检查**：将 `ENABLE_RELEVANCE_CHECKING=true` 设置为启用状态（默认已启用）。\n- **调整质量阈值**：将 `RELEVANCE_THRESHOLD=0.5` 设置为更严格的质量要求。\n- **强制多引擎搜索**：将 `FORCE_MULTI_ENGINE_SEARCH=true` 设置为启用状态，以尝试所有搜索引擎并返回最佳结果。\n\n### 内存使用\n- **自动清理**：每次操作后都会自动清理浏览器，防止内存泄漏。\n- **限制浏览器数量**：减少 `MAX_BROWSERS` 的值（默认值为 3）。\n- **EventEmitter 警告修复**：已修复浏览器未正确关闭导致监听器堆积的问题。\n\n## 开发环境\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fmrkrsl\u002Fweb-search-mcp.git\ncd web-search-mcp\nnpm install\nnpx playwright install\nnpm run build\n```\n\n## 开发流程\n\n```bash\nnpm run dev    # 开发模式，支持热重载\nnpm run build  # 将 TypeScript 编译为 JavaScript\nnpm run lint   # 运行 ESLint 进行代码检查\nnpm run format # 运行 Prettier 进行代码格式化\n```\n\n## MCP 工具集\n\n本服务器提供三种专门的工具，以满足不同的网页搜索需求：\n\n### 1. `full-web-search`（主工具）\n这是功能最全面的网页搜索工具：\n1. 接受搜索关键词及可选的结果数量（1–10 条，默认 5 条）。\n2. 执行多引擎搜索（优先使用 Bing，其次为 Brave，最后是 DuckDuckGo）。\n3. 并发抓取每个搜索结果页面的完整内容。\n4. 返回结构化数据，包含搜索结果及提取的内容。\n5. **增强可靠性**：具备 HTTP\u002F2 错误恢复机制、缩短超时时间，并改进了错误处理。\n\n**示例用法：**\n```json\n{\n  \"name\": \"full-web-search\",\n  \"arguments\": {\n    \"query\": \"TypeScript MCP 服务器\",\n    \"limit\": 3,\n    \"includeContent\": true\n  }\n}\n```\n\n### 2. `get-web-search-summaries`（轻量级替代方案）\n适用于快速获取搜索结果的轻量级工具：\n1. 接受搜索关键词及可选的结果数量（1–10 条，默认 5 条）。\n2. 执行与 `full-web-search` 相同的优化多引擎搜索。\n3. 仅返回搜索结果摘要或描述（不提取页面内容）。\n4. 更加快速高效，适合快速研究场景。\n\n**示例用法：**\n```json\n{\n  \"name\": \"get-web-search-summaries\",\n  \"arguments\": {\n    \"query\": \"TypeScript MCP 服务器\",\n    \"limit\": 5\n  }\n}\n```\n\n### 3. `get-single-web-page-content`（实用工具）\n用于从特定网页中提取内容的实用工具：\n1. 接受单个 URL 作为输入。\n2. 访问该 URL 并提取主要页面内容。\n3. 去除导航栏、广告及其他非内容元素。\n4. 适用于从已知网页中获取详细内容。\n\n**示例用法：**\n```json\n{\n  \"name\": \"get-single-web-page-content\",\n  \"arguments\": {\n    \"url\": \"https:\u002F\u002Fexample.com\u002Farticle\",\n    \"maxContentLength\": 5000\n  }\n}\n```\n\n## 独立运行\n您也可以直接运行服务器：\n```bash\n# 如果从源码运行\nnpm start\n```\n\n## 文档\n完整的技术细节请参阅 [API.md](.\u002Fdocs\u002FAPI.md)。\n\n## 许可证\nMIT 许可证——详情请参阅 [LICENSE](.\u002FLICENSE)。\n\n## 反馈\n本项目为开源项目，我们非常欢迎您的反馈！如果您遇到任何问题或有改进建议，请：\n- 在 GitHub 上提交 Issue\n- 提交 Pull Request","# web-search-mcp 快速上手指南\n\n`web-search-mcp` 是一个基于 TypeScript 开发的 MCP（Model Context Protocol）服务器，专为本地大语言模型（Local LLMs）提供强大的网页搜索能力。它无需 API Key，通过直接连接 Bing、Brave 和 DuckDuckGo 等多个搜索引擎，实现全面的网页内容提取与搜索。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Windows, macOS, 或 Linux\n*   **Node.js**：版本 18.0.0 或更高\n*   **npm**：版本 8.0.0 或更高\n*   **推荐模型**：为了获得最佳工具调用效果，建议使用 **Qwen3**、**Gemma 3** 或较新版本的 **Llama 3.1\u002F3.2**。旧版模型可能无法稳定工作。\n\n> **国内加速提示**：如果 `npm install` 下载依赖较慢，建议配置国内镜像源：\n> ```bash\n> npm config set registry https:\u002F\u002Fregistry.npmmirror.com\n> ```\n\n## 安装步骤\n\n1.  **下载源码**\n    从 [Releases 页面](https:\u002F\u002Fgithub.com\u002Fmrkrsl\u002Fweb-search-mcp\u002Freleases) 下载最新版本的 zip 文件，并解压到您的本地目录（例如：`~\u002Fmcp-servers\u002Fweb-search-mcp\u002F`）。\n\n2.  **安装依赖与构建**\n    打开终端进入解压后的根目录，依次执行以下命令。这将安装项目依赖、下载 Playwright 浏览器内核并编译 TypeScript 代码。\n\n    ```bash\n    npm install\n    npx playwright install\n    npm run build\n    ```\n\n    > **注意**：务必在项目根目录执行 `npm install`，不要在 `dist\u002F` 目录下执行。\n\n3.  **配置 MCP 客户端**\n    根据您的 MCP 客户端（如 LM Studio 或 LibreChat），修改配置文件以指向构建好的入口文件 `dist\u002Findex.js`。\n\n    **通用 `mcp.json` 配置示例：**\n\n    ```json\n    {\n      \"mcpServers\": {\n        \"web-search\": {\n          \"command\": \"node\",\n          \"args\": [\"\u002Fpath\u002Fto\u002Fextracted\u002Fweb-search-mcp\u002Fdist\u002Findex.js\"]\n        }\n      }\n    }\n    ```\n\n    *   **macOS\u002FLinux 路径示例**: `~\u002Fmcp-servers\u002Fweb-search-mcp\u002Fdist\u002Findex.js`\n    *   **Windows 路径示例**: `C:\\\\mcp-servers\\\\web-search-mcp\\\\dist\\\\index.js`\n\n    **LibreChat (Docker) 额外配置**：\n    若使用 Docker 运行 LibreChat，需在 `docker-compose.override.yml` 中挂载本地目录，并在 `librechat.yaml` 中指定路径为 `\u002Fapp\u002Fmcp\u002F...`。\n\n## 基本使用\n\n安装配置完成后，您可以在支持 MCP 的聊天界面中调用以下三个核心工具。\n\n### 1. 全面网页搜索 (`full-web-search`)\n**用途**：执行深度搜索，获取搜索结果并提取完整的网页正文内容。\n**策略**：自动按顺序尝试 Bing -> Brave -> DuckDuckGo，确保高成功率。\n\n**调用示例：**\n```json\n{\n  \"name\": \"full-web-search\",\n  \"arguments\": {\n    \"query\": \"TypeScript MCP server 教程\",\n    \"limit\": 3,\n    \"includeContent\": true\n  }\n}\n```\n\n### 2. 快速获取摘要 (`get-web-search-summaries`)\n**用途**：仅获取搜索结果的标题和摘要片段，不抓取全文。速度更快，适合快速调研。\n\n**调用示例：**\n```json\n{\n  \"name\": \"get-web-search-summaries\",\n  \"arguments\": {\n    \"query\": \"2024 年 AI 发展趋势\",\n    \"limit\": 5\n  }\n}\n```\n\n### 3. 单页内容提取 (`get-single-web-page-content`)\n**用途**：已知具体 URL 时，提取该页面的主要文本内容（自动去除广告、导航栏等噪音）。\n\n**调用示例：**\n```json\n{\n  \"name\": \"get-single-web-page-content\",\n  \"arguments\": {\n    \"url\": \"https:\u002F\u002Fexample.com\u002Farticle\",\n    \"maxContentLength\": 5000\n  }\n}\n```","一位数据分析师正使用本地部署的 Llama 3.2 模型，急需整理一份关于“最新生成式 AI 监管政策”的深度简报。\n\n### 没有 web-search-mcp 时\n- **信息滞后严重**：本地大模型受限于训练数据截止时间，完全无法获取本周发布的最新法规草案，只能提供过时的旧闻。\n- **手动操作繁琐**：用户必须中断对话，切换到浏览器手动搜索、逐个打开链接、复制粘贴内容，再喂回给模型，工作流频繁断裂。\n- **内容噪音干扰**：手动抓取的网页往往包含大量导航栏、广告和无关脚本，需要人工清洗后才能让模型理解，效率极低。\n- **缺乏并发能力**：面对多篇深度报道，用户只能串行处理，无法同时提取多个来源的核心观点进行交叉验证。\n\n### 使用 web-search-mcp 后\n- **实时情报获取**：web-search-mcp 自动调用 Bing 和 Brave 引擎，直接为本地模型注入最新的政策原文和解读，打破知识时效壁垒。\n- **流程无缝闭环**：用户在对话框输入指令，工具自动完成从搜索、智能选择浏览器内核到提取全文的全过程，无需离开聊天界面。\n- **纯净内容交付**：利用其内置的内容提取功能，自动过滤广告与导航元素，仅将结构化的正文内容传递给模型，显著提升回答质量。\n- **高效并行处理**：借助并发处理机制，同时抓取并分析五个不同权威来源的页面，瞬间生成多维度的对比分析报告。\n\nweb-search-mcp 将本地大模型从“离线知识库”升级为具备实时感知能力的智能助手，彻底打通了本地隐私计算与全球即时信息的最后一公里。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmrkrsl_web-search-mcp_80906a1f.png","mrkrsl","Mark Russell","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmrkrsl_927169b7.jpg",null,"@automationcloud","London","https:\u002F\u002Fmrussell.co.uk","https:\u002F\u002Fgithub.com\u002Fmrkrsl",[81,85],{"name":82,"color":83,"percentage":84},"TypeScript","#3178c6",67.5,{"name":86,"color":87,"percentage":88},"JavaScript","#f1e05a",32.5,729,106,"2026-04-06T12:10:36","MIT","Linux, macOS, Windows","未说明","未说明（建议根据 MAX_BROWSERS 设置调整，减少浏览器实例可降低内存占用）",{"notes":97,"python":98,"dependencies":99},"该工具基于 Node.js 和 TypeScript 开发，无需 Python 环境。安装后需运行 'npx playwright install' 下载 Chromium、Firefox 等浏览器内核。推荐使用支持工具调用的较新大模型（如 Qwen3、Gemma 3），旧版 Llama 或 Deepseek 可能兼容性不佳。若在 Docker 中运行 LibreChat，需挂载本地目录。可通过环境变量配置最大内容长度、超时时间及浏览器并发数量。","不需要",[100,101,102],"Node.js>=18.0.0","npm>=8.0.0","playwright",[14,35],[105,106,107,108,109],"llm","lmstudio","local-llm","mcp","web-search","2026-03-27T02:49:30.150509","2026-04-07T00:51:47.509426",[113,118,123,128,133],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},20588,"是否有该项目的容器化（Docker）版本？","是的，社区已经提供了 Docker 镜像。您可以直接拉取并使用：`straafe\u002Fweb-search-mcp:latest`。该镜像基于之前的 PR 构建，已包含所有必要的依赖。","https:\u002F\u002Fgithub.com\u002Fmrkrsl\u002Fweb-search-mcp\u002Fissues\u002F22",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},20589,"运行 node install 时出现 'Cannot find module' 错误怎么办？","这通常是因为执行了错误的命令。请检查您的操作步骤，确保在正确的目录下运行了正确的安装指令。如果使用的是预发布的二进制文件，通常不需要手动运行 `node install`；如果是源码安装，请确保先运行 `npm install` 安装依赖。","https:\u002F\u002Fgithub.com\u002Fmrkrsl\u002Fweb-search-mcp\u002Fissues\u002F12",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},20590,"使用 PNPM 安装时报缺少 'zod' 依赖错误如何解决？","这是由于 `package.json` 中未显式列出 `zod` 依赖，而 PNPM 的非扁平化节点结构导致无法自动解析。解决方法是手动在 `package.json` 中添加 zod 依赖，例如：`\"zod\": \"^3.25.0\"`（具体版本号可参考 lock 文件），然后重新安装。维护者已在后续版本中修复此问题。","https:\u002F\u002Fgithub.com\u002Fmrkrsl\u002Fweb-search-mcp\u002Fissues\u002F4",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},20591,"搜索工具返回空结果或输出为空怎么办？","首先请确认您调用的工具名称是否正确。该 MCP 服务器的工具标识符应为 `full-web-search` 而不是 `search`。如果您配置了多个 Web 搜索 MCP 服务器，可能会发生冲突。建议检查 LM Studio 或其他客户端的“Program”面板配置，确保指向正确的工具和服务器。","https:\u002F\u002Fgithub.com\u002Fmrkrsl\u002Fweb-search-mcp\u002Fissues\u002F3",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},20592,"升级后搜索返回的结果与提示词无关（不相关）怎么办？","这可能是由于搜索引擎的反爬虫机制（Bot-detection）导致的。请升级到最新版本（v0.3.1 或更高）。新版本代码增加了更真实的查询参数，并在 Playwright 中增加了先导航到 Bing 首页的步骤，以提高浏览器的隐蔽性和结果的准确性。","https:\u002F\u002Fgithub.com\u002Fmrkrsl\u002Fweb-search-mcp\u002Fissues\u002F2",[139,144,149,154,159,164,169,174],{"id":140,"version":141,"summary_zh":142,"released_at":143},126598,"v0.3.2","用于本地大模型的网页搜索 MCP 服务器是一个 TypeScript 编写的 MCP（模型上下文协议）服务器，能够在 LM Studio 等平台上执行网页搜索，并从搜索结果中提取完整页面内容。\n\nv0.3.2 版本新增了 zod 作为缺失的依赖项。\n\n请参阅 [README.md](https:\u002F\u002Fgithub.com\u002Fmrkrsl\u002Fweb-search-mcp?tab=readme-ov-file#installation-recommended) 获取安装说明。","2025-08-07T16:28:12",{"id":145,"version":146,"summary_zh":147,"released_at":148},126599,"v0.3.1","用于本地大模型的网页搜索 MCP 服务器是一个 TypeScript 编写的 MCP（模型上下文协议）服务器，能够在 LM Studio 等平台上执行网页搜索，并从搜索结果中提取完整页面内容。\n\nv0.3.1 修复了在将搜索引擎由 Google 替换为 Bing、再回退到 Brave 和 DuckDuckGo 后出现的问题。同时，还增强了无头浏览器的稳定性。建议优先安装此版本，而非 v0.3.0。\n\n安装说明请参阅 [README.md](https:\u002F\u002Fgithub.com\u002Fmrkrsl\u002Fweb-search-mcp?tab=readme-ov-file#installation-recommended)。","2025-08-03T12:34:54",{"id":150,"version":151,"summary_zh":152,"released_at":153},126600,"v0.2.2","用于本地大语言模型的网页搜索 MCP 服务器是一个 TypeScript MCP（模型上下文协议）服务器，能够在 LM Studio 等平台上执行网页搜索，并从搜索结果中提取完整页面内容。\n\nv0.2.2 包含一项小更新，允许在 mcp.json 中设置 `MAX_CONTENT_LENGTH`，以缓解某些用例中与内容长度相关的问题。\n\n安装说明请参阅 [README.md](https:\u002F\u002Fgithub.com\u002Fmrkrsl\u002Fweb-search-mcp\u002F)。","2025-07-29T14:05:50",{"id":155,"version":156,"summary_zh":157,"released_at":158},126601,"v0.2.1","用于本地大语言模型的网页搜索 MCP 服务器是一个 TypeScript MCP（模型上下文协议）服务器，能够在 LM Studio 等平台上执行网页搜索，并从搜索结果中提取完整页面内容。\n\n在 v0.2.1 中，`full-web-search` 功能现已增加对搜索结果是否为 PDF 文件的检查；如果是 PDF，则会直接跳过该结果。这一改进有效避免了无法获取 PDF 文件内容的问题。\n\n其余两个工具 `get-web-search-summaries` 和 `get-single-web-page-content` 则保持与上一版本一致。\n\n有关安装说明，请参阅 [README.md](https:\u002F\u002Fgithub.com\u002Fmrkrsl\u002Fweb-search-mcp\u002F)。","2025-07-28T16:28:06",{"id":160,"version":161,"summary_zh":162,"released_at":163},126602,"v0.2.0","用于本地大模型的 Web 搜索 MCP 服务器是一个 TypeScript 编写的 MCP（模型上下文协议）服务器，能够在 LM Studio 等平台上执行网页搜索，并从搜索结果中提取完整页面内容。\n\n该 **web-search** MCP 服务器包含三个工具：\n* `full-web-search`：执行网页搜索，并从排名靠前的搜索结果中获取完整内容。\n* `get-web-search-summaries`：执行网页搜索，返回结果页上的简短摘要（是 `full-web-search` 的轻量级替代方案）。\n* `get-single-web-page-content`：从指定的 URL 中提取页面内容。\n\n版本 v0.2.0 新增了对 `get-web-search-summaries` 和 `get-single-web-page-content` 这两个工具的支持。","2025-07-14T13:43:53",{"id":165,"version":166,"summary_zh":167,"released_at":168},126603,"v0.1.4","用于本地大模型的网页搜索 MCP 服务器是一款 TypeScript 编写的 MCP（模型上下文协议）服务器，能够在 LM Studio 等平台上执行网页搜索，并从搜索结果中提取完整页面内容。\n\nv0.1.4 对 Llama 和 Deepseek 模型提供了更好的支持。","2025-07-10T15:20:08",{"id":170,"version":171,"summary_zh":172,"released_at":173},126604,"v0.1.3","用于本地大语言模型的网页搜索 MCP 服务器是一个 TypeScript MCP（模型上下文协议）服务器，能够在 LM Studio 等平台上执行网页搜索，并从搜索结果中提取完整页面内容。\n\nv0.1.3 更新了所有 npm 依赖，以确保在所有机器上使用最新版 npm 时都能顺利安装。","2025-07-06T16:15:32",{"id":175,"version":176,"summary_zh":177,"released_at":178},126605,"v0.1.2","用于本地大语言模型的网页搜索 MCP 服务器是一个 TypeScript 编写的 MCP（模型上下文协议）服务器，能够在 LM Studio 等平台上执行网页搜索，并从搜索结果中提取完整页面内容。\n\nv0.1.2 是一次更新，旨在确保依赖项的正确构建。","2025-07-01T17:03:34"]