[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-patruff--ollama-mcp-bridge":3,"tool-patruff--ollama-mcp-bridge":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",152630,2,"2026-04-12T23:33:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":76,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":77,"languages":78,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":95,"env_os":96,"env_gpu":97,"env_ram":98,"env_deps":99,"category_tags":110,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":111,"updated_at":112,"faqs":113,"releases":140},7038,"patruff\u002Follama-mcp-bridge","ollama-mcp-bridge","Bridge between Ollama and MCP servers, enabling local LLMs to use Model Context Protocol tools","ollama-mcp-bridge 是一款连接本地大语言模型与外部工具的智能桥梁。它基于 TypeScript 开发，旨在让通过 Ollama 运行的开源模型（如 Qwen、Llama 等）能够像 Claude 一样，调用文件系统、网络搜索、GitHub 交互、邮件发送及图像生成等丰富能力。\n\n过去，本地部署的 AI 往往局限于纯文本对话，难以操作电脑或访问外部数据。ollama-mcp-bridge 解决了这一痛点，通过实现模型上下文协议（MCP），将本地模型的输出转化为标准的工具调用指令，打破了本地 AI 的“孤岛”状态，使其真正具备执行复杂任务的能力。\n\n这款工具特别适合开发者、技术研究人员以及希望构建私有化智能助手的极客用户。如果你希望在保护数据隐私的前提下，让本地模型帮你管理代码库、整理文档或自动化日常办公流程，它将是不二之选。\n\n其技术亮点在于支持动态多服务路由与结构化输出验证。它能智能识别用户意图，自动将请求分发给对应的 MCP 服务器，并具备完善的错误处理与日志记录机制。只需简单配置，即可让轻量级的本地模型拥有强大的扩展生态，成为真正得力的本地 AI 助手。","# MCP-LLM Bridge\n\nA TypeScript implementation that connects local LLMs (via Ollama) to Model Context Protocol (MCP) servers. This bridge allows open-source models to use the same tools and capabilities as Claude, enabling powerful local AI assistants.\n\n## Overview\n\nThis project bridges local Large Language Models with MCP servers that provide various capabilities like:\n- Filesystem operations\n- Brave web search\n- GitHub interactions\n- Google Drive & Gmail integration\n- Memory\u002Fstorage\n- Image generation with Flux\n\nThe bridge translates between the LLM's outputs and the MCP's JSON-RPC protocol, allowing any Ollama-compatible model to use these tools just like Claude does.\n\n## Current Setup\n\n- **LLM**: Using Qwen 2.5 7B (qwen2.5-coder:7b-instruct) through Ollama\n- **MCPs**:\n  - Filesystem operations (`@modelcontextprotocol\u002Fserver-filesystem`)\n  - Brave Search (`@modelcontextprotocol\u002Fserver-brave-search`)\n  - GitHub (`@modelcontextprotocol\u002Fserver-github`)\n  - Memory (`@modelcontextprotocol\u002Fserver-memory`)\n  - Flux image generation (`@patruff\u002Fserver-flux`)\n  - Gmail & Drive (`@patruff\u002Fserver-gmail-drive`)\n\n## Architecture\n\n- **Bridge**: Core component that manages tool registration and execution\n- **LLM Client**: Handles Ollama interactions and formats tool calls\n- **MCP Client**: Manages MCP server connections and JSON-RPC communication\n- **Tool Router**: Routes requests to appropriate MCP based on tool type\n\n### Key Features\n- Multi-MCP support with dynamic tool routing\n- Structured output validation for tool calls\n- Automatic tool detection from user prompts\n- Robust process management for Ollama\n- Detailed logging and error handling\n\n## Setup\n\n1. Install Ollama and required model:\n```bash\nollama pull qwen2.5-coder:7b-instruct\n```\n\n2. Install MCP servers:\n```bash\nnpm install -g @modelcontextprotocol\u002Fserver-filesystem\nnpm install -g @modelcontextprotocol\u002Fserver-brave-search\nnpm install -g @modelcontextprotocol\u002Fserver-github\nnpm install -g @modelcontextprotocol\u002Fserver-memory\nnpm install -g @patruff\u002Fserver-flux\nnpm install -g @patruff\u002Fserver-gmail-drive\n```\n\n3. Configure credentials:\n   - Set `BRAVE_API_KEY` for Brave Search\n   - Set `GITHUB_PERSONAL_ACCESS_TOKEN` for GitHub\n   - Set `REPLICATE_API_TOKEN` for Flux\n   - Run Gmail\u002FDrive MCP auth: `node path\u002Fto\u002Fgmail-drive\u002Findex.js auth`\n   - For example node C:\\Users\\patru\\AppData\\Roaming\\npm\\node_modules\\@patruff\\server-gmail-drive\\dist\\index.js auth\n\n## Configuration\n\nThe bridge is configured through `bridge_config.json`:\n- MCP server definitions\n- LLM settings (model, temperature, etc.)\n- Tool permissions and paths\n\nExample:\n```json\n{\n  \"mcpServers\": {\n    \"filesystem\": {\n      \"command\": \"node\",\n      \"args\": [\"path\u002Fto\u002Fserver-filesystem\u002Fdist\u002Findex.js\"],\n      \"allowedDirectory\": \"workspace\u002Fpath\"\n    },\n    \u002F\u002F ... other MCP configurations\n  },\n  \"llm\": {\n    \"model\": \"qwen2.5-coder:7b-instruct\",\n    \"baseUrl\": \"http:\u002F\u002Flocalhost:11434\"\n  }\n}\n```\n\n## Usage\n\n1. Start the bridge:\n```bash\nnpm run start\n```\n\n2. Available commands:\n   - `list-tools`: Show available tools\n   - Regular text: Send prompts to the LLM\n   - `quit`: Exit the program\n\nExample interactions:\n```\n> Search the web for \"latest TypeScript features\"\n[Uses Brave Search MCP to find results]\n\n> Create a new folder called \"project-docs\"\n[Uses Filesystem MCP to create directory]\n\n> Send an email to user@example.com\n[Uses Gmail MCP to compose and send email]\n```\n\n## Technical Details\n\n### Tool Detection\nThe bridge includes smart tool detection based on user input:\n- Email operations: Detected by email addresses and keywords\n- Drive operations: Detected by file\u002Ffolder keywords\n- Search operations: Contextually routed to appropriate search tool\n\n### Response Processing\nResponses are processed through multiple stages:\n1. LLM generates structured tool calls\n2. Bridge validates and routes to appropriate MCP\n3. MCP executes operation and returns result\n4. Bridge formats response for user\n\n## Extended Capabilities\n\nThis bridge effectively brings Claude's tool capabilities to local models:\n- Filesystem manipulation\n- Web search and research\n- Email and document management\n- Code and GitHub interactions\n- Image generation\n- Persistent memory\n\nAll while running completely locally with open-source models.\n\n## Future Improvements\n\n- Add support for more MCPs\n- Implement parallel tool execution\n- Add streaming responses\n- Enhance error recovery\n- Add conversation memory\n- Support more Ollama models\n\n## Related Projects\n\nThis bridge integrates with the broader Claude ecosystem:\n- Model Context Protocol (MCP)\n- Claude Desktop Configuration\n- Ollama Project\n- Various MCP server implementations\n\nThe result is a powerful local AI assistant that can match many of Claude's capabilities while running entirely on your own hardware.\n","# MCP-LLM 桥接器\n\n一个使用 TypeScript 实现的桥接工具，通过 Ollama 将本地大语言模型连接到 Model Context Protocol (MCP) 服务器。该桥接器使开源模型能够使用与 Claude 相同的工具和功能，从而构建功能强大的本地 AI 助手。\n\n## 概述\n\n该项目将本地大型语言模型与提供多种能力的 MCP 服务器连接起来，这些能力包括：\n- 文件系统操作\n- Brave 网页搜索\n- GitHub 交互\n- Google Drive 和 Gmail 集成\n- 内存\u002F存储\n- 使用 Flux 进行图像生成\n\n桥接器在 LLM 的输出与 MCP 的 JSON-RPC 协议之间进行转换，使得任何兼容 Ollama 的模型都能像 Claude 一样使用这些工具。\n\n## 当前设置\n\n- **LLM**：通过 Ollama 使用 Qwen 2.5 7B（qwen2.5-coder:7b-instruct）\n- **MCPs**：\n  - 文件系统操作（`@modelcontextprotocol\u002Fserver-filesystem`）\n  - Brave 搜索（`@modelcontextprotocol\u002Fserver-brave-search`）\n  - GitHub（`@modelcontextprotocol\u002Fserver-github`）\n  - 内存（`@modelcontextprotocol\u002Fserver-memory`）\n  - Flux 图像生成（`@patruff\u002Fserver-flux`）\n  - Gmail 和 Drive（`@patruff\u002Fserver-gmail-drive`）\n\n## 架构\n\n- **桥接器**：核心组件，负责管理工具注册和执行\n- **LLM 客户端**：处理与 Ollama 的交互，并格式化工具调用\n- **MCP 客户端**：管理与 MCP 服务器的连接及 JSON-RPC 通信\n- **工具路由**：根据工具类型将请求路由到相应的 MCP\n\n### 主要特性\n- 支持多 MCP，动态路由工具调用\n- 对工具调用进行结构化输出验证\n- 自动从用户提示中检测工具\n- 强大的 Ollama 进程管理\n- 详细的日志记录和错误处理\n\n## 设置\n\n1. 安装 Ollama 和所需模型：\n   ```bash\n   ollama pull qwen2.5-coder:7b-instruct\n   ```\n\n2. 安装 MCP 服务器：\n   ```bash\n   npm install -g @modelcontextprotocol\u002Fserver-filesystem\n   npm install -g @modelcontextprotocol\u002Fserver-brave-search\n   npm install -g @modelcontextprotocol\u002Fserver-github\n   npm install -g @modelcontextprotocol\u002Fserver-memory\n   npm install -g @patruff\u002Fserver-flux\n   npm install -g @patruff\u002Fserver-gmail-drive\n   ```\n\n3. 配置凭证：\n   - 设置 `BRAVE_API_KEY` 用于 Brave 搜索\n   - 设置 `GITHUB_PERSONAL_ACCESS_TOKEN` 用于 GitHub\n   - 设置 `REPLICATE_API_TOKEN` 用于 Flux\n   - 运行 Gmail\u002FDrive MCP 认证：`node path\u002Fto\u002Fgmail-drive\u002Findex.js auth`\n   - 例如：`node C:\\Users\\patru\\AppData\\Roaming\\npm\\node_modules\\@patruff\\server-gmail-drive\\dist\\index.js auth`\n\n## 配置\n\n桥接器通过 `bridge_config.json` 进行配置：\n- MCP 服务器定义\n- LLM 设置（模型、温度等）\n- 工具权限和路径\n\n示例：\n```json\n{\n  \"mcpServers\": {\n    \"filesystem\": {\n      \"command\": \"node\",\n      \"args\": [\"path\u002Fto\u002Fserver-filesystem\u002Fdist\u002Findex.js\"],\n      \"allowedDirectory\": \"workspace\u002Fpath\"\n    },\n    \u002F\u002F ... 其他 MCP 配置\n  },\n  \"llm\": {\n    \"model\": \"qwen2.5-coder:7b-instruct\",\n    \"baseUrl\": \"http:\u002F\u002Flocalhost:11434\"\n  }\n}\n```\n\n## 使用\n\n1. 启动桥接器：\n   ```bash\n   npm run start\n   ```\n\n2. 可用命令：\n   - `list-tools`：显示可用工具\n   - 普通文本：向 LLM 发送提示\n   - `quit`：退出程序\n\n示例交互：\n```\n> 在网上搜索“最新的 TypeScript 特性”\n[使用 Brave Search MCP 查找结果]\n\n> 创建一个名为“project-docs”的新文件夹\n[使用 Filesystem MCP 创建目录]\n\n> 向 user@example.com 发送一封邮件\n[使用 Gmail MCP 编写并发送邮件]\n```\n\n## 技术细节\n\n### 工具检测\n桥接器基于用户输入实现了智能工具检测：\n- 邮件操作：通过电子邮件地址和关键词检测\n- Drive 操作：通过文件\u002F文件夹关键词检测\n- 搜索操作：根据上下文路由到相应的搜索工具\n\n### 响应处理\n响应经过多个阶段处理：\n1. LLM 生成结构化的工具调用\n2. 桥接器验证并路由到相应的 MCP\n3. MCP 执行操作并返回结果\n4. 桥接器将响应格式化后返回给用户\n\n## 扩展能力\n\n该桥接器有效地将 Claude 的工具能力引入本地模型：\n- 文件系统操作\n- 网络搜索和研究\n- 邮件和文档管理\n- 代码和 GitHub 交互\n- 图像生成\n- 持久化内存\n\n所有这些功能均可在本地运行，并且使用开源模型实现。\n\n## 未来改进\n\n- 增加对更多 MCP 的支持\n- 实现并行工具执行\n- 添加流式响应\n- 改进错误恢复机制\n- 增加对话记忆功能\n- 支持更多 Ollama 模型\n\n## 相关项目\n\n该桥接器与更广泛的 Claude 生态系统集成：\n- Model Context Protocol (MCP)\n- Claude Desktop 配置\n- Ollama 项目\n- 各种 MCP 服务器实现\n\n最终成果是一个功能强大的本地 AI 助手，能够在完全由您自己的硬件上运行的同时，媲美 Claude 的许多能力。","# ollama-mcp-bridge 快速上手指南\n\n`ollama-mcp-bridge` 是一个基于 TypeScript 的桥接工具，它能让本地运行的 Ollama 大模型（如 Qwen、Llama 等）通过 **Model Context Protocol (MCP)** 调用外部工具。这使得开源本地模型也能像 Claude 一样具备文件系统操作、联网搜索、GitHub 交互、邮件发送及图像生成等强大能力。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Windows, macOS 或 Linux\n*   **Node.js**：版本 >= 18.x (推荐最新 LTS 版本)\n*   **Ollama**：已安装并正常运行\n    *   国内用户若下载缓慢，可配置环境变量加速：\n        *   Windows (PowerShell): `$env:OLLAMA_HOST=\"http:\u002F\u002Fyour-internal-ip:11434\"` (需自行搭建镜像或使用代理)\n        *   通常直接访问官网安装即可，模型拉取时可配合网络代理。\n*   **API Keys**：根据所需功能准备以下密钥（可选，按需配置）：\n    *   `BRAVE_API_KEY` (用于网页搜索)\n    *   `GITHUB_PERSONAL_ACCESS_TOKEN` (用于 GitHub 操作)\n    *   `REPLICATE_API_TOKEN` (用于 Flux 图像生成)\n\n## 安装步骤\n\n### 1. 拉取大模型\n首先通过 Ollama 拉取推荐的代码模型（也可替换为其他支持的模型）：\n\n```bash\nollama pull qwen2.5-coder:7b-instruct\n```\n\n### 2. 安装 MCP 服务端\n全局安装所需的 MCP 服务器组件。这些组件提供了具体的工具能力：\n\n```bash\nnpm install -g @modelcontextprotocol\u002Fserver-filesystem\nnpm install -g @modelcontextprotocol\u002Fserver-brave-search\nnpm install -g @modelcontextprotocol\u002Fserver-github\nnpm install -g @modelcontextprotocol\u002Fserver-memory\nnpm install -g @patruff\u002Fserver-flux\nnpm install -g @patruff\u002Fserver-gmail-drive\n```\n\n> **提示**：若 npm 下载缓慢，建议使用国内镜像源：\n> ```bash\n> npm config set registry https:\u002F\u002Fregistry.npmmirror.com\n> ```\n\n### 3. 配置凭证\n根据您计划使用的功能，设置相应的环境变量或运行认证命令：\n\n*   **环境变量设置** (以 Linux\u002FmacOS 为例，Windows 请在系统属性中设置)：\n    ```bash\n    export BRAVE_API_KEY=\"your_brave_key\"\n    export GITHUB_PERSONAL_ACCESS_TOKEN=\"your_github_token\"\n    export REPLICATE_API_TOKEN=\"your_replicate_token\"\n    ```\n\n*   **Gmail\u002FDrive 认证**：\n    首次使用需运行认证脚本获取授权令牌：\n    ```bash\n    node path\u002Fto\u002Fgmail-drive\u002Findex.js auth\n    ```\n    *(注：请将 `path\u002Fto\u002F...` 替换为实际安装路径，例如 Windows 下可能位于 `C:\\Users\\\u003C用户名>\\AppData\\Roaming\\npm\\node_modules\\@patruff\\server-gmail-drive\\dist\\index.js`)*\n\n### 4. 配置文件\n在项目根目录创建 `bridge_config.json`，定义 MCP 服务路径和 LLM 设置。示例如下：\n\n```json\n{\n  \"mcpServers\": {\n    \"filesystem\": {\n      \"command\": \"node\",\n      \"args\": [\"path\u002Fto\u002Fserver-filesystem\u002Fdist\u002Findex.js\"],\n      \"allowedDirectory\": \"\u002Fabsolute\u002Fpath\u002Fto\u002Fyour\u002Fworkspace\"\n    },\n    \"brave-search\": {\n      \"command\": \"node\",\n      \"args\": [\"path\u002Fto\u002Fserver-brave-search\u002Fdist\u002Findex.js\"]\n    }\n  },\n  \"llm\": {\n    \"model\": \"qwen2.5-coder:7b-instruct\",\n    \"baseUrl\": \"http:\u002F\u002Flocalhost:11434\"\n  }\n}\n```\n*请确保 `args` 中的路径指向您全局安装的模块位置，或通过 `npm root -g` 查找具体路径。*\n\n## 基本使用\n\n### 启动桥接服务\n在终端中运行以下命令启动程序：\n\n```bash\nnpm run start\n```\n\n### 交互示例\n启动后，您可以直接在命令行输入自然语言指令，系统会自动识别意图并调用对应的 MCP 工具。\n\n**示例 1：联网搜索**\n```text\n> Search the web for \"latest TypeScript features\"\n```\n*系统将自动调用 Brave Search MCP 并返回搜索结果。*\n\n**示例 2：文件系统操作**\n```text\n> Create a new folder called \"project-docs\"\n```\n*系统将调用 Filesystem MCP 在当前允许的工作目录下创建文件夹。*\n\n**示例 3：查看可用工具**\n```text\n> list-tools\n```\n*列出当前所有已注册并可用的工具列表。*\n\n**退出程序**\n输入 `quit` 即可退出。","独立开发者小明正试图在本地搭建一个能自动处理代码库更新、搜索技术文档并生成示意图的智能助手，但他希望完全在离线或隐私安全的环境下运行，不依赖云端大模型。\n\n### 没有 ollama-mcp-bridge 时\n- **能力割裂**：本地运行的 Qwen 模型虽然能写代码，但无法直接访问文件系统或联网搜索，只能“空谈”理论，无法执行创建文件夹或查找最新 TypeScript 特性等实际操作。\n- **开发繁琐**：若想赋予模型操作 GitHub 或发送 Gmail 的能力，需要手动编写大量胶水代码来解析模型输出并调用各类 API，维护成本极高。\n- **隐私妥协**：为了获得类似 Claude 的工具调用能力，被迫将敏感代码或数据上传至云端商业模型，违背了本地部署的初衷。\n- **生态孤立**：无法复用现有的 Model Context Protocol (MCP) 丰富生态（如 Brave 搜索、Flux 绘图），导致本地 AI 功能单一，难以胜任复杂任务。\n\n### 使用 ollama-mcp-bridge 后\n- **无缝赋能**：ollama-mcp-bridge 作为中间桥梁，让本地的 Qwen 2.5 模型直接“继承”了 MCP 服务器的能力，一句话即可触发文件读写、GitHub 提交或邮件发送。\n- **即插即用**：只需简单配置 `bridge_config.json`，即可动态加载文件系统、Brave 搜索、Gmail 等多个 MCP 服务，无需重复造轮子编写接口代码。\n- **隐私闭环**：所有逻辑判断与数据处理均在本地完成，既享受了强大的工具链，又确保了代码库和私人数据绝不流出本地环境。\n- **智能路由**：工具能自动识别用户意图（如检测到邮箱地址自动调用 Gmail MCP，检测到绘图需求调用 Flux），实现了像商业助手一样流畅的多模态交互体验。\n\nollama-mcp-bridge 的核心价值在于打破了本地大模型与外部工具间的壁垒，让开源模型在隐私安全的前提下，拥有了媲美顶级商业助手的全面行动力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpatruff_ollama-mcp-bridge_e08d7575.png","patruff","Patrick Ruff","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fpatruff_984d370e.jpg",null,"New York","https:\u002F\u002Fgithub.com\u002Fpatruff",[79,83,87],{"name":80,"color":81,"percentage":82},"TypeScript","#3178c6",98.7,{"name":84,"color":85,"percentage":86},"PowerShell","#012456",0.9,{"name":88,"color":89,"percentage":90},"JavaScript","#f1e05a",0.4,970,113,"2026-04-08T16:54:47","MIT",4,"未说明","未说明 (依赖 Ollama 后端及所选模型的具体需求，README 未指定特定 GPU 型号)","未说明 (取决于运行的 LLM 模型大小，示例中使用 7B 模型)",{"notes":100,"python":96,"dependencies":101},"该工具基于 TypeScript\u002FNode.js 开发，非 Python 项目。需预先安装 Ollama 并拉取指定模型（如 qwen2.5-coder:7b-instruct）。部分功能需配置 API Key（Brave Search, GitHub, Replicate\u002FFlux）或进行 OAuth 认证（Gmail\u002FDrive）。通过 bridge_config.json 配置文件管理 MCP 服务器路径和权限。",[102,103,104,105,106,107,108,109],"Node.js\u002Fnpm","Ollama","@modelcontextprotocol\u002Fserver-filesystem","@modelcontextprotocol\u002Fserver-brave-search","@modelcontextprotocol\u002Fserver-github","@modelcontextprotocol\u002Fserver-memory","@patruff\u002Fserver-flux","@patruff\u002Fserver-gmail-drive",[35,13,52],"2026-03-27T02:49:30.150509","2026-04-13T16:34:32.726807",[114,119,124,128,132,136],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},31675,"运行时报错 'spawn \u002Fusr\u002Fbin\u002Fnode ENOENT' 或 'write EPIPE' 导致桥接初始化失败怎么办？","这通常意味着系统在配置的路径（如 \u002Fusr\u002Fbin\u002Fnode）找不到 Node.js 可执行文件。解决方法是修改 bridge_config.json 配置文件中的 \"command\" 字段，将其指向你系统中 Node.js 的实际安装路径。\n\n例如：\n- Windows 用户通常应设置为：\"C:\\\\Program Files\\\\nodejs\\\\node.exe\"\n- 其他系统请使用 which node 命令查找正确路径并填入。\n\n同时，确保配置中调用的 index.js 文件路径也是正确的绝对路径或相对于项目根目录的正确相对路径。","https:\u002F\u002Fgithub.com\u002Fpatruff\u002Follama-mcp-bridge\u002Fissues\u002F12",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},31676,"配置了环境变量但工具仍然无法连接或认证失败怎么办？","如果发现通过 .env 文件设置环境变量不起作用，或者出现认证错误，可以直接将 API Key 等敏感信息明文填写在 bridge_config.json 配置文件的 \"env\" 对象中，而不是使用变量引用（如 ${BRAVE_API_KEY}）。\n\n例如，将配置从：\n\"env\": { \"BRAVE_API_KEY\": \"${BRAVE_API_KEY}\" }\n修改为：\n\"env\": { \"BRAVE_API_KEY\": \"你的实际密钥值\" }\n\n维护者指出早期的配置认证逻辑可能存在缺陷，直接写入配置是更可靠的临时解决方案。","https:\u002F\u002Fgithub.com\u002Fpatruff\u002Follama-mcp-bridge\u002Fissues\u002F2",{"id":125,"question_zh":126,"answer_zh":127,"source_url":123},31677,"如何正确配置 MCP 服务器（如 GitHub, Brave Search）的命令和参数？","在 bridge_config.json 中，每个 MCP 服务器需要定义 command（通常是 node 的路径）和 args（脚本路径）。\n\n标准配置示例如下：\n{\n  \"mcpServers\": {\n    \"github\": {\n      \"command\": \"node\",\n      \"args\": [\"node_modules\u002F@modelcontextprotocol\u002Fserver-github\u002Fdist\u002Findex.js\"],\n      \"env\": { \"GITHUB_PERSONAL_ACCESS_TOKEN\": \"你的 Token\" }\n    },\n    \"brave-search\": {\n      \"command\": \"node\",\n      \"args\": [\"node_modules\u002F@modelcontextprotocol\u002Fserver-brave-search\u002Fdist\u002Findex.js\"],\n      \"env\": { \"BRAVE_API_KEY\": \"你的 Key\" }\n    }\n  }\n}\n注意：如果在 Windows 上运行，command 可能需要写为 node.exe 的完整路径；args 中的脚本路径需确保文件确实存在于该位置。",{"id":129,"question_zh":130,"answer_zh":131,"source_url":123},31678,"工具列表能显示但调用失败，或者生成的图像\u002F结果不正确是什么原因？","这可能是由于 LLM 模型未能正确解析工具调用的参数架构（Schema）导致的。维护者提到这可能与缺乏严格的类型定义（如 Pydantic）有关，导致 LLM 输出的参数格式不符合预期。\n\n建议检查：\n1. 使用的 Ollama 模型是否支持函数调用或工具使用（如 qwen2.5-coder 等较新模型）。\n2. 尝试更新到项目的最新代码，维护者已针对 Flux 图像生成等模块进行了修复。\n3. 如果问题依旧，尝试简化提示词或手动测试工具接口是否正常响应。",{"id":133,"question_zh":134,"answer_zh":135,"source_url":118},31679,"在 Windows 系统上运行 npm run start 需要注意哪些路径配置？","Windows 用户在运行项目时，必须显式指定 node.exe 的完整路径，因为默认配置的 \u002Fusr\u002Fbin\u002Fnode 仅适用于 Linux\u002FmacOS。\n\n具体步骤：\n1. 找到 Node.js 安装位置，通常为 C:\\Program Files\\nodejs\\node.exe。\n2. 打开 bridge_config.json。\n3. 将所有 MCP 服务器配置项中的 \"command\": \"node\" 修改为 \"command\": \"C:\\\\Program Files\\\\nodejs\\\\node.exe\"（注意 JSON 中反斜杠需要转义）。\n4. 确保 args 中的 js 文件路径使用双反斜杠 \\\\ 或正斜杠 \u002F 分隔，以避免转义错误。",{"id":137,"question_zh":138,"answer_zh":139,"source_url":123},31680,"安装了多个 @modelcontextprotocol 包后，如何验证它们是否被正确加载？","启动服务后，观察控制台日志输出。如果配置正确，日志中应显示 \"Initializing bridge with MCPs:\" 并列出具体的服务器名称（如 primary, github 等）。\n\n随后会尝试连接各个 MCP 服务，若看到 \"Session initialization failed\" 或 \"Process error\"，则说明对应服务的 command 路径或参数有误。\n\n成功加载的标志是日志中没有报错，且可以通过 list-tools 命令看到已注册的工具列表（如 brave_local_search 等）。如果工具列表为空，请检查 bridge_config.json 中的 mcpServers 键名是否与代码逻辑匹配。",[]]