[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-SecretiveShell--MCP-Bridge":3,"tool-SecretiveShell--MCP-Bridge":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":76,"owner_website":83,"owner_url":84,"languages":85,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":10,"env_os":106,"env_gpu":107,"env_ram":108,"env_deps":109,"category_tags":117,"github_topics":118,"view_count":23,"oss_zip_url":82,"oss_zip_packed_at":82,"status":16,"created_at":127,"updated_at":128,"faqs":129,"releases":160},2856,"SecretiveShell\u002FMCP-Bridge","MCP-Bridge","A middleware to provide an openAI compatible endpoint that can call MCP tools","MCP-Bridge 是一款中间件，旨在打通 OpenAI API 与 MCP（模型上下文协议）工具之间的连接。它通过提供一个完全兼容 OpenAI 标准的接口，让开发者能够直接调用各类 MCP 工具，而无需修改现有的客户端代码或等待原生支持。\n\n这一工具主要解决了生态兼容性问题：许多应用和客户端仅支持 OpenAI 格式，无法直接利用日益丰富的 MCP 工具生态。MCP-Bridge 填补了这一空白，使得用户可以在不支持 MCP 的环境中（如旧版 Open WebUI 或其他通用客户端）无缝使用文件读取、网络抓取等增强功能。\n\n它特别适合后端开发者、AI 应用构建者以及希望扩展大模型能力的研究人员。如果你正在使用 vLLM、Ollama 等推理引擎，并希望通过标准 API 集成外部工具，MCP-Bridge 能提供极大的便利。\n\n技术亮点方面，MCP-Bridge 支持流式与非流式聊天补全，具备 MCP 工具调用及采样能力，并提供 SSE 桥接以适配外部客户端。虽然随着 Open WebUI 等新版本开始原生支持 MCP，其部分场景下的必要性有所降低，但它依然是连接现有 OpenAI","MCP-Bridge 是一款中间件，旨在打通 OpenAI API 与 MCP（模型上下文协议）工具之间的连接。它通过提供一个完全兼容 OpenAI 标准的接口，让开发者能够直接调用各类 MCP 工具，而无需修改现有的客户端代码或等待原生支持。\n\n这一工具主要解决了生态兼容性问题：许多应用和客户端仅支持 OpenAI 格式，无法直接利用日益丰富的 MCP 工具生态。MCP-Bridge 填补了这一空白，使得用户可以在不支持 MCP 的环境中（如旧版 Open WebUI 或其他通用客户端）无缝使用文件读取、网络抓取等增强功能。\n\n它特别适合后端开发者、AI 应用构建者以及希望扩展大模型能力的研究人员。如果你正在使用 vLLM、Ollama 等推理引擎，并希望通过标准 API 集成外部工具，MCP-Bridge 能提供极大的便利。\n\n技术亮点方面，MCP-Bridge 支持流式与非流式聊天补全，具备 MCP 工具调用及采样能力，并提供 SSE 桥接以适配外部客户端。虽然随着 Open WebUI 等新版本开始原生支持 MCP，其部分场景下的必要性有所降低，但它依然是连接现有 OpenAI 兼容架构与新兴 MCP 生态的重要桥梁，配置灵活且支持 Docker 快速部署。","# MCP-Bridge\n\n\u003Cp>\n  \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002F4NVQHqNxSZ\">\u003Cimg alt=\"Discord\" src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1320517159331430480?style=flat&logo=discord&color=blue\">\u003C\u002Fa>\n  \u003Ca href=\"\u002Fdocs\u002FREADME.md\">\u003Cimg alt=\"Static Badge\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-md-blue\">\u003C\u002Fa>\n  \u003Ca href=\"LICENSE\">\u003Cimg alt=\"Static Badge\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-blue?style=flat\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n\nMCP-Bridge acts as a bridge between the OpenAI API and MCP (MCP) tools, allowing developers to leverage MCP tools through the OpenAI API interface.\n\n> [!NOTE]\n> \n>  Looking for new maintainers to assist with the project. Reach out in the Discord or open an issue if you are interested.\n>\n>  Additionally, Open WebUI natively supports MCP (Model Context Protocol) starting in v0.6.31, so MCP-Bridge should be considered as soft deprecated now.\n\n## Overview\nMCP-Bridge is designed to facilitate the integration of MCP tools with the OpenAI API. It provides a set of endpoints that can be used to interact with MCP tools in a way that is compatible with the OpenAI API. This allows you to use any client with any MCP tool without explicit support for MCP. For example, see this example of using Open Web UI with the official MCP fetch tool. \n\n![open web ui example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSecretiveShell_MCP-Bridge_readme_898f0c66fa6e.png)\n\n## Current Features\n\nworking features:\n\n- non streaming chat completions with MCP\n- streaming chat completions with MCP\n\n- non streaming completions without MCP\n\n- MCP tools\n- MCP sampling\n\n- SSE Bridge for external clients\n\nplanned features:\n\n- streaming completions are not implemented yet\n\n- MCP resources are planned to be supported\n\n## Installation\n\nThe recommended way to install MCP-Bridge is to use Docker. See the example compose.yml file for an example of how to set up docker. \n\nNote that this requires an inference engine with tool call support. I have tested this with vLLM with success, though ollama should also be compatible.\n\n### Docker installation\n\n1. **Clone the repository**\n\n2. **Edit the compose.yml file**\n\nYou will need to add a reference to the config.json file in the compose.yml file. Pick any of\n- add the config.json file to the same directory as the compose.yml file and use a volume mount (you will need to add the volume manually)\n- add a http url to the environment variables to download the config.json file from a url\n- add the config json directly as an environment variable\n\nsee below for an example of each option:\n```bash\nenvironment:\n  - MCP_BRIDGE__CONFIG__FILE=config.json # mount the config file for this to work\n  - MCP_BRIDGE__CONFIG__HTTP_URL=http:\u002F\u002F10.88.100.170:8888\u002Fconfig.json\n  - MCP_BRIDGE__CONFIG__JSON={\"inference_server\":{\"base_url\":\"http:\u002F\u002Fexample.com\u002Fv1\",\"api_key\":\"None\"},\"mcp_servers\":{\"fetch\":{\"command\":\"uvx\",\"args\":[\"mcp-server-fetch\"]}}}\n```\nThe mount point for using the config file would look like:\n```yaml\n    volumes:\n      - .\u002Fconfig.json:\u002Fmcp_bridge\u002Fconfig.json\n```\n\n3. **run the service**\n```\ndocker-compose up --build -d\n```\n\n### Manual installation (no docker)\n\nIf you want to run the application without docker, you will need to install the requirements and run the application manually.\n\n1. **Clone the repository**\n\n2. **Set up a dependencies:**\n```bash\nuv sync\n```\n\n3. **Create a config.json file in the root directory**\n\nHere is an example config.json file:\n```json\n{\n   \"inference_server\": {\n      \"base_url\": \"http:\u002F\u002Fexample.com\u002Fv1\",\n      \"api_key\": \"None\"\n   },\n   \"mcp_servers\": {\n      \"fetch\": {\n        \"command\": \"uvx\",\n        \"args\": [\"mcp-server-fetch\"]\n      }\n   }\n}\n```\n\n4. **Run the application:**\n```bash\nuv run mcp_bridge\u002Fmain.py\n```\n\n## Usage\nOnce the application is running, you can interact with it using the OpenAI API.\n\nView the documentation at [http:\u002F\u002Fyourserver:8000\u002Fdocs](http:\u002F\u002Flocalhost:8000\u002Fdocs). There is an endpoint to list all the MCP tools available on the server, which you can use to test the application configuration.\n\n## Rest API endpoints\n\nMCP-Bridge exposes many rest api endpoints for interacting with all of the native MCP primatives. This lets you outsource the complexity of dealing with MCP servers to MCP-Bridge without comprimising on functionality. See the openapi docs for examples of how to use this functionality.\n\n## SSE Bridge\nMCP-Bridge also provides an SSE bridge for external clients. This lets external chat apps with explicit MCP support use MCP-Bridge as a MCP server. Point your client at the SSE endpoint (http:\u002F\u002Fyourserver:8000\u002Fmcp-server\u002Fsse) and you should be able to see all the MCP tools available on the server.\n\nThis also makes it easy to test if your configuration is working correctly. You can use [wong2\u002Fmcp-cli](https:\u002F\u002Fgithub.com\u002Fwong2\u002Fmcp-cli?tab=readme-ov-file#connect-to-a-running-server-over-sse) to test your configuration. `npx @wong2\u002Fmcp-cli --sse http:\u002F\u002Flocalhost:8000\u002Fmcp-server\u002Fsse`\n\nIf you want to use the tools inside of [claude desktop](https:\u002F\u002Fclaude.ai\u002Fdownload) or other `STDIO` only MCP clients, you can do this with a tool such as [lightconetech\u002Fmcp-gateway](https:\u002F\u002Fgithub.com\u002Flightconetech\u002Fmcp-gateway)\n\n## Configuration\n\nTo add new MCP servers, edit the config.json file.\n\n### API Key Authentication\n\nMCP-Bridge supports API key authentication to secure your server. To enable this feature, add something like this to your `config.json` file:\n\n```json\n{\n    \"security\": {\n      \"auth\": {\n        \"enabled\": true,\n        \"api_keys\": [\n          {\n            \"key\": \"your-secure-api-key-here\"\n          }\n        ]\n      }\n    }\n}\n```\n\nWhen making requests to the MCP-Bridge server, include the API key in the Authorization header as a Bearer token:\n\n```\nAuthorization: Bearer your-secure-api-key-here\n```\n\nIf the `api_key` field is empty or not present in the configuration, authentication will be skipped, allowing backward compatibility.\n\n### Full Configuration Example\n\nan example config.json file with most of the options explicitly set:\n\n```json\n{\n    \"inference_server\": {\n        \"base_url\": \"http:\u002F\u002Flocalhost:8000\u002Fv1\",\n        \"api_key\": \"None\"\n    },\n    \"sampling\": {\n        \"timeout\": 10,\n        \"models\": [\n            {\n                \"model\": \"gpt-4o\",\n                \"intelligence\": 0.8,\n                \"cost\": 0.9,\n                \"speed\": 0.3\n            },\n            {\n                \"model\": \"gpt-4o-mini\",\n                \"intelligence\": 0.4,\n                \"cost\": 0.1,\n                \"speed\": 0.7\n            }\n        ]\n    },\n    \"mcp_servers\": {\n        \"fetch\": {\n            \"command\": \"uvx\",\n            \"args\": [\n                \"mcp-server-fetch\"\n            ]\n        }\n    },\n    \"security\": {\n      \"auth\": {\n        \"enabled\": true,\n        \"api_keys\": [\n          {\n            \"key\": \"your-secure-api-key-here\"\n          }\n        ]\n      }\n    },\n    \"network\": {\n        \"host\": \"0.0.0.0\",\n        \"port\": 9090\n    },\n    \"logging\": {\n        \"log_level\": \"DEBUG\"\n    }\n}\n```\n\n| Section          | Description                        |\n| ---------------- | ---------------------------------- |\n| inference_server | The inference server configuration |\n| mcp_servers      | The MCP servers configuration      |\n| network          | uvicorn network configuration      |\n| logging          | The logging configuration          |\n| api_key          | API key for server authentication  |\n\n## Support\n\nIf you encounter any issues please open an issue or join the [discord](https:\u002F\u002Fdiscord.gg\u002F4NVQHqNxSZ).\n\nThere is also documentation available [here](\u002Fdocs\u002FREADME.md).\n\n## How does it work\n\nThe application sits between the OpenAI API and the inference engine. An incoming request is modified to include tool definitions for all MCP tools available on the MCP servers. The request is then forwarded to the inference engine, which uses the tool definitions to create tool calls. MCP bridge then manage the calls to the tools. The request is then modified to include the tool call results, and is returned to the inference engine again so the LLM can create a response. Finally, the response is returned to the OpenAI API.\n\n```mermaid\nsequenceDiagram\n    participant OpenWebUI as Open Web UI\n    participant MCPProxy as MCP Proxy\n    participant MCPserver as MCP Server\n    participant InferenceEngine as Inference Engine\n\n    OpenWebUI ->> MCPProxy: Request\n    MCPProxy ->> MCPserver: list tools\n    MCPserver ->> MCPProxy: list of tools\n    MCPProxy ->> InferenceEngine: Forward Request\n    InferenceEngine ->> MCPProxy: Response\n    MCPProxy ->> MCPserver: call tool\n    MCPserver ->> MCPProxy: tool response\n    MCPProxy ->> InferenceEngine: llm uses tool response\n    InferenceEngine ->> MCPProxy: Response\n    MCPProxy ->> OpenWebUI: Return Response\n```\n\n## Contribution Guidelines\nContributions to MCP-Bridge are welcome! To contribute, please follow these steps:\n1. Fork the repository.\n2. Create a new branch for your feature or bug fix.\n3. Make your changes and commit them.\n4. Push your changes to your fork.\n5. Create a pull request to the main repository.\n\n## License\nMCP-Bridge is licensed under the MIT License. See the [LICENSE](LICENSE) file for more information.\n","# MCP-Bridge\n\n\u003Cp>\n  \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002F4NVQHqNxSZ\">\u003Cimg alt=\"Discord\" src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1320517159331430480?style=flat&logo=discord&color=blue\">\u003C\u002Fa>\n  \u003Ca href=\"\u002Fdocs\u002FREADME.md\">\u003Cimg alt=\"静态徽章\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-md-blue\">\u003C\u002Fa>\n  \u003Ca href=\"LICENSE\">\u003Cimg alt=\"静态徽章\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-blue?style=flat\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n\nMCP-Bridge 充当 OpenAI API 与 MCP（MCP）工具之间的桥梁，使开发者能够通过 OpenAI API 接口利用 MCP 工具。\n\n> [!NOTE]\n> \n> 我们正在寻找新的维护者来协助该项目。如果您感兴趣，请在 Discord 上联系我们或提交一个问题。\n>\n> 此外，从 v0.6.31 开始，Open WebUI 原生支持 MCP（模型上下文协议），因此现在可以认为 MCP-Bridge 已经被弃用。\n\n## 概述\nMCP-Bridge 旨在促进 MCP 工具与 OpenAI API 的集成。它提供了一组端点，可用于以与 OpenAI API 兼容的方式与 MCP 工具进行交互。这使得您可以在任何客户端上使用任何 MCP 工具，而无需显式支持 MCP。例如，请参阅此示例，展示如何将 Open Web UI 与官方 MCP 获取工具一起使用。\n\n![open web ui 示例](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSecretiveShell_MCP-Bridge_readme_898f0c66fa6e.png)\n\n## 当前功能\n\n已实现的功能：\n\n- 使用 MCP 的非流式聊天完成\n- 使用 MCP 的流式聊天完成\n\n- 不使用 MCP 的非流式完成\n\n- MCP 工具\n- MCP 抽样\n\n- 用于外部客户端的 SSE 桥接\n\n计划中的功能：\n\n- 流式完成尚未实现\n\n- 计划支持 MCP 资源\n\n## 安装\n推荐使用 Docker 安装 MCP-Bridge。请参阅示例 compose.yml 文件，了解如何设置 Docker。\n\n请注意，这需要一个支持工具调用的推理引擎。我已经成功地使用 vLLM 进行了测试，不过 Ollama 也应该兼容。\n\n### Docker 安装\n\n1. **克隆仓库**\n\n2. **编辑 compose.yml 文件**\n\n您需要在 compose.yml 文件中添加对 config.json 文件的引用。您可以选择以下任一方式：\n- 将 config.json 文件与 compose.yml 文件放在同一目录下，并使用卷挂载（您需要手动添加卷）\n- 在环境变量中添加一个 HTTP URL，用于从该 URL 下载 config.json 文件\n- 直接将 config.json 作为环境变量添加\n\n以下是每种选项的示例：\n```bash\nenvironment:\n  - MCP_BRIDGE__CONFIG__FILE=config.json # 挂载配置文件才能正常工作\n  - MCP_BRIDGE__CONFIG__HTTP_URL=http:\u002F\u002F10.88.100.170:8888\u002Fconfig.json\n  - MCP_BRIDGE__CONFIG__JSON={\"inference_server\":{\"base_url\":\"http:\u002F\u002Fexample.com\u002Fv1\",\"api_key\":\"None\"},\"mcp_servers\":{\"fetch\":{\"command\":\"uvx\",\"args\":[\"mcp-server-fetch\"]}}}\n```\n\n使用配置文件的挂载点如下所示：\n```yaml\n    volumes:\n      - .\u002Fconfig.json:\u002Fmcp_bridge\u002Fconfig.json\n```\n\n3. **运行服务**\n```\ndocker-compose up --build -d\n```\n\n### 手动安装（不使用 Docker）\n\n如果您想在不使用 Docker 的情况下运行应用程序，您需要安装依赖项并手动运行应用程序。\n\n1. **克隆仓库**\n\n2. **设置依赖项：**\n```bash\nuv sync\n```\n\n3. **在根目录下创建 config.json 文件**\n\n以下是一个示例 config.json 文件：\n```json\n{\n   \"inference_server\": {\n      \"base_url\": \"http:\u002F\u002Fexample.com\u002Fv1\",\n      \"api_key\": \"None\"\n   },\n   \"mcp_servers\": {\n      \"fetch\": {\n        \"command\": \"uvx\",\n        \"args\": [\"mcp-server-fetch\"]\n      }\n   }\n}\n```\n\n4. **运行应用程序：**\n```bash\nuv run mcp_bridge\u002Fmain.py\n```\n\n## 使用方法\n应用程序运行后，您可以使用 OpenAI API 与其交互。\n\n请访问 [http:\u002F\u002Fyourserver:8000\u002Fdocs](http:\u002F\u002Flocalhost:8000\u002Fdocs) 查看文档。这里有一个列出服务器上所有可用 MCP 工具的端点，您可以使用它来测试应用程序配置。\n\n## REST API 端点\nMCP-Bridge 暴露了许多 REST API 端点，用于与所有原生 MCP 基元进行交互。这让您可以将处理 MCP 服务器的复杂性外包给 MCP-Bridge，而不会牺牲功能。请参阅 OpenAPI 文档，了解如何使用这些功能的示例。\n\n## SSE 桥接\nMCP-Bridge 还为外部客户端提供了 SSE 桥接。这使得具有显式 MCP 支持的外部聊天应用可以将 MCP-Bridge 用作 MCP 服务器。将您的客户端指向 SSE 端点（http:\u002F\u002Fyourserver:8000\u002Fmcp-server\u002Fsse），您应该能够看到服务器上所有可用的 MCP 工具。\n\n这也使得测试您的配置是否正确变得非常容易。您可以使用 [wong2\u002Fmcp-cli](https:\u002F\u002Fgithub.com\u002Fwong2\u002Fmcp-cli?tab=readme-ov-file#connect-to-a-running-server-over-sse) 来测试您的配置。`npx @wong2\u002Fmcp-cli --sse http:\u002F\u002Flocalhost:8000\u002Fmcp-server\u002Fsse`\n\n如果您想在 [claude desktop](https:\u002F\u002Fclaude.ai\u002Fdownload) 或其他仅支持 `STDIO` 的 MCP 客户端中使用这些工具，可以使用诸如 [lightconetech\u002Fmcp-gateway](https:\u002F\u002Fgithub.com\u002Flightconetech\u002Fmcp-gateway) 之类的工具来实现。\n\n## 配置\n\n要添加新的 MCP 服务器，请编辑 config.json 文件。\n\n### API 密钥认证\n\nMCP-Bridge 支持 API 密钥认证，以保护您的服务器。要启用此功能，请在您的 `config.json` 文件中添加类似以下内容：\n\n```json\n{\n    \"security\": {\n      \"auth\": {\n        \"enabled\": true,\n        \"api_keys\": [\n          {\n            \"key\": \"your-secure-api-key-here\"\n          }\n        ]\n      }\n    }\n}\n```\n\n在向 MCP-Bridge 服务器发送请求时，请在 Authorization 头部以 Bearer 令牌的形式包含 API 密钥：\n\n```\nAuthorization: Bearer your-secure-api-key-here\n```\n\n如果配置中 `api_key` 字段为空或不存在，则将跳过身份验证，从而保持向后兼容性。\n\n### 完整配置示例\n\n一个显式设置了大多数选项的 `config.json` 文件示例：\n\n```json\n{\n    \"inference_server\": {\n        \"base_url\": \"http:\u002F\u002Flocalhost:8000\u002Fv1\",\n        \"api_key\": \"None\"\n    },\n    \"sampling\": {\n        \"timeout\": 10,\n        \"models\": [\n            {\n                \"model\": \"gpt-4o\",\n                \"intelligence\": 0.8,\n                \"cost\": 0.9,\n                \"speed\": 0.3\n            },\n            {\n                \"model\": \"gpt-4o-mini\",\n                \"intelligence\": 0.4,\n                \"cost\": 0.1,\n                \"speed\": 0.7\n            }\n        ]\n    },\n    \"mcp_servers\": {\n        \"fetch\": {\n            \"command\": \"uvx\",\n            \"args\": [\n                \"mcp-server-fetch\"\n            ]\n        }\n    },\n    \"security\": {\n      \"auth\": {\n        \"enabled\": true,\n        \"api_keys\": [\n          {\n            \"key\": \"your-secure-api-key-here\"\n          }\n        ]\n      }\n    },\n    \"network\": {\n        \"host\": \"0.0.0.0\",\n        \"port\": 9090\n    },\n    \"logging\": {\n        \"log_level\": \"DEBUG\"\n    }\n}\n```\n\n| 部分          | 描述                        |\n| ---------------- | ---------------------------------- |\n| inference_server | 推理服务器配置 |\n| mcp_servers      | MCP 服务器配置      |\n| network          | uvicorn 网络配置      |\n| logging          | 日志记录配置          |\n| api_key          | 用于服务器身份验证的 API 密钥  |\n\n## 支持\n\n如果您遇到任何问题，请提交一个问题或加入 [Discord](https:\u002F\u002Fdiscord.gg\u002F4NVQHqNxSZ) 社区。\n\n此外，您还可以在 [这里](\u002Fdocs\u002FREADME.md) 查阅相关文档。\n\n## 工作原理\n\n该应用程序位于 OpenAI API 和推理引擎之间。传入的请求会被修改，以包含 MCP 服务器上所有可用工具的定义。随后，请求会被转发到推理引擎，推理引擎会利用这些工具定义来生成工具调用。MCP 桥接器则负责管理这些工具调用。之后，请求会被再次修改，加入工具调用的结果，并返回给推理引擎，以便大模型生成响应。最后，响应会被返回给 OpenAI API。\n\n```mermaid\nsequenceDiagram\n    participant OpenWebUI as Open Web UI\n    participant MCPProxy as MCP Proxy\n    participant MCPserver as MCP Server\n    participant InferenceEngine as Inference Engine\n\n    OpenWebUI ->> MCPProxy: 请求\n    MCPProxy ->> MCPserver: 列出工具\n    MCPserver ->> MCPProxy: 工具列表\n    MCPProxy ->> InferenceEngine: 转发请求\n    InferenceEngine ->> MCPProxy: 响应\n    MCPProxy ->> MCPserver: 调用工具\n    MCPserver ->> MCPProxy: 工具响应\n    MCPProxy ->> InferenceEngine: 大模型使用工具响应\n    InferenceEngine ->> MCPProxy: 响应\n    MCPProxy ->> OpenWebUI: 返回响应\n```\n\n## 贡献指南\n欢迎为 MCP-Bridge 做出贡献！请按照以下步骤进行：\n1. 克隆仓库并创建分支。\n2. 创建一个新的分支用于您的功能或错误修复。\n3. 进行更改并提交。\n4. 将更改推送到您的分支。\n5. 向主仓库提交拉取请求。\n\n## 许可证\nMCP-Bridge 采用 MIT 许可证授权。更多信息请参阅 [LICENSE](LICENSE) 文件。","# MCP-Bridge 快速上手指南\n\nMCP-Bridge 是一个桥接工具，允许开发者通过标准的 OpenAI API 接口调用 MCP (Model Context Protocol) 工具。它使得任何支持 OpenAI API 的客户端（如 Open WebUI、LangChain 等）都能无缝使用 MCP 生态中的工具，而无需客户端原生支持 MCP。\n\n> **注意**：Open WebUI v0.6.31+ 已原生支持 MCP，若仅在该场景下使用，可优先考虑原生方案。MCP-Bridge 目前处于软弃用状态，但仍适用于其他需要桥接的场景。\n\n## 环境准备\n\n在开始之前，请确保满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows (需安装 Docker 或 Python 环境)\n*   **推理引擎**：需要一个支持 Tool Call (工具调用) 的后端，推荐使用 **vLLM** 或 **Ollama**。\n*   **运行方式二选一**：\n    *   **Docker** (推荐)：需安装 Docker 和 Docker Compose。\n    *   **手动运行**：需安装 Python 3.10+ 及 `uv` 包管理工具。\n\n## 安装步骤\n\n### 方式一：Docker 安装（推荐）\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fyour-repo\u002FMCP-Bridge.git\n    cd MCP-Bridge\n    ```\n\n2.  **配置 `compose.yml`**\n    编辑 `compose.yml` 文件，你需要指定配置文件 `config.json` 的来源。有三种方式：\n    *   **挂载本地文件**（推荐）：将 `config.json` 放在同级目录，并在 `compose.yml` 中添加 volume 映射。\n    *   **HTTP URL**：通过环境变量指向远程 JSON 文件。\n    *   **环境变量直接写入**：直接将 JSON 内容放入环境变量。\n\n    **示例（挂载本地文件）：**\n    确保目录下有 `config.json` (内容见下文“基本使用”部分)，并在 `compose.yml` 的 `volumes` 部分添加：\n    ```yaml\n    volumes:\n      - .\u002Fconfig.json:\u002Fmcp_bridge\u002Fconfig.json\n    ```\n    同时在 `environment` 中声明：\n    ```yaml\n    environment:\n      - MCP_BRIDGE__CONFIG__FILE=config.json\n    ```\n\n3.  **启动服务**\n    ```bash\n    docker-compose up --build -d\n    ```\n\n### 方式二：手动安装（无 Docker）\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fyour-repo\u002FMCP-Bridge.git\n    cd MCP-Bridge\n    ```\n\n2.  **安装依赖**\n    使用 `uv` 同步环境：\n    ```bash\n    uv sync\n    ```\n\n3.  **创建配置文件**\n    在项目根目录创建 `config.json` (内容参考下文)。\n\n4.  **运行应用**\n    ```bash\n    uv run mcp_bridge\u002Fmain.py\n    ```\n\n## 基本使用\n\n### 1. 配置 MCP 服务器\n\n在项目根目录创建 `config.json`。以下示例配置了一个名为 `fetch` 的 MCP 工具（用于抓取网页），并连接本地的推理引擎。\n\n**`config.json` 示例：**\n```json\n{\n   \"inference_server\": {\n      \"base_url\": \"http:\u002F\u002Flocalhost:11434\u002Fv1\", \n      \"api_key\": \"None\"\n   },\n   \"mcp_servers\": {\n      \"fetch\": {\n        \"command\": \"uvx\",\n        \"args\": [\"mcp-server-fetch\"]\n      }\n   },\n   \"network\": {\n       \"host\": \"0.0.0.0\",\n       \"port\": 8000\n   }\n}\n```\n*注：请将 `base_url` 修改为你实际运行的推理引擎地址（如 Ollama 默认是 `http:\u002F\u002Flocalhost:11434\u002Fv1`，vLLM 通常是 `http:\u002F\u002Flocalhost:8000\u002Fv1`）。*\n\n### 2. 验证与测试\n\n服务启动后，可以通过浏览器访问 Swagger 文档查看可用接口和测试工具列表：\n```\nhttp:\u002F\u002Flocalhost:8000\u002Fdocs\n```\n找到列出所有 MCP 工具的端点进行测试，确认配置生效。\n\n### 3. 集成到客户端\n\n配置完成后，MCP-Bridge 会暴露标准的 OpenAI API 接口。你只需将现有 AI 客户端的 API 地址指向 MCP-Bridge 即可。\n\n*   **API Base URL**: `http:\u002F\u002Flocalhost:8000\u002Fv1`\n*   **API Key**: (如果在 config 中未设置认证，可填任意值或留空)\n\n**使用示例 (Python OpenAI SDK):**\n\n```python\nfrom openai import OpenAI\n\nclient = OpenAI(\n    base_url=\"http:\u002F\u002Flocalhost:8000\u002Fv1\",\n    api_key=\"not-needed\" \n)\n\nresponse = client.chat.completions.create(\n    model=\"your-model-name\", # 替换为你的模型名称\n    messages=[\n        {\"role\": \"user\", \"content\": \"请帮我获取 https:\u002F\u002Fexample.com 的标题\"}\n    ],\n    # MCP-Bridge 会自动注入可用的 tool definitions\n)\n\nprint(response.choices[0].message.content)\n```\n\n### 4. 高级用法：SSE 桥接\n\n如果你使用的客户端（如 Claude Desktop 或其他支持 SSE 的 MCP 客户端）希望直接将 MCP-Bridge 视为一个 MCP 服务器，可以使用 SSE 端点：\n\n*   **SSE Endpoint**: `http:\u002F\u002Flocalhost:8000\u002Fmcp-server\u002Fsse`\n\n你可以使用 `mcp-cli` 快速测试连接：\n```bash\nnpx @wong2\u002Fmcp-cli --sse http:\u002F\u002Flocalhost:8000\u002Fmcp-server\u002Fsse\n```","某初创团队希望在其基于 Open WebUI 构建的内部知识库中，让大模型能够实时抓取外部新闻链接并总结内容，但现有架构无法直接调用 MCP 协议的工具。\n\n### 没有 MCP-Bridge 时\n- **开发成本高昂**：开发者必须为每个客户端单独编写适配代码，手动解析 MCP 协议并将其转换为特定应用的私有插件格式。\n- **生态隔离严重**：大量现成的标准 MCP 工具（如官方 fetch 工具）无法被仅支持 OpenAI API 格式的流行前端直接识别和调用。\n- **维护复杂度大**：每当新增一个数据源工具，都需要修改后端逻辑并重新部署服务，难以实现工具的动态热插拔。\n- **流式响应缺失**：在尝试桥接不同协议时，往往丢失了关键的流式输出能力，导致用户等待时间过长，体验割裂。\n\n### 使用 MCP-Bridge 后\n- **无缝协议转换**：MCP-Bridge 作为中间件，直接将标准的 MCP 工具暴露为 OpenAI 兼容接口，无需修改任何客户端代码即可调用。\n- **即插即用生态**：团队可直接通过配置文件加载 `mcp-server-fetch` 等现有工具，瞬间赋予大模型联网检索能力。\n- **架构解耦灵活**：新增工具只需在 `config.json` 中注册命令，MCP-Bridge 自动处理路由，实现了工具层的动态扩展。\n- **完整流式支持**：完美保留了对流式聊天补全的支持，用户在界面上能实时看到模型抓取网页并逐步生成摘要的过程。\n\nMCP-Bridge 的核心价值在于打破了协议壁垒，让开发者能以最低成本将丰富的 MCP 工具生态无缝集成到现有的 OpenAI API 应用中。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSecretiveShell_MCP-Bridge_62c1746f.png","SecretiveShell","TerminalMan","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FSecretiveShell_612c53e8.png","Computer Science undergraduate passionate about Artificial Intelligence, self-hosted software solutions, and automation.","@promptmesh","United Kingdom",null,"https:\u002F\u002Fsecretiveshell.com","https:\u002F\u002Fgithub.com\u002FSecretiveShell",[86,90,94,98],{"name":87,"color":88,"percentage":89},"Python","#3572A5",96.7,{"name":91,"color":92,"percentage":93},"Smarty","#f0c040",2.1,{"name":95,"color":96,"percentage":97},"Dockerfile","#384d54",0.7,{"name":99,"color":100,"percentage":101},"HCL","#844FBA",0.5,920,114,"2026-04-02T23:20:06","MIT","Linux, macOS, Windows","未说明 (工具本身不直接依赖 GPU，但其所连接的后端推理引擎如 vLLM 或 Ollama 可能需要)","未说明",{"notes":110,"python":111,"dependencies":112},"1. 推荐使用 Docker 部署。2. 必须配置一个支持工具调用 (tool call) 的外部推理引擎 (如 vLLM 或 Ollama)。3. 可通过 config.json 配置 MCP 服务器命令及参数。4. 支持通过 SSE 桥接外部客户端或直接作为 OpenAI API 代理使用。","未说明 (需使用 'uv' 包管理器进行环境同步和运行)",[113,114,115,116],"uv","vLLM (推荐后端)","Ollama (兼容后端)","mcp-server-fetch (示例 MCP 服务)",[15,13,53,14],[119,120,121,122,123,124,125,126],"ai","claude","mcp","model-context-protocol","openai","openai-api","mcp-server","mcp-servers","2026-03-27T02:49:30.150509","2026-04-06T06:55:13.691461",[130,135,140,145,150,155],{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},13197,"在 OpenWebUI 中使用 vLLM 和 Llama\u002FQwen 模型时遇到 'Cannot read properties of null (reading 'choices')' 错误怎么办？","该错误通常是因为 vLLM 配合 Llama 模型不支持并行工具调用（parallel tool calls）导致的。建议检查您的 completion 函数实现，并参考 vLLM 官方文档关于工具调用的限制说明：https:\u002F\u002Fdocs.vllm.ai\u002Fen\u002Flatest\u002Fusage\u002Ftool_calling.html#llama-models-llama3-json。尝试禁用流式传输或调整工具调用策略可能有助于解决此问题。","https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fissues\u002F7",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},13198,"如何在 Windows 上安装和运行 MCP-Bridge？是否需要 Docker？","Windows 用户可以参考 README 中的手动安装指南。如果您需要在 Windows 上运行推理服务器，推荐使用 Ollama，因为它提供稳定的 OpenAI 兼容工具调用 API 且无需 Docker 即可运行。虽然 vLLM 也可用，但通常需要 Docker Desktop。对于没有 CUDA GPU、Mac 或无法使用 Docker 的用户（如使用旧电脑、AMD GPU 或树莓派），Ollama、LM Studio 或 Gpt4all（支持 Vulkan）是更好的选择。","https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fissues\u002F5",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},13199,"连接 OpenAI API 时出现 'you must provide a model parameter' 错误，但配置中已指定模型，如何解决？","此问题曾由代码中硬编码模型名称（如 gpt-4o-mini）导致，忽略了用户在 OpenWebUI 中指定的模型参数。该问题已在后续提交（fdc0491fb6f0a17a4222a4a139576d0a0376324f）中修复，移除了模型覆盖逻辑。请确保您使用的是最新版本的 MCP-Bridge，以正确传递用户指定的模型参数。","https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fissues\u002F32",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},13200,"工具调用时请求挂起（hangup）或无限循环执行工具怎么办？","当提供给 LLM 的工具名称模糊而非详细时，可能导致系统反复尝试调用所有工具并陷入循环。建议在工具命名时使用清晰、具体的名称。此外，可考虑在逻辑中添加重试次数限制（例如最多重试 x 次后取消），以防止无限循环。维护者欢迎用户提交相关改进的 Pull Request。","https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fissues\u002F11",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},13201,"`a2a-types` PyPI 包是否还在维护？应该如何正确导入？","`a2a-types` 包已弃用。官方推荐使用来自 a2a 组织的正式包（https:\u002F\u002Fgithub.com\u002Fa2aproject\u002Fa2a-python）。安装后，请将代码中的 `import a2a_types` 替换为 `import a2a.types`。两个包的内容几乎相同，原 `a2a-types` 主要是为 fast-agent 项目临时创建，因当时官方未发布 PyPI 包。","https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fissues\u002F92",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},13202,"遇到 'ERROR Error parsing response' 且响应中包含 tool_calls 但解析失败，可能的原因是什么？","该错误通常发生在模型返回的响应格式不符合预期解析结构时，尤其是在处理 tool_calls 字段时。检查日志中完整的响应内容，确认 `tool_calls` 数组是否正确格式化（包含 id、type、function 等必要字段）。确保使用的模型（如 claude-3.7-sonnet）与 MCP-Bridge 的工具调用协议兼容，并更新至最新版本以获得更好的解析兼容性。","https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fissues\u002F48",[161,166,171,176,181,186,191,196],{"id":162,"version":163,"summary_zh":164,"released_at":165},71867,"0.5.1","## 变更内容\n* 在 \u002F.github\u002Fworkflows 中，由 @dependabot 将 actions\u002Fdownload-artifact 从 4.1.7 升级至 4.1.8，详见 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F43\n* 在 \u002F.github\u002Fworkflows 中，由 @dependabot 将 docker\u002Flogin-action 从 2 升级至 3，详见 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F44\n* 不再强制对工具端点使用字符串类型，由 @SecretiveShell 完成，详见 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F46\n\n## 新贡献者\n* @dependabot 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F43 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fcompare\u002F0.5.0...0.5.1","2025-02-08T22:32:33",{"id":167,"version":168,"summary_zh":169,"released_at":170},71868,"0.5.0","## 变更内容\n* 代码扫描告警第3号的潜在修复方案：使用已知存在漏洞的操作。由 @webcoderz 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F37 中提出。\n* 添加原生 envsubst 工具。由 @SecretiveShell 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F41 中完成。\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fcompare\u002F0.4.0...0.5.0","2025-02-01T14:41:15",{"id":172,"version":173,"summary_zh":174,"released_at":175},71869,"0.4.0","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fcompare\u002F0.3.0...0.4.0","2025-01-16T13:08:54",{"id":177,"version":178,"summary_zh":179,"released_at":180},71870,"0.3.0","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fcompare\u002F0.2.2...0.3.0","2025-01-15T14:34:03",{"id":182,"version":183,"summary_zh":184,"released_at":185},71871,"0.2.2","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fcompare\u002F0.2.1...0.2.2","2025-01-13T10:00:29",{"id":187,"version":188,"summary_zh":189,"released_at":190},71872,"0.2.1","## 变更内容\n* @SlowSnowFox 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F33 中添加了基础 Helm Chart\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fcompare\u002F0.2.0...0.2.1","2025-01-12T12:14:09",{"id":192,"version":193,"summary_zh":194,"released_at":195},71873,"0.2.0","## 变更内容\n* @SecretiveShell 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F25 中添加了 Docker 支持的草案\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fcompare\u002F0.1.0...0.2.0","2025-01-09T19:25:46",{"id":197,"version":198,"summary_zh":199,"released_at":200},71874,"0.1.0","## 变更内容\n* @SecretiveShell 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F1 中添加了 mcp 客户端\n* @SecretiveShell 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F2 中添加了开放的 Web UI 示例\n* @SecretiveShell 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F4 中添加了多阶段配置\n* @Willie169 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F6 中修复了 compose.yml 文件中将 mpc 错误拼写为 mcp 的问题\n* @SecretiveShell 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F12 中向 README 添加了配置文档\n* @webcoderz 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F13 中修复了多部分消息的问题\n* @SecretiveShell 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F8 中实现了流式聊天补全功能\n* @fearnworks 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F14 中更新了安装更现代 Node.js 版本的流程\n* @SlowSnowFox 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F15 中切换到 uv 进行依赖管理\n* @SecretiveShell 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F16 中重构了客户端实现\n* chore：@eltociear 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F20 中更新了 streamChatCompletion.py 文件\n* @SecretiveShell 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F21 中添加了 SSE 支持\n* @webcoderz 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F19 中构建了 CI GitHub Actions 流水线\n* @webcoderz 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F30 中完成了 Pr\u002F28 的 GitHub 构建 CI 流程\n\n## 新贡献者\n* @SecretiveShell 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F1 中做出了首次贡献\n* @Willie169 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F6 中做出了首次贡献\n* @fearnworks 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F14 中做出了首次贡献\n* @SlowSnowFox 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F15 中做出了首次贡献\n* @eltociear 在 https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fpull\u002F20 中做出了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FSecretiveShell\u002FMCP-Bridge\u002Fcommits\u002F0.1.0","2025-01-04T22:18:06"]