toolhive
ToolHive 是一款专为企业打造的平台,旨在简化模型上下文协议(MCP)服务器的运行与管理。在 AI 应用开发中,安全地部署和集成各类 MCP 服务往往面临配置复杂、权限管控难等挑战,ToolHive 通过提供开箱即用的解决方案,让用户能够随时随地安全、即时地启动任何 MCP 服务器。
该平台特别适合开发者、运维工程师及企业技术团队使用。无论是本地开发调试,还是生产环境的大规模部署,ToolHive 都能通过桌面应用、命令行工具或 Kubernetes 算子灵活适配。其核心亮点在于“默认安全”的设计理念:所有服务器均运行在隔离容器中,仅授予必要权限,且敏感信息加密管理,杜绝明文泄露风险。此外,ToolHive 内置网关、注册表服务器、运行时引擎和管理门户四大模块,支持自动对接 GitHub Copilot、Cursor、VS Code 等主流开发工具,并可通过统一接口集中管控身份认证、访问策略及审计日志。借助其模块化架构,团队不仅能快速构建受信任的服务器目录,还能优化工作流以减少令牌消耗,真正实现高效、可控的 AI 工具链集成。
使用场景
某金融科技公司的大模型团队正试图将内部开发的“合规审查”和“实时风控”两个 MCP 服务器集成到开发者的 Cursor 和 VS Code 环境中,以辅助代码审计。
没有 toolhive 时
- 部署繁琐且不一致:每位开发者需手动配置 Docker 容器、网络端口及环境变量,本地环境差异导致“在我机器上能跑”的频发问题。
- 安全隐患突出:敏感的客户数据凭证(Secrets)常以明文形式硬编码在配置文件或脚本中,缺乏统一的权限隔离机制。
- 集成成本高昂:每次新增工具都需要逐个修改客户端配置,无法自动对接 GitHub Copilot 或 Claude Desktop,调试耗时费力。
- 治理缺失:缺乏中央目录来验证工具来源,团队成员可能误用未经安全审核的第三方 MCP 服务。
使用 toolhive 后
- 一键即时部署:开发人员只需通过 CLI 或桌面端点击一下,toolhive 即可在隔离容器中自动拉起经过预审的 MCP 服务器,屏蔽底层基础设施差异。
- 默认安全加固:toolhive 强制每个服务器运行在最小权限的沙箱中,并通过加密方式统一管理密钥,彻底杜绝明文泄露风险。
- 无缝客户端对接:toolhive 自动完成与 Cursor、VS Code 等主流编辑器的配置对接,开发者无需关心后端细节,打开编辑器即可调用新工具。
- 集中化治理:利用 Registry Server 构建受信任的工具目录,确保团队仅能发现和部署经过来源验证的合规服务。
toolhive 将原本需要数小时的安全部署与集成工作缩短至分钟级,让企业能在零信任架构下高效释放大模型的工具调用能力。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
ToolHive - 简化并保护 MCP 服务器
运行任何模型上下文协议 (MCP) 服务器:安全、即时、随处可用。
ToolHive 包含了在生产环境中使用 MCP 服务器所需的一切。您无需自行构建或组合各个组件,只需使用 ToolHive 的注册服务器、运行时、网关和门户,即可快速且安全地启动并运行。
ToolHive 让您完全掌控自己的 MCP 基础设施。几秒钟内即可与主流客户端集成,并通过单击或一条命令将经过预先审核的 MCP 服务器部署到受严格限制的容器中。ToolHive 提供桌面应用、Web 应用、CLI 和 Kubernetes Operator 等多种形式。
为什么选择 ToolHive?
|
|
快速链接
- 📥 下载
- 📚 文档
- 🚀 快速入门指南:
- 💬 Discord
- 🤝 贡献
Stacklok Enterprise
核心功能
ToolHive 架构:网关、注册服务器、运行时和门户
ToolHive 基于 模块化架构,旨在简化安全的 MCP 服务器管理和集成。以下是主要组件的工作方式。
🔌 网关
定义专用端点,使您的团队能够安全高效地访问工具。
- 使用确定性工作流引擎将多个工具编排成一个虚拟的 MCP
- 定义访问策略和网络端点
- 集中控制安全策略、身份验证、授权、审计等
- 与您的 IdP 集成以实现 SSO(兼容 OIDC/OAuth)
- 自定义和过滤工具及描述,以提高性能并减少令牌使用
- 与本地客户端如 Claude Desktop、Cursor、VS Code 和 VS Code Server 等连接
📦 注册服务器
整理一个可信服务器目录,让您的团队可以快速发现并部署。
- 与官方 MCP 注册表集成
- 添加自定义 MCP 服务器
- 根据角色或使用场景对服务器进行分组
- 使用基于 API 的界面管理您的注册表(或嵌入现有工作流程中,实现无缝集成和治理)
- 利用内置的安全控制验证来源并签署服务器
- 提供预设配置和权限,以提供流畅的用户体验
⚙️ 运行时
在本地或 Kubernetes 集群中部署、运行并管理 MCP 服务器,同时设置安全防护措施。
- 通过 Kubernetes 将 MCP 服务器部署到云端,实现企业级扩展
- 使用 Docker 或 Podman 在本地运行 MCP 服务器
- 安全代理远程 MCP 服务器,实现统一管理
- 使用 Kubernetes Operator 进行集群和资源管理
- 利用 OpenTelemetry 和 Prometheus 进行监控和审计日志记录
💻 门户
简化整个企业范围内开发者和知识工作者对 MCP 的采用。
工作原理
- 管理员在 注册服务器 中策划和组织 MCP 服务器,并配置访问权限和策略。
- 用户从 门户 中发现并请求 MCP 服务器,ToolHive 会协调安装和访问。
- 运行时 在本地和云端环境中安全地部署和管理 MCP 服务器,与现有的 SDLC 工作流无缝集成,导出分析数据,并实施细粒度的访问控制。
- 网关 处理所有入站流量,保护上下文和凭据,优化工具选择,并应用组织策略。
灵活的部署方式
桌面体验
个人开发者可以在几分钟内通过桌面 UI 或 CLI 开始使用,随后可将相同的概念应用于企业环境。
关键特性:
- 可以从容器镜像运行任何 MCP 服务器,也可通过常见的包管理器动态构建
- 使用简单的本地工具管理加密的机密信息并控制网络隔离
- 使用内置工具(如官方 MCP 检查器)测试和验证 MCP 服务器
- 使用 MCP 优化器优化令牌使用和工具执行
通过 UI 入门: 快速入门、操作指南
通过 CLI 入门: 快速入门、操作指南、命令参考
MCP 指南:了解如何使用 ToolHive 运行常见的 MCP 服务器
Kubernetes 运算符
团队和组织使用熟悉的 Kubernetes 工作流集中管理 MCP 服务器和注册表。
关键特性:
- 针对 MCP 服务器、注册表及其他 ToolHive 组件的自定义资源定义
- 基于容器的隔离与多命名空间支持,实现安全执行
- 自动化服务创建与发现,并集成入口网关以提供安全访问
- 企业级安全与可观测性:OIDC/OAuth 单点登录、安全令牌交换、审计日志、OpenTelemetry 和 Prometheus 指标
- 混合注册表服务器:可从上游注册表中精选内容、动态注册本地 MCP 服务器,或代理受信任的远程服务
混合模式
ToolHive 为团队和企业提供完整的解决方案,支持在所有环境中运行 MCP 服务器:开发者机器上、您的 Kubernetes 集群内,或由受信任的 SaaS 提供商外部托管。
终端用户可通过安全的基于浏览器的云 UI 访问经批准的 MCP 服务器。开发者还可以使用 ToolHive CLI 或桌面 UI 进行高级集成与测试工作流。
企业团队还可利用 ToolHive 将 MCP 服务器集成到自定义内部工具、代理式工作流或基于聊天的界面中,同时使用相同的运行时和访问控制机制。
贡献
我们欢迎社区的贡献和反馈!
- 🐛 报告问题
- 💬 加入我们的 Discord
如果您有想法、建议,或希望参与其中,请查看我们的贡献指南或提交一个问题。让我们一起让 ToolHive 更加完善!
|
为 CLI、API 和 Kubernetes 运算符(本仓库)做出贡献: 为 UI、注册表和文档做出贡献:
|
|
许可证
本项目采用 Apache 2.0 许可证。
版本历史
v0.18.02026/04/10v0.17.02026/04/09v0.16.02026/04/08v0.15.02026/04/03v0.14.12026/03/30v0.14.02026/03/30v0.13.12026/03/27v0.13.02026/03/26v0.12.52026/03/24v0.12.42026/03/19v0.12.32026/03/19v0.12.22026/03/17v0.12.12026/03/13v0.12.02026/03/13v0.11.32026/03/12v0.11.22026/03/09v0.11.12026/03/06v0.11.02026/03/04v0.10.22026/03/02v0.10.12026/03/02常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器