mcp-server-docker

GitHub
695 97 简单 1 次阅读 5天前GPL-3.0Agent插件
AI 解读 由 AI 自动生成,仅供参考

mcp-server-docker 是一款让开发者能用自然语言直接管理 Docker 的开源工具。它作为模型上下文协议(MCP)服务器,打通了大语言模型与本地或远程 Docker 引擎的连接,使用户无需记忆复杂的命令行指令,只需通过对话即可完成容器编排、镜像构建、日志查看及资源监控等任务。

该工具主要解决了传统 Docker 操作门槛高、命令繁琐的问题,特别适用于需要快速部署环境或调试服务的场景。无论是运维人员管理线上服务,还是技术爱好者在本地实验开源应用,都能通过简单的文字描述实现“所想即所得”的容器化管理。例如,用户只需说“部署一个 WordPress 并连接 MySQL",mcp-server-docker 便能自动规划并执行相应的容器启动流程。

其核心技术亮点在于独特的“计划 + 执行”交互模式:在操作前,模型会先生成执行方案供用户确认,确保操作安全可控;同时支持断点续聊,即使对话中断也能识别既有项目状态进行清理或维护。此外,它还提供了丰富的原子化工具集,涵盖容器、镜像、网络和数据卷的全生命周期管理。对于希望探索 AI 代理能力的开发者而言,这是一个极具价值的实践项目。使用时请注意避免在对话中传递敏感密钥信息,以保障数据安全。

使用场景

某全栈开发者需要在本地快速搭建一个包含 Nginx 反向代理、WordPress 应用及 MySQL 数据库的测试环境,以便调试新插件。

没有 mcp-server-docker 时

  • 必须手动编写复杂的 docker-compose.yml 文件,反复查阅文档确认端口映射、卷挂载和网络配置语法。
  • 当容器启动失败时,需依次执行多条命令行指令查看日志、检查资源占用,排查过程繁琐且容易出错。
  • 调整架构(如更换数据库版本或增加缓存服务)需要停止并删除现有容器,重新修改配置文件后再次重建,迭代效率极低。
  • 对 Docker 命令不熟悉的团队成员难以参与环境维护,沟通成本高,往往依赖特定人员操作。

使用 mcp-server-docker 后

  • 直接用自然语言描述需求(如“部署 WordPress 并连接 MySQL,通过 9000 端口暴露”),mcp-server-docker 自动规划并生成对应的容器组合。
  • 遇到报错时,只需询问“为什么 WordPress 起不来”,mcp-server-docker 即刻调取实时日志与资源状态,直接定位问题根源。
  • 想要变更架构时,仅需告知新需求,mcp-server-docker 会自动计算差异并执行更新计划,无需手动干预底层生命周期。
  • 非运维背景的同事也能通过对话轻松管理容器启停、清理数据卷,大幅降低了团队协作的技术门槛。

核心价值在于将繁琐的容器运维转化为直观的自然语言交互,让开发者从记忆命令和调试配置中解放出来,专注于业务逻辑创新。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明

内存

未说明

依赖
notes1. 核心依赖:本地必须安装并运行 Docker 守护进程。2. 权限要求:运行时需要挂载 Docker Socket (/var/run/docker.sock) 以控制容器,或在配置中设置 DOCKER_HOST 通过 SSH 连接远程 Docker。3. 安装方式:推荐使用 'uv' 工具链 (uvx) 直接运行,也可构建为 Docker 容器运行。4. 安全警告:不建议在容器中配置敏感数据(如 API 密钥),且服务器禁用了 --privileged 等高危 Docker 选项。
python未说明 (需支持 uv/uvx 及 Python Docker SDK)
docker (Python SDK)
uv
mcp-server-docker hero image

快速开始

🐋 Docker MCP 服务器

一个使用自然语言管理 Docker 的 MCP 服务器!

🪩 它能做什么?

  • 🚀 使用自然语言编排容器
  • 🔍 检查并调试正在运行的容器
  • 📀 使用 Docker 卷管理持久化数据

❓ 这个工具适合哪些人?

  • 服务器管理员:连接到远程 Docker 引擎,例如管理面向公众的网站。
  • 爱折腾的人:在本地运行容器,尝试支持 Docker 的开源应用。
  • AI 爱好者:探索大型语言模型的能力极限!

演示

一段快速演示,展示如何使用自然语言部署 WordPress:

https://github.com/user-attachments/assets/65e35e67-bce0-4449-af7e-9f4dd773b4b3

🏎️ 快速入门

安装

Claude Desktop

在 macOS 上:~/Library/Application\ Support/Claude/claude_desktop_config.json

在 Windows 上:%APPDATA%/Claude/claude_desktop_config.json

通过 PyPI 和 uv 安装

如果你尚未安装 uv,请按照适用于你系统的安装说明进行操作: 链接

然后将以下内容添加到你的 MCP 服务器配置文件中:

"mcpServers": {
  "mcp-server-docker": {
    "command": "uvx",
    "args": [
      "mcp-server-docker"
    ]
  }
}
使用 Docker 安装

为了方便起见,该服务器也可以在 Docker 容器中运行。

克隆本仓库后,构建 Docker 镜像:

docker build -t mcp-server-docker .

然后将以下内容添加到你的 MCP 服务器配置文件中:

"mcpServers": {
  "mcp-server-docker": {
    "command": "docker",
    "args": [
      "run",
      "-i",
      "--rm",
      "-v",
      "/var/run/docker.sock:/var/run/docker.sock",
      "mcp-server-docker:latest"
    ]
  }
}

请注意,我们以卷的方式挂载了 Docker 套接字;这样可以确保 MCP 服务器能够连接并控制本地的 Docker 守护进程。

📝 提示词

🎻 docker_compose

使用自然语言来编排容器。参见上方的演示。

提供项目名称和所需容器的描述,剩下的工作就交给 LLM 来完成。

此提示词会指示 LLM 进入“计划+执行”循环。你与 LLM 的交互将包括以下步骤:

  1. 你向 LLM 提供要启动的容器指令。
  2. LLM 计算出一个简洁的自然语言计划,并将其呈现给你。
  3. 你可以选择:
    • 执行该计划。
    • 向 LLM 提供反馈,LLM 将重新计算计划。

示例

  • 名称:nginx,容器: “部署一个暴露在 9000 端口的 nginx 容器”
  • 名称:wordpress,容器:“部署一个 WordPress 容器和一个配套的 MySQL 容器,将 WordPress 暴露在 9000 端口”

继续一个项目

当你开始与此提示词的新对话时,LLM 会获取使用给定项目名称创建的所有容器、卷和网络的状态。

这主要用于清理,以防你丢失了一个负责创建许多容器的聊天记录。

📔 资源

对于每个容器,该服务器都会实现一些资源:

  • 统计信息:容器的 CPU、内存等指标。
  • 日志:查看容器的部分日志。

🔨 工具

容器

  • list_containers:列出所有容器。
  • create_container:创建新容器。
  • run_container:运行容器。
  • recreate_container:重新创建容器。
  • start_container:启动容器。
  • fetch_container_logs:获取容器日志。
  • stop_container:停止容器。
  • remove_container:移除容器。

镜像

  • list_images:列出所有镜像。
  • pull_image:拉取镜像。
  • push_image:推送镜像。
  • build_image:构建镜像。
  • remove_image:删除镜像。

网络

  • list_networks:列出所有网络。
  • create_network:创建网络。
  • remove_network:删除网络。

  • list_volumes:列出所有卷。
  • create_volume:创建卷。
  • remove_volume:删除卷。

🚧 免责声明

敏感数据

请勿配置包含敏感数据的容器。 这包括 API 密钥、数据库密码等。

任何与 LLM 交互的敏感数据都存在泄露风险,除非 LLM 是在你的本地机器上运行的。

如果你希望安全地将密钥传递给容器,请在此仓库中提交一个问题,说明你的使用场景。

审核创建的容器

请务必仔细审核 LLM 创建的容器。Docker 并不是一个安全的沙箱环境,因此 MCP 服务器可能会通过 Docker 对宿主机造成影响。

出于安全考虑,此 MCP 服务器不支持诸如 --privileged--cap-add/--cap-drop 等敏感的 Docker 选项。如果你对这些功能感兴趣,请在此仓库中提交一个问题,说明你的使用场景。

🛠️ 配置

该服务器使用 Python Docker SDK 的 from_env 方法。有关配置细节,请参阅 官方文档

通过 SSH 连接到 Docker

此 MCP 服务器可以通过 SSH 连接到远程 Docker 守护进程。

只需在 MCP 服务器定义中设置一个 ssh:// 主机 URL:

"mcpServers": {
  "mcp-server-docker": {
    "command": "uvx",
    "args": [
      "mcp-server-docker"
    ],
    "env": {
      "DOCKER_HOST": "ssh://myusername@myhost.example.com"
    }
  }
}

💻 开发

建议使用 Devbox 来配置你的开发环境。

请参阅 devbox.json 文件,其中包含有用的开发命令。

设置好 Devbox 后,你可以将你的 Claude MCP 配置调整为使用它:

  "docker": {
    "command": "/path/to/repo/.devbox/nix/profile/default/bin/uv",
    "args": [
      "--directory",
      "/path/to/repo/",
      "run",
      "mcp-server-docker"
    ]
  },

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|2天前
Agent图像开发框架

OpenHands

OpenHands 是一个专注于 AI 驱动开发的开源平台,旨在让智能体(Agent)像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点,通过自动化流程显著提升开发速度。 无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员,还是需要快速原型验证的技术团队,都能从中受益。OpenHands 提供了灵活多样的使用方式:既可以通过命令行(CLI)或本地图形界面在个人电脑上轻松上手,体验类似 Devin 的流畅交互;也能利用其强大的 Python SDK 自定义智能体逻辑,甚至在云端大规模部署上千个智能体并行工作。 其核心技术亮点在于模块化的软件智能体 SDK,这不仅构成了平台的引擎,还支持高度可组合的开发模式。此外,OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩,证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能,支持与 Slack、Jira 等工具集成,并提供细粒度的权限管理,适合从个人开发者到大型企业的各类用户场景。

70.6k|★★★☆☆|今天
语言模型Agent开发框架