mcp-server-docker
mcp-server-docker 是一款让开发者能用自然语言直接管理 Docker 的开源工具。它作为模型上下文协议(MCP)服务器,打通了大语言模型与本地或远程 Docker 引擎的连接,使用户无需记忆复杂的命令行指令,只需通过对话即可完成容器编排、镜像构建、日志查看及资源监控等任务。
该工具主要解决了传统 Docker 操作门槛高、命令繁琐的问题,特别适用于需要快速部署环境或调试服务的场景。无论是运维人员管理线上服务,还是技术爱好者在本地实验开源应用,都能通过简单的文字描述实现“所想即所得”的容器化管理。例如,用户只需说“部署一个 WordPress 并连接 MySQL",mcp-server-docker 便能自动规划并执行相应的容器启动流程。
其核心技术亮点在于独特的“计划 + 执行”交互模式:在操作前,模型会先生成执行方案供用户确认,确保操作安全可控;同时支持断点续聊,即使对话中断也能识别既有项目状态进行清理或维护。此外,它还提供了丰富的原子化工具集,涵盖容器、镜像、网络和数据卷的全生命周期管理。对于希望探索 AI 代理能力的开发者而言,这是一个极具价值的实践项目。使用时请注意避免在对话中传递敏感密钥信息,以保障数据安全。
使用场景
某全栈开发者需要在本地快速搭建一个包含 Nginx 反向代理、WordPress 应用及 MySQL 数据库的测试环境,以便调试新插件。
没有 mcp-server-docker 时
- 必须手动编写复杂的
docker-compose.yml文件,反复查阅文档确认端口映射、卷挂载和网络配置语法。 - 当容器启动失败时,需依次执行多条命令行指令查看日志、检查资源占用,排查过程繁琐且容易出错。
- 调整架构(如更换数据库版本或增加缓存服务)需要停止并删除现有容器,重新修改配置文件后再次重建,迭代效率极低。
- 对 Docker 命令不熟悉的团队成员难以参与环境维护,沟通成本高,往往依赖特定人员操作。
使用 mcp-server-docker 后
- 直接用自然语言描述需求(如“部署 WordPress 并连接 MySQL,通过 9000 端口暴露”),mcp-server-docker 自动规划并生成对应的容器组合。
- 遇到报错时,只需询问“为什么 WordPress 起不来”,mcp-server-docker 即刻调取实时日志与资源状态,直接定位问题根源。
- 想要变更架构时,仅需告知新需求,mcp-server-docker 会自动计算差异并执行更新计划,无需手动干预底层生命周期。
- 非运维背景的同事也能通过对话轻松管理容器启停、清理数据卷,大幅降低了团队协作的技术门槛。
核心价值在于将繁琐的容器运维转化为直观的自然语言交互,让开发者从记忆命令和调试配置中解放出来,专注于业务逻辑创新。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
🐋 Docker MCP 服务器
一个使用自然语言管理 Docker 的 MCP 服务器!
🪩 它能做什么?
- 🚀 使用自然语言编排容器
- 🔍 检查并调试正在运行的容器
- 📀 使用 Docker 卷管理持久化数据
❓ 这个工具适合哪些人?
- 服务器管理员:连接到远程 Docker 引擎,例如管理面向公众的网站。
- 爱折腾的人:在本地运行容器,尝试支持 Docker 的开源应用。
- AI 爱好者:探索大型语言模型的能力极限!
演示
一段快速演示,展示如何使用自然语言部署 WordPress:
https://github.com/user-attachments/assets/65e35e67-bce0-4449-af7e-9f4dd773b4b3
🏎️ 快速入门
安装
Claude Desktop
在 macOS 上:~/Library/Application\ Support/Claude/claude_desktop_config.json
在 Windows 上:%APPDATA%/Claude/claude_desktop_config.json
通过 PyPI 和 uv 安装
如果你尚未安装 uv,请按照适用于你系统的安装说明进行操作:
链接
然后将以下内容添加到你的 MCP 服务器配置文件中:
"mcpServers": {
"mcp-server-docker": {
"command": "uvx",
"args": [
"mcp-server-docker"
]
}
}
使用 Docker 安装
为了方便起见,该服务器也可以在 Docker 容器中运行。
克隆本仓库后,构建 Docker 镜像:
docker build -t mcp-server-docker .
然后将以下内容添加到你的 MCP 服务器配置文件中:
"mcpServers": {
"mcp-server-docker": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"-v",
"/var/run/docker.sock:/var/run/docker.sock",
"mcp-server-docker:latest"
]
}
}
请注意,我们以卷的方式挂载了 Docker 套接字;这样可以确保 MCP 服务器能够连接并控制本地的 Docker 守护进程。
📝 提示词
🎻 docker_compose
使用自然语言来编排容器。参见上方的演示。
提供项目名称和所需容器的描述,剩下的工作就交给 LLM 来完成。
此提示词会指示 LLM 进入“计划+执行”循环。你与 LLM 的交互将包括以下步骤:
- 你向 LLM 提供要启动的容器指令。
- LLM 计算出一个简洁的自然语言计划,并将其呈现给你。
- 你可以选择:
- 执行该计划。
- 向 LLM 提供反馈,LLM 将重新计算计划。
示例
- 名称:
nginx,容器: “部署一个暴露在 9000 端口的 nginx 容器” - 名称:
wordpress,容器:“部署一个 WordPress 容器和一个配套的 MySQL 容器,将 WordPress 暴露在 9000 端口”
继续一个项目
当你开始与此提示词的新对话时,LLM 会获取使用给定项目名称创建的所有容器、卷和网络的状态。
这主要用于清理,以防你丢失了一个负责创建许多容器的聊天记录。
📔 资源
对于每个容器,该服务器都会实现一些资源:
- 统计信息:容器的 CPU、内存等指标。
- 日志:查看容器的部分日志。
🔨 工具
容器
list_containers:列出所有容器。create_container:创建新容器。run_container:运行容器。recreate_container:重新创建容器。start_container:启动容器。fetch_container_logs:获取容器日志。stop_container:停止容器。remove_container:移除容器。
镜像
list_images:列出所有镜像。pull_image:拉取镜像。push_image:推送镜像。build_image:构建镜像。remove_image:删除镜像。
网络
list_networks:列出所有网络。create_network:创建网络。remove_network:删除网络。
卷
list_volumes:列出所有卷。create_volume:创建卷。remove_volume:删除卷。
🚧 免责声明
敏感数据
请勿配置包含敏感数据的容器。 这包括 API 密钥、数据库密码等。
任何与 LLM 交互的敏感数据都存在泄露风险,除非 LLM 是在你的本地机器上运行的。
如果你希望安全地将密钥传递给容器,请在此仓库中提交一个问题,说明你的使用场景。
审核创建的容器
请务必仔细审核 LLM 创建的容器。Docker 并不是一个安全的沙箱环境,因此 MCP 服务器可能会通过 Docker 对宿主机造成影响。
出于安全考虑,此 MCP 服务器不支持诸如 --privileged 或 --cap-add/--cap-drop 等敏感的 Docker 选项。如果你对这些功能感兴趣,请在此仓库中提交一个问题,说明你的使用场景。
🛠️ 配置
该服务器使用 Python Docker SDK 的 from_env 方法。有关配置细节,请参阅
官方文档。
通过 SSH 连接到 Docker
此 MCP 服务器可以通过 SSH 连接到远程 Docker 守护进程。
只需在 MCP 服务器定义中设置一个 ssh:// 主机 URL:
"mcpServers": {
"mcp-server-docker": {
"command": "uvx",
"args": [
"mcp-server-docker"
],
"env": {
"DOCKER_HOST": "ssh://myusername@myhost.example.com"
}
}
}
💻 开发
建议使用 Devbox 来配置你的开发环境。
请参阅 devbox.json 文件,其中包含有用的开发命令。
设置好 Devbox 后,你可以将你的 Claude MCP 配置调整为使用它:
"docker": {
"command": "/path/to/repo/.devbox/nix/profile/default/bin/uv",
"args": [
"--directory",
"/path/to/repo/",
"run",
"mcp-server-docker"
]
},
常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
OpenHands
OpenHands 是一个专注于 AI 驱动开发的开源平台,旨在让智能体(Agent)像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点,通过自动化流程显著提升开发速度。 无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员,还是需要快速原型验证的技术团队,都能从中受益。OpenHands 提供了灵活多样的使用方式:既可以通过命令行(CLI)或本地图形界面在个人电脑上轻松上手,体验类似 Devin 的流畅交互;也能利用其强大的 Python SDK 自定义智能体逻辑,甚至在云端大规模部署上千个智能体并行工作。 其核心技术亮点在于模块化的软件智能体 SDK,这不仅构成了平台的引擎,还支持高度可组合的开发模式。此外,OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩,证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能,支持与 Slack、Jira 等工具集成,并提供细粒度的权限管理,适合从个人开发者到大型企业的各类用户场景。