stable-diffusion-docker
stable-diffusion-docker 是一个让官方 Stable Diffusion 模型在 Docker 容器中轻松运行的开源项目。它封装了文生图、图生图、深度引导生成、指令编辑(pix2pix)、图像超分放大及局部重绘等核心功能,用户只需通过简单的命令行脚本即可调用强大的 AI 绘画能力。
该项目主要解决了 AI 绘图环境配置复杂、依赖冲突多以及跨平台部署难的痛点。通过容器化技术,它将复杂的 GPU 加速环境、模型权重管理及依赖库打包在一起,确保在不同操作系统上都能获得一致且稳定的运行体验。即使没有高端显卡,它也提供了 CPU 推理和 ONNX 优化选项,降低了使用门槛。
这款工具非常适合开发者快速集成 AI 绘图能力,研究人员进行模型实验,以及希望在本机私有化部署绘图服务的设计师或技术爱好者。其独特亮点在于极简的交互设计:用户无需编写复杂的 Python 代码,仅需一个 build.sh 脚本配合 Hugging Face 令牌,就能通过一行命令完成从环境构建到生成“沙漠中吃意大利面的鹦鹉”等创意图像的全过程,极大地提升了工作流效率。
使用场景
一家独立游戏开发团队急需为原型演示快速生成大量风格统一的概念美术资产,但团队成员缺乏深度学习环境配置经验且硬件资源有限。
没有 stable-diffusion-docker 时
- 环境配置噩梦:开发者需手动安装 CUDA、PyTorch 及各类依赖库,常因版本冲突导致数小时甚至数天的调试浪费。
- 硬件门槛过高:本地电脑若无高端显卡则无法运行模型,强行使用 CPU 推理速度慢到几乎不可用,严重阻塞创作流程。
- 功能切换繁琐:想要尝试从“文生图”切换到“图生图”或“局部重绘”,需要修改复杂的 Python 脚本或切换不同的开源项目代码。
- 协作一致性差:不同成员生成的图像风格因环境参数微调而差异巨大,难以维持游戏美术风格的统一性。
使用 stable-diffusion-docker 后
- 一键启动环境:通过
./build.sh脚本即可在容器内自动部署所有依赖,屏蔽底层复杂性,让设计师几分钟内开始创作。 - 灵活适配算力:利用 Docker 的 GPU 加速特性高效生成图像,即便在配置较低的机器上也能通过
--device cpu选项勉强运行,保障任务不中断。 - 全能指令集成:仅需更改命令行参数(如
--image或--model),即可在同一环境中无缝切换文生图、深度引导扩散及图像超分等六种核心功能。 - 标准化输出:容器化确保了所有成员使用完全一致的模型权重和运行参数,批量生成的素材风格高度统一,直接可用。
stable-diffusion-docker 将复杂的 AI 部署转化为简单的命令行操作,让创意团队能专注于内容生产而非环境运维。
运行环境要求
- Linux
- macOS
- Windows
- 需要支持 CUDA 的 GPU,显存 8GB+(默认)
- 低配 GPU 可通过参数调整或使用 CPU/ONNX 模式运行
未说明

快速开始
Docker 中的 Stable Diffusion
在 GPU 加速的 Docker 容器中运行 Hugging Face 上官方 Stable Diffusion 发布版本。
./build.sh run '沙漠中一只鹦鹉吃意大利面的印象派画作'

./build.sh run --image parakeet_eating_spaghetti.png --strength 0.6 '玫瑰花束'

开始之前
最低要求
默认情况下,该流程使用完整模型和权重,需要具备 8GB 以上显存的 CUDA 兼容 GPU。生成一张图像大约需要几秒钟。在性能较弱的 GPU 上,您可能需要调整一些选项;有关详细信息,请参阅 示例 部分。如果您没有合适的 GPU,可以改用 --device cpu 和 --onnx 选项。
Hugging Face 令牌
由于使用的是官方模型,您需要在您的 Hugging Face 账户 中创建一个 用户访问令牌。将用户访问令牌保存到名为 token.txt 的文件中,并确保在构建容器时该文件可用。令牌内容应以 hf_... 开头。
快速入门
该流程通过单个 build.sh 脚本进行管理。
使用 ./build.sh pull 拉取最新版本的 stable-diffusion-docker。在使用 ./build run 时,您需要使用 --token 选项指定有效的 用户访问令牌。
或者,您也可以先在本地构建镜像,然后再运行。
构建
请确保您的 用户访问令牌 已保存到名为 token.txt 的文件中。
构建命令如下:
./build.sh build # 或者直接 ./build.sh
运行
文本转图像 (txt2img)
根据文本提示生成图像。
运行命令如下:
./build.sh run '瓶中的仙女座星系'
图像转图像 (img2img)
根据现有图像和文本提示生成新图像。
首先,将图像复制到 input 文件夹。然后,运行以下命令:
./build.sh run --image image.png '瓶中的仙女座星系'
深度引导扩散 (depth2img)
结合深度图和文本提示修改现有图像。
首先,将图像复制到 input 文件夹。然后,运行以下命令:
./build.sh run --model 'stabilityai/stable-diffusion-2-depth' \
--image image.png '对要更改物体的详细描述'
指令式 Pix2Pix (pix2pix)
结合文本提示修改现有图像。
首先,将图像复制到 input 文件夹。然后,运行以下命令:
./build.sh run --model 'timbrooks/instruct-pix2pix' \
--image image.png '对要更改物体的详细描述'
Stable UnCLIP 变体 (unclip)
根据文本提示生成同一图像的不同版本。
首先,将图像复制到 input 文件夹。然后,运行以下命令:
./build.sh run --model 'stabilityai/stable-diffusion-2-1-unclip-small' \
--image image.png '对图像的详细描述'
图像超分辨率 (upscale4x)
根据现有图像和文本提示生成高分辨率图像。
首先,将图像复制到 input 文件夹。然后,运行以下命令:
./build.sh run --model 'stabilityai/stable-diffusion-x4-upscaler' \
--image image.png '瓶中的仙女座星系'
扩散修复 (inpaint)
结合图像掩码和文本提示修改现有图像的特定区域。
首先,将图像和图像掩码复制到 input 文件夹。掩码中的白色区域将被扩散处理,而黑色区域则保持不变。然后,运行以下命令:
./build.sh run --model 'runwayml/stable-diffusion-inpainting' \
--image image.png --mask mask.png '瓶中的仙女座星系'
选项
以下是最常见的选项:
--prompt [PROMPT]:用于生成图像的提示词--model [MODEL]:用于生成图像的模型(默认为CompVis/stable-diffusion-v1-4)--height [HEIGHT]:图像高度,单位为像素(默认 512,必须能被 64 整除)--width [WIDTH]:图像宽度,单位为像素(默认 512,必须能被 64 整除)--iters [ITERS]:运行管道的次数(默认 1)--samples [SAMPLES]:每次运行生成的图像数量(默认 1)--scale [SCALE]:图像与提示词的匹配程度(默认 7.5)--scheduler [SCHEDULER]:覆盖用于去噪图像的调度器(默认为None)--seed [SEED]:随机数生成器种子,用于实现结果的可重复性(默认为随机种子)--steps [STEPS]:采样步骤数(默认 50)
其他选项:
--attention-slicing:减少内存使用,但会降低推理速度(默认不启用注意力切片)--device [DEVICE]:用于渲染图像的 CPU 或 CUDA 设备(默认为cuda)--half:使用 float16 张量代替 float32(默认为 float32)--image [IMAGE]:用于图像到图像扩散的输入图像(默认为None)--image-scale [IMAGE_SCALE]:图像与原始图像的匹配程度(默认为None)--mask [MASK]:用于扩散修复的输入掩码(默认为None)--negative-prompt [NEGATIVE_PROMPT]:不应生成的提示词(默认为None)--onnx:使用 ONNX 运行时进行推理(默认关闭)--skip:跳过安全检查器(默认开启安全检查)--strength [STRENGTH]:应用于输入图像的扩散强度(默认 0.75)--token [TOKEN]:在命令行中指定 Hugging Face 用户访问令牌,而不是从文件中读取(默认从文件中读取)--vae-slicing:在创建大批量图像时减少内存使用(默认不启用 VAE 切片)--vae-tiling:在创建超高分辨率图像时减少内存使用,但会大幅降低推理速度(默认不启用 VAE 瓦片化)--xformers-memory-efficient-attention:减少内存使用,但需要 xformers 库支持(默认不需要 xformers)
为了便于使用并与其他管道兼容,部分原始 txt2img.py 选项已被重命名:
| txt2img | stable-diffusion-docker |
|---|---|
--H |
--height |
--W |
--width |
--n_iter |
--iters |
--n_samples |
--samples |
--ddim_steps |
--steps |
示例
以下两条命令是等价的:
./build.sh run 'abstract art'
./build.sh run --prompt 'abstract art'
设置种子为 42:
./build.sh run --seed 42 'abstract art'
选项可以组合使用:
./build.sh run --scale 7.0 --seed 42 'abstract art'
许多流行模型开箱即用:
| 模型名称 | 使用 --model 的选项 |
|---|---|
| Stable Diffusion 1.4 | 'CompVis/stable-diffusion-v1-4' |
| Stable Diffusion 1.5 | 'runwayml/stable-diffusion-v1-5' |
| Stable Diffusion 2.0 | 'stabilityai/stable-diffusion-2' |
| Stable Diffusion 2.1 | 'stabilityai/stable-diffusion-2-1' |
| Stable Diffusion XL | 'stabilityai/stable-diffusion-xl-base-1.0' |
| OpenJourney 1.0 | 'prompthero/openjourney' |
| Dreamlike Diffusion 1.0 | 'dreamlike-art/dreamlike-diffusion-1.0' |
| 等等! | ... |
./build.sh run --model 'prompthero/openjourney' --prompt 'abstract art'
在 GPU 显存不足的系统上,可以尝试组合使用不同的选项:
- 如果容器被终止,可在 Docker Desktop 的“设置 -> 资源”中增加 CPU、内存和交换空间,以提供更多资源。
- 使用
--height和--width将图像尺寸缩小到 512×512 以下,以减少内存占用并加快图像生成速度。 - 使用
--half可减少内存使用,但会略微降低图像质量。 - 使用
--attention-slicing可减少内存使用,但也会降低图像生成速度。 - 如果管道和硬件支持,可使用
--xformers-memory-efficient-attention来减少内存使用。 - 通过调整
--samples和--iters,减少样本数量并增加迭代次数,从而降低整体内存使用。 - 使用
--skip跳过安全检查,以减少代码执行量。
./build.sh run --height 256 --width 256 --half \
--attention-slicing --xformers-memory-efficient-attention \
--samples 1 --iters 1 --skip --prompt 'abstract art'
在 Windows 上,如果未使用 WSL2 而是 MSYS、MinGW 或 Git Bash,请在命令前加上 MSYS_NO_PATHCONV=1(或提前导出该变量):
MSYS_NO_PATHCONV=1 ./build.sh run --half --prompt 'abstract art'
输出
模型
模型及其他文件会被缓存在名为 huggingface 的卷中。模型存储路径为 <volume>/diffusers/<model>/snapshots/<githash>/unet/<weights>。检查点文件(.ckpt)是官方模型的非官方版本,因此不属于官方发布内容。
图像
图像会以 PNG 格式保存在 output 文件夹中,文件名基于提示词文本。build.sh 脚本会在容器中创建并挂载该文件夹作为卷。
贡献
更多详情请参阅 CONTRIBUTING.md 文件。简而言之,遵循代码风格指南,同意开发者证书,并提交拉取请求。
版本历史
v1.41.02023/09/22v1.40.02023/08/23v1.39.02023/07/19v1.38.02023/06/20v1.37.02023/05/29v1.36.02023/05/19v1.35.02023/04/15v1.34.02023/03/17v1.33.02023/02/25v1.32.02023/02/20v1.31.02023/02/17v1.30.12023/02/03v1.30.02023/01/28v1.29.02023/01/27v1.28.02023/01/26v1.27.02023/01/16v1.26.02023/01/13v1.25.12023/01/11v1.25.02022/12/26v1.24.02022/12/20常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。