[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-fboulnois--stable-diffusion-docker":3,"tool-fboulnois--stable-diffusion-docker":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":76,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":78,"languages":79,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":10,"env_os":96,"env_gpu":97,"env_ram":98,"env_deps":99,"category_tags":105,"github_topics":106,"view_count":23,"oss_zip_url":76,"oss_zip_packed_at":76,"status":16,"created_at":120,"updated_at":121,"faqs":122,"releases":152},2716,"fboulnois\u002Fstable-diffusion-docker","stable-diffusion-docker","Run the official Stable Diffusion releases in a Docker container with txt2img, img2img, depth2img, pix2pix, upscale4x, and inpaint.","stable-diffusion-docker 是一个让官方 Stable Diffusion 模型在 Docker 容器中轻松运行的开源项目。它封装了文生图、图生图、深度引导生成、指令编辑（pix2pix）、图像超分放大及局部重绘等核心功能，用户只需通过简单的命令行脚本即可调用强大的 AI 绘画能力。\n\n该项目主要解决了 AI 绘图环境配置复杂、依赖冲突多以及跨平台部署难的痛点。通过容器化技术，它将复杂的 GPU 加速环境、模型权重管理及依赖库打包在一起，确保在不同操作系统上都能获得一致且稳定的运行体验。即使没有高端显卡，它也提供了 CPU 推理和 ONNX 优化选项，降低了使用门槛。\n\n这款工具非常适合开发者快速集成 AI 绘图能力，研究人员进行模型实验，以及希望在本机私有化部署绘图服务的设计师或技术爱好者。其独特亮点在于极简的交互设计：用户无需编写复杂的 Python 代码，仅需一个 `build.sh` 脚本配合 Hugging Face 令牌，就能通过一行命令完成从环境构建到生成“沙漠中吃意大利面的鹦鹉”等创意图像的全过程，极大地提升了工作流效率。","# Stable Diffusion in Docker\n\nRun the official [Stable Diffusion](https:\u002F\u002Fhuggingface.co\u002FCompVis\u002Fstable-diffusion)\nreleases on [Huggingface](https:\u002F\u002Fhuggingface.co\u002F) in a GPU accelerated Docker\ncontainer.\n\n```sh\n.\u002Fbuild.sh run 'An impressionist painting of a parakeet eating spaghetti in the desert'\n```\n\n![An impressionist painting of a parakeet eating spaghetti in the desert 1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffboulnois_stable-diffusion-docker_readme_cf6bbbe057fd.png)\n![An impressionist painting of a parakeet eating spaghetti in the desert 2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffboulnois_stable-diffusion-docker_readme_ef1418bf9bed.png)\n\n```sh\n.\u002Fbuild.sh run --image parakeet_eating_spaghetti.png --strength 0.6 'Bouquet of roses'\n```\n\n![Bouquet of roses 1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffboulnois_stable-diffusion-docker_readme_16f1669fb420.png)\n![Bouquet of roses 2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffboulnois_stable-diffusion-docker_readme_08d88895d418.png)\n\n## Before you start\n\n### Minimum requirements\n\nBy default, the pipeline uses the full model and weights which requires a CUDA\ncapable GPU with 8GB+ of VRAM. It should take a few seconds to create one image.\nOn less powerful GPUs you may need to modify some of the options; see the\n[Examples](#examples) section for more details. If you lack a suitable GPU you\ncan set the options `--device cpu` and `--onnx` instead.\n\n### Huggingface token\n\nSince it uses the official model, you will need to create a [user access token](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Fhub\u002Fsecurity-tokens)\nin your [Huggingface account](https:\u002F\u002Fhuggingface.co\u002Fsettings\u002Ftokens). Save the\nuser access token in a file called `token.txt` and make sure it is available\nwhen building the container. The token content should begin with `hf_...`\n\n## Quickstart\n\nThe pipeline is managed using a single [`build.sh`](build.sh) script.\n\nPull the latest version of `stable-diffusion-docker` using `.\u002Fbuild.sh pull`.\nYou will need to use the option `--token` to specify a valid [user access token](#huggingface-token)\nwhen using [`.\u002Fbuild run`](#run).\n\nAlternately, build the image locally before running it.\n\n## Build\n\nMake sure your [user access token](#huggingface-token) is saved in a file called\n`token.txt`.\n\nTo build:\n\n```sh\n.\u002Fbuild.sh build  # or just .\u002Fbuild.sh\n```\n\n## Run\n\n### Text-to-Image (`txt2img`)\n\nCreate an image from a text prompt.\n\nTo run:\n\n```sh\n.\u002Fbuild.sh run 'Andromeda galaxy in a bottle'\n```\n\n### Image-to-Image (`img2img`)\n\nCreate an image from an existing image and a text prompt.\n\nFirst, copy an image to the `input` folder. Next, to run:\n\n```sh\n.\u002Fbuild.sh run --image image.png 'Andromeda galaxy in a bottle'\n```\n\n### Depth-Guided Diffusion (`depth2img`)\n\nModify an existing image with its depth map and a text prompt.\n\nFirst, copy an image to the `input` folder. Next, to run:\n\n```sh\n.\u002Fbuild.sh run --model 'stabilityai\u002Fstable-diffusion-2-depth' \\\n  --image image.png 'A detailed description of the objects to change'\n```\n\n### Instruct Pix2Pix (`pix2pix`)\n\nModify an existing image with a text prompt.\n\nFirst, copy an image to the `input` folder. Next, to run:\n\n```sh\n.\u002Fbuild.sh run --model 'timbrooks\u002Finstruct-pix2pix' \\\n  --image image.png 'A detailed description of the objects to change'\n```\n\n### Stable UnCLIP Variations (`unclip`)\n\nCreate different versions of an image with a text prompt.\n\nFirst, copy an image to the `input` folder. Next, to run:\n\n```sh\n.\u002Fbuild.sh run --model 'stabilityai\u002Fstable-diffusion-2-1-unclip-small' \\\n  --image image.png 'A detailed description of the image'\n```\n\n### Image Upscaling (`upscale4x`)\n\nCreate a high resolution image from an existing image with a text prompt.\n\nFirst, copy an image to the `input` folder. Next, to run:\n\n```sh\n.\u002Fbuild.sh run --model 'stabilityai\u002Fstable-diffusion-x4-upscaler' \\\n  --image image.png 'Andromeda galaxy in a bottle'\n```\n\n### Diffusion Inpainting (`inpaint`)\n\nModify specific areas of an existing image with an image mask and a text prompt.\n\nFirst, copy an image and an image mask to the `input` folder. White areas of the\nmask will be diffused and black areas will be kept untouched. Next, to run:\n\n```sh\n.\u002Fbuild.sh run --model 'runwayml\u002Fstable-diffusion-inpainting' \\\n  --image image.png --mask mask.png 'Andromeda galaxy in a bottle'\n```\n\n## Options\n\nThe following are the most common options:\n\n* `--prompt [PROMPT]`: the prompt to render into an image\n* `--model [MODEL]`: the model used to render images (default is\n`CompVis\u002Fstable-diffusion-v1-4`)\n* `--height [HEIGHT]`: image height in pixels (default 512, must be divisible by 64)\n* `--width [WIDTH]`: image width in pixels (default 512, must be divisible by 64)\n* `--iters [ITERS]`: number of times to run pipeline (default 1)\n* `--samples [SAMPLES]`: number of images to create per run (default 1)\n* `--scale [SCALE]`: how closely the image should follow the prompt (default 7.5)\n* `--scheduler [SCHEDULER]`: override the scheduler used to denoise the image\n(default `None`)\n* `--seed [SEED]`: RNG seed for repeatability (default is a random seed)\n* `--steps [STEPS]`: number of sampling steps (default 50)\n\nOther options:\n\n* `--attention-slicing`: use less memory but decrease inference speed (default\nis no attention slicing)\n* `--device [DEVICE]`: the cpu or cuda device to use to render images (default\n`cuda`)\n* `--half`: use float16 tensors instead of float32 (default `float32`)\n* `--image [IMAGE]`: the input image to use for image-to-image diffusion\n(default `None`)\n* `--image-scale [IMAGE_SCALE]`: how closely the image should follow the\noriginal image (default `None`)\n* `--mask [MASK]`: the input mask to use for diffusion inpainting (default\n`None`)\n* `--negative-prompt [NEGATIVE_PROMPT]`: the prompt to not render into an image\n(default `None`)\n* `--onnx`: use the onnx runtime for inference (default is off)\n* `--skip`: skip safety checker (default is the safety checker is on)\n* `--strength [STRENGTH]`: diffusion strength to apply to the input image\n(default 0.75)\n* `--token [TOKEN]`: specify a Huggingface user access token at the command line\ninstead of reading it from a file (default is a file)\n* `--vae-slicing`: use less memory when creating large batches of images\n(default is no vae slicing)\n* `--vae-tiling`: use less memory when creating ultra-high resolution images but\nmassively decrease inference speed (default is no vae tiling)\n* `--xformers-memory-efficient-attention`: use less memory but require the\nxformers library (default is that xformers is not required)\n\nSome of the original `txt2img.py` options [have been renamed](https:\u002F\u002Fgithub.com\u002Ffboulnois\u002Fstable-diffusion-docker\u002Fissues\u002F49)\nfor easy-of-use and compatibility with other pipelines:\n\n| txt2img | stable-diffusion-docker |\n|---------|-------------------------|\n| `--H` | `--height` |\n| `--W` | `--width` |\n| `--n_iter` | `--iters` |\n| `--n_samples` | `--samples` |\n| `--ddim_steps` | `--steps` |\n\n## Examples\n\nThese commands are both identical:\n\n```sh\n.\u002Fbuild.sh run 'abstract art'\n.\u002Fbuild.sh run --prompt 'abstract art'\n```\n\nSet the seed to 42:\n\n```sh\n.\u002Fbuild.sh run --seed 42 'abstract art'\n```\n\nOptions can be combined:\n\n```sh\n.\u002Fbuild.sh run --scale 7.0 --seed 42 'abstract art'\n```\n\nMany popular models are supported out-of-the-box:\n\n| Model Name | Option using `--model` |\n|------------|------------------------|\n| [Stable Diffusion 1.4](https:\u002F\u002Fhuggingface.co\u002FCompVis\u002Fstable-diffusion-v1-4) | `'CompVis\u002Fstable-diffusion-v1-4'` |\n| [Stable Diffusion 1.5](https:\u002F\u002Fhuggingface.co\u002Frunwayml\u002Fstable-diffusion-v1-5) | `'runwayml\u002Fstable-diffusion-v1-5'` |\n| [Stable Diffusion 2.0](https:\u002F\u002Fhuggingface.co\u002Fstabilityai\u002Fstable-diffusion-2) | `'stabilityai\u002Fstable-diffusion-2'` |\n| [Stable Diffusion 2.1](https:\u002F\u002Fhuggingface.co\u002Fstabilityai\u002Fstable-diffusion-2-1) | `'stabilityai\u002Fstable-diffusion-2-1'` |\n| [Stable Diffusion XL](https:\u002F\u002Fhuggingface.co\u002Fstabilityai\u002Fstable-diffusion-xl-base-1.0) | `'stabilityai\u002Fstable-diffusion-xl-base-1.0'` |\n| [OpenJourney 1.0](https:\u002F\u002Fhuggingface.co\u002Fprompthero\u002Fopenjourney) | `'prompthero\u002Fopenjourney'` |\n| [Dreamlike Diffusion 1.0](https:\u002F\u002Fhuggingface.co\u002Fdreamlike-art\u002Fdreamlike-diffusion-1.0) | `'dreamlike-art\u002Fdreamlike-diffusion-1.0'` |\n| [and more!](https:\u002F\u002Fhuggingface.co\u002Fmodels?other=stable-diffusion&sort=likes) | ... |\n\n```sh\n.\u002Fbuild.sh run --model 'prompthero\u002Fopenjourney' --prompt 'abstract art'\n```\n\nOn systems without enough GPU VRAM, you can try mixing and matching options:\n\n* Give Docker Desktop more resources by increasing the CPU, memory, and swap in\nthe Settings -> Resources section if the container is terminated\n* Make images smaller than 512x512 using `--height` and `--width` to decrease\nmemory use and increase image creation speed\n* Use `--half` to decrease memory use but slightly decrease image quality\n* Use `--attention-slicing` to decrease memory use but also decrease image\ncreation speed\n* Use `--xformers-memory-efficient-attention` to decrease memory use if the\npipeline and the hardware supports the option\n* Decrease the number of samples and increase the number of iterations with\n`--samples` and `--iters` to decrease overall memory use\n* Skip the safety checker with `--skip` to run less code\n\n```sh\n.\u002Fbuild.sh run --height 256 --width 256 --half \\\n  --attention-slicing --xformers-memory-efficient-attention \\\n  --samples 1 --iters 1 --skip --prompt 'abstract art'\n```\n\nOn Windows, if you aren't using WSL2 and instead use MSYS, MinGW, or Git Bash,\nprefix your commands with `MSYS_NO_PATHCONV=1` (or export it beforehand):\n\n```sh\nMSYS_NO_PATHCONV=1 .\u002Fbuild.sh run --half --prompt 'abstract art'\n```\n\n## Outputs\n\n### Model\n\nThe model and other files are cached in a volume called `huggingface`. The\nmodels are stored in `\u003Cvolume>\u002Fdiffusers\u002F\u003Cmodel>\u002Fsnapshots\u002F\u003Cgithash>\u002Funet\u002F\u003Cweights>`.\nCheckpoint files (`ckpt`s) are unofficial versions of the official models, and\nso these are not part of the official release.\n\n### Images\n\nThe images are saved as PNGs in the `output` folder using the prompt text. The\n`build.sh` script creates and mounts this folder as a volume in the container.\n\n## Contributing\n\nSee the [CONTRIBUTING.md](CONTRIBUTING.md) file for more details. In short,\nfollow the style guidelines, agree to the Developer Certificate of Origin, and\nsubmit a PR.\n","# Docker 中的 Stable Diffusion\n\n在 GPU 加速的 Docker 容器中运行 Hugging Face 上官方 [Stable Diffusion](https:\u002F\u002Fhuggingface.co\u002FCompVis\u002Fstable-diffusion) 发布版本。\n\n```sh\n.\u002Fbuild.sh run '沙漠中一只鹦鹉吃意大利面的印象派画作'\n```\n\n![沙漠中一只鹦鹉吃意大利面的印象派画作 1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffboulnois_stable-diffusion-docker_readme_cf6bbbe057fd.png)\n![沙漠中一只鹦鹉吃意大利面的印象派画作 2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffboulnois_stable-diffusion-docker_readme_ef1418bf9bed.png)\n\n```sh\n.\u002Fbuild.sh run --image parakeet_eating_spaghetti.png --strength 0.6 '玫瑰花束'\n```\n\n![玫瑰花束 1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffboulnois_stable-diffusion-docker_readme_16f1669fb420.png)\n![玫瑰花束 2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffboulnois_stable-diffusion-docker_readme_08d88895d418.png)\n\n## 开始之前\n\n### 最低要求\n\n默认情况下，该流程使用完整模型和权重，需要具备 8GB 以上显存的 CUDA 兼容 GPU。生成一张图像大约需要几秒钟。在性能较弱的 GPU 上，您可能需要调整一些选项；有关详细信息，请参阅 [示例](#examples) 部分。如果您没有合适的 GPU，可以改用 `--device cpu` 和 `--onnx` 选项。\n\n### Hugging Face 令牌\n\n由于使用的是官方模型，您需要在您的 [Hugging Face 账户](https:\u002F\u002Fhuggingface.co\u002Fsettings\u002Ftokens) 中创建一个 [用户访问令牌](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Fhub\u002Fsecurity-tokens)。将用户访问令牌保存到名为 `token.txt` 的文件中，并确保在构建容器时该文件可用。令牌内容应以 `hf_...` 开头。\n\n## 快速入门\n\n该流程通过单个 [`build.sh`](build.sh) 脚本进行管理。\n\n使用 `.\u002Fbuild.sh pull` 拉取最新版本的 `stable-diffusion-docker`。在使用 [`.\u002Fbuild run`](#run) 时，您需要使用 `--token` 选项指定有效的 [用户访问令牌](#huggingface-token)。\n\n或者，您也可以先在本地构建镜像，然后再运行。\n\n## 构建\n\n请确保您的 [用户访问令牌](#huggingface-token) 已保存到名为 `token.txt` 的文件中。\n\n构建命令如下：\n\n```sh\n.\u002Fbuild.sh build  # 或者直接 .\u002Fbuild.sh\n```\n\n## 运行\n\n### 文本转图像 (`txt2img`)\n\n根据文本提示生成图像。\n\n运行命令如下：\n\n```sh\n.\u002Fbuild.sh run '瓶中的仙女座星系'\n```\n\n### 图像转图像 (`img2img`)\n\n根据现有图像和文本提示生成新图像。\n\n首先，将图像复制到 `input` 文件夹。然后，运行以下命令：\n\n```sh\n.\u002Fbuild.sh run --image image.png '瓶中的仙女座星系'\n```\n\n### 深度引导扩散 (`depth2img`)\n\n结合深度图和文本提示修改现有图像。\n\n首先，将图像复制到 `input` 文件夹。然后，运行以下命令：\n\n```sh\n.\u002Fbuild.sh run --model 'stabilityai\u002Fstable-diffusion-2-depth' \\\n  --image image.png '对要更改物体的详细描述'\n```\n\n### 指令式 Pix2Pix (`pix2pix`)\n\n结合文本提示修改现有图像。\n\n首先，将图像复制到 `input` 文件夹。然后，运行以下命令：\n\n```sh\n.\u002Fbuild.sh run --model 'timbrooks\u002Finstruct-pix2pix' \\\n  --image image.png '对要更改物体的详细描述'\n```\n\n### Stable UnCLIP 变体 (`unclip`)\n\n根据文本提示生成同一图像的不同版本。\n\n首先，将图像复制到 `input` 文件夹。然后，运行以下命令：\n\n```sh\n.\u002Fbuild.sh run --model 'stabilityai\u002Fstable-diffusion-2-1-unclip-small' \\\n  --image image.png '对图像的详细描述'\n```\n\n### 图像超分辨率 (`upscale4x`)\n\n根据现有图像和文本提示生成高分辨率图像。\n\n首先，将图像复制到 `input` 文件夹。然后，运行以下命令：\n\n```sh\n.\u002Fbuild.sh run --model 'stabilityai\u002Fstable-diffusion-x4-upscaler' \\\n  --image image.png '瓶中的仙女座星系'\n```\n\n### 扩散修复 (`inpaint`)\n\n结合图像掩码和文本提示修改现有图像的特定区域。\n\n首先，将图像和图像掩码复制到 `input` 文件夹。掩码中的白色区域将被扩散处理，而黑色区域则保持不变。然后，运行以下命令：\n\n```sh\n.\u002Fbuild.sh run --model 'runwayml\u002Fstable-diffusion-inpainting' \\\n  --image image.png --mask mask.png '瓶中的仙女座星系'\n```\n\n## 选项\n\n以下是最常见的选项：\n\n* `--prompt [PROMPT]`：用于生成图像的提示词\n* `--model [MODEL]`：用于生成图像的模型（默认为 `CompVis\u002Fstable-diffusion-v1-4`）\n* `--height [HEIGHT]`：图像高度，单位为像素（默认 512，必须能被 64 整除）\n* `--width [WIDTH]`：图像宽度，单位为像素（默认 512，必须能被 64 整除）\n* `--iters [ITERS]`：运行管道的次数（默认 1）\n* `--samples [SAMPLES]`：每次运行生成的图像数量（默认 1）\n* `--scale [SCALE]`：图像与提示词的匹配程度（默认 7.5）\n* `--scheduler [SCHEDULER]`：覆盖用于去噪图像的调度器（默认为 `None`）\n* `--seed [SEED]`：随机数生成器种子，用于实现结果的可重复性（默认为随机种子）\n* `--steps [STEPS]`：采样步骤数（默认 50）\n\n其他选项：\n\n* `--attention-slicing`：减少内存使用，但会降低推理速度（默认不启用注意力切片）\n* `--device [DEVICE]`：用于渲染图像的 CPU 或 CUDA 设备（默认为 `cuda`）\n* `--half`：使用 float16 张量代替 float32（默认为 float32）\n* `--image [IMAGE]`：用于图像到图像扩散的输入图像（默认为 `None`）\n* `--image-scale [IMAGE_SCALE]`：图像与原始图像的匹配程度（默认为 `None`）\n* `--mask [MASK]`：用于扩散修复的输入掩码（默认为 `None`）\n* `--negative-prompt [NEGATIVE_PROMPT]`：不应生成的提示词（默认为 `None`）\n* `--onnx`：使用 ONNX 运行时进行推理（默认关闭）\n* `--skip`：跳过安全检查器（默认开启安全检查）\n* `--strength [STRENGTH]`：应用于输入图像的扩散强度（默认 0.75）\n* `--token [TOKEN]`：在命令行中指定 Hugging Face 用户访问令牌，而不是从文件中读取（默认从文件中读取）\n* `--vae-slicing`：在创建大批量图像时减少内存使用（默认不启用 VAE 切片）\n* `--vae-tiling`：在创建超高分辨率图像时减少内存使用，但会大幅降低推理速度（默认不启用 VAE 瓦片化）\n* `--xformers-memory-efficient-attention`：减少内存使用，但需要 xformers 库支持（默认不需要 xformers）\n\n为了便于使用并与其他管道兼容，部分原始 `txt2img.py` 选项已被重命名：\n\n| txt2img | stable-diffusion-docker |\n|---------|-------------------------|\n| `--H` | `--height` |\n| `--W` | `--width` |\n| `--n_iter` | `--iters` |\n| `--n_samples` | `--samples` |\n| `--ddim_steps` | `--steps` |\n\n## 示例\n\n以下两条命令是等价的：\n\n```sh\n.\u002Fbuild.sh run 'abstract art'\n.\u002Fbuild.sh run --prompt 'abstract art'\n```\n\n设置种子为 42：\n\n```sh\n.\u002Fbuild.sh run --seed 42 'abstract art'\n```\n\n选项可以组合使用：\n\n```sh\n.\u002Fbuild.sh run --scale 7.0 --seed 42 'abstract art'\n```\n\n许多流行模型开箱即用：\n\n| 模型名称 | 使用 `--model` 的选项 |\n|------------|------------------------|\n| [Stable Diffusion 1.4](https:\u002F\u002Fhuggingface.co\u002FCompVis\u002Fstable-diffusion-v1-4) | `'CompVis\u002Fstable-diffusion-v1-4'` |\n| [Stable Diffusion 1.5](https:\u002F\u002Fhuggingface.co\u002Frunwayml\u002Fstable-diffusion-v1-5) | `'runwayml\u002Fstable-diffusion-v1-5'` |\n| [Stable Diffusion 2.0](https:\u002F\u002Fhuggingface.co\u002Fstabilityai\u002Fstable-diffusion-2) | `'stabilityai\u002Fstable-diffusion-2'` |\n| [Stable Diffusion 2.1](https:\u002F\u002Fhuggingface.co\u002Fstabilityai\u002Fstable-diffusion-2-1) | `'stabilityai\u002Fstable-diffusion-2-1'` |\n| [Stable Diffusion XL](https:\u002F\u002Fhuggingface.co\u002Fstabilityai\u002Fstable-diffusion-xl-base-1.0) | `'stabilityai\u002Fstable-diffusion-xl-base-1.0'` |\n| [OpenJourney 1.0](https:\u002F\u002Fhuggingface.co\u002Fprompthero\u002Fopenjourney) | `'prompthero\u002Fopenjourney'` |\n| [Dreamlike Diffusion 1.0](https:\u002F\u002Fhuggingface.co\u002Fdreamlike-art\u002Fdreamlike-diffusion-1.0) | `'dreamlike-art\u002Fdreamlike-diffusion-1.0'` |\n| [等等！](https:\u002F\u002Fhuggingface.co\u002Fmodels?other=stable-diffusion&sort=likes) | ... |\n\n```sh\n.\u002Fbuild.sh run --model 'prompthero\u002Fopenjourney' --prompt 'abstract art'\n```\n\n在 GPU 显存不足的系统上，可以尝试组合使用不同的选项：\n\n* 如果容器被终止，可在 Docker Desktop 的“设置 -> 资源”中增加 CPU、内存和交换空间，以提供更多资源。\n* 使用 `--height` 和 `--width` 将图像尺寸缩小到 512×512 以下，以减少内存占用并加快图像生成速度。\n* 使用 `--half` 可减少内存使用，但会略微降低图像质量。\n* 使用 `--attention-slicing` 可减少内存使用，但也会降低图像生成速度。\n* 如果管道和硬件支持，可使用 `--xformers-memory-efficient-attention` 来减少内存使用。\n* 通过调整 `--samples` 和 `--iters`，减少样本数量并增加迭代次数，从而降低整体内存使用。\n* 使用 `--skip` 跳过安全检查，以减少代码执行量。\n\n```sh\n.\u002Fbuild.sh run --height 256 --width 256 --half \\\n  --attention-slicing --xformers-memory-efficient-attention \\\n  --samples 1 --iters 1 --skip --prompt 'abstract art'\n```\n\n在 Windows 上，如果未使用 WSL2 而是 MSYS、MinGW 或 Git Bash，请在命令前加上 `MSYS_NO_PATHCONV=1`（或提前导出该变量）：\n\n```sh\nMSYS_NO_PATHCONV=1 .\u002Fbuild.sh run --half --prompt 'abstract art'\n```\n\n## 输出\n\n### 模型\n\n模型及其他文件会被缓存在名为 `huggingface` 的卷中。模型存储路径为 `\u003Cvolume>\u002Fdiffusers\u002F\u003Cmodel>\u002Fsnapshots\u002F\u003Cgithash>\u002Funet\u002F\u003Cweights>`。检查点文件（`.ckpt`）是官方模型的非官方版本，因此不属于官方发布内容。\n\n### 图像\n\n图像会以 PNG 格式保存在 `output` 文件夹中，文件名基于提示词文本。`build.sh` 脚本会在容器中创建并挂载该文件夹作为卷。\n\n## 贡献\n\n更多详情请参阅 [CONTRIBUTING.md](CONTRIBUTING.md) 文件。简而言之，遵循代码风格指南，同意开发者证书，并提交拉取请求。","# Stable Diffusion Docker 快速上手指南\n\n本指南帮助你在 GPU 加速的 Docker 容器中快速运行官方 Stable Diffusion 模型。\n\n## 环境准备\n\n### 系统要求\n*   **GPU**: 推荐使用支持 CUDA 的显卡，显存需 **8GB 或以上**（默认使用全量模型）。\n    *   *低配方案*: 若显存不足，可通过添加 `--device cpu` 和 `--onnx` 参数使用 CPU 运行（速度较慢），或参考下文“选项”部分进行内存优化。\n*   **Docker**: 已安装 Docker 及 Docker Compose。\n*   **操作系统**: Linux, macOS, 或 Windows (推荐 WSL2)。\n    *   *Windows 注意*: 若使用 MSYS\u002FMinGW\u002FGit Bash 而非 WSL2，需在命令前添加 `MSYS_NO_PATHCONV=1`。\n\n### 前置依赖：Hugging Face Token\n由于使用官方模型，必须配置 Hugging Face 访问令牌：\n1.  登录 [Hugging Face 账户](https:\u002F\u002Fhuggingface.co\u002Fsettings\u002Ftokens)。\n2.  创建一个新的 **User Access Token** (权限选择 `read`)。\n3.  将生成的令牌（以 `hf_...` 开头）保存为当前目录下的 `token.txt` 文件。\n\n## 安装步骤\n\n1.  **克隆项目** (如果尚未下载):\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Ffboulnois\u002Fstable-diffusion-docker.git\n    cd stable-diffusion-docker\n    ```\n\n2.  **构建镜像**:\n    确保 `token.txt` 已在当前目录，然后执行：\n    ```sh\n    .\u002Fbuild.sh build\n    # 或者简写为\n    .\u002Fbuild.sh\n    ```\n    *注：首次构建会自动拉取基础镜像和模型权重，耗时取决于网络状况。*\n\n    *(可选) 直接拉取预构建镜像:*\n    ```sh\n    .\u002Fbuild.sh pull\n    ```\n\n## 基本使用\n\n所有操作均通过 `.\u002Fbuild.sh run` 命令完成。生成的图片将保存在 `output` 文件夹中。\n\n### 1. 文生图 (Text-to-Image)\n最基础的用法，根据提示词生成图片：\n```sh\n.\u002Fbuild.sh run 'An impressionist painting of a parakeet eating spaghetti in the desert'\n```\n\n### 2. 图生图 (Image-to-Image)\n基于现有图片和提示词生成新图片：\n1.  将源图片复制到 `input` 文件夹（例如 `parakeet_eating_spaghetti.png`）。\n2.  运行命令：\n    ```sh\n    .\u002Fbuild.sh run --image parakeet_eating_spaghetti.png --strength 0.6 'Bouquet of roses'\n    ```\n    *   `--strength`: 控制重绘强度 (0.0-1.0)，数值越高改变越大。\n\n### 3. 指定模型运行\n支持直接调用 Hugging Face 上的热门模型（如 SDXL, OpenJourney 等）：\n```sh\n.\u002Fbuild.sh run --model 'prompthero\u002Fopenjourney' --prompt 'abstract art'\n```\n\n### 常用参数速查\n*   `--prompt [TEXT]`: 生成图片的提示词。\n*   `--model [NAME]`: 指定模型 ID (默认 `CompVis\u002Fstable-diffusion-v1-4`)。\n*   `--height` \u002F `--width`: 图片分辨率 (默认 512，必须是 64 的倍数)。\n*   `--seed [NUM]`: 随机种子，用于复现结果。\n*   `--steps [NUM]`: 采样步数 (默认 50，步数越多质量越高但越慢)。\n*   `--negative-prompt [TEXT]`: 负向提示词（不希望出现的内容）。\n\n### 低显存优化示例\n若遇到显存不足导致容器崩溃，可组合以下参数降低资源消耗：\n```sh\n.\u002Fbuild.sh run --height 256 --width 256 --half \\\n  --attention-slicing --xformers-memory-efficient-attention \\\n  --samples 1 --iters 1 --skip --prompt 'abstract art'\n```","一家独立游戏开发团队急需为原型演示快速生成大量风格统一的概念美术资产，但团队成员缺乏深度学习环境配置经验且硬件资源有限。\n\n### 没有 stable-diffusion-docker 时\n- **环境配置噩梦**：开发者需手动安装 CUDA、PyTorch 及各类依赖库，常因版本冲突导致数小时甚至数天的调试浪费。\n- **硬件门槛过高**：本地电脑若无高端显卡则无法运行模型，强行使用 CPU 推理速度慢到几乎不可用，严重阻塞创作流程。\n- **功能切换繁琐**：想要尝试从“文生图”切换到“图生图”或“局部重绘”，需要修改复杂的 Python 脚本或切换不同的开源项目代码。\n- **协作一致性差**：不同成员生成的图像风格因环境参数微调而差异巨大，难以维持游戏美术风格的统一性。\n\n### 使用 stable-diffusion-docker 后\n- **一键启动环境**：通过 `.\u002Fbuild.sh` 脚本即可在容器内自动部署所有依赖，屏蔽底层复杂性，让设计师几分钟内开始创作。\n- **灵活适配算力**：利用 Docker 的 GPU 加速特性高效生成图像，即便在配置较低的机器上也能通过 `--device cpu` 选项勉强运行，保障任务不中断。\n- **全能指令集成**：仅需更改命令行参数（如 `--image` 或 `--model`），即可在同一环境中无缝切换文生图、深度引导扩散及图像超分等六种核心功能。\n- **标准化输出**：容器化确保了所有成员使用完全一致的模型权重和运行参数，批量生成的素材风格高度统一，直接可用。\n\nstable-diffusion-docker 将复杂的 AI 部署转化为简单的命令行操作，让创意团队能专注于内容生产而非环境运维。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffboulnois_stable-diffusion-docker_16f1669f.png","fboulnois",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ffboulnois_98227115.png","https:\u002F\u002Fgithub.com\u002Ffboulnois",[80,84,88],{"name":81,"color":82,"percentage":83},"Python","#3572A5",67.7,{"name":85,"color":86,"percentage":87},"Shell","#89e051",28.1,{"name":89,"color":90,"percentage":91},"Dockerfile","#384d54",4.3,749,132,"2026-03-13T03:15:45","AGPL-3.0","Linux, macOS, Windows","需要支持 CUDA 的 GPU，显存 8GB+（默认）；低配 GPU 可通过参数调整或使用 CPU\u002FONNX 模式运行","未说明",{"notes":100,"python":98,"dependencies":101},"1. 必须安装 Docker 并配置 GPU 支持。2. 需要 Hugging Face 用户访问令牌（以 hf_ 开头），需保存为 token.txt 文件或通过命令行传入。3. 若无合适 GPU，可添加 --device cpu 和 --onnx 参数使用 CPU 推理。4. Windows 用户若使用 MSYS\u002FMinGW\u002FGit Bash 而非 WSL2，需在命令前加 MSYS_NO_PATHCONV=1。5. 模型文件会自动缓存到名为 huggingface 的 Docker 卷中。6. 可通过 --half、--attention-slicing 等参数优化显存占用。",[102,103,104],"Docker","NVIDIA Container Toolkit (隐含)","xformers (可选)",[13,14],[107,108,109,110,111,112,113,114,115,116,117,118,119],"huggingface","pytorch","stable-diffusion","tensorflow","diffusion","generative-art","image-generation","dall-e","dalle","docker","text-to-image","inpainting","midjourney","2026-03-27T02:49:30.150509","2026-04-06T08:10:27.567852",[123,128,133,138,143,148],{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},12581,"如何在 MacBook Pro 或非 NVIDIA GPU 的电脑上运行容器？","由于 CUDA 需要 NVIDIA GPU，MacBook Pro（Intel\u002FAMD）无法直接使用 GPU 加速。解决方法是：\n1. 在运行命令时添加 `--device cpu` 参数，例如：`.\u002Fbuild.sh run '提示词' --device cpu`。\n2. 从 `build.sh` 中移除 `--gpus=all` 参数。\n3. 在 Docker 设置中最大化资源分配（Docker Preferences -> Resources），建议设置为：8 CPUs, 16GB 内存，4GB 交换空间。","https:\u002F\u002Fgithub.com\u002Ffboulnois\u002Fstable-diffusion-docker\u002Fissues\u002F37",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},12582,"遇到错误 \"libnvidia-ml.so.1: cannot open shared object file\" 或 \"CUDA driver is a stub library\" 怎么办？","这通常是因为容器内加载了错误的 CUDA 存根库。解决方案有以下几种：\n1. 维护者已更新代码自动移除存根，请尝试拉取最新代码。\n2. 手动修改 Dockerfile，在 `USER` 指令之前添加以下命令来删除存根目录：\n   `RUN rm -rf \u002Fusr\u002Flocal\u002Fcuda\u002Flib64\u002Fstubs`\n3. 重新构建 Docker 镜像。","https:\u002F\u002Fgithub.com\u002Ffboulnois\u002Fstable-diffusion-docker\u002Fissues\u002F35",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},12583,"为什么生成的图片全是黑色的，并提示 \"Potential NSFW content was detected\"？","这是因为内置的安全检查器（safety checker）过于敏感，误判了正常内容为不安全内容。解决方法是在运行命令中添加 `--skip` 参数来跳过安全检查。例如：\n`.\u002Fbuild.sh run --W 256 --H 256 --half --attention-slicing --prompt '你的提示词' --skip`","https:\u002F\u002Fgithub.com\u002Ffboulnois\u002Fstable-diffusion-docker\u002Fissues\u002F22",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},12584,"遇到 \"PermissionError: [Errno 13] Permission denied\" 无法保存输出图片怎么办？","这是 Docker 容器没有权限写入宿主机的输出目录导致的。解决方法是将当前用户添加到 Docker 用户组，或者确保宿主机上的 `output` 文件夹存在且当前用户拥有写入权限。如果是在 Linux 上，可以尝试执行：\n`sudo usermod -aG docker $USER`\n然后注销并重新登录生效。","https:\u002F\u002Fgithub.com\u002Ffboulnois\u002Fstable-diffusion-docker\u002Fissues\u002F12",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},12585,"显存较小（如 4GB）的显卡如何运行以避免报错？","对于显存较小的显卡（如 GTX 1650），需要在运行命令中启用优化参数以减少显存占用：\n1. 使用 `--half` 参数启用半精度推理。\n2. 使用 `--attention-slicing` 参数切片注意力计算。\n3. 降低分辨率，例如使用 `--W 256 --H 256`。\n示例命令：`.\u002Fbuild.sh run '提示词' --W 256 --H 256 --half --attention-slicing`","https:\u002F\u002Fgithub.com\u002Ffboulnois\u002Fstable-diffusion-docker\u002Fissues\u002F5",{"id":149,"question_zh":150,"answer_zh":151,"source_url":142},12586,"遇到 \"OSError: Unable to load weights from pytorch checkpoint file\" 错误如何解决？","该错误通常与文件权限或缓存路径有关。首先检查并确保 Docker 有权限写入模型缓存目录（通常是 `\u002Fhome\u002Fhuggingface\u002F.cache` 映射的宿主机目录）。如果是因为权限问题，请参考权限相关问题的解决方案，将用户加入 Docker 组或修正文件夹所有者权限。此外，确保网络连接正常以完整下载模型文件。",[153,157,161,165,169,173,177,181,185,189,193,197,201,206,210,214,218,222,226,230],{"id":154,"version":155,"summary_zh":76,"released_at":156},62975,"v1.41.0","2023-09-22T21:59:17",{"id":158,"version":159,"summary_zh":76,"released_at":160},62976,"v1.40.0","2023-08-23T23:33:46",{"id":162,"version":163,"summary_zh":76,"released_at":164},62977,"v1.39.0","2023-07-19T22:05:34",{"id":166,"version":167,"summary_zh":76,"released_at":168},62978,"v1.38.0","2023-06-20T22:16:01",{"id":170,"version":171,"summary_zh":76,"released_at":172},62979,"v1.37.0","2023-05-29T21:18:46",{"id":174,"version":175,"summary_zh":76,"released_at":176},62980,"v1.36.0","2023-05-19T20:24:11",{"id":178,"version":179,"summary_zh":76,"released_at":180},62981,"v1.35.0","2023-04-15T22:34:19",{"id":182,"version":183,"summary_zh":76,"released_at":184},62982,"v1.34.0","2023-03-17T01:45:12",{"id":186,"version":187,"summary_zh":76,"released_at":188},62983,"v1.33.0","2023-02-25T23:26:17",{"id":190,"version":191,"summary_zh":76,"released_at":192},62984,"v1.32.0","2023-02-20T16:11:09",{"id":194,"version":195,"summary_zh":76,"released_at":196},62985,"v1.31.0","2023-02-17T01:10:58",{"id":198,"version":199,"summary_zh":76,"released_at":200},62986,"v1.30.1","2023-02-03T01:39:00",{"id":202,"version":203,"summary_zh":204,"released_at":205},62987,"v1.30.0","自 [1.20.0](https:\u002F\u002Fgithub.com\u002Ffboulnois\u002Fstable-diffusion-docker\u002Fcompare\u002Fv1.20.0...v1.30.0) 以来，发生了许多重大变化：\n\n- 新增了[超分辨率处理流程](https:\u002F\u002Fgithub.com\u002Ffboulnois\u002Fstable-diffusion-docker#image-upscaling-upscale4x)\n- 引入了内存高效的 Transformer，并支持 [`--xformers-memory-efficient-attention`](https:\u002F\u002Fgithub.com\u002Ffboulnois\u002Fstable-diffusion-docker\u002Fpull\u002F45)\n- 使用 [`python:slim`](https:\u002F\u002Fgithub.com\u002Ffboulnois\u002Fstable-diffusion-docker\u002Fcommit\u002Fb377548385d0cfee3a207cb5bd6e3fc096a82c21) 将镜像体积减半\n- 可以使用任意调度器，包括新添加的调度器，通过 [`--scheduler`](https:\u002F\u002Fgithub.com\u002Ffboulnois\u002Fstable-diffusion-docker\u002Fpull\u002F48) 实现\n- 支持使用 [`safetensors`](https:\u002F\u002Fgithub.com\u002Ffboulnois\u002Fstable-diffusion-docker\u002Fpull\u002F47) 加载模型，从而提升加载速度\n- 自动将新版本发布到 [ghcr](https:\u002F\u002Fgithub.com\u002Fusers\u002Ffboulnois\u002Fpackages\u002Fcontainer\u002Fpackage\u002Fstable-diffusion-docker)\n- [深度引导的稳定扩散](https:\u002F\u002Fgithub.com\u002Ffboulnois\u002Fstable-diffusion-docker#depth-guided-diffusion-depth2img)\n- [重命名旧的 img2img 参数](https:\u002F\u002Fgithub.com\u002Ffboulnois\u002Fstable-diffusion-docker\u002Fpull\u002F65)\n- [支持所有最流行的模型](https:\u002F\u002Fgithub.com\u002Ffboulnois\u002Fstable-diffusion-docker#examples)，包括社区制作的模型\n- [文档改进](https:\u002F\u002Fgithub.com\u002Ffboulnois\u002Fstable-diffusion-docker\u002Ftree\u002Fv1.30.0)\n- 以及更多！","2023-01-28T03:48:09",{"id":207,"version":208,"summary_zh":76,"released_at":209},62988,"v1.29.0","2023-01-27T01:24:50",{"id":211,"version":212,"summary_zh":76,"released_at":213},62989,"v1.28.0","2023-01-26T03:17:55",{"id":215,"version":216,"summary_zh":76,"released_at":217},62990,"v1.27.0","2023-01-16T19:53:03",{"id":219,"version":220,"summary_zh":76,"released_at":221},62991,"v1.26.0","2023-01-13T23:12:46",{"id":223,"version":224,"summary_zh":76,"released_at":225},62992,"v1.25.1","2023-01-11T03:00:13",{"id":227,"version":228,"summary_zh":76,"released_at":229},62993,"v1.25.0","2022-12-26T19:20:10",{"id":231,"version":232,"summary_zh":76,"released_at":233},62994,"v1.24.0","2022-12-20T23:25:11"]