[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-leejet--stable-diffusion.cpp":3,"tool-leejet--stable-diffusion.cpp":61},[4,18,26,36,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,2,"2026-04-06T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,60],"视频",{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":102,"env_os":103,"env_gpu":104,"env_ram":105,"env_deps":106,"category_tags":111,"github_topics":112,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":131,"updated_at":132,"faqs":133,"releases":164},4419,"leejet\u002Fstable-diffusion.cpp","stable-diffusion.cpp","Diffusion model(SD,Flux,Wan,Qwen Image,Z-Image,...) inference in pure C\u002FC++","stable-diffusion.cpp 是一个基于纯 C\u002FC++ 编写的高性能扩散模型推理引擎，旨在让各类图像生成模型在本地设备上轻量、高效地运行。它解决了传统 AI 绘图工具依赖庞大 Python 环境、对硬件要求高且部署复杂的问题，让用户无需配置繁琐的深度学习框架即可快速体验前沿模型。\n\n该项目不仅支持经典的 Stable Diffusion 系列（SD1.5 至 SD3.5），还率先适配了 FLUX.2、Qwen Image、Wan 视频模型等最新架构，同时涵盖图像编辑、ControlNet 控制及 LoRA 微调等功能。其核心技术亮点在于复用 ggml 库，实现了类似 llama.cpp 的极致轻量化，支持 CPU、CUDA、Vulkan、Metal 等多种后端加速，并能在 Windows、Mac、Linux 乃至 Android 手机上流畅运行。此外，它还提供了 Flash Attention 显存优化、TAESD 快速解码及多种采样器选择，显著降低了资源消耗。\n\nstable-diffusion.cpp 非常适合希望在本地私有化部署 AI 绘图能力的开发者、研究人员，以及","stable-diffusion.cpp 是一个基于纯 C\u002FC++ 编写的高性能扩散模型推理引擎，旨在让各类图像生成模型在本地设备上轻量、高效地运行。它解决了传统 AI 绘图工具依赖庞大 Python 环境、对硬件要求高且部署复杂的问题，让用户无需配置繁琐的深度学习框架即可快速体验前沿模型。\n\n该项目不仅支持经典的 Stable Diffusion 系列（SD1.5 至 SD3.5），还率先适配了 FLUX.2、Qwen Image、Wan 视频模型等最新架构，同时涵盖图像编辑、ControlNet 控制及 LoRA 微调等功能。其核心技术亮点在于复用 ggml 库，实现了类似 llama.cpp 的极致轻量化，支持 CPU、CUDA、Vulkan、Metal 等多种后端加速，并能在 Windows、Mac、Linux 乃至 Android 手机上流畅运行。此外，它还提供了 Flash Attention 显存优化、TAESD 快速解码及多种采样器选择，显著降低了资源消耗。\n\nstable-diffusion.cpp 非常适合希望在本地私有化部署 AI 绘图能力的开发者、研究人员，以及拥有普通显卡或仅使用 CPU 却想尝试最新生成式模型的极客用户。对于需要集成图像生成功能到现有 C\u002FC++ 项目中的工程师而言，它也是一个无需外部依赖的理想解决方案。","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fleejet_stable-diffusion.cpp_readme_e9885c43efef.png\" width=\"360x\">\n\u003C\u002Fp>\n\n# stable-diffusion.cpp\n\n\u003Cdiv align=\"center\">\n\u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F9714\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fleejet_stable-diffusion.cpp_readme_4a68feb902da.png\" alt=\"leejet%2Fstable-diffusion.cpp | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\nDiffusion model(SD,Flux,Wan,...) inference in pure C\u002FC++\n\n***Note that this project is under active development. \\\nAPI and command-line option may change frequently.***\n\n## 🔥Important News\n\n* **2026\u002F01\u002F18** 🚀 stable-diffusion.cpp now supports **FLUX.2-klein**  \n  👉 Details: [PR #1193](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fpull\u002F1193)\n\n* **2025\u002F12\u002F01** 🚀 stable-diffusion.cpp now supports **Z-Image**  \n  👉 Details: [PR #1020](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fpull\u002F1020)\n\n* **2025\u002F11\u002F30** 🚀 stable-diffusion.cpp now supports **FLUX.2-dev**  \n  👉 Details: [PR #1016](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fpull\u002F1016)\n\n* **2025\u002F10\u002F13** 🚀 stable-diffusion.cpp now supports **Qwen-Image-Edit \u002F Qwen-Image-Edit 2509**  \n  👉 Details: [PR #877](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fpull\u002F877)\n\n* **2025\u002F10\u002F12** 🚀 stable-diffusion.cpp now supports **Qwen-Image**  \n  👉 Details: [PR #851](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fpull\u002F851)\n\n* **2025\u002F09\u002F14** 🚀 stable-diffusion.cpp now supports **Wan2.1 Vace**  \n  👉 Details: [PR #819](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fpull\u002F819)\n\n* **2025\u002F09\u002F06** 🚀 stable-diffusion.cpp now supports **Wan2.1 \u002F Wan2.2**  \n  👉 Details: [PR #778](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fpull\u002F778)\n\n## Features\n\n- Plain C\u002FC++ implementation based on [ggml](https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fggml), working in the same way as [llama.cpp](https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.cpp)\n- Super lightweight and without external dependencies\n- Supported models\n  - Image Models\n    - SD1.x, SD2.x, [SD-Turbo](https:\u002F\u002Fhuggingface.co\u002Fstabilityai\u002Fsd-turbo)\n    - SDXL, [SDXL-Turbo](https:\u002F\u002Fhuggingface.co\u002Fstabilityai\u002Fsdxl-turbo)\n    - [Some SD1.x and SDXL distilled models](.\u002Fdocs\u002Fdistilled_sd.md)\n    - [SD3\u002FSD3.5](.\u002Fdocs\u002Fsd3.md)\n    - [FLUX.1-dev\u002FFLUX.1-schnell](.\u002Fdocs\u002Fflux.md)\n    - [FLUX.2-dev\u002FFLUX.2-klein](.\u002Fdocs\u002Fflux2.md)\n    - [Chroma](.\u002Fdocs\u002Fchroma.md)\n    - [Chroma1-Radiance](.\u002Fdocs\u002Fchroma_radiance.md)\n    - [Qwen Image](.\u002Fdocs\u002Fqwen_image.md)\n    - [Z-Image](.\u002Fdocs\u002Fz_image.md)\n    - [Ovis-Image](.\u002Fdocs\u002Fovis_image.md)\n    - [Anima](.\u002Fdocs\u002Fanima.md)\n  - Image Edit Models\n    - [FLUX.1-Kontext-dev](.\u002Fdocs\u002Fkontext.md)\n    - [Qwen Image Edit series](.\u002Fdocs\u002Fqwen_image_edit.md)\n  - Video Models\n    - [Wan2.1\u002FWan2.2](.\u002Fdocs\u002Fwan.md)\n  - [PhotoMaker](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FPhotoMaker) support.\n  - Control Net support with SD 1.5\n  - LoRA support, same as [stable-diffusion-webui](https:\u002F\u002Fgithub.com\u002FAUTOMATIC1111\u002Fstable-diffusion-webui\u002Fwiki\u002FFeatures#lora)\n  - Latent Consistency Models support (LCM\u002FLCM-LoRA)\n  - Faster and memory efficient latent decoding with [TAESD](https:\u002F\u002Fgithub.com\u002Fmadebyollin\u002Ftaesd)\n  - Upscale images generated with [ESRGAN](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FReal-ESRGAN)\n- Supported backends\n  - CPU (AVX, AVX2 and AVX512 support for x86 architectures)\n  - CUDA\n  - Vulkan\n  - Metal\n  - OpenCL\n  - SYCL\n- Supported weight formats\n  - Pytorch checkpoint (`.ckpt` or `.pth`)\n  - Safetensors (`.safetensors`)\n  - GGUF (`.gguf`)\n- Supported platforms\n    - Linux\n    - Mac OS\n    - Windows\n    - Android (via Termux, [Local Diffusion](https:\u002F\u002Fgithub.com\u002Frmatif\u002FLocal-Diffusion))\n- Flash Attention for memory usage optimization\n- Negative prompt\n- [stable-diffusion-webui](https:\u002F\u002Fgithub.com\u002FAUTOMATIC1111\u002Fstable-diffusion-webui) style tokenizer (not all the features, only token weighting for now)\n- VAE tiling processing for reduce memory usage\n- Sampling method\n    - `Euler A`\n    - `Euler`\n    - `Heun`\n    - `DPM2`\n    - `DPM++ 2M`\n    - [`DPM++ 2M v2`](https:\u002F\u002Fgithub.com\u002FAUTOMATIC1111\u002Fstable-diffusion-webui\u002Fdiscussions\u002F8457)\n    - `DPM++ 2S a`\n    - [`LCM`](https:\u002F\u002Fgithub.com\u002FAUTOMATIC1111\u002Fstable-diffusion-webui\u002Fissues\u002F13952)\n- Cross-platform reproducibility\n    - `--rng cuda`, default, consistent with the `stable-diffusion-webui GPU RNG`\n    - `--rng cpu`, consistent with the `comfyui RNG`\n- Embedds generation parameters into png output as webui-compatible text string\n\n## Quick Start\n\n### Get the sd executable\n\n- Download pre-built binaries from the [releases page](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Freleases)\n- Or build from source by following the [build guide](.\u002Fdocs\u002Fbuild.md)\n\n### Download model weights\n\n- download weights(.ckpt or .safetensors or .gguf). For example\n    - Stable Diffusion v1.5 from https:\u002F\u002Fhuggingface.co\u002Fstable-diffusion-v1-5\u002Fstable-diffusion-v1-5 \n\n    ```sh\n    curl -L -O https:\u002F\u002Fhuggingface.co\u002Frunwayml\u002Fstable-diffusion-v1-5\u002Fresolve\u002Fmain\u002Fv1-5-pruned-emaonly.safetensors\n    ```\n\n### Generate an image with just one command\n\n```sh\n.\u002Fbin\u002Fsd-cli -m ..\u002Fmodels\u002Fv1-5-pruned-emaonly.safetensors -p \"a lovely cat\"\n```\n\n***For detailed command-line arguments, check out [cli doc](.\u002Fexamples\u002Fcli\u002FREADME.md).***\n\n## Performance\n\nIf you want to improve performance or reduce VRAM\u002FRAM usage, please refer to [performance guide](.\u002Fdocs\u002Fperformance.md).\n\n## More Guides\n\n- [SD1.x\u002FSD2.x\u002FSDXL](.\u002Fdocs\u002Fsd.md)\n- [SD3\u002FSD3.5](.\u002Fdocs\u002Fsd3.md)\n- [FLUX.1-dev\u002FFLUX.1-schnell](.\u002Fdocs\u002Fflux.md)\n- [FLUX.2-dev\u002FFLUX.2-klein](.\u002Fdocs\u002Fflux2.md)\n- [FLUX.1-Kontext-dev](.\u002Fdocs\u002Fkontext.md)\n- [Chroma](.\u002Fdocs\u002Fchroma.md)\n- [🔥Qwen Image](.\u002Fdocs\u002Fqwen_image.md)\n- [🔥Qwen Image Edit series](.\u002Fdocs\u002Fqwen_image_edit.md)\n- [🔥Wan2.1\u002FWan2.2](.\u002Fdocs\u002Fwan.md)\n- [🔥Z-Image](.\u002Fdocs\u002Fz_image.md)\n- [Ovis-Image](.\u002Fdocs\u002Fovis_image.md)\n- [Anima](.\u002Fdocs\u002Fanima.md)\n- [LoRA](.\u002Fdocs\u002Flora.md)\n- [LCM\u002FLCM-LoRA](.\u002Fdocs\u002Flcm.md)\n- [Using PhotoMaker to personalize image generation](.\u002Fdocs\u002Fphoto_maker.md)\n- [Using ESRGAN to upscale results](.\u002Fdocs\u002Fesrgan.md)\n- [Using TAESD to faster decoding](.\u002Fdocs\u002Ftaesd.md)\n- [Docker](.\u002Fdocs\u002Fdocker.md)\n- [Quantization and GGUF](.\u002Fdocs\u002Fquantization_and_gguf.md)\n- [Inference acceleration via caching](.\u002Fdocs\u002Fcaching.md)\n\n## Bindings\n\nThese projects wrap `stable-diffusion.cpp` for easier use in other languages\u002Fframeworks.\n\n* Golang (non-cgo): [seasonjs\u002Fstable-diffusion](https:\u002F\u002Fgithub.com\u002Fseasonjs\u002Fstable-diffusion)\n* Golang (cgo): [Binozo\u002FGoStableDiffusion](https:\u002F\u002Fgithub.com\u002FBinozo\u002FGoStableDiffusion)\n* C#: [DarthAffe\u002FStableDiffusion.NET](https:\u002F\u002Fgithub.com\u002FDarthAffe\u002FStableDiffusion.NET)\n* Python: [william-murray1204\u002Fstable-diffusion-cpp-python](https:\u002F\u002Fgithub.com\u002Fwilliam-murray1204\u002Fstable-diffusion-cpp-python)\n* Rust: [newfla\u002Fdiffusion-rs](https:\u002F\u002Fgithub.com\u002Fnewfla\u002Fdiffusion-rs)\n* Flutter\u002FDart: [rmatif\u002FLocal-Diffusion](https:\u002F\u002Fgithub.com\u002Frmatif\u002FLocal-Diffusion)\n\n## UIs\n\nThese projects use `stable-diffusion.cpp` as a backend for their image generation.\n\n- [Jellybox](https:\u002F\u002Fjellybox.com)\n- [Stable Diffusion GUI](https:\u002F\u002Fgithub.com\u002Ffszontagh\u002Fsd.cpp.gui.wx)\n- [Stable Diffusion CLI-GUI](https:\u002F\u002Fgithub.com\u002Fpiallai\u002Fstable-diffusion.cpp)\n- [Local Diffusion](https:\u002F\u002Fgithub.com\u002Frmatif\u002FLocal-Diffusion)\n- [sd.cpp-webui](https:\u002F\u002Fgithub.com\u002Fdaniandtheweb\u002Fsd.cpp-webui)\n- [LocalAI](https:\u002F\u002Fgithub.com\u002Fmudler\u002FLocalAI)\n- [Neural-Pixel](https:\u002F\u002Fgithub.com\u002FLuiz-Alcantara\u002FNeural-Pixel)\n- [KoboldCpp](https:\u002F\u002Fgithub.com\u002FLostRuins\u002Fkoboldcpp)\n\n## Contributors\n\nThank you to all the people who have already contributed to stable-diffusion.cpp!\n\n[![Contributors](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fleejet_stable-diffusion.cpp_readme_7b6fe5f0afa8.png)](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fgraphs\u002Fcontributors)\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fleejet_stable-diffusion.cpp_readme_ebcde57afcb1.png)](https:\u002F\u002Fstar-history.com\u002F#leejet\u002Fstable-diffusion.cpp&Date)\n\n## References\n\n- [ggml](https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fggml)\n- [diffusers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers)\n- [stable-diffusion](https:\u002F\u002Fgithub.com\u002FCompVis\u002Fstable-diffusion)\n- [sd3-ref](https:\u002F\u002Fgithub.com\u002FStability-AI\u002Fsd3-ref)\n- [stable-diffusion-stability-ai](https:\u002F\u002Fgithub.com\u002FStability-AI\u002Fstablediffusion)\n- [stable-diffusion-webui](https:\u002F\u002Fgithub.com\u002FAUTOMATIC1111\u002Fstable-diffusion-webui)\n- [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI)\n- [k-diffusion](https:\u002F\u002Fgithub.com\u002Fcrowsonkb\u002Fk-diffusion)\n- [latent-consistency-model](https:\u002F\u002Fgithub.com\u002Fluosiallen\u002Flatent-consistency-model)\n- [generative-models](https:\u002F\u002Fgithub.com\u002FStability-AI\u002Fgenerative-models\u002F)\n- [PhotoMaker](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FPhotoMaker)\n- [Wan2.1](https:\u002F\u002Fgithub.com\u002FWan-Video\u002FWan2.1)\n- [Wan2.2](https:\u002F\u002Fgithub.com\u002FWan-Video\u002FWan2.2)\n","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fleejet_stable-diffusion.cpp_readme_e9885c43efef.png\" width=\"360x\">\n\u003C\u002Fp>\n\n# stable-diffusion.cpp\n\n\u003Cdiv align=\"center\">\n\u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F9714\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fleejet_stable-diffusion.cpp_readme_4a68feb902da.png\" alt=\"leejet%2Fstable-diffusion.cpp | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n纯 C\u002FC++ 实现的扩散模型（SD、Flux、Wan 等）推理\n\n***请注意，该项目目前仍在积极开发中。API 和命令行选项可能会频繁变更。***\n\n## 🔥重要更新\n\n* **2026\u002F01\u002F18** 🚀 stable-diffusion.cpp 现已支持 **FLUX.2-klein**  \n  👉 详情：[PR #1193](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fpull\u002F1193)\n\n* **2025\u002F12\u002F01** 🚀 stable-diffusion.cpp 现已支持 **Z-Image**  \n  👉 详情：[PR #1020](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fpull\u002F1020)\n\n* **2025\u002F11\u002F30** 🚀 stable-diffusion.cpp 现已支持 **FLUX.2-dev**  \n  👉 详情：[PR #1016](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fpull\u002F1016)\n\n* **2025\u002F10\u002F13** 🚀 stable-diffusion.cpp 现已支持 **Qwen-Image-Edit \u002F Qwen-Image-Edit 2509**  \n  👉 详情：[PR #877](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fpull\u002F877)\n\n* **2025\u002F10\u002F12** 🚀 stable-diffusion.cpp 现已支持 **Qwen-Image**  \n  👉 详情：[PR #851](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fpull\u002F851)\n\n* **2025\u002F09\u002F14** 🚀 stable-diffusion.cpp 现已支持 **Wan2.1 Vace**  \n  👉 详情：[PR #819](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fpull\u002F819)\n\n* **2025\u002F09\u002F06** 🚀 stable-diffusion.cpp 现已支持 **Wan2.1 \u002F Wan2.2**  \n  👉 详情：[PR #778](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fpull\u002F778)\n\n## 功能特性\n\n- 基于 [ggml](https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fggml) 的纯 C\u002FC++ 实现，工作方式与 [llama.cpp](https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.cpp) 相同。\n- 超轻量级，无外部依赖。\n- 支持的模型：\n  - 图像模型\n    - SD1.x、SD2.x、[SD-Turbo](https:\u002F\u002Fhuggingface.co\u002Fstabilityai\u002Fsd-turbo)\n    - SDXL、[SDXL-Turbo](https:\u002F\u002Fhuggingface.co\u002Fstabilityai\u002Fsdxl-turbo)\n    - [部分 SD1.x 和 SDXL 的蒸馏模型](.\u002Fdocs\u002Fdistilled_sd.md)\n    - [SD3\u002FSD3.5](.\u002Fdocs\u002Fsd3.md)\n    - [FLUX.1-dev\u002FFLUX.1-schnell](.\u002Fdocs\u002Fflux.md)\n    - [FLUX.2-dev\u002FFLUX.2-klein](.\u002Fdocs\u002Fflux2.md)\n    - [Chroma](.\u002Fdocs\u002Fchroma.md)\n    - [Chroma1-Radiance](.\u002Fdocs\u002Fchroma_radiance.md)\n    - [Qwen Image](.\u002Fdocs\u002Fqwen_image.md)\n    - [Z-Image](.\u002Fdocs\u002Fz_image.md)\n    - [Ovis-Image](.\u002Fdocs\u002Fovis_image.md)\n    - [Anima](.\u002Fdocs\u002Fanima.md)\n  - 图像编辑模型\n    - [FLUX.1-Kontext-dev](.\u002Fdocs\u002Fkontext.md)\n    - [Qwen Image Edit 系列](.\u002Fdocs\u002Fqwen_image_edit.md)\n  - 视频模型\n    - [Wan2.1\u002FWan2.2](.\u002Fdocs\u002Fwan.md)\n  - 支持 [PhotoMaker](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FPhotoMaker)。\n  - 支持 SD 1.5 的 ControlNet。\n  - 支持 LoRA，与 [stable-diffusion-webui](https:\u002F\u002Fgithub.com\u002FAUTOMATIC1111\u002Fstable-diffusion-webui\u002Fwiki\u002FFeatures#lora) 一致。\n  - 支持潜在一致性模型（LCM\u002FLCM-LoRA）。\n  - 使用 [TAESD](https:\u002F\u002Fgithub.com\u002Fmadebyollin\u002Ftaesd) 进行更快、更节省内存的潜在空间解码。\n  - 使用 [ESRGAN](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FReal-ESRGAN) 对生成的图像进行超分辨率放大。\n- 支持的后端：\n  - CPU（x86 架构支持 AVX、AVX2 和 AVX512）\n  - CUDA\n  - Vulkan\n  - Metal\n  - OpenCL\n  - SYCL\n- 支持的权重格式：\n  - PyTorch 检查点（`.ckpt` 或 `.pth`）\n  - Safetensors（`.safetensors`）\n  - GGUF（`.gguf`）\n- 支持的平台：\n  - Linux\n  - Mac OS\n  - Windows\n  - Android（通过 Termux 和 [Local Diffusion](https:\u002F\u002Fgithub.com\u002Frmatif\u002FLocal-Diffusion)）\n- 使用 Flash Attention 优化显存使用。\n- 支持负向提示。\n- 具有与 [stable-diffusion-webui](https:\u002F\u002Fgithub.com\u002FAUTOMATIC1111\u002Fstable-diffusion-webui) 类似的分词器（目前仅支持标记加权功能）。\n- 使用 VAE 平铺处理以减少内存占用。\n- 采样方法：\n  - `Euler A`\n  - `Euler`\n  - `Heun`\n  - `DPM2`\n  - `DPM++ 2M`\n  - [`DPM++ 2M v2`](https:\u002F\u002Fgithub.com\u002FAUTOMATIC1111\u002Fstable-diffusion-webui\u002Fdiscussions\u002F8457)\n  - `DPM++ 2S a`\n  - [`LCM`](https:\u002F\u002Fgithub.com\u002FAUTOMATIC1111\u002Fstable-diffusion-webui\u002Fissues\u002F13952)\n- 跨平台可重复性：\n  - `--rng cuda`（默认），与 `stable-diffusion-webui GPU RNG` 一致。\n  - `--rng cpu`，与 `comfyui RNG` 一致。\n- 将嵌入生成参数以 webui 兼容的文本字符串形式嵌入到 PNG 输出中。\n\n## 快速入门\n\n### 获取 sd 可执行文件\n\n- 从 [发布页面](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Freleases) 下载预编译的二进制文件。\n- 或按照 [构建指南](.\u002Fdocs\u002Fbuild.md) 从源代码编译。\n\n### 下载模型权重\n\n- 下载权重文件（`.ckpt`、`.safetensors` 或 `.gguf`）。例如：\n  - 从 https:\u002F\u002Fhuggingface.co\u002Fstable-diffusion-v1-5\u002Fstable-diffusion-v1-5 下载 Stable Diffusion v1.5：\n\n    ```sh\n    curl -L -O https:\u002F\u002Fhuggingface.co\u002Frunwayml\u002Fstable-diffusion-v1-5\u002Fresolve\u002Fmain\u002Fv1-5-pruned-emaonly.safetensors\n    ```\n\n### 使用一条命令生成一张图片\n\n```sh\n.\u002Fbin\u002Fsd-cli -m ..\u002Fmodels\u002Fv1-5-pruned-emaonly.safetensors -p \"a lovely cat\"\n```\n\n***有关详细的命令行参数，请参阅 [cli 文档](.\u002Fexamples\u002Fcli\u002FREADME.md)。***\n\n## 性能优化\n\n如果您希望提升性能或减少 VRAM\u002FRAM 的使用，请参考 [性能指南](.\u002Fdocs\u002Fperformance.md)。\n\n## 更多指南\n\n- [SD1.x\u002FSD2.x\u002FSDXL](.\u002Fdocs\u002Fsd.md)\n- [SD3\u002FSD3.5](.\u002Fdocs\u002Fsd3.md)\n- [FLUX.1-dev\u002FFLUX.1-schnell](.\u002Fdocs\u002Fflux.md)\n- [FLUX.2-dev\u002FFLUX.2-klein](.\u002Fdocs\u002Fflux2.md)\n- [FLUX.1-Kontext-dev](.\u002Fdocs\u002Fkontext.md)\n- [Chroma](.\u002Fdocs\u002Fchroma.md)\n- [🔥Qwen Image](.\u002Fdocs\u002Fqwen_image.md)\n- [🔥Qwen Image Edit 系列](.\u002Fdocs\u002Fqwen_image_edit.md)\n- [🔥Wan2.1\u002FWan2.2](.\u002Fdocs\u002Fwan.md)\n- [🔥Z-Image](.\u002Fdocs\u002Fz_image.md)\n- [Ovis-Image](.\u002Fdocs\u002Fovis_image.md)\n- [Anima](.\u002Fdocs\u002Fanima.md)\n- [LoRA](.\u002Fdocs\u002Flora.md)\n- [LCM\u002FLCM-LoRA](.\u002Fdocs\u002Flcm.md)\n- [使用 PhotoMaker 个性化图像生成](.\u002Fdocs\u002Fphoto_maker.md)\n- [使用 ESRGAN 提升结果分辨率](.\u002Fdocs\u002Fesrgan.md)\n- [使用 TAESD 加快解码速度](.\u002Fdocs\u002Ftaesd.md)\n- [Docker](.\u002Fdocs\u002Fdocker.md)\n- [量化与 GGUF](.\u002Fdocs\u002Fquantization_and_gguf.md)\n- [通过缓存加速推理](.\u002Fdocs\u002Fcaching.md)\n\n## 绑定库\n\n这些项目封装了 `stable-diffusion.cpp`，以便在其他语言和框架中更方便地使用。\n\n* Golang（非 cgo）：[seasonjs\u002Fstable-diffusion](https:\u002F\u002Fgithub.com\u002Fseasonjs\u002Fstable-diffusion)\n* Golang（cgo）：[Binozo\u002FGoStableDiffusion](https:\u002F\u002Fgithub.com\u002FBinozo\u002FGoStableDiffusion)\n* C#：[DarthAffe\u002FStableDiffusion.NET](https:\u002F\u002Fgithub.com\u002FDarthAffe\u002FStableDiffusion.NET)\n* Python：[william-murray1204\u002Fstable-diffusion-cpp-python](https:\u002F\u002Fgithub.com\u002Fwilliam-murray1204\u002Fstable-diffusion-cpp-python)\n* Rust：[newfla\u002Fdiffusion-rs](https:\u002F\u002Fgithub.com\u002Fnewfla\u002Fdiffusion-rs)\n* Flutter\u002FDart：[rmatif\u002FLocal-Diffusion](https:\u002F\u002Fgithub.com\u002Frmatif\u002FLocal-Diffusion)\n\n## 用户界面\n\n这些项目使用 `stable-diffusion.cpp` 作为其图像生成的后端。\n\n- [Jellybox](https:\u002F\u002Fjellybox.com)\n- [Stable Diffusion GUI](https:\u002F\u002Fgithub.com\u002Ffszontagh\u002Fsd.cpp.gui.wx)\n- [Stable Diffusion CLI-GUI](https:\u002F\u002Fgithub.com\u002Fpiallai\u002Fstable-diffusion.cpp)\n- [Local Diffusion](https:\u002F\u002Fgithub.com\u002Frmatif\u002FLocal-Diffusion)\n- [sd.cpp-webui](https:\u002F\u002Fgithub.com\u002Fdaniandtheweb\u002Fsd.cpp-webui)\n- [LocalAI](https:\u002F\u002Fgithub.com\u002Fmudler\u002FLocalAI)\n- [Neural-Pixel](https:\u002F\u002Fgithub.com\u002FLuiz-Alcantara\u002FNeural-Pixel)\n- [KoboldCpp](https:\u002F\u002Fgithub.com\u002FLostRuins\u002Fkoboldcpp)\n\n## 贡献者\n\n感谢所有已经为 stable-diffusion.cpp 做出贡献的人！\n\n[![贡献者](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fleejet_stable-diffusion.cpp_readme_7b6fe5f0afa8.png)](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fgraphs\u002Fcontributors)\n\n## 星标历史\n\n[![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fleejet_stable-diffusion.cpp_readme_ebcde57afcb1.png)](https:\u002F\u002Fstar-history.com\u002F#leejet\u002Fstable-diffusion.cpp&Date)\n\n## 参考文献\n\n- [ggml](https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fggml)\n- [diffusers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers)\n- [stable-diffusion](https:\u002F\u002Fgithub.com\u002FCompVis\u002Fstable-diffusion)\n- [sd3-ref](https:\u002F\u002Fgithub.com\u002FStability-AI\u002Fsd3-ref)\n- [stable-diffusion-stability-ai](https:\u002F\u002Fgithub.com\u002FStability-AI\u002Fstablediffusion)\n- [stable-diffusion-webui](https:\u002F\u002Fgithub.com\u002FAUTOMATIC1111\u002Fstable-diffusion-webui)\n- [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI)\n- [k-diffusion](https:\u002F\u002Fgithub.com\u002Fcrowsonkb\u002Fk-diffusion)\n- [latent-consistency-model](https:\u002F\u002Fgithub.com\u002Fluosiallen\u002Flatent-consistency-model)\n- [generative-models](https:\u002F\u002Fgithub.com\u002FStability-AI\u002Fgenerative-models\u002F)\n- [PhotoMaker](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FPhotoMaker)\n- [Wan2.1](https:\u002F\u002Fgithub.com\u002FWan-Video\u002FWan2.1)\n- [Wan2.2](https:\u002F\u002Fgithub.com\u002FWan-Video\u002FWan2.2)","# stable-diffusion.cpp 快速上手指南\n\n`stable-diffusion.cpp` 是一个基于纯 C\u002FC++ 实现的扩散模型推理工具，灵感源自 `llama.cpp`。它轻量、无外部依赖，支持在 CPU、GPU 等多种后端上运行 SD1.x、SDXL、FLUX、Wan 等主流模型。\n\n## 环境准备\n\n### 系统要求\n支持以下操作系统：\n- Linux\n- macOS\n- Windows\n- Android (通过 Termux)\n\n### 硬件与编译依赖\n- **CPU**: 支持 x86 架构的 AVX\u002FAVX2\u002FAVX512 指令集。\n- **GPU (可选)**: 如需加速，需安装对应驱动及开发库：\n  - NVIDIA GPU: CUDA Toolkit\n  - AMD\u002FIntel GPU: Vulkan SDK 或 OpenCL\n  - Apple Silicon: Metal (macOS 自带)\n- **构建工具**: CMake, C++ 编译器 (GCC\u002FClang\u002FMSVC)。\n\n> **提示**：若不想自行编译，可直接下载预构建的二进制文件。\n\n## 安装步骤\n\n### 方式一：下载预构建二进制（推荐）\n访问 [Releases 页面](https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Freleases) 下载对应平台的压缩包，解压后即可使用 `sd-cli` 可执行文件。\n\n### 方式二：源码编译\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\ncd stable-diffusion.cpp\n\n# 创建构建目录并编译\ncmake -B build\ncmake --build build --config Release\n\n# 可执行文件位于 build\u002Fbin\u002F 目录下\n```\n*注：如需启用 CUDA 或其他后端，请在 cmake 命令中添加相应参数（如 `-DGGML_CUDA=ON`），详见官方构建文档。*\n\n## 基本使用\n\n### 1. 下载模型权重\n从 Hugging Face 下载模型文件（支持 `.ckpt`, `.safetensors`, `.gguf` 格式）。以下以 Stable Diffusion v1.5 为例：\n\n```bash\nmkdir -p models\ncurl -L -o models\u002Fv1-5-pruned-emaonly.safetensors https:\u002F\u002Fhuggingface.co\u002Frunwayml\u002Fstable-diffusion-v1-5\u002Fresolve\u002Fmain\u002Fv1-5-pruned-emaonly.safetensors\n```\n> **国内加速建议**：若访问 Hugging Face 较慢，可使用镜像站（如 `hf-mirror.com`）替换域名，例如：\n> `https:\u002F\u002Fhf-mirror.com\u002Frunwayml\u002Fstable-diffusion-v1-5\u002Fresolve\u002Fmain\u002Fv1-5-pruned-emaonly.safetensors`\n\n### 2. 生成图像\n使用单条命令即可生成图像。以下示例生成一张“一只可爱的猫”的图片：\n\n```bash\n.\u002Fbuild\u002Fbin\u002Fsd-cli -m models\u002Fv1-5-pruned-emaonly.safetensors -p \"a lovely cat\"\n```\n\n生成的图片将默认保存为 `output.png`，且包含生成参数的元数据。\n\n### 常用参数说明\n- `-m`: 指定模型路径\n- `-p`: 正向提示词 (Prompt)\n- `-n`: 负向提示词 (Negative Prompt)\n- `-s`: 随机种子 (Seed)\n- `-S`: 采样步数 (Steps)\n- `-H`, `-W`: 图像高度和宽度\n\n更多高级用法（如 LoRA、ControlNet、视频生成等）请参考项目文档。","一位嵌入式开发者需要在无互联网连接的工业边缘计算设备上，实时运行最新的 FLUX.2 或 Wan2.1 模型进行缺陷检测图像生成，但受限于严苛的硬件资源和部署环境。\n\n### 没有 stable-diffusion.cpp 时\n- **依赖沉重难移植**：传统 Python 方案依赖庞大的 PyTorch 和 CUDA 环境，在资源受限的 Linux 嵌入式系统或老旧 Windows 工控机上几乎无法安装配置。\n- **内存占用超标**：官方推理脚本显存\u002F内存开销巨大，容易触发 OOM（内存溢出）崩溃，导致设备无法同时运行其他核心业务进程。\n- **模型更新滞后**：面对 FLUX.2-klein、Z-Image 等新架构模型，往往需要等待漫长的社区适配期，无法第一时间在本地落地最新算法。\n- **跨平台兼容性差**：缺乏对 Metal、Vulkan 或纯 CPU 指令集（AVX512）的统一支持，难以在不同架构的异构设备间维持一致的推理性能。\n\n### 使用 stable-diffusion.cpp 后\n- **零依赖轻量部署**：基于纯 C\u002FC++ 和 ggml 构建，无需安装 Python 环境或重型驱动，编译为单一可执行文件即可直接在边缘设备运行。\n- **极致内存优化**：通过 GGUF 量化格式和 VAE 分块处理技术，将显存需求降低数倍，使高端扩散模型能在低配硬件上流畅跑通。\n- **即时支持新模型**：快速集成 FLUX.2、Wan2.1 及 Qwen-Image 等前沿模型，开发者下载权重后即可立即推理，无需等待框架层更新。\n- **全平台硬件加速**：自动调用 CPU 指令集、CUDA、Metal 或 Vulkan 后端，确保从服务器到安卓终端的各类设备均能获得最佳算力释放。\n\nstable-diffusion.cpp 通过将复杂的扩散模型推理转化为轻量级原生代码，彻底打破了高性能 AI 生成在边缘侧落地的资源与部署壁垒。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fleejet_stable-diffusion.cpp_cc642ab2.png","leejet","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fleejet_3b85a74e.jpg",null,"https:\u002F\u002Fgithub.com\u002Fleejet",[78,82,86,89,92,95],{"name":79,"color":80,"percentage":81},"C++","#f34b7d",100,{"name":83,"color":84,"percentage":85},"C","#555555",0,{"name":87,"color":88,"percentage":85},"CMake","#DA3434",{"name":90,"color":91,"percentage":85},"Python","#3572A5",{"name":93,"color":94,"percentage":85},"Dockerfile","#384d54",{"name":96,"color":97,"percentage":85},"Shell","#89e051",5692,578,"2026-04-06T08:26:28","MIT",4,"Linux, macOS, Windows, Android","非必需。支持纯 CPU 运行（x86 架构支持 AVX\u002FAVX2\u002FAVX512）。若使用 GPU 加速，支持 NVIDIA (CUDA), AMD\u002FIntel (Vulkan, OpenCL, SYCL), Apple (Metal)。具体显存需求取决于模型大小及是否启用分块处理 (VAE tiling)，未给出固定下限。","未说明（取决于模型大小，项目特性为轻量级且内存高效，支持 VAE 分块以降低内存占用）",{"notes":107,"python":108,"dependencies":109},"该项目是基于 ggml 的纯 C\u002FC++ 实现，无外部依赖（如 Python 或 PyTorch），可跨平台编译运行。支持多种模型格式（.ckpt, .safetensors, .gguf）。Android 用户可通过 Termux 运行。建议参考性能指南以优化显存\u002F内存使用。","不需要 (基于纯 C\u002FC++ 实现)",[110],"ggml",[13,14,60,15,35],[113,114,115,110,116,117,118,119,120,121,122,123,124,125,126,127,128,129,130],"ai","cplusplus","diffusion","image-generation","latent-diffusion","stable-diffusion","text2image","txt2img","image2image","img2img","flux","flux-dev","flux-schnell","videogeneration","wan","qwen-image","z-image","z-image-turbo","2026-03-27T02:49:30.150509","2026-04-06T21:58:58.150195",[134,139,144,149,154,159],{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},20098,"使用 CUDA 后端生成图像时出现纯绿色画面或报错，如何解决？","这通常是由于 ggml 版本过旧导致的。请尝试更新到最新的 master 分支代码，维护者已更新了 ggml 以修复此问题。更新后，CUDA 后端的运行速度（尤其是 VAE 解码步骤）也会有显著提升。该修复已确认对 GTX 1060 和 GTX 1070 等显卡有效。","https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fissues\u002F95",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},20099,"在哪里可以查看或分享不同硬件上的性能基准测试数据？","维护者已在讨论区创建了专门的基准测试分类。用户可以访问 https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fdiscussions\u002Fcategories\u002Fbenchmark 查看现有数据或分享自己的测试结果（包括 CPU\u002FGPU 型号、内存及生成耗时）。例如，有用户在 Snapdragon 888 手机上测试生成一张 512x512 图像耗时约 55 分钟。","https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fissues\u002F15",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},20100,"如何运行 Segmind Tiny SD 等蒸馏模型？转换后的 GGUF 文件过小导致推理失败怎么办？","早期版本可能不支持此类蒸馏模型或存在转换问题。请参考更新的 PR #1356（针对 SDXS 09 等模型），该 PR 提供了对这类小型蒸馏模型的支持修复。确保使用包含这些修复的最新代码进行模型转换和推理。","https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fissues\u002F603",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},20101,"在 AMD GPU (如 RX 6600) 上使用 Vulkan 后端运行 SDXL 时显存不足导致 VAE 处理碎片化，有何优化建议或性能参考？","针对 8GB 显存的 AMD 显卡，Vulkan 后端在 UNET 计算时可能会耗尽显存。性能测试数据显示，在相同参数下，sd.cpp 使用 Vulkan 后端耗时约 4.52s\u002Fit，而使用 ROCm 6.2 后端可提升至 3.3s\u002Fit。如果可能，建议尝试 ROCm 后端以获得更好的性能和显存管理。此外，社区提出了通过缓存中间张量并卸载 UNET 模型来优化显存占用的建议。","https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fissues\u002F761",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},20102,"GGML 的直接 conv2d 支持（direct conv2d）相比 im2col 有什么优势？当前状态如何？","直接 conv2d 支持（ggml_conv_2d_direct）相比 im2col 方法占用更少的内存，且在没有矩阵核心的 GPU 上理论上运行更快。测试数据显示，在某些配置下 VAE 解码速度有显著提升（从 20s 降至约 6s）。但目前该功能在 Vulkan 后端可能存在段错误（segfault），而在 CPU 上虽然可用但速度略慢于 im2col。建议关注相关 PR 以获取最新进展。","https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fissues\u002F739",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},20103,"项目是否支持 Flux 等新扩散模型？","社区已提出对 Flux 模型的支持请求，并提供了 ComfyUI 的参考实现链接。虽然 Issue 本身是功能请求，但评论中讨论了不同后端（如 Vulkan vs DirectML, ROCm）的性能差异。用户若需使用新模型，需关注项目后续更新以确认是否已合并相关架构支持。","https:\u002F\u002Fgithub.com\u002Fleejet\u002Fstable-diffusion.cpp\u002Fissues\u002F323",[165,169,173,177,181,185,189,193,197,201,205,209,213,217,221,225,229,233,237,241],{"id":166,"version":167,"summary_zh":75,"released_at":168},118138,"master-555-7397dda","2026-04-05T19:45:44",{"id":170,"version":171,"summary_zh":75,"released_at":172},118139,"master-554-9369ab7","2026-04-05T18:42:44",{"id":174,"version":175,"summary_zh":75,"released_at":176},118140,"master-553-687a81f","2026-04-05T17:49:46",{"id":178,"version":179,"summary_zh":75,"released_at":180},118141,"master-552-87ecb95","2026-04-01T19:47:18",{"id":182,"version":183,"summary_zh":75,"released_at":184},118142,"master-551-99c1de3","2026-04-01T19:32:19",{"id":186,"version":187,"summary_zh":75,"released_at":188},118143,"master-550-09b12d5","2026-03-31T18:49:49",{"id":190,"version":191,"summary_zh":75,"released_at":192},118144,"master-549-6dfe945","2026-03-31T17:55:35",{"id":194,"version":195,"summary_zh":75,"released_at":196},118145,"master-548-bf02167","2026-03-31T17:20:03",{"id":198,"version":199,"summary_zh":75,"released_at":200},118146,"master-547-4fe7a35","2026-03-31T17:01:57",{"id":202,"version":203,"summary_zh":75,"released_at":204},118147,"master-546-4d52320","2026-03-31T16:09:40",{"id":206,"version":207,"summary_zh":75,"released_at":208},118148,"master-545-1d6cb0f","2026-03-30T18:38:51",{"id":210,"version":211,"summary_zh":75,"released_at":212},118149,"master-544-83e8f6f","2026-03-30T18:12:24",{"id":214,"version":215,"summary_zh":75,"released_at":216},118150,"master-543-8d87887","2026-03-30T17:21:51",{"id":218,"version":219,"summary_zh":75,"released_at":220},118151,"master-542-02dd5e5","2026-03-30T17:10:22",{"id":222,"version":223,"summary_zh":75,"released_at":224},118152,"master-541-8f2967c","2026-03-30T17:11:01",{"id":226,"version":227,"summary_zh":75,"released_at":228},118153,"master-540-f16a110","2026-03-29T18:15:35",{"id":230,"version":231,"summary_zh":75,"released_at":232},118154,"master-539-ed88e21","2026-03-29T18:09:12",{"id":234,"version":235,"summary_zh":75,"released_at":236},118155,"master-537-545fac4","2026-03-16T18:21:58",{"id":238,"version":239,"summary_zh":75,"released_at":240},118156,"master-536-5265a5e","2026-03-16T18:21:16",{"id":242,"version":243,"summary_zh":75,"released_at":244},118157,"master-535-84cbd88","2026-03-16T16:17:08"]