[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-vladmandic--sdnext":3,"tool-vladmandic--sdnext":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",153609,2,"2026-04-13T11:34:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":76,"owner_email":77,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":108,"forks":109,"last_commit_at":110,"license":111,"difficulty_score":10,"env_os":112,"env_gpu":113,"env_ram":114,"env_deps":115,"category_tags":126,"github_topics":127,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":137,"updated_at":138,"faqs":139,"releases":169},7258,"vladmandic\u002Fsdnext","sdnext","SD.Next: All-in-one WebUI for AI generative image and video creation, captioning and processing","SD.Next 是一款功能强大的开源一体化网页界面，专为 AI 图像与视频的创作、标注及处理而设计。它基于 Stable Diffusion 构建，旨在解决用户在运行大型生成式模型时面临的硬件限制复杂、多平台兼容性差以及功能分散等痛点，让创作者能更专注于内容本身而非环境配置。\n\n无论是专业设计师、AI 研究人员，还是希望尝试前沿技术的普通爱好者，都能通过其现代化的跨平台界面轻松上手。SD.Next 不仅支持 Windows、Linux 系统下的 NVIDIA、AMD 及 Intel 等多种显卡硬件，还内置了自动检测与优化机制，大幅降低了安装和依赖管理的门槛。\n\n其核心技术亮点在于独有的\"SDNQ\"量化引擎，能在几乎不影响画质和速度的前提下，将显存占用降低高达 4 倍，使低配设备也能流畅运行大模型；同时具备“平衡卸载”技术，动态调配 CPU 与 GPU 内存以突破硬件瓶颈。此外，它还集成了超过 150 种开放模型用于智能图片标注，并提供专业的色彩分级与图像处理套件。凭借对十余种语言的支持和丰富的主题定制，SD.Next 为全球用户提供了一个灵活、高效且友好的 AI 创作工作台。","\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvladmandic_sdnext_readme_31421c3b5efc.png\" width=200 alt=\"SD.Next: AI art generator logo\">\n\n# SD.Next: All-in-one WebUI\n\nSD.Next is a powerful, open-source WebUI app for AI image and video generation, built on Stable Diffusion and supporting dozens of advanced models. Create, caption, and process images and videos with a modern, cross-platform interface—perfect for artists, researchers, and AI enthusiasts.\n\n\n![Stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fvladmandic\u002Fsdnext?style=social)\n![Forks](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002Fvladmandic\u002Fsdnext?style=social)\n![Contributors](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcontributors\u002Fvladmandic\u002Fsdnext)\n![Last update](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002Fvladmandic\u002Fsdnext?svg=true)\n![License](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fvladmandic\u002Fsdnext?svg=true)\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1101998836328697867?logo=Discord&svg=true)](https:\u002F\u002Fdiscord.gg\u002FVjvR2tabEX)\n[![DeepWiki](https:\u002F\u002Fdeepwiki.com\u002Fbadge.svg)](https:\u002F\u002Fdeepwiki.com\u002Fvladmandic\u002Fsdnext)\n[![Sponsors](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=Sponsor&message=%E2%9D%A4&logo=GitHub&color=%23fe8e86)](https:\u002F\u002Fgithub.com\u002Fsponsors\u002Fvladmandic)\n\n[Docs](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002F) | [Wiki](https:\u002F\u002Fgithub.com\u002Fvladmandic\u002Fsdnext\u002Fwiki) | [Discord](https:\u002F\u002Fdiscord.gg\u002FVjvR2tabEX) | [Changelog](CHANGELOG.md)\n\n\u003C\u002Fdiv>\n\u003C\u002Fbr>\n\n## Table of contents\n\n- [Documentation](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002F)\n- [SD.Features](#features--capabilities)\n- [Supported AI Models](#supported-ai-models)\n- [Supported Platforms & Hardware](#supported-platforms--hardware)\n- [Getting started](#getting-started)\n\n### Screenshot: Desktop interface\n\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvladmandic_sdnext_readme_a499876f54f0.jpg\" alt=\"SD.Next: AI art generator desktop interface screenshot\" width=\"90%\">\n\u003C\u002Fdiv>\n\n### Screenshot: Mobile interface\n\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvladmandic_sdnext_readme_045d027ef693.png\" alt=\"SD.Next: AI art generator mobile interface screenshot\" width=\"35%\">\n\u003C\u002Fdiv>\n\u003C\u002Fdiv>\n\n\u003Cbr>\n\n## Features & Capabilities\n\nSD.Next is feature-rich with a focus on performance, flexibility, and user experience. Key features include:\n- [Multi-platform](#platform-support!  \n- Many [diffusion models](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FModel-Support\u002F)!  \n- Fully localized to ~15 languages and with support for many [UI themes](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FThemes\u002F)!\n- [Desktop](#screenshot-desktop-interface) and [Mobile](#screenshot-mobile-interface) support!  \n- Platform specific auto-detection and tuning performed on install  \n- Built in installer with automatic updates and dependency management  \n\n### Unique features\n\nSD.Next includes many features not found in other WebUIs, such as:\n- **SDNQ**: State-of-the-Art quantization engine\n  Use pre-quantized or run with quantizaion on-the-fly for up to 4x VRAM reduction with no or minimal quality and performance impact  \n- **Balanced Offload**: Dynamically balance CPU and GPU memory to run larger models on limited hardware\n- **Captioning** with 150+ **OpenCLiP** models, **Tagger** with **WaifuDiffusion** and **DeepDanbooru** models, and 25+ built-in **VLMs**  \n- **Image Processing** with full image correction color-grading suite of tools  \n\n\u003Cbr>\n\n## Supported AI Models\n\nSD.Next supports broad range of models: [supported models](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FModel-Support\u002F) and [model specs](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FModels\u002F)  \n\n## Supported Platforms & Hardware\n\n- *nVidia* GPUs using **CUDA** libraries on both *Windows and Linux*  \n- *AMD* GPUs using **ROCm** libraries on both *Linux and Windows*\n- *AMD* GPUs on Windows using **ZLUDA** libraries  \n- *Intel Arc* GPUs using **OneAPI** with *IPEX XPU* libraries on both *Windows and Linux*  \n- Any *CPU\u002FGPU* or device compatible with **OpenVINO** libraries on both *Windows and Linux*  \n- Any GPU compatible with *DirectX* on *Windows* using **DirectML** libraries  \n- *Apple M1\u002FM2* on *OSX* using built-in support in Torch with **MPS** optimizations  \n- *ONNX\u002FOlive*  \n\nPlus **Docker** container recipes for: [CUDA, ROCm, Intel IPEX and OpenVINO](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FDocker\u002F)\n\n## Getting started\n\n- Get started with **SD.Next** by following the [installation instructions](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FInstallation\u002F)  \n- For more details, check out [advanced installation](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FAdvanced-Install\u002F) guide  \n- List and explanation of [command line arguments](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FCLI-Arguments\u002F)  \n- Install walkthrough [video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=nWTnTyFTuAs)  \n\n> [!TIP]\n> And for platform specific information, check out  \n> [WSL](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FWSL\u002F) | [Intel Arc](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FIntel-ARC\u002F) | [DirectML](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FDirectML\u002F) | [OpenVINO](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FOpenVINO\u002F) | [ONNX & Olive](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FONNX-Runtime\u002F) | [ZLUDA](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FZLUDA\u002F) | [AMD ROCm](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FAMD-ROCm\u002F) | [MacOS](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FMacOS-Python\u002F) | [nVidia](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FnVidia\u002F) | [Docker](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FDocker\u002F)\n\n### Quick Start\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Fvladmandic\u002Fsdnext\ncd sdnext\n.\u002Fwebui.sh # Linux\u002FMac\nwebui.bat  # Windows\nwebui.ps1  # PowerShell\n```\n\n> [!WARNING]\n> If you run into issues, check out [troubleshooting](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FTroubleshooting\u002F) and [debugging](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FDebug\u002F) guides  \n\n\n## Community & Support\n\nIf you're unsure how to use a feature, best place to start is [Docs](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002F) and if its not there,  \ncheck [ChangeLog](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FCHANGELOG\u002F) for when feature was first introduced as it will always have a short note on how to use it  \n\nAnd for any question, reach out on [Discord](https:\u002F\u002Fdiscord.gg\u002FVjvR2tabEX) or open an [issue](https:\u002F\u002Fgithub.com\u002Fvladmandic\u002Fsdnext\u002Fissues) or [discussion](https:\u002F\u002Fgithub.com\u002Fvladmandic\u002Fsdnext\u002Fdiscussions)  \n\n### Contributing\n\nPlease see [Contributing](CONTRIBUTING) for details on how to contribute to this project  \n\n## License & Credits\n\n- SD.Next is licensed under the [Apache License 2.0](LICENSE.txt)\n- Main credit goes to [Automatic1111 WebUI](https:\u002F\u002Fgithub.com\u002FAUTOMATIC1111\u002Fstable-diffusion-webui) for the original codebase  \n\n## Evolution\n\n\u003Ca href=\"https:\u002F\u002Fstar-history.com\u002F#vladmandic\u002Fsdnext&Date\">\n  \u003Cpicture width=640>\n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvladmandic_sdnext_readme_757e2d17c15d.png&theme=dark\" \u002F>\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvladmandic_sdnext_readme_757e2d17c15d.png\" alt=\"starts\" width=\"320\">\n  \u003C\u002Fpicture>\n\u003C\u002Fa>\n\n- [OSS Stats](https:\u002F\u002Fossinsight.io\u002Fanalyze\u002Fvladmandic\u002Fsdnext#overview)\n\n\u003Cbr>\n","\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvladmandic_sdnext_readme_31421c3b5efc.png\" width=200 alt=\"SD.Next: AI艺术生成器logo\">\n\n# SD.Next：一体化WebUI\n\nSD.Next是一款功能强大的开源WebUI应用，用于AI图像和视频生成，基于Stable Diffusion构建，并支持数十种先进模型。通过现代化、跨平台的界面，您可以创作、标注并处理图像和视频——非常适合艺术家、研究人员以及AI爱好者。\n\n\n![星标](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fvladmandic\u002Fsdnext?style=social)\n![复刻](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002Fvladmandic\u002Fsdnext?style=social)\n![贡献者](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcontributors\u002Fvladmandic\u002Fsdnext)\n![最后更新](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002Fvladmandic\u002Fsdnext?svg=true)\n![许可证](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fvladmandic\u002Fsdnext?svg=true)\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1101998836328697867?logo=Discord&svg=true)](https:\u002F\u002Fdiscord.gg\u002FVjvR2tabEX)\n[![DeepWiki](https:\u002F\u002Fdeepwiki.com\u002Fbadge.svg)](https:\u002F\u002Fdeepwiki.com\u002Fvladmandic\u002Fsdnext)\n[![赞助者](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=Sponsor&message=%E2%9D%A4&logo=GitHub&color=%23fe8e86)](https:\u002F\u002Fgithub.com\u002Fsponsors\u002Fvladmandic)\n\n[文档](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002F) | [维基](https:\u002F\u002Fgithub.com\u002Fvladmandic\u002Fsdnext\u002Fwiki) | [Discord](https:\u002F\u002Fdiscord.gg\u002FVjvR2tabEX) | [变更日志](CHANGELOG.md)\n\n\u003C\u002Fdiv>\n\u003C\u002Fbr>\n\n## 目录\n\n- [文档](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002F)\n- [SD.特性与能力](#features--capabilities)\n- [支持的AI模型](#supported-ai-models)\n- [支持的平台与硬件](#supported-platforms--hardware)\n- [快速入门](#getting-started)\n\n### 截图：桌面界面\n\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvladmandic_sdnext_readme_a499876f54f0.jpg\" alt=\"SD.Next：AI艺术生成器桌面界面截图\" width=\"90%\">\n\u003C\u002Fdiv>\n\n### 截图：移动界面\n\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvladmandic_sdnext_readme_045d027ef693.png\" alt=\"SD.Next：AI艺术生成器移动界面截图\" width=\"35%\">\n\u003C\u002Fdiv>\n\u003C\u002Fdiv>\n\n\u003Cbr>\n\n## 特性与能力\n\nSD.Next功能丰富，专注于性能、灵活性和用户体验。主要特性包括：\n- [多平台支持](#platform-support!  \n- 支持众多[扩散模型](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FModel-Support\u002F)！  \n- 完全本地化为约15种语言，并支持多种[UI主题](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FThemes\u002F)！\n- 支持[桌面](#screenshot-desktop-interface)和[移动端](#screenshot-mobile-interface)！  \n- 安装时会进行平台特定的自动检测与优化  \n- 内置安装程序，具备自动更新和依赖管理功能  \n\n### 独特特性\n\nSD.Next包含许多其他WebUI中没有的功能，例如：\n- **SDNQ**：最先进的量化引擎\n  可以使用预量化模型，或在运行时动态量化，从而将显存占用降低多达4倍，且几乎不影响质量和性能  \n- **平衡卸载**：动态平衡CPU和GPU内存，以便在有限的硬件上运行更大的模型\n- **标题生成**，支持150多种**OpenCLiP**模型；**标签生成器**集成**WaifuDiffusion**和**DeepDanbooru**模型；内置25多种**VLM**  \n- **图像处理**，提供完整的图像校正与调色工具集  \n\n\u003Cbr>\n\n## 支持的AI模型\n\nSD.Next支持广泛的模型：[支持的模型](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FModel-Support\u002F)和[模型规格](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FModels\u002F)  \n\n## 支持的平台与硬件\n\n- 使用**CUDA**库的*nVidia* GPU，适用于*Windows*和*Linux*系统  \n- 使用**ROCm**库的*AMD* GPU，适用于*Linux*和*Windows*系统  \n- 在*Windows*上使用**ZLUDA**库的*AMD* GPU  \n- 使用**OneAPI**及*IPEX XPU*库的*Intel Arc* GPU，适用于*Windows*和*Linux*系统  \n- 兼容**OpenVINO**库的任何*CPU\u002FGPU*或其他设备，适用于*Windows*和*Linux*系统  \n- 兼容*DirectX*的GPU，在*Windows*上可使用**DirectML**库  \n- *Apple M1\u002FM2*芯片，在*OSX*上可通过Torch内置支持并结合**MPS**优化运行  \n- *ONNX\u002FOlive*  \n\n此外，还提供了针对以下环境的**Docker**容器配方：[CUDA、ROCm、Intel IPEX和OpenVINO](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FDocker\u002F)\n\n## 快速入门\n\n- 按照[安装说明](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FInstallation\u002F)开始使用**SD.Next**  \n- 如需更多详细信息，请参阅[高级安装指南](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FAdvanced-Install\u002F)  \n- [命令行参数列表及说明](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FCLI-Arguments\u002F)  \n- 安装演示视频：[点击观看](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=nWTnTyFTuAs)  \n\n> [!提示]\n> 如需平台特定的信息，请查看  \n> [WSL](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FWSL\u002F) | [Intel Arc](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FIntel-ARC\u002F) | [DirectML](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FDirectML\u002F) | [OpenVINO](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FOpenVINO\u002F) | [ONNX & Olive](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FONNX-Runtime\u002F) | [ZLUDA](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FZLUDA\u002F) | [AMD ROCm](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FAMD-ROCm\u002F) | [MacOS](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FMacOS-Python\u002F) | [nVidia](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FnVidia\u002F) | [Docker](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FDocker\u002F)\n\n### 快速启动\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Fvladmandic\u002Fsdnext\ncd sdnext\n.\u002Fwebui.sh # Linux\u002FMac\nwebui.bat  # Windows\nwebui.ps1  # PowerShell\n```\n\n> [!警告]\n> 如果遇到问题，请查阅[故障排除](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FTroubleshooting\u002F)和[调试](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FDebug\u002F)指南  \n\n\n## 社区与支持\n\n如果您不确定如何使用某项功能，最好的起点是[文档](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002F)。如果文档中没有相关信息，  \n请查看[变更日志](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002FCHANGELOG\u002F)，了解该功能首次引入的时间及其简要使用说明。  \n\n如有任何疑问，请在[Discord](https:\u002F\u002Fdiscord.gg\u002FVjvR2tabEX)上提问，或在[Github](https:\u002F\u002Fgithub.com\u002Fvladmandic\u002Fsdnext\u002Fissues)上提交[问题](https:\u002F\u002Fgithub.com\u002Fvladmandic\u002Fsdnext\u002Fissues)，或参与[讨论](https:\u002F\u002Fgithub.com\u002Fvladmandic\u002Fsdnext\u002Fdiscussions)。  \n\n### 贡献\n\n有关如何参与本项目，请参阅[贡献指南](CONTRIBUTING)  \n\n## 许可证与致谢\n\n- SD.Next采用[Apache License 2.0](LICENSE.txt)许可协议  \n- 主要功劳归于[Automatic1111 WebUI](https:\u002F\u002Fgithub.com\u002FAUTOMATIC1111\u002Fstable-diffusion-webui)，感谢其提供的原始代码库\n\n## 演化\n\n\u003Ca href=\"https:\u002F\u002Fstar-history.com\u002F#vladmandic\u002Fsdnext&Date\">\n  \u003Cpicture width=640>\n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvladmandic_sdnext_readme_757e2d17c15d.png&theme=dark\" \u002F>\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvladmandic_sdnext_readme_757e2d17c15d.png\" alt=\"starts\" width=\"320\">\n  \u003C\u002Fpicture>\n\u003C\u002Fa>\n\n- [OSS Stats](https:\u002F\u002Fossinsight.io\u002Fanalyze\u002Fvladmandic\u002Fsdnext#overview)\n\n\u003Cbr>","# SD.Next 快速上手指南\n\nSD.Next 是一款基于 Stable Diffusion 构建的强大开源 WebUI，专注于性能优化与跨平台支持。它集成了先进的量化引擎（SDNQ）、平衡显存卸载技术以及丰富的图像\u002F视频处理功能，适用于艺术家、研究人员及 AI 爱好者。\n\n## 环境准备\n\n### 系统要求\nSD.Next 支持广泛的硬件和操作系统，安装时会自动检测并调整配置：\n- **操作系统**：Windows, Linux, macOS (M1\u002FM2)\n- **GPU 支持**：\n  - **NVIDIA**: 支持 CUDA (Windows\u002FLinux)\n  - **AMD**: 支持 ROCm (Linux\u002FWindows) 或 ZLUDA (Windows)\n  - **Intel Arc**: 支持 OneAPI\u002FIPEX (Windows\u002FLinux)\n  - **Apple Silicon**: 支持 MPS 优化\n  - **其他**: 支持 DirectML (Windows), OpenVINO, ONNX\u002FOlive\n- **内存建议**：根据模型大小而定，开启 SDNQ 量化后可显著降低显存需求（最高减少 4x VRAM）。\n\n### 前置依赖\n- **Git**: 用于克隆代码仓库。\n- **Python**: 通常由内置安装器自动管理，建议系统已安装 Python 3.10+ 以避免环境冲突。\n- **网络连接**: 首次运行需下载模型依赖，国内用户建议配置网络加速或使用镜像源。\n\n## 安装步骤\n\n### 1. 克隆仓库\n打开终端（Linux\u002FMac）或命令提示符\u002FPowerShell（Windows），执行以下命令：\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Fvladmandic\u002Fsdnext\ncd sdnext\n```\n\n> **提示**：若国内访问 GitHub 较慢，可尝试使用 Gitee 镜像（如有维护）或配置 Git 代理。\n\n### 2. 启动安装与运行\nSD.Next 内置了自动安装器，会根据当前硬件自动处理依赖和更新。根据你的操作系统选择对应的启动脚本：\n\n**Linux \u002F macOS:**\n```shell\n.\u002Fwebui.sh\n```\n\n**Windows (CMD):**\n```shell\nwebui.bat\n```\n\n**Windows (PowerShell):**\n```shell\nwebui.ps1\n```\n\n*注：首次运行时，脚本会自动下载必要的 Python 环境、PyTorch 版本及其他依赖库，请耐心等待完成。*\n\n## 基本使用\n\n### 1. 访问界面\n启动成功后，终端会显示本地服务地址（通常为 `http:\u002F\u002F127.0.0.1:7860`）。在浏览器中打开该地址即可进入 WebUI 界面。\n\n### 2. 生成第一张图像\n- **选择模型**：在左上角模型下拉菜单中选择已预装或下载的 Stable Diffusion 模型（如 SDXL, SD1.5 等）。\n- **输入提示词**：\n  - **Prompt (正向提示词)**：描述你想要生成的画面，例如 `a cute cat, masterpiece, best quality`。\n  - **Negative Prompt (反向提示词)**：描述不希望出现的元素，例如 `ugly, blurry, low quality`。\n- **参数设置**：调整采样步数（Steps）、分辨率（Width\u002FHeight）等参数（默认值通常即可使用）。\n- **生成**：点击底部的 **Generate** 按钮。\n\n### 3. 高级功能体验\n- **量化加速**：若显存不足，可在设置中启用 **SDNQ** 量化引擎，在不明显损失画质的情况下大幅降低显存占用。\n- **图像描述**：使用内置的 **Captioning** 功能，上传现有图片即可利用 OpenCLiP 或 VLM 模型自动生成提示词。\n- **多语言支持**：界面已本地化支持约 15 种语言，可在设置中切换为中文界面。\n\n---\n*更多详细文档、命令行参数说明及特定硬件优化指南，请访问 [官方文档](https:\u002F\u002Fvladmandic.github.io\u002Fsdnext-docs\u002F)。*","一位独立游戏开发者需要在配置有限的笔记本电脑上，快速为原型项目生成并优化大量风格统一的角色立绘与场景素材。\n\n### 没有 sdnext 时\n- **硬件瓶颈严重**：显存仅 6GB，运行主流大模型频繁报\"Out of Memory\"错误，无法生成高分辨率图像。\n- **工作流割裂**：生成图片后，需切换至 Photoshop 调色、再用单独工具打标签整理素材，效率极低。\n- **环境部署繁琐**：在不同操作系统间迁移项目时，常因依赖冲突导致环境崩溃，重装耗时数小时。\n- **多端协作困难**：无法在平板或手机上预览及微调生成结果，必须时刻守在电脑前。\n\n### 使用 sdnext 后\n- **突破显存限制**：利用内置的 SDNQ 量化引擎和平衡卸载技术，在同等硬件下显存占用降低 75%，流畅运行大型模型。\n- **一站式全流程**：在同一界面完成从生成、自动打标（支持 WaifuDiffusion 等模型）到专业级色彩校正的所有步骤。\n- **开箱即用体验**：内置安装器自动检测硬件并配置依赖，支持跨平台无缝更新，彻底消除环境配置焦虑。\n- **全平台灵活办公**：通过响应式 Web 界面，开发者可随时在移动端检查进度或调整参数，实现随时随地创作。\n\nsdnext 通过极致的硬件优化与全功能集成，让普通设备也能胜任专业级的 AI 视觉创作任务，将开发者的精力从环境维护回归到创意本身。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvladmandic_sdnext_31421c3b.png","vladmandic","Vladimir Mandic","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fvladmandic_8faf6a8a.jpg",null,"Miami, Florida \u002F Rijeka, Croatia","mandic00@live.com","vmandic00","https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fcyan051\u002F","https:\u002F\u002Fgithub.com\u002Fvladmandic",[82,86,90,94,98,102,105],{"name":83,"color":84,"percentage":85},"Python","#3572A5",93.1,{"name":87,"color":88,"percentage":89},"CSS","#663399",3.9,{"name":91,"color":92,"percentage":93},"JavaScript","#f1e05a",2.6,{"name":95,"color":96,"percentage":97},"HTML","#e34c26",0.3,{"name":99,"color":100,"percentage":101},"Shell","#89e051",0,{"name":103,"color":104,"percentage":101},"PowerShell","#012456",{"name":106,"color":107,"percentage":101},"Batchfile","#C1F12E",7050,559,"2026-04-13T08:18:52","Apache-2.0","Linux, Windows, macOS","非绝对必需（支持 CPU），但推荐 GPU。支持 NVIDIA (CUDA), AMD (ROCm\u002FZLUDA), Intel Arc (OneAPI\u002FIPEX), Apple M1\u002FM2 (MPS), DirectML, OpenVINO。具体显存需求未说明，但提供 SDNQ 量化引擎可减少高达 4 倍显存占用，支持平衡卸载以在有限硬件上运行大模型。","未说明",{"notes":116,"python":114,"dependencies":117},"该工具具有强大的跨平台自动检测和调优功能，安装时会自动处理依赖。支持 Docker 容器部署。特色功能包括：SDNQ 量化引擎（可动态量化以减少显存）、平衡卸载技术（动态平衡 CPU\u002FGPU 内存）、内置 150+ OpenCLiP 模型的标题生成、以及完整的图像校正和调色工具套件。支持约 15 种语言和多种 UI 主题。",[118,119,120,121,122,123,124,125],"torch (含 MPS, CUDA, ROCm, IPEX 支持)","OpenVINO","DirectML","ONNX\u002FOlive","OpenCLiP","WaifuDiffusion","DeepDanbooru","VLMs (视觉语言模型)",[35,15,14],[64,128,129,130,131,132,133,134,135,136],"ai-art","caption","diffusers","generative-art","python","pytorch","stable-diffusion","transformers","webui","2026-03-27T02:49:30.150509","2026-04-14T05:03:09.135973",[140,145,150,155,160,165],{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},32600,"生成图像时，在生成一定数量的批次后程序冻结且无法继续，如何解决？","这是一个已知问题，通常由采样过程中的异常被忽略导致。临时解决方法是：最大化显示生成进度的命令行窗口，用鼠标点击当前进度条后面的位置，当出现白色光标矩形时按下回车键（Enter），这通常能重启生成过程。如果问题持续，建议检查 CPU 单核性能或尝试更新相关依赖。","https:\u002F\u002Fgithub.com\u002Fvladmandic\u002Fsdnext\u002Fissues\u002F340",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},32601,"如何启用或使用 Git Re-Basin 方法进行模型合并？","Git Re-Basin 方法已经被添加到 SDNext 中。用户可以在模型合并（Model Merge）的相关选项中找到它。该方法旨在解决模型合并时的排列对称性问题，通常作为插值（Interpolation）下的一个自动化选项提供，无需手动设置每个块的权重。","https:\u002F\u002Fgithub.com\u002Fvladmandic\u002Fsdnext\u002Fissues\u002F1176",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},32602," styles.csv 加载缓慢、浏览器冻结或子文件夹中的样式不显示怎么办？","这个问题通常是由第三方扩展（特别是 'civitai-helper'）引起的，而非核心程序本身。解决方法是禁用该扩展或在扩展设置中调整相关选项。排查时建议先禁用所有扩展以隔离问题。一旦确认是扩展导致，移除或更新该扩展即可解决加载冻结和样式不显示的问题。","https:\u002F\u002Fgithub.com\u002Fvladmandic\u002Fsdnext\u002Fissues\u002F2180",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},32603,"生成的图像在预览窗口中一闪而过或变为空白，但文件夹中有正常图片，如何修复？","这通常是由于配置文件冲突或损坏导致的。解决方法是删除根目录下的 `config.json` 和 `ui-config.json` 文件，然后重新启动程序以生成全新的默认配置。这将重置 UI 设置并通常能解决预览无法正常显示的问题。","https:\u002F\u002Fgithub.com\u002Fvladmandic\u002Fsdnext\u002Fissues\u002F305",{"id":161,"question_zh":162,"answer_zh":163,"source_url":164},32604,"遇到 NaN 错误或生成的图像全黑是什么原因？","虽然具体细节因环境而异，但 NaN 错误或全黑图像通常与显存不足、精度设置不当（如在使用某些模型时未启用半精度）或特定的采样器组合有关。建议尝试降低分辨率、减少批次大小（Batch Size），或切换采样器和调度器（Scheduler）。如果问题依旧，检查是否使用了不兼容的 VAE 或模型版本。","https:\u002F\u002Fgithub.com\u002Fvladmandic\u002Fsdnext\u002Fissues\u002F374",{"id":166,"question_zh":167,"answer_zh":168,"source_url":154},32605,"如何排查是核心程序问题还是扩展（Extension）导致的问题？","当遇到未知错误、加载缓慢或功能异常时，首要步骤是进行隔离测试。请启动程序时禁用所有扩展（通常可以通过添加 `--disable-extensions` 启动参数，或在设置中暂时关闭所有扩展）。如果禁用扩展后问题消失，则说明问题出在某个扩展上，需逐个启用以定位罪魁祸首；如果问题依旧，则可能是核心程序或环境配置问题。",[]]