[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-kjsman--stable-diffusion-pytorch":3,"tool-kjsman--stable-diffusion-pytorch":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",156033,2,"2026-04-14T23:32:00",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":10,"env_os":94,"env_gpu":95,"env_ram":96,"env_deps":97,"category_tags":105,"github_topics":106,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":111,"updated_at":112,"faqs":113,"releases":129},7606,"kjsman\u002Fstable-diffusion-pytorch","stable-diffusion-pytorch","Yet another PyTorch implementation of Stable Diffusion (probably easy to read)","stable-diffusion-pytorch 是一个基于 PyTorch 框架实现的 Stable Diffusion 开源项目，旨在提供一个极简、自包含且易于阅读的代码库。它专注于还原 Stable Diffusion v1.x 的核心功能，通过剔除不必要的特性（如 CLIP 中的注意力掩码）和硬编码配置，让开发者能够更轻松地理解扩散模型的内部运作机制。\n\n该项目主要解决了官方实现代码复杂、难以快速上手学习和二次开发的问题。作者参考了多个知名开源项目，力求代码结构一致且具备高度的“可黑客性”（hackable），非常适合希望深入探究 AI 绘图原理的研究人员、需要定制模型结构的开发者，以及想要从零构建教学示例的教育者使用。对于普通设计师或非技术用户，若仅需生成图片，可能更适合使用封装更完善的图形界面工具。\n\n其独特亮点在于代码的高度透明性与灵活性：支持文生图、图生图、负向提示词及随机种子控制；同时提供了灵活的显存管理策略，允许用户在显存不足时将模型动态加载至 CPU，有效降低了运行门槛。虽然作者谦逊地称其为“另一份意大利面式代码”，但这恰恰体现了其作为学习与实验原型的实用价值。","# stable-diffusion-pytorch\n\n[![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fkjsman\u002Fstable-diffusion-pytorch\u002Fblob\u002Fmain\u002Fdemo.ipynb)\n\nYet another PyTorch implementation of [Stable Diffusion](https:\u002F\u002Fstability.ai\u002Fblog\u002Fstable-diffusion-public-release).\n\nI tried my best to make the codebase minimal, self-contained, consistent, hackable, and easy to read. Features are pruned if not needed in Stable Diffusion (e.g. Attention mask at CLIP tokenizer\u002Fencoder). Configs are hard-coded (based on Stable Diffusion v1.x). Loops are unrolled when that shape makes more sense.\n\nDespite of my efforts, I feel like [I cooked another sphagetti](https:\u002F\u002Fxkcd.com\u002F927\u002F). Well, help yourself!\n\nHeavily referred to following repositories. Big kudos to them!\n\n* [divamgupta\u002Fstable-diffusion-tensorflow](https:\u002F\u002Fgithub.com\u002Fdivamgupta\u002Fstable-diffusion-tensorflow)\n* [CompVis\u002Fstable-diffusion](https:\u002F\u002Fgithub.com\u002FCompVis\u002Fstable-diffusion)\n* [huggingface\u002Ftransformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers)\n* [crowsonkb\u002Fk-diffusion](https:\u002F\u002Fgithub.com\u002Fcrowsonkb\u002Fk-diffusion)\n* [karpathy\u002FminGPT](https:\u002F\u002Fgithub.com\u002Fkarpathy\u002FminGPT)\n\n## Dependencies\n\n* PyTorch\n* Numpy\n* Pillow\n* regex\n* tqdm\n\n## How to Install\n\n1. Clone or download this repository.\n2. Install dependencies: Run `pip install torch numpy Pillow regex` or `pip install -r requirements.txt`.\n3. Download `data.v20221029.tar` from [here](https:\u002F\u002Fhuggingface.co\u002Fjinseokim\u002Fstable-diffusion-pytorch-data\u002Fresolve\u002Fmain\u002Fdata.v20221029.tar) and unpack in the parent folder of `stable_diffusion_pytorch`. Your folders should be like this:\n```\nstable-diffusion-pytorch(-main)\u002F\n├─ data\u002F\n│  ├─ ckpt\u002F\n│  ├─ ...\n├─ stable_diffusion_pytorch\u002F\n│  ├─ samplers\u002F\n└  ┴─ ...\n```\n*Note that checkpoint files included in `data.zip` [have different license](#license) -- you should agree to the license to use checkpoint files.*\n\n## How to Use\n\nImport `stable_diffusion_pytorch` as submodule.\n\nHere's some example scripts. You can also read the docstring of `stable_diffusion_pytorch.pipeline.generate`.\n\nText-to-image generation:\n```py\nfrom stable_diffusion_pytorch import pipeline\n\nprompts = [\"a photograph of an astronaut riding a horse\"]\nimages = pipeline.generate(prompts)\nimages[0].save('output.jpg')\n```\n\n...with multiple prompts:\n```\nprompts = [\n    \"a photograph of an astronaut riding a horse\",\n    \"\"]\nimages = pipeline.generate(prompts)\n```\n\n...with unconditional(negative) prompts:\n```py\nprompts = [\"a photograph of an astronaut riding a horse\"]\nuncond_prompts = [\"low quality\"]\nimages = pipeline.generate(prompts, uncond_prompts)\n```\n\n...with seed:\n```py\nprompts = [\"a photograph of an astronaut riding a horse\"]\nimages = pipeline.generate(prompts, uncond_prompts, seed=42)\n```\n\nPreload models (you will need enough VRAM):\n```py\nfrom stable_diffusion_pytorch import model_loader\nmodels = model_loader.preload_models('cuda')\n\nprompts = [\"a photograph of an astronaut riding a horse\"]\nimages = pipeline.generate(prompts, models=models)\n```\n\nIf you get OOM with above code but have enough RAM (not VRAM), you can move models to GPU when needed\nand move back to CPU when not needed:\n```py\nfrom stable_diffusion_pytorch import model_loader\nmodels = model_loader.preload_models('cpu')\n\nprompts = [\"a photograph of an astronaut riding a horse\"]\nimages = pipeline.generate(prompts, models=models, device='cuda', idle_device='cpu')\n```\n\nImage-to-image generation:\n```py\nfrom PIL import Image\n\nprompts = [\"a photograph of an astronaut riding a horse\"]\ninput_images = [Image.open('space.jpg')]\nimages = pipeline.generate(prompts, input_images=images)\n```\n\n...with custom strength:\n```py\nprompts = [\"a photograph of an astronaut riding a horse\"]\ninput_images = [Image.open('space.jpg')]\nimages = pipeline.generate(prompts, input_images=images, strength=0.6)\n```\n\nChange [classifier-free guidance](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.12598) scale:\n```py\nprompts = [\"a photograph of an astronaut riding a horse\"]\nimages = pipeline.generate(prompts, cfg_scale=11)\n```\n\n...or disable classifier-free guidance:\n```py\nprompts = [\"a photograph of an astronaut riding a horse\"]\nimages = pipeline.generate(prompts, do_cfg=False)\n```\n\nReduce steps (faster generation, lower quality):\n```py\nprompts = [\"a photograph of an astronaut riding a horse\"]\nimages = pipeline.generate(prompts, n_inference_steps=28)\n```\n\nUse different sampler:\n```py\nprompts = [\"a photograph of an astronaut riding a horse\"]\nimages = pipeline.generate(prompts, sampler=\"k_euler\")\n# \"k_lms\" (default), \"k_euler\", or \"k_euler_ancestral\" is available\n```\n\nGenerate image with custom size:\n```py\nprompts = [\"a photograph of an astronaut riding a horse\"]\nimages = pipeline.generate(prompts, height=512, width=768)\n```\n\n## LICENSE\n\nAll codes on this repository are licensed with MIT License. Please see LICENSE file.\n\nNote that checkpoint files of Stable Diffusion are licensed with [CreativeML Open RAIL-M](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FCompVis\u002Fstable-diffusion-license) License. It has use-based restriction caluse, so you'd better read it.\n","# 稳定扩散-PyTorch\n\n[![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fkjsman\u002Fstable-diffusion-pytorch\u002Fblob\u002Fmain\u002Fdemo.ipynb)\n\n又一个 [稳定扩散](https:\u002F\u002Fstability.ai\u002Fblog\u002Fstable-diffusion-public-release) 的 PyTorch 实现。\n\n我尽力使代码库保持最小化、自包含、一致、可扩展且易于阅读。对于稳定扩散中不需要的功能（例如 CLIP 分词器\u002F编码器中的注意力掩码），我都进行了精简。配置被硬编码（基于稳定扩散 v1.x）。当某种形状更有意义时，循环会被展开。\n\n尽管我付出了努力，但我还是觉得自己写出了另一份“意大利面代码”[参见 xkcd 927](https:\u002F\u002Fxkcd.com\u002F927\u002F)。不过，欢迎你来改进它！\n\n以下仓库对我帮助很大，在此向它们表示衷心的感谢：\n\n* [divamgupta\u002Fstable-diffusion-tensorflow](https:\u002F\u002Fgithub.com\u002Fdivamgupta\u002Fstable-diffusion-tensorflow)\n* [CompVis\u002Fstable-diffusion](https:\u002F\u002Fgithub.com\u002FCompVis\u002Fstable-diffusion)\n* [huggingface\u002Ftransformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers)\n* [crowsonkb\u002Fk-diffusion](https:\u002F\u002Fgithub.com\u002Fcrowsonkb\u002Fk-diffusion)\n* [karpathy\u002FminGPT](https:\u002F\u002Fgithub.com\u002Fkarpathy\u002FminGPT)\n\n## 依赖项\n\n* PyTorch\n* Numpy\n* Pillow\n* regex\n* tqdm\n\n## 安装方法\n\n1. 克隆或下载本仓库。\n2. 安装依赖：运行 `pip install torch numpy Pillow regex` 或 `pip install -r requirements.txt`。\n3. 从 [这里](https:\u002F\u002Fhuggingface.co\u002Fjinseokim\u002Fstable-diffusion-pytorch-data\u002Fresolve\u002Fmain\u002Fdata.v20221029.tar) 下载 `data.v20221029.tar` 文件，并解压到 `stable_diffusion_pytorch` 的上一级目录。你的文件夹结构应如下所示：\n```\nstable-diffusion-pytorch(-main)\u002F\n├─ data\u002F\n│  ├─ ckpt\u002F\n│  ├─ ...\n├─ stable_diffusion_pytorch\u002F\n│  ├─ samplers\u002F\n└  ┴─ ...\n```\n*请注意，`data.zip` 中包含的检查点文件具有不同的许可协议（见下文）——使用这些检查点文件前，请先同意该许可协议。*\n\n## 使用方法\n\n将 `stable_diffusion_pytorch` 作为子模块导入。\n\n以下是一些示例脚本。你也可以阅读 `stable_diffusion_pytorch.pipeline.generate` 的文档字符串。\n\n文本到图像生成：\n```py\nfrom stable_diffusion_pytorch import pipeline\n\nprompts = [\"一位宇航员骑马的照片\"]\nimages = pipeline.generate(prompts)\nimages[0].save('output.jpg')\n```\n\n...使用多个提示词：\n```\nprompts = [\n    \"一位宇航员骑马的照片\",\n    \"\"]\nimages = pipeline.generate(prompts)\n```\n\n...使用无条件（负面）提示词：\n```py\nprompts = [\"一位宇航员骑马的照片\"]\nuncond_prompts = [\"低质量\"]\nimages = pipeline.generate(prompts, uncond_prompts)\n```\n\n...设置随机种子：\n```py\nprompts = [\"一位宇航员骑马的照片\"]\nimages = pipeline.generate(prompts, uncond_prompts, seed=42)\n```\n\n预加载模型（需要足够的显存）：\n```py\nfrom stable_diffusion_pytorch import model_loader\nmodels = model_loader.preload_models('cuda')\n\nprompts = [\"一位宇航员骑马的照片\"]\nimages = pipeline.generate(prompts, models=models)\n```\n\n如果你在上述代码中遇到显存不足的问题，但有足够的内存（而非显存），可以在需要时将模型移动到 GPU，不需要时再移回 CPU：\n```py\nfrom stable_diffusion_pytorch import model_loader\nmodels = model_loader.preload_models('cpu')\n\nprompts = [\"一位宇航员骑马的照片\"]\nimages = pipeline.generate(prompts, models=models, device='cuda', idle_device='cpu')\n```\n\n图像到图像生成：\n```py\nfrom PIL import Image\n\nprompts = [\"一位宇航员骑马的照片\"]\ninput_images = [Image.open('space.jpg')]\nimages = pipeline.generate(prompts, input_images=images)\n```\n\n...设置自定义强度：\n```py\nprompts = [\"一位宇航员骑马的照片\"]\ninput_images = [Image.open('space.jpg')]\nimages = pipeline.generate(prompts, input_images=images, strength=0.6)\n```\n\n调整 [无分类器指导](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.12598) 的尺度：\n```py\nprompts = [\"一位宇航员骑马的照片\"]\nimages = pipeline.generate(prompts, cfg_scale=11)\n```\n\n...或者禁用无分类器指导：\n```py\nprompts = [\"一位宇航员骑马的照片\"]\nimages = pipeline.generate(prompts, do_cfg=False)\n```\n\n减少采样步数（生成速度更快，但质量较低）：\n```py\nprompts = [\"一位宇航员骑马的照片\"]\nimages = pipeline.generate(prompts, n_inference_steps=28)\n```\n\n使用不同的采样器：\n```py\nprompts = [\"一位宇航员骑马的照片\"]\nimages = pipeline.generate(prompts, sampler=\"k_euler\")\n# 可选的采样器有 \"k_lms\"（默认）、\"k_euler\" 或 \"k_euler_ancestral\"\n```\n\n生成自定义尺寸的图像：\n```py\nprompts = [\"一位宇航员骑马的照片\"]\nimages = pipeline.generate(prompts，height=512，width=768）\n```\n\n## 许可协议\n\n本仓库中的所有代码均采用 MIT 许可协议。详情请参阅 LICENSE 文件。\n\n需要注意的是，稳定扩散的检查点文件采用 [CreativeML Open RAIL-M](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FCompVis\u002Fstable-diffusion-license) 许可协议。该协议包含基于用途的限制条款，建议您仔细阅读。","# stable-diffusion-pytorch 快速上手指南\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：建议 Python 3.8+\n*   **硬件要求**：\n    *   推荐使用 NVIDIA GPU（需安装 CUDA 驱动）以获得最佳生成速度。\n    *   若显存不足，支持将模型加载至 CPU 运行（速度较慢）。\n*   **前置依赖库**：\n    *   PyTorch\n    *   Numpy\n    *   Pillow\n    *   regex\n    *   tqdm\n\n> **提示**：国内用户安装 PyTorch 时，建议使用官方提供的国内镜像源加速下载。例如：\n> `pip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118` (根据实际 CUDA 版本调整)\n\n## 安装步骤\n\n1.  **克隆项目代码**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fkjsman\u002Fstable-diffusion-pytorch.git\n    cd stable-diffusion-pytorch\n    ```\n\n2.  **安装 Python 依赖**\n    ```bash\n    pip install torch numpy Pillow regex tqdm\n    # 或者使用 requirements.txt\n    # pip install -r requirements.txt\n    ```\n\n3.  **下载模型数据**\n    本项目不包含预训练权重，需手动下载并解压到指定目录。\n    \n    *   下载地址：[data.v20221029.tar](https:\u002F\u002Fhuggingface.co\u002Fjinseokim\u002Fstable-diffusion-pytorch-data\u002Fresolve\u002Fmain\u002Fdata.v20221029.tar)\n    *   **注意**：请确保解压后的目录结构如下所示（`data` 文件夹需位于 `stable-diffusion-pytorch` 项目的父级或同级特定位置，具体参照下方结构）：\n\n    ```text\n    stable-diffusion-pytorch(-main)\u002F\n    ├─ data\u002F\n    │  ├─ ckpt\u002F\n    │  ├─ ...\n    ├─ stable_diffusion_pytorch\u002F\n    │  ├─ samplers\u002F\n    └  ┴─ ...\n    ```\n    *请仔细阅读模型文件的 [CreativeML Open RAIL-M 许可协议](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FCompVis\u002Fstable-diffusion-license)，确认符合使用规范。*\n\n## 基本使用\n\n将 `stable_diffusion_pytorch` 作为子模块导入即可使用。以下是文生图（Text-to-Image）的最简示例：\n\n### 1. 基础文生图\n\n```py\nfrom stable_diffusion_pytorch import pipeline\n\nprompts = [\"a photograph of an astronaut riding a horse\"]\nimages = pipeline.generate(prompts)\nimages[0].save('output.jpg')\n```\n\n### 2. 进阶用法示例\n\n**设置随机种子（复现结果）：**\n```py\nprompts = [\"a photograph of an astronaut riding a horse\"]\nimages = pipeline.generate(prompts, seed=42)\n```\n\n**使用负向提示词（Unconditional Prompts）：**\n```py\nprompts = [\"a photograph of an astronaut riding a horse\"]\nuncond_prompts = [\"low quality\"]\nimages = pipeline.generate(prompts, uncond_prompts)\n```\n\n**显存优化（CPU 预加载，按需移至 GPU）：**\n如果您的显存较小但内存充足，可使用以下模式避免 OOM：\n```py\nfrom stable_diffusion_pytorch import model_loader\n\n# 先将模型加载到 CPU\nmodels = model_loader.preload_models('cpu')\n\nprompts = [\"a photograph of an astronaut riding a horse\"]\n# 生成时自动移入 cuda，空闲时移回 cpu\nimages = pipeline.generate(prompts, models=models, device='cuda', idle_device='cpu')\n```\n\n**图生图（Image-to-Image）：**\n```py\nfrom PIL import Image\n\nprompts = [\"a photograph of an astronaut riding a horse\"]\ninput_images = [Image.open('space.jpg')]\n# strength 控制重绘幅度 (0.0 - 1.0)\nimages = pipeline.generate(prompts, input_images=input_images, strength=0.6)\n```\n\n**更换采样器与步数：**\n```py\nprompts = [\"a photograph of an astronaut riding a horse\"]\n# 可选采样器：\"k_lms\" (默认), \"k_euler\", \"k_euler_ancestral\"\nimages = pipeline.generate(prompts, sampler=\"k_euler\", n_inference_steps=28)\n```","某独立游戏开发者需要在本地快速原型化多种风格的角色概念图，以便在资源受限的开发机上灵活调整生成逻辑。\n\n### 没有 stable-diffusion-pytorch 时\n- 依赖庞大的官方仓库或黑盒 API，代码库臃肿且难以理解内部机制，无法针对特定游戏风格微调采样器。\n- 显存管理僵化，在仅有中等显存的开发机上运行极易发生 OOM（内存溢出）崩溃，导致实验频繁中断。\n- 缺乏透明的负向提示词（unconditional prompts）控制接口，难以精确剔除“低质量”或不符合设定的画面元素。\n- 想要复现特定随机种子下的结果以进行版本对比时，现有工具链配置繁琐，难以保证一致性。\n- 进行图生图（Image-to-Image）迭代时，无法灵活调整重绘强度（strength），导致修改幅度过大或过小。\n\n### 使用 stable-diffusion-pytorch 后\n- 借助其极简、自包含的代码结构，开发者能轻松阅读并修改底层逻辑，快速定制专属的游戏美术风格采样策略。\n- 利用灵活的模型加载机制，可将模型暂存 CPU 并在需要时动态移至 GPU，完美解决显存不足问题，实现流畅运行。\n- 通过原生支持的负向提示词参数，精准过滤掉“模糊”、“变形”等无效产出，显著提升概念图的可用性。\n- 直接传入 seed 参数即可一键复现完全相同的图像，方便团队对同一构思的不同变体进行细致比对和筛选。\n- 在图生图流程中自由设定 strength 值，既能保留角色原貌又能局部重绘装备细节，大幅加速迭代效率。\n\nstable-diffusion-pytorch 以其极高的可读性和灵活的显存管理，让资源有限的开发者也能深度掌控生成式 AI 的每一个细节。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkjsman_stable-diffusion-pytorch_c5b28d16.png","kjsman","Jinseo Kim","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fkjsman_31c1b9c6.jpg","KAIST CS \u002F Security \u002F Web \u002F AI","KAIST","Daejeon, Korea, Republic of",null,"https:\u002F\u002Fjinseo.kim","https:\u002F\u002Fgithub.com\u002Fkjsman",[82,86],{"name":83,"color":84,"percentage":85},"Python","#3572A5",89.3,{"name":87,"color":88,"percentage":89},"Jupyter Notebook","#DA5B0B",10.7,595,63,"2026-03-28T06:46:56","MIT","未说明","非必需（支持 CPU 运行），若使用 GPU 需 NVIDIA 显卡；建议显存充足以预加载模型，否则可配置为按需加载至 GPU 并使用 CPU 作为空闲设备","未说明（若显存不足需依赖系统 RAM 进行模型交换）",{"notes":98,"python":94,"dependencies":99},"该项目是 Stable Diffusion v1.x 的极简 PyTorch 实现。需手动下载约数 GB 的模型数据文件（data.v20221029.tar）并解压到特定目录结构方可运行。模型权重文件遵循 CreativeML Open RAIL-M 许可证，使用前需同意相关条款。代码支持通过参数配置在显存不足时将模型保留在 CPU，仅在推理时移至 GPU。",[100,101,102,103,104],"torch","numpy","Pillow","regex","tqdm",[15,14],[107,108,109,110],"diffusion","image-generation","pytorch","stable-diffusion","2026-03-27T02:49:30.150509","2026-04-15T08:09:37.846315",[114,119,124],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},34068,"4GB 显存是否太小而无法运行此程序？遇到 CUDA 内存不足（OOM）错误怎么办？","是的，该仓库是一个纯 Python 编写的参考实现，专注于代码清晰度，因此没有包含复杂的显存管理逻辑（如切片注意力机制或特定的 CUDA 优化），在小显存设备上容易遇到 OOM 错误。\n解决方案：\n1. 推荐使用 HuggingFace 的 Diffusers 库，它提供了完善的显存优化配置（如 fp16 精度、模型加载优化等）。\n2. 如果必须使用此代码，可以尝试手动修改代码以实现“切片注意力（sliced attention）”或其他减少显存占用的方法，但这需要牺牲一定的速度并自行实现数据分片逻辑。","https:\u002F\u002Fgithub.com\u002Fkjsman\u002Fstable-diffusion-pytorch\u002Fissues\u002F9",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},34069,"为什么在编码（Encode）过程中输入图像会发生偏移（例如向下偏移 8px）并产生边框？","这是由于编码器（Encoder）中的填充（padding）实现方式与原始 Stable Diffusion 实现不一致导致的。具体来说，在下采样 Conv2d 层时的填充处理存在差异。\n临时修复方案：移除下采样 Conv2d 层的填充，并在 forward 方法中手动实现填充（因为 PyTorch 原生不支持非对称填充）。\n根本修复方案：添加 `nn.ZeroPad2d` 层以匹配原始实现，但这可能需要重新转换权重文件。维护者已确认该问题并计划推送修复。","https:\u002F\u002Fgithub.com\u002Fkjsman\u002Fstable-diffusion-pytorch\u002Fissues\u002F8",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},34070,"该项目是否支持图像修复（inpaint）、擦除替换（erase and replace）和外绘（outpainting）功能？","目前该仓库尚未实现这些功能。维护者表示有计划在未来添加这些功能，但由于个人学业安排（如准备入学考试），短期内可能无法更新。建议关注仓库后续动态或暂时使用其他支持这些功能的成熟库（如 Diffusers）。","https:\u002F\u002Fgithub.com\u002Fkjsman\u002Fstable-diffusion-pytorch\u002Fissues\u002F5",[]]