[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-divamgupta--stable-diffusion-tensorflow":3,"tool-divamgupta--stable-diffusion-tensorflow":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":79,"owner_twitter":75,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":10,"env_os":92,"env_gpu":93,"env_ram":94,"env_deps":95,"category_tags":109,"github_topics":79,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":110,"updated_at":111,"faqs":112,"releases":143},1181,"divamgupta\u002Fstable-diffusion-tensorflow","stable-diffusion-tensorflow","Stable Diffusion in TensorFlow \u002F Keras","Stable Diffusion in TensorFlow \u002F Keras 是一个基于 TensorFlow 和 Keras 实现的稳定扩散模型，能够根据文本生成高质量的图像。它将原始模型的权重移植到 TensorFlow 框架中，便于开发者在该生态中使用。工具提供了多种 Colab 笔记本，方便用户快速上手，支持从文本生成图像、图像到图像的修改、修复以及纹理生成等多种功能。适合开发者和研究人员使用，尤其适合希望在 TensorFlow 环境中进行图像生成实验的人群。其技术亮点包括高效的 GPU 加速和对混合精度的支持，能够在保持图像质量的同时提升生成速度。","# Stable Diffusion in TensorFlow \u002F Keras\n\nA Keras \u002F Tensorflow implementation of Stable Diffusion. \n\nThe weights were ported from the original implementation.\n\n## Colab Notebooks\n\nThe easiest way to try it out is to use one of the Colab notebooks:\n\n\n- [GPU Colab](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1zVTa4mLeM_w44WaFwl7utTaa6JcaH1zK)\n- [GPU Colab Img2Img](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1gol0M611zXP6Zpggfri-fG8JDdpMEpsI?usp=sharing)\n- [GPU Colab Inpainting](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1Bf-bNmAdtQhPcYNyC-guu0uTu9MYYfLu)\n- [GPU Colab - Tile \u002F Texture generation](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1xCxsNvQMEywzlqbjH4tGfEyXamSAeFbn?usp=sharing)\n- [GPU Colab - Loading Pytorch ckpt Weights](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1wUdqxji-jxkThYf0OVW3F-0VVpTFdjMa?usp=sharing)\n- [GPU Colab + Mixed Precision](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F15mQgITh3e9HQMNys0zR8JN4R2vp06d-N)\n  - ~10s generation time per image (512x512) on default Colab GPU without drop in quality\n    ([source](https:\u002F\u002Ftwitter.com\u002Ffchollet\u002Fstatus\u002F1571954014845308928))\n- [TPU Colab](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F17zQOm_2Iu6pcP8otT-v6rx0D-pKgfaLm).\n  - Slower than GPU for single-image generation, faster for large batch of 8+ images\n    ([source](https:\u002F\u002Ftwitter.com\u002Ffchollet\u002Fstatus\u002F1572004717362028546)).\n- [GPU Colab with Gradio](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1ANTUur1MF9DKNd5-BTWhbWa7xUBfCWyI)\n- [GPU Colab - Video Generation](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1aUkXK4zE61iswyYBpUosz730bniNKqk_)\n\n\n\n## Installation\n\n### Install as a python package\n\nInstall using pip with the git repo:\n\n```bash\npip install git+https:\u002F\u002Fgithub.com\u002Fdivamgupta\u002Fstable-diffusion-tensorflow\n```\n\n### Installing using the repo\n\nDownload the repo, either by downloading the\n[zip](https:\u002F\u002Fgithub.com\u002Fdivamgupta\u002Fstable-diffusion-tensorflow\u002Farchive\u002Frefs\u002Fheads\u002Fmaster.zip)\nfile or by cloning the repo with git:\n\n```bash\ngit clone git@github.com:divamgupta\u002Fstable-diffusion-tensorflow.git\n```\n\n#### Using pip without a virtual environment\n\nInstall dependencies using the `requirements.txt` file or the `requirements_m1.txt` file,:\n\n```bash\npip install -r requirements.txt\n```\n\n#### Using a virtual environment with *virtualenv*\n\n1) Create your virtual environment for `python3`:\n\n    ```bash\n    python3 -m venv venv\n    ```\n   \n2) Activate your virtualenv:\n\n    ```bash\n    source venv\u002Fbin\u002Factivate\n    ```\n\n3) Install dependencies using the `requirements.txt` file or the `requirements_m1.txt` file,:\n\n    ```bash\n    pip install -r requirements.txt\n    ```\n\n## Usage\n\n### Using the Python interface\n\nIf you installed the package, you can use it as follows:\n\n```python\nfrom stable_diffusion_tf.stable_diffusion import StableDiffusion\nfrom PIL import Image\n\ngenerator = StableDiffusion(\n    img_height=512,\n    img_width=512,\n    jit_compile=False,\n)\nimg = generator.generate(\n    \"An astronaut riding a horse\",\n    num_steps=50,\n    unconditional_guidance_scale=7.5,\n    temperature=1,\n    batch_size=1,\n)\n\n# for image to image :\nimg = generator.generate(\n    \"A Halloween bedroom\",\n    num_steps=50,\n    unconditional_guidance_scale=7.5,\n    temperature=1,\n    batch_size=1,\n    input_image=\"\u002Fpath\u002Fto\u002Fimg.png\"\n)\n\n\nImage.fromarray(img[0]).save(\"output.png\")\n```\n\n### Using `text2image.py` from the git repo\n\nAssuming you have installed the required packages, \nyou can generate images from a text prompt using:\n\n```bash\npython text2image.py --prompt=\"An astronaut riding a horse\"\n```\n\nThe generated image will be named `output.png` on the root of the repo.\nIf you want to use a different name, use the `--output` flag.\n\n```bash\npython text2image.py --prompt=\"An astronaut riding a horse\" --output=\"my_image.png\"\n```\n\nCheck out the `text2image.py` file for more options, including image size, number of steps, etc.  \n### Using `img2img.py` from the git repo\n\nAssuming you have installed the required packages, \nyou can modify images from a text prompt using:\n\n```bash\npython img2img.py --prompt=\"a high quality sketch of people standing with sun and grass , watercolor , pencil color\" --input=\"img.jpeg\"\n```\n\nThe generated image will be named `img2img-out.jpeg` by default on the root of the repo.\nIf you want to use a different name, use the `--output` flag.  \n\nCheck out the `img2img.py` file for more options, including the number of steps.\n\n## Example outputs \n\nThe following outputs have been generated using this implementation:\n\n1) *A epic and beautiful rococo werewolf drinking coffee, in a burning coffee shop. ultra-detailed. anime, pixiv, uhd 8k cryengine, octane render*\n\n![a](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdivamgupta_stable-diffusion-tensorflow_readme_9a50ea7e5069.png)\n\n\n2) *Spider-Gwen Gwen-Stacy Skyscraper Pink White Pink-White Spiderman Photo-realistic 4K*\n\n![a](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdivamgupta_stable-diffusion-tensorflow_readme_b445529a0519.png)\n\n\n3) *A vision of paradise, Unreal Engine*\n\n![a](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdivamgupta_stable-diffusion-tensorflow_readme_cee52821b9bc.png)\n\n### Inpainting\n\n![a](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdivamgupta_stable-diffusion-tensorflow_readme_9c0389b4c1b7.png)\n\n### Image2Image\n\n1) *a high quality sketch of people standing with sun and grass , watercolor , pencil color*\n\u003Cimg width=\"884\" alt=\"Screen Shot 2022-10-09 at 9 34 30 AM\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdivamgupta_stable-diffusion-tensorflow_readme_a7fcf2759933.png\">\n\n### Keras Stable Diffusion Video Generation\n\n1) *A beautiful street view of prague, artstation concept art, extremely detailed oil painting, vivid colors*\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F63783894\u002F201447745-6a3a96f4-f065-4e54-be5d-01941475a31c.mp4\n\n\n## References\n\n1) https:\u002F\u002Fgithub.com\u002FCompVis\u002Fstable-diffusion\n2) https:\u002F\u002Fgithub.com\u002Fgeohot\u002Ftinygrad\u002Fblob\u002Fmaster\u002Fexamples\u002Fstable_diffusion.py\n","# TensorFlow \u002F Keras 中的 Stable Diffusion\n\nStable Diffusion 的 Keras \u002F TensorFlow 实现。\n\n权重是从原始实现移植而来的。\n\n## Colab 笔记本\n\n尝试它的最简单方法是使用其中一个 Colab 笔记本：\n\n\n- [GPU Colab](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1zVTa4mLeM_w44WaFwl7utTaa6JcaH1zK)\n- [GPU Colab 图像到图像](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1gol0M611zXP6Zpggfri-fG8JDdpMEpsI?usp=sharing)\n- [GPU Colab 修复绘画](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1Bf-bNmAdtQhPcYNyC-guu0uTu9MYYfLu)\n- [GPU Colab - 平铺\u002F纹理生成](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1xCxsNvQMEywzlqbjH4tGfEyXamSAeFbn?usp=sharing)\n- [GPU Colab - 加载 PyTorch 检查点权重](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1wUdqxji-jxkThYf0OVW3F-0VVpTFdjMa?usp=sharing)\n- [GPU Colab + 混合精度](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F15mQgITh3e9HQMNys0zR8JN4R2vp06d-N)\n  - 在默认 Colab GPU 上，每张 512x512 图像的生成时间约为 10 秒，且质量无明显下降\n    ([来源](https:\u002F\u002Ftwitter.com\u002Ffchollet\u002Fstatus\u002F1571954014845308928))\n- [TPU Colab](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F17zQOm_2Iu6pcP8otT-v6rx0D-pKgfaLm)。\n  - 对于单张图像生成，TPU 比 GPU 慢；但对于 8 张及以上的大批量图像生成，则更快\n    ([来源](https:\u002F\u002Ftwitter.com\u002Ffchollet\u002Fstatus\u002F1572004717362028546))。\n- [GPU Colab with Gradio](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1ANTUur1MF9DKNd5-BTWhbWa7xUBfCWyI)\n- [GPU Colab - 视频生成](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1aUkXK4zE61iswyYBpUosz730bniNKqk_)\n\n\n\n## 安装\n\n### 作为 Python 包安装\n\n使用 pip 和 git 仓库进行安装：\n\n```bash\npip install git+https:\u002F\u002Fgithub.com\u002Fdivamgupta\u002Fstable-diffusion-tensorflow\n```\n\n### 使用仓库安装\n\n下载仓库，可以通过下载\n[zip](https:\u002F\u002Fgithub.com\u002Fdivamgupta\u002Fstable-diffusion-tensorflow\u002Farchive\u002Frefs\u002Fheads\u002Fmaster.zip)\n文件，或使用 git 克隆仓库：\n\n```bash\ngit clone git@github.com:divamgupta\u002Fstable-diffusion-tensorflow.git\n```\n\n#### 不使用虚拟环境直接用 pip 安装\n\n使用 `requirements.txt` 或 `requirements_m1.txt` 文件安装依赖项：\n\n```bash\npip install -r requirements.txt\n```\n\n#### 使用 *virtualenv* 创建虚拟环境\n\n1) 为 `python3` 创建虚拟环境：\n\n    ```bash\n    python3 -m venv venv\n    ```\n   \n2) 激活虚拟环境：\n\n    ```bash\n    source venv\u002Fbin\u002Factivate\n    ```\n\n3) 使用 `requirements.txt` 或 `requirements_m1.txt` 文件安装依赖项：\n\n    ```bash\n    pip install -r requirements.txt\n    ```\n\n## 使用\n\n### 使用 Python 接口\n\n如果您已安装该包，可以按如下方式使用：\n\n```python\nfrom stable_diffusion_tf.stable_diffusion import StableDiffusion\nfrom PIL import Image\n\ngenerator = StableDiffusion(\n    img_height=512,\n    img_width=512,\n    jit_compile=False,\n)\nimg = generator.generate(\n    \"一名宇航员骑着马\",\n    num_steps=50,\n    unconditional_guidance_scale=7.5,\n    temperature=1,\n    batch_size=1,\n)\n\n# 图像到图像：\nimg = generator.generate(\n    \"万圣节主题的卧室\",\n    num_steps=50,\n    unconditional_guidance_scale=7.5,\n    temperature=1,\n    batch_size=1,\n    input_image=\"\u002Fpath\u002Fto\u002Fimg.png\"\n)\n\n\nImage.fromarray(img[0]).save(\"output.png\")\n```\n\n### 使用 git 仓库中的 `text2image.py`\n\n假设您已安装所需软件包，可以使用以下命令从文本提示生成图像：\n\n```bash\npython text2image.py --prompt=\"一名宇航员骑着马\"\n```\n\n生成的图像将命名为 `output.png`，位于仓库根目录下。如果需要使用其他名称，请使用 `--output` 标志。\n\n```bash\npython text2image.py --prompt=\"一名宇航员骑着马\" --output=\"my_image.png\"\n```\n\n请查看 `text2image.py` 文件以获取更多选项，包括图像尺寸、步数等。  \n### 使用 git 仓库中的 `img2img.py`\n\n假设您已安装所需软件包，可以使用以下命令根据文本提示修改图像：\n\n```bash\npython img2img.py --prompt=\"一幅高质量的人们站在阳光和草地前的素描，水彩，彩色铅笔\" --input=\"img.jpeg\"\n```\n\n生成的图像默认命名为 `img2img-out.jpeg`，位于仓库根目录下。如果需要使用其他名称，请使用 `--output` 标志。  \n\n请查看 `img2img.py` 文件以获取更多选项，包括步数等。\n\n## 示例输出 \n\n以下输出是使用此实现生成的：\n\n1) *一场壮丽而美丽的洛可可风格狼人正在燃烧的咖啡店里喝咖啡。超精细。动漫，pixiv，uhd 8k cryengine，octane 渲染*\n\n![a](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdivamgupta_stable-diffusion-tensorflow_readme_9a50ea7e5069.png)\n\n\n2) *蜘蛛侠格温·斯泰西摩天大楼粉白配色写实照片级 4K*\n\n![a](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdivamgupta_stable-diffusion-tensorflow_readme_b445529a0519.png)\n\n\n3) *天堂景象，虚幻引擎*\n\n![a](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdivamgupta_stable-diffusion-tensorflow_readme_cee52821b9bc.png)\n\n### 修复绘画\n\n![a](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdivamgupta_stable-diffusion-tensorflow_readme_9c0389b4c1b7.png)\n\n### 图像到图像\n\n1) *一幅高质量的人们站在阳光和草地前的素描，水彩，彩色铅笔*\n\u003Cimg width=\"884\" alt=\"Screen Shot 2022-10-09 at 9 34 30 AM\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdivamgupta_stable-diffusion-tensorflow_readme_a7fcf2759933.png\">\n\n### Keras Stable Diffusion 视频生成\n\n1) *布拉格美丽的街景，artstation 概念艺术，极其细致的油画，色彩鲜明*\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F63783894\u002F201447745-6a3a96f4-f065-4e54-be5d-01941475a31c.mp4\n\n\n## 参考文献\n\n1) https:\u002F\u002Fgithub.com\u002FCompVis\u002Fstable-diffusion\n2) https:\u002F\u002Fgithub.com\u002Fgeohot\u002Ftinygrad\u002Fblob\u002Fmaster\u002Fexamples\u002Fstable_diffusion.py","# Stable Diffusion in TensorFlow 快速上手指南\n\n## 环境准备\n\n### 系统要求\n- 操作系统：Linux \u002F macOS \u002F Windows（推荐使用 Linux 或 macOS）\n- Python 版本：3.8 或以上\n- GPU 支持（可选）：用于加速生成过程，建议使用 CUDA 支持的 NVIDIA GPU\n\n### 前置依赖\n- Python 3.8+\n- pip\n- Git（用于克隆仓库）\n\n## 安装步骤\n\n### 安装为 Python 包\n```bash\npip install git+https:\u002F\u002Fgithub.com\u002Fdivamgupta\u002Fstable-diffusion-tensorflow\n```\n\n### 从源码安装\n```bash\ngit clone git@github.com:divamgupta\u002Fstable-diffusion-tensorflow.git\ncd stable-diffusion-tensorflow\npip install -r requirements.txt\n```\n\n> 如果使用国内网络，可以尝试添加镜像源以加快下载速度：\n> ```bash\n> pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 基本使用\n\n### 使用 Python 接口生成图像\n```python\nfrom stable_diffusion_tf.stable_diffusion import StableDiffusion\nfrom PIL import Image\n\ngenerator = StableDiffusion(\n    img_height=512,\n    img_width=512,\n    jit_compile=False,\n)\nimg = generator.generate(\n    \"An astronaut riding a horse\",\n    num_steps=50,\n    unconditional_guidance_scale=7.5,\n    temperature=1,\n    batch_size=1,\n)\n\nImage.fromarray(img[0]).save(\"output.png\")\n```\n\n### 使用 `text2image.py` 生成图像\n```bash\npython text2image.py --prompt=\"An astronaut riding a horse\"\n```\n生成的图片默认保存为 `output.png`，可通过 `--output` 指定输出路径。\n\n### 使用 `img2img.py` 进行图像修改\n```bash\npython img2img.py --prompt=\"a high quality sketch of people standing with sun and grass , watercolor , pencil color\" --input=\"img.jpeg\"\n```\n生成的图片默认保存为 `img2img-out.jpeg`，可通过 `--output` 指定输出路径。","某游戏开发团队正在为一款奇幻题材的独立游戏设计大量角色和场景素材。由于预算有限，他们无法雇佣专业插画师，只能依靠内部美术人员手动绘制，效率低下且难以满足需求。\n\n### 没有 stable-diffusion-tensorflow 时  \n- 美术人员需要花费大量时间手动绘制每个角色和场景，进度缓慢  \n- 需要反复修改和调整，导致迭代周期长、成本高  \n- 缺乏多样化的视觉风格，难以满足游戏世界观的丰富性  \n\n### 使用 stable-diffusion-tensorflow 后  \n- 可通过文本提示快速生成多种风格的角色和场景概念图，大幅提升创作效率  \n- 支持图像到图像的修改，便于对生成结果进行微调和优化  \n- 提供丰富的视觉变化，帮助团队探索更多创意方向  \n\n通过直接调用模型接口，团队能够在短时间内获得高质量的视觉素材，显著降低了开发成本并提升了创意产出的多样性。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdivamgupta_stable-diffusion-tensorflow_9a50ea7e.png","divamgupta","Divam Gupta","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdivamgupta_6a843d0f.jpg","Creator of one-click ML tool - Liner.ai • AI for VR @ Meta • Previously: research @ Microsoft , robotics @ CMU",null,"San Francisco, United States","https:\u002F\u002Fdivamgupta.com\u002F","https:\u002F\u002Fgithub.com\u002Fdivamgupta",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,1612,234,"2026-04-03T20:05:41","NOASSERTION","Linux, macOS, Windows","需要 NVIDIA GPU，显存 8GB+，CUDA 11.7+","16GB+",{"notes":96,"python":97,"dependencies":98},"建议使用 Colab 运行以避免本地环境配置问题，首次运行需下载约 5GB 模型文件","3.8+",[99,100,101,102,103,104,105,106,107,108],"tensorflow>=2.10","numpy","Pillow","requests","h5py","scikit-learn","tqdm","packaging","pillow","torch",[14,13],"2026-03-27T02:49:30.150509","2026-04-06T06:44:13.653057",[113,118,123,128,133,138],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},5358,"KerasCV 中的 VAEEncoder 存在 bug 如何解决？","需要使用零填充方式 `zero padding of 1 0 1 0` 而不是 `1 1 1 1` 来修复该问题。","https:\u002F\u002Fgithub.com\u002Fdivamgupta\u002Fstable-diffusion-tensorflow\u002Fissues\u002F71",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},5353,"如何在多个 GPU 上运行 Stable Diffusion？","可以通过 TensorFlow 的 MirroredStrategy 配置多 GPU 支持。示例代码如下：\r\n\r\n```python\r\nstrategy = tf.distribute.MirroredStrategy([\"GPU:0\", \"GPU:1\"])\r\n```\r\n但需注意，如果只使用一个 GPU 或性能无明显提升，可能是模型未正确配置或数据并行未生效。","https:\u002F\u002Fgithub.com\u002Fdivamgupta\u002Fstable-diffusion-tensorflow\u002Fissues\u002F26",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},5354,"如何解决 M1 Mac 上的依赖问题？","可以尝试安装特定版本的 tensorflow-io，命令为：`pip install git+https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fio.git`。此外，确保 Python 版本兼容，并参考 PR #5 中的 requirements.txt 文件。","https:\u002F\u002Fgithub.com\u002Fdivamgupta\u002Fstable-diffusion-tensorflow\u002Fissues\u002F1",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},5355,"为什么在 M1 Mac 上运行速度比 DiffusionBee 慢？","可能与内存限制、框架选择（TensorFlow vs PyTorch）以及模型优化有关。建议检查是否正确安装了 TensorFlow GPU 支持，并尝试降低图像分辨率以提高速度。","https:\u002F\u002Fgithub.com\u002Fdivamgupta\u002Fstable-diffusion-tensorflow\u002Fissues\u002F52",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},5356,"能否生成非正方形图片？","目前不支持直接生成非正方形图片，但可以尝试将高度和宽度设置为 128 的倍数，例如 640x340 可能会工作。","https:\u002F\u002Fgithub.com\u002Fdivamgupta\u002Fstable-diffusion-tensorflow\u002Fissues\u002F30",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},5357,"如何使用负向提示词？","负向提示词可通过修改 unconditional guidance 的默认空字符串实现。当前代码中该值被硬编码为空字符串，可自行修改以支持任意负向提示词。","https:\u002F\u002Fgithub.com\u002Fdivamgupta\u002Fstable-diffusion-tensorflow\u002Fissues\u002F48",[]]