[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-benrugg--AI-Render":3,"similar-benrugg--AI-Render":189},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":9,"readme_en":10,"readme_zh":11,"quickstart_zh":12,"use_case_zh":13,"hero_image_url":14,"owner_login":15,"owner_name":16,"owner_avatar_url":17,"owner_bio":18,"owner_company":19,"owner_location":18,"owner_email":18,"owner_twitter":18,"owner_website":20,"owner_url":21,"languages":22,"stars":31,"forks":32,"last_commit_at":33,"license":34,"difficulty_score":35,"env_os":36,"env_gpu":37,"env_ram":38,"env_deps":39,"category_tags":45,"github_topics":50,"view_count":35,"oss_zip_url":18,"oss_zip_packed_at":18,"status":54,"created_at":55,"updated_at":56,"faqs":57,"releases":88},6320,"benrugg\u002FAI-Render","AI-Render","Stable Diffusion in Blender","AI-Render 是一款专为 Blender 设计的插件，它将强大的 Stable Diffusion 人工智能图像生成能力无缝集成到熟悉的 3D 创作流程中。用户只需输入文字描述，即可结合当前的 3D 场景快速生成高质量的 AI 图像，无需在本地配置复杂的代码环境或拥有昂贵的显卡资源。\n\n这款工具主要解决了传统 3D 渲染耗时较长以及艺术家难以将 AI 创意快速融入工作流的痛点。它让创作者能够利用 AI 加速概念设计、材质探索及背景生成，极大地提升了从构思到视觉呈现的效率。无论是专业的 3D 设计师、数字艺术家，还是对 AI 绘图感兴趣的普通爱好者，都能通过它轻松上手。\n\nAI-Render 的独特亮点在于其深度的动画支持功能。它不仅允许用户使用 Blender 原生的动画工具制作视频，还能直接对 Stable Diffusion 的参数甚至提示词（Prompt）进行关键帧动画处理，从而实现动态变化的 AI 艺术效果。此外，它还支持批量处理模式，方便用户一次性测试多种风格设定。该插件兼容 Windows、Mac 和 Linux 系统，既支持云端调用，也允许进阶用户连接本地的 Aut","AI-Render 是一款专为 Blender 设计的插件，它将强大的 Stable Diffusion 人工智能图像生成能力无缝集成到熟悉的 3D 创作流程中。用户只需输入文字描述，即可结合当前的 3D 场景快速生成高质量的 AI 图像，无需在本地配置复杂的代码环境或拥有昂贵的显卡资源。\n\n这款工具主要解决了传统 3D 渲染耗时较长以及艺术家难以将 AI 创意快速融入工作流的痛点。它让创作者能够利用 AI 加速概念设计、材质探索及背景生成，极大地提升了从构思到视觉呈现的效率。无论是专业的 3D 设计师、数字艺术家，还是对 AI 绘图感兴趣的普通爱好者，都能通过它轻松上手。\n\nAI-Render 的独特亮点在于其深度的动画支持功能。它不仅允许用户使用 Blender 原生的动画工具制作视频，还能直接对 Stable Diffusion 的参数甚至提示词（Prompt）进行关键帧动画处理，从而实现动态变化的 AI 艺术效果。此外，它还支持批量处理模式，方便用户一次性测试多种风格设定。该插件兼容 Windows、Mac 和 Linux 系统，既支持云端调用，也允许进阶用户连接本地的 Automatic1111 服务，为不同需求的用户提供灵活的选择。","# AI Render - Stable Diffusion in Blender\n\nRender with Stable Diffusion in Blender. This add-on renders an AI generated image based on a text prompt and your scene.\n\nCreate incredible AI generated images with Stable Diffusion easily, without running any code on your own computer!\n\n\n## Installation\n\n- Get AI Render on [Blender Market](https:\u002F\u002Fblendermarket.com\u002Fproducts\u002Fai-render) or [Gumroad](https:\u002F\u002Fairender.gumroad.com\u002Fl\u002Fai-render)\n- Open Blender, then go to Edit > Preferences > Add-ons > Install and then find the zip file\n\n(You can also download for free on the [releases page](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Freleases))\n\n\n## Demo\n\n[![Watch the demo video](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbenrugg_AI-Render_readme_c02b06c547c9.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=PXBXix2WzX4)\n\n\n## Tutorial\n\n[![Watch the tutorial video](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbenrugg_AI-Render_readme_3218efa527a8.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=tmyln5bwnO8)\n\n\n## Platforms\n\nAI Render works on Windows, Mac and Linux. Blender 3.0.0+ is supported.\n\n\n## Prompt Help \u002F FAQ\n\nSee the wiki for [help with prompt engineering and ideas](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fwiki\u002FPrompt-Engineering), and for [Frequently Asked Questions](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fwiki\u002FFAQ).\n\n\n## Local Installation of Stable Diffusion\n\nAI Render supports running Stable Diffusion locally with the `Automatic1111 Stable Diffusion Web UI`. See the [local installation instructions](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fwiki\u002FLocal-Installation).\n\n\n## Animation\n\nYou can render animations with AI Render, with all of Blender's animation tools, as well the ability to animate Stable Diffusion settings and even prompt text!\n\nYou can also use animation for **batch processing** - for example, to try many different settings or prompts.\n\nSee the [Animation Instructions and Tips](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fwiki\u002FAnimation).\n\n\n## Bug Reporting and Feature Requests\n\nHelp make the add-on better by reporting any bugs (big or small) or requesting new features:\n\n- [Report a Bug](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fissues\u002Fnew?assignees=&labels=&template=bug-report.yaml)\n- [Request a Feature](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fissues\u002Fnew?assignees=&labels=&template=feature-request.yaml)\n\n\n## Share images and feedback!\n\nPlease share images you make! Tweet them at [@ai_render](https:\u002F\u002Ftwitter.com\u002FAI_render) or tag [@airenderblender](https:\u002F\u002Fwww.instagram.com\u002Fairenderblender\u002F) on Instagram. On both platforms, use hashtags #airender #aiart #stableDiffusion.\n\nIf you have ideas for prompts that could become preset styles, or if you have any other feedback, email airenderblender@gmail.com. Thank you for being part of the community!\n\n\n## Future Enhancements\n\nFeel free to [request new features or enhancements](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fissues\u002Fnew?assignees=&labels=&template=feature-request.yaml).\n\n\n## Contributing\n\nPlease collaborate and contribute! See the [Contributing doc](CONTRIBUTING.md) to get started.\n\nOr [suggest new preset styles](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fissues\u002Fnew?assignees=&labels=&template=preset-style-suggestion.yaml) for everyone to use.\n","# AI 渲染 - Blender 中的 Stable Diffusion\n\n在 Blender 中使用 Stable Diffusion 进行渲染。此插件可根据文本提示和您的场景，渲染出由 AI 生成的图像。\n\n无需在本地运行任何代码，即可轻松创建令人惊叹的 AI 生成图像！\n\n\n## 安装\n\n- 在 [Blender Market](https:\u002F\u002Fblendermarket.com\u002Fproducts\u002Fai-render) 或 [Gumroad](https:\u002F\u002Fairender.gumroad.com\u002Fl\u002Fai-render) 上购买 AI Render。\n- 打开 Blender，依次进入 编辑 > 首选项 > 插件 > 安装，然后找到下载的 ZIP 文件。\n\n（您也可以在 [发布页面](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Freleases) 上免费下载）\n\n\n## 演示\n\n[![观看演示视频](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbenrugg_AI-Render_readme_c02b06c547c9.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=PXBXix2WzX4)\n\n\n## 教程\n\n[![观看教程视频](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbenrugg_AI-Render_readme_3218efa527a8.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=tmyln5bwnO8)\n\n\n## 支持平台\n\nAI Render 支持 Windows、Mac 和 Linux 系统。兼容 Blender 3.0.0 及以上版本。\n\n\n## 提示帮助与常见问题解答\n\n请参阅维基页面，获取 [提示工程及创意帮助](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fwiki\u002FPrompt-Engineering)，以及 [常见问题解答](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fwiki\u002FFAQ)。\n\n\n## 在本地安装 Stable Diffusion\n\nAI Render 支持通过 `Automatic1111 Stable Diffusion Web UI` 在本地运行 Stable Diffusion。请参阅 [本地安装说明](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fwiki\u002FLocal-Installation)。\n\n\n## 动画\n\n您可以使用 AI Render 渲染动画，充分利用 Blender 的所有动画工具，同时还能对 Stable Diffusion 的设置甚至提示文本进行动画处理！\n\n此外，您还可以利用动画功能进行 **批量处理**——例如，尝试多种不同的设置或提示。\n\n详情请参阅 [动画指南与技巧](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fwiki\u002FAnimation)。\n\n\n## 报告 Bug 与请求功能\n\n请通过报告任何大小的 Bug 或请求新功能，帮助我们改进这款插件：\n\n- [报告 Bug](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fissues\u002Fnew?assignees=&labels=&template=bug-report.yaml)\n- [请求功能](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fissues\u002Fnew?assignees=&labels=&template=feature-request.yaml)\n\n\n## 分享作品与反馈！\n\n欢迎您分享自己创作的作品！请在 Twitter 上@[@ai_render](https:\u002F\u002Ftwitter.com\u002FAI_render)，或在 Instagram 上标记 [@airenderblender](https:\u002F\u002Fwww.instagram.com\u002Fairenderblender\u002F)。在两个平台上，请使用标签 #airender #aiart #stableDiffusion。\n\n如果您有关于可转化为预设风格的提示创意，或有任何其他反馈，欢迎发送邮件至 airenderblender@gmail.com。感谢您成为社区的一员！\n\n\n## 未来改进计划\n\n欢迎您随时 [请求新功能或改进](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fissues\u002Fnew?assignees=&labels=&template=feature-request.yaml)。\n\n\n## 贡献与协作\n\n我们非常欢迎您的参与与贡献！请参阅 [贡献文档](CONTRIBUTING.md)，开始您的贡献之旅。\n\n或者，您也可以 [建议新的预设风格](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fissues\u002Fnew?assignees=&labels=&template=preset-style-suggestion.yaml)，供所有人使用。","# AI-Render 快速上手指南\n\nAI-Render 是一款 Blender 插件，允许用户直接在 Blender 中利用 Stable Diffusion 根据文本提示词和场景渲染生成惊人的 AI 图像，无需在本地编写代码或配置复杂的深度学习环境。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统要求：\n\n*   **操作系统**：Windows、macOS 或 Linux。\n*   **Blender 版本**：3.0.0 或更高版本。\n*   **网络环境**：由于插件默认调用云端 API 进行推理，请确保网络连接畅通。若需本地部署 Stable Diffusion，则需额外安装 `Automatic1111 Stable Diffusion Web UI` 并具备相应的 GPU 算力。\n\n## 安装步骤\n\n你可以通过以下三种方式获取插件安装包（`.zip` 文件）：\n\n1.  **官方发布页（免费）**：访问 [GitHub Releases](https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Freleases) 下载最新版本。\n2.  **Blender Market**：在 [Blender Market](https:\u002F\u002Fblendermarket.com\u002Fproducts\u002Fai-render) 购买并下载。\n3.  **Gumroad**：在 [Gumroad](https:\u002F\u002Fairender.gumroad.com\u002Fl\u002Fai-render) 获取。\n\n**安装流程：**\n\n1.  启动 Blender。\n2.  点击顶部菜单栏的 `Edit` > `Preferences`。\n3.  在左侧面板选择 `Add-ons`。\n4.  点击右上角的 `Install...` 按钮。\n5.  在文件浏览器中找到并选中下载的 `ai_render.zip` 文件，点击 `Install Add-on`。\n6.  在插件列表中搜索 \"AI Render\"，勾选复选框以启用插件。\n\n## 基本使用\n\n安装完成后，按照以下步骤即可生成第一张 AI 图像：\n\n1.  **构建场景**：在 Blender 中创建或打开一个 3D 场景（可以是简单的几何体或复杂模型）。\n2.  **打开面板**：在右侧属性栏（Properties Panel）中找到 `AI Render` 选项卡（通常位于渲染属性或视图层属性附近，具体取决于 Blender 版本）。\n3.  **输入提示词**：在 `Prompt` 输入框中填写描述你想要生成图像的英文文本提示词（例如：`cyberpunk city, neon lights, highly detailed`）。\n4.  **执行渲染**：\n    *   点击面板上的 `Render` 按钮。\n    *   或者使用快捷键（默认可能未绑定，建议在插件设置中查看或自定义）。\n5.  **查看结果**：插件将调用 Stable Diffusion 接口，结合你的 3D 构图和提示词生成图像，并自动显示在 Blender 的图像编辑器或视口中。\n\n> **提示**：首次使用时，插件可能会要求你配置 API 密钥或选择服务模式（云端\u002F本地）。如需本地运行，请参考官方 Wiki 中的 \"Local Installation\" 章节配置 `Automatic1111` 接口地址。","一位独立游戏开发者正在为一款科幻题材的 3D 短片制作概念背景图，需要在 Blender 中快速迭代出具有独特光影和纹理的场景素材。\n\n### 没有 AI-Render 时\n- **工作流割裂严重**：必须在 Blender 渲染基础图后，切换到外部 Stable Diffusion 网页端或本地脚本，手动上传图片并输入提示词，反复复制粘贴导致效率极低。\n- **空间一致性难维持**：外部生成的图像往往无法精准贴合 Blender 场景中的透视关系和物体轮廓，后期需要花费大量时间在 Photoshop 中进行蒙版修图和透视校正。\n- **动画生成几乎不可能**：若需制作动态背景，逐帧导出再在外部长序列重绘不仅耗时巨大，且极难保证帧与帧之间的风格连贯性，容易产生闪烁噪点。\n- **技术门槛高**：非程序员出身的艺术家需要配置复杂的 Python 环境、管理依赖库才能运行本地 SD 模型，常因环境报错而中断创作灵感。\n\n### 使用 AI-Render 后\n- **一站式无缝集成**：直接在 Blender 插件面板输入提示词即可基于当前视口渲染，无需离开软件或切换窗口，实现了“建模 - 渲染 -AI 增强”的闭环。\n- **完美保持几何结构**：AI-Render 能自动读取场景深度信息和构图，生成的图像严格遵循 Blender 中的摄像机视角和物体遮挡关系，大幅减少后期合成工作量。\n- **原生支持动态序列**：利用 Blender 自带的时间轴功能，可直接对提示词或 SD 参数设置关键帧，轻松输出风格稳定、流畅的 AI 动画序列，甚至用于批量测试不同艺术风格。\n- **零代码即时上手**：安装插件即可调用云端或本地算力，屏蔽了底层代码配置细节，让创作者能专注于艺术构思而非环境调试。\n\nAI-Render 将生成式 AI 的能力深度融入 3D 创作管线，把原本繁琐的跨软件协作转化为直观的内部工作流，极大提升了概念设计与动态内容的生产效率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbenrugg_AI-Render_c02b06c5.jpg","benrugg","Ben Rugg","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbenrugg_eab88fb2.jpg",null,"The Regime","https:\u002F\u002Fwww.theregime.com","https:\u002F\u002Fgithub.com\u002Fbenrugg",[23,27],{"name":24,"color":25,"percentage":26},"Python","#3572A5",99.6,{"name":28,"color":29,"percentage":30},"Shell","#89e051",0.4,1204,93,"2026-04-08T16:37:17","MIT",2,"Windows, macOS, Linux","未说明（本地运行需配合 Automatic1111 Stable Diffusion Web UI，通常建议 NVIDIA GPU；若使用云端 API 则无本地 GPU 要求）","未说明",{"notes":40,"python":41,"dependencies":42},"该工具主要作为 Blender 插件运行，默认通过 API 连接外部服务（无需本地代码运行），因此对本地硬件无强制高要求。若选择本地部署 Stable Diffusion，需自行配置 Automatic1111 环境及相关硬件需求。","未说明（依赖 Blender 3.0.0+ 内置环境）",[43,44],"Blender 3.0.0+","Automatic1111 Stable Diffusion Web UI (仅本地运行模式)",[46,47,48,49],"Agent","图像","插件","开发框架",[51,52,53],"ai","blender-addon","stable-diffusion","ready","2026-03-27T02:49:30.150509","2026-04-11T00:43:17.486346",[58,63,68,73,78,83],{"id":59,"question_zh":60,"answer_zh":61,"source_url":62},28613,"如何配置本地 Stable Diffusion (Automatic1111) 以便在 Blender 中使用？","确保您使用的是 AI Render v0.4.0 或更高版本，并遵循本地安装的新说明。如果遇到图像无法加载的问题，请尝试回退到特定提交版本（如 git checkout f49c08e）或使用 v0.3.4 版本。详细步骤请参考官方 Wiki 的本地安装指南：https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fwiki\u002FLocal-Installation。此外，确保 Automatic1111 服务已启动且 API 可访问。","https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fissues\u002F2",{"id":64,"question_zh":65,"answer_zh":66,"source_url":67},28614,"AI Render 节点显示为静音状态或渲染时出现黑屏怎么办？","此问题已在最新版本中修复。请前往 Blender 市场、Gumroad 或 GitHub Releases 页面下载并安装最新版本（v0.2.8 或更高）。也可以在 Blender 内部通过 'Preferences' > 'Add-ons' > 'AI Render' > 'Updates' 进行在线更新。修复涉及的提交包括 a8d18a059e24442f95104e080c71c6ed2d106ae1 和 2db43b2a93a10a3034db9eb6d7e725dfab4db4f3。","https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fissues\u002F4",{"id":69,"question_zh":70,"answer_zh":71,"source_url":72},28615,"如何通过远程地址或 HTTPS 连接本地的 Automatic1111 服务？","早期版本可能存在通过 Nginx 反向代理或 HTTPS 连接本地服务的问题。请确保将 AI Render 插件更新至最新版本（至少 v0.10.1），维护者已修复了自定义 URL 和标准 URL 的连接问题。如果在更新后仍遇到高分辨率（如 1024x1024）渲染错误，请检查 Automatic1111 服务器日志，因为这可能与特定模型（如 SDXL）的配置有关。","https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fissues\u002F135",{"id":74,"question_zh":75,"answer_zh":76,"source_url":77},28616,"渲染单帧静态图像时提示“动画渲染错误”如何解决？","这是一个已知问题，已在 v0.7.5 版本中修复。当尝试渲染单张图片却收到关于动画的错误提示时，请更新 AI Render 插件。您可以通过 GitHub Releases 页面下载 v0.7.5 或更高版本，或者直接在 Blender 的插件偏好设置中点击更新按钮。更新后，即使安装了其他冲突插件，该功能也应正常工作。","https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fissues\u002F82",{"id":79,"question_zh":80,"answer_zh":81,"source_url":82},28617,"本地 SD 安装后终端无响应或 Blender 无法启动渲染进程怎么办？","如果 Web UI 能正常运行但 Blender 无法连接，通常是因为 Automatic1111 的配置复杂或环境路径问题。首先确保在测试 Blender 连接时关闭了浏览器中的 Web UI 标签页（避免端口占用或冲突）。其次，检查 Automatic1111 的启动参数是否正确配置了 API 监听。由于自动安装涉及 Python 环境和配置文件，建议仔细核对终端输出日志，或参考社区关于配置 automatic1111 config files 的讨论。","https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fissues\u002F98",{"id":84,"question_zh":85,"answer_zh":86,"source_url":87},28618,"如何在 Blender 中集成和使用 ControlNet（深度图、OpenPose 等）？","ControlNet 集成功能已在 v0.7.5 版本中发布。要使用此功能，请先将 AI Render 插件更新至最新版本。同时，确保您的 Automatic1111 Stable Diffusion 后端也已更新到支持 ControlNet 的最新版本。如果更新后仍无法使用，请检查是否为本地环境版本过旧导致，升级 Automatic1111 通常能解决此类兼容性問題。","https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fissues\u002F71",[89,94,99,104,109,114,119,124,129,134,139,144,149,154,159,164,169,174,179,184],{"id":90,"version":91,"summary_zh":92,"released_at":93},197543,"v1.1.1","### Blender 5.0 兼容性\n\n这个小更新修复了一个在 Blender 5.0 中导致放大功能失效的问题。\n\n感谢 @phwoomp 的快速修复！","2025-12-28T19:12:19",{"id":95,"version":96,"summary_zh":97,"released_at":98},197544,"v1.1.0","### 为 Stability API 使用新的放大器\n\nStability 已经更改了其用于图像放大处理的 API 端点。本版本使用新的 v2 测试版端点进行放大，该端点会自动将图像的宽度和高度各放大 4 倍，最终生成 4096×4096 分辨率的图像。","2024-10-27T22:04:20",{"id":100,"version":101,"summary_zh":102,"released_at":103},197545,"v1.0.1","### 允许步数小于 10（适用于 SDXL Turbo）\n\n现在，使用 Automatic1111 时，`Steps` 可以设置为低至 `1`，以支持 SDXL Turbo。","2023-12-01T17:35:08",{"id":105,"version":106,"summary_zh":107,"released_at":108},197546,"v1.0.0","### SDXL 1.0 更新\r\n\r\n此版本新增对 SDXL 1.0 的支持，并且支持更大的图像尺寸；同时移除了所有旧版模型。（Stability AI 已弃用其旧版模型，并将于近期彻底下架。）","2023-11-09T21:52:49",{"id":110,"version":111,"summary_zh":112,"released_at":113},197547,"v0.10.2","### 小型工作流优化：在“渲染”工作区显示 AI 生成的图像\n\n如果渲染图像窗口未打开，现在将在“渲染”工作区加载 AI 生成的图像（如有）。","2023-10-28T22:48:24",{"id":115,"version":116,"summary_zh":117,"released_at":118},197548,"v0.10.1","### 修复长文件名问题\n\n上一次发布的版本在 Windows 系统上处理长文件名时会出现错误，通常表现为 `无法创建临时文件` 或类似的错误信息。本次发布已修复该问题。\n\n修复 #136","2023-10-28T21:48:02",{"id":120,"version":121,"summary_zh":122,"released_at":123},197549,"v0.10.0","### 增加覆盖图像文件名的功能\n\n现在可以在生成的图像文件名中添加信息。默认情况下，文件名会包含时间戳和提示词。\n\n可用变量：\n- {timestamp}\n- {prompt}\n- {width}\n- {height}\n- {seed}\n- {steps}\n- {image_similarity}\n- {sampler}\n- {negative_prompt}\n\n关闭 #132\n关闭 #44\n\n### AI 生成的图像现在会直接显示在图像查看器窗口中，AI 渲染工作区已被移除。\n\n这使得整体工作流程更加简化。\n\n感谢 @LeonardMeagher2 在这两项更新上所做的所有工作！","2023-10-22T21:41:27",{"id":125,"version":126,"summary_zh":127,"released_at":128},197550,"v0.9.1","### 修复 Blender 3.6 的 bug\n\nBlender 的 Python API 在 3.6 版本中更改了 `load_post` 处理器，导致在加载已启用 AI 渲染的文件时出现问题。此版本已修复该问题！\n\n修复 #123","2023-07-13T16:27:21",{"id":130,"version":131,"summary_zh":132,"released_at":133},197551,"v0.9.0","### 使用 SHARK 进行图像修复与扩展\n\n本次发布新增了使用 SHARK 后端进行图像修复和扩展的功能。\n\n感谢贡献者 @AyaanShah2204 的加入！","2023-07-03T16:02:47",{"id":135,"version":136,"summary_zh":137,"released_at":138},197552,"v0.8.0","### 添加对 SHARK 后端的支持\n\nnod.ai SHARK 是一个高性能机器学习发行版，可以在您的本地机器上运行。更多信息请参阅：https:\u002F\u002Fgithub.com\u002FAyaanShah2204\u002FAI-Render\u002Fwiki\u002FSHARK-by-nod.ai\n\n感谢贡献者 @AyaanShah2204 的加入！","2023-06-23T18:12:47",{"id":140,"version":141,"summary_zh":142,"released_at":143},197553,"v0.7.9","### Several small updates\r\n\r\n- Show an error (again) when Automatic1111 is running, but it's not in API mode\r\n- Add ability to control ControlNet weight (thank you @steve-salmond)\r\n- Add DPM++ SDE samplers\r\n","2023-06-01T21:32:57",{"id":145,"version":146,"summary_zh":147,"released_at":148},197554,"v0.7.8","### Small bug fix\r\n\r\nThis version should fix an edge case bug where `scene.node_tree` doesn't exist.","2023-04-14T16:43:00",{"id":150,"version":151,"summary_zh":152,"released_at":153},197555,"v0.7.7","### Small update: Automatic1111 default upscaler models\r\n\r\nThis versions starts with the default upscaler models for Automatic1111 already loaded, so upscaling will work out of the box without having to click an extra button!","2023-04-14T15:45:36",{"id":155,"version":156,"summary_zh":157,"released_at":158},197556,"v0.7.6","### Support for SDXL (Beta)\r\n\r\nStable Diffusion XL is the latest model from Stability AI. It has several improvements over SD 2.1, including better photorealism and realistic drawing styles, better text rendering, and richer aesthetics (comparable to Midjourney).\r\n\r\nSee Stability's blog post for more details: https:\u002F\u002Fstability.ai\u002Fblog\u002Fstable-diffusion-xl-beta-available-for-api-customers-and-dreamstudio-users\r\n\r\nYouTube examples: https:\u002F\u002Fwww.youtube.com\u002Fresults?search_query=sdxl\r\n\r\n**Important Note:** SDXL only supports image sizes of **512x512, 512x768 and 768x512**. Fortunately, you can upscale afterwards, which is on by default in AI Render!\r\n\r\n![sdxl-example](https:\u002F\u002Fuser-images.githubusercontent.com\u002F1221274\u002F232041408-0cab1810-f59b-4714-88a3-c7ad84ffc790.jpg)","2023-04-14T12:18:45",{"id":160,"version":161,"summary_zh":162,"released_at":163},197557,"v0.7.5","## Many big and small updates!\r\n\r\n### Upscaling\r\n\r\nUpscaling is now built-in and turned on by default (when using DreamStudio or Automatic1111). This is a huge improvement, because it allows for much larger final images, while still starting with quick-to-generate image sizes. \r\n\r\nLearn more: https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fwiki\u002FUpscaling\r\n\r\n### ControlNet\r\n\r\nAnother huge addition! You can now use ControlNet when using Automatic1111. ControlNet allows for much more precision when turning a rendered image into a generated one with Stable Diffusion. You can keep the structure of your scene - layout, objects, characters, etc - while still transforming it.\r\n\r\nLearn more: https:\u002F\u002Fgithub.com\u002Fbenrugg\u002FAI-Render\u002Fwiki\u002FControlNet\r\n\r\nTutorial video and improved wiki page coming soon...\r\n\r\n### Small Improvements and Fixes\r\n\r\n- Ability to change image size after initial setup\r\n- Ability to disable AI Render when you're done with it\r\n- Ability to opt out of analytics (thank you for suggesting this, @InconsolableCellist)\r\n- Ability to use lower image dimensions with DreamStudio\r\n- More error handling for DreamStudio\r\n- Fixing a bug that would cause an error about 'animation' to be shown when other conflicting add-ons were installed\r\n- Change of workflow for rendering. No node group needed anymore.\r\n","2023-04-14T01:07:20",{"id":165,"version":166,"summary_zh":167,"released_at":168},197558,"v0.6.10","### Fix a bug related to a breaking change in Blender 3.5+\r\n\r\nIn Blender 3.5, a change was made to the python API that now requires node tree inputs and outputs to be explicitly created, rather than just using `node_tree.links.new()`. \r\n\r\nSee https:\u002F\u002Fprojects.blender.org\u002Fblender\u002Fblender\u002Fissues\u002F105701\r\n","2023-03-13T16:29:33",{"id":170,"version":171,"summary_zh":172,"released_at":173},197559,"v0.6.9","### Fix Stable Horde integration\r\n\r\nThis release fixes an issue with AI Render's integration with Stable Horde. Thank you @tijszwinkels!","2023-01-22T22:59:04",{"id":175,"version":176,"summary_zh":177,"released_at":178},197560,"v0.6.8","### Update to Stable Horde\r\n\r\nStable Horde changed their API, and this release fixes AI Render's integration with their update. Thank you @tijszwinkels!","2022-12-08T02:13:18",{"id":180,"version":181,"summary_zh":182,"released_at":183},197561,"v0.6.7","### Default negative prompt and Stable Diffusion 2.1\r\n\r\nWe now start with a default negative prompt, and also defaulting to the new version of Stable Diffusion. SD 2.1 has been added, which ideally will increase speed and quality.\r\n\r\nStable Diffusion 1.5 still works better for some art styles. It can be chosen under AI Render > Advanced Options.","2022-12-07T02:52:15",{"id":185,"version":186,"summary_zh":187,"released_at":188},197562,"v0.6.6","### Catch a potential small bug when registering add-on\r\n\r\nThere was a possible bug that could happen when registering the add-on, so this version proactively fixes that.","2022-12-02T15:04:33",[190,200,208,217,225,233],{"id":191,"name":192,"github_repo":193,"description_zh":194,"stars":195,"difficulty_score":196,"last_commit_at":197,"category_tags":198,"status":54},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[46,49,47,199],"数据工具",{"id":201,"name":202,"github_repo":203,"description_zh":204,"stars":205,"difficulty_score":196,"last_commit_at":206,"category_tags":207,"status":54},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[49,47,46],{"id":209,"name":210,"github_repo":211,"description_zh":212,"stars":213,"difficulty_score":35,"last_commit_at":214,"category_tags":215,"status":54},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",149489,"2026-04-10T11:32:46",[49,46,216],"语言模型",{"id":218,"name":219,"github_repo":220,"description_zh":221,"stars":222,"difficulty_score":35,"last_commit_at":223,"category_tags":224,"status":54},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[49,47,46],{"id":226,"name":227,"github_repo":228,"description_zh":229,"stars":230,"difficulty_score":35,"last_commit_at":231,"category_tags":232,"status":54},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[48,46,47,49],{"id":234,"name":235,"github_repo":236,"description_zh":237,"stars":238,"difficulty_score":35,"last_commit_at":239,"category_tags":240,"status":54},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[48,49]]