[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-cubiq--ComfyUI_Workflows":3,"tool-cubiq--ComfyUI_Workflows":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":76,"owner_email":75,"owner_twitter":72,"owner_website":77,"owner_url":78,"languages":75,"stars":79,"forks":80,"last_commit_at":81,"license":82,"difficulty_score":10,"env_os":83,"env_gpu":83,"env_ram":83,"env_deps":84,"category_tags":87,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":88,"updated_at":89,"faqs":90,"releases":91},9598,"cubiq\u002FComfyUI_Workflows","ComfyUI_Workflows","A repository of well documented easy to follow workflows for ComfyUI","ComfyUI_Workflows 是一个专为 ComfyUI 设计的开源工作流合集，旨在通过结构清晰、文档详尽的示例，帮助用户轻松掌握这款强大的节点式 AI 绘图工具。它主要解决了新手在面对 ComfyUI 复杂节点连接时容易产生的困惑，提供了一套从左到右、从上到下逻辑顺畅的“防迷路”学习路径，让用户无需反复调整节点即可理解执行流程。\n\n该项目非常适合从初学者到进阶用户的各类人群。对于刚接触 ComfyUI 的用户，它是极佳的上手教材；对于经验丰富的使用者，其中的实验性案例也能提供灵感启发。其核心亮点在于极高的兼容性与可读性：绝大多数工作流无需安装任何额外插件即可直接运行，有效降低了入门门槛并避免了插件冲突问题。此外，内容按功能划分为基础操作、高清放大、文生图进阶、图生图控制及局部重绘等模块，系统性地覆盖了 Stable Diffusion 的核心应用场景。无论是想深入理解底层原理的研究者，还是希望高效创作的设计师，都能从中找到有价值的参考方案。","# ComfyUI Workflows\n\nA repository of well documented easy to follow workflows for [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI).\n\n## Introduction\n\nThe workflows are meant as a **learning exercise**, they are by no means \"the best\" or the most optimized but they should give you a good understanding of how ComfyUI works.\n\nThe workflows are designed for readability; the execution flows from left to right, from top to bottom and you should be able to easily follow the \"spaghetti\" without moving nodes around.\n\nThis repo is divided into macro categories, in the root of each directory you'll find the basic json files and an `experiments` directory. The experiments are more advanced examples and tips and tricks that might be useful in day-to-day tasks.\n\nThis documetantion is mostly for beginners to intermediate users. Experienced users might find some inspiration in the experiments. No matter your skill level, please let me know if you have suggestions, corrections or if you wish to add a new workflow.\n\nThe majority of the workflows work **without** any plugin installed with very few exceptions that are outlined in the documention. This is by design to lower as much as possible the entry level and to avoid conflict with a very fast evolving ecosystem.\n\n## Why ComfyUI\n\nThere's a bit of turmoil in the community about [Stability AI](https:\u002F\u002Fstability.ai\u002F) endorsing ComfyUI.\n\nFirst of all there are many easier to use alternatives (like [StableSwarmUI](https:\u002F\u002Fgithub.com\u002FStability-AI\u002FStableSwarmUI)) and you are not forced to use ComfyUI if you are not comfortable with it. The most likely downside is that new features will take a little longer to get implemented outside of Comfy.\n\nComfyUI has a tidy and swift codebase that makes adjusting to a fast paced technology easier than most alternatives. Its modular nature lets you mix and match component in a very granular and unconvential way. Most Stable Diffusion UIs choose for you the best pratice for any given task, with ComfyUI you can make your own best practice and easily compare the outcome of multiple solutions.\n\nOn top of that ComfyUI is very efficient in terms of memory usage and speed.\n\n## How-to\n\nTo follow all the exercises, clone or download this repository and place the files in the `input` directory inside the `ComfyUI\u002Finput` directory on your PC. That will let you follow all the workflows without errors.\n\nTo review any workflow you can simply drop the JSON file onto your ComfyUI work area, also remember that any image generated with ComfyUI has the whole workflow embedded into itself. You can take many of the images you see in this documentation and drop it inside ComfyUI to load the full node structure.\n\nLet's get started!\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcubiq_ComfyUI_Workflows_readme_96f0cb57442c.png\" alt=\"fox\" width=\"256\" height=\"256\" \u002F>\n\n## Categories\n\n### [Basic](basic\u002FREADME.md)\nIn this section you'll learn the basics of ComfyUI and Stable Diffusion. Any future workflow will be probably based on one of theses node layouts.\n\n### [Upscale](upscale\u002FREADME.md)\nExplores various options to upscale (aka *hires fix*) a generated image.\n\n### [Text to Image](text2img\u002FREADME.md)\nAdvanced Text-to-Image techniques. Word weighting, embeddings, timestepping, gligen, ...\n\n### [Image-to-Image conditioning](image_conditioning\u002FREADME.md)\nAn image is worth a thousand words. Image-to-image techniques and some image conditioning models.\n\n### [In\u002FOut painting](in-out_painting\u002FREADME.md)\nHow to expand and alter your already generated images.\n\n### [Guided composition](guided_composition\u002FREADME.md)\nIn this section we'll explore ControlNets, T2I-Adapter and other techniques to better pose and compose your images.\n\n### TO-DO\nThis is a work in progress, be sure to check back if there are any new additions. The next planned section is **Detailing** where we'll learn how to cut out pieces (eg. faces, hands) of an image to enhance them.\n","# ComfyUI 工作流\n\n一个包含详尽文档、易于遵循的工作流仓库，专为 [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI) 设计。\n\n## 简介\n\n这些工作流旨在作为**学习练习**，它们绝非“最佳”或最优化的方案，但应该能帮助你很好地理解 ComfyUI 的运作方式。\n\n工作流的设计注重可读性：执行流程从左到右、从上到下，你可以轻松地跟随“ spaghetti”式的连接而无需移动节点。\n\n本仓库按宏观类别划分，在每个目录的根目录下，你会找到基础的 JSON 文件以及一个 `experiments` 目录。`experiments` 中包含了更高级的示例和在日常任务中可能有用的技巧与窍门。\n\n这份文档主要面向初学者至中级用户。经验丰富的用户或许能在实验部分获得一些灵感。无论你的技术水平如何，如果你有任何建议、修正意见，或者希望添加新的工作流，请随时告知我。\n\n大多数工作流**无需安装任何插件**即可运行，极少数例外会在文档中说明。这是为了尽可能降低入门门槛，并避免与快速发展的生态系统产生冲突。\n\n## 为什么选择 ComfyUI\n\n社区内围绕 [Stability AI](https:\u002F\u002Fstability.ai\u002F) 对 ComfyUI 的支持存在一些争议。\n\n首先，有许多更易用的替代方案（例如 [StableSwarmUI](https:\u002F\u002Fgithub.com\u002FStability-AI\u002FStableSwarmUI)），如果你对 ComfyUI 不熟悉，完全不必强制使用它。最大的潜在缺点可能是，新功能在 ComfyUI 之外实现的速度会稍慢一些。\n\nComfyUI 拥有整洁且高效的代码库，这使得适应快速变化的技术比大多数替代方案更容易。其模块化特性允许你以非常细粒度和非传统的方式自由组合组件。大多数 Stable Diffusion UI 会为你选择每项任务的最佳实践，而使用 ComfyUI，你可以自行制定最佳实践，并轻松比较多种解决方案的效果。\n\n此外，ComfyUI 在内存占用和运行速度方面也非常高效。\n\n## 使用方法\n\n要完成所有练习，请克隆或下载本仓库，并将文件放置在你电脑上的 `ComfyUI\u002Finput` 目录下的 `input` 文件夹中。这样你就可以无误地运行所有工作流。\n\n要查看任意工作流，只需将 JSON 文件拖放到 ComfyUI 的工作区即可。另外请记住，使用 ComfyUI 生成的任何图像都会将整个工作流嵌入其中。你可以将本文档中展示的许多图像直接拖入 ComfyUI，以加载完整的节点结构。\n\n让我们开始吧！\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcubiq_ComfyUI_Workflows_readme_96f0cb57442c.png\" alt=\"fox\" width=\"256\" height=\"256\" \u002F>\n\n## 分类\n\n### [基础](basic\u002FREADME.md)\n在这一部分，你将学习 ComfyUI 和 Stable Diffusion 的基础知识。未来的所有工作流很可能都会基于这些节点布局。\n\n### [超分辨率](upscale\u002FREADME.md)\n探索各种用于放大（又称 *hires fix*）生成图像的方法。\n\n### [文本到图像](text2img\u002FREADME.md)\n高级文本到图像技术。词权重、嵌入、时间步进、GLIGEN 等。\n\n### [图像条件控制](image_conditioning\u002FREADME.md)\n一张图胜过千言万语。图像到图像技术及一些图像条件模型。\n\n### [内外绘图](in-out_painting\u002FREADME.md)\n如何扩展和修改已生成的图像。\n\n### [引导式构图](guided_composition\u002FREADME.md)\n在这一部分，我们将探索 ControlNet、T2I-Adapter 等技术，以更好地调整和构图你的图像。\n\n### 待办事项\n本项目仍在持续更新中，如有新增内容，请定期查看。下一个计划中的章节是 **细节增强**，我们将学习如何裁剪图像中的特定部分（例如面部、手部）并对其进行强化处理。","# ComfyUI_Workflows 快速上手指南\n\n本指南旨在帮助开发者快速利用 `ComfyUI_Workflows` 仓库中的示例工作流，深入理解 ComfyUI 的节点逻辑与运行机制。这些工作流专为学习设计，结构清晰（从左至右、从上至下执行），无需安装额外插件即可运行大多数示例。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Windows, Linux 或 macOS。\n*   **核心依赖**：已安装并配置好 [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI)。\n    *   需具备 Python 环境及必要的 PyTorch 依赖。\n    *   建议显存至少 6GB（运行 SDXL 或高分辨率工作流建议 12GB+）。\n*   **模型文件**：确保 ComfyUI 的 `models` 目录下已放置基础的 Stable Diffusion 检查点文件（如 SD1.5, SDXL 等），否则工作流加载后会报错。\n*   **网络环境**：由于仓库托管于 GitHub，国内用户建议使用加速工具或配置代理以确保克隆速度。\n\n## 安装步骤\n\n### 1. 获取工作流文件\n将本仓库克隆或下载至本地。推荐方式如下：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FAIGC-Audio\u002FComfyUI_Workflows.git\n```\n*(注：若原仓库地址不同，请替换为实际地址。国内用户若遇连接超时，可使用 `git clone https:\u002F\u002Fghproxy.com\u002Fhttps:\u002F\u002Fgithub.com\u002FAIGC-Audio\u002FComfyUI_Workflows.git` 等加速方案)*\n\n### 2. 部署文件\n仓库中的工作流依赖特定的输入资源（如参考图片）。请将下载后的文件整理到 ComfyUI 的输入目录中：\n\n1.  找到您本地 ComfyUI 的安装目录。\n2.  进入 `ComfyUI\u002Finput` 文件夹。\n3.  将本仓库根目录下的所有文件（包括子文件夹结构）复制到此 `input` 目录中。\n\n> **注意**：这一步至关重要，它能确保您在打开工作流时，其中的 \"Load Image\" 等节点能自动找到对应的素材，避免路径错误。\n\n## 基本使用\n\n本仓库的核心价值在于通过可视化的节点图学习 ComfyUI。以下是两种最快捷的使用方式：\n\n### 方法一：直接拖入 JSON 文件\n这是最直接的学习方式，适合按分类系统学习。\n\n1.  启动 ComfyUI (`python main.py`) 并在浏览器打开界面。\n2.  进入本仓库的任意分类目录（例如 `basic\u002F` 或 `text2img\u002F`）。\n3.  选择一个 `.json` 格式的工作流文件。\n4.  将该文件直接拖拽到 ComfyUI 的操作画布区域。\n5.  系统将自动加载完整的节点结构。点击右侧菜单的 **\"Queue Prompt\"** 即可运行并观察结果。\n\n### 方法二：从生成图片还原工作流\nComfyUI 生成的图片内部嵌入了完整的工作流信息，这是一种极佳的反向学习方式。\n\n1.  在本仓库的文档或 `images` 文件夹中找到任意一张由 ComfyUI 生成的示例图片（如 `SDXL_fox.png`）。\n2.  将该图片直接拖拽到 ComfyUI 的操作画布区域。\n3.  界面将自动重建生成该图片所需的所有节点和参数设置。\n4.  您可以立即修改参数（如提示词、种子数）并重新运行，以测试不同变量对结果的影响。\n\n### 学习建议\n*   **阅读顺序**：建议从 `basic\u002F` 目录开始，掌握基础节点连接逻辑，再逐步尝试 `upscale\u002F`（高清修复）、`text2img\u002F`（高级文生图）等复杂场景。\n*   **实验探索**：各分类下的 `experiments` 文件夹包含进阶技巧和日常实用案例，适合有一定基础的用户参考。\n*   **无插件原则**：绝大多数工作流设计为“开箱即用”，无需安装自定义节点插件，降低了环境配置冲突的风险。","一位独立游戏开发者需要为角色设计一套风格统一且细节丰富的宣传插画，但面对 ComfyUI 复杂的节点连线感到无从下手。\n\n### 没有 ComfyUI_Workflows 时\n- **学习曲线陡峭**：面对空白的画布和成百上千个节点，新手难以理解数据流向，常常因连线错误导致生成失败。\n- **调试效率低下**：想要实现“高清修复”或“局部重绘”等进阶功能时，需花费数小时在论坛搜索零散教程并手动拼凑节点。\n- **工作流混乱难读**：自行搭建的节点布局杂乱无章（俗称“意大利面条式”连线），一旦需要修改参数或复用流程，根本找不到逻辑入口。\n- **插件依赖冲突**：盲目安装各类自定义节点插件，导致环境不稳定，甚至因版本不兼容而无法运行基础功能。\n\n### 使用 ComfyUI_Workflows 后\n- **快速上手实践**：直接加载官方提供的“基础”或“文生图”分类下的 JSON 文件，即可看到结构清晰、从左至右排列的标准作业流程，立即理解核心逻辑。\n- **进阶技巧即取即用**：在\"Upscale\"或\"In\u002FOut painting\"目录中找到经过验证的高清放大和局部重绘案例，无需重复造轮子，几分钟内即可应用到角色设计中。\n- **逻辑清晰易维护**：得益于专为可读性设计的节点布局，开发者能轻松追踪图像生成路径，快速调整提示词权重或采样步数以优化画面。\n- **纯净稳定运行**：绝大多数工作流无需额外插件即可运行，避免了环境配置陷阱，让开发者专注于创意调整而非排查报错。\n\nComfyUI_Workflows 通过提供文档完善、结构清晰的标准工作流库，将初学者从繁琐的节点搭建中解放出来，使其能专注于创意落地与技术进阶。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcubiq_ComfyUI_Workflows_6097056c.png","cubiq","Matteo Spinelli","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fcubiq_fdc7860d.jpg",null,"Florence, Italy","https:\u002F\u002Fmatt3o.com","https:\u002F\u002Fgithub.com\u002Fcubiq",766,60,"2026-04-19T03:38:53","Apache-2.0","未说明",{"notes":85,"python":83,"dependencies":86},"本项目是 ComfyUI 的工作流集合，本身不包含独立代码，需先安装并运行 ComfyUI。大多数工作流无需额外插件即可运行。使用时需将仓库中的文件放入 ComfyUI 的 input 目录，或直接拖拽 JSON\u002F图片文件到 ComfyUI 界面加载节点结构。具体硬件和软件环境需求取决于底层 ComfyUI 及所运行的模型（如 SDXL 等）。",[38],[15,14],"2026-03-27T02:49:30.150509","2026-04-20T04:04:30.674068",[],[]]