[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-city96--ComfyUI_NetDist":3,"tool-city96--ComfyUI_NetDist":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":92,"env_os":93,"env_gpu":94,"env_ram":95,"env_deps":96,"category_tags":100,"github_topics":79,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":101,"updated_at":102,"faqs":103,"releases":133},2681,"city96\u002FComfyUI_NetDist","ComfyUI_NetDist","Run ComfyUI workflows on multiple local GPUs\u002Fnetworked machines.","ComfyUI_NetDist 是一款专为 ComfyUI 设计的分布式计算扩展节点，旨在帮助用户突破单台设备的算力瓶颈。它允许用户将复杂的 AI 绘图工作流拆分，同时在多台本地 GPU 或联网的不同计算机上并行运行，从而显著缩短图像生成时间并提升整体吞吐量。\n\n对于拥有多张显卡的进阶玩家、需要快速迭代实验的研究人员，或是希望组建小型渲染集群的设计团队来说，这是一个极具价值的效率工具。它有效解决了单卡显存不足或渲染速度过慢的问题，让闲置的计算资源得以充分利用。\n\n其技术亮点在于灵活的部署方式：既支持单机多卡的简单配置，也能通过局域网连接多台独立主机协同工作。ComfyUI_NetDist 提供了直观的“远程获取”与“队列控制”节点，支持自定义批次大小和触发条件，甚至能直接加载外部工作流 JSON 文件进行分布式处理。此外，它还具备独特的潜空间（Latents）无损传输功能，允许在不同设备间无缝传递中间数据，无需反复编解码图像，进一步保障了生成质量与效率。只需安装基础的 requests 库并克隆仓库，即可轻松搭建属于自己的分布式 AI 绘图环境。","# ComfyUI_NetDist\nRun ComfyUI workflows on multiple local GPUs\u002Fnetworked machines.\n\n[NetDist_2xspeed.webm](https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI_NetDist\u002Fassets\u002F125218114\u002Fb7ec2fcf-1e51-4b05-ad62-355da2a1bf6d)\n\n## Install instructions:\nThere is currently a single external requirement, which is the `requests` library.\n```\npip install requests\n```\n\nTo install, simply clone into the custom nodes folder.\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI_NetDist ComfyUI\u002Fcustom_nodes\u002FComfyUI_NetDist\n```\n\n## Usage\n\n### Local Remote control\nYou will need at least two different ComfyUI instances. You can use two local GPUs by setting different `--port [port]` and `--cuda-device [number]` launch arguments. You'll most likely want `--port 8288 --cuda-device 1`\n\n#### Simple dual-GPU\n\nThis is the simplest setup for people who have 2 GPUs or two separate PCs. It only requires two nodes to work.\n\nYou can set the local\u002Fremote batch size, as well as when the node should trigger (set it to 'always' if it isn't getting executed - i.e. you changed a sampler setting but not the seed.)\n\nIf you're running your second instance on a different PC, add `--listen` to your launch arguments and set the correct remote IP (open a terminal window and check with `ipconfig` on windows or `ip a` on linux).\n\nThe `FetchRemote` ('Fetch from remote') node takes an image input. This should be your final image than you want to get back from your second instance (make sure not to route it back into itself). This node will wait for the second image to be generated (there's currently no preview\u002Fprogress bar).\n\nWorkflow JSON: [NetDistSimple.json](https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI_NetDist\u002Ffiles\u002F13825326\u002FNetDistSimple.json)\n\n![NetDistSimple](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcity96_ComfyUI_NetDist_readme_74c661d04a78.png)\n\n#### Simple multi-machine\n\nYou can kind of scale the example above by connecting more of the simple queue nodes together, but the seed is a bit jank and you can get duplicate images if you try and reuse it. I guess just set the seed to randomized on both.\n\n![NetDistMulti](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcity96_ComfyUI_NetDist_readme_3088a7672d0b.png)\n\n#### Advanced\n\nThis is mostly meant for more \"advanced\" setups with more than two GPUs. It allows easier per-batch overrides as well as setting a default batch size.\n\nIt also allows using a workflow JSON as an input. To allow any workflow to run, the final image can be set to \"any\" instead of the default \"final_image\" (which would require the `FetchRemote` node to be in the workflow).\n\nI have nodes to save\u002Fload the workflows, but ideally there would be some nodes to also edit them - search and replace seed, etc. PRs welcome ;P\n\nWorkflow JSON: [NetDistAdvancedV2.json](https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI_NetDist\u002Ffiles\u002F13843005\u002FNetDistAdvancedV2.json)\n\n![NetDistAdvanced](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcity96_ComfyUI_NetDist_readme_7971996f925a.png)\n\n(This needs a fake image input to trigger, you can just give it a blank image).\n\n![NetDistSaved](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcity96_ComfyUI_NetDist_readme_2b936ec3cd8d.png)\n\n### Remote images\nThe `LoadImageUrl` ('Load Image (URL)') Node acts just like the normal 'Load Image' node.\n\nThe `SaveImageUrl` ('Save Image (URL)') Node sends a POST request to the target URL with a json containing the images.\n- The filenames are the keys.\n- The values are the base64 encoded PNG images (optionally with the `data:image\u002Fpng;base64` prefix).\n- The filenames are **not** guaranteed to be unique across batches since they aren't saved locally. You should handle this server-side.\n- No data is written to disk on the server.\n\n### Remote latents\n\nThis node pack has a set of nodes which should (in theory) allow you to pass latents between the nodes seamlessly. A node to save the input latent as a `.npy` file is provided. This node also returns the filename of the saved latent, which can then be loaded by the other instance.\n\nTo load a latent from the other instance, you can plug the filename into this URL:\n\n```\n# change the filename with a string replacement node.\nhttp:\u002F\u002F127.0.0.1:8188\u002Fview?filename=ComfyUI_00001_.latent&type=output`\n# To load them from the input folder instead, change type to 'input'\nhttp:\u002F\u002F127.0.0.1:8188\u002Fview?filename=TestLatent.npy&type=input\n```\n\nThe `LoadLatentNumpy` node can also load the default safetensor latents, the npy ones (simple numpy file containing just the latent in the standard torch format) as well as the sd_scripts npz cache files.\n\n![LatentSave](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcity96_ComfyUI_NetDist_readme_0416ea70a1d0.png)\n\n### Things you probably shouldn't do:\n- Queue a workflow on the same remote worker multiple times from the same client.\n- ~~Expect this to work smoothly.~~\n\n## Roadmap\n- Fix some edge cases, like linux controlling windows (`os.sep` mismatch).\n- Better workflow editing for static workflows.\n- Handle multiple separate image output nodes.\n","# ComfyUI_NetDist\n在多台本地 GPU 或联网机器上运行 ComfyUI 工作流。\n\n[NetDist_2xspeed.webm](https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI_NetDist\u002Fassets\u002F125218114\u002Fb7ec2fcf-1e51-4b05-ad62-355da2a1bf6d)\n\n## 安装说明：\n目前只有一个外部依赖，即 `requests` 库。\n```\npip install requests\n```\n\n安装时，只需将其克隆到自定义节点文件夹中。\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI_NetDist ComfyUI\u002Fcustom_nodes\u002FComfyUI_NetDist\n```\n\n## 使用方法\n\n### 本地远程控制\n您至少需要两个不同的 ComfyUI 实例。可以通过设置不同的 `--port [端口]` 和 `--cuda-device [编号]` 启动参数来使用两块本地 GPU。通常建议使用 `--port 8288 --cuda-device 1`。\n\n#### 简单双 GPU 设置\n这是拥有两块 GPU 或两台独立电脑的用户的最简单设置。它只需要两个节点即可工作。\n\n您可以设置本地或远程的批次大小，以及节点何时触发（如果节点未执行——例如您更改了采样器设置但未更改种子——请将其设置为“始终”）。\n\n如果您在另一台电脑上运行第二个实例，请在启动参数中添加 `--listen`，并设置正确的远程 IP 地址（在 Windows 上打开终端窗口并使用 `ipconfig` 命令，在 Linux 上使用 `ip a` 命令查看）。\n\n`FetchRemote`（“从远程获取”）节点接受一个图像输入。这应该是您希望从第二个实例返回的最终图像（请确保不要将其路由回自身）。该节点会等待第二个图像生成完毕（目前没有预览或进度条）。\n\n工作流 JSON：[NetDistSimple.json](https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI_NetDist\u002Ffiles\u002F13825326\u002FNetDistSimple.json)\n\n![NetDistSimple](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcity96_ComfyUI_NetDist_readme_74c661d04a78.png)\n\n#### 简单多机设置\n您可以通过将更多简单的队列节点连接起来来扩展上述示例，但种子处理稍显不稳定，重复使用种子可能会导致重复图像。建议在两个实例上都设置随机种子。\n\n![NetDistMulti](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcity96_ComfyUI_NetDist_readme_3088a7672d0b.png)\n\n#### 高级设置\n此设置主要用于具有两块以上 GPU 的“高级”配置。它允许更轻松地覆盖每个批次的设置，并可设定默认批次大小。\n\n此外，它还支持将工作流 JSON 作为输入。为了使任何工作流都能运行，可以将最终图像设置为“任意”，而不是默认的“final_image”（后者要求工作流中包含 `FetchRemote` 节点）。\n\n我提供了一些用于保存和加载工作流的节点，但理想情况下还应有用于编辑工作流的节点，例如搜索和替换种子等。欢迎提交 PR；P\n\n工作流 JSON：[NetDistAdvancedV2.json](https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI_NetDist\u002Ffiles\u002F13843005\u002FNetDistAdvancedV2.json)\n\n![NetDistAdvanced](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcity96_ComfyUI_NetDist_readme_7971996f925a.png)\n\n（此设置需要一个假图像输入来触发，您可以直接提供一张空白图像）。\n\n![NetDistSaved](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcity96_ComfyUI_NetDist_readme_2b936ec3cd8d.png)\n\n### 远程图像\n`LoadImageUrl`（“加载图像（URL）”）节点的功能与普通“加载图像”节点完全相同。\n\n`SaveImageUrl`（“保存图像（URL）”）节点会向目标 URL 发送一个包含图像的 JSON 格式 POST 请求：\n- 文件名是键。\n- 值是经过 Base64 编码的 PNG 图像（可选地带有 `data:image\u002Fpng;base64` 前缀）。\n- 不保证不同批次之间的文件名唯一，因为这些文件不会在服务器端保存。您应在服务器端自行处理这一点。\n- 服务器端不会将任何数据写入磁盘。\n\n### 这些事情可能最好不要做：\n- 从同一客户端多次将同一个工作流排队到同一远程工作者。\n- ~~期望它能顺利运行。~~\n\n## 路线图\n- 修复一些边缘情况，例如 Linux 控制 Windows 时的 `os.sep` 不匹配问题。\n- 改进静态工作流的编辑功能。\n- 处理多个独立的图像输出节点。","# ComfyUI_NetDist 快速上手指南\n\nComfyUI_NetDist 是一个允许你在多张本地显卡或多台联网机器上分布式运行 ComfyUI 工作流的自定义节点包。\n\n## 环境准备\n\n*   **系统要求**：支持 Windows 或 Linux，需安装 Python 和 ComfyUI。\n*   **硬件要求**：至少需要两张 GPU（同一台机器）或两台独立的计算机。\n*   **前置依赖**：需要安装 `requests` 库。\n\n## 安装步骤\n\n1.  **安装依赖库**\n    在终端或命令行中运行以下命令：\n    ```bash\n    pip install requests\n    ```\n    > **提示**：国内用户如遇下载缓慢，可使用清华源加速：\n    > `pip install requests -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n2.  **安装节点插件**\n    进入你的 ComfyUI 根目录，将插件克隆到 `custom_nodes` 文件夹中：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI_NetDist ComfyUI\u002Fcustom_nodes\u002FComfyUI_NetDist\n    ```\n    安装完成后重启 ComfyUI。\n\n## 基本使用（双卡\u002F双机简易模式）\n\n这是最基础的用法，适用于拥有两张显卡的单台主机，或两台独立的电脑。\n\n### 1. 启动多个 ComfyUI 实例\n你需要同时运行两个 ComfyUI 实例，并区分端口和设备 ID。\n\n*   **实例 A (主控端)**：正常启动。\n*   **实例 B (远程执行端)**：\n    *   **单主机双卡**：添加启动参数指定端口和显卡编号（例如使用第二张卡）：\n        ```bash\n        python main.py --port 8288 --cuda-device 1\n        ```\n    *   **多主机互联**：在另一台电脑上启动时，需添加 `--listen` 参数以允许网络访问，并记下该电脑的局域网 IP 地址（Windows 使用 `ipconfig`，Linux 使用 `ip a` 查看）。\n        ```bash\n        python main.py --port 8288 --listen\n        ```\n\n### 2. 构建工作流\n在主控端的工作流中，只需使用两个核心节点即可实现分布式推理：\n\n1.  **QueueRemote (排队发送到远程)**：\n    *   将需要处理的数据（如潜空间、提示词等）连接到此节点。\n    *   设置目标远程实例的 IP 地址和端口（本地双卡通常为 `127.0.0.1:8288`）。\n    *   可设置批次大小 (Batch Size) 和触发条件（建议设为 'always' 以确保每次更改参数都执行）。\n\n2.  **FetchRemote (从远程获取)**：\n    *   此节点接收一个图像输入（通常是你希望最终返回的图像占位符，**注意不要将其输出连回自身形成死循环**）。\n    *   该节点会阻塞等待，直到远程实例生成完毕并返回图像。\n\n### 3. 运行\n点击队列提示 (Queue Prompt)。主控端会将任务发送给远程实例，远程实例完成计算后，结果会自动回传至主控端的 `FetchRemote` 节点显示。\n\n> **注意**：目前远程执行过程中没有进度条预览，需等待最终图像出现。","某独立游戏工作室的美术团队需要在周末前生成 2000 张高分辨率的角色概念图，他们拥有一台配备双 RTX 4090 的工作站和两台闲置的旧电脑。\n\n### 没有 ComfyUI_NetDist 时\n- **硬件资源浪费**：主显卡满载运行时，第二块显卡和局域网内的其他电脑只能闲置，无法参与渲染任务。\n- **人工操作繁琐**：为了利用多机性能，工作人员必须手动在每台电脑上打开 ComfyUI，分别加载工作流并逐个点击生成，极易出错。\n- **进度管理混乱**：无法统一监控所有设备的生成进度，难以判断何时完成全部批次，且容易因种子设置重复导致生成冗余图片。\n- **等待时间过长**：单卡串行处理大量高清大图耗时极长，往往需要通宵运行才能交付，严重拖慢项目迭代节奏。\n\n### 使用 ComfyUI_NetDist 后\n- **算力聚合加速**：通过简单的节点配置，将双显卡及局域网内的旧电脑瞬间组成分布式集群，并行处理图像生成任务。\n- **工作流自动化**：只需在主控端设计一次工作流，ComfyUI_NetDist 自动将任务分发给远程节点，无需人工干预各从属设备。\n- **智能调度与去重**：工具支持批量覆盖参数和随机种子管理，确保每台机器生成的图片不重复，并实时回传最终结果。\n- **效率显著提升**：原本需要 10 小时的任务缩短至 3 小时内完成，团队能在下班前获得全部素材，大幅提升了创作自由度。\n\nComfyUI_NetDist 的核心价值在于将分散的本地 GPU 和网络设备转化为统一的弹性算力池，让大规模图像生成变得像单机操作一样简单高效。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcity96_ComfyUI_NetDist_3e6abb62.png","city96","City","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fcity96_cfd49667.png","Trying my best",null,"City96p","v100s.net","https:\u002F\u002Fgithub.com\u002Fcity96",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,502,52,"2026-04-02T19:50:19","Apache-2.0",4,"Linux, Windows","需要多张本地 GPU 或多台联网机器；若使用本地多卡，需支持 CUDA 并可通过 --cuda-device 参数指定设备编号；具体型号和显存大小取决于所运行的 ComfyUI 工作流需求","未说明",{"notes":97,"python":95,"dependencies":98},"该工具是 ComfyUI 的自定义节点插件，需至少运行两个 ComfyUI 实例（可在同一台机器的不同 GPU 上或不同机器上）。若在多台机器间部署，远程实例启动时需添加 --listen 参数，并确保网络互通。跨平台控制（如 Linux 控制 Windows）可能存在路径分隔符兼容性问题。",[99],"requests",[14,36],"2026-03-27T02:49:30.150509","2026-04-06T05:19:47.055712",[104,109,114,119,124,129],{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},12421,"如何在本地 PC 上设置并使用多张显卡同时运行？","该插件通过分布式方式让每张显卡运行一个独立的 ComfyUI 实例，而不是合并显存。如果你是因为显存不足（例如运行 AnimateDiff 需要 24GB）而试图合并多卡显存，这个方案可能不适合你，因为它会将任务拆分为多个独立任务分别在不同卡上运行。建议尝试以下方案：1. 使用专门的 animatediff-cli 仓库以降低显存占用；2. 先生成低分辨率的基础动画，然后将每一帧作为独立的 Latent 拆分，分别在多卡上进行放大处理，最后再重新合并生成 GIF。","https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI_NetDist\u002Fissues\u002F4",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},12422,"遇到 'Out of range float values are not JSON compliant' 错误怎么办？","这是一个已知的兼容性错误，通常由工作流中包含超出 JSON 标准的浮点数值引起。维护者已经修复了此问题。请确保你将 ComfyUI_NetDist 插件更新到最新版本。如果问题仍然存在，检查你的工作流中是否有异常的数值节点，或者尝试重新导出 API 格式的工作流。","https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI_NetDist\u002Fissues\u002F14",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},12423,"如何让远程实例运行特定的工作流而不是仅接收提示词？","你可以修改输入以支持 JSON 格式的工作流。具体做法是：将远程链（remote_chain）的输入从单纯的提示词改为完整的 API 工作流 JSON。在本地 UI 实例中，可以使用如 'LoadJsonFromUrl' 这样的自定义节点加载导出的工作流 JSON，并将其连接到远程启动节点。这样，你可以配置远程实例处理批处理中的特定部分（例如潜空间 1 和 2），而本地实例处理其他部分（例如 3 和 4），从而实现分块处理（如分块 IP Adapter 放大或 StableVideo）。","https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI_NetDist\u002Fissues\u002F7",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},12424,"这个插件能合并多张显卡的显存来解决单个任务显存不足的问题吗？","不能。该插件的设计原理是网络分布式处理，即每张显卡运行一个独立的 ComfyUI 实例来处理不同的任务或同一批次的不同部分（并行处理），它无法将多张卡的显存虚拟化为一张大显存来运行单个超大模型或任务。如果你的瓶颈是单任务显存需求超过单卡上限，建议优化工作流（如分块处理、降低分辨率）或使用专门针对低显存优化的 CLI 工具。","https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI_NetDist\u002Fissues\u002F31",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},12425,"是否可以实现完全仅在远程服务器上生成，本地不作为计算节点？","是的，可以实现。虽然早期版本主要关注协同工作，但社区用户已经探索出仅使用远程服务器生成的方法。这通常涉及配置本地节点仅作为触发器或控制端，将完整的生成负载发送到远程。具体的实现细节可以参考社区分支（如 ComfyUI_NetDist_Plus）或查看相关讨论，核心思路是将本地工作流设置为只发送指令和数据，而不执行实际的采样计算。","https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI_NetDist\u002Fissues\u002F12",{"id":130,"question_zh":131,"answer_zh":132,"source_url":118},12426,"如何利用该插件进行大规模图像放大（如 10000x6000）？","可以利用分布式特性进行分块处理。例如，在使用 Tiled IP Adapter 进行放大时，可以将一批潜空间（latents）分配给不同的远程实例，让它们各自处理自己的图块。你需要导出当前工作流为 API 格式，并在远程实例的工作流中设置其处理特定的潜空间索引（如批次中的第 1、2 张），本地实例处理其余部分。这种方法可以显著加速超大分辨率图像的生成过程，避免单卡处理过慢的问题。",[]]