[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-comfyanonymous--ComfyUI_TensorRT":3,"similar-comfyanonymous--ComfyUI_TensorRT":72},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":9,"readme_en":10,"readme_zh":11,"quickstart_zh":12,"use_case_zh":13,"hero_image_url":14,"owner_login":15,"owner_name":15,"owner_avatar_url":16,"owner_bio":7,"owner_company":17,"owner_location":7,"owner_email":7,"owner_twitter":7,"owner_website":7,"owner_url":18,"languages":19,"stars":24,"forks":25,"last_commit_at":26,"license":27,"difficulty_score":28,"env_os":29,"env_gpu":30,"env_ram":29,"env_deps":31,"category_tags":34,"github_topics":7,"view_count":28,"oss_zip_url":7,"oss_zip_packed_at":7,"status":37,"created_at":38,"updated_at":39,"faqs":40,"releases":71},877,"comfyanonymous\u002FComfyUI_TensorRT","ComfyUI_TensorRT",null,"ComfyUI_TensorRT 是一个专为 ComfyUI 设计的节点插件，它通过集成 NVIDIA TensorRT 技术，能够显著提升 Stable Diffusion 系列模型在 NVIDIA RTX 显卡上的运行性能。简单来说，它就像为你的 AI 绘画或视频生成流程安装了一个“性能加速器”。\n\n这个工具主要解决了在本地运行大型 AI 生成模型时速度慢、效率低的问题。通过将通用的模型文件转换为针对用户特定 NVIDIA GPU 优化的 TensorRT 引擎，它可以大幅缩短图像和视频的生成时间，让创作过程更加流畅高效。\n\n它非常适合经常使用 ComfyUI 进行 AI 内容创作的用户，包括数字艺术家、设计师、视频创作者以及相关领域的研究人员和开发者。特别是对于那些追求更高出图速度、希望充分利用自己 RTX 显卡性能的用户来说，这是一个非常实用的工具。需要注意的是，使用它需要一块 NVIDIA RTX 系列显卡，且不同模型对显存有不同要求（例如 SDXL 推荐 12GB 以上，而 Flux 模型目前需要超过 24GB）。\n\n其核心的技术亮点在于提供了动态和静态两种引擎构建方式。动","ComfyUI_TensorRT 是一个专为 ComfyUI 设计的节点插件，它通过集成 NVIDIA TensorRT 技术，能够显著提升 Stable Diffusion 系列模型在 NVIDIA RTX 显卡上的运行性能。简单来说，它就像为你的 AI 绘画或视频生成流程安装了一个“性能加速器”。\n\n这个工具主要解决了在本地运行大型 AI 生成模型时速度慢、效率低的问题。通过将通用的模型文件转换为针对用户特定 NVIDIA GPU 优化的 TensorRT 引擎，它可以大幅缩短图像和视频的生成时间，让创作过程更加流畅高效。\n\n它非常适合经常使用 ComfyUI 进行 AI 内容创作的用户，包括数字艺术家、设计师、视频创作者以及相关领域的研究人员和开发者。特别是对于那些追求更高出图速度、希望充分利用自己 RTX 显卡性能的用户来说，这是一个非常实用的工具。需要注意的是，使用它需要一块 NVIDIA RTX 系列显卡，且不同模型对显存有不同要求（例如 SDXL 推荐 12GB 以上，而 Flux 模型目前需要超过 24GB）。\n\n其核心的技术亮点在于提供了动态和静态两种引擎构建方式。动态引擎支持一定范围内的分辨率和批处理大小，灵活通用；静态引擎则针对单一分辨率与批处理大小进行极致优化，能提供顶级的性能并节省显存。用户可以根据自己的主要使用场景进行选择。\n\n安装可以通过 ComfyUI 管理器一键完成，或手动克隆代码库。使用流程主要分为两步：首先将已有的模型检查点转换为 TensorRT 引擎，然后在工作流中使用专门的加载节点来调用这个优化后的引擎进行加速生成。首次转换需要一些时间，但之后使用会非常快捷。目前版本暂不支持 ControlNet 或 LoRA，但未来更新会加入兼容性。","# TensorRT Node for ComfyUI\n\nThis node enables the best performance on NVIDIA RTX™ Graphics Cards\n (GPUs) for Stable Diffusion by leveraging NVIDIA TensorRT.\n\nSupports:\n\n- Stable Diffusion 1.5\n- Stable Diffusion 2.1\n- Stable Diffusion 3.0\n- SDXL\n- SDXL Turbo\n- Stable Video Diffusion\n- Stable Video Diffusion-XT \n- AuraFlow\n- Flux\n\nRequirements:\n\n- GeForce RTX™ or NVIDIA RTX™ GPU\n- For SDXL and SDXL Turbo, a GPU with 12 GB or more VRAM is recommended\n  for best performance due to its size and computational intensity.\n- For Stable Video Diffusion (SVD), a GPU with 16 GB or more VRAM is\n  recommended.\n- For Stable Video Diffusion-XT (SVD-XT), a GPU with 24 GB or more VRAM\n  is recommended.\n- For Flux more than 24GB vram is currently required.\n\n## Installing\n\nThe recommended way to install these nodes is to use the [ComfyUI Manager](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Manager)\nto easily install them to your ComfyUI instance.\n\nYou can also manually install them by git cloning the repo to your ComfyUI\u002Fcustom_nodes folder and installing the requirements like:\n\n```\ncd custom_nodes\ngit clone https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI_TensorRT\ncd ComfyUI_TensorRT\npip install -r requirements.txt\n```\n\n## Description\n\nNVIDIA TensorRT allows you to optimize how you run an AI model for your\nspecific NVIDIA RTX GPU, unlocking the highest performance. To do this,\nwe need to generate a TensorRT engine specific to your GPU.\n\nYou have the option to build either dynamic or static TensorRT engines:\n\n- Dynamic engines support a range of resolutions and batch sizes,\n  specified by the min and max parameters. Best performance will occur\n  when using the optimal (opt) resolution and batch size, so specify opt\n  parameters for your most commonly used resolution and batch size.\n\n&nbsp;\n\n- Static engines only support a single resolution and batch size. These\n  provide the same performance boost as the optimal settings for the\n  dynamic engines.\n\nNote: Most users will prefer dynamic engines, but static engines can be\nuseful if you use a specific resolution + batch size combination most of\nthe time. Static engines also require less VRAM; the wider the dynamic\nrange, the more VRAM will be consumed.\n\n## Instructions\n\nYou can find different workflows in the [workflows](workflows) folder of this repo.\nThese .json files can be loaded in ComfyUI.\n\n### Building A TensorRT Engine From a Checkpoint\n\n1.  Add a Load Checkpoint Node\n2.  Add either a Static Model TensorRT Conversion node or a Dynamic\n    Model TensorRT Conversion node to ComfyUI\n3.  ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_98d3d9d38227.png)\n4.  Connect the Load Checkpoint Model output to the TensorRT Conversion\n    Node Model input.\n5.  ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_acfe90dd4263.png)\n6.  ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_860bef879f1c.png)\n7.  To help identify the converted TensorRT model, provide a meaningful\n    filename prefix, add this filename after “tensorrt\u002F”\n8.  ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_6ff8fd3aed2e.png)\n\n9.  Click on Queue Prompt to start building the TensorRT Engines\n10. ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_028754f3b9bc.png)\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_608f8e060819.png)\n\nThe Model Conversion node will be highlighted while the TensorRT Engine\nis being built.\n\nAdditional information about the model conversion process can be seen in\nthe console.\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_00671af0b0f1.png)\n\nThe first time generating an engine for a checkpoint will take awhile.\nAdditional engines generated thereafter for the same checkpoint will be\nmuch faster. Generating engines can take anywhere from 3-10 minutes for\nthe image generation models and 10-25 minutes for SVD. SVD-XT is an\nextremely extensive model - engine build times may take up to an hour.\n\n------------------------------------------------------------------------\n\n### Accelerated Image Generation Using a TensorRT Engine\n\nTensorRT Engines are loaded using the TensorRT Loader node.\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_2e686fca03bc.png)\n\n## Common Issues\u002FLimitations\n\nComfyUI TensorRT engines are not yet compatible with ControlNets or\nLoRAs. Compatibility will be enabled in a future update.\n\n1.  Add a TensorRT Loader node\n2.  Note, if a TensorRT Engine has been created during a ComfyUI\n    session, it will not show up in the TensorRT Loader until the\n    ComfyUI interface has been refreshed (F5 to refresh browser).\n3.  ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_d7c3e4fd6561.png)\n4.  Select a TensorRT Engine from the unet_name dropdown\n5.  Dynamic Engines will use a filename format of:\n\n&nbsp;\n\n1.  dyn-b-min-max-opt-h-min-max-opt-w-min-max-opt\n2.  dyn=dynamic, b=batch size, h=height, w=width\n\n&nbsp;\n\n6.  Static Engine will use a filename format of:\n\n&nbsp;\n\n1.  stat-b-opt-h-opt-w-opt\n2.  stat=static, b=batch size, h=height, w=width\n\n&nbsp;\n\n7.  ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_c1036c757356.png)\n8.  The model_type must match the model type of the TensorRT engine.\n9.  ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_4afcbc5008f1.png)\n10. The CLIP and VAE for the workflow will need to be utilized from the\n    original model checkpoint, the MODEL output from the TensorRT Loader\n    will be connected to the Sampler.\n","# ComfyUI 的 TensorRT 节点\n\n此节点通过利用 NVIDIA TensorRT，为 Stable Diffusion 在 NVIDIA RTX™ 显卡（GPU）上提供最佳性能。\n\n支持：\n- Stable Diffusion 1.5\n- Stable Diffusion 2.1\n- Stable Diffusion 3.0\n- SDXL\n- SDXL Turbo\n- Stable Video Diffusion\n- Stable Video Diffusion-XT\n- AuraFlow\n- Flux\n\n要求：\n- GeForce RTX™ 或 NVIDIA RTX™ GPU\n- 对于 SDXL 和 SDXL Turbo，由于其模型大小和计算强度，建议使用具有 12 GB 或更多显存（VRAM）的 GPU 以获得最佳性能。\n- 对于 Stable Video Diffusion (SVD)，建议使用具有 16 GB 或更多显存的 GPU。\n- 对于 Stable Video Diffusion-XT (SVD-XT)，建议使用具有 24 GB 或更多显存的 GPU。\n- 对于 Flux，目前需要超过 24GB 的显存。\n\n## 安装\n\n推荐的安装方式是使用 [ComfyUI Manager](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Manager) 轻松地将这些节点安装到你的 ComfyUI 实例中。\n\n你也可以通过以下方式手动安装：将仓库 git clone 到你的 ComfyUI\u002Fcustom_nodes 文件夹，并安装依赖项，例如：\n\n```\ncd custom_nodes\ngit clone https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI_TensorRT\ncd ComfyUI_TensorRT\npip install -r requirements.txt\n```\n\n## 描述\n\nNVIDIA TensorRT 允许你针对特定的 NVIDIA RTX GPU 优化 AI 模型的运行方式，从而解锁最高性能。为此，我们需要生成一个专属于你 GPU 的 TensorRT 引擎。\n\n你可以选择构建动态或静态的 TensorRT 引擎：\n- **动态引擎** 支持一系列分辨率和批次大小（batch size），由最小和最大参数指定。当使用最优（opt）分辨率和批次大小时，性能最佳，因此请为你最常用的分辨率和批次大小指定 opt 参数。\n\n&nbsp;\n\n- **静态引擎** 仅支持单一的分辨率和批次大小。它们能提供与动态引擎最优设置相同的性能提升。\n\n注意：大多数用户会更喜欢动态引擎，但如果你大部分时间都使用特定的分辨率 + 批次大小组合，静态引擎会很有用。静态引擎也消耗更少的显存；动态范围越宽，消耗的显存就越多。\n\n## 使用说明\n\n你可以在本仓库的 [workflows](workflows) 文件夹中找到不同的工作流。这些 .json 文件可以在 ComfyUI 中加载。\n\n### 从检查点构建 TensorRT 引擎\n\n1.  添加一个 \"Load Checkpoint\" 节点。\n2.  向 ComfyUI 添加一个 \"Static Model TensorRT Conversion\" 节点或一个 \"Dynamic Model TensorRT Conversion\" 节点。\n3.  ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_98d3d9d38227.png)\n4.  将 \"Load Checkpoint\" 节点的 \"Model\" 输出连接到 \"TensorRT Conversion\" 节点的 \"Model\" 输入。\n5.  ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_acfe90dd4263.png)\n6.  ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_860bef879f1c.png)\n7.  为了帮助识别转换后的 TensorRT 模型，请提供一个有意义的文件名前缀，将其添加到 \"tensorrt\u002F\" 之后。\n8.  ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_6ff8fd3aed2e.png)\n9.  点击 \"Queue Prompt\" 开始构建 TensorRT 引擎。\n10. ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_028754f3b9bc.png)\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_608f8e060819.png)\n\n在构建 TensorRT 引擎时，\"Model Conversion\" 节点会高亮显示。\n\n可以在控制台中查看有关模型转换过程的更多信息。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_00671af0b0f1.png)\n\n首次为某个检查点生成引擎需要一些时间。之后为同一检查点生成的其他引擎会快得多。图像生成模型的引擎生成时间可能在 3-10 分钟，SVD 模型可能在 10-25 分钟。SVD-XT 是一个极其庞大的模型——引擎构建时间可能长达一小时。\n\n------------------------------------------------------------------------\n\n### 使用 TensorRT 引擎进行加速图像生成\n\nTensorRT 引擎使用 \"TensorRT Loader\" 节点加载。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_2e686fca03bc.png)\n\n## 常见问题\u002F限制\n\nComfyUI TensorRT 引擎目前尚不兼容 ControlNets 或 LoRAs。兼容性将在未来的更新中启用。\n\n1.  添加一个 \"TensorRT Loader\" 节点。\n2.  注意，如果在 ComfyUI 会话期间创建了 TensorRT 引擎，它不会立即显示在 \"TensorRT Loader\" 节点的下拉列表中，直到刷新 ComfyUI 界面（按 F5 刷新浏览器）。\n3.  ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_d7c3e4fd6561.png)\n4.  从 `unet_name` 下拉菜单中选择一个 TensorRT 引擎。\n5.  动态引擎的文件名格式为：\n\n&nbsp;\n\n1.  dyn-b-min-max-opt-h-min-max-opt-w-min-max-opt\n2.  dyn=动态, b=批次大小, h=高度, w=宽度\n\n&nbsp;\n\n6.  静态引擎的文件名格式为：\n\n&nbsp;\n\n1.  stat-b-opt-h-opt-w-opt\n2.  stat=静态, b=批次大小, h=高度, w=宽度\n\n&nbsp;\n\n7.  ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_c1036c757356.png)\n8.  `model_type` 必须与 TensorRT 引擎的模型类型匹配。\n9.  ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_readme_4afcbc5008f1.png)\n10. 工作流中的 CLIP 和 VAE 需要从原始模型检查点中获取，\"TensorRT Loader\" 节点的 \"MODEL\" 输出将连接到 \"Sampler\"。","# ComfyUI_TensorRT 快速上手指南\n\n## 环境准备\n\n**硬件要求：**\n- 显卡：必须为 NVIDIA GeForce RTX™ 或 NVIDIA RTX™ 系列 GPU。\n- 显存建议：\n    - **SDXL \u002F SDXL Turbo**：建议 12 GB 或以上显存以获得最佳性能。\n    - **Stable Video Diffusion (SVD)**：建议 16 GB 或以上显存。\n    - **Stable Video Diffusion-XT (SVD-XT)**：建议 24 GB 或以上显存。\n    - **Flux**：目前需要超过 24 GB 显存。\n\n**支持模型：**\n- Stable Diffusion 1.5\u002F2.1\u002F3.0\n- SDXL\n- SDXL Turbo\n- Stable Video Diffusion\n- Stable Video Diffusion-XT\n- AuraFlow\n- Flux\n\n## 安装步骤\n\n**推荐安装方式（通过 ComfyUI Manager）：**\n1. 在 ComfyUI 中安装并打开 **ComfyUI Manager**。\n2. 使用其搜索和安装功能，查找并安装 `ComfyUI_TensorRT` 节点。\n\n**手动安装方式：**\n1. 打开终端，进入你的 ComfyUI 安装目录下的 `custom_nodes` 文件夹。\n2. 依次执行以下命令：\n```bash\ncd custom_nodes\ngit clone https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI_TensorRT\ncd ComfyUI_TensorRT\npip install -r requirements.txt\n```\n3. 重启 ComfyUI。\n\n## 基本使用\n\n### 第一步：构建 TensorRT 引擎\nTensorRT 引擎需要针对你的特定 GPU 和模型进行优化生成。你可以选择构建**动态引擎**（支持一定范围内的分辨率和批大小）或**静态引擎**（仅支持单一分辨率与批大小，更省显存）。\n\n1.  在 ComfyUI 工作流中添加一个 **Load Checkpoint** 节点，加载你的模型（如 `sd_xl_base_1.0.safetensors`）。\n2.  添加一个 TensorRT 转换节点：在节点菜单中找到并添加 **`Static Model TensorRT Conversion`**（静态）或 **`Dynamic Model TensorRT Conversion`**（动态）。\n3.  将 **Load Checkpoint** 节点的 `MODEL` 输出连接到 TensorRT 转换节点的 `model` 输入。\n4.  **（重要）** 在转换节点的 `filename_prefix` 输入框中，为你即将生成的引擎指定一个易于识别的名称（例如 `tensorrt\u002Fmy_sdxl_engine`）。\n5.  点击 **Queue Prompt** 开始构建引擎。首次为某个模型构建引擎可能需要较长时间（图像模型约3-10分钟，SVD约10-25分钟，SVD-XT可能长达1小时），后续构建会快很多。\n6.  构建过程中，转换节点会高亮显示，你可以在控制台查看详细进度信息。\n\n### 第二步：使用 TensorRT 引擎加速生成\n引擎构建完成后，即可用它来加速推理。\n\n1.  在节点菜单中找到并添加 **`TensorRT Loader`** 节点。\n2.  **注意**：如果在当前 ComfyUI 会话中新构建了引擎，需要刷新界面（在浏览器中按 **F5**）后，引擎才会出现在加载器的下拉列表中。\n3.  在 `TensorRT Loader` 节点的 `unet_name` 下拉菜单中，选择你刚才构建的引擎文件。动态引擎文件名格式为 `dyn-b-min-max-opt-h-min-max-opt-w-min-max-opt`，静态引擎为 `stat-b-opt-h-opt-w-opt`。\n4.  在 `model_type` 中选择与引擎匹配的模型类型（如 `SDXL`）。\n5.  将 `TensorRT Loader` 节点的 `MODEL` 输出连接到采样器（如 KSampler）的 `model` 输入。\n6.  **CLIP** 和 **VAE** 仍需使用原始模型检查点中的对应组件，连接到工作流的相应位置。\n7.  配置其他参数（如提示词、采样步数等），然后执行队列即可享受 TensorRT 带来的加速。","**场景背景**：一位独立游戏开发者正在使用 ComfyUI 生成大量高质量的游戏概念图，他需要基于 SDXL 模型快速迭代不同风格的角色和场景，但受限于硬件（RTX 4070 Ti 12GB）和生成速度，项目进度缓慢。\n\n### 没有 ComfyUI_TensorRT 时\n- **生成速度慢**：每生成一张 1024x1024 的 SDXL 图片需要约 12-15 秒，批量产出素材耗时极长，严重拖慢设计迭代周期。\n- **硬件利用率低**：GPU 在推理时波动较大，未能持续满负荷运行，显存管理效率不高，偶尔会因复杂提示词导致溢出错误。\n- **工作流卡顿**：在 ComfyUI 中连续生成图片时，界面响应会变慢，排队任务堆积，无法流畅地进行“生成-微调-再生成”的快速循环。\n- **批量出图成本高**：为了赶进度，开发者曾尝试在云端 GPU 实例上运行，但按小时计费的成本在长期项目中变得难以承受。\n\n### 使用 ComfyUI_TensorRT 后\n- **生成速度提升 3-4 倍**：通过为 SDXL 模型构建动态 TensorRT 引擎后，相同分辨率图片的生成时间降至 3-4 秒，日均出图量大幅增加。\n- **GPU 性能充分发挥**：TensorRT 引擎针对该款 RTX GPU 进行了深度优化，实现了稳定的高负载运行，显存使用也更高效，避免了之前的内存错误。\n- **工作流顺畅实时**：极快的单图生成速度使得开发者可以几乎实时地看到提示词微调后的效果，实现了流畅的交互式创作，界面无卡顿。\n- **完全本地化高效运行**：在本地硬件上获得了超越普通云端实例的性价比，省去了云服务成本与数据传输时间，项目长期可控性增强。\n\nComfyUI_TensorRT 通过将 AI 模型深度编译并优化为专属的 TensorRT 引擎，让开发者在消费级 GPU 上获得了近乎工作站级别的稳定高性能，从根本上改变了 AI 辅助创作的速度与成本体验。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcomfyanonymous_ComfyUI_TensorRT_98d3d9d3.png","comfyanonymous","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fcomfyanonymous_a66ba1ce.png","@Comfy-Org","https:\u002F\u002Fgithub.com\u002Fcomfyanonymous",[20],{"name":21,"color":22,"percentage":23},"Python","#3572A5",100,699,71,"2026-03-31T11:37:38","MIT",3,"未说明","必需。需要 NVIDIA GeForce RTX™ 或 NVIDIA RTX™ GPU。显存要求因模型而异：SDXL\u002FSDXL Turbo 推荐 12GB+；Stable Video Diffusion (SVD) 推荐 16GB+；Stable Video Diffusion-XT (SVD-XT) 推荐 24GB+；Flux 目前需要超过 24GB。",{"notes":32,"python":29,"dependencies":33},"1. 此工具为 ComfyUI 的节点插件，需先安装 ComfyUI。2. 首次为某个模型生成 TensorRT 引擎耗时较长（图像模型 3-10 分钟，SVD 10-25 分钟，SVD-XT 可能长达 1 小时）。3. 目前暂不支持 ControlNet 或 LoRA。4. 动态引擎支持一定范围的尺寸和批次，静态引擎仅支持单一尺寸和批次但更省显存。5. 在 ComfyUI 会话中新建的 TensorRT 引擎，需刷新界面（F5）才能在 TensorRT 加载器节点中看到。",[],[35,36],"图像","开发框架","ready","2026-03-27T02:49:30.150509","2026-04-06T06:52:08.822833",[41,46,51,56,61,66],{"id":42,"question_zh":43,"answer_zh":44,"source_url":45},3785,"使用 TensorRT 节点时，为什么会随机生成全黑图像？","这是一个已知问题，通常由特定提交版本引起。解决方案是应用修复提交。请确保您的 ComfyUI_TensorRT 已更新到包含提交 41e28c6d62db9e34922c44df25a5ccacc849382c 的版本。该提交修复了导致随机黑图生成的错误。更新后，SD3 和 SDXL 模型的黑图问题应得到解决。","https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI_TensorRT\u002Fissues\u002F7",{"id":47,"question_zh":48,"answer_zh":49,"source_url":50},3786,"SD3 模型使用 TensorRT 引擎时总是生成黑图怎么办？","此问题已在提交 41e28c6d62db9e34922c44df25a5ccacc849382c 中修复。请更新您的 ComfyUI_TensorRT 仓库以获取此修复。如果问题仍然存在，请确保您使用的是最新版本。对于批量大小（batch size）大于1的引擎，此修复同样适用。","https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI_TensorRT\u002Fissues\u002F25",{"id":52,"question_zh":53,"answer_zh":54,"source_url":55},3787,"安装时出现“With the current security level configuration, only custom nodes from the 'default channel' can be installed.”错误如何解决？","此错误是由于 ComfyUI-Manager 的安全设置导致的。解决方法有两种：\n1. 在 ComfyUI-Manager 的设置中，将“channel”更改为“dev”频道，然后尝试安装。\n2. 如果上述方法无效，需要手动修改安全级别。配置文件 `config.ini` 的新位置在 `\u002Fcomfyui\u002Fuser\u002F__manager\u002F` 目录下。用文本编辑器打开此文件，找到 `security_level = normal` 这一行，将其改为 `security_level = weak`，保存后重启 ComfyUI 并重试安装。","https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI_TensorRT\u002Fissues\u002F6",{"id":57,"question_zh":58,"answer_zh":59,"source_url":60},3788,"转换 FLUX 模型时出现“mat1 and mat2 shapes cannot be multiplied”错误怎么办？","此错误表明模型转换过程中出现了形状不匹配问题。首先，尝试更新您的 ComfyUI 到最新版本，这可能解决兼容性问题。\n\n**重要提示**：转换 FLUX 模型（尤其是 Flux1-dev）对 VRAM 要求极高。即使用 RTX 4090（24GB）也可能因内存不足而失败。有用户报告，即使通过 CPU 卸载（offload）成功转换（耗时2-3小时），推理时仍可能因需要超过 24GB 显存而失败或性能下降。\n\n**替代方案**：考虑使用经过量化的 FLUX 模型，例如通过 ComfyUI-nunchaku 节点（https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002FComfyUI-nunchaku）使用 SDVQuant 模型，这可以大幅降低显存需求并提升生成速度。","https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI_TensorRT\u002Fissues\u002F60",{"id":62,"question_zh":63,"answer_zh":64,"source_url":65},3789,"TensorRT 转换生成的引擎文件被保存在哪里？可以更改路径吗？","默认情况下，生成的 TensorRT 引擎文件（.trt 或 .plan）会被保存在 ComfyUI 的 `output` 文件夹中。\n\n目前，用户报告存在以下问题：\n1.  如果使用 `--output-directory` 参数更改了 ComfyUI 的输出路径，新生成的引擎文件可能不会自动出现在节点的可用引擎列表中。\n2.  即使刷新列表，新路径下的引擎文件也可能不显示。\n\n**临时解决方案**：需要手动将生成的引擎文件从自定义的输出目录移动或复制到 ComfyUI 默认的 `output` 文件夹（通常是 `comfyui\u002Foutput`）中，然后它们才会出现在选择列表中。\n这是一个已知的路径识别问题，建议关注仓库更新以获取官方修复。","https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI_TensorRT\u002Fissues\u002F13",{"id":67,"question_zh":68,"answer_zh":69,"source_url":70},3790,"使用 TensorRT 节点时遇到“Module onnx is not installed!”错误如何解决？","这个错误表明您的 Python 环境中缺少 `onnx` 模块，而这是将模型转换为 TensorRT 格式所必需的依赖项。\n\n**解决方案**：\n您需要手动安装 `onnx` 包。请根据您的 ComfyUI 安装方式，在正确的 Python 环境中运行以下命令：\n```bash\npip install onnx\n```\n如果您使用的是 ComfyUI 便携版（portable），请确保在其内置的 Python 环境中执行此命令。安装完成后，重启 ComfyUI 即可。仅仅更新 ComfyUI 或重新安装 TensorRT 节点本身不会自动安装此依赖。","https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI_TensorRT\u002Fissues\u002F99",[],[73,82,92,100,108,121],{"id":74,"name":75,"github_repo":76,"description_zh":77,"stars":78,"difficulty_score":28,"last_commit_at":79,"category_tags":80,"status":37},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[36,35,81],"Agent",{"id":83,"name":84,"github_repo":85,"description_zh":86,"stars":87,"difficulty_score":88,"last_commit_at":89,"category_tags":90,"status":37},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[36,81,91],"语言模型",{"id":93,"name":94,"github_repo":95,"description_zh":96,"stars":97,"difficulty_score":88,"last_commit_at":98,"category_tags":99,"status":37},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[36,35,81],{"id":101,"name":102,"github_repo":103,"description_zh":104,"stars":105,"difficulty_score":88,"last_commit_at":106,"category_tags":107,"status":37},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[36,91],{"id":109,"name":110,"github_repo":111,"description_zh":112,"stars":113,"difficulty_score":88,"last_commit_at":114,"category_tags":115,"status":37},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[35,116,117,118,81,119,91,36,120],"数据工具","视频","插件","其他","音频",{"id":122,"name":123,"github_repo":124,"description_zh":125,"stars":126,"difficulty_score":28,"last_commit_at":127,"category_tags":128,"status":37},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[81,35,36,91,119]]