[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ZHO-ZHO-ZHO--ComfyUI-YoloWorld-EfficientSAM":3,"tool-ZHO-ZHO-ZHO--ComfyUI-YoloWorld-EfficientSAM":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":74,"owner_location":77,"owner_email":74,"owner_twitter":78,"owner_website":74,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":32,"env_os":89,"env_gpu":90,"env_ram":89,"env_deps":91,"category_tags":95,"github_topics":96,"view_count":32,"oss_zip_url":74,"oss_zip_packed_at":74,"status":17,"created_at":99,"updated_at":100,"faqs":101,"releases":137},8103,"ZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM","ComfyUI-YoloWorld-EfficientSAM","Unofficial implementation of  YOLO-World + EfficientSAM for ComfyUI","ComfyUI-YoloWorld-EfficientSAM 是一款专为 ComfyUI 设计的开源插件，旨在实现高效的目标检测与实例分割。它巧妙结合了 YOLO-World 强大的开放词汇检测能力与 EfficientSAM 轻量级的分割技术，让用户仅需输入自然语言描述（如“一只红色的猫”），即可在图像或视频中精准定位并提取特定对象，无需预先训练模型。\n\n该工具主要解决了传统检测模型依赖固定类别、难以灵活响应自定义查询的痛点，同时通过高效的算法组合，显著降低了计算资源消耗，使复杂的视觉任务在普通硬件上也能流畅运行。其独特亮点在于支持视频流处理，并提供精细的蒙版控制功能，用户可选择合并所有检测结果或单独提取指定对象的掩码，极大提升了后期处理的灵活性。\n\n这款工具非常适合需要在本地工作流中快速集成智能视觉能力的创作者、设计师及 AI 爱好者。无论是进行素材批量抠图、视频内容分析，还是构建个性化的自动化图像处理流程，ComfyUI-YoloWorld-EfficientSAM 都能通过直观的节点配置，帮助用户轻松将前沿的 AI 视觉技术转化为实际生产力。","\n![ywes_](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZHO-ZHO-ZHO_ComfyUI-YoloWorld-EfficientSAM_readme_d86f5982eae5.png)\n\n\n# ComfyUI YoloWorld-EfficientSAM\n\nUnofficial implementation of [YOLO-World + EfficientSAM](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FSkalskiP\u002FYOLO-World) & [YOLO-World](https:\u002F\u002Fgithub.com\u002FAILab-CVC\u002FYOLO-World) for ComfyUI\n\n\n![Dingtalk_20240220201311](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZHO-ZHO-ZHO_ComfyUI-YoloWorld-EfficientSAM_readme_41384548adcf.png)\n\n\n## 项目介绍 | Info\n\n- 对[YOLO-World + EfficientSAM](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FSkalskiP\u002FYOLO-World)的非官方实现\n\n- 利用全新的 [YOLO-World](https:\u002F\u002Fgithub.com\u002FAILab-CVC\u002FYOLO-World) 与 [EfficientSAM](https:\u002F\u002Fgithub.com\u002Fyformer\u002FEfficientSAM) 实现高效的对象检测 + 分割\n  \n- 版本：V2.0 新增蒙版分离 + 提取功能，支持选择指定蒙版单独输出，同时支持图像和视频（V1.0工作流已弃用）\n\n\u003C!---\n  同时支持图像与视频，还支持输出 mask 蒙版，增加了 [ltdrdata](https:\u002F\u002Fgithub.com\u002Fltdrdata) 提供的 YOLO_WORLD_SEGS 新节点\n--->\n\n# 视频演示\n\nV2.0\n\nhttps:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fassets\u002F140084057\u002Fc7803084-8864-4bc5-a23f-20a47cf66925\n\n\nV1.0\n\nhttps:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fassets\u002F140084057\u002Fed51a9c7-0e06-4026-8946-04dd78aa712c\n\n\n\n## 节点说明 | Features\n\n- YOLO-World 模型加载 | 🔎Yoloworld Model Loader\n    - 支持 3 种官方模型：yolo_world\u002Fl, yolo_world\u002Fm, yolo_world\u002Fs，会自动下载并加载\n    \n- EfficientSAM 模型加载 | 🔎ESAM Model Loader\n    - 支持 CUDA 或 CPU\n    \n- 🆕检测 + 分割 | 🔎Yoloworld ESAM\n    - yolo_world_model：接入 YOLO-World 模型\n    - esam_model：接入 EfficientSAM 模型\n    - image：接入图像\n    - categories：检测 + 分割内容\n    - confidence_threshold：置信度阈值，降低可减少误检，增强模型对所需对象的敏感性。增加可最小化误报，防止模型识别不应识别的对象\n    - iou_threshold：IoU 阈值，降低数值可减少边界框的重叠，使检测过程更严格。增加数值将会允许更多的边界框重叠，适应更广泛的检测范围\n    - box_thickness：检测框厚度\n    - text_thickness：文字厚度\n    - text_scale：文字缩放\n    - with_confidence：是否显示检测对象的置信度\n    - with_class_agnostic_nms：是否抑制类别之间的重叠边界框\n    - with_segmentation：是否开启 EfficientSAM 进行实例分割\n    - mask_combined：是否合并（叠加）蒙版 mask，\"是\"则将所有 mask 叠加在一张图上输出，\"否\"则会将所有的蒙版单独输出\n    - mask_extracted：是否提取选定蒙版 mask，\"是\"则会将按照 mask_extracted_index 将所选序号的蒙版单独输出\n    - mask_extracted_index：选择蒙版 mask 序号\n\n![Dingtalk_20240224154535](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZHO-ZHO-ZHO_ComfyUI-YoloWorld-EfficientSAM_readme_ed4673ec8471.png)\n\n\u003C!---\n![Dingtalk_20240220175722](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZHO-ZHO-ZHO_ComfyUI-YoloWorld-EfficientSAM_readme_4443f17ee4bd.png)\n--->\n\n- 🆕检测 + 分割 | 🔎Yoloworld ESAM Detector Provider （由 [ltdrdata](https:\u002F\u002Fgithub.com\u002Fltdrdata) 提供，感谢！）\n    - 可配合 Impact-Pack 一起使用\n    - yolo_world_model：接入 YOLO-World 模型\n    - esam_model：接入 EfficientSAM 模型\n    - categories：检测 + 分割内容\n    - iou_threshold：IoU 阈值\n    - with_class_agnostic_nms：是否抑制类别之间的重叠边界框\n\n ![306523112-ea37dfd0-7019-4207-af2a-aa3c9355b63e](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZHO-ZHO-ZHO_ComfyUI-YoloWorld-EfficientSAM_readme_eabd80b47d28.png)\n\n## 安装 | Install\n\n- 推荐使用管理器 ComfyUI Manager 安装（On the Way）\n\n- 手动安装：\n    1. `cd custom_nodes`\n    2. `git clone https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM`\n    3. `cd custom_nodes\u002FComfyUI-YoloWorld-EfficientSAM`\n    4. `pip install -r requirements.txt`\n    5. 重启 ComfyUI\n\n- 模型下载：将 [EfficientSAM](https:\u002F\u002Fhuggingface.co\u002Fcamenduru\u002FYoloWorld-EfficientSAM\u002Ftree\u002Fmain) 中的 efficient_sam_s_cpu.jit 和 efficient_sam_s_gpu.jit 下载到 custom_nodes\u002FComfyUI-YoloWorld-EfficientSAM 中\n\n\n## 工作流 | Workflows\n\nV2.0\n\n  - [V2.0 图片检测+分割](https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fblob\u002Fmain\u002FYOLO_World_EfficientSAM_WORKFLOWS\u002FYoloWorld-EfficientSAM%20V2.0%20IMG%20%E3%80%90Zho%E3%80%91.json)\n\n  - [V2.0 视频检测+分割](https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fblob\u002Fmain\u002FYOLO_World_EfficientSAM_WORKFLOWS\u002FYoloWorld-EfficientSAM%20V2.0%20VIDEO%20%E3%80%90Zho%E3%80%91.json)\n\nV1.0\n\n  - 注意：V1.0 工作流不适用于 V2.0\n\n  - [V1.0 图片检测+分割](https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fblob\u002Fmain\u002FYOLO_World_EfficientSAM_WORKFLOWS\u002FYoloWorld-EfficientSAM%20V1.0%20IMG%20%E3%80%90Zho%E3%80%91.json)\n\n\n  - [V1.0 视频检测+分割](https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fblob\u002Fmain\u002FYOLO_World_EfficientSAM_WORKFLOWS\u002FYoloWorld-EfficientSAM%20V1.0%20VIDEO%20%E3%80%90Zho%E3%80%91.json)\n\n\n## 更新日志\n\n- 20240224\n\n  V2.0 新增蒙版分离 + 提取功能，支持选择指定蒙版单独输出，同时支持图像和视频\n\n- 20240221\n\n  合并了由 [ltdrdata](https:\u002F\u002Fgithub.com\u002Fltdrdata) 提供的 🔎Yoloworld ESAM Detector Provider 节点\n\n- 20240220\n\n  创建项目\n\n  V1.0 同时支持图像与视频的检测与分割，还支持输出 mask 蒙版\n\n\n## Stars \n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZHO-ZHO-ZHO_ComfyUI-YoloWorld-EfficientSAM_readme_b59104e97187.png)](https:\u002F\u002Fstar-history.com\u002F#ZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM&Date)\n\n\n## 关于我 | About me\n\n📬 **联系我**：\n- 邮箱：zhozho3965@gmail.com\n- QQ 群：839821928\n\n🔗 **社交媒体**：\n- 个人页：[-Zho-](https:\u002F\u002Fjike.city\u002Fzho)\n- Bilibili：[我的B站主页](https:\u002F\u002Fspace.bilibili.com\u002F484366804)\n- X（Twitter）：[我的Twitter](https:\u002F\u002Ftwitter.com\u002FZHOZHO672070)\n- 小红书：[我的小红书主页](https:\u002F\u002Fwww.xiaohongshu.com\u002Fuser\u002Fprofile\u002F63f11530000000001001e0c8?xhsshare=CopyLink&appuid=63f11530000000001001e0c8&apptime=1690528872)\n\n💡 **支持我**：\n- B站：[B站充电](https:\u002F\u002Fspace.bilibili.com\u002F484366804)\n- 爱发电：[为我充电](https:\u002F\u002Fafdian.net\u002Fa\u002FZHOZHO)\n\n\n## Credits\n\n[YOLO-World + EfficientSAM](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FSkalskiP\u002FYOLO-World)\n\n[YOLO-World](https:\u002F\u002Fgithub.com\u002FAILab-CVC\u002FYOLO-World)\n\n[EfficientSAM](https:\u002F\u002Fgithub.com\u002Fyformer\u002FEfficientSAM)\n\n代码还参考了 [@camenduru](https:\u002F\u002Ftwitter.com\u002Fcamenduru) 感谢！\n\n[ltdrdata](https:\u002F\u002Fgithub.com\u002Fltdrdata) 提供了 🔎Yoloworld ESAM Detector Provider 节点，感谢！\n","![ywes_](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZHO-ZHO-ZHO_ComfyUI-YoloWorld-EfficientSAM_readme_d86f5982eae5.png)\n\n\n# ComfyUI YoloWorld-EfficientSAM\n\n针对 ComfyUI 的 [YOLO-World + EfficientSAM](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FSkalskiP\u002FYOLO-World) 与 [YOLO-World](https:\u002F\u002Fgithub.com\u002FAILab-CVC\u002FYOLO-World) 的非官方实现\n\n\n![Dingtalk_20240220201311](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZHO-ZHO-ZHO_ComfyUI-YoloWorld-EfficientSAM_readme_41384548adcf.png)\n\n\n## 项目介绍 | Info\n\n- 对[YOLO-World + EfficientSAM](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FSkalskiP\u002FYOLO-World)的非官方实现\n\n- 利用全新的 [YOLO-World](https:\u002F\u002Fgithub.com\u002FAILab-CVC\u002FYOLO-World) 与 [EfficientSAM](https:\u002F\u002Fgithub.com\u002Fyformer\u002FEfficientSAM) 实现高效的对象检测 + 分割\n  \n- 版本：V2.0 新增蒙版分离 + 提取功能，支持选择指定蒙版单独输出，同时支持图像和视频（V1.0工作流已弃用）\n\n\u003C!---\n  同时支持图像与视频，还支持输出 mask 蒙版，增加了 [ltdrdata](https:\u002F\u002Fgithub.com\u002Fltdrdata) 提供的 YOLO_WORLD_SEGS 新节点\n--->\n\n# 视频演示\n\nV2.0\n\nhttps:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fassets\u002F140084057\u002Fc7803084-8864-4bc5-a23f-20a47cf66925\n\n\nV1.0\n\nhttps:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fassets\u002F140084057\u002Fed51a9c7-0e06-4026-8946-04dd78aa712c\n\n\n\n## 节点说明 | Features\n\n- YOLO-World 模型加载 | 🔎Yoloworld Model Loader\n    - 支持 3 种官方模型：yolo_world\u002Fl, yolo_world\u002Fm, yolo_world\u002Fs，会自动下载并加载\n    \n- EfficientSAM 模型加载 | 🔎ESAM Model Loader\n    - 支持 CUDA 或 CPU\n    \n- 🆕检测 + 分割 | 🔎Yoloworld ESAM\n    - yolo_world_model：接入 YOLO-World 模型\n    - esam_model：接入 EfficientSAM 模型\n    - image：接入图像\n    - categories：检测 + 分割内容\n    - confidence_threshold：置信度阈值，降低可减少误检，增强模型对所需对象的敏感性。增加可最小化误报，防止模型识别不应识别的对象\n    - iou_threshold：IoU 阜值，降低数值可减少边界框的重叠，使检测过程更严格。增加数值将会允许更多的边界框重叠，适应更广泛的检测范围\n    - box_thickness：检测框厚度\n    - text_thickness：文字厚度\n    - text_scale：文字缩放\n    - with_confidence：是否显示检测对象的置信度\n    - with_class_agnostic_nms：是否抑制类别之间的重叠边界框\n    - with_segmentation：是否开启 EfficientSAM 进行实例分割\n    - mask_combined：是否合并（叠加）蒙版 mask，\"是\"则将所有 mask 叠加在一张图上输出，\"否\"则会将所有的蒙版单独输出\n    - mask_extracted：是否提取选定蒙版 mask，\"是\"则会将按照 mask_extracted_index 将所选序号的蒙版单独输出\n    - mask_extracted_index：选择蒙版 mask 序号\n\n![Dingtalk_20240224154535](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZHO-ZHO-ZHO_ComfyUI-YoloWorld-EfficientSAM_readme_ed4673ec8471.png)\n\n\u003C!---\n![Dingtalk_20240220175722](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZHO-ZHO-ZHO_ComfyUI-YoloWorld-EfficientSAM_readme_4443f17ee4bd.png)\n--->\n\n- 🆕检测 + 分割 | 🔎Yoloworld ESAM Detector Provider （由 [ltdrdata](https:\u002F\u002Fgithub.com\u002Fltdrdata) 提供，感谢！）\n    - 可配合 Impact-Pack 一起使用\n    - yolo_world_model：接入 YOLO-World 模型\n    - esam_model：接入 EfficientSAM 模型\n    - categories：检测 + 分割内容\n    - iou_threshold：IoU 阜值\n    - with_class_agnostic_nms：是否抑制类别之间的重叠边界框\n\n ![306523112-ea37dfd0-7019-4207-af2a-aa3c9355b63e](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZHO-ZHO-ZHO_ComfyUI-YoloWorld-EfficientSAM_readme_eabd80b47d28.png)\n\n## 安装 | Install\n\n- 推荐使用管理器 ComfyUI Manager 安装（On the Way）\n\n- 手动安装：\n    1. `cd custom_nodes`\n    2. `git clone https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM`\n    3. `cd custom_nodes\u002FComfyUI-YoloWorld-EfficientSAM`\n    4. `pip install -r requirements.txt`\n    5. 重启 ComfyUI\n\n- 模型下载：将 [EfficientSAM](https:\u002F\u002Fhuggingface.co\u002Fcamenduru\u002FYoloWorld-EfficientSAM\u002Ftree\u002Fmain) 中的 efficient_sam_s_cpu.jit 和 efficient_sam_s_gpu.jit 下载到 custom_nodes\u002FComfyUI-YoloWorld-EfficientSAM 中\n\n\n## 工作流 | Workflows\n\nV2.0\n\n  - [V2.0 图片检测+分割](https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fblob\u002Fmain\u002FYOLO_World_EfficientSAM_WORKFLOWS\u002FYoloWorld-EfficientSAM%20V2.0%20IMG%20%E3%80%90Zho%E3%80%91.json)\n\n  - [V2.0 视频检测+分割](https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fblob\u002Fmain\u002FYOLO_World_EfficientSAM_WORKFLOWS\u002FYoloWorld-EfficientSAM%20V2.0%20VIDEO%20%E3%80%90Zho%E3%80%91.json)\n\nV1.0\n\n  - 注意：V1.0 工作流不适用于 V2.0\n\n  - [V1.0 图片检测+分割](https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fblob\u002Fmain\u002FYOLO_World_EfficientSAM_WORKFLOWS\u002FYoloWorld-EfficientSAM%20V1.0%20IMG%20%E3%80%90Zho%E3%80%91.json)\n\n\n  - [V1.0 视频检测+分割](https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fblob\u002Fmain\u002FYOLO_World_EfficientSAM_WORKFLOWS\u002FYoloWorld-EfficientSAM%20V1.0%20VIDEO%20%E3%80%90Zho%E3%80%91.json)\n\n\n## 更新日志\n\n- 20240224\n\n  V2.0 新增蒙版分离 + 提取功能，支持选择指定蒙版单独输出，同时支持图像和视频\n\n- 20240221\n\n  合并了由 [ltdrdata](https:\u002F\u002Fgithub.com\u002Fltdrdata) 提供的 🔎Yoloworld ESAM Detector Provider 节点\n\n- 20240220\n\n  创建项目\n\n  V1.0 同时支持图像与视频的检测与分割，还支持输出 mask 蒙版\n\n\n## Stars \n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZHO-ZHO-ZHO_ComfyUI-YoloWorld-EfficientSAM_readme_b59104e97187.png)](https:\u002F\u002Fstar-history.com\u002F#ZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM&Date)\n\n\n## 关于我 | About me\n\n📬 **联系我**：\n- 邮箱：zhozho3965@gmail.com\n- QQ 群：839821928\n\n🔗 **社交媒体**：\n- 个人页：[-Zho-](https:\u002F\u002Fjike.city\u002Fzho)\n- Bilibili：[我的B站主页](https:\u002F\u002Fspace.bilibili.com\u002F484366804)\n- X（Twitter）：[我的Twitter](https:\u002F\u002Ftwitter.com\u002FZHOZHO672070)\n- 小红书：[我的小红书主页](https:\u002F\u002Fwww.xiaohongshu.com\u002Fuser\u002Fprofile\u002F63f11530000000001001e0c8?xhsshare=CopyLink&appuid=63f11530000000001001e0c8&apptime=1690528872)\n\n💡 **支持我**：\n- B站：[B站充电](https:\u002F\u002Fspace.bilibili.com\u002F484366804)\n- 爱发电：[为我充电](https:\u002F\u002Fafdian.net\u002Fa\u002FZHOZHO)\n\n\n## Credits\n\n[YOLO-World + EfficientSAM](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FSkalskiP\u002FYOLO-World)\n\n[YOLO-World](https:\u002F\u002Fgithub.com\u002FAILab-CVC\u002FYOLO-World)\n\n[EfficientSAM](https:\u002F\u002Fgithub.com\u002Fyformer\u002FEfficientSAM)\n\n代码还参考了 [@camenduru](https:\u002F\u002Ftwitter.com\u002Fcamenduru) 感谢！\n\n[ltdrdata](https:\u002F\u002Fgithub.com\u002Fltdrdata) 提供了 🔎Yoloworld ESAM Detector Provider 节点，感谢！","# ComfyUI-YoloWorld-EfficientSAM 快速上手指南\n\n本工具将 **YOLO-World**（开放词汇目标检测）与 **EfficientSAM**（高效图像分割）结合，在 ComfyUI 中实现高效的“检测 + 分割”工作流。支持图像与视频处理，V2.0 版本新增蒙版分离与指定提取功能。\n\n## 1. 环境准备\n\n*   **系统要求**：Windows \u002F Linux \u002F macOS\n*   **核心依赖**：\n    *   已安装 **ComfyUI** 基础环境\n    *   Python 3.10+ 推荐\n    *   **GPU 加速**：推荐配备 NVIDIA 显卡并安装 CUDA 驱动（EfficientSAM 支持 GPU 加速，同时也支持 CPU 模式但速度较慢）。\n*   **前置知识**：熟悉 ComfyUI 基本节点连接操作。\n\n## 2. 安装步骤\n\n### 方法一：手动安装（推荐）\n\n请在终端或命令行中执行以下命令：\n\n```bash\n# 1. 进入 ComfyUI 的 custom_nodes 目录\ncd ComfyUI\u002Fcustom_nodes\n\n# 2. 克隆本项目仓库\ngit clone https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\n\n# 3. 进入插件目录\ncd ComfyUI-YoloWorld-EfficientSAM\n\n# 4. 安装 Python 依赖\npip install -r requirements.txt\n\n# 【可选】国内用户建议使用镜像源加速安装：\n# pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 模型下载（必需）\n\n插件运行需要预先下载 EfficientSAM 模型文件。\n\n1.  访问模型仓库：[HuggingFace - camenduru\u002FYoloWorld-EfficientSAM](https:\u002F\u002Fhuggingface.co\u002Fcamenduru\u002FYoloWorld-EfficientSAM\u002Ftree\u002Fmain)\n2.  下载以下两个文件：\n    *   `efficient_sam_s_cpu.jit`\n    *   `efficient_sam_s_gpu.jit`\n3.  将文件放入插件目录：\n    `ComfyUI\u002Fcustom_nodes\u002FComfyUI-YoloWorld-EfficientSAM\u002F`\n\n> **注意**：YOLO-World 模型（yolo_world\u002Fl, m, s）会在首次使用时由节点自动下载，无需手动操作。\n\n### 完成安装\n重启 ComfyUI，刷新浏览器即可在节点列表中找到相关节点。\n\n## 3. 基本使用\n\n### 核心节点说明\n\n主要使用 **`🔎Yoloworld ESAM`** 节点进行检测与分割。\n\n*   **输入连接**：\n    *   `yolo_world_model`：连接 `🔎Yoloworld Model Loader` 节点（选择 l\u002Fm\u002Fs 型号）。\n    *   `esam_model`：连接 `🔎ESAM Model Loader` 节点（自动加载本地 JIT 模型）。\n    *   `image`：连接原始图像或视频帧。\n*   **关键参数**：\n    *   `categories`：填写要检测和分割的对象类别（英文），例如 `person, dog, car`。\n    *   `confidence_threshold`：置信度阈值（默认 0.3）。调低可发现更多目标，调高可减少误检。\n    *   `with_segmentation`：勾选以开启 EfficientSAM 分割功能。\n    *   `mask_combined`：\n        *   `True`：将所有目标的蒙版合并输出一张图。\n        *   `False`：单独输出每个目标的蒙版。\n    *   `mask_extracted` & `mask_extracted_index`：若只需提取特定序号的目标蒙版，设为 `True` 并指定索引。\n\n### 最简单工作流示例\n\n1.  **加载模型**：\n    *   添加 `🔎Yoloworld Model Loader`，选择 `yolo_world\u002Fs`（速度快，适合测试）。\n    *   添加 `🔎ESAM Model Loader`。\n2.  **执行检测**：\n    *   添加 `🔎Yoloworld ESAM` 节点。\n    *   连接上述两个模型节点。\n    *   连接 `Load Image` 节点的输出到 `image` 输入。\n    *   在 `categories` 输入框填入：`cat`。\n    *   确保 `with_segmentation` 为启用状态。\n3.  **查看结果**：\n    *   连接 `Preview Image` 节点到 `🔎Yoloworld ESAM` 的输出端。\n    *   点击 \"Queue Prompt\"，即可看到带有检测框和猫咪分割蒙版的图像。\n\n### V2.0 新特性提示\n若需处理视频或提取单个物体蒙版，请直接导入官方提供的 **V2.0 工作流**（JSON 文件），旧版 V1.0 工作流已不再兼容新版节点逻辑。","一位电商视频运营人员需要快速从大量商品展示视频中提取特定商品（如“红色运动鞋”）的独立画面，用于制作精准投放的广告素材。\n\n### 没有 ComfyUI-YoloWorld-EfficientSAM 时\n- **人工逐帧筛选效率极低**：面对长视频，只能靠肉眼查找目标商品出现的时间点，耗时数小时且容易遗漏。\n- **传统工具无法理解语义**：常规检测模型需预先训练特定类别，无法直接通过输入“红色运动鞋”这样的自然语言描述来定位未知商品。\n- **抠图边缘粗糙影响质感**：使用通用抠图工具难以处理复杂背景下的商品边缘，导致合成广告时出现白边或背景残留。\n- **批量处理能力缺失**：每换一个商品种类就需要重新调整参数或训练模型，无法在同一工作流中灵活切换检测目标。\n\n### 使用 ComfyUI-YoloWorld-EfficientSAM 后\n- **自然语言即时检索**：直接在节点输入\"red sneakers\"等文本描述，YOLO-World 引擎即可在视频流中实时锁定目标，无需任何额外训练。\n- **像素级精准分割**：结合 EfficientSAM 模型，自动生成贴合商品轮廓的高精度蒙版，即使是在动态模糊或遮挡情况下也能保持边缘清晰。\n- **自动化批量提取**：利用 V2.0 的蒙版提取功能，设定好置信度阈值后，可一键将视频中所有匹配的商品片段单独输出为透明通道素材。\n- **灵活的工作流复用**：同一套 ComfyUI 工作流只需修改文本提示词，即可瞬间适配从“手提包”到“腕表”等不同品类的提取任务。\n\nComfyUI-YoloWorld-EfficientSAM 将原本需要数天的手工抠图与筛选工作，转化为分钟级的自动化流程，实现了基于语义理解的影视级素材高效生产。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZHO-ZHO-ZHO_ComfyUI-YoloWorld-EfficientSAM_d86f5982.png","ZHO-ZHO-ZHO",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FZHO-ZHO-ZHO_87bcdd78.png","Architect | Artist | Ai explorer","China","ZHO_ZHO_ZHO","https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,816,71,"2026-04-11T11:52:48","GPL-3.0","未说明","非必需。支持 CUDA (NVIDIA GPU) 或 CPU 运行。需手动下载 efficient_sam_s_gpu.jit (GPU 版) 或 efficient_sam_s_cpu.jit (CPU 版) 模型文件。具体显存大小和 CUDA 版本未在文档中明确指定。",{"notes":92,"python":89,"dependencies":93},"1. 安装方式：推荐通过 ComfyUI Manager 安装，或手动克隆仓库并执行 'pip install -r requirements.txt'。\n2. 模型准备：必须手动从 HuggingFace 下载 EfficientSAM 模型文件 (efficient_sam_s_cpu.jit 和 efficient_sam_s_gpu.jit) 至插件目录。\n3. YOLO-World 模型：支持 yolo_world\u002Fl, m, s 三种规格，首次运行时会自动下载。\n4. 功能特性：V2.0 版本支持图像和视频的检测与分割，新增蒙版分离与提取功能，可配合 Impact-Pack 使用。",[94],"requirements.txt 中定义的依赖 (具体列表未在 README 中展示)",[15],[97,98],"comfyui","stable-diffusion","2026-03-27T02:49:30.150509","2026-04-16T18:32:43.981162",[102,107,112,117,122,127,132],{"id":103,"question_zh":104,"answer_zh":105,"source_url":106},36248,"运行时报错：cannot import name 'packaging' from 'pkg_resources'，如何解决？","该问题通常由 setuptools 版本过高引起。解决方法是降级 setuptools 并确保 Python 版本兼容。\n1. 降级 setuptools：在 ComfyUI 的 Python 环境中运行命令 `pip install setuptools==69.5.1` 或 `python.exe -m pip install setuptools==65.5.1`（需进入 python_embeded 文件夹）。\n2. 检查 Python 版本：建议使用 Python 3.11.9。如果使用的是 Python 3.10.6 或其他版本，尝试升级或降级到 3.11.9 可能解决问题。","https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fissues\u002F68",{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},36249,"报错 AttributeError: type object 'Detections' has no attribute 'from_inference'，怎么修复？","这是因为 supervision 库的版本过旧或不兼容。请将 supervision 升级到 0.21.0 或更高版本。\n执行命令：`pip install supervision>=0.21.0`","https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fissues\u002F28",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},36250,"导入节点时提示 ModuleNotFoundError: No module named 'supervision'，缺少依赖怎么办？","这是因为未安装 supervision 依赖库。请在 ComfyUI 对应的 Python 环境中执行以下命令进行安装：\n`pip install supervision`","https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fissues\u002F18",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},36251,"无法实现案例中的“蒙版分离”效果，报错 TypeError: Cannot handle this data type，如何处理？","这是因为数据类型转换顺序错误。在处理掩码时，需要先使用 \"Mask List to Mask\" 节点将掩码列表转换为单个掩码，然后再使用 \"Convert Masks to Images\" 节点将其转换为图像。调整节点连接顺序即可解决。","https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fissues\u002F55",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},36252,"加载时提示 efficient_sam_s_gpu.jit 文件不存在，该如何获取模型文件？","该文件是 EfficientSAM 的预训练模型文件，需要手动下载。请访问 EfficientSAM 官方 GitHub 仓库 (https:\u002F\u002Fgithub.com\u002Fxetdata\u002FEfficientSAM\u002F) 或 HuggingFace 空间 (https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyunyangx\u002FEfficientSAM\u002Ftree\u002Fmain) 下载对应的 .jit 模型文件，并将其放置到插件目录中。","https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fissues\u002F33",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},36253,"使用 ApplyInstantID 节点时报错：Required input is missing: image_features，如何解决？","这通常是因为 InstantID 节点安装不完整或版本冲突导致的输入验证失败。尝试重新安装 InstantID 相关节点插件，确保所有依赖项正确加载。","https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fissues\u002F24",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},36254,"在 macOS M2 芯片上安装 onnxruntime-gpu 失败，有什么替代方案？","由于 macOS M2 芯片架构限制，onnxruntime-gpu 可能没有适用的预编译版本。建议尝试安装 CPU 版本的 onnxruntime (`pip install onnxruntime`)，或者检查是否有针对 Apple Silicon 优化的特定版本。如果必须使用 GPU 加速，可能需要通过 Docker 或其他虚拟化环境运行。","https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-YoloWorld-EfficientSAM\u002Fissues\u002F8",[]]