[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-storyicon--comfyui_segment_anything":3,"tool-storyicon--comfyui_segment_anything":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":79,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":10,"env_os":92,"env_gpu":93,"env_ram":92,"env_deps":94,"category_tags":100,"github_topics":101,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":108,"updated_at":109,"faqs":110,"releases":139},2127,"storyicon\u002Fcomfyui_segment_anything","comfyui_segment_anything","Based on GroundingDino and SAM, use semantic strings to segment any element in an image. The comfyui version of sd-webui-segment-anything.","comfyui_segment_anything 是一款专为 ComfyUI 设计的图像分割插件，它巧妙结合了 GroundingDINO 与 SAM（Segment Anything Model）两大前沿模型。只需输入简单的自然语言描述（如“红色的汽车”或“戴帽子的人”），它就能精准识别并抠出图像中对应的任意元素，实现了从“文字指令”到“精确蒙版”的自动化流程。\n\n这款工具主要解决了传统图像分割中依赖手动绘制轮廓或训练特定类别模型的痛点。用户不再需要具备专业的标注技能，也不必为每种新物体重新训练算法，极大地提升了处理复杂场景和非标准物体的效率。作为知名 WebUI 插件的 ComfyUI 移植版本，它在保持核心功能一致的同时，完美融入了节点式工作流。\n\n其技术亮点在于强大的语义理解能力与零样本（Zero-shot）泛化性，支持多种不同量级的 SAM 模型（从轻量级的 MobileSAM 到高精度的 HQ-SAM），用户可根据硬件配置灵活选择。此外，它还支持自动下载所需模型，降低了部署门槛。\n\ncomfyui_segment_anything 非常适合设计师、数字艺术家以及 AI 工作","comfyui_segment_anything 是一款专为 ComfyUI 设计的图像分割插件，它巧妙结合了 GroundingDINO 与 SAM（Segment Anything Model）两大前沿模型。只需输入简单的自然语言描述（如“红色的汽车”或“戴帽子的人”），它就能精准识别并抠出图像中对应的任意元素，实现了从“文字指令”到“精确蒙版”的自动化流程。\n\n这款工具主要解决了传统图像分割中依赖手动绘制轮廓或训练特定类别模型的痛点。用户不再需要具备专业的标注技能，也不必为每种新物体重新训练算法，极大地提升了处理复杂场景和非标准物体的效率。作为知名 WebUI 插件的 ComfyUI 移植版本，它在保持核心功能一致的同时，完美融入了节点式工作流。\n\n其技术亮点在于强大的语义理解能力与零样本（Zero-shot）泛化性，支持多种不同量级的 SAM 模型（从轻量级的 MobileSAM 到高精度的 HQ-SAM），用户可根据硬件配置灵活选择。此外，它还支持自动下载所需模型，降低了部署门槛。\n\ncomfyui_segment_anything 非常适合设计师、数字艺术家以及 AI 工作流开发者使用。对于希望将智能抠图环节自动化整合进生成式创作流程的用户来说，这是一个高效且灵活的必备工具。","# ComfyUI Segment Anything\n\nThis project is a ComfyUI version of\n`https:\u002F\u002Fgithub.com\u002Fcontinue-revolution\u002Fsd-webui-segment-anything`. At present, only the most core functionalities have been implemented. I would like to express my gratitude to [continue-revolution](https:\u002F\u002Fgithub.com\u002Fcontinue-revolution) for their preceding work on which this is based.\n\n![example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fstoryicon_comfyui_segment_anything_readme_7a0d13d3d8c5.jpg)\n\nI have ensured consistency with `sd-webui-segment-anything` in terms of output when given the same input.\n\n## Requirements\n\nPlease ensure that you have installed Python dependencies using the following command:\n```\npip3 install -r requirements.txt\n```\n\n## Models\n\nThe models will be automatically downloaded when used. You can also manually download them according to the table below. If the automatic download is slow, you can set the `HTTP_PROXY` and `HTTPS_PROXY` environment variables to use a proxy.\n\n### bert-base-uncased\n\nYou can download the model from https:\u002F\u002Fhuggingface.co\u002Fbert-base-uncased\u002Ftree\u002Fmain into the `models\u002Fbert-base-uncased` folder located in the root directory of ComfyUI, like this:\n\n```\nComfyUI\n    models\n        bert-base-uncased\n            config.json\n            model.safetensors\n            tokenizer_config.json\n            tokenizer.json\n            vocab.txt\n```\n\nYou can also skip this step. During the inference process, `bert-base-uncased` will be automatically downloaded through the `transformers` library, and its directory is typically `~\u002F.cache\u002Fhuggingface\u002Fhub\u002Fmodels--bert-base-uncased`.\n\n### GroundingDino\n\nPlease directly download the models and configuration files to the `models\u002Fgrounding-dino` directory under the ComfyUI root directory, without modifying the file names.\n\n| name | size | config file | model file |  \n|-|-|-|-|\n| GroundingDINO_SwinT_OGC | 694MB | [download link](https:\u002F\u002Fhuggingface.co\u002FShilongLiu\u002FGroundingDINO\u002Fresolve\u002Fmain\u002FGroundingDINO_SwinT_OGC.cfg.py) | [download link](https:\u002F\u002Fhuggingface.co\u002FShilongLiu\u002FGroundingDINO\u002Fresolve\u002Fmain\u002Fgroundingdino_swint_ogc.pth) |\n| GroundingDINO_SwinB | 938MB | [download link](https:\u002F\u002Fhuggingface.co\u002FShilongLiu\u002FGroundingDINO\u002Fresolve\u002Fmain\u002FGroundingDINO_SwinB.cfg.py) | [download link](https:\u002F\u002Fhuggingface.co\u002FShilongLiu\u002FGroundingDINO\u002Fresolve\u002Fmain\u002Fgroundingdino_swinb_cogcoor.pth) |\n\n### SAM\n\nPlease directly download the model files to the `models\u002Fsams` directory under the ComfyUI root directory, without modifying the file names.\n\n| name | size | model file |\n|-|-|-|  \n| sam_vit_h | 2.56GB |[download link](https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fsegment_anything\u002Fsam_vit_h_4b8939.pth) |\n| sam_vit_l | 1.25GB |[download link](https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fsegment_anything\u002Fsam_vit_l_0b3195.pth) |\n| sam_vit_b | 375MB |[download link](https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fsegment_anything\u002Fsam_vit_b_01ec64.pth) |  \n| sam_hq_vit_h | 2.57GB |[download link](https:\u002F\u002Fhuggingface.co\u002Flkeab\u002Fhq-sam\u002Fresolve\u002Fmain\u002Fsam_hq_vit_h.pth) |\n| sam_hq_vit_l | 1.25GB |[download link](https:\u002F\u002Fhuggingface.co\u002Flkeab\u002Fhq-sam\u002Fresolve\u002Fmain\u002Fsam_hq_vit_l.pth) |\n| sam_hq_vit_b | 379MB |[download link](https:\u002F\u002Fhuggingface.co\u002Flkeab\u002Fhq-sam\u002Fresolve\u002Fmain\u002Fsam_hq_vit_b.pth) |\n| mobile_sam | 39MB |[download link](https:\u002F\u002Fgithub.com\u002FChaoningZhang\u002FMobileSAM\u002Fblob\u002Fmaster\u002Fweights\u002Fmobile_sam.pt) |\n\n\n## Contribution\n\nThank you for considering to help out with the source code! Welcome contributions from anyone on the internet, and are grateful for even the smallest of fixes!\n\nIf you'd like to contribute to this project, please fork, fix, commit and send a pull request for me to review and merge into the main code base.","# ComfyUI Segment Anything\n\n本项目是 `https:\u002F\u002Fgithub.com\u002Fcontinue-revolution\u002Fsd-webui-segment-anything` 的 ComfyUI 版本。目前仅实现了最核心的功能。在此特别感谢 [continue-revolution](https:\u002F\u002Fgithub.com\u002Fcontinue-revolution) 前辈们所做的工作，本项目正是基于他们的成果开发的。\n\n![example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fstoryicon_comfyui_segment_anything_readme_7a0d13d3d8c5.jpg)\n\n在相同输入条件下，我的实现与 `sd-webui-segment-anything` 的输出保持一致。\n\n## 需求\n\n请确保已使用以下命令安装 Python 依赖：\n```\npip3 install -r requirements.txt\n```\n\n## 模型\n\n模型将在使用时自动下载。您也可以根据下表手动下载。如果自动下载速度较慢，可以设置 `HTTP_PROXY` 和 `HTTPS_PROXY` 环境变量以使用代理。\n\n### bert-base-uncased\n\n您可以从 https:\u002F\u002Fhuggingface.co\u002Fbert-base-uncased\u002Ftree\u002Fmain 下载该模型，并将其放置于 ComfyUI 根目录下的 `models\u002Fbert-base-uncased` 文件夹中，具体结构如下：\n\n```\nComfyUI\n    models\n        bert-base-uncased\n            config.json\n            model.safetensors\n            tokenizer_config.json\n            tokenizer.json\n            vocab.txt\n```\n\n当然，您也可以跳过此步骤。在推理过程中，`bert-base-uncased` 将通过 `transformers` 库自动下载，其默认存储路径为 `~\u002F.cache\u002Fhuggingface\u002Fhub\u002Fmodels--bert-base-uncased`。\n\n### GroundingDino\n\n请将模型及配置文件直接下载至 ComfyUI 根目录下的 `models\u002Fgrounding-dino` 文件夹中，无需修改文件名。\n\n| 名称 | 大小 | 配置文件 | 模型文件 |\n|-|-|-|-|\n| GroundingDINO_SwinT_OGC | 694MB | [下载链接](https:\u002F\u002Fhuggingface.co\u002FShilongLiu\u002FGroundingDINO\u002Fresolve\u002Fmain\u002FGroundingDINO_SwinT_OGC.cfg.py) | [下载链接](https:\u002F\u002Fhuggingface.co\u002FShilongLiu\u002FGroundingDINO\u002Fresolve\u002Fmain\u002Fgroundingdino_swint_ogc.pth) |\n| GroundingDINO_SwinB | 938MB | [下载链接](https:\u002F\u002Fhuggingface.co\u002FShilongLiu\u002FGroundingDINO\u002Fresolve\u002Fmain\u002FGroundingDINO_SwinB.cfg.py) | [下载链接](https:\u002F\u002Fhuggingface.co\u002FShilongLiu\u002FGroundingDINO\u002Fresolve\u002Fmain\u002Fgroundingdino_swinb_cogcoor.pth) |\n\n### SAM\n\n请将模型文件直接下载至 ComfyUI 根目录下的 `models\u002Fsams` 文件夹中，无需修改文件名。\n\n| 名称 | 大小 | 模型文件 |\n|-|-|-|\n| sam_vit_h | 2.56GB |[下载链接](https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fsegment_anything\u002Fsam_vit_h_4b8939.pth) |\n| sam_vit_l | 1.25GB |[下载链接](https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fsegment_anything\u002Fsam_vit_l_0b3195.pth) |\n| sam_vit_b | 375MB |[下载链接](https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fsegment_anything\u002Fsam_vit_b_01ec64.pth) |\n| sam_hq_vit_h | 2.57GB |[下载链接](https:\u002F\u002Fhuggingface.co\u002Flkeab\u002Fhq-sam\u002Fresolve\u002Fmain\u002Fsam_hq_vit_h.pth) |\n| sam_hq_vit_l | 1.25GB |[下载链接](https:\u002F\u002Fhuggingface.co\u002Flkeab\u002Fhq-sam\u002Fresolve\u002Fmain\u002Fsam_hq_vit_l.pth) |\n| sam_hq_vit_b | 379MB |[下载链接](https:\u002F\u002Fhuggingface.co\u002Flkeab\u002Fhq-sam\u002Fresolve\u002Fmain\u002Fsam_hq_vit_b.pth) |\n| mobile_sam | 39MB |[下载链接](https:\u002F\u002Fgithub.com\u002FChaoningZhang\u002FMobileSAM\u002Fblob\u002Fmaster\u002Fweights\u002Fmobile_sam.pt) |\n\n## 贡献\n\n感谢您考虑参与源代码的维护！欢迎来自互联网的任何贡献，哪怕是最微小的修复，我们都将不胜感激！\n\n如果您希望为本项目贡献力量，请先 Fork 本仓库，修复问题后提交 Commit，并发送 Pull Request，我将对其进行审核并合并到主分支中。","# ComfyUI Segment Anything 快速上手指南\n\n本工具是 `sd-webui-segment-anything` 的 ComfyUI 版本，核心功能已实现，支持在相同输入下保持输出一致性。\n\n## 环境准备\n\n- **系统要求**：支持 Python 3.8+ 的操作系统（Windows \u002F Linux \u002F macOS）\n- **前置依赖**：\n  - 已安装 ComfyUI\n  - 已安装 `git` 和 `pip3`\n\n## 安装步骤\n\n1. 克隆或下载本插件到 ComfyUI 的 `custom_nodes` 目录：\n   ```bash\n   cd ComfyUI\u002Fcustom_nodes\n   git clone https:\u002F\u002Fgithub.com\u002Fyour-repo\u002Fcomfyui_segment_anything.git\n   ```\n\n2. 安装所需 Python 依赖：\n   ```bash\n   pip3 install -r requirements.txt\n   ```\n\n> 💡 若下载速度慢，可设置代理加速：\n> ```bash\n> export HTTP_PROXY=http:\u002F\u002Fyour-proxy:port\n> export HTTPS_PROXY=http:\u002F\u002Fyour-proxy:port\n> ```\n\n## 模型准备（可选手动下载）\n\n模型首次使用时会自动下载。如需手动下载以提升速度或离线使用，请按以下结构放置：\n\n### BERT 模型\n路径：`ComfyUI\u002Fmodels\u002Fbert-base-uncased\u002F`  \n文件包括：`config.json`, `model.safetensors`, `tokenizer_config.json`, `tokenizer.json`, `vocab.txt`  \n来源：https:\u002F\u002Fhuggingface.co\u002Fbert-base-uncased\u002Ftree\u002Fmain\n\n### GroundingDINO 模型\n路径：`ComfyUI\u002Fmodels\u002Fgrounding-dino\u002F`  \n推荐模型：\n- `GroundingDINO_SwinT_OGC`（694MB）\n- `GroundingDINO_SwinB`（938MB）  \n配置文件与模型文件需从 HuggingFace 下载，文件名勿修改。\n\n### SAM 模型\n路径：`ComfyUI\u002Fmodels\u002Fsams\u002F`  \n可选模型包括：\n- `sam_vit_h`（2.56GB）\n- `sam_vit_l`（1.25GB）\n- `sam_vit_b`（375MB）\n- `sam_hq_*` 系列（高质量版本）\n- `mobile_sam`（39MB，轻量级）\n\n> 🇨🇳 国内用户建议使用镜像站（如 ModelScope、OpenXLab）或配置代理加速下载。\n\n## 基本使用\n\n1. 启动 ComfyUI。\n2. 在工作流中添加 `SegmentAnything` 相关节点（如 `SAM Loader`、`GroundingDINO Processor` 等）。\n3. 连接图像输入与文本提示（如需基于文本分割）。\n4. 运行工作流，输出即为分割掩码或裁剪图像。\n\n最简单示例：加载一张图片 → 使用 `SAM Loader` 选择模型 → 连接 `Preview Image` 查看结果。\n\n无需额外配置即可开始使用，所有模型支持自动下载与缓存。","一位电商设计师需要为数百张商品图快速去除复杂背景并替换为节日主题场景，但商品边缘包含毛发、透明玻璃等难以处理的细节。\n\n### 没有 comfyui_segment_anything 时\n- 设计师必须使用钢笔工具手动勾勒每个商品的轮廓，处理一张高清图平均耗时 15 分钟以上。\n- 遇到毛绒玩具或发丝边缘时，传统魔棒工具无法识别细微半透明区域，导致抠图边缘生硬、有白边。\n- 面对批量任务，无法通过文字指令统一操作，只能重复机械劳动，极易因疲劳产生漏选或误选。\n- 若需调整选中区域（如只保留商品去掉阴影），往往需要重新绘制蒙版，修改成本极高。\n\n### 使用 comfyui_segment_anything 后\n- 设计师只需在 ComfyUI 节点中输入“红色连衣裙”或“玻璃香水瓶”等语义字符串，即可自动精准定位并分割目标。\n- 基于 GroundingDINO 和 SAM 模型，工具能完美识别毛发、透明材质等复杂边缘，生成自然柔和的蒙版。\n- 支持批量自动化流程，将提示词接入工作流后，数百张图片可在无人值守情况下完成高质量分割。\n- 若要微调区域，仅需修改提示词（如“去掉阴影的鞋子”），系统会实时重新计算并更新掩码，迭代效率提升十倍。\n\ncomfyui_segment_anything 将原本依赖人工经验的繁琐抠图工作，转化为可通过自然语言驱动的自动化高精度流程。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fstoryicon_comfyui_segment_anything_7a0d13d3.jpg","storyicon","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fstoryicon_d5696dd7.jpg","🐦‍⬛ Hardcore Artist. Stay passionate, cautious, and bold.",null,"Los Angeles","storyicon@foxmail.com","https:\u002F\u002Fgithub.com\u002Fstoryicon",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,1096,107,"2026-04-04T09:24:59","Apache-2.0","未说明","未说明（基于 SAM 和 GroundingDINO 模型特性，通常建议 NVIDIA GPU 以加速推理，具体显存需求取决于所选模型大小，如 sam_vit_h 需较大显存）",{"notes":95,"python":92,"dependencies":96},"模型文件在首次使用时会自动下载，也可手动下载至 ComfyUI 根目录下的指定文件夹（models\u002Fbert-base-uncased, models\u002Fgrounding-dino, models\u002Fsams）。若自动下载速度慢，可设置 HTTP_PROXY 和 HTTPS_PROXY 环境变量使用代理。主要包含 BERT、GroundingDINO 和 SAM (含 HQ-SAM, MobileSAM) 系列模型。",[97,98,99],"transformers","torch","requirements.txt 中定义的其他依赖",[14],[102,103,104,105,106,107],"comfyui","groundingdino","sam","segment-anything","custom-nodes","stable-diffusion","2026-03-27T02:49:30.150509","2026-04-06T07:13:23.604274",[111,116,121,126,130,135],{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},9789,"安装后加载图表时提示找不到节点（如 InvertMask, GroundingDinoSAMSegment 等），或者显示红色错误，如何解决？","这通常是因为缺少必要的依赖项。虽然新版本尝试自动安装依赖，但在某些环境（如 RunPod）中可能仍然失败。\n解决方案：手动安装缺失的依赖包。根据用户反馈，需要在 requirements.txt 中添加或手动运行 pip 安装以下包：\naddict==2.4.0\nyapf==0.31.0\n安装后重启 ComfyUI 即可解决节点无法导入的问题。","https:\u002F\u002Fgithub.com\u002Fstoryicon\u002Fcomfyui_segment_anything\u002Fissues\u002F12",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},9790,"遇到 'ModuleNotFoundError: No module named segment_anything' 错误怎么办？","该错误表示 Python 环境中未找到 segment_anything 模块，即使已安装插件也可能发生。\n解决方案：\n1. 维护者指出最新版本的依赖项会自动安装，请确保插件已更新到最新版。\n2. 如果问题依旧，请检查您的 Python 环境路径。对于便携式版本（Windows Portable），可能需要手动在命令行中使用嵌入式 Python 安装依赖，命令格式参考：\"ComfyUI_windows_portable\\python_embeded\\python.exe\" -m pip install segment_anything（请将路径替换为您实际的 ComfyUI 安装路径）。","https:\u002F\u002Fgithub.com\u002Fstoryicon\u002Fcomfyui_segment_anything\u002Fissues\u002F3",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},9791,"GroundingDINO 识别出多个相同物体（如两只眼睛）生成了多个掩码，如何将它们合并为一个整体掩码？","可以使用 `MASKS to SEGS` 节点中的 `Combined` 选项来解决。\n具体操作：在 `MASKS to SEGS` 节点中激活 `Combined` 选项。这样即使 GroundingDINO 为同一个识别对象生成了多个分段（例如左眼和右眼分开），该节点也会将它们合并为一个单一的实体掩码，方便后续统一处理。","https:\u002F\u002Fgithub.com\u002Fstoryicon\u002Fcomfyui_segment_anything\u002Fissues\u002F19",{"id":127,"question_zh":128,"answer_zh":129,"source_url":125},9792,"如何独立控制 GroundingDINO 识别出的不同物体（例如分别处理眼睛、鼻子和嘴巴）？","由于当前节点不支持动态输出多个独立掩码，变通方法是复制多个 `GroundingDINO` 节点。\n具体操作：如果您想独立处理 4 个不同的实体，需要创建 4 个 `GroundingDINO` 节点实例，每个节点设置不同的提示词（Prompt）来专门识别目标物体。这将形成 4 条并行的处理流水线，最后再根据需要合并回单张图像。",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},9793,"更新 ComfyUI 后出现 \"'SAMWrapper' object has no attribute 'image_encoder'\" 错误，该如何修复？","此错误通常发生在 ComfyUI 核心更新后，导致插件内部的 SAM 模型调用方式不兼容（特别是涉及 SAM-HQ 预测器时）。\n解决方案：\n1. 首先尝试更新 `comfyui_segment_anything` 插件到最新版本，维护者通常会修复此类兼容性断裂。\n2. 如果已是最新版仍报错，可能是本地安装的 `segment_anything` 或 `sam_hq` 相关库版本过旧或不匹配。尝试重新安装插件依赖：在 ComfyUI 目录下运行 pip install -r custom_nodes\u002Fcomfyui_segment_anything\u002Frequirements.txt，或者卸载并重新安装 segment_anything 包。","https:\u002F\u002Fgithub.com\u002Fstoryicon\u002Fcomfyui_segment_anything\u002Fissues\u002F61",{"id":136,"question_zh":137,"answer_zh":138,"source_url":115},9794,"在 RunPod 等云端服务器上安装插件后仍然无法找到节点，而本地或其他平台正常，怎么办？","云端环境（如 RunPod）有时不会正确执行自动依赖安装脚本。\n解决方案：不要仅依赖插件自带的安装程序。您需要手动进入终端，确认并安装缺失的特定依赖包。根据社区反馈，重点检查并安装 addict 和 yapf 库（例如：pip install addict==2.4.0 yapf==0.31.0）。安装完成后务必完全重启 ComfyUI 服务，而不仅仅是刷新页面。",[]]