[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-kijai--ComfyUI-segment-anything-2":3,"tool-kijai--ComfyUI-segment-anything-2":61},[4,18,26,36,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,35],"插件",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,2,"2026-04-18T11:18:24",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":42,"last_commit_at":51,"category_tags":52,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[35,13,15,14],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":42,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[35,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":76,"owner_location":77,"owner_email":76,"owner_twitter":78,"owner_website":76,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":10,"env_os":89,"env_gpu":90,"env_ram":89,"env_deps":91,"category_tags":95,"github_topics":76,"view_count":42,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":96,"updated_at":97,"faqs":98,"releases":129},9384,"kijai\u002FComfyUI-segment-anything-2","ComfyUI-segment-anything-2","ComfyUI nodes to use segment-anything-2","ComfyUI-segment-anything-2 是将 Meta 最新的 Segment Anything 2（SAM2）模型集成到 ComfyUI 工作流中的关键节点工具。它核心解决了图像与视频处理中“精准抠图”的难题，允许用户通过简单的点击或框选，快速从复杂背景中分离出目标物体，甚至能高效处理视频中的动态对象跟踪与分割。\n\n这款工具特别适合熟悉 ComfyUI 的设计师、AI 创作者以及需要批量处理视觉素材的研究人员。对于希望在工作流中自动化完成蒙版生成、背景替换或对象编辑的用户来说，它是提升效率的得力助手。其技术亮点在于支持自动从 Hugging Face 下载并加载优化的 SAM2 安全张量模型，无需手动配置繁琐的环境。虽然目前部分高级掩码后处理功能因依赖特定的 CUDA 编译扩展而暂时禁用，但用户可灵活组合 ComfyUI 现有的其他节点来实现同等效果。此外，社区正在配合 KJNodes 开发更直观的坐标选择器，以进一步优化交互体验。作为一个持续迭代中的开源项目，ComfyUI-segment-anything-2 为本地部署高性能分割模型提供了便捷通道，让前沿的 AI ","ComfyUI-segment-anything-2 是将 Meta 最新的 Segment Anything 2（SAM2）模型集成到 ComfyUI 工作流中的关键节点工具。它核心解决了图像与视频处理中“精准抠图”的难题，允许用户通过简单的点击或框选，快速从复杂背景中分离出目标物体，甚至能高效处理视频中的动态对象跟踪与分割。\n\n这款工具特别适合熟悉 ComfyUI 的设计师、AI 创作者以及需要批量处理视觉素材的研究人员。对于希望在工作流中自动化完成蒙版生成、背景替换或对象编辑的用户来说，它是提升效率的得力助手。其技术亮点在于支持自动从 Hugging Face 下载并加载优化的 SAM2 安全张量模型，无需手动配置繁琐的环境。虽然目前部分高级掩码后处理功能因依赖特定的 CUDA 编译扩展而暂时禁用，但用户可灵活组合 ComfyUI 现有的其他节点来实现同等效果。此外，社区正在配合 KJNodes 开发更直观的坐标选择器，以进一步优化交互体验。作为一个持续迭代中的开源项目，ComfyUI-segment-anything-2 为本地部署高性能分割模型提供了便捷通道，让前沿的 AI 视觉能力更易融入日常创作流程。","# WORK IN PROGRESS\n\nPointsEditor is now available for testing in KJNodes: https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-KJNodes\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fc4a88647-679f-4cf2-ba1f-4fa8c7308c1e\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Ff15fafe8-72e8-41cc-b246-e947b1efe5ec\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fc1efb595-0fb1-4ae7-b4fa-2def08eda0a8\n\nFor testing only currently.\n\nFunctional, but needs better coordinate selector. \n\nFor now mask postprocessing is disabled due to it needing cuda extension compilation. We can use other nodes for this purpose anyway, so might leave it that way, we'll see.\n\nModels are automatically downloade from https:\u002F\u002Fhuggingface.co\u002FKijai\u002Fsam2-safetensors\u002Ftree\u002Fmain\n\nto `ComfyUI\u002Fmodels\u002Fsam2`\n\n\n\nOriginal repo:\n\nhttps:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fsegment-anything-2\n","# 进度中\n\nPointsEditor 现已在 KJNodes 中提供测试：https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-KJNodes\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fc4a88647-679f-4cf2-ba1f-4fa8c7308c1e\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Ff15fafe8-72e8-41cc-b246-e947b1efe5ec\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fc1efb595-0fb1-4ae7-b4fa-2def08eda0a8\n\n目前仅用于测试。\n\n功能已实现，但坐标选择器还需改进。\n\n暂时禁用了掩码后处理，因为需要编译 CUDA 扩展。不过我们也可以用其他节点来完成这一功能，所以可能会保持现状，具体还要再看。\n\n模型会自动从 https:\u002F\u002Fhuggingface.co\u002FKijai\u002Fsam2-safetensors\u002Ftree\u002Fmain 下载到 `ComfyUI\u002Fmodels\u002Fsam2` 目录下。\n\n\n原始仓库：\n\nhttps:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fsegment-anything-2","# ComfyUI-segment-anything-2 快速上手指南\n\n## 环境准备\n\n*   **系统要求**：支持 CUDA 的 NVIDIA GPU（推荐），Linux\u002FWindows\u002FmacOS。\n*   **前置依赖**：\n    *   已安装并配置好 **ComfyUI**。\n    *   Python 环境需支持自定义节点安装。\n*   **注意**：当前版本处于开发测试阶段（WORK IN PROGRESS）。部分掩码后处理功能因需要编译 CUDA 扩展而暂时禁用，建议使用 ComfyUI 原生或其他现有节点进行后处理。\n\n## 安装步骤\n\n1.  **安装自定义节点**\n    进入 ComfyUI 的 `custom_nodes` 目录，克隆本仓库：\n    ```bash\n    cd ComfyUI\u002Fcustom_nodes\n    git clone https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-segment-anything-2.git\n    ```\n    *(注：该工具目前主要集成在 KJNodes 生态中进行测试，请确保网络通畅或配置代理)*\n\n2.  **安装依赖**\n    进入插件目录并安装所需 Python 包：\n    ```bash\n    cd ComfyUI-segment-anything-2\n    pip install -r requirements.txt\n    ```\n\n3.  **模型下载**\n    重启 ComfyUI 后，插件会自动从 Hugging Face 下载模型至 `ComfyUI\u002Fmodels\u002Fsam2` 目录。\n    \n    *国内加速方案*：若自动下载失败，可手动从以下地址下载模型文件并放入对应目录：\n    *   源地址：https:\u002F\u002Fhuggingface.co\u002FKijai\u002Fsam2-safetensors\u002Ftree\u002Fmain\n    *   国内镜像推荐：使用 [ModelScope (魔搭社区)](https:\u002F\u002Fmodelscope.cn\u002F) 搜索 `sam2` 相关资源，或通过 `hf-mirror` 设置环境变量加速下载。\n\n## 基本使用\n\n1.  **启动服务**\n    返回 ComfyUI 根目录并启动：\n    ```bash\n    python main.py\n    ```\n\n2.  **构建工作流**\n    *   在界面右侧菜单找到 `SAM2` 相关节点（通常位于 `KJNodes` 或 `Segment Anything` 分类下）。\n    *   添加 **SAM2 Model Loader** 节点加载模型。\n    *   连接图像输入，使用 **PointsEditor**（坐标选择器）指定分割点或框。\n    *   连接 **SAM2 Predict** 节点生成掩码（Mask）。\n\n3.  **简单示例逻辑**\n    > `Load Image` -> `SAM2 Model Loader` -> `PointsEditor (输入坐标)` -> `SAM2 Predict` -> `Save Image`\n\n    *提示：由于坐标选择器仍在优化中，初期测试可能需要手动调整输入坐标格式。生成的 Mask 可直接用于后续的图像合成或遮罩处理节点。*","一位电商设计师正在为促销海报批量处理数百张商品图，需要精准抠除复杂背景并保留毛发等细微边缘。\n\n### 没有 ComfyUI-segment-anything-2 时\n- 设计师不得不依赖手动钢笔工具逐张勾勒轮廓，处理一张带有毛绒玩具的图片耗时超过 15 分钟，效率极低。\n- 遇到玻璃反光或半透明物体时，传统魔棒工具无法识别边界，导致抠图边缘生硬，后期修复成本高昂。\n- 若尝试集成旧版分割模型，往往需要编写复杂的 Python 脚本配置环境，且难以在 ComfyUI 工作流中灵活调整点击提示点。\n- 批量处理时缺乏自动化节点支持，一旦源图尺寸变化，整个抠图流程就需要重新人工干预，无法形成闭环。\n\n### 使用 ComfyUI-segment-anything-2 后\n- 利用自动下载的 SAM2 模型，设计师只需在工作流中简单设置坐标提示点，即可在几秒钟内完成高精度自动抠图。\n- 面对毛发、透明材质等极端场景，新模型展现出极强的语义理解能力，生成的蒙版边缘自然柔和，无需二次修饰。\n- 通过 KJNodes 提供的 PointsEditor 测试功能，用户可以直观地在界面上交互调整选区，实时预览分割效果，调试过程更加流畅。\n- 该工具完美嵌入现有 ComfyUI 流水线，支持全自动批量运行，即使图片分辨率不同也能自适应处理，大幅释放人力。\n\nComfyUI-segment-anything-2 将原本繁琐的手工抠图转变为可自动化的智能流程，让创意人员能专注于设计本身而非重复劳动。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-segment-anything-2_8d5b3086.png","kijai","Jukka Seppänen","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fkijai_5a67a464.jpg",null,"Finland","kijaidesign","https:\u002F\u002Fgithub.com\u002Fkijai",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,1183,81,"2026-04-17T14:38:49","Apache-2.0","未说明","部分功能（掩膜后处理）需要 CUDA 扩展编译，暗示需要 NVIDIA GPU；具体显存大小和 CUDA 版本未说明",{"notes":92,"python":89,"dependencies":93},"该工具目前处于测试阶段（WORK IN PROGRESS）。模型会自动从 HuggingFace 下载到 `ComfyUI\u002Fmodels\u002Fsam2` 目录。由于需要编译 CUDA 扩展，掩膜后处理功能当前被禁用，建议使用其他节点替代。坐标选择器功能尚需改进。",[38,94],"KJNodes (用于 PointsEditor 测试)",[15,35],"2026-03-27T02:49:30.150509","2026-04-19T09:15:03.768965",[99,104,109,114,119,124],{"id":100,"question_zh":101,"answer_zh":102,"source_url":103},42110,"遇到 'No module named torch.nn.attention' 错误，是否不支持 PyTorch 2.1.2？","是的，该模块需要 PyTorch 至少 2.3.0 版本（原始最低要求为 2.3.1）。如果您因 CUDA 版本（如 cu121）找不到对应的 flash-attn wheel 而被迫使用旧版 PyTorch，可以尝试以下解决方法：\n1. 尝试使用兼容 PyTorch 2.3.1 的 flash_attn wheels（即使次要 CUDA 版本不匹配通常也能工作）。\n2. 或者修改代码文件 `sam2\u002Fmodeling\u002Fsam\u002Ftransformer.py`，将导入语句从 `from torch.nn.attention import SDPBackend, sdpa_kernel` 替换为：\n   `from torch.nn.functional import scaled_dot_product_attention as sdpa_kernel`\n   `from torch._C import _SDPBackend as SDPBackend`\n注意：代码修改方法可能不适用于所有用户，升级 PyTorch 是最推荐的方案。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-segment-anything-2\u002Fissues\u002F5",{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},42111,"在 M1 Macbook 上使用 MPS 或 CPU 设备时出错怎么办？","目前在 M1 Mac 上使用 MPS 设备会报错 \"User specified an unsupported autocast device_type 'mps'\"，使用 CPU 也可能遇到 \"repeat(): Not supported for complex yet!\" 等错误。这是因为底层代码中的 `.repeat()` 调用在复杂数据类型下尚不完全支持非 CUDA 设备。虽然开发者尝试用 `.expand()` 和重塑操作重写代码，但问题依然存在。目前建议在 M1 上暂时避免使用该节点的视频预测功能，或等待后续更新修复对 CPU\u002FMPS 的完整支持。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-segment-anything-2\u002Fissues\u002F25",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},42112,"无法加载背景图像以选择样条点（Spline points）如何解决？","原生的图像加载方式在某些浏览器（如 Chrome 或 Firefox）中可能不稳定，导致反复提示选择图像。解决方案是使用更稳定且功能更强的 'PointsEditor' 节点（属于 KJNodes 包）。\n操作步骤：\n1. 更新您的 KJNodes 自定义节点包。\n2. 使用 'PointsEditor' 节点替代原有的输入方式。\n该节点支持直接拖放图像、复制\u002F粘贴图像，并能更准确地作为输入传递给分割节点。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-segment-anything-2\u002Fissues\u002F14",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},42113,"运行时报错 'list index out of range' 是什么原因？","此错误通常不是由 SAM2 节点本身引起的，而是因为依赖的 'Florence-2' 自定义节点版本过旧或不兼容。\n解决方法：请确保您已更新 ComfyUI 中的所有自定义节点，特别是 'Florence-2' 相关的节点包。更新后重启 ComfyUI 通常即可解决该问题。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-segment-anything-2\u002Fissues\u002F3",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},42114,"PyTorch 2.2.2 无法工作，必须升级到 2.3.0 吗？升级后其他节点报错怎么办？","是的，SAM2 需要 PyTorch 2.3.0 或更高版本才能正常运行。\n如果您升级 PyTorch 后遇到其他节点（如 ComfyUI-BiRefNet-ZHO）报错 \"Could not run 'torchvision::deform_conv2d'...\"，这通常是因为 torchvision 版本与新的 PyTorch 不匹配或编译问题。\n解决方法：\n1. 确保 torchvision 也已升级到与 PyTorch 2.3+ 兼容的最新版本。\n2. 如果问题依旧，尝试重新安装 torchvision 或相关的自定义节点包。\n3. 某些情况下，完全重新安装 ComfyUI 环境或相关依赖库能解决残留的版本冲突问题。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-segment-anything-2\u002Fissues\u002F12",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},42115,"单张图像分割（single_image segmentation）在最新更改后失效，报错 'reset_state error' 怎么办？","这是一个已知回归问题，最新的提交破坏了单张图像的分割功能（报错：'SAM2ImagePredictor' object has no attribute 'reset_state'），但视频分割功能仍然正常。\n临时解决方法：\n请将 'ComfyUI-segment-anything-2' 自定义节点回退到上一个正常工作的版本。具体来说，检出或使用 commit hash 为 `33cfed3` 的版本（即 `33cfed388030bc5d3667f5a3b2cbff1bb61dcf06`），直到维护者发布新的修复补丁。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-segment-anything-2\u002Fissues\u002F85",[]]