[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-scaelles--DEXTR-PyTorch":3,"tool-scaelles--DEXTR-PyTorch":61},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":24,"last_commit_at":59,"category_tags":60,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[27,13,15,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":10,"env_os":95,"env_gpu":96,"env_ram":95,"env_deps":97,"category_tags":110,"github_topics":111,"view_count":24,"oss_zip_url":111,"oss_zip_packed_at":111,"status":17,"created_at":112,"updated_at":113,"faqs":114,"releases":145},8980,"scaelles\u002FDEXTR-PyTorch","DEXTR-PyTorch","Deep Extreme Cut http:\u002F\u002Fwww.vision.ee.ethz.ch\u002F~cvlsegmentation\u002Fdextr","DEXTR-PyTorch 是一款基于深度学习的图像分割开源工具，专注于通过“极值点”实现高精度的对象提取。它主要解决了传统分割方法中用户交互繁琐或自动化程度不足的问题：用户只需在目标物体上标记最左、最右、最顶和最底四个关键点，算法即可自动生成精细的分割掩码。\n\n该工具的核心技术亮点在于其独特的输入机制，它将包含高斯分布的极值点信息作为额外通道融入卷积神经网络（CNN），使模型能够学习如何将这些稀疏提示转化为完整的物体轮廓。实验表明，这种方法在减少用户输入的同时，能在多个基准数据集上达到业界领先的分割精度，特别适用于交互式编辑、视频对象分割及密集标注任务。\n\nDEXTR-PyTorch 非常适合计算机视觉研究人员、AI 开发者以及需要高效处理图像数据的专业设计师使用。项目已移植至 PyTorch 框架，提供了预训练模型和详细的演示脚本，方便用户快速上手进行二次开发或直接应用于实际工作流中。无论是学术研究还是工程落地，它都为高质量的对象分割提供了一个轻量且高效的解决方案。","# Deep Extreme Cut (DEXTR)\nVisit our [project page](http:\u002F\u002Fwww.vision.ee.ethz.ch\u002F~cvlsegmentation\u002Fdextr) for accessing the paper, and the pre-computed results.\n\n![DEXTR](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscaelles_DEXTR-PyTorch_readme_7795f9a83f8b.png)\n\nThis is the implementation of our work `Deep Extreme Cut (DEXTR)`, for object segmentation from extreme points.\n\n#### This code was ported to PyTorch 0.4.0! For the previous version of the code with Pytorch 0.3.1, please checkout [this branch](https:\u002F\u002Fgithub.com\u002Fscaelles\u002FDEXTR-PyTorch\u002Ftree\u002FPyTorch-0.3.1).\n#### NEW: Keras with Tensorflow backend implementation also available: [DEXTR-KerasTensorflow](https:\u002F\u002Fgithub.com\u002Fscaelles\u002FDEXTR-KerasTensorflow )!\n\n### Abstract\nThis paper explores the use of extreme points in an object (left-most, right-most, top, bottom pixels) as input to obtain precise object segmentation for images and videos. We do so by adding an extra channel to the image in the input of a convolutional neural network (CNN), which contains a Gaussian centered in each of the extreme points. The CNN learns to transform this information into a segmentation of an object that matches those extreme points. We demonstrate the usefulness of this approach for guided segmentation (grabcut-style), interactive segmentation, video object segmentation, and dense segmentation annotation. We show that we obtain the most precise results to date, also with less user input, in an extensive and varied selection of benchmarks and datasets.\n\n### Installation\nThe code was tested with [Miniconda](https:\u002F\u002Fconda.io\u002Fminiconda.html) and Python 3.6. After installing the Miniconda environment:\n\n\n0. Clone the repo:\n    ```Shell\n    git clone https:\u002F\u002Fgithub.com\u002Fscaelles\u002FDEXTR-PyTorch\n    cd DEXTR-PyTorch\n    ```\n \n1. Install dependencies:\n    ```Shell\n    conda install pytorch torchvision -c pytorch\n    conda install matplotlib opencv pillow scikit-learn scikit-image\n    ```\n  \n2. Download the model by running the script inside ```models\u002F```:\n    ```Shell\n    cd models\u002F\n    chmod +x download_dextr_model.sh\n    .\u002Fdownload_dextr_model.sh\n    cd ..\n    ```\n    The default model is trained on PASCAL VOC Segmentation train + SBD (10582 images). To download models trained on PASCAL VOC Segmentation train or COCO, please visit our [project page](http:\u002F\u002Fwww.vision.ee.ethz.ch\u002F~cvlsegmentation\u002Fdextr\u002F#downloads), or keep scrolling till the end of this README.\n\n3. To try the demo version of DEXTR, please run:\n    ```Shell\n    python demo.py\n    ```\nIf installed correctly, the result should look like this:\n\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscaelles_DEXTR-PyTorch_readme_02390ba004aa.gif\" align=\"center\" width=480 height=auto\u002F>\u003C\u002Fp>\n\nTo train and evaluate DEXTR on PASCAL (or PASCAL + SBD), please follow these additional steps:\n\n4. Install tensorboard (integrated with PyTorch). \n    ```Shell\n    pip install tensorboard tensorboardx\n    ```\n\n5. Download the pre-trained PSPNet model for semantic segmentation, taken from [this](https:\u002F\u002Fgithub.com\u002Fisht7\u002Fpytorch-deeplab-resnet) repository.\n    ```Shell\n    cd models\u002F\n    chmod +x download_pretrained_psp_model.sh\n    .\u002Fdownload_pretrained_psp_model.sh\n    cd ..\n    ```\n6. Set the paths in ```mypath.py```, so that they point to the location of PASCAL\u002FSBD dataset.\n\n7. Run ```python train_pascal.py```, after changing the default parameters, if necessary (eg. gpu_id).\n\nEnjoy!!\n\n### Pre-trained models\nYou can use the following DEXTR models under MIT license as pre-trained on:\n  * [PASCAL + SBD](https:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fkmaninis\u002Fshare\u002FDEXTR\u002FDownloads\u002Fmodels\u002Fdextr_pascal-sbd.pth), trained on PASCAL VOC Segmentation train + SBD (10582 images). Achieves mIoU of 91.5% on PASCAL VOC Segmentation val.\n  * [PASCAL](https:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fkmaninis\u002Fshare\u002FDEXTR\u002FDownloads\u002Fmodels\u002Fdextr_pascal.pth), trained on PASCAL VOC Segmentation train (1464 images). Achieves mIoU of 90.5% on PASCAL VOC Segmentation val.\n  * [COCO](https:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fkmaninis\u002Fshare\u002FDEXTR\u002FDownloads\u002Fmodels\u002Fdextr_coco.pth), trained on COCO train 2014 (82783 images). Achieves mIoU of 87.8% on PASCAL VOC Segmentation val.\n\n### Citation\nIf you use this code, please consider citing the following papers:\n\n\t@Inproceedings{Man+18,\n\t  Title          = {Deep Extreme Cut: From Extreme Points to Object Segmentation},\n\t  Author         = {K.K. Maninis and S. Caelles and J. Pont-Tuset and L. {Van Gool}},\n\t  Booktitle      = {Computer Vision and Pattern Recognition (CVPR)},\n\t  Year           = {2018}\n\t}\n\n\t@InProceedings{Pap+17,\n\t  Title          = {Extreme clicking for efficient object annotation},\n\t  Author         = {D.P. Papadopoulos and J. Uijlings and F. Keller and V. Ferrari},\n\t  Booktitle      = {ICCV},\n\t  Year           = {2017}\n\t}\n\n\nWe thank the authors of [pytorch-deeplab-resnet](https:\u002F\u002Fgithub.com\u002Fisht7\u002Fpytorch-deeplab-resnet) for making their PyTorch re-implementation of DeepLab-v2 available!\n\nIf you encounter any problems please contact us at {kmaninis, scaelles}@vision.ee.ethz.ch.\n","# 深度极端切割（DEXTR）\n请访问我们的[项目页面](http:\u002F\u002Fwww.vision.ee.ethz.ch\u002F~cvlsegmentation\u002Fdextr)，以获取论文和预计算结果。\n\n![DEXTR](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscaelles_DEXTR-PyTorch_readme_7795f9a83f8b.png)\n\n这是我们关于从极端点进行目标分割的工作《深度极端切割（DEXTR）》的实现。\n\n#### 该代码已移植到 PyTorch 0.4.0！如需使用基于 PyTorch 0.3.1 的旧版本代码，请检出[此分支](https:\u002F\u002Fgithub.com\u002Fscaelles\u002FDEXTR-PyTorch\u002Ftree\u002FPyTorch-0.3.1)。\n#### 新增：也提供了基于 Keras 和 TensorFlow 后端的实现：[DEXTR-KerasTensorflow](https:\u002F\u002Fgithub.com\u002Fscaelles\u002FDEXTR-KerasTensorflow)！\n\n### 摘要\n本文探讨了将物体的极端点（最左、最右、最上、最下像素）作为输入，以获得图像和视频中精确的目标分割。我们通过在卷积神经网络（CNN）的输入图像中添加一个额外通道来实现这一点，该通道包含以每个极端点为中心的高斯分布。CNN 学习将这些信息转换为与这些极端点匹配的目标分割结果。我们证明了该方法在引导式分割（类似 GrabCut）、交互式分割、视频目标分割以及密集分割标注中的有效性。在广泛且多样的基准测试和数据集上，我们展示了该方法能够以更少的用户输入获得迄今为止最精确的结果。\n\n### 安装\n该代码已在 [Miniconda](https:\u002F\u002Fconda.io\u002Fminiconda.html) 和 Python 3.6 环境下测试通过。安装 Miniconda 环境后：\n\n0. 克隆仓库：\n    ```Shell\n    git clone https:\u002F\u002Fgithub.com\u002Fscaelles\u002FDEXTR-PyTorch\n    cd DEXTR-PyTorch\n    ```\n \n1. 安装依赖项：\n    ```Shell\n    conda install pytorch torchvision -c pytorch\n    conda install matplotlib opencv pillow scikit-learn scikit-image\n    ```\n  \n2. 下载模型：运行 `models\u002F` 目录下的脚本：\n    ```Shell\n    cd models\u002F\n    chmod +x download_dextr_model.sh\n    .\u002Fdownload_dextr_model.sh\n    cd ..\n    ```\n    默认模型是在 PASCAL VOC Segmentation 训练集和 SBD 数据集（共 10582 张图像）上训练的。如需下载在 PASCAL VOC Segmentation 训练集或 COCO 数据集上训练的模型，请访问我们的[项目页面](http:\u002F\u002Fwww.vision.ee.ethz.ch\u002F~cvlsegmentation\u002Fdextr\u002F#downloads)，或继续向下滚动至本 README 的末尾。\n\n3. 要试用 DEXTR 的演示版本，请运行：\n    ```Shell\n    python demo.py\n    ```\n如果安装正确，结果应如下所示：\n\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscaelles_DEXTR-PyTorch_readme_02390ba004aa.gif\" align=\"center\" width=480 height=auto\u002F>\u003C\u002Fp>\n\n如需在 PASCAL（或 PASCAL + SBD）数据集上训练和评估 DEXTR，请按照以下步骤操作：\n\n4. 安装 TensorBoard（与 PyTorch 集成）。\n    ```Shell\n    pip install tensorboard tensorboardx\n    ```\n\n5. 从 [此](https:\u002F\u002Fgithub.com\u002Fisht7\u002Fpytorch-deeplab-resnet) 仓库下载用于语义分割的预训练 PSPNet 模型。\n    ```Shell\n    cd models\u002F\n    chmod +x download_pretrained_psp_model.sh\n    .\u002Fdownload_pretrained_psp_model.sh\n    cd ..\n    ```\n6. 在 `mypath.py` 中设置路径，使其指向 PASCAL\u002FSBD 数据集的位置。\n\n7. 运行 `python train_pascal.py`。如有必要，可修改默认参数（例如 gpu_id）。\n\n尽情享受吧！！\n\n### 预训练模型\n您可以在 MIT 许可下使用以下 DEXTR 模型，它们分别在以下数据集上进行了预训练：\n  * [PASCAL + SBD](https:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fkmaninis\u002Fshare\u002FDEXTR\u002FDownloads\u002Fmodels\u002Fdextr_pascal-sbd.pth)，在 PASCAL VOC Segmentation 训练集和 SBD 数据集（共 10582 张图像）上训练。在 PASCAL VOC Segmentation 验证集上的 mIoU 达到 91.5%。\n  * [PASCAL](https:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fkmaninis\u002Fshare\u002FDEXTR\u002FDownloads\u002Fmodels\u002Fdextr_pascal.pth)，在 PASCAL VOC Segmentation 训练集（1464 张图像）上训练。在 PASCAL VOC Segmentation 验证集上的 mIoU 达到 90.5%。\n  * [COCO](https:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fkmaninis\u002Fshare\u002FDEXTR\u002FDownloads\u002Fmodels\u002Fdextr_coco.pth)，在 COCO 2014 训练集（82783 张图像）上训练。在 PASCAL VOC Segmentation 验证集上的 mIoU 达到 87.8%。\n\n### 引用\n如果您使用此代码，请考虑引用以下论文：\n\n\t@Inproceedings{Man+18,\n\t  Title          = {深度极端切割：从极端点到目标分割},\n\t  Author         = {K.K. Maninis 和 S. Caelles 和 J. Pont-Tuset 和 L. {Van Gool}},\n\t  Booktitle      = {计算机视觉与模式识别（CVPR）},\n\t  Year           = {2018}\n\t}\n\n\t@InProceedings{Pap+17,\n\t  Title          = {通过极端点击实现高效的目标标注},\n\t  Author         = {D.P. Papadopoulos 和 J. Uijlings 和 F. Keller 和 V. Ferrari},\n\t  Booktitle      = {ICCV},\n\t  Year           = {2017}\n\t}\n\n\n我们感谢 [pytorch-deeplab-resnet](https:\u002F\u002Fgithub.com\u002Fisht7\u002Fpytorch-deeplab-resnet) 的作者，他们提供了 DeepLab-v2 的 PyTorch 重实现版本！\n\n如遇任何问题，请联系我们：{kmaninis, scaelles}@vision.ee.ethz.ch。","# DEXTR-PyTorch 快速上手指南\n\nDEXTR (Deep Extreme Cut) 是一个基于深度学习的物体分割工具，只需用户提供物体的四个极端点（最左、最右、最上、最下像素），即可生成高精度的分割掩码。本项目已移植至 PyTorch 0.4.0+ 版本。\n\n## 环境准备\n\n本指南基于 **Linux\u002FmacOS** 环境，推荐使用 **Miniconda** 管理 Python 环境。\n\n*   **操作系统**: Linux 或 macOS\n*   **Python 版本**: 3.6\n*   **核心框架**: PyTorch 0.4.0+\n*   **依赖库**: torchvision, matplotlib, opencv, pillow, scikit-learn, scikit-image\n\n> **国内加速建议**：\n> 在安装 PyTorch 时，建议使用清华或中科大镜像源以提升下载速度。例如：\n> `conda install pytorch torchvision -c pytorch` 可替换为指定镜像源的 pip 安装方式，或直接使用官方命令（若网络通畅）。\n\n## 安装步骤\n\n### 1. 克隆项目代码\n```Shell\ngit clone https:\u002F\u002Fgithub.com\u002Fscaelles\u002FDEXTR-PyTorch\ncd DEXTR-PyTorch\n```\n\n### 2. 创建环境并安装依赖\n使用 Conda 创建环境并安装所需库：\n```Shell\nconda create -n dextr python=3.6\nconda activate dextr\nconda install pytorch torchvision -c pytorch\nconda install matplotlib opencv pillow scikit-learn scikit-image\n```\n*(注：若需使用 TensorBoard 进行训练监控，请额外运行 `pip install tensorboard tensorboardx`)*\n\n### 3. 下载预训练模型\n执行脚本下载默认模型（基于 PASCAL VOC + SBD 数据集训练）：\n```Shell\ncd models\u002F\nchmod +x download_dextr_model.sh\n.\u002Fdownload_dextr_model.sh\ncd ..\n```\n> **备选方案**：如果脚本下载失败，可手动从 [项目页面](http:\u002F\u002Fwww.vision.ee.ethz.ch\u002F~cvlsegmentation\u002Fdextr\u002F#downloads) 下载 `dextr_pascal-sbd.pth` 等模型文件并放入 `models\u002F` 目录。\n\n## 基本使用\n\n安装完成后，可直接运行演示脚本体验效果。该脚本将加载默认图像和模型，展示通过极端点进行分割的效果。\n\n```Shell\npython demo.py\n```\n\n运行成功后，程序将弹出窗口显示分割结果动画（类似 README 中的演示 GIF）。\n\n---\n**进阶提示**：\n若需在自己的数据集上训练或评估，请参考原文档配置 `mypath.py` 中的数据集路径，并下载 PSPNet 预训练权重后运行 `python train_pascal.py`。","某电商平台的视觉设计团队需要每天处理数百张商品图，为后续的背景替换和营销素材制作提供高精度的物体掩膜（Mask）。\n\n### 没有 DEXTR-PyTorch 时\n- 设计师依赖传统的“魔棒”或手动钢笔工具勾勒轮廓，面对毛发、透明玻璃等复杂边缘时，单张图片耗时往往超过 15 分钟。\n- 采用半自动的 GrabCut 算法时，用户必须反复绘制繁琐的前景\u002F背景矩形框及笔触，交互过程断裂且容易误判边界。\n- 在处理视频商品展示时，由于缺乏时序一致性引导，逐帧标注的工作量呈指数级增长，导致项目交付严重延期。\n- 不同人员操作标准不一，导致生成的分割掩膜边缘锯齿严重，后期合成时需要大量人工修图补救。\n\n### 使用 DEXTR-PyTorch 后\n- 标注员只需在物体最左、最右、最上、最下四个极端位置点击鼠标，DEXTR-PyTorch 即可在毫秒级内生成像素级精确的分割结果，单图耗时缩短至 30 秒以内。\n- 利用高斯中心点编码机制，工具能智能理解物体几何结构，即使面对复杂纹理也能一次性成功，无需反复调整交互框。\n- 将该逻辑应用于视频流时，仅需对关键帧进行四点标注，即可通过模型推理获得连贯流畅的全视频物体分割，效率提升数十倍。\n- 基于深度学习的统一输出保证了所有商品图边缘平滑自然，直接满足合成需求，大幅降低了后期返工率。\n\nDEXTR-PyTorch 通过将复杂的分割任务简化为极致的四点交互，实现了在保证工业级精度的同时，将人工标注成本降低了 90% 以上。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscaelles_DEXTR-PyTorch_02390ba0.gif","scaelles","Sergi Caelles","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fscaelles_93e09698.jpg","\r\n    Computer Vision researcher with special interest in applying deep learning to segmentation and detection tasks.\r\n","Research Scientist @ Google Research","Switzerland","scaelles@gmail.com","skprat","https:\u002F\u002Fsergicaelles.com\u002F","https:\u002F\u002Fgithub.com\u002Fscaelles",[83,87],{"name":84,"color":85,"percentage":86},"Python","#3572A5",99.7,{"name":88,"color":89,"percentage":90},"Shell","#89e051",0.3,847,154,"2026-04-06T21:37:58","GPL-3.0","未说明","需要 NVIDIA GPU (训练脚本中提及 gpu_id 参数)，具体型号和显存大小未说明，CUDA 版本需与 PyTorch 0.4.0 兼容",{"notes":98,"python":99,"dependencies":100},"该代码已移植到 PyTorch 0.4.0 版本（旧版为 0.3.1）。建议使用 Miniconda 管理环境。运行演示前需下载预训练模型；若需重新训练或评估，还需下载 PSPNet 预训练模型并配置 PASCAL\u002FSBD 数据集路径。","3.6",[101,102,103,104,105,106,107,108,109],"pytorch==0.4.0","torchvision","matplotlib","opencv","pillow","scikit-learn","scikit-image","tensorboard","tensorboardx",[15],null,"2026-03-27T02:49:30.150509","2026-04-20T16:21:08.049728",[115,120,125,130,135,140],{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},40300,"运行 demo.py 时遇到 'IndexError: index 0 is out of bounds' 错误怎么办？","该错误通常发生在处理空数组时。维护者已更新代码以处理这种情况，建议拉取最新的主分支（master）代码。此外，请确保使用 PyTorch 1.0.1 或更高版本进行测试。如果问题仍然存在，可能是特定提交版本的问题，请尝试更新到最新提交。","https:\u002F\u002Fgithub.com\u002Fscaelles\u002FDEXTR-PyTorch\u002Fissues\u002F13",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},40301,"无法复现演示结果或标注后图像变黑怎么办？","如果遇到无法复现结果或标注后图像全黑的问题，强烈建议使用 Miniconda 进行环境安装，而不是使用 virtualenv。README 文件中提供了具体的 Miniconda 安装建议。此外，确保操作系统环境清洁（如干净的 Ubuntu 安装），以避免依赖冲突。","https:\u002F\u002Fgithub.com\u002Fscaelles\u002FDEXTR-PyTorch\u002Fissues\u002F3",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},40302,"如何使用多张 GPU 训练 DEXTR 或增大 Batch Size？","理论上指定单个 GPU 设备变量不会占用其他显存，但为防止意外占用，推荐使用 CUDA_VISIBLE_DEVICES 环境变量来指定使用的 GPU。例如，若要在 GPU 1 上运行训练脚本，请使用命令：`CUDA_VISIBLE_DEVICES=1 python train.py`。通过这种方式可以灵活控制多卡训练或分配不同任务到不同显卡。","https:\u002F\u002Fgithub.com\u002Fscaelles\u002FDEXTR-PyTorch\u002Fissues\u002F9",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},40303,"如何理解并使用在线难例挖掘（OHEM）进行训练？","DEXTR 中的 OHEM 过程是模拟人类交互分割行为：1. 输入 4 个极值点评分图像；2. 计算预测误差最大的位置（即距离真实边界最远的错误预测点）；3. 将该错误点添加到极值点中，形成 5 个点再次评分；4. 与真值对比并反向传播。注意，第二阶段是仅在筛选出的难例上进行训练，以此提升模型对困难样本的处理能力。","https:\u002F\u002Fgithub.com\u002Fscaelles\u002FDEXTR-PyTorch\u002Fissues\u002F2",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},40304,"代码中的类别平衡交叉熵损失函数（Class-Balance Cross-Entropy Loss）是如何实现的？","由于裁剪后的图像中前景和背景像素数量严重不平衡（前景远多于背景），直接使用理论公式会导致网络对前景过自信。因此，代码采用了重排后的公式以提高训练稳定性，并引入了类别平衡权重（参考 Holistically-Nested Edge Detection 论文）。具体实现中，通过 `num_labels_neg\u002Fnum_total` 和 `num_labels_pos\u002Fnum_total` 来平衡正负样本权重，而非直接使用标准的 log(sigmoid) 形式。","https:\u002F\u002Fgithub.com\u002Fscaelles\u002FDEXTR-PyTorch\u002Fissues\u002F36",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},40305,"能否只使用 2 个或 3 个极值点训练 DEXTR 以分割细长物体？","通常情况下，仅使用 2 个或 3 个极值点无法有效恢复包围盒（Bounding Box），而包围盒对该方法的性能提升至关重要（见论文表 2）。对于细长物体（如树干、车道线），如果两个极值点物理距离很近，效果可能不佳。如果可以通过假设固定宽度等参数从 2-3 个点推导出包围盒，可以尝试修改代码适配，否则建议坚持使用 4 个极值点以保证性能。","https:\u002F\u002Fgithub.com\u002Fscaelles\u002FDEXTR-PyTorch\u002Fissues\u002F32",[]]