[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-JackieZhangdx--WeakSupervisedSegmentationList":3,"tool-JackieZhangdx--WeakSupervisedSegmentationList":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":83,"owner_website":83,"owner_url":84,"languages":83,"stars":85,"forks":86,"last_commit_at":87,"license":83,"difficulty_score":88,"env_os":89,"env_gpu":90,"env_ram":90,"env_deps":91,"category_tags":94,"github_topics":83,"view_count":23,"oss_zip_url":83,"oss_zip_packed_at":83,"status":16,"created_at":95,"updated_at":96,"faqs":97,"releases":98},2757,"JackieZhangdx\u002FWeakSupervisedSegmentationList","WeakSupervisedSegmentationList","This repository contains lists of state-or-art weakly supervised semantic segmentation works","WeakSupervisedSegmentationList 是一个专注于弱监督语义分割领域的开源资源清单，旨在系统性地整理该方向的前沿论文与技术资料。在人工智能图像识别中，获取像素级精细标注数据成本极高，而弱监督技术仅需图像标签、边界框甚至单张示例即可训练模型，有效降低了数据依赖门槛。WeakSupervisedSegmentationList 正是为解决这一痛点而生，它将现有研究成果按监督类型（如边界框、单次学习、图像标签等）进行分类梳理，并附带核心难点分析与部分代码资源链接。\n\n该项目不仅罗列了 CVPR、ICCV 等顶会的经典与最新论文，还涵盖了相关数据集、教程视频及未监督分割提议方法，为研究者提供了清晰的技术演进脉络。其独特之处在于对每篇文献的核心贡献进行了简要笔记，帮助用户快速把握从“边界框驱动”到“单次视频分割”等不同技术路线的关键突破。\n\nWeakSupervisedSegmentationList 非常适合计算机视觉领域的研究人员、算法工程师及高校学生使用。无论是希望快速入门弱监督分割的新手，还是正在寻找特定技术路线灵感的资深开发者，都能从中获得宝贵的参考指引，从而加","WeakSupervisedSegmentationList 是一个专注于弱监督语义分割领域的开源资源清单，旨在系统性地整理该方向的前沿论文与技术资料。在人工智能图像识别中，获取像素级精细标注数据成本极高，而弱监督技术仅需图像标签、边界框甚至单张示例即可训练模型，有效降低了数据依赖门槛。WeakSupervisedSegmentationList 正是为解决这一痛点而生，它将现有研究成果按监督类型（如边界框、单次学习、图像标签等）进行分类梳理，并附带核心难点分析与部分代码资源链接。\n\n该项目不仅罗列了 CVPR、ICCV 等顶会的经典与最新论文，还涵盖了相关数据集、教程视频及未监督分割提议方法，为研究者提供了清晰的技术演进脉络。其独特之处在于对每篇文献的核心贡献进行了简要笔记，帮助用户快速把握从“边界框驱动”到“单次视频分割”等不同技术路线的关键突破。\n\nWeakSupervisedSegmentationList 非常适合计算机视觉领域的研究人员、算法工程师及高校学生使用。无论是希望快速入门弱监督分割的新手，还是正在寻找特定技术路线灵感的资深开发者，都能从中获得宝贵的参考指引，从而加速模型研发与学术探索进程。","# Weakly Supervised Semantic Segmentation list\n\nThis repository contains lists of state-or-art weakly supervised semantic segmentation works. Papers and resources are listed below according to supervision types. \n\nThere are some personal views and notes, just ignore if not interested. \n\nLast update 2019\u002F4\n\n- [x] Paper list\n\t- [x] instance\n\t- [x] box\n\t- [x] one-shot\n\t- [x] others \n- [x] Resources\n\nsome unsupervised segment proposal methods and datasets [here](unsup.md).\n\n**CVPR 2018 Tutorial : WSL** [web&ppt](https:\u002F\u002Fhbilen.github.io\u002Fwsl-cvpr18.github.io\u002F), [Part1](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=bXfZFmE8cjo) ,[Part2](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=FetNp6f19IM)\n\n#### Typical weak supervised segmentation problems \n\n\n| No | Supervision | Difficulty | Domain | Core issues |\n| -- | ----------- | ---------- | ------ | ----------- |\n| 1 | [Bounding box](#1) | middle | annotated classes | transfer learning |\n| 2 | [One-shot segment](#2) | middle | similar objects | one-shot learning |\n| 3 | [Image\u002Fvideo label](#3) | hard | annotated classes | transfer learning |\n| 4 | [Others](#4) | n\u002Fa | n\u002Fa | n\u002Fa |\n\n\n\u003Ch2 id=\"1\">1.Bounding box supervision\u003C\u002Fh2>\n\n* [Box-driven Class-wise Region Masking and Filling Rate Guided Loss for Weakly Supervised Semantic Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.11693), CVPR 2019 \n\n* [Learning to Segment Every Thing](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.10370), CVPR 2018\n\n\t:Learning weight transfer from well-annotated subset, transfer class-specific weights(output layers) from detection and classification branch, based on Mask-RCNN\n\n* [Pseudo Mask Augmented Object Detection](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.05858), CVPR 2018\n\n\t:State-of-art weakly supervised instance segmentation with bounding box annotation. EM optimizes pseudo mask and segmentation parameter like Boxsup. Graphcut on superpixel is employed to refine pseudo mask. \n\n* [Simple Does It: Weakly Supervised Instance and Semantic Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1603.07485), CVPR 2017 \\[[web](https:\u002F\u002Fwww.mpi-inf.mpg.de\u002Fdepartments\u002Fcomputer-vision-and-multimodal-computing\u002Fresearch\u002Fweakly-supervised-learning\u002Fsimple-does-it-weakly-supervised-instance-and-semantic-segmentation\u002F)\\] \\[[ref-code](https:\u002F\u002Fgithub.com\u002Fphilferriere\u002Ftfwss)\\]\\[[supp](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2017\u002Fsupplemental\u002FKhoreva_Simple_Does_It_2017_CVPR_supplemental.pdf)\\]\n\n\t:Grabcut+(HED bounday) and MCG , train foreground segmentation network directly with generated mask semantic segmentaion, sensitive to env(quality) of training images. \n\n* [Weakly- and Semi-Supervised Learning of a DCNN for Semantic Image Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1502.02734), ICCV 2015\n\n\t:Based on CRF refine, EM seems not work\n\n* [BoxSup: Exploiting Bounding Boxes to Supervise Convolutional Networks for Semantic Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1503.01640), ICCV 2015\n\n\t:Iteratively update parameters and region proposal labels, proposals are selected by network output masks\n\n* [Deepcut: Object segmentation from bounding box annotations using convolutional neural networks](https:\u002F\u002Fpdfs.semanticscholar.org\u002F9732\u002Ff55c55512309e24a88ae4f0728cc763b626f.pdf), TMI 2017\n\n* [Adversarial Learning for Semi-Supervised Semantic Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.07934), BMVC 2018, \\[[code](https:\u002F\u002Fgithub.com\u002Fhfslyc\u002FAdvSemiSeg)\\]\n\n\n\u003Ch2 id=\"2\">2.One-Shot segmentation supervision\u003C\u002Fh2>\n\nDAVIS Challenge: \u003Chttp:\u002F\u002Fdavischallenge.org\u002F> \n\n\t: Davis17\u002F18(Semi-supervised Video segmentation task), Davis16 is video salient object segmentation without the first frame annotations.\n\n* [Fast and Accurate Online Video Object Segmentation via Tracking Parts](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.02323), CVPR 2018(Spotlight) \\[[code](https:\u002F\u002Fgithub.com\u002FJingchunCheng\u002FFAVOS)\\]\n\n\t:state-of-art, 82.4%\u002F1.8s 77.9%\u002F0.6s \n\n* [OSVOS: One-Shot Video Object Segmentation](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2017\u002Fpapers\u002FCaelles_One-Shot_Video_Object_CVPR_2017_paper.pdf), CVPR 2017 \\[[web](http:\u002F\u002Fwww.vision.ee.ethz.ch\u002F~cvlsegmentation\u002Fosvos\u002F)\\]\\[[code](https:\u002F\u002Fgithub.com\u002Fkmaninis\u002FOSVOS-caffe)\\]\n\t\n\t:milestone, fine-tuning parent network with the first frame mask, 79.8%\u002F10s\n\n\u003Ch2 id=\"3\">3.Image\u002Fvideo label supervision\u003C\u002Fh2>\n\n* [Self-produced Guidance for Weakly-supervised Object Localization](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.08902v1), ECCV 2018\n\n* [Convolutional Simplex Projection Network (CSPN) for Weakly Supervised Semantic Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.09169v1), BMVC 2018\n\n* [Weakly Supervised Instance Segmentation using Class Peak Response](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.00880), CVPR 2018(Spotlight)\n\n\t:state-of-art practice for instance seg with only class label.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJackieZhangdx_WeakSupervisedSegmentationList_readme_9dc50e84b8bc.png\" alt=\"prm\" title=\"prm\" width=\"750\" height=\"300\" \u002F>\n\n* [Weakly-Supervised Semantic Segmentation by Iteratively Mining Common Object Features](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.04659v1), CVPR 2018\n\n    :Superpixel-> RegionNet(RoI classfier)-> Saliency refine, iteratively update with PixelNet(FCN)\n\n* [Revisiting Dilated Convolution: A Simple Approach for Weakly- and SemiSupervised Semantic Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1805.04574), CVPR 2018(Spotlight)\n\n* [Weakly-Supervised Semantic Segmentation Network With Deep Seeded Region Growing](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FHuang_Weakly-Supervised_Semantic_Segmentation_CVPR_2018_paper.pdf), CVPR 2018 \\[[web](https:\u002F\u002Fspeedinghzl.github.io\u002Fpublication\u002Fdsrg\u002F)\\]\\[[code](https:\u002F\u002Fgithub.com\u002Fspeedinghzl\u002FDSRG)\\]\n\n* [Adversarial Complementary Learning for Weakly Supervised Object Localization](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.06962v1), CVPR 2018\n\n* [Learning Pixel-level Semantic Affinity with Image-level Supervision for Weakly Supervised Semantic Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.10464), CVPR 2018\n\n* [Multi-Evidence Filtering and Fusion for Multi-Label Classification, Object Detection and Semantic Segmentation Based on Weakly Supervised Learning](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.09129), CVPR 2018\n\n* [Weakly Supervised Semantic Segmentation using Web-Crawled Videos](https:\u002F\u002Farxiv.org\u002Fabs\u002F1701.00352), CVPR 2017(Spotlight) \\[[web](http:\u002F\u002Fcvlab.postech.ac.kr\u002Fresearch\u002Fweaksup_video\u002F)\\]\n\n* [Object Region Mining with Adversarial Erasing: A Simple Classification to Semantic Segmentation Approach](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.08448), CVPR 2017\n\n* [WILDCAT: Weakly Supervised Learning of Deep ConvNets for Image Classification, Pointwise Localization and Segmentation](http:\u002F\u002Fwebia.lip6.fr\u002F~durandt\u002Fpdfs\u002F2017_CVPR\u002FDurand_WILDCAT_CVPR_2017.pdf), CVPR 2017 \\[[web](http:\u002F\u002Fwebia.lip6.fr\u002F~durandt\u002Fprojects\u002Fwildcat\u002F)\\]\\[[code](https:\u002F\u002Fgithub.com\u002Fdurandtibo\u002Fwildcat.pytorch)\\]\n\n* [Learning random-walk label propagation for weakly-supervised semantic segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.00470), CVPR 2017(Oral)\n\n* [Combining Bottom-Up, Top-Down, and Smoothness Cues for Weakly Supervised Image Segmentation](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8100253\u002F), CVPR 2017\n\n* [Weakly Supervised Semantic Segmentation Using Superpixel Pooling Network](https:\u002F\u002Faaai.org\u002Focs\u002Findex.php\u002FAAAI\u002FAAAI17\u002Fpaper\u002Fview\u002F14445\u002F14288), AAAI 2017\n \n* [Learning from Weak and Noisy Labels for Semantic Segmentation](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F7450177\u002F), PAMI 2017\n\n* [Learning to Segment Human by Watching YouTube](https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.01457), PAMI 2017\n\n* [Seed, Expand, Constrain: Three Principles for Weakly-Supervised Image Segmentation](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.06098.pdf), ECCV 2016 \\[[code](https:\u002F\u002Fgithub.com\u002Fkolesman\u002FSEC)\\]\n\n* [Backtracking ScSPM Image Classifier for Weakly Supervised Top-down Saliency](https:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2016\u002Fapp\u002FS21-58.pdf), CVPR 2016, TIP 2018 [Version](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.05345)\n\n* [Constrained Convolutional Neural Networks for Weakly Supervised Segmentation](https:\u002F\u002Fwww.robots.ox.ac.uk\u002F~vgg\u002Frg\u002Fpapers\u002Fccnn.pdf), ICCV 2015 \\[[code](https:\u002F\u002Fgithub.com\u002Fpathak22\u002Fccnn)\\]\n\n* [From Image-level to Pixel-level Labeling with Convolutional Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1411.6228), CVPR 2015\n\nResource \n\n* [Yunchao Wei](https:\u002F\u002Fweiyc.github.io) talk in Chinese about [WSL with image label](http:\u002F\u002Fwww.iqiyi.com\u002Fw_19ru51f0nh.html)\n\nArxiv paper\n\n* [Learning to Exploit the Prior Network Knowledge for Weakly-Supervised Semantic Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.04882), Arxiv1804\n\n* [Weakly Supervised Object Discovery by Generative Adversarial & Ranking Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.08174v2), Arxiv 1711\n \n\u003Ch2 id=\"3.1\">3.1 Deep activation\u003C\u002Fh2>\n\n| Propagate method | Papers |\n| ---------------- | ------ |\n| Global Max Pooling(GMP) | Is object localization for free? - Weakly-supervised learning with convolutional neural networks,[CVPR 2015](http:\u002F\u002Fleon.bottou.org\u002Fpublications\u002Fpdf\u002Fcvpr-2015.pdf) |\n| Global Average Pooling(GAP) | Learning Deep Features for Discriminative Localization [CVPR 2016](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.04150)|\n| Log-sum-exponential Pooling(LSE)| ProNet: Learning to Propose Object-specific Boxes for Cascaded Neural Networks,[CVPR 2016](https:\u002F\u002Farxiv.org\u002Fabs\u002F1511.03776)|\n| Global Weighted Rank Pooling(GWRP) | SEC [ECCV 2016](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.06098.pdf)|\n| Global rank Max-Min Pooling(GRP)| WILDCAT, [CVPR 2017](http:\u002F\u002Fwebia.lip6.fr\u002F~durandt\u002Fprojects\u002Fwildcat\u002F)|\n\n\n\u003Ch2 id=\"3.1\">3.2 Weakly supervised Detection \u002F Localization(TODO) \u003C\u002Fh2>\n\n* [PCL: Proposal Cluster Learning for Weakly Supervised Object Detection](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.03342), PAMI 2018 \\[[code](https:\u002F\u002Fgithub.com\u002Fppengtang\u002Foicr\u002Ftree\u002Fpcl)\\]\n\n* [Weakly Supervised Region Proposal Network and Object Detection](http:\u002F\u002Fpengtang.xyz\u002Fpublications\u002F0640.pdf), ECCV 2018\n\n* [TS2C: Tight Box Mining with Surrounding Segmentation Context for Weakly Supervised Object Detection](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.04897v1), ECCV 2018\n\n* [Zigzag Learning for Weakly Supervised Object Detection](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.09466v1), CVPR 2018\n\n* [W2F: A Weakly-Supervised to Fully-Supervised Framework for Object Detection](https:\u002F\u002Fivul.kaust.edu.sa\u002FDocuments\u002FPublications\u002F2018\u002FW2F%20A%20Weakly-Supervised%20to%20Fully-Supervised%20Framework.pdf), CVPR 2018\n\n* [Generative Adversarial Learning Towards Fast Weakly Supervised Detection](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FShen_Generative_Adversarial_Learning_CVPR_2018_paper.pdf), CVPR 2018\n\n* [Min-Entropy Latent Model for Weakly Supervised Object Detection](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FWan_Min-Entropy_Latent_Model_CVPR_2018_paper.pdf), CVPR 2018 , [PAMI19](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8640243\u002F), \\[[code](https:\u002F\u002Fgithub.com\u002FWinfrand\u002FMELM)\\]\n\n* [Weakly Supervised Cascaded Convolutional Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.08258), CVPR 2017\n\n* [Multiple Instance Detection Network with Online Instance Classifier Refinement](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.00138), CVPR 2017 \\[[code](https:\u002F\u002Fgithub.com\u002Fppengtang\u002Foicr)\\]\n\n\u003Ch2 id=\"4\">4.Other supervision\u003C\u002Fh2>\n\n#### Points\n\n* [Deep Extreme Cut: From Extreme Points to Object Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.09081), CVPR 2018 \\[[web](http:\u002F\u002Fwww.vision.ee.ethz.ch\u002F~cvlsegmentation\u002Fdextr\u002F)\\]\\[[code](http:\u002F\u002Fwww.vision.ee.ethz.ch\u002F~cvlsegmentation\u002Fdextr\u002F)\\]\n* [What's the Point: Semantic Segmentation with Point Supervision](https:\u002F\u002Farxiv.org\u002Fabs\u002F1506.02106), ECCV 2016 \\[[web](http:\u002F\u002Fvision.stanford.edu\u002Fwhats_the_point\u002F)\\]\\[[code](https:\u002F\u002Fgithub.com\u002Fabearman\u002Fwhats-the-point1)\\] \n\n#### Scribbles\n\n* [Normalized Cut Loss for Weakly-supervised CNN Segmentation](https:\u002F\u002Ffperazzi.github.io\u002Ffiles\u002Fpublications\u002Fncloss.pdf), CVPR 2018\n* [ScribbleSup: Scribble-Supervised Convolutional Networks for Semantic Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1604.05144), CVPR 2016\n* [Learning to segment under various forms of weak supervision](https:\u002F\u002Fwww.cs.toronto.edu\u002F~urtasun\u002Fpublications\u002Fxu_etal_cvpr15.pdf), CVPR 2015\n\n\n\u003Ch2 id=\"5\">5.Close Related or unpublished work\u003C\u002Fh2>\n\n* [Learning to Segment via Cut-and-Paste](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.06414), Arxiv 1803 \n\n* [WebSeg: Learning Semantic Segmentation from Web Searches](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.09859v1), Arxiv1803\n\n* [On Regularized Losses for Weakly-supervised CNN Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.09569v1), Arxiv1803\n\n* [Weakly-Supervised Action Segmentation with Iterative Soft Boundary Assignment](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.10699v1), CVPR 2018\n\n* [Cross-Domain Weakly-Supervised Object Detection through Progressive Domain Adaptation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.11365), CVPR 2018\n\n* [Weakly Supervised Salient Object Detection Using Image Labels](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.06503v1), AAAI 2018\n\n* [Weakly Supervised Object Localization on grocery shelves using simple FCN and Synthetic Dataset](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.06813v1), Arxiv 1803\n\n* [Learning Semantic Segmentation with Diverse Supervision](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.00509), WACV 2018\n\n\n**If some related works are missed, please kindly notice me by dxzhang@zju.edu.cn**\n\n","# 弱监督语义分割列表\n\n本仓库包含当前最先进的弱监督语义分割相关工作列表。论文和资源按照不同的监督类型分类列出。\n\n其中包含一些个人见解和注释，若不感兴趣可直接跳过。\n\n最后更新时间：2019年4月\n\n- [x] 论文列表\n\t- [x] 实例级\n\t- [x] 边界框\n\t- [x] 一次-shot\n\t- [x] 其他 \n- [x] 资源\n\n一些无监督的分割提议方法和数据集请参见[这里](unsup.md)。\n\n**CVPR 2018教程：WSL** [网页&PPT](https:\u002F\u002Fhbilen.github.io\u002Fwsl-cvpr18.github.io\u002F)，[第一部分](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=bXfZFmE8cjo)，[第二部分](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=FetNp6f19IM)\n\n#### 典型的弱监督分割问题\n\n\n| 序号 | 监督方式 | 难度 | 应用领域 | 核心问题 |\n| -- | ----------- | ---------- | ------ | ----------- |\n| 1 | [边界框](#1) | 中等 | 已标注类别 | 迁移学习 |\n| 2 | [一次-shot分割](#2) | 中等 | 相似物体 | 一次-shot学习 |\n| 3 | [图像\u002F视频标签](#3) | 困难 | 已标注类别 | 迁移学习 |\n| 4 | [其他](#4) | 不适用 | 不适用 | 不适用 |\n\n\n\u003Ch2 id=\"1\">1.边界框监督\u003C\u002Fh2>\n\n* [基于边界框的类别区域掩码与填充率引导损失的弱监督语义分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.11693), CVPR 2019 \n\n* [学会分割一切](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.10370), CVPR 2018\n\n\t:从标注良好的子集中学习权重迁移，基于Mask-RCNN将特定类别的权重（输出层）从检测和分类分支迁移到分割任务中。\n\n* [伪掩码增强的目标检测](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.05858), CVPR 2018\n\n\t:利用边界框标注实现的最先进弱监督实例分割。通过EM算法优化伪掩码和分割参数，类似于Boxsup的方法。同时采用图割算法在超像素基础上进一步细化伪掩码。\n\n* [简单有效：弱监督实例与语义分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1603.07485), CVPR 2017 \\[[网页](https:\u002F\u002Fwww.mpi-inf.mpg.de\u002Fdepartments\u002Fcomputer-vision-and-multimodal-computing\u002Fresearch\u002Fweakly-supervised-learning\u002Fsimple-does-it-weakly-supervised-instance-and-semantic-segmentation\u002F)\\] \\[[参考代码](https:\u002F\u002Fgithub.com\u002Fphilferriere\u002Ftfwss)\\]\\[[补充材料](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2017\u002Fsupplemental\u002FKhoreva_Simple_Does_It_2017_CVPR_supplemental.pdf)\\]\n\n\t:结合Grabcut+(HED边界)和MCG技术，直接使用生成的掩码训练前景分割网络，对训练图像的质量较为敏感。\n\n* [弱监督与半监督条件下卷积神经网络用于语义图像分割的学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F1502.02734), ICCV 2015\n\n\t:基于CRF进行精炼，但EM算法似乎效果不佳。\n\n* [BoxSup：利用边界框监督卷积网络进行语义分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1503.01640), ICCV 2015\n\n\t:通过迭代更新参数和区域建议标签，建议由网络输出的掩码来选择。\n\n* [Deepcut：基于卷积神经网络从边界框标注中进行目标分割](https:\u002F\u002Fpdfs.semanticscholar.org\u002F9732\u002Ff55c55512309e24a88ae4f0728cc763b626f.pdf), TMI 2017\n\n* [用于半监督语义分割的对抗性学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.07934), BMVC 2018, \\[[代码](https:\u002F\u002Fgithub.com\u002Fhfslyc\u002FAdvSemiSeg)\\]\n\n\n\u003Ch2 id=\"2\">2.一次-shot分割监督\u003C\u002Fh2>\n\nDAVIS挑战赛：\u003Chttp:\u002F\u002Fdavischallenge.org\u002F> \n\n\t: Davis17\u002F18（半监督视频分割任务），Davis16则是针对没有第一帧标注的视频显著性目标分割。\n\n* [通过追踪部件实现快速准确的在线视频目标分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.02323), CVPR 2018（亮点论文） \\[[代码](https:\u002F\u002Fgithub.com\u002FJingchunCheng\u002FFAVOS)\\]\n\n\t:目前最先进的方法，82.4%\u002F1.8秒；77.9%\u002F0.6秒。\n\n* [OSVOS：一次-shot视频目标分割](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2017\u002Fpapers\u002FCaelles_One-Shot_Video_Object_CVPR_2017_paper.pdf), CVPR 2017 \\[[网页](http:\u002F\u002Fwww.vision.ee.ethz.ch\u002F~cvlsegmentation\u002Fosvos\u002F)\\]\\[[代码](https:\u002F\u002Fgithub.com\u002Fkmaninis\u002FOSVOS-caffe)\\]\n\t\n\t:里程碑式的工作，通过第一帧的掩码微调父网络，达到79.8%\u002F10秒的效果。\n\n\u003Ch2 id=\"3\">3.图像\u002F视频标签监督\u003C\u002Fh2>\n\n* [弱监督目标定位中的自生成指导](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.08902v1), ECCV 2018\n\n* [用于弱监督语义分割的卷积单纯形投影网络（CSPN）](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.09169v1), BMVC 2018\n\n* [利用类别峰值响应进行弱监督实例分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.00880), CVPR 2018（亮点论文）\n\n\t:仅使用类别标签实现实例分割的最新实践。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJackieZhangdx_WeakSupervisedSegmentationList_readme_9dc50e84b8bc.png\" alt=\"prm\" title=\"prm\" width=\"750\" height=\"300\" \u002F>\n\n* [通过迭代挖掘常见目标特征进行弱监督语义分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.04659v1), CVPR 2018\n\n    :超像素-> RegionNet（RoI分类器）-> 显著性精炼，再通过PixelNet（FCN）迭代更新。\n\n* [重新审视扩张卷积：一种用于弱监督和半监督语义分割的简单方法](https:\u002F\u002Farxiv.org\u002Fabs\u002F1805.04574), CVPR 2018（亮点论文）\n\n* [具有深度种子区域生长的弱监督语义分割网络](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FHuang_Weakly-Supervised_Semantic_Segmentation_CVPR_2018_paper.pdf), CVPR 2018 \\[[网页](https:\u002F\u002Fspeedinghzl.github.io\u002Fpublication\u002Fdsrg\u002F)\\]\\[[代码](https:\u002F\u002Fgithub.com\u002Fspeedinghzl\u002FDSRG)\\]\n\n* [用于弱监督目标定位的对抗性互补学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.06962v1), CVPR 2018\n\n* [在图像级监督下学习像素级语义亲和力以实现弱监督语义分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.10464), CVPR 2018\n\n* [基于弱监督学习的多证据过滤与融合用于多标签分类、目标检测和语义分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.09129), CVPR 2018\n\n* [利用网络爬取的视频进行弱监督语义分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1701.00352), CVPR 2017（亮点论文） \\[[网页](http:\u002F\u002Fcvlab.postech.ac.kr\u002Fresearch\u002Fweaksup_video\u002F)\\]\n\n* [通过对抗性擦除进行目标区域挖掘：一种从分类到语义分割的简单方法](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.08448), CVPR 2017\n\n* [WILDCAT：用于图像分类、点位定位和分割的弱监督深度卷积网络学习](http:\u002F\u002Fwebia.lip6.fr\u002F~durandt\u002Fpdfs\u002F2017_CVPR\u002FDurand_WILDCAT_CVPR_2017.pdf), CVPR 2017 \\[[网页](http:\u002F\u002Fwebia.lip6.fr\u002F~durandt\u002Fprojects\u002Fwildcat\u002F)\\]\\[[代码](https:\u002F\u002Fgithub.com\u002Fdurandtibo\u002Fwildcat.pytorch)\\]\n\n* [学习随机游走标签传播以实现弱监督语义分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.00470), CVPR 2017（口头报告）\n\n* [结合自底向上、自顶向下及平滑性线索进行弱监督图像分割](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8100253\u002F), CVPR 2017\n\n* [使用超像素池化网络的弱监督语义分割](https:\u002F\u002Faaai.org\u002Focs\u002Findex.php\u002FAAAI\u002FAAAI17\u002Fpaper\u002Fview\u002F14445\u002F14288)，AAAI 2017\n \n* [从弱标签和噪声标签中学习用于语义分割](http:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F7450177\u002F)，PAMI 2017\n\n* [通过观看YouTube视频学习人体分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.01457)，PAMI 2017\n\n* [种子、扩展、约束：弱监督图像分割的三条原则](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.06098.pdf)，ECCV 2016 \\[[代码](https:\u002F\u002Fgithub.com\u002Fkolesman\u002FSEC)\\]\n\n* [用于弱监督自顶向下显著性的回溯式ScSPM图像分类器](https:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2016\u002Fapp\u002FS21-58.pdf)，CVPR 2016，TIP 2018 [版本](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.05345)\n\n* [用于弱监督分割的约束卷积神经网络](https:\u002F\u002Fwww.robots.ox.ac.uk\u002F~vgg\u002Frg\u002Fpapers\u002Fccnn.pdf)，ICCV 2015 \\[[代码](https:\u002F\u002Fgithub.com\u002Fpathak22\u002Fccnn)\\]\n\n* [利用卷积网络实现从图像级到像素级的标注](https:\u002F\u002Farxiv.org\u002Fabs\u002F1411.6228)，CVPR 2015\n\n资源 \n\n* [魏云超](https:\u002F\u002Fweiyc.github.io)关于[基于图像标签的WSL]的中文演讲 (http:\u002F\u002Fwww.iqiyi.com\u002Fw_19ru51f0nh.html)\n\nArxiv论文\n\n* [学习利用先验网络知识进行弱监督语义分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.04882)，Arxiv1804\n\n* [基于生成对抗与排序网络的弱监督目标发现](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.08174v2)，Arxiv 1711\n \n\u003Ch2 id=\"3.1\">3.1 深度激活\u003C\u002Fh2>\n\n| 传播方法 | 论文 |\n| ---------------- | ------ |\n| 全局最大池化(GMP) | 目标定位是免费的吗？——基于卷积神经网络的弱监督学习,[CVPR 2015](http:\u002F\u002Fleon.bottou.org\u002Fpublications\u002Fpdf\u002Fcvpr-2015.pdf) |\n| 全局平均池化(GAP) | 学习判别性定位的深度特征 [CVPR 2016](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.04150)|\n| 对数求和指数池化(LSE)| ProNet: 为级联神经网络学习提出特定于目标的边界框,[CVPR 2016](https:\u002F\u002Farxiv.org\u002Fabs\u002F1511.03776)|\n| 全局加权排名池化(GWRP) | SEC [ECCV 2016](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1603.06098.pdf)|\n| 全局排名最大-最小池化(GRP) | WILDCAT, [CVPR 2017](http:\u002F\u002Fwebia.lip6.fr\u002F~durandt\u002Fprojects\u002Fwildcat\u002F)|\n\n\u003Ch2 id=\"3.1\">3.2 弱监督检测\u002F定位（待办）\u003C\u002Fh2>\n\n* [PCL：用于弱监督目标检测的提案聚类学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.03342)，PAMI 2018 \\[[代码](https:\u002F\u002Fgithub.com\u002Fppengtang\u002Foicr\u002Ftree\u002Fpcl)\\]\n\n* [弱监督区域建议网络和目标检测](http:\u002F\u002Fpengtang.xyz\u002Fpublications\u002F0640.pdf)，ECCV 2018\n\n* [TS2C：结合周围分割上下文的紧密框挖掘，用于弱监督目标检测](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.04897v1)，ECCV 2018\n\n* [用于弱监督目标检测的之字形学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.09466v1)，CVPR 2018\n\n* [W2F：一种从弱监督到全监督的目标检测框架](https:\u002F\u002Fivul.kaust.edu.sa\u002FDocuments\u002FPublications\u002F2018\u002FW2F%20A%20Weakly-Supervised%20to%20Fully-Supervised%20Framework.pdf)，CVPR 2018\n\n* [面向快速弱监督检测的生成对抗学习](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FShen_Generative_Adversarial_Learning_CVPR_2018_paper.pdf)，CVPR 2018\n\n* [用于弱监督目标检测的最小熵潜在模型](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FWan_Min-Entropy_Latent_Model_CVPR_2018_paper.pdf)，CVPR 2018，[PAMI19](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8640243\u002F)，\\[[代码](https:\u002F\u002Fgithub.com\u002FWinfrand\u002FMELM)\\]\n\n* [弱监督级联卷积网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.08258)，CVPR 2017\n\n* [具有在线实例分类器精炼功能的多实例检测网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.00138)，CVPR 2017 \\[[代码](https:\u002F\u002Fgithub.com\u002Fppengtang\u002Foicr)\\]\n\n\u003Ch2 id=\"4\">4.其他监督方式\u003C\u002Fh2>\n\n#### 点标注\n\n* [Deep Extreme Cut：从极端点到目标分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.09081)，CVPR 2018 \\[[网页](http:\u002F\u002Fwww.vision.ee.ethz.ch\u002F~cvlsegmentation\u002Fdextr\u002F)\\]\\[[代码](http:\u002F\u002Fwww.vision.ee.ethz.ch\u002F~cvlsegmentation\u002Fdextr\u002F)\\]\n* [何谓点？：基于点标注的语义分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1506.02106)，ECCV 2016 \\[[网页](http:\u002F\u002Fvision.stanford.edu\u002Fwhats_the_point\u002F)\\]\\[[代码](https:\u002F\u002Fgithub.com\u002Fabearman\u002Fwhats-the-point1)\\] \n\n#### 笔画标注\n\n* [用于弱监督CNN分割的归一化切割损失](https:\u002F\u002Ffperazzi.github.io\u002Ffiles\u002Fpublications\u002Fncloss.pdf)，CVPR 2018\n* [ScribbleSup：基于笔画标注的语义分割卷积网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1604.05144)，CVPR 2016\n* [在各种弱监督形式下学习分割](https:\u002F\u002Fwww.cs.toronto.edu\u002F~urtasun\u002Fpublications\u002Fxu_etal_cvpr15.pdf)，CVPR 2015\n\n\n\u003Ch2 id=\"5\">5.相关或未发表的工作\u003C\u002Fh2>\n\n* [通过剪切和粘贴学习分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.06414)，Arxiv 1803 \n\n* [WebSeg：从网络搜索中学习语义分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.09859v1)，Arxiv1803\n\n* [关于弱监督CNN分割的正则化损失](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.09569v1)，Arxiv1803\n\n* [通过迭代软边界分配进行弱监督动作分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.10699v1)，CVPR 2018\n\n* [通过渐进式领域适应实现跨领域的弱监督目标检测](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.11365)，CVPR 2018\n\n* [利用图像标签进行弱监督显著目标检测](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.06503v1)，AAAI 2018\n\n* [使用简单的FCN和合成数据集在杂货货架上进行弱监督目标定位](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.06813v1)，Arxiv 1803\n\n* [利用多样化监督学习语义分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.00509)，WACV 2018\n\n\n**如有遗漏的相关工作，请通过dxzhang@zju.edu.cn告知我。**","# WeakSupervisedSegmentationList 快速上手指南\n\n**注意**：`WeakSupervisedSegmentationList` 并非一个可直接安装运行的单一软件包或框架，而是一个**学术资源列表仓库**。它整理了弱监督语义分割（Weakly Supervised Semantic Segmentation, WSSS）领域的经典论文、代码链接、数据集及教程。\n\n本指南将指导你如何利用该列表找到适合的工具，并部署其中典型的开源项目（以列表中提到的 `DSRG` 或 `SEC` 为例）。\n\n## 环境准备\n\n在开始探索列表中的具体算法前，请确保你的开发环境满足以下深度学习通用要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04\u002F20.04) 或 macOS\n*   **硬件**: NVIDIA GPU (建议显存 ≥ 8GB)，已安装 CUDA (通常需 10.0+ 或 11.x，视具体论文代码而定)\n*   **前置依赖**:\n    *   Python 3.6+\n    *   Git\n    *   PyTorch 或 TensorFlow (列表中不同论文基于不同框架，需根据目标项目确认)\n    *   常用科学计算库：`numpy`, `scipy`, `pillow`, `opencv-python`\n\n> **国内加速建议**：\n> *   **Git 克隆加速**：若直接从 GitHub 克隆速度慢，可使用 Gitee 镜像或配置 `git clone https:\u002F\u002Fghproxy.com\u002Fhttps:\u002F\u002Fgithub.com\u002F...`。\n> *   **Python 包安装**：推荐使用清华源或阿里源。\n>     ```bash\n>     pip config set global.index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n>     ```\n> *   **模型权重下载**：列表中许多项目需要从 Google Drive 下载预训练模型，国内用户建议使用 IDM 或多线程下载器，或寻找对应的百度网盘搬运资源。\n\n## 安装步骤\n\n由于本仓库是资源列表，没有统一的 `pip install` 命令。你需要根据列表选择具体的算法项目进行安装。以下以列表中推荐的经典项目 **DSRG (Deep Seeded Region Growing)** 为例演示流程：\n\n1.  **克隆目标项目代码**\n    从 README 的 \"Image\u002Fvideo label supervision\" 章节找到 DSRG 的代码链接并克隆：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fspeedinghzl\u002FDSRG.git\n    cd DSRG\n    ```\n\n2.  **安装项目依赖**\n    进入项目目录后，通常会有 `requirements.txt`。如果没有，请根据项目说明手动安装核心库（以 PyTorch 版本为例）：\n    ```bash\n    # 示例：安装基础依赖\n    pip install -r requirements.txt\n    \n    # 若无 requirements.txt，通常需手动安装如下核心库\n    pip install torch torchvision opencv-python numpy scipy pillow\n    ```\n\n3.  **准备数据集与预训练模型**\n    *   下载 PASCAL VOC 2012 数据集（弱监督分割常用基准）。\n    *   根据项目 `README` 指示下载预训练的 ImageNet 权重文件（如 `resnet101-imagenet.pth`），并放置在项目指定的 `weights\u002F` 或 `data\u002F` 目录下。\n\n## 基本使用\n\n弱监督分割的核心在于**仅使用图像级标签（Image-level labels）**训练分割网络。以下是基于典型项目（如 DSRG 或 SEC）的最小化使用流程：\n\n### 1. 数据预处理\n生成初始的种子图（Seeds）或伪掩码（Pseudo Masks）。部分项目提供脚本自动完成：\n```bash\n# 示例：生成初始种子区域 (具体命令视项目而定)\npython generate_seed.py --dataset voc2012 --split train\n```\n\n### 2. 训练模型\n使用图像级标签启动训练。弱监督方法通常采用多阶段训练策略（如先训练分类网络生成 CAM，再训练分割网络）。\n```bash\n# 示例：启动训练\n# --gpu 指定显卡 ID, --dataset 指定数据路径, --labels 指定图像级标签文件\npython train.py --gpu 0 --dataset .\u002Fdata\u002FVOC2012 --labels .\u002Fdata\u002Fvoc12\u002Ftrain_cls.txt\n```\n\n### 3. 推理与评估\n使用训练好的模型对验证集进行预测，生成分割掩码：\n```bash\n# 示例：运行测试\npython test.py --gpu 0 --weights .\u002Fsnapshots\u002Fbest_model.pth --output .\u002Fresults\n```\n\n### 4. 查看结果\n生成的分割结果通常保存在 `.\u002Fresults` 目录中，格式为 PNG 图片。你可以使用以下 Python 代码快速可视化：\n```python\nimport cv2\nimport matplotlib.pyplot as plt\n\nimg = cv2.imread('original_image.jpg')\nmask = cv2.imread('.\u002Fresults\u002Fprediction.png')\n\nplt.figure(figsize=(15, 5))\nplt.subplot(1, 2, 1); plt.title(\"Original\"); plt.imshow(cv2.cvtColor(img, cv2.COLOR_BGR2RGB)); plt.axis('off')\nplt.subplot(1, 2, 2); plt.title(\"Segmentation Mask\"); plt.imshow(mask); plt.axis('off')\nplt.show()\n```\n\n---\n**提示**：若要尝试列表中其他类型的弱监督任务（如边界框监督 `BoxSup` 或一点分割 `One-Shot`），请回到主列表页面，点击对应论文的 `[code]` 链接，并遵循该项目独立的文档进行操作。","某医疗影像初创团队急需开发肺结节分割模型，但医院仅提供带有矩形标注框的粗略诊断报告，缺乏昂贵的像素级精细掩码数据。\n\n### 没有 WeakSupervisedSegmentationList 时\n- 团队在海量文献中盲目搜索，难以区分哪些算法专门针对“边界框监督”这一特定弱监督场景，浪费数周调研时间。\n- 容易误选需要全标注数据的传统分割模型，导致项目因数据标注成本过高而被迫停滞。\n- 缺乏对前沿方法（如 BoxSup 或 Pseudo Mask Augmentation）的系统认知，只能复现过时的基准方案，模型精度远低于行业水平。\n- 找不到配套的开源代码和教程链接，算法落地验证周期被无限拉长。\n\n### 使用 WeakSupervisedSegmentationList 后\n- 直接定位到\"Bounding box supervision\"分类下的最新 SOTA 论文列表，迅速锁定适合当前数据条件的 CVPR 2019 等前沿成果。\n- 清晰识别出利用检测分支权重迁移至分割任务的技术路径，成功在仅有框标注的数据上训练出高精度模型。\n- 通过列表中提供的代码仓库链接（如 FAVOS 或 AdvSemiSeg），快速搭建基线系统，将算法验证周期从数月缩短至两周。\n- 参考列表中关于伪掩码生成与优化的核心笔记，有效解决了初始掩码质量差导致的训练不稳定问题。\n\nWeakSupervisedSegmentationList 将原本分散的弱监督分割研究成果结构化，帮助开发者在低标注成本下快速找到最优技术路径并实现落地。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJackieZhangdx_WeakSupervisedSegmentationList_85f5a76e.png","JackieZhangdx","bighead","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FJackieZhangdx_67da2bed.jpg","hello world.","Zhejiang University ","Hangzhou city ,China","dxzhang@zju.edu.cn",null,"https:\u002F\u002Fgithub.com\u002FJackieZhangdx",597,88,"2025-12-30T08:24:48",5,"","未说明",{"notes":92,"python":90,"dependencies":93},"该仓库并非一个可直接运行的 AI 工具或代码库，而是一个弱监督语义分割领域的论文和资源列表（Paper List）。README 中列出了多篇学术论文的标题、链接及简要笔记，部分条目指向外部独立的 GitHub 代码库（如 OSVOS, DSRG, WILDCAT 等），但本仓库本身不包含核心算法代码、模型文件或环境配置要求（如 Python 版本、依赖库等）。用户需根据列表中感兴趣的具体论文，前往其对应的项目页面查询详细的运行环境需求。",[],[14,37],"2026-03-27T02:49:30.150509","2026-04-06T08:15:57.716627",[],[]]