[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-YudeWang--SEAM":3,"tool-YudeWang--SEAM":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":94,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":104,"github_topics":82,"view_count":105,"oss_zip_url":82,"oss_zip_packed_at":82,"status":16,"created_at":106,"updated_at":107,"faqs":108,"releases":139},139,"YudeWang\u002FSEAM","SEAM","Self-supervised Equivariant Attention Mechanism for Weakly Supervised Semantic Segmentation, CVPR 2020 (Oral)","SEAM 是一种用于弱监督语义分割的开源方法，由 CVPR 2020 接收为口头报告论文。它主要解决仅使用图像级标签（如“这张图中有猫和车”）训练模型时，难以生成精确像素级分割掩码的问题。传统方法依赖类激活图（CAM），但 CAM 往往只能覆盖物体最显著的部分，无法完整勾勒目标轮廓。SEAM 通过引入自监督的等变注意力机制，利用数据增强中图像变换与标签应保持一致的特性，对不同变换下的预测结果施加一致性约束，从而挖掘额外监督信号。此外，SEAM 还包含一个像素相关性模块（PCM），通过相似邻域像素的信息优化当前像素的预测，进一步提升分割质量。该方法在 PASCAL VOC 2012 数据集上表现优于同期同类技术。SEAM 主要面向计算机视觉领域的研究人员和开发者，适合希望探索弱监督学习、语义分割或自监督表征学习的用户使用。项目基于 PyTorch 实现，并复用了 AffinityNet 的部分流程，便于复现与扩展。","# SEAM\nThe implementation of [**Self-supervised Equivariant Attention Mechanism for Weakly Supervised Semantic Segmentaion**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2004.04581).\n\nYou can also download the repository from [https:\u002F\u002Fgitee.com\u002Fhibercraft\u002FSEAM](https:\u002F\u002Fgitee.com\u002Fhibercraft\u002FSEAM)\n\n## Abstract\nImage-level weakly supervised semantic segmentation is a challenging problem that has been deeply studied in recentyears. Most of advanced solutions exploit class activation map (CAM). However, CAMs can hardly serve as the object mask due to the gap between full and weak supervisions. In this paper, we propose a self-supervised equivariant attention mechanism (SEAM) to discover additional supervision and narrow the gap. Our method is based on the observation that equivariance is an implicit constraint in fully supervised semantic segmentation, whose pixel-level labels take the same spatial transformation as the input images during data augmentation. However, this constraint is lost on the CAMs trained by image-level supervision. Therefore, we propose consistency regularization on predicted CAMs from various transformed images to provide self-supervision for network learning. Moreover, we propose a pixel correlation module (PCM), which exploits context appearance information and reﬁnes the prediction of current pixel by its similar neighbors, leading to further improvement on CAMs consistency. Extensive experiments on PASCAL VOC 2012 dataset demonstrate our method outperforms state-of-the-art methods using the same level of supervision.\n\nThanks to the work of [jiwoon-ahn](https:\u002F\u002Fgithub.com\u002Fjiwoon-ahn), the code of this repository borrow heavly from his [AffinityNet](https:\u002F\u002Fgithub.com\u002Fjiwoon-ahn\u002Fpsa) repository, and we follw the same pipeline to verify the effectiveness of our SEAM.\n\n## Requirements\n- Python 3.6\n- pytorch 0.4.1, torchvision 0.2.1\n- CUDA 9.0\n- 4 x GPUs (12GB)\n\n## Usage\n### Installation\n- Download the repository.\n```\ngit clone https:\u002F\u002Fgithub.com\u002FYudeWang\u002FSEAM.git\n```\n- Install python dependencies.\n```\npip install -r requirements.txt\n```\n- **Download model weights from [google drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1jWsV5Yev-PwKgvvtUM3GnY0ogb50-qKa) or [baidu cloud](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1ymaMeF0ASjQ9oCGI9cmqHQ) (with code 6nmo)**, including ImageNet pretrained models and our training results.\n\n- Download PASCAL VOC 2012 devkit (follow instructions in http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2012\u002F#devkit). It is suggested to make a soft link toward downloaded dataset.\n```\nln -s $your_dataset_path\u002FVOCdevkit\u002FVOC2012 VOC2012\n```\n\n- (Optional) The image-level labels have already been given in `voc12\u002Fcls_label.npy`. If you want to regenerate it (which is unnecessary), please download the annotation of VOC 2012 SegmentationClassAug training set (containing 10582 images), which can be download [here](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Foeu149j8qtbs1x0\u002FSegmentationClassAug.zip?dl=0) and place them all as `VOC2012\u002FSegmentationClassAug\u002Fxxxxxx.png`. Then run the code\n```\ncd voc12\npython make_cls_labels.py --voc12_root VOC2012\n```\n### SEAM step\n\n1. SEAM training\n```\npython train_SEAM.py --voc12_root VOC2012 --weights $pretrained_model --session_name $your_session_name\n```\n\n2. SEAM inference. \n```\npython infer_SEAM.py --weights $SEAM_weights --infer_list [voc12\u002Fval.txt | voc12\u002Ftrain.txt | voc12\u002Ftrain_aug.txt] --out_cam $your_cam_dir --out_crf $your_crf_dir\n```\n\n3. SEAM step evaluation. We provide python mIoU evaluation script `evaluation.py`, or you can use official development kit. Here we suggest to show the curve of mIoU with different background score.\n```\npython evaluation.py --list VOC2012\u002FImageSets\u002FSegmentation\u002F[val.txt | train.txt] --predict_dir $your_cam_dir --gt_dir VOC2012\u002FSegmentationClass --comment $your_comments --type npy --curve True\n```\n\n### Random walk step\nThe random walk step keep the same with AffinityNet repository.\n1. Train AffinityNet.\n```\npython train_aff.py --weights $pretrained_model --voc12_root VOC2012 --la_crf_dir $your_crf_dir_4.0 --ha_crf_dir $your_crf_dir_24.0 --session_name $your_session_name\n```\n2. Random walk propagation\n```\npython infer_aff.py --weights $aff_weights --infer_list [voc12\u002Fval.txt | voc12\u002Ftrain.txt] --cam_dir $your_cam_dir --voc12_root VOC2012 --out_rw $your_rw_dir\n```\n3. Random walk step evaluation\n```\npython evaluation.py --list VOC2012\u002FImageSets\u002FSegmentation\u002F[val.txt | train.txt] --predict_dir $your_rw_dir --gt_dir VOC2012\u002FSegmentationClass --comment $your_comments --type png\n```\n\n### Pseudo labels retrain\nPseudo label retrain on DeepLabv1. Code is available [here](https:\u002F\u002Fgithub.com\u002FYudeWang\u002Fsemantic-segmentation-codebase\u002Ftree\u002Fmain\u002Fexperiment\u002Fseamv1-pseudovoc).\n\n## Citation\nPlease cite our paper if the code is helpful to your research.\n```\n@InProceedings{Wang_2020_CVPR_SEAM,\n    author = {Yude Wang and Jie Zhang and Meina Kan and Shiguang Shan and Xilin Chen},\n    title = {Self-supervised Equivariant Attention Mechanism for Weakly Supervised Semantic Segmentation},\n    booktitle = {Proc. IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},\n    year = {2020}\n}\n```\n## Reference\n[1] J. Ahn and S. Kwak. Learning pixel-level semantic affinity with image-level supervision for weakly supervised semantic segmentation. In Proc. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018.\n","# SEAM\n[**Self-supervised Equivariant Attention Mechanism for Weakly Supervised Semantic Segmentation**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2004.04581)（用于弱监督语义分割的自监督等变注意力机制）的实现。\n\n你也可以从 [https:\u002F\u002Fgitee.com\u002Fhibercraft\u002FSEAM](https:\u002F\u002Fgitee.com\u002Fhibercraft\u002FSEAM) 下载该仓库。\n\n## 摘要\n图像级弱监督语义分割是一个具有挑战性的问题，近年来已被深入研究。大多数先进方法都利用了类激活图（Class Activation Map, CAM）。然而，由于全监督与弱监督之间存在差距，CAM 很难直接作为目标掩码使用。本文提出了一种自监督等变注意力机制（Self-supervised Equivariant Attention Mechanism, SEAM），以发现额外的监督信号并缩小这一差距。我们的方法基于以下观察：在全监督语义分割中，等变性（equivariance）是一种隐式约束——在数据增强过程中，像素级标签会随输入图像进行相同的空间变换。然而，在仅使用图像级监督训练的 CAM 中，这种约束丢失了。因此，我们对来自不同变换图像所预测的 CAM 施加一致性正则化（consistency regularization），为网络学习提供自监督信号。此外，我们还提出了一个像素相关模块（Pixel Correlation Module, PCM），该模块利用上下文外观信息，并通过相似邻域像素来优化当前像素的预测，从而进一步提升 CAM 的一致性。在 PASCAL VOC 2012 数据集上的大量实验表明，我们的方法在相同监督级别下优于当前最先进的方法。\n\n感谢 [jiwoon-ahn](https:\u002F\u002Fgithub.com\u002Fjiwoon-ahn) 的工作，本仓库的代码大量借鉴了他的 [AffinityNet](https:\u002F\u002Fgithub.com\u002Fjiwoon-ahn\u002Fpsa) 仓库，并沿用了相同的流程来验证我们 SEAM 方法的有效性。\n\n## 依赖环境\n- Python 3.6\n- PyTorch 0.4.1, torchvision 0.2.1\n- CUDA 9.0\n- 4 块 GPU（每块 12GB 显存）\n\n## 使用方法\n### 安装\n- 下载仓库。\n```\ngit clone https:\u002F\u002Fgithub.com\u002FYudeWang\u002FSEAM.git\n```\n- 安装 Python 依赖。\n```\npip install -r requirements.txt\n```\n- **从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1jWsV5Yev-PwKgvvtUM3GnY0ogb50-qKa) 或 [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1ymaMeF0ASjQ9oCGI9cmqHQ)（提取码：6nmo）下载模型权重**，包括 ImageNet 预训练模型和我们的训练结果。\n\n- 下载 PASCAL VOC 2012 devkit（按照 http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2012\u002F#devkit 的说明操作）。建议为下载的数据集创建软链接：\n```\nln -s $your_dataset_path\u002FVOCdevkit\u002FVOC2012 VOC2012\n```\n\n- （可选）图像级标签已包含在 `voc12\u002Fcls_label.npy` 中。如果你希望重新生成（通常没有必要），请下载 VOC 2012 SegmentationClassAug 训练集的标注（共 10582 张图像），可从此处下载 [here](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Foeu149j8qtbs1x0\u002FSegmentationClassAug.zip?dl=0)，并将所有文件放置为 `VOC2012\u002FSegmentationClassAug\u002Fxxxxxx.png`。然后运行以下命令：\n```\ncd voc12\npython make_cls_labels.py --voc12_root VOC2012\n```\n\n### SEAM 步骤\n\n1. SEAM 训练\n```\npython train_SEAM.py --voc12_root VOC2012 --weights $pretrained_model --session_name $your_session_name\n```\n\n2. SEAM 推理\n```\npython infer_SEAM.py --weights $SEAM_weights --infer_list [voc12\u002Fval.txt | voc12\u002Ftrain.txt | voc12\u002Ftrain_aug.txt] --out_cam $your_cam_dir --out_crf $your_crf_dir\n```\n\n3. SEAM 步骤评估。我们提供了 Python 版 mIoU 评估脚本 `evaluation.py`，你也可以使用官方开发工具包。这里建议绘制不同背景得分下的 mIoU 曲线：\n```\npython evaluation.py --list VOC2012\u002FImageSets\u002FSegmentation\u002F[val.txt | train.txt] --predict_dir $your_cam_dir --gt_dir VOC2012\u002FSegmentationClass --comment $your_comments --type npy --curve True\n```\n\n### 随机游走（Random Walk）步骤\n随机游走步骤与 AffinityNet 仓库保持一致。\n1. 训练 AffinityNet。\n```\npython train_aff.py --weights $pretrained_model --voc12_root VOC2012 --la_crf_dir $your_crf_dir_4.0 --ha_crf_dir $your_crf_dir_24.0 --session_name $your_session_name\n```\n2. 随机游走传播\n```\npython infer_aff.py --weights $aff_weights --infer_list [voc12\u002Fval.txt | voc12\u002Ftrain.txt] --cam_dir $your_cam_dir --voc12_root VOC2012 --out_rw $your_rw_dir\n```\n3. 随机游走步骤评估\n```\npython evaluation.py --list VOC2012\u002FImageSets\u002FSegmentation\u002F[val.txt | train.txt] --predict_dir $your_rw_dir --gt_dir VOC2012\u002FSegmentationClass --comment $your_comments --type png\n```\n\n### 伪标签再训练（Pseudo Labels Retrain）\n在 DeepLabv1 上进行伪标签再训练。相关代码见 [此处](https:\u002F\u002Fgithub.com\u002FYudeWang\u002Fsemantic-segmentation-codebase\u002Ftree\u002Fmain\u002Fexperiment\u002Fseamv1-pseudovoc)。\n\n## 引用\n如果本代码对你的研究有所帮助，请引用我们的论文：\n```\n@InProceedings{Wang_2020_CVPR_SEAM,\n    author = {Yude Wang and Jie Zhang and Meina Kan and Shiguang Shan and Xilin Chen},\n    title = {Self-supervised Equivariant Attention Mechanism for Weakly Supervised Semantic Segmentation},\n    booktitle = {Proc. IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},\n    year = {2020}\n}\n```\n## 参考文献\n[1] J. Ahn and S. Kwak. Learning pixel-level semantic affinity with image-level supervision for weakly supervised semantic segmentation. In Proc. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018.","# SEAM 快速上手指南\n\n## 环境准备\n\n- **操作系统**：Linux（推荐）\n- **Python 版本**：3.6\n- **PyTorch**：0.4.1\n- **torchvision**：0.2.1\n- **CUDA**：9.0\n- **GPU**：4 张（每张至少 12GB 显存）\n\n> 💡 提示：国内用户可从 [Gitee 镜像](https:\u002F\u002Fgitee.com\u002Fhibercraft\u002FSEAM) 下载代码，速度更快。\n\n## 安装步骤\n\n1. **克隆仓库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FYudeWang\u002FSEAM.git\n   # 或使用 Gitee 镜像（推荐国内用户）\n   git clone https:\u002F\u002Fgitee.com\u002Fhibercraft\u002FSEAM.git\n   cd SEAM\n   ```\n\n2. **安装依赖**\n   ```bash\n   pip install -r requirements.txt\n   ```\n\n3. **下载预训练模型和权重**\n   - 从 [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1ymaMeF0ASjQ9oCGI9cmqHQ)（提取码：`6nmo`）或 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1jWsV5Yev-PwKgvvtUM3GnY0ogb50-qKa) 下载模型文件\n   - 解压后放入项目根目录（包含 ImageNet 预训练模型和 SEAM 训练结果）\n\n4. **准备 PASCAL VOC 2012 数据集**\n   - 下载 [PASCAL VOC 2012 devkit](http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2012\u002F#devkit)\n   - 建立软链接（假设数据集路径为 `$your_dataset_path`）：\n     ```bash\n     ln -s $your_dataset_path\u002FVOCdevkit\u002FVOC2012 VOC2012\n     ```\n   > 注：图像级标签已提供在 `voc12\u002Fcls_label.npy`，一般无需重新生成。\n\n## 基本使用\n\n### 1. SEAM 训练\n```bash\npython train_SEAM.py --voc12_root VOC2012 --weights $pretrained_model --session_name your_session\n```\n其中 `$pretrained_model` 替换为你下载的 ImageNet 预训练模型路径（如 `res38d.pth`）。\n\n### 2. SEAM 推理（生成 CAM 和 CRF 结果）\n```bash\npython infer_SEAM.py --weights $SEAM_weights --infer_list voc12\u002Fval.txt --out_cam cam_dir --out_crf crf_dir\n```\n`$SEAM_weights` 为训练得到的模型权重路径。\n\n### 3. 评估 CAM 结果（绘制 mIoU 曲线）\n```bash\npython evaluation.py --list VOC2012\u002FImageSets\u002FSegmentation\u002Fval.txt --predict_dir cam_dir --gt_dir VOC2012\u002FSegmentationClass --comment \"SEAM\" --type npy --curve True\n```\n\n> 后续还可进行 Random Walk 和伪标签重训练，具体参考原 README。","某医疗影像初创公司正在开发一个基于弱监督学习的肺部CT图像分割系统，用于自动识别肺炎区域。由于标注像素级病灶掩码成本极高，团队只能依赖图像级别的诊断标签（如“含肺炎”或“正常”）进行训练。\n\n### 没有 SEAM 时\n- 仅使用图像级标签训练的传统CAM方法生成的激活图往往只覆盖病灶最显著的局部区域，无法完整勾勒肺炎边界。\n- 数据增强（如旋转、翻转）后的预测结果不一致，导致模型对同一病灶在不同视角下输出差异较大的掩码，影响鲁棒性。\n- 缺乏像素间的上下文建模，孤立像素容易被误判，尤其在纹理模糊或低对比度区域表现更差。\n- 后处理（如CRF）难以弥补初始CAM的质量缺陷，最终分割mIoU长期停滞在较低水平（约45%）。\n- 团队不得不投入额外人力对部分样本进行精细标注以提升性能，违背了弱监督的初衷。\n\n### 使用 SEAM 后\n- SEAM通过自监督等变注意力机制，强制模型在不同几何变换下保持CAM一致性，显著提升了病灶区域的完整性和定位精度。\n- 像素相关性模块（PCM）有效利用邻近相似像素的信息，使模糊边缘和微小病灶也能被合理关联与修复。\n- 生成的CAM质量明显提高，为后续随机游走或CRF步骤提供了更可靠的初始线索。\n- 在相同图像级标签条件下，验证集mIoU提升至58%以上，接近部分全监督方法的效果。\n- 团队得以在不增加标注成本的前提下快速迭代模型，加速产品落地进程。\n\nSEAM以巧妙的自监督设计弥合了弱监督与全监督之间的性能鸿沟，在有限标注资源下释放了语义分割模型的真实潜力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYudeWang_SEAM_46eaef00.png","YudeWang","Hibercraft","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FYudeWang_5301ad19.jpg","CS PhD, CV & DL","ICT, CAS","Beijing, China","yude.wang@outlook.com",null,"http:\u002F\u002Fblog.csdn.net\u002FHibercraft","https:\u002F\u002Fgithub.com\u002FYudeWang",[86],{"name":87,"color":88,"percentage":89},"Python","#3572A5",100,551,95,"2026-03-09T07:08:18","MIT",4,"Linux","必需 4 张 NVIDIA GPU，每张显存至少 12GB，CUDA 9.0","未说明",{"notes":99,"python":100,"dependencies":101},"需下载 ImageNet 预训练模型及训练结果（Google Drive 或百度网盘），并配置 PASCAL VOC 2012 数据集软链接；代码基于 AffinityNet 实现，部分步骤需额外下载 SegmentationClassAug 标签。","3.6",[102,103],"pytorch==0.4.1","torchvision==0.2.1",[14,37],5,"2026-03-27T02:49:30.150509","2026-04-06T08:18:28.095040",[109,114,119,124,129,134],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},192,"如何复现论文中 SEAM 的分割训练结果？需要哪些超参数或代码？","作者已在新仓库中发布了重训练（retrain）步骤的代码，性能与论文相近。代码位于：https:\u002F\u002Fgithub.com\u002FYudeWang\u002Fsemantic-segmentation-codebase\u002Ftree\u002Fmain\u002Fexperiment\u002Fseamv1-pseudovoc。训练时使用的是 DeepLabv1 架构，并非更复杂的 PSPNet 或 DeepLabv3+，因为后者容易在低质量伪标签上过拟合。","https:\u002F\u002Fgithub.com\u002FYudeWang\u002FSEAM\u002Fissues\u002F11",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},193,"如何对 CAM 应用 dCRF？是否需要结合最佳背景分数？","dCRF 应用于 SEAM 生成的 CAM 上。具体做法是：先通过网格搜索（如在背景分数区间 (0, 0.6) 内）找到最佳背景分数（如 0.14），然后设置 CRF 参数 alpha 为该分数附近的两个值（例如 13 和 24），实际效果可能相近。关键在于确保 bkg_score_low \u003C best_bkg_score \u003C bkg_score_high，需尝试多个参数组合。","https:\u002F\u002Fgithub.com\u002FYudeWang\u002FSEAM\u002Fissues\u002F25",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},194,"为什么我训练的模型性能远低于作者提供的预训练模型？","常见原因是误用了 PSA 生成的 CAM 替换了 VOC2012 的原始真实标签（GT），导致评估时使用了错误的 GT。应确保评估时使用原始 GT 数据。当正确使用 GT 后，预训练模型的结果可复现（如背景分数 0.23 时 mIoU 约 71.3%）。","https:\u002F\u002Fgithub.com\u002FYudeWang\u002FSEAM\u002Fissues\u002F13",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},195,"分割重训练时为何使用 train 集而非 trainaug？为何我的结果与论文差距大？","作者在重训练阶段实际使用的是 trainaug 数据集。但因伪标签质量有限，使用 DeepLabv3\u002Fv3+ 等复杂模型易过拟合，因此推荐使用 DeepLabv1。数据配置示例：输入图像缩放至 (2048, 512)，随机裁剪为 (512, 512)，多尺度测试使用 [0.5, 0.75, 1.0, 1.25, 1.5, 1.75] 并翻转。","https:\u002F\u002Fgithub.com\u002FYudeWang\u002FSEAM\u002Fissues\u002F20",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},196,"训练 SEAM 时 GPU 和 batch size 如何配置？是否必须使用 4 张 TITAN-Xp？","论文中 batch size=8 是总 batch size，不是每卡 8。即 4 张 GPU 共享 batch size 8（每卡 2）。因此 4×12G 显存并非必需，可减少 GPU 数量尝试。例如在 4 张 2080Ti 上运行时，每卡仅占用约 4GB 显存，说明配置可行。","https:\u002F\u002Fgithub.com\u002FYudeWang\u002FSEAM\u002Fissues\u002F30",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},197,"如何复现论文 Table 6 的完整流程？","完整流程包括：1) 训练 SEAM 网络生成 CAM；2) 基于 CAM 训练 AffinityNet；3) 使用 AffinityNet 优化 CAM 得到伪标签；4) 用伪标签在 trainaug 上重训练分割模型（如 DeepLabv1）。相关代码已发布在 https:\u002F\u002Fgithub.com\u002FYudeWang\u002Fsemantic-segmentation-codebase\u002Ftree\u002Fmain\u002Fexperiment\u002Fseamv1-pseudovoc。","https:\u002F\u002Fgithub.com\u002FYudeWang\u002FSEAM\u002Fissues\u002F23",[]]