[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-jiwoon-ahn--irn":3,"tool-jiwoon-ahn--irn":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",143909,2,"2026-04-07T11:33:18",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":78,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":89,"env_os":90,"env_gpu":91,"env_ram":90,"env_deps":92,"category_tags":97,"github_topics":98,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":102,"updated_at":103,"faqs":104,"releases":140},5264,"jiwoon-ahn\u002Firn","irn","Weakly Supervised Learning of Instance Segmentation with Inter-pixel Relations, CVPR 2019 (Oral)","irn 是一个专注于弱监督实例分割的开源深度学习框架，曾荣获 CVPR 2019 口头报告奖。它主要解决了传统实例分割模型依赖昂贵且耗时的像素级标注数据这一痛点，创新性地仅需使用易于获取的图像级类别标签即可完成训练。\n\nirn 的核心技术亮点在于其提出的“像素间关系网络”（IRNet）。该网络能够估算位移矢量场和类别边界图，并利用这些信息将传统的类激活图（CAM）转化为高质量的伪实例掩码。生成这些伪标签后，用户可以直接利用它们训练 Mask R-CNN 或 DeepLab 等主流分割模型，从而在缺乏精细标注的情况下实现高性能的实例分割。\n\n这款工具非常适合计算机视觉领域的研究人员和开发者使用，特别是那些希望探索弱监督学习机制、降低数据标注成本或在有限标注资源下构建分割模型的团队。对于需要处理大规模数据集但受限于标注预算的项目，irn 提供了一套经过验证的高效解决方案。项目基于 PyTorch 构建，支持在 PASCAL VOC 等标准数据集上快速复现论文结果，是进入弱监督实例分割领域的优秀入门与实践工具。","# Weakly Supervised Learning of Instance Segmentation with Inter-pixel Relations\n\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjiwoon-ahn_irn_readme_8e55b749efa6.jpg\" alt=\"outline\" width=\"90%\">\u003C\u002Fp>\nThe code of:\n\nWeakly Supervised Learning of Instance Segmentation with Inter-pixel Relations, Jiwoon Ahn, Sunghyun Cho, and Suha Kwak, CVPR 2019 [[Paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.05044)\n\nThis repository contains a framework for learning instance segmentation with image-level class labels as supervision. The key component of our approach is Inter-pixel Relation Network (IRNet) that estimates two types of information: a displacement vector field and a class boundary map, both of which are in turn used to generate pseudo instance masks from CAMs.\n\n## Citation\nIf you find the code useful, please consider citing our paper using the following BibTeX entry.\n```\n@InProceedings{Ahn_2019_CVPR,\nauthor = {Ahn, Jiwoon and Cho, Sunghyun and Kwak, Suha},\ntitle = {Weakly Supervised Learning of Instance Segmentation with Inter-pixel Relations},\nbooktitle = {The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},\nmonth = {June},\nyear = {2019}\n}\n```\n\n## Prerequisite\n* Python 3.7, PyTorch 1.1.0, and more in requirements.txt\n* PASCAL VOC 2012 devkit\n* NVIDIA GPU with more than 1024MB of memory\n\n## Usage\n\n#### Install python dependencies\n```\npip install -r requirements.txt\n```\n#### Download PASCAL VOC 2012 devkit\n* Follow instructions in http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2012\u002F#devkit\n\n#### Run run_sample.py or make your own script\n```\npython run_sample.py\n```\n* You can either mannually edit the file, or specify commandline arguments.\n\n#### Train Mask R-CNN or DeepLab with the generated pseudo labels\n* For the reports, we used [Detectron](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002FDetectron).\n  * Run step\u002Fmake_cocoann.py to create COCO-style annotations.\n  * Note: Do not employ https:\u002F\u002Fstorage.googleapis.com\u002Fcoco-dataset\u002Fexternal\u002FPASCAL_VOC.zip to measure the performance of the Mask R-CNN! It only contains bounding box annotations.\n* [TorchVision](https:\u002F\u002Fpytorch.org\u002Fdocs\u002Fstable\u002Ftorchvision\u002Fmodels.html) now supports Mask R-CNN and DeepLab. I personally recommend to use this.\n\n## TO DO\n* Training code for MS-COCO\n* Code refactoring\n* IRNet v2\n","# 基于像素间关系的弱监督实例分割学习\n\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjiwoon-ahn_irn_readme_8e55b749efa6.jpg\" alt=\"outline\" width=\"90%\">\u003C\u002Fp>\n代码来自：\n\n基于像素间关系的弱监督实例分割学习，Jiwoon Ahn、Sunghyun Cho 和 Suha Kwak，CVPR 2019 [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.05044)\n\n本仓库包含一个利用图像级类别标签作为监督信号来学习实例分割的框架。我们方法的核心组件是像素间关系网络（IRNet），它能够估计两种信息：位移向量场和类别边界图，这两者随后被用于从 CAM 中生成伪实例掩码。\n\n## 引用\n如果您觉得此代码有用，请考虑使用以下 BibTeX 条目引用我们的论文。\n```\n@InProceedings{Ahn_2019_CVPR,\nauthor = {Ahn, Jiwoon and Cho, Sunghyun and Kwak, Suha},\ntitle = {基于像素间关系的弱监督实例分割学习},\nbooktitle = {IEEE 计算机视觉与模式识别会议 (CVPR)},\nmonth = {六月},\nyear = {2019}\n}\n```\n\n## 先决条件\n* Python 3.7、PyTorch 1.1.0，以及其他依赖项见 requirements.txt\n* PASCAL VOC 2012 开发工具包\n* 显存大于 1024MB 的 NVIDIA GPU\n\n## 使用方法\n\n#### 安装 Python 依赖\n```\npip install -r requirements.txt\n```\n#### 下载 PASCAL VOC 2012 开发工具包\n* 请按照 http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2012\u002F#devkit 上的说明操作。\n\n#### 运行 run_sample.py 或编写您自己的脚本\n```\npython run_sample.py\n```\n* 您可以手动编辑该文件，也可以通过命令行参数进行指定。\n\n#### 使用生成的伪标签训练 Mask R-CNN 或 DeepLab\n* 在报告中，我们使用了 [Detectron](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002FDetectron)。\n  * 运行 step\u002Fmake_cocoann.py 以创建 COCO 格式的标注。\n  * 注意：请勿使用 https:\u002F\u002Fstorage.googleapis.com\u002Fcoco-dataset\u002Fexternal\u002FPASCAL_VOC.zip 来评估 Mask R-CNN 的性能！该数据集仅包含边界框标注。\n* [TorchVision](https:\u002F\u002Fpytorch.org\u002Fdocs\u002Fstable\u002Ftorchvision\u002Fmodels.html) 现已支持 Mask R-CNN 和 DeepLab。我个人推荐使用此库。\n\n## 待办事项\n* MS-COCO 数据集的训练代码\n* 代码重构\n* IRNet v2","# IRN 快速上手指南\n\nIRN (Inter-pixel Relation Network) 是一个用于弱监督实例分割的框架，仅需图像级类别标签即可训练模型。该工具通过估计像素间关系（位移矢量场和类边界图），从类激活映射（CAMs）生成伪实例掩码。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统和硬件要求：\n\n*   **操作系统**: Linux (推荐)\n*   **Python**: 3.7\n*   **深度学习框架**: PyTorch 1.1.0\n*   **GPU**: NVIDIA GPU，显存需大于 1024MB\n*   **数据集**: PASCAL VOC 2012 devkit\n\n## 安装步骤\n\n### 1. 安装 Python 依赖\n克隆仓库后，进入目录并安装所需依赖包。国内用户建议使用清华或阿里镜像源以加速下载：\n\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 2. 准备数据集\n下载 PASCAL VOC 2012 devkit。请遵循官方说明进行下载和解压：\n*   下载地址：http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2012\u002F#devkit\n*   将下载的数据集放置在项目指定的数据目录中（通常需在代码配置中调整路径）。\n\n## 基本使用\n\n### 运行示例脚本\n安装完成后，可以直接运行提供的示例脚本来生成伪标签或测试流程：\n\n```bash\npython run_sample.py\n```\n\n*   **自定义参数**：您可以直接编辑 `run_sample.py` 文件修改配置，或通过命令行传递参数来指定输入输出路径及超参数。\n\n### 后续训练建议\n本工具生成的伪标签可用于训练标准的实例分割模型（如 Mask R-CNN 或 DeepLab）：\n1.  **转换格式**：运行 `step\u002Fmake_cocoann.py` 将生成的伪标签转换为 COCO 格式注解。\n2.  **模型训练**：推荐使用 [TorchVision](https:\u002F\u002Fpytorch.org\u002Fdocs\u002Fstable\u002Ftorchvision\u002Fmodels.html) 中内置的 Mask R-CNN 或 DeepLab 模型进行后续训练（原论文使用的是 Detectron，但 TorchVision 更易于集成和维护）。\n\n> **注意**：请勿使用 `https:\u002F\u002Fstorage.googleapis.com\u002Fcoco-dataset\u002Fexternal\u002FPASCAL_VOC.zip` 来评估 Mask R-CNN 性能，该文件仅包含边界框标注，缺少实例分割所需的掩码信息。","某医疗影像初创团队试图构建肺结节实例分割模型，但受限于隐私合规，仅能获取带有“良性\u002F恶性”图像级标签的数据集，缺乏昂贵的像素级标注。\n\n### 没有 irn 时\n- 数据标注成本极高，需放射科医生逐帧勾勒结节轮廓，项目启动资金大部分被标注费用吞噬。\n- 因缺乏精细掩码（Mask），只能训练图像分类模型，无法定位结节具体位置及大小，临床辅助价值低。\n- 尝试使用传统类激活图（CAM）生成伪标签，但得到的区域往往粘连严重，无法区分相邻的多个独立病灶。\n- 模型迭代周期漫长，每轮新数据引入都需重新进行人工标注，严重拖慢研发进度。\n\n### 使用 irn 后\n- 仅需输入图像级诊断标签，irn 利用像素间关系网络自动推断位移矢量场和类别边界，直接生成高质量伪实例掩码。\n- 成功将弱监督信号转化为实例分割所需的训练数据，使模型能够精准输出每个结节的独立轮廓与空间坐标。\n- 有效解决了相邻病灶粘连问题，生成的伪标签清晰分离了紧密排列的多个结节，显著提升了后续 Mask R-CNN 的训练效果。\n- 标注人力成本降低 90% 以上，团队可将资源集中于算法优化，将模型上线周期从数月缩短至数周。\n\nirn 的核心价值在于打破了实例分割对昂贵像素级标注的依赖，让仅有图像级标签的领域也能低成本落地高精度分割应用。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjiwoon-ahn_irn_8e55b749.jpg","jiwoon-ahn","Jiwoon Ahn","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjiwoon-ahn_1018df4b.png","Deep Learning Researcher","Kakao Corp.","Pangyo, South Korea",null,"https:\u002F\u002Fgithub.com\u002Fjiwoon-ahn",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,535,96,"2026-02-13T10:43:54","MIT",4,"未说明","必需 NVIDIA GPU，显存大于 1024MB (1GB)，CUDA 版本未说明",{"notes":93,"python":94,"dependencies":95},"需要下载 PASCAL VOC 2012 devkit 数据集。若要训练 Mask R-CNN，官方报告使用了 Detectron 框架，但也推荐使用 TorchVision。生成伪标签后可用于训练 Mask R-CNN 或 DeepLab。","3.7",[96],"PyTorch==1.1.0",[15,14],[99,100,101],"cvpr2019","pytorch","deep-learning","2026-03-27T02:49:30.150509","2026-04-08T05:30:03.618436",[105,110,115,120,125,130,135],{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},23866,"为什么我无法复现论文中报告的 IRN 性能（实例分割和语义分割结果偏低）？","性能差距通常由以下原因导致：\n1. **数据并行与超参数**：维护者已更新代码支持数据并行训练，确认使用默认超参数可复现结果。请确保使用最新代码。\n2. **图像预处理差异**：代码已更新为在加载数据时使用 Pillow 调整大小函数。请尝试使用相同设置重新运行，性能可能会有轻微差异（\u003C1.5%）。\n3. **评估数据集**：由于 'train_aug' 不存在真值标签，请使用 'train' 集来评估伪标签的质量。\n4. **随机性**：每次运行的结果可能因 CAM 质量不同而略有波动。","https:\u002F\u002Fgithub.com\u002Fjiwoon-ahn\u002Firn\u002Fissues\u002F13",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},23867,"训练 CAM 时使用的 train_aug.txt 文件来自哪里？为什么不直接使用 VOC2012 的 trainval 集合？","train_aug.txt 是用于训练 CAM 的增强训练集列表。关于其具体来源及与标准 trainval 集的区别，维护者建议参考相关讨论（如 Issue #13 中的评论）。通常情况下，aug 集合包含了通过翻转等增强手段扩展的训练样本，旨在提升模型泛化能力。如果在运行中遇到显存不足（如 Titan 12G 无法容纳 batchsize=32），可以尝试修改代码以适配并行训练或减小 batch size。","https:\u002F\u002Fgithub.com\u002Fjiwoon-ahn\u002Firn\u002Fissues\u002F9",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},23868,"在使用该方法生成的伪标签训练 Deeplabv2 时，是否使用了预训练模型？","维护者表示，他们的模型与原始模型之间几乎没有差距，因为他们尽力最小化了差异。这意味着在训练过程中，他们尽量保持了与原始实现的一致性，通常暗示使用了标准的初始化或预训练权重（如 ImageNet 预训练），以确保公平比较和性能复现。","https:\u002F\u002Fgithub.com\u002Fjiwoon-ahn\u002Firn\u002Fissues\u002F21",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},23869,"如何保存可视化图像（如位移场 offset field 或伪标签图）？","可以通过以下代码片段保存可视化结果：\n1. **保存位移场 (Offset Field)**：\n   ```python\n   from PIL import Image\n   rgb_image = colorize_displacement(dp)\n   if rgb_image.dtype != np.uint8:\n       rgb_image = (rgb_image * 255).astype(np.uint8)\n   image = Image.fromarray(rgb_image)\n   image.save(\"output_offset.png\")\n   ```\n2. **另一种归一化保存方法**：\n   ```python\n   def save_displacement_image(offset_map):\n       import numpy as np\n       r = np.sqrt(offset_map[0] ** 2 + offset_map[1] ** 2)\n       r = np.clip(r, 0, np.max(r))\n       norm_r = r \u002F (np.max(r) + 1e-5)\n       return norm_r\n   \n   # 使用时\n   offset_map1 = offset_map.cpu().numpy()\n   norm_r = save_displacement_image(offset_map1)\n   # 随后使用 matplotlib 保存\n   ```\n对于论文中的其他图示（如边缘图），可参考 `step\u002Fmake_ins_seg_labels.py` 中的相关函数。","https:\u002F\u002Fgithub.com\u002Fjiwoon-ahn\u002Firn\u002Fissues\u002F12",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},23870,"如何处理测试数据（test data）的推理？是否需要生成测试分类标签？","不需要也不应该使用真值（GT）分类标签进行推理。\n1. **伪标签生成阶段**：利用图像级 GT 标签生成伪分割标签，但这并非最终目标。\n2. **最终推理阶段**：必须使用训练好的 Mask R-CNN 或其他分割网络进行推理。\n3. **关于 cls_labels.npy**：该文件是通过分析标注 XML 生成的，仅用于训练\u002F验证阶段的伪标签生成辅助。对于测试数据，由于没有 XML 标注，不应也无法生成此类文件用于过滤。测试时应直接输入图像，通过训练好的全监督模型输出结果。","https:\u002F\u002Fgithub.com\u002Fjiwoon-ahn\u002Firn\u002Fissues\u002F23",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},23871,"代码运行时出现 int32 类型错误或数据加载问题怎么办？","如果遇到数据类型错误，可以尝试修改 `load_img_name_list` 函数，确保正确加载字符串列表并转换为所需格式。例如：\n```python\ndef load_img_name_list(dataset_path):\n    img_name_list = np.loadtxt(dataset_path, dtype=str)\n    # 根据实际需求决定是否转换为 float 或保持 str\n    # img_name_list = np.array(img_name_list, dtype=float) \n    return img_name_list\n```\n此外，有用户反馈训练完 IRNet 得到 .pth 文件后，无论使用 1 张、2 张还是 3 张显卡运行 `make_instance.py`，得到的结果都是一致的，说明多卡推理具有稳定性。","https:\u002F\u002Fgithub.com\u002Fjiwoon-ahn\u002Firn\u002Fissues\u002F49",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},23872,"论文中报告的实例分割结果是基于哪个数据集训练的 Mask R-CNN？","维护者确认，论文中报告的实例分割结果是基于在 **'train_aug'** 数据集上生成的伪标签训练的 Mask R-CNN 得到的。这一点后续也会补充到 README 中。因此，为了复现最佳效果，建议在 'train_aug' 集上生成伪标签并用于下游任务训练。","https:\u002F\u002Fgithub.com\u002Fjiwoon-ahn\u002Firn\u002Fissues\u002F4",[]]