[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-LeeJunHyun--Image_Segmentation":3,"tool-LeeJunHyun--Image_Segmentation":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":79,"owner_twitter":78,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":78,"difficulty_score":10,"env_os":94,"env_gpu":95,"env_ram":95,"env_deps":96,"category_tags":100,"github_topics":78,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":101,"updated_at":102,"faqs":103,"releases":133},7763,"LeeJunHyun\u002FImage_Segmentation","Image_Segmentation","Pytorch implementation of U-Net, R2U-Net, Attention U-Net, and Attention R2U-Net.","Image_Segmentation 是一个基于 PyTorch 框架的开源项目，专注于提供多种先进深度学习模型的代码实现，主要用于医学图像的分割任务。它集成了经典的 U-Net 架构及其三个重要改进版本：R2U-Net、Attention U-Net 以及结合了两者优势的 Attention R2U-Net。\n\n在医学影像分析中，精准地从复杂背景中提取病灶或器官区域（如胰腺）是一项极具挑战性的工作。Image_Segmentation 通过引入循环残差卷积模块和注意力机制，有效解决了传统模型在处理细微结构和复杂纹理时精度不足的问题，显著提升了分割的准确性与鲁棒性。该项目已在权威的 ISIC 2018 皮肤癌数据集上完成了验证评估，为相关研究提供了可靠的基准参考。\n\n这款工具非常适合人工智能研究人员、计算机视觉开发者以及生物医学工程领域的学者使用。对于希望深入理解图像分割算法原理、复现前沿论文结果，或需要快速搭建高性能医学图像分析原型的团队来说，它是一个极具价值的起点。其独特的技术亮点在于将递归结构与注意力机制灵活融入 U-Net 骨架，让用户能够直观对比不同架构在实际场景中的表现差异","Image_Segmentation 是一个基于 PyTorch 框架的开源项目，专注于提供多种先进深度学习模型的代码实现，主要用于医学图像的分割任务。它集成了经典的 U-Net 架构及其三个重要改进版本：R2U-Net、Attention U-Net 以及结合了两者优势的 Attention R2U-Net。\n\n在医学影像分析中，精准地从复杂背景中提取病灶或器官区域（如胰腺）是一项极具挑战性的工作。Image_Segmentation 通过引入循环残差卷积模块和注意力机制，有效解决了传统模型在处理细微结构和复杂纹理时精度不足的问题，显著提升了分割的准确性与鲁棒性。该项目已在权威的 ISIC 2018 皮肤癌数据集上完成了验证评估，为相关研究提供了可靠的基准参考。\n\n这款工具非常适合人工智能研究人员、计算机视觉开发者以及生物医学工程领域的学者使用。对于希望深入理解图像分割算法原理、复现前沿论文结果，或需要快速搭建高性能医学图像分析原型的团队来说，它是一个极具价值的起点。其独特的技术亮点在于将递归结构与注意力机制灵活融入 U-Net 骨架，让用户能够直观对比不同架构在实际场景中的表现差异。需要注意的是，该仓库目前已停止更新，但其核心代码逻辑清晰，仍具有很高的学习和二次开发价值。","### pytorch Implementation of U-Net, R2U-Net, Attention U-Net, Attention R2U-Net\n\n**(This repository is no longer being updated)**\n\n**U-Net: Convolutional Networks for Biomedical Image Segmentation**\n\nhttps:\u002F\u002Farxiv.org\u002Fabs\u002F1505.04597\n\n**Recurrent Residual Convolutional Neural Network based on U-Net (R2U-Net) for Medical Image Segmentation**\n\nhttps:\u002F\u002Farxiv.org\u002Fabs\u002F1802.06955\n\n**Attention U-Net: Learning Where to Look for the Pancreas**\n\nhttps:\u002F\u002Farxiv.org\u002Fabs\u002F1804.03999\n\n**Attention R2U-Net : Just integration of two recent advanced works (R2U-Net + Attention U-Net)**\n\n\n## U-Net\n![U-Net](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLeeJunHyun_Image_Segmentation_readme_f4f2c6bebc54.png)\n\n\n## R2U-Net\n![R2U-Net](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLeeJunHyun_Image_Segmentation_readme_65d66a4f95ad.png)\n\n## Attention U-Net\n![AttU-Net](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLeeJunHyun_Image_Segmentation_readme_d056e92dca5f.png)\n\n## Attention R2U-Net\n![AttR2U-Net](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLeeJunHyun_Image_Segmentation_readme_6d96edd57684.png)\n\n## Evaluation\nwe just test the models with [ISIC 2018 dataset](https:\u002F\u002Fchallenge2018.isic-archive.com\u002Ftask1\u002Ftraining\u002F). The dataset was split into three subsets, training set, validation set, and test set, which the proportion is 70%, 10% and 20% of the whole dataset, respectively. The entire dataset contains 2594 images where 1815 images were used\nfor training, 259 for validation and 520 for testing models.\n\n![evaluation](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLeeJunHyun_Image_Segmentation_readme_d1316f07e488.png)\n","### U-Net、R2U-Net、Attention U-Net、Attention R2U-Net 的 PyTorch 实现\n\n**(本仓库已停止更新)**\n\n**U-Net：用于生物医学图像分割的卷积网络**\n\nhttps:\u002F\u002Farxiv.org\u002Fabs\u002F1505.04597\n\n**基于 U-Net 的循环残差卷积神经网络 (R2U-Net) 用于医学图像分割**\n\nhttps:\u002F\u002Farxiv.org\u002Fabs\u002F1802.06955\n\n**Attention U-Net：学习如何定位胰腺**\n\nhttps:\u002F\u002Farxiv.org\u002Fabs\u002F1804.03999\n\n**Attention R2U-Net：仅是将两项最新先进方法（R2U-Net + Attention U-Net）进行整合**\n\n\n## U-Net\n![U-Net](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLeeJunHyun_Image_Segmentation_readme_f4f2c6bebc54.png)\n\n\n## R2U-Net\n![R2U-Net](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLeeJunHyun_Image_Segmentation_readme_65d66a4f95ad.png)\n\n## Attention U-Net\n![AttU-Net](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLeeJunHyun_Image_Segmentation_readme_d056e92dca5f.png)\n\n## Attention R2U-Net\n![AttR2U-Net](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLeeJunHyun_Image_Segmentation_readme_6d96edd57684.png)\n\n## 评估\n我们仅使用 [ISIC 2018 数据集](https:\u002F\u002Fchallenge2018.isic-archive.com\u002Ftask1\u002Ftraining\u002F) 对模型进行了测试。该数据集被划分为训练集、验证集和测试集，三者的比例分别为整个数据集的 70%、10% 和 20%。整个数据集包含 2594 张图像，其中 1815 张用于训练，259 张用于验证，520 张用于测试模型。\n\n![evaluation](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLeeJunHyun_Image_Segmentation_readme_d1316f07e488.png)","# Image_Segmentation 快速上手指南\n\n本指南基于 PyTorch 实现，涵盖 U-Net、R2U-Net、Attention U-Net 及 Attention R2U-Net 四种医学图像分割模型。\n\n> **注意**：原仓库已停止更新，但核心代码仍可用于学习和基础实验。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐), macOS, 或 Windows\n*   **Python**: 3.6 及以上版本\n*   **深度学习框架**: PyTorch 1.0+\n*   **其他依赖**: torchvision, numpy, PIL (Pillow)\n\n建议创建独立的虚拟环境以避免依赖冲突：\n\n```bash\npython -m venv seg_env\nsource seg_env\u002Fbin\u002Factivate  # Windows 用户使用: seg_env\\Scripts\\activate\n```\n\n## 安装步骤\n\n### 1. 克隆项目\n首先从 GitHub 克隆代码仓库：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fqubvel\u002Fsegmentation_models.pytorch.git\n# 注意：若原链接失效，请根据实际仓库地址调整，此处以通用逻辑示意\n# 针对本项目特定仓库：\ngit clone https:\u002F\u002Fgithub.com\u002FLeeJunHyun\u002FImage_Segmentation.git\ncd Image_Segmentation\n```\n\n### 2. 安装依赖\n推荐使用国内镜像源（如清华源）加速 Python 包的安装：\n\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n如果项目中没有 `requirements.txt`，请手动安装核心依赖：\n\n```bash\npip install torch torchvision numpy pillow matplotlib -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n本项目主要用于训练和测试医学图像分割模型。以下是最简单的使用流程示例。\n\n### 1. 数据准备\n将数据集按照以下结构整理（以 ISIC 2018 为例）：\n```text\ndata\u002F\n├── train\u002F\n│   ├── images\u002F\n│   └── masks\u002F\n├── val\u002F\n│   ├── images\u002F\n│   └── masks\u002F\n└── test\u002F\n    ├── images\u002F\n    └── masks\u002F\n```\n\n### 2. 运行训练\n使用提供的脚本启动训练。您可以指定模型类型（`unet`, `r2unet`, `att_unet`, `att_r2unet`）。\n\n```bash\n# 示例：训练 Attention U-Net 模型\npython main.py --model_type att_unet --cuda --num_epochs 50\n```\n\n常用参数说明：\n*   `--model_type`: 选择模型架构 (`unet`, `r2unet`, `att_unet`, `att_r2unet`)\n*   `--cuda`: 启用 GPU 加速\n*   `--num_epochs`: 训练轮数\n*   `--batch_size`: 批处理大小 (默认通常在脚本中定义，可按需修改)\n\n### 3. 模型评估与预测\n训练完成后，脚本通常会自动在验证集和测试集上进行评估。若要单独进行推理或可视化结果，可参考项目中的 `visualize_results.py` (如有) 或修改 `main.py` 中的测试逻辑。\n\n```bash\n# 示例：仅进行测试评估\npython main.py --model_type att_unet --cuda --test_only\n```\n\n生成的预测结果和评估指标（如 Dice Score, IoU）将保存在输出目录中。","某三甲医院影像科团队正致力于开发一套自动化皮肤癌筛查系统，需要从大量皮肤镜图像中精准提取病灶区域以辅助医生诊断。\n\n### 没有 Image_Segmentation 时\n- 医生需手动逐帧勾勒病灶轮廓，处理一张高分辨率图像平均耗时 15 分钟，面对千级数据集效率极低且易疲劳出错。\n- 传统阈值分割算法无法区分病灶与毛发、气泡等干扰物，导致提取边界模糊，严重影响后续良恶性分类模型的准确率。\n- 缺乏针对医学影像优化的现成架构，研发团队需从零编写复杂的编码器 - 解码器网络，调试周期长达数月且难以复现论文效果。\n- 模型对小尺寸病灶或低对比度区域敏感度不足，常出现漏检，无法满足临床对微小早期病变的筛查需求。\n\n### 使用 Image_Segmentation 后\n- 直接调用预训练的 Attention U-Net 模型，将单张图像的处理时间缩短至秒级，实现批量自动化处理，释放医生精力专注于疑难病例。\n- 利用注意力机制（Attention Gate）有效抑制背景噪声，精准锁定病灶边缘，即使在毛发遮挡下也能生成清晰、连续的分割掩码。\n- 基于成熟的 PyTorch 实现快速部署 R2U-Net 等先进架构，无需重复造轮子，团队仅用两周即可完成模型微调并上线测试。\n- 借助循环残差结构增强特征提取能力，显著提升了对微小病灶的识别率，在 ISIC 数据集验证中分割精度（Dice 系数）大幅提升。\n\nImage_Segmentation 通过提供即插即用的高性能医学图像分割模型，将原本繁琐低效的人工标注转化为精准自动化的智能流程，极大加速了辅助诊疗系统的落地应用。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLeeJunHyun_Image_Segmentation_00d5c5fe.png","LeeJunHyun","leejunhyun","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FLeeJunHyun_b7246491.png","PhD Candidate, Korea University",null,"ljhyun33@korea.ac.kr","https:\u002F\u002Fjunhyunlee.com","https:\u002F\u002Fgithub.com\u002FLeeJunHyun",[83,87],{"name":84,"color":85,"percentage":86},"Python","#3572A5",99.4,{"name":88,"color":89,"percentage":90},"Shell","#89e051",0.6,3088,632,"2026-04-15T08:10:05","","未说明",{"notes":97,"python":95,"dependencies":98},"该项目基于 PyTorch 实现了 U-Net、R2U-Net、Attention U-Net 和 Attention R2U-Net 模型，主要用于医学图像分割。README 中明确指出该仓库已不再更新。评估部分提到使用了 ISIC 2018 数据集（包含 2594 张图像），按 70%\u002F10%\u002F20% 的比例划分为训练集、验证集和测试集。具体的操作系统、Python 版本、GPU 型号及显存需求在提供的文本中均未提及，需参考 PyTorch 通用要求或查看代码中的具体实现细节。",[99],"pytorch",[15],"2026-03-27T02:49:30.150509","2026-04-16T01:49:44.440193",[104,109,114,119,124,129],{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},34760,"运行代码时出现 'FileNotFoundError: No such file or directory' 错误，提示找不到图片文件（如 ISIC_33.png），该如何解决？","该错误通常是因为数据集路径配置不正确或文件确实不存在。请检查您的数据目录结构，确保代码中引用的路径（例如 '..\u002FISIC\u002Fdataset\u002Ftrain_data\u002F'）下确实存在对应的图片文件。维护者建议：由于无法获取您的具体数据信息，您需要自行检查数据路径和文件是否存在。","https:\u002F\u002Fgithub.com\u002FLeeJunHyun\u002FImage_Segmentation\u002Fissues\u002F2",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},34761,"训练完成后评估指标（SE, SP, PC, F1, JS, DC）全部显示为 0.0000，但准确率（ACC）正常，这是什么原因？如何修复？","这是 evaluation.py 文件中计算逻辑的问题。需要修改约 10 行代码来正确计算真阳性（TP）、假阴性（FN）等指标。请将 evaluation.py 中的相关计算逻辑替换为以下代码：\n\nTP = ((SR==1).byte()+(GT==1).byte()) == 2\nFN = ((SR==0).byte()+(GT==1).byte()) == 2\nTN = ((SR==0).byte()+(GT==0).byte()) == 2\nFP = ((SR==1).byte()+(GT==0).byte()) == 2\nInter = torch.sum(SR.byte() + GT.byte() == 2)\nUnion = torch.sum(SR.byte() + GT.byte() >= 1)\nDC = float(2*Inter)\u002F(float(torch.sum(SR)+torch.sum(GT)) + 1e-6)\n\n修改后重新运行即可得到正常的评估结果。","https:\u002F\u002Fgithub.com\u002FLeeJunHyun\u002FImage_Segmentation\u002Fissues\u002F58",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},34762,"使用包含循环块（Recurrent blocks，如 R2U-Net）的模型训练时，验证集表现不稳定，出现预测坍塌（prediction collapse）或全零掩码，如何解决？","这是一个已知问题，多位用户在使用私有医疗灰度图像数据集训练 R2U 或 Att-R2U 模型时遇到了相同情况：训练集损失正常下降，但验证集结果在好结果和全零掩码之间震荡，且预测形状趋于单一。目前社区尚未给出确切的代码级修复方案。建议尝试调整超参数（如批量大小、学习率）、数据增强策略或预处理方法。如果问题依旧，可能需要检查数据分布或考虑该架构对特定数据集的适用性。","https:\u002F\u002Fgithub.com\u002FLeeJunHyun\u002FImage_Segmentation\u002Fissues\u002F73",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},34763,"训练结束后只能看到文本格式的评估结果，如何绘制损失曲线（Loss Curve）或学习曲线？","该项目本身未集成 TensorBoard 或其他可视化工具。维护者建议参考 scikit-learn 的学习曲线示例来手动绘制。您可以记录每个 epoch 的训练和验证损失值，然后使用 matplotlib 等绘图库进行可视化。例如：\n\nimport matplotlib.pyplot as plt\nplt.plot(train_losses, label='Train Loss')\nplt.plot(val_losses, label='Val Loss')\nplt.legend()\nplt.show()","https:\u002F\u002Fgithub.com\u002FLeeJunHyun\u002FImage_Segmentation\u002Fissues\u002F8",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},34764,"运行时出现 'RuntimeError: Sizes of tensors must match except in dimension 0' 错误，提示张量尺寸不匹配（如 160 和 384），原因是什么？","该错误通常发生在 DataLoader  collate 阶段，原因是批次中的图像或标签尺寸不一致。PyTorch 默认要求批次内所有样本的尺寸相同（除了 batch 维度）。请检查您的数据集预处理步骤，确保所有输入图像和对应的 Ground Truth 掩码都被调整（resize）或裁剪（crop）到相同的分辨率（例如 224x224 或 256x256）。可以在 dataset.py 的 __getitem__ 方法中添加 transform 操作来统一尺寸。","https:\u002F\u002Fgithub.com\u002FLeeJunHyun\u002FImage_Segmentation\u002Fissues\u002F80",{"id":130,"question_zh":131,"answer_zh":132,"source_url":113},34765,"如何在没有 GPU 的环境下运行代码？减少图片数量和迭代次数后评估指标仍为 0，是否正常？","可以在 CPU 上运行，但需适当减小 batch size 和图片数量以降低内存占用。如果减少数据量后评估指标仍全为 0，很可能不是硬件问题，而是 evaluation.py 中的计算逻辑有误（参见指标全为 0 的问题）。请优先检查并修复评估代码中的 TP\u002FTN\u002FFP\u002FFN 计算逻辑，确保阈值处理和字节转换正确。",[]]