[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-bigmb--Unet-Segmentation-Pytorch-Nest-of-Unets":3,"tool-bigmb--Unet-Segmentation-Pytorch-Nest-of-Unets":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":77,"owner_website":77,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":32,"env_os":90,"env_gpu":91,"env_ram":90,"env_deps":92,"category_tags":106,"github_topics":107,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":115,"updated_at":116,"faqs":117,"releases":155},4843,"bigmb\u002FUnet-Segmentation-Pytorch-Nest-of-Unets","Unet-Segmentation-Pytorch-Nest-of-Unets","Implementation of different kinds of Unet Models for Image Segmentation - Unet , RCNN-Unet, Attention Unet, RCNN-Attention Unet, Nested Unet","Unet-Segmentation-Pytorch-Nest-of-Unets 是一个基于 PyTorch 的开源项目，旨在为图像分割任务提供多种先进的 U-Net 模型实现。它集成了经典 U-Net、循环残差 U-Net（R2U-Net）、注意力机制 U-Net、两者的结合体以及嵌套式 U-Net++ 等多种架构，帮助开发者轻松复现和对比不同算法在医学影像等场景下的表现。\n\n该项目主要解决了研究人员和工程师在尝试不同分割网络时，需要重复编写基础代码或寻找分散实现的痛点。通过统一的代码库，用户可以直接调用多种模型进行训练和测试，大幅降低了实验门槛。此外，项目还内置了丰富的可视化功能，支持损失曲线绘制、梯度流分析、中间层特征图及滤波器可视化，让模型内部运作过程更加透明，便于调试与优化。\n\n这款工具非常适合从事计算机视觉研究的学者、深度学习开发者以及需要处理医学图像分割任务的技术人员使用。只要具备基础的 Python 和 PyTorch 知识，即可快速上手，利用其灵活的配置进行算法验证或二次开发。对于希望深入理解 U-Net 系列变体原理并应用于实际项目的用户来说，这是一个实用且高效的起点","Unet-Segmentation-Pytorch-Nest-of-Unets 是一个基于 PyTorch 的开源项目，旨在为图像分割任务提供多种先进的 U-Net 模型实现。它集成了经典 U-Net、循环残差 U-Net（R2U-Net）、注意力机制 U-Net、两者的结合体以及嵌套式 U-Net++ 等多种架构，帮助开发者轻松复现和对比不同算法在医学影像等场景下的表现。\n\n该项目主要解决了研究人员和工程师在尝试不同分割网络时，需要重复编写基础代码或寻找分散实现的痛点。通过统一的代码库，用户可以直接调用多种模型进行训练和测试，大幅降低了实验门槛。此外，项目还内置了丰富的可视化功能，支持损失曲线绘制、梯度流分析、中间层特征图及滤波器可视化，让模型内部运作过程更加透明，便于调试与优化。\n\n这款工具非常适合从事计算机视觉研究的学者、深度学习开发者以及需要处理医学图像分割任务的技术人员使用。只要具备基础的 Python 和 PyTorch 知识，即可快速上手，利用其灵活的配置进行算法验证或二次开发。对于希望深入理解 U-Net 系列变体原理并应用于实际项目的用户来说，这是一个实用且高效的起点。","# Unet-Segmentation-Pytorch-Nest-of-Unets\n\n[![forthebadge](https:\u002F\u002Fforthebadge.com\u002Fimages\u002Fbadges\u002Fmade-with-python.svg)](https:\u002F\u002Fwww.python.org\u002F)\n\n[![HitCount](http:\u002F\u002Fhits.dwyl.io\u002Fbigmb\u002FUnet-Segmentation-Pytorch-Nest-of-Unets.svg)](http:\u002F\u002Fhits.dwyl.io\u002Fbigmb\u002FUnet-Segmentation-Pytorch-Nest-of-Unets)\n[![License: MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-brightgreen.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n[![Maintenance](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FMaintained%3F-yes-green.svg)](https:\u002F\u002Fgithub.com\u002Fbigmb\u002FUnet-Segmentation-Pytorch-Nest-of-Unets\u002Fgraphs\u002Fcommit-activity)\n[![GitHub issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FNaereen\u002FStrapDown.js.svg)](https:\u002F\u002Fgithub.com\u002Fbigmb\u002FUnet-Segmentation-Pytorch-Nest-of-Unets\u002Fissues)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Funet-a-nested-u-net-architecture-for-medical\u002Fsemantic-segmentation-on-cityscapes-val)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fsemantic-segmentation-on-cityscapes-val?p=unet-a-nested-u-net-architecture-for-medical)\n\nImplementation of different kinds of Unet Models for Image Segmentation\n\n1) **UNet** - U-Net: Convolutional Networks for Biomedical Image Segmentation\nhttps:\u002F\u002Farxiv.org\u002Fabs\u002F1505.04597\n\n2) **RCNN-UNet** - Recurrent Residual Convolutional Neural Network based on U-Net (R2U-Net) for Medical Image Segmentation\nhttps:\u002F\u002Farxiv.org\u002Fabs\u002F1802.06955\n\n3) **Attention Unet** - Attention U-Net: Learning Where to Look for the Pancreas\nhttps:\u002F\u002Farxiv.org\u002Fabs\u002F1804.03999\n\n4) **RCNN-Attention Unet** - Attention R2U-Net : Just integration of two recent advanced works (R2U-Net + Attention U-Net)\n\u003C!--LeeJun Implementation - https:\u002F\u002Fgithub.com\u002FLeeJunHyun\u002FImage_Segmentation.git -->\n\n5) **Nested UNet** - UNet++: A Nested U-Net Architecture for Medical Image Segmentation\nhttps:\u002F\u002Farxiv.org\u002Fabs\u002F1807.10165\n\nWith Layer Visualization\n\n## 1. Getting Started\n\nClone the repo:\n\n  ```bash\n  git clone https:\u002F\u002Fgithub.com\u002Fbigmb\u002FUnet-Segmentation-Pytorch-Nest-of-Unets.git\n  ```\n\n## 2. Requirements\n\n```\npython>=3.6\ntorch>=0.4.0\ntorchvision\ntorchsummary\ntensorboardx\nnatsort\nnumpy\npillow\nscipy\nscikit-image\nsklearn\n```\nInstall all dependent libraries:\n  ```bash\n  pip install -r requirements.txt\n  ```\n## 3. Run the file\n\nAdd all your folders to this line 106-113\n```\nt_data = '' # Input data\nl_data = '' #Input Label\ntest_image = '' #Image to be predicted while training\ntest_label = '' #Label of the prediction Image\ntest_folderP = '' #Test folder Image\ntest_folderL = '' #Test folder Label for calculating the Dice score\n ```\n \n  ## 4. Types of Unet\n  \n  **Unet**\n  ![unet1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_96f5e828c1e8.png)\n  \n  **RCNN Unet**\n  ![r2unet](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_53771ec35b31.png)\n  \n  \n  **Attention Unet**\n  ![att-unet](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_25b17cd34151.png)\n  \n  \n  **Attention-RCNN Unet**\n  ![att-r2u](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_81b286ee11b8.png)\n  \n  \n  **Nested Unet**\n  \n  ![nested](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_b90e12e41a02.jpg)\n\n## 5. Visualization\n\nTo plot the loss , Visdom would be required. The code is already written, just uncomment the required part.\nGradient flow can be used too. Taken from (https:\u002F\u002Fdiscuss.pytorch.org\u002Ft\u002Fcheck-gradient-flow-in-network\u002F15063\u002F10)\n\nA model folder is created and all the data is stored inside that.\nLast layer will be saved in the model folder. If any particular layer is required , mention it in the line 361.\n\n**Layer Visulization**\n\n![l2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_12333b7a0041.png)\n\n**Filter Visulization**\n\n![filt1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_dfaa5ea33d3b.png)\n\n**TensorboardX**\nStill have to tweak some parameters to get visualization. Have messed up this trying to make pytorch 1.1.0 working with tensorboard directly (and then came to know Currently it doesn't support anything apart from linear graphs)\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_986aef31c5de.png\" width=\"280\">\n\n**Input Image Visulization for checking**\n\n**a) Original Image**\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_2ef2f7b8e645.png\" width=\"480\">\n\n**b) CenterCrop Image**\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_91526b32b7a3.png\" width=\"480\">\n\n## 6. Results\n\n**Dice Score for hippocampus segmentation**\nADNI-LONI Dataset\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_6fe4ad219207.png\" width=\"380\">\n\n## 7. Citation\n\nIf you find it usefull for your work. \n```\n@article{DBLP:journals\u002Fcorr\u002Fabs-1906-07160,\n  author    = {Malav Bateriwala and\n               Pierrick Bourgeat},\n  title     = {Enforcing temporal consistency in Deep Learning segmentation of brain\n               {MR} images},\n  journal   = {CoRR},\n  volume    = {abs\u002F1906.07160},\n  year      = {2019},\n  url       = {http:\u002F\u002Farxiv.org\u002Fabs\u002F1906.07160},\n  archivePrefix = {arXiv},\n  eprint    = {1906.07160},\n  timestamp = {Mon, 24 Jun 2019 17:28:45 +0200},\n  biburl    = {https:\u002F\u002Fdblp.org\u002Frec\u002Fbib\u002Fjournals\u002Fcorr\u002Fabs-1906-07160},\n  bibsource = {dblp computer science bibliography, https:\u002F\u002Fdblp.org}\n}\n```\n\n## 8. Blog about different Unets\n```\nIn progress\n```\n\n\n","# Unet-分割-Pytorch-嵌套Unet\n\n[![forthebadge](https:\u002F\u002Fforthebadge.com\u002Fimages\u002Fbadges\u002Fmade-with-python.svg)](https:\u002F\u002Fwww.python.org\u002F)\n\n[![HitCount](http:\u002F\u002Fhits.dwyl.io\u002Fbigmb\u002FUnet-Segmentation-Pytorch-Nest-of-Unets.svg)](http:\u002F\u002Fhits.dwyl.io\u002Fbigmb\u002FUnet-Segmentation-Pytorch-Nest-of-Unets)\n[![License: MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-brightgreen.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n[![Maintenance](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FMaintained%3F-yes-green.svg)](https:\u002F\u002Fgithub.com\u002Fbigmb\u002FUnet-Segmentation-Pytorch-Nest-of-Unets\u002Fgraphs\u002Fcommit-activity)\n[![GitHub issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FNaereen\u002FStrapDown.js.svg)](https:\u002F\u002Fgithub.com\u002Fbigmb\u002FUnet-Segmentation-Pytorch-Nest-of-Unets\u002Fissues)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Funet-a-nested-u-net-architecture-for-medical\u002Fsemantic-segmentation-on-cityscapes-val)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fsemantic-segmentation-on-cityscapes-val?p=unet-a-nested-u-net-architecture-for-medical)\n\n用于图像分割的不同类型Unet模型的实现\n\n1) **UNet** - U-Net：用于生物医学图像分割的卷积网络\nhttps:\u002F\u002Farxiv.org\u002Fabs\u002F1505.04597\n\n2) **RCNN-UNet** - 基于U-Net的循环残差卷积神经网络（R2U-Net）用于医学图像分割\nhttps:\u002F\u002Farxiv.org\u002Fabs\u002F1802.06955\n\n3) **Attention Unet** - 注意力U-Net：学习在哪里寻找胰腺\nhttps:\u002F\u002Farxiv.org\u002Fabs\u002F1804.03999\n\n4) **RCNN-Attention Unet** - 注意力R2U-Net：只是将两项最新先进成果（R2U-Net + 注意力U-Net）进行了整合\n\u003C!--LeeJun 实现 - https:\u002F\u002Fgithub.com\u002FLeeJunHyun\u002FImage_Segmentation.git -->\n\n5) **Nested UNet** - UNet++：用于医学图像分割的嵌套U-Net架构\nhttps:\u002F\u002Farxiv.org\u002Fabs\u002F1807.10165\n\n附带层可视化功能\n\n## 1. 入门\n\n克隆仓库：\n\n  ```bash\n  git clone https:\u002F\u002Fgithub.com\u002Fbigmb\u002FUnet-Segmentation-Pytorch-Nest-of-Unets.git\n  ```\n\n## 2. 需求\n\n```\npython>=3.6\ntorch>=0.4.0\ntorchvision\ntorchsummary\ntensorboardx\nnatsort\nnumpy\npillow\nscipy\nscikit-image\nsklearn\n```\n安装所有依赖库：\n  ```bash\n  pip install -r requirements.txt\n  ```\n## 3. 运行文件\n\n将所有文件夹添加到第106-113行：\n```\nt_data = '' # 输入数据\nl_data = '' # 输入标签\ntest_image = '' # 训练时待预测的图像\ntest_label = '' # 预测图像的标签\ntest_folderP = '' # 测试图像文件夹\ntest_folderL = '' # 用于计算Dice分数的测试标签文件夹\n ```\n \n  ## 4. Unet的类型\n  \n  **Unet**\n  ![unet1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_96f5e828c1e8.png)\n  \n  **RCNN Unet**\n  ![r2unet](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_53771ec35b31.png)\n  \n  \n  **Attention Unet**\n  ![att-unet](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_25b17cd34151.png)\n  \n  \n  **Attention-RCNN Unet**\n  ![att-r2u](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_81b286ee11b8.png)\n  \n  \n  **Nested Unet**\n  \n  ![nested](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_b90e12e41a02.jpg)\n\n## 5. 可视化\n\n要绘制损失曲线，需要使用Visdom。代码已经写好，只需取消注释相应部分即可。\n也可以使用梯度流。参考自（https:\u002F\u002Fdiscuss.pytorch.org\u002Ft\u002Fcheck-gradient-flow-in-network\u002F15063\u002F10）\n\n会创建一个模型文件夹，所有数据都会存储在其中。\n最后一层会被保存在模型文件夹中。如果需要特定层的数据，请在第361行注明。\n\n**层可视化**\n\n![l2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_12333b7a0041.png)\n\n**滤波器可视化**\n\n![filt1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_dfaa5ea33d3b.png)\n\n**TensorboardX**\n还需要调整一些参数才能实现可视化。之前曾尝试让PyTorch 1.1.0直接与TensorBoard配合使用，结果发现目前它只支持线性图表。\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_986aef31c5de.png\" width=\"280\">\n\n**输入图像可视化，用于检查**\n\n**a) 原始图像**\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_2ef2f7b8e645.png\" width=\"480\">\n\n**b) 中心裁剪后的图像**\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_91526b32b7a3.png\" width=\"480\">\n\n## 6. 结果\n\n**海马体分割的Dice分数**\nADNI-LONI 数据集\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_readme_6fe4ad219207.png\" width=\"380\">\n\n## 7. 引用\n\n如果您觉得对您的工作有帮助，请引用：\n```\n@article{DBLP:journals\u002Fcorr\u002Fabs-1906-07160,\n  author    = {Malav Bateriwala and\n               Pierrick Bourgeat},\n  title     = {Enforcing temporal consistency in Deep Learning segmentation of brain\n               {MR} images},\n  journal   = {CoRR},\n  volume    = {abs\u002F1906.07160},\n  year      = {2019},\n  url       = {http:\u002F\u002Farxiv.org\u002Fabs\u002F1906.07160},\n  archivePrefix = {arXiv},\n  eprint    = {1906.07160},\n  timestamp = {Mon, 24 Jun 2019 17:28:45 +0200},\n  biburl    = {https:\u002F\u002Fdblp.org\u002Frec\u002Fbib\u002Fjournals\u002Fcorr\u002Fabs-1906-07160},\n  bibsource = {dblp computer science bibliography, https:\u002F\u002Fdblp.org}\n}\n```\n\n## 8. 关于不同Unet的博客\n```\n正在撰写中\n```","# Unet-Segmentation-Pytorch-Nest-of-Unets 快速上手指南\n\n本工具集成了多种先进的 U-Net 变体模型（包括标准 U-Net、R2U-Net、Attention U-Net 及 UNet++），适用于医学图像分割等语义分割任务，并提供层可视化功能。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux \u002F macOS \u002F Windows\n*   **Python 版本**：>= 3.6\n*   **核心依赖**：\n    *   PyTorch (>= 0.4.0)\n    *   torchvision\n    *   tensorboardx\n    *   scikit-image, scipy, numpy, pillow, sklearn 等科学计算库\n\n> **国内加速建议**：\n> 安装 Python 依赖时，推荐使用清华或阿里镜像源以提升下载速度：\n> `pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n## 2. 安装步骤\n\n### 第一步：克隆项目\n使用 git 将代码仓库克隆到本地：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fbigmb\u002FUnet-Segmentation-Pytorch-Nest-of-Unets.git\n```\n\n### 第二步：进入目录并安装依赖\n进入项目文件夹并安装所需的 Python 库：\n\n```bash\ncd Unet-Segmentation-Pytorch-Nest-of-Unets\npip install -r requirements.txt\n```\n\n## 3. 基本使用\n\n本项目通过修改主脚本中的路径配置来运行不同的模型。请按照以下步骤配置数据路径并启动训练\u002F预测。\n\n### 配置数据路径\n打开主程序文件（通常为 `.py` 结尾的主入口文件），找到第 **106-113** 行左右的数据路径配置部分，填入您的数据集路径：\n\n```python\nt_data = ''      # 输入图像数据文件夹路径\nl_data = ''      # 输入标签数据文件夹路径\ntest_image = ''  # 训练过程中用于预测的测试图像路径\ntest_label = ''  # 预测图像对应的真实标签路径\ntest_folderP = ''# 测试图像文件夹路径\ntest_folderL = ''# 测试标签文件夹路径（用于计算 Dice 分数）\n```\n\n### 选择模型类型\n代码中已内置以下模型架构，您可以根据需求在代码中选择调用（通常通过注释取消或参数指定）：\n1.  **UNet**: 标准 U-Net\n2.  **RCNN-UNet (R2U-Net)**: 基于循环残差卷积的 U-Net\n3.  **Attention Unet**: 引入注意力机制的 U-Net\n4.  **RCNN-Attention Unet**: R2U-Net 与 Attention 的结合\n5.  **Nested UNet (UNet++)**: 嵌套式 U-Net 架构\n\n### 运行与可视化\n配置完成后，直接运行主脚本即可开始训练。\n\n*   **损失可视化**：代码已集成 Visdom 支持，如需绘制损失曲线，请取消代码中相关部分的注释。\n*   **梯度流检查**：支持梯度流可视化，用于分析网络训练状态。\n*   **层与滤波器可视化**：训练生成的模型文件夹中将保存最后一层的可视化结果。若需查看特定层，请修改代码第 **361** 行指定层数。\n*   **TensorBoard**：项目支持 TensorBoardX，可用于监控训练过程（注：部分高版本 PyTorch 可能需要微调参数以兼容线性图以外的可视化）。\n\n运行后，程序会自动创建 `model` 文件夹存储训练数据和模型权重。","某三甲医院影像科团队正致力于开发一套自动化的胰腺 CT 影像分割系统，以辅助医生快速定位病灶并计算肿瘤体积。\n\n### 没有 Unet-Segmentation-Pytorch-Nest-of-Unets 时\n- **模型选型试错成本高**：团队需分别查找并复现基础 U-Net、注意力机制及嵌套结构等不同论文的代码，环境配置冲突频发，耗时数周仍难以统一框架。\n- **微小病灶识别率低**：使用传统单一路径模型时，由于胰腺边界模糊且与周围组织对比度低，模型常漏检微小肿瘤或错误分割背景噪声。\n- **训练过程不透明**：缺乏内置的可视化模块，开发人员无法直观观察梯度流动或滤波器特征，难以判断模型是欠拟合还是过拟合，调优全靠“盲猜”。\n- **算法迭代周期长**：每次尝试新架构（如 R2U-Net）都需重写大量数据加载与训练逻辑，导致从想法验证到产出结果往往需要数月时间。\n\n### 使用 Unet-Segmentation-Pytorch-Nest-of-Unets 后\n- **一站式架构切换**：直接调用库中集成的 U-Net、RCNN-U-Net、Attention U-Net 及 Nested U-Net 等五种主流变体，仅需修改配置文件即可在几分钟内完成模型切换与对比实验。\n- **复杂边界精准分割**：通过启用 Attention U-Net 或 Nested U-Net 模式，利用注意力门控机制和多尺度特征融合，显著提升了胰腺边缘及微小病灶的分割精度（Dice 系数大幅提升）。\n- **全流程可视监控**：利用自带的 Layer Visualization 和 TensorboardX 支持，实时查看中间层特征图与损失曲线，快速定位网络瓶颈，让调参过程有据可依。\n- **研发效率倍增**：标准化的数据接口与训练脚本让团队能专注于医学逻辑而非工程基建，将新算法的验证周期从数月缩短至几天。\n\nUnet-Segmentation-Pytorch-Nest-of-Unets 通过提供多样化的高阶分割架构与完善的可视化体系，将医疗影像算法的研发门槛降至最低，实现了从“手工造轮子”到“精准医疗落地”的高效跨越。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbigmb_Unet-Segmentation-Pytorch-Nest-of-Unets_fd0eb4b7.png","bigmb","Malav Bateriwala","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbigmb_a0d6ce5f.jpg","Erasmus Student of VIBOT,\r\n\r\nMachine learning Researcher - Winnow Solutions",null,"London, UK","malav.b93@gmail.com","https:\u002F\u002Fgithub.com\u002Fbigmb",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,2217,364,"2026-03-31T01:48:11","MIT","未说明","未说明 (基于 PyTorch，通常建议配备支持 CUDA 的 NVIDIA GPU 以加速训练，但 README 未明确指定型号或显存要求)",{"notes":93,"python":94,"dependencies":95},"该项目实现了多种 U-Net 变体（包括 UNet, R2U-Net, Attention U-Net, UNet++ 等）。运行前需配置数据路径（输入数据、标签及测试图像）。可视化功能可选使用 Visdom 或 TensorboardX（README 提到 TensorboardX 在特定版本下可能仅支持线性图，需调整参数）。代码包含梯度流检查和层级可视化功能。",">=3.6",[96,97,98,99,100,101,102,103,104,105],"torch>=0.4.0","torchvision","torchsummary","tensorboardx","natsort","numpy","pillow","scipy","scikit-image","sklearn",[15,14],[108,109,110,111,112,97,113,114],"unet","pytorch","imagesegmentation","segmentation","tensorvision","torch","python3","2026-03-27T02:49:30.150509","2026-04-07T13:33:01.315334",[118,123,128,133,138,143,147,151],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},22027,"训练时遇到 RuntimeError：输出形状 [1, H, W] 与广播形状 [3, H, W] 不匹配，如何解决？","这通常是因为标签图像（Label\u002FMask）是单通道（灰度图，模式为 'L'），而代码中的归一化变换（Normalize）默认期望 3 通道输入。解决方法是检查数据加载部分，确保对标签图像不使用针对 RGB 图像的归一化变换，或者在转换前确认通道数。如果是单通道分割任务，标签应保持单通道，不要强行应用针对 3 通道图像的 mean\u002Fstd 归一化。","https:\u002F\u002Fgithub.com\u002Fbigmb\u002FUnet-Segmentation-Pytorch-Nest-of-Unets\u002Fissues\u002F7",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},22028,"为什么二进制分割任务的输出通道数（output channels）设置为 1 而不是 2？多分类任务该如何设置？","在二进制分割中，输出通道设为 1 是因为模型只需预测前景类，其余像素视为背景（通过阈值处理即可）。如果设为 2，则需要修改分类逻辑。对于多分类任务（例如包含背景共 3 类），输出通道数应设置为类别数量（即 3）。注意：如果改为多分类并使用 Softmax，注意力模块中的 Sigmoid 可能也需要相应调整，否则会导致下一层输入错误。","https:\u002F\u002Fgithub.com\u002Fbigmb\u002FUnet-Segmentation-Pytorch-Nest-of-Unets\u002Fissues\u002F12",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},22029,"DataLoader 报错：tensor a (size 4) 必须匹配 tensor b (size 3)，这是什么原因？","这个错误通常发生在图像预处理阶段，原因是输入图像是 4 通道（例如带有 Alpha 通道的 PNG），而模型或归一化变换期望的是 3 通道（RGB）。解决方法是在数据加载时将图像转换为 3 通道，或者在使用 OpenCV 读取时确保只读取 RGB 通道。如果使用 OpenCV 调整大小，可以使用 `resized = cv2.resize(img, shape)`，并确保在转换为 Tensor 前处理掉多余的通道。","https:\u002F\u002Fgithub.com\u002Fbigmb\u002FUnet-Segmentation-Pytorch-Nest-of-Unets\u002Fissues\u002F56",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},22030,"训练结果显示 Dice 分数极低（接近 0），验证集 Loss 不下降，可能是什么原因？","这种情况通常是因为选择的网络架构（如带有 RNN 或注意力模块的变体）对数据量要求较高，而当前数据集太小导致过拟合或无法收敛。建议尝试使用基础的 Nested Unet 架构。此外，请根据任务类型检查损失函数是否正确（例如二分类通常用 Sigmoid + BCE，多分类需调整）。如果问题依旧，检查模型加载部分（pytorch_run.py）是否正确加载了预训练权重或初始化参数。","https:\u002F\u002Fgithub.com\u002Fbigmb\u002FUnet-Segmentation-Pytorch-Nest-of-Unets\u002Fissues\u002F63",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},22031,"如何在自己的数据集上训练模型？如果没有对应的真值标签（Ground Truth）怎么办？","该代码库设计用于监督学习，因此必须要有对应的真值标签（Ground Truth\u002FMask）才能进行训练。如果你的数据集只有图像而没有标签，无法直接使用此代码进行监督训练。这种情况下，你需要寻找无监督学习方法，或者先手动\u002F半自动地为数据生成标签。","https:\u002F\u002Fgithub.com\u002Fbigmb\u002FUnet-Segmentation-Pytorch-Nest-of-Unets\u002Fissues\u002F35",{"id":144,"question_zh":145,"answer_zh":146,"source_url":132},22032,"训练生成的文件夹中 pred、label_threshold、pred_threshold 分别代表什么？如何可视化结果？","这些文件夹用于保存训练过程中的可视化结果：`pred` 是模型原始预测输出，`label_threshold` 和 `pred_threshold` 是经过阈值处理（默认阈值为 150）后的二值化图像，便于直观对比预测效果。你可以使用 TensorBoard 来可视化训练过程和结果，相关代码已包含在 `pytorch_run.py` 中。建议训练约 50 个 epoch 后检查生成的图片以判断模型是否朝正确方向收敛，代码中也实现了早停机制（early stopping）。",{"id":148,"question_zh":149,"answer_zh":150,"source_url":127},22033,"使用 Attention Unet 时运行 torchsummary 报错 IndexError: tuple index out of range，如何解决？","这通常是因为 Attention 模块在前向传播时返回的数据结构与 torchsummary 预期的不一致。虽然具体修复可能需要修改模型定义以兼容 summary 工具，但更关键的是确保模型能正常训练。如果只是为了查看模型结构，可以尝试直接打印模型对象 `print(model)`，或者暂时注释掉 `torchsummary.summary` 调用，直接进行训练测试，因为该错误不影响模型实际训练逻辑。",{"id":152,"question_zh":153,"answer_zh":154,"source_url":137},22034,"想要进行多分类任务，需要修改哪些代码？","进行多分类任务主要需要修改两点：1. 将模型最后的输出层通道数改为类别总数（包括背景）；2. 将损失函数和激活函数从适用于二分类的 Sigmoid\u002FBCELoss 改为适用于多分类的 Softmax\u002FCrossEntropyLoss。同时，如果模型中包含注意力模块且硬编码了 Sigmoid，也需要同步修改以适配多分类输出。",[]]