[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Tencent--MedicalNet":3,"tool-Tencent--MedicalNet":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":89,"env_os":90,"env_gpu":91,"env_ram":90,"env_deps":92,"category_tags":97,"github_topics":77,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":99,"updated_at":100,"faqs":101,"releases":142},8344,"Tencent\u002FMedicalNet","MedicalNet","Many studies have shown that the performance on deep learning is significantly affected by volume of training data. The MedicalNet project provides a series of 3D-ResNet pre-trained models and relative code.","MedicalNet 是一个专为三维医学影像分析打造的开源深度学习项目，基于 PyTorch 实现了 Med3D 迁移学习框架。在医疗 AI 领域，高质量标注数据往往稀缺且获取成本高，这严重限制了深度模型的训练效果。MedicalNet 通过整合多种模态、不同靶器官及病理类型的 23 个公开数据集，构建了一个大规模预训练库，提供了一系列针对不同深度的 3D-ResNet 预训练模型及配套代码。\n\n该项目核心解决了小样本场景下模型难以收敛或泛化能力弱的问题。实验数据显示，相较于从零开始训练，使用 MedicalNet 的预训练权重进行迁移学习，能将肺部分割任务的准确率（Dice 系数）从约 70% 显著提升至 96% 以上，极大降低了新任务的数据门槛和计算成本。\n\nMedicalNet 非常适合医学影像研究人员、AI 开发者以及生物医学工程领域的学生使用。无论是从事肿瘤检测、器官分割还是病灶分类的研究，用户都可以直接调用其预训练模型作为强大的特征提取器，快速搭建并优化自己的诊断算法。其技术亮点在于跨模态、跨病种的广泛预训练策略，使得模型具备极强的通用性和迁移能力，同时项目提供了完整的数据","MedicalNet 是一个专为三维医学影像分析打造的开源深度学习项目，基于 PyTorch 实现了 Med3D 迁移学习框架。在医疗 AI 领域，高质量标注数据往往稀缺且获取成本高，这严重限制了深度模型的训练效果。MedicalNet 通过整合多种模态、不同靶器官及病理类型的 23 个公开数据集，构建了一个大规模预训练库，提供了一系列针对不同深度的 3D-ResNet 预训练模型及配套代码。\n\n该项目核心解决了小样本场景下模型难以收敛或泛化能力弱的问题。实验数据显示，相较于从零开始训练，使用 MedicalNet 的预训练权重进行迁移学习，能将肺部分割任务的准确率（Dice 系数）从约 70% 显著提升至 96% 以上，极大降低了新任务的数据门槛和计算成本。\n\nMedicalNet 非常适合医学影像研究人员、AI 开发者以及生物医学工程领域的学生使用。无论是从事肿瘤检测、器官分割还是病灶分类的研究，用户都可以直接调用其预训练模型作为强大的特征提取器，快速搭建并优化自己的诊断算法。其技术亮点在于跨模态、跨病种的广泛预训练策略，使得模型具备极强的通用性和迁移能力，同时项目提供了完整的数据预处理、训练及测试脚本，方便用户复现结果或在自定义数据集上进行二次开发。","\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencent_MedicalNet_readme_b11d9e9a2140.png\" align=mid \u002F>\n\n\n# MedicalNet\nThis repository contains a Pytorch implementation of [Med3D: Transfer Learning for 3D Medical Image Analysis](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.00625). \nMany studies have shown that the performance on deep learning is significantly affected by volume of training data. The MedicalNet project aggregated the dataset with diverse modalities, target organs, and pathologies to to build relatively large datasets. Based on this dataset, a series of 3D-ResNet pre-trained models and corresponding transfer-learning training code are provided.\n\n### License\nMedicalNet is released under the MIT License (refer to the LICENSE file for detailso).\n\n### Citing MedicalNet\nIf you use this code or pre-trained models, please cite the following:\n```\n    @article{chen2019med3d,\n        title={Med3D: Transfer Learning for 3D Medical Image Analysis},\n        author={Chen, Sihong and Ma, Kai and Zheng, Yefeng},\n        journal={arXiv preprint arXiv:1904.00625},\n        year={2019}\n    }\n```\n### Update(2019\u002F07\u002F30)\nWe uploaded 4 pre-trained models based on more datasets (23 datasets).\n```\nModel name             : parameters settings\nresnet_10_23dataset.pth: --model resnet --model_depth 10 --resnet_shortcut B\nresnet_18_23dataset.pth: --model resnet --model_depth 18 --resnet_shortcut A\nresnet_34_23dataset.pth: --model resnet --model_depth 34 --resnet_shortcut A\nresnet_50_23dataset.pth: --model resnet --model_depth 50 --resnet_shortcut B\n```\nWe transferred the above pre-trained models to the multi-class segmentation task (left lung, right lung and background) on Visceral dataset. The results are as follows:\n\u003Ctable class=\"dataintable\">\n\u003Ctr>\n   \u003Cth>Network\u003C\u002Fth>\n   \u003Cth>Pretrain\u003C\u002Fth>\n   \u003Cth>LungSeg(Dice)\u003C\u002Fth>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet10\u003C\u002Ftd>\n   \u003Ctd>Train from scratch\u003C\u002Ftd>\n   \u003Ctd>69.31%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>96.56%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet18\u003C\u002Ftd>\n   \u003Ctd>Train from scratch\u003C\u002Ftd>\n   \u003Ctd>70.89%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>94.68%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet34\u003C\u002Ftd>\n   \u003Ctd>Train from scratch\u003C\u002Ftd>\n   \u003Ctd>75.25%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>94.14%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet50\u003C\u002Ftd>\n   \u003Ctd>Train from scratch\u003C\u002Ftd>\n   \u003Ctd>52.94%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>89.25%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\n### Contents\n1. [Requirements](#Requirements)\n2. [Installation](#Installation)\n3. [Demo](#Demo)\n4. [Experiments](#Experiments)\n5. [TODO](#TODO)\n6. [Acknowledgement](#Acknowledgement)\n\n### Requirements\n- Python 3.7.0\n- PyTorch-0.4.1\n- CUDA Version 9.0\n- CUDNN 7.0.5\n\n### Installation\n- Install Python 3.7.0\n- pip install -r requirements.txt\n\n\n### Demo\n- Structure of data directories\n```\nMedicalNet is used to transfer the pre-trained model to other datasets (here the MRBrainS18 dataset is used as an example).\nMedicalNet\u002F\n    |--datasets\u002F：Data preprocessing module\n    |   |--brains18.py：MRBrainS18 data preprocessing script\n    |\t|--models\u002F：Model construction module\n    |   |--resnet.py：3D-ResNet network build script\n    |--utils\u002F：tools\n    |   |--logger.py：Logging script\n    |--toy_data\u002F：For CI test\n    |--data\u002F：Data storage module\n    |   |--MRBrainS18\u002F：MRBrainS18 dataset\n    |\t|   |--images\u002F：source image named with patient ID\n    |\t|   |--labels\u002F：mask named with patient ID\n    |   |--train.txt: training data lists\n    |   |--val.txt: validation data lists\n    |--pretrain\u002F：Pre-trained models storage module\n    |--model.py: Network processing script\n    |--setting.py: Parameter setting script\n    |--train.py: MRBrainS18 training demo script\n    |--test.py: MRBrainS18 testing demo script\n    |--requirement.txt: Dependent library list\n    |--README.md\n```\n\n- Network structure parameter settings\n```\nModel name   : parameters settings\nresnet_10.pth: --model resnet --model_depth 10 --resnet_shortcut B\nresnet_18.pth: --model resnet --model_depth 18 --resnet_shortcut A\nresnet_34.pth: --model resnet --model_depth 34 --resnet_shortcut A\nresnet_50.pth: --model resnet --model_depth 50 --resnet_shortcut B\nresnet_101.pth: --model resnet --model_depth 101 --resnet_shortcut B\nresnet_152.pth: --model resnet --model_depth 152 --resnet_shortcut B\nresnet_200.pth: --model resnet --model_depth 200 --resnet_shortcut B\n```\n\n- After successfully completing basic installation, you'll be ready to run the demo.\n1. Clone the MedicalNet repository\n```\ngit clone https:\u002F\u002Fgithub.com\u002FTencent\u002FMedicalNet\n```\n2. Download data & pre-trained models ([Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F13tnSvXY7oDIEloNFiGTsjUIYfS3g3BfG\u002Fview?usp=sharing) or [Tencent Weiyun](https:\u002F\u002Fshare.weiyun.com\u002F55sZyIx))\n\n    Unzip and move files\n```\nmv MedicalNet_pytorch_files.zip MedicalNet\u002F.\ncd MedicalNet\nunzip MedicalNet_pytorch_files.zip\n```\n3. Run the training code (e.g. 3D-ResNet-50)\n```\npython train.py --gpu_id 0 1    # multi-gpu training on gpu 0,1\nor\npython train.py --gpu_id 0    # single-gpu training on gpu 0\n```\n4. Run the testing code (e.g. 3D-ResNet-50)\n```\npython test.py --gpu_id 0 --resume_path trails\u002Fmodels\u002Fresnet_50_epoch_110_batch_0.pth.tar --img_list data\u002Fval.txt\n```\n\n### Experiments\n- Computational Cost \n```\nGPU：NVIDIA Tesla P40\n```\n\u003Ctable class=\"dataintable\">\n\u003Ctr>\n   \u003Cth class=\"dataintable\">Network\u003C\u002Fth>\n   \u003Cth>Paramerers (M)\u003C\u002Fth>\n   \u003Cth>Running time (s)\u003C\u002Fth>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd>3D-ResNet10\u003C\u002Ftd>\n   \u003Ctd>14.36\u003C\u002Ftd>\n   \u003Ctd>0.18\u003C\u002Ftd>\n\u003C\u002Ftr class=\"dataintable\">\n\u003Ctr>\n   \u003Ctd>3D-ResNet18\u003C\u002Ftd>\n   \u003Ctd>32.99\u003C\u002Ftd>\n   \u003Ctd>0.19\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd>3D-ResNet34\u003C\u002Ftd>\n   \u003Ctd>63.31\u003C\u002Ftd>\n   \u003Ctd>0.22\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd>3D-ResNet50\u003C\u002Ftd>\n   \u003Ctd>46.21\u003C\u002Ftd>\n   \u003Ctd>0.21\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd>3D-ResNet101\u003C\u002Ftd>\n   \u003Ctd>85.31\u003C\u002Ftd>\n   \u003Ctd>0.29\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd>3D-ResNet152\u003C\u002Ftd>\n   \u003Ctd>117.51\u003C\u002Ftd>\n   \u003Ctd>0.34\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd>3D-ResNet200\u003C\u002Ftd>\n   \u003Ctd>126.74\u003C\u002Ftd>\n   \u003Ctd>0.45\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n- Performance\n```\nVisualization of the segmentation results of our approach vs. the comparison ones after the same training epochs. \nIt has demonstrated that the efficiency for training convergence and accuracy based on our MedicalNet pre-trained models.\n```\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencent_MedicalNet_readme_0c47d5d04aec.gif\" width=\"812\" hegiht=\"294\" align=mid \u002F>\n\n\n```\nResults of transfer MedicalNet pre-trained models to lung segmentation (LungSeg) and pulmonary nodule classification (NoduleCls) with Dice and accuracy evaluation metrics, respectively.\n```\n\u003Ctable class=\"dataintable\">\n\u003Ctr>\n   \u003Cth>Network\u003C\u002Fth>\n   \u003Cth>Pretrain\u003C\u002Fth>\n   \u003Cth>LungSeg(Dice)\u003C\u002Fth>\n   \u003Cth>NoduleCls(accuracy)\u003C\u002Fth>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet10\u003C\u002Ftd>\n   \u003Ctd>Train from scratch\u003C\u002Ftd>\n   \u003Ctd>71.30%\u003C\u002Ftd>\n   \u003Ctd>79.80%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>87.16%\u003C\u002Ftd>\n    \u003Ctd>86.87%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet18\u003C\u002Ftd>\n   \u003Ctd>Train from scratch\u003C\u002Ftd>\n   \u003Ctd>75.22%\u003C\u002Ftd>\n   \u003Ctd>80.80%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>87.26%\u003C\u002Ftd>\n    \u003Ctd>88.89%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet34\u003C\u002Ftd>\n   \u003Ctd>Train from scratch\u003C\u002Ftd>\n   \u003Ctd>76.82%\u003C\u002Ftd>\n   \u003Ctd>83.84%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>89.31%\u003C\u002Ftd>\n    \u003Ctd>89.90%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet50\u003C\u002Ftd>\n   \u003Ctd>Train from scratch\u003C\u002Ftd>\n   \u003Ctd>71.75%\u003C\u002Ftd>\n   \u003Ctd>84.85%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>93.31%\u003C\u002Ftd>\n    \u003Ctd>89.90%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet101\u003C\u002Ftd>\n   \u003Ctd>Train from scratch\u003C\u002Ftd>\n   \u003Ctd>72.10%\u003C\u002Ftd>\n   \u003Ctd>81.82%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>92.79%\u003C\u002Ftd>\n    \u003Ctd>90.91%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet152\u003C\u002Ftd>\n   \u003Ctd>Train from scratch\u003C\u002Ftd>\n   \u003Ctd>73.29%\u003C\u002Ftd>\n   \u003Ctd>73.74%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>92.33%\u003C\u002Ftd>\n    \u003Ctd>90.91%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet200\u003C\u002Ftd>\n   \u003Ctd>Train from scratch\u003C\u002Ftd>\n   \u003Ctd>71.29%\u003C\u002Ftd>\n   \u003Ctd>76.77%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>92.06%\u003C\u002Ftd>\n    \u003Ctd>90.91%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n- Please refer to [Med3D: Transfer Learning for 3D Medical Image Analysis](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.00625) for more details：\n\n### TODO\n- [x] 3D-ResNet series pre-trained models\n- [x] Transfer learning training code\n- [x] Training with multi-gpu\n- [ ] 3D efficient pre-trained models（e.g., 3D-MobileNet, 3D-ShuffleNet）\n- [ ] 2D medical pre-trained models\n- [x] Pre-trained MedicalNet models based on more medical dataset\n\n### Acknowledgement\nWe thank [3D-ResNets-PyTorch](https:\u002F\u002Fgithub.com\u002Fkenshohara\u002F3D-ResNets-PyTorch) and [MRBrainS18](https:\u002F\u002Fmrbrains18.isi.uu.nl\u002F) which we build MedicalNet refer to this releasing code and the dataset.\n\n### Contribution\nIf you want to contribute to MedicalNet, be sure to review the [contribution guidelines](https:\u002F\u002Fgithub.com\u002FTencent\u002FMedicalNet\u002Fblob\u002Fmaster\u002FCONTRIBUTING.md)\n","\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencent_MedicalNet_readme_b11d9e9a2140.png\" align=mid \u002F>\n\n\n# MedicalNet\n本仓库包含 [Med3D: 用于三维医学图像分析的迁移学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.00625) 的 PyTorch 实现。\n许多研究表明，深度学习模型的性能会显著受到训练数据量的影响。MedicalNet 项目整合了具有不同模态、目标器官和病理类型的多中心数据集，构建了一个相对较大的数据集。基于该数据集，我们提供了一系列预训练的 3D-ResNet 模型以及相应的迁移学习训练代码。\n\n### 许可证\nMedicalNet 根据 MIT 许可证发布（详情请参阅 LICENSE 文件）。\n\n### 引用 MedicalNet\n如果您使用了此代码或预训练模型，请引用以下文献：\n```\n    @article{chen2019med3d,\n        title={Med3D: Transfer Learning for 3D Medical Image Analysis},\n        author={Chen, Sihong and Ma, Kai and Zheng, Yefeng},\n        journal={arXiv preprint arXiv:1904.00625},\n        year={2019}\n    }\n```\n\n### 更新（2019年7月30日）\n我们上传了基于更多数据集（共23个数据集）的4个预训练模型：\n```\n模型名称             : 参数设置\nresnet_10_23dataset.pth: --model resnet --model_depth 10 --resnet_shortcut B\nresnet_18_23dataset.pth: --model resnet --model_depth 18 --resnet_shortcut A\nresnet_34_23dataset.pth: --model resnet --model_depth 34 --resnet_shortcut A\nresnet_50_23dataset.pth: --model resnet --model_depth 50 --resnet_shortcut B\n```\n我们将上述预训练模型迁移到 Visceral 数据集上的多类分割任务（左肺、右肺和背景）。结果如下：\n\u003Ctable class=\"dataintable\">\n\u003Ctr>\n   \u003Cth>网络\u003C\u002Fth>\n   \u003Cth>预训练\u003C\u002Fth>\n   \u003Cth>肺部分割(Dice)\u003C\u002Fth>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet10\u003C\u002Ftd>\n   \u003Ctd>从零开始训练\u003C\u002Ftd>\n   \u003Ctd>69.31%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>96.56%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet18\u003C\u002Ftd>\n   \u003Ctd>从零开始训练\u003C\u002Ftd>\n   \u003Ctd>70.89%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>94.68%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet34\u003C\u002Ftd>\n   \u003Ctd>从零开始训练\u003C\u002Ftd>\n   \u003Ctd>75.25%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>94.14%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet50\u003C\u002Ftd>\n   \u003Ctd>从零开始训练\u003C\u002Ftd>\n   \u003Ctd>52.94%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>89.25%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\n### 目录\n1. [要求](#Requirements)\n2. [安装](#Installation)\n3. [演示](#Demo)\n4. [实验](#Experiments)\n5. [待办事项](#TODO)\n6. [致谢](#Acknowledgement)\n\n### 要求\n- Python 3.7.0\n- PyTorch 0.4.1\n- CUDA 9.0 版本\n- CUDNN 7.0.5\n\n### 安装\n- 安装 Python 3.7.0\n- 使用 pip 安装依赖库：`pip install -r requirements.txt`\n\n\n### 演示\n- 数据目录结构\n```\nMedicalNet 用于将预训练模型迁移到其他数据集（此处以 MRBrainS18 数据集为例）。\nMedicalNet\u002F\n    |--datasets\u002F：数据预处理模块\n    |   |--brains18.py：MRBrainS18 数据预处理脚本\n    |\t|--models\u002F：模型构建模块\n    |   |--resnet.py：3D-ResNet 网络构建脚本\n    |--utils\u002F：工具模块\n    |   |--logger.py：日志记录脚本\n    |--toy_data\u002F：用于 CI 测试\n    |--data\u002F：数据存储模块\n    |   |--MRBrainS18\u002F：MRBrainS18 数据集\n    |\t|   |--images\u002F：以患者 ID 命名的原始图像\n    |\t|   |--labels\u002F：以患者 ID 命名的标签掩码\n    |   |--train.txt：训练数据列表\n    |   |--val.txt：验证数据列表\n    |--pretrain\u002F：预训练模型存储模块\n    |--model.py：网络处理脚本\n    |--setting.py：参数设置脚本\n    |--train.py：MRBrainS18 训练演示脚本\n    |--test.py：MRBrainS18 测试演示脚本\n    |--requirement.txt：依赖库列表\n    |--README.md\n```\n\n- 网络结构与参数设置\n```\n模型名称   : 参数设置\nresnet_10.pth: --model resnet --model_depth 10 --resnet_shortcut B\nresnet_18.pth: --model resnet --model_depth 18 --resnet_shortcut A\nresnet_34.pth: --model resnet --model_depth 34 --resnet_shortcut A\nresnet_50.pth: --model resnet --model_depth 50 --resnet_shortcut B\nresnet_101.pth: --model resnet --model_depth 101 --resnet_shortcut B\nresnet_152.pth: --model resnet --model_depth 152 --resnet_shortcut B\nresnet_200.pth: --model resnet --model_depth 200 --resnet_shortcut B\n```\n\n- 成功完成基础安装后，即可运行演示。\n1. 克隆 MedicalNet 仓库\n```\ngit clone https:\u002F\u002Fgithub.com\u002FTencent\u002FMedicalNet\n```\n2. 下载数据及预训练模型（[Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F13tnSvXY7oDIEloNFiGTsjUIYfS3g3BfG\u002Fview?usp=sharing) 或 [腾讯微云](https:\u002F\u002Fshare.weiyun.com\u002F55sZyIx))。\n\n    解压并移动文件\n```\nmv MedicalNet_pytorch_files.zip MedicalNet\u002F.\ncd MedicalNet\nunzip MedicalNet_pytorch_files.zip\n```\n3. 运行训练代码（例如 3D-ResNet-50）\n```\npython train.py --gpu_id 0 1    # 在 GPU 0 和 1 上进行多 GPU 训练\n或\npython train.py --gpu_id 0    # 在 GPU 0 上进行单 GPU 训练\n```\n4. 运行测试代码（例如 3D-ResNet-50）\n```\npython test.py --gpu_id 0 --resume_path trails\u002Fmodels\u002Fresnet_50_epoch_110_batch_0.pth.tar --img_list data\u002Fval.txt\n```\n\n### 实验\n- 计算成本\n```\nGPU：NVIDIA Tesla P40\n```\n\u003Ctable class=\"dataintable\">\n\u003Ctr>\n   \u003Cth class=\"dataintable\">网络\u003C\u002Fth>\n   \u003Cth>参数量（M）\u003C\u002Fth>\n   \u003Cth>运行时间（s）\u003C\u002Fth>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd>3D-ResNet10\u003C\u002Ftd>\n   \u003Ctd>14.36\u003C\u002Ftd>\n   \u003Ctd>0.18\u003C\u002Ftd>\n\u003C\u002Ftr class=\"dataintable\">\n\u003Ctr>\n   \u003Ctd>3D-ResNet18\u003C\u002Ftd>\n   \u003Ctd>32.99\u003C\u002Ftd>\n   \u003Ctd>0.19\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd>3D-ResNet34\u003C\u002Ftd>\n   \u003Ctd>63.31\u003C\u002Ftd>\n   \u003Ctd>0.22\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd>3D-ResNet50\u003C\u002Ftd>\n   \u003Ctd>46.21\u003C\u002Ftd>\n   \u003Ctd>0.21\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd>3D-ResNet101\u003C\u002Ftd>\n   \u003Ctd>85.31\u003C\u002Ftd>\n   \u003Ctd>0.29\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd>3D-ResNet152\u003C\u002Ftd>\n   \u003Ctd>117.51\u003C\u002Ftd>\n   \u003Ctd>0.34\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd>3D-ResNet200\u003C\u002Ftd>\n   \u003Ctd>126.74\u003C\u002Ftd>\n   \u003Ctd>0.45\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n- 性能\n```\n我们方法与对比方法在相同训练轮次后的分割结果可视化。\n这表明基于我们的MedicalNet预训练模型，在训练收敛效率和精度方面具有优势。\n```\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencent_MedicalNet_readme_0c47d5d04aec.gif\" width=\"812\" hegiht=\"294\" align=mid \u002F>\n\n\n```\n将MedicalNet预训练模型迁移应用于肺部分割（LungSeg）和肺结节分类（NoduleCls），分别采用Dice系数和准确率作为评估指标的结果。\n```\n\u003Ctable class=\"dataintable\">\n\u003Ctr>\n   \u003Cth>网络\u003C\u002Fth>\n   \u003Cth>预训练方式\u003C\u002Fth>\n   \u003Cth>LungSeg（Dice）\u003C\u002Fth>\n   \u003Cth>NoduleCls（准确率）\u003C\u002Fth>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet10\u003C\u002Ftd>\n   \u003Ctd>从零开始训练\u003C\u002Ftd>\n   \u003Ctd>71.30%\u003C\u002Ftd>\n   \u003Ctd>79.80%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>87.16%\u003C\u002Ftd>\n    \u003Ctd>86.87%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet18\u003C\u002Ftd>\n   \u003Ctd>从零开始训练\u003C\u002Ftd>\n   \u003Ctd>75.22%\u003C\u002Ftd>\n   \u003Ctd>80.80%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>87.26%\u003C\u002Ftd>\n    \u003Ctd>88.89%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet34\u003C\u002Ftd>\n   \u003Ctd>从零开始训练\u003C\u002Ftd>\n   \u003Ctd>76.82%\u003C\u002Ftd>\n   \u003Ctd>83.84%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>89.31%\u003C\u002Ftd>\n    \u003Ctd>89.90%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet50\u003C\u002Ftd>\n   \u003Ctd>从零开始训练\u003C\u002Ftd>\n   \u003Ctd>71.75%\u003C\u002Ftd>\n   \u003Ctd>84.85%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>93.31%\u003C\u002Ftd>\n    \u003Ctd>89.90%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet101\u003C\u002Ftd>\n   \u003Ctd>从零开始训练\u003C\u002Ftd>\n   \u003Ctd>72.10%\u003C\u002Ftd>\n   \u003Ctd>81.82%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>92.79%\u003C\u002Ftd>\n    \u003Ctd>90.91%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet152\u003C\u002Ftd>\n   \u003Ctd>从零开始训练\u003C\u002Ftd>\n   \u003Ctd>73.29%\u003C\u002Ftd>\n   \u003Ctd>73.74%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>92.33%\u003C\u002Ftd>\n    \u003Ctd>90.91%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n   \u003Ctd rowspan=\"2\">3D-ResNet200\u003C\u002Ftd>\n   \u003Ctd>从零开始训练\u003C\u002Ftd>\n   \u003Ctd>71.29%\u003C\u002Ftd>\n   \u003Ctd>76.77%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n    \u003Ctd>MedicalNet\u003C\u002Ftd>\n    \u003Ctd>92.06%\u003C\u002Ftd>\n    \u003Ctd>90.91%\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n- 更多详情请参阅[Med3D：面向三维医学图像分析的迁移学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.00625)：\n\n### 待办事项\n- [x] 3D-ResNet系列预训练模型\n- [x] 迁移学习训练代码\n- [x] 多GPU训练\n- [ ] 3D高效预训练模型（例如，3D-MobileNet、3D-ShuffleNet）\n- [ ] 2D医学预训练模型\n- [x] 基于更多医学数据集的预训练MedicalNet模型\n\n### 致谢\n我们感谢[3D-ResNets-PyTorch](https:\u002F\u002Fgithub.com\u002Fkenshohara\u002F3D-ResNets-PyTorch)和[MRBrainS18](https:\u002F\u002Fmrbrains18.isi.uu.nl\u002F)，MedicalNet的构建参考了他们的开源代码和数据集。\n\n### 贡献\n如果您希望为MedicalNet做出贡献，请务必查阅[贡献指南](https:\u002F\u002Fgithub.com\u002FTencent\u002FMedicalNet\u002Fblob\u002Fmaster\u002FCONTRIBUTING.md)。","# MedicalNet 快速上手指南\n\nMedicalNet 是一个基于 PyTorch 的 3D 医学图像分析迁移学习项目，提供了在多种模态、器官和病理数据上预训练的 3D-ResNet 模型，旨在解决医学影像领域训练数据不足的问题。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐)\n*   **Python**: 3.7.0\n*   **PyTorch**: 0.4.1\n*   **CUDA**: 9.0\n*   **cuDNN**: 7.0.5\n\n> **注意**：由于项目依赖较旧版本的 PyTorch 和 CUDA，建议创建独立的虚拟环境以避免版本冲突。\n\n## 安装步骤\n\n### 1. 克隆项目代码\n使用 git 克隆 MedicalNet 仓库：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FTencent\u002FMedicalNet\ncd MedicalNet\n```\n\n### 2. 安装依赖库\n安装项目所需的 Python 依赖包：\n```bash\npip install -r requirements.txt\n```\n*(注：若国内下载缓慢，可添加 `-i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple` 使用清华镜像源)*\n\n### 3. 下载数据与预训练模型\n项目提供了 Google Drive 和 **腾讯微云** 下载链接，国内用户推荐使用腾讯微云加速下载。\n\n*   **下载地址**: [腾讯微云](https:\u002F\u002Fshare.weiyun.com\u002F55sZyIx)\n*   **文件处理**: 下载 `MedicalNet_pytorch_files.zip` 后，将其移动到项目根目录并解压：\n\n```bash\nmv MedicalNet_pytorch_files.zip MedicalNet\u002F.\ncd MedicalNet\nunzip MedicalNet_pytorch_files.zip\n```\n\n解压后的目录结构将包含数据集示例 (`data\u002FMRBrainS18`)、预训练模型 (`pretrain`) 及脚本文件。\n\n## 基本使用\n\n本项目以 MRBrainS18 数据集为例，演示如何加载预训练模型进行训练和测试。\n\n### 1. 开始训练\n使用预训练的 3D-ResNet-50 模型进行训练。\n\n**单卡训练：**\n```bash\npython train.py --gpu_id 0\n```\n\n**多卡训练（例如使用 GPU 0 和 1）：**\n```bash\npython train.py --gpu_id 0 1\n```\n\n### 2. 模型测试\n训练完成后，使用保存的检查点进行测试评估：\n\n```bash\npython test.py --gpu_id 0 --resume_path trails\u002Fmodels\u002Fresnet_50_epoch_110_batch_0.pth.tar --img_list data\u002Fval.txt\n```\n\n### 3. 更换模型架构\nMedicalNet 提供了多种深度的 ResNet 预训练权重（10, 18, 34, 50, 101, 152, 200）。在使用不同模型时，需在运行脚本时通过参数指定对应的网络结构。\n\n例如，使用 **ResNet-18** 的参数配置如下：\n```bash\n--model resnet --model_depth 18 --resnet_shortcut A\n```\n\n常用模型参数对照表：\n| 模型名称 | 参数设置命令片段 |\n| :--- | :--- |\n| resnet_10 | `--model resnet --model_depth 10 --resnet_shortcut B` |\n| resnet_18 | `--model resnet --model_depth 18 --resnet_shortcut A` |\n| resnet_34 | `--model resnet --model_depth 34 --resnet_shortcut A` |\n| resnet_50 | `--model resnet --model_depth 50 --resnet_shortcut B` |\n\n更多详细实验数据和原理说明，请参考原论文 [Med3D: Transfer Learning for 3D Medical Image Analysis](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.00625)。","某三甲医院影像科 AI 团队正致力于开发一套自动分割肺部 CT 影像中左右肺叶的辅助诊断系统，但面临标注数据稀缺的挑战。\n\n### 没有 MedicalNet 时\n- **训练效果极差**：由于缺乏大规模 3D 医疗预训练权重，团队只能从零开始训练 3D-ResNet 模型，在少量数据下肺部分割的 Dice 系数仅为 52%~70%，完全无法达到临床可用标准。\n- **数据依赖过重**：为了提升精度，不得不耗费数月时间收集并人工标注成千上万例多模态 CT 数据，人力与时间成本高昂。\n- **模型收敛困难**：3D 医学图像参数量巨大，小样本导致模型极易过拟合或陷入局部最优，即使调整超参数也难以稳定收敛。\n- **研发周期漫长**：反复试错训练过程占用了大量算力资源，导致项目交付日期一再推迟，难以满足紧急的临床需求。\n\n### 使用 MedicalNet 后\n- **精度显著跃升**：直接加载 MedicalNet 提供的基于 23 个数据集预训练的 3D-ResNet 权重进行迁移学习，肺部分割 Dice 系数瞬间提升至 89%~96%，立即达到临床部署门槛。\n- **打破数据瓶颈**：利用其聚合的多模态、多器官病理特征作为初始化参数，仅需少量本地标注数据即可微调出高性能模型，大幅降低了对数据规模的依赖。\n- **训练高效稳定**：预训练模型已具备强大的 3D 空间特征提取能力，微调过程收敛速度快且稳定，有效避免了小样本下的过拟合问题。\n- **加速落地应用**：省去了漫长的从头训练过程，团队将原本数月的研发周期压缩至数周，快速实现了原型系统的上线验证。\n\nMedicalNet 通过提供高质量的 3D 医学预训练模型，成功解决了医疗 AI 领域“数据少、训练难”的核心痛点，让高精度影像分析不再是大型机构的专利。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencent_MedicalNet_b11d9e9a.png","Tencent","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FTencent_f7e55588.png","",null,"https:\u002F\u002Fopensource.tencent.com","https:\u002F\u002Fgithub.com\u002FTencent",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,2204,458,"2026-04-15T14:42:57","NOASSERTION",4,"未说明","需要 NVIDIA GPU，实验环境使用 NVIDIA Tesla P40，需安装 CUDA 9.0 和 CUDNN 7.0.5",{"notes":93,"python":94,"dependencies":95},"该项目基于较旧的深度学习框架（PyTorch 0.4.1, CUDA 9.0），在现代环境中运行可能需要降级配置或进行代码适配。支持多 GPU 训练。预训练模型和数据集需单独下载（提供 Google Drive 和腾讯微云链接）。主要应用于 3D 医学图像分析的迁移学习。","3.7.0",[96],"PyTorch==0.4.1",[15,98],"其他","2026-03-27T02:49:30.150509","2026-04-17T10:19:44.651970",[102,107,112,117,122,127,132,137],{"id":103,"question_zh":104,"answer_zh":105,"source_url":106},37336,"如何下载预训练模型和数据集？","可以通过以下链接下载数据和预训练模型：\n1. Google Drive: https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1N8U1EImXmXwt0fL6PsULU3oYTBzC45jm\u002Fview?usp=sharing\n2. 腾讯微云（国内用户推荐）：https:\u002F\u002Fshare.weiyun.com\u002F55sZyIx\n这些链接也可以在项目 README 的\"Demo\"部分第二步中找到。","https:\u002F\u002Fgithub.com\u002FTencent\u002FMedicalNet\u002Fissues\u002F7",{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},37337,"如何使用该模型进行分类任务而不是分割任务？","虽然预训练模型是为分割任务设计的，但可以用于分类任务。目前官方尚未直接提供修改后的分类代码，社区用户正在请求共享相关代码。建议参考标准的 3D CNN 分类架构，移除分割头（decoder 部分），并在预训练权重基础上添加全局平均池化和全连接层进行微调。如有需要，可联系社区成员获取非官方的代码实现。","https:\u002F\u002Fgithub.com\u002FTencent\u002FMedicalNet\u002Fissues\u002F37",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},37338,"如何可视化分割结果？","可以将预测的掩码（mask）保存为 NIfTI (.nii) 格式，然后使用 ITK-SNAP 软件进行可视化。示例代码如下：\nimport nibabel\nimport numpy as np\nvis_data = nibabel.Nifti1Image(np.array(mask).astype(np.float32), np.eye(4))\nnibabel.save(vis_data, \"mask_vis.nii.gz\")\n\n如果需要将预测结果与原始数据对齐，建议从原始数据中获取 affine 矩阵替换 np.eye(4)：\ndata = nib.load(os.path.join(sets.data_root, img_names[batch_id]))\ntarget_affine = data.affine\nvis_data = nibabel.Nifti1Image(np.array(mask).astype(np.float32), target_affine)","https:\u002F\u002Fgithub.com\u002FTencent\u002FMedicalNet\u002Fissues\u002F6",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},37339,"在自定义数据上训练时 Mean Dice 为 0 怎么办？","如果在自定义数据上训练后 Mean Dice 为 0，即使损失接近 0，可以尝试以下建议：\n1. 如果自定义数据量较小，建议在训练时使用预训练模型中的 BatchNorm 参数。\n2. 如果是不平衡分割任务（目标区域很小），建议使用基于补丁（patch-based）的分割方法。\n3. 尝试使用较浅的神经网络或增加跳跃连接（skip-connection）以改善梯度流动。","https:\u002F\u002Fgithub.com\u002FTencent\u002FMedicalNet\u002Fissues\u002F2",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},37340,"项目中使用的动态 GIF 图像和 3D 体素数据可视化工具是什么？","1. 生成动态 GIF 图像使用的是 ScreenToGif 软件。\n2. 查看和渲染 3D 体素数据（如 NIfTI 格式）推荐使用 ITK-SNAP 软件。","https:\u002F\u002Fgithub.com\u002FTencent\u002FMedicalNet\u002Fissues\u002F5",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},37341,"train.py 中的 '--test_ci' 参数是什么意思？","'--test_ci' 参数仅用于在提交 Pull Request 时进行在线检查（CI 测试）。在常规训练或测试时，可以将其设置为 False。","https:\u002F\u002Fgithub.com\u002FTencent\u002FMedicalNet\u002Fissues\u002F22",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},37342,"代码中加载模型时报错找不到 'net_state_dict' 键怎么办？","这是一个已知的代码不一致问题。保存模型时使用的键是 'state_dict'，但加载代码中错误地使用了 'net_state_dict'。此外，优化器状态保存时拼写为 'optimeizer'，加载时应注意对应。\n解决方法是修改加载代码，确保键名一致：\ncheckpoint = torch.load(model_save_path)\nmodel.load_state_dict(checkpoint['state_dict']) # 改为 'state_dict'\noptimizer.load_state_dict(checkpoint['optimeizer']) # 注意拼写错误或修正保存时的键","https:\u002F\u002Fgithub.com\u002FTencent\u002FMedicalNet\u002Fissues\u002F9",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},37343,"运行 flake8 检查时报错 'assertion is always true' 是什么原因？","这是因为 assert 语句中的括号使用不当，导致断言逻辑始终为真。在 Python 中，assert (A, B) 实际上是在断言元组 (A, B) 是否为真（非空元组恒为真），而不是断言 A 是否等于 B。\n错误写法：\nassert(img_array.shape == mask_array.shape, \"error message\")\n正确写法（去掉括号或调整结构）：\nassert img_array.shape == mask_array.shape, \"img shape:{} is not equal to mask shape:{}\".format(img_array.shape, mask_array.shape)","https:\u002F\u002Fgithub.com\u002FTencent\u002FMedicalNet\u002Fissues\u002F8",[]]