[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-junyuchen245--TransMorph_Transformer_for_Medical_Image_Registration":3,"tool-junyuchen245--TransMorph_Transformer_for_Medical_Image_Registration":61},[4,18,28,36,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":24,"last_commit_at":42,"category_tags":43,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,44],"语言模型",{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":24,"last_commit_at":59,"category_tags":60,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[27,13,15,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":96,"forks":97,"last_commit_at":98,"license":99,"difficulty_score":10,"env_os":100,"env_gpu":101,"env_ram":100,"env_deps":102,"category_tags":107,"github_topics":108,"view_count":24,"oss_zip_url":117,"oss_zip_packed_at":117,"status":17,"created_at":118,"updated_at":119,"faqs":120,"releases":150},9875,"junyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration","TransMorph_Transformer_for_Medical_Image_Registration","TransMorph: Transformer for Unsupervised Medical Image Registration (PyTorch)","TransMorph 是一款基于 PyTorch 开发的开源工具，专为医学图像的无监督配准任务设计。在医学影像分析中，将不同时间、设备或患者拍摄的图像进行精准对齐（即配准）是诊断与研究的关键步骤，而传统方法往往依赖复杂的参数调整或难以捕捉长距离的空间依赖关系。TransMorph 通过引入先进的 Vision Transformer 和 Swin Transformer 架构，有效解决了这一难题，能够自动学习图像间的复杂形变，实现高精度的自动对齐。\n\n该工具特别适合医学影像领域的研究人员、算法工程师及开发者使用，尤其是那些希望利用深度学习技术提升脑部 MRI 等影像处理效率的专业人士。其核心技术亮点在于采用了混合架构，巧妙结合了 Transformer 的全局感知能力与卷积神经网络（CNN）的局部特征提取优势。此外，TransMorph 提供了多种变体以满足不同需求：包括确保拓扑结构不变的微分同胚版本、基于 B 样条的平滑版本，以及能输出配准不确定性估计的贝叶斯版本。作为曾在 MICCAI 挑战赛中斩获榜首的模型，它不仅支持单模态和多模态配准，还提供了预训练模型和 Docker 部署方","TransMorph 是一款基于 PyTorch 开发的开源工具，专为医学图像的无监督配准任务设计。在医学影像分析中，将不同时间、设备或患者拍摄的图像进行精准对齐（即配准）是诊断与研究的关键步骤，而传统方法往往依赖复杂的参数调整或难以捕捉长距离的空间依赖关系。TransMorph 通过引入先进的 Vision Transformer 和 Swin Transformer 架构，有效解决了这一难题，能够自动学习图像间的复杂形变，实现高精度的自动对齐。\n\n该工具特别适合医学影像领域的研究人员、算法工程师及开发者使用，尤其是那些希望利用深度学习技术提升脑部 MRI 等影像处理效率的专业人士。其核心技术亮点在于采用了混合架构，巧妙结合了 Transformer 的全局感知能力与卷积神经网络（CNN）的局部特征提取优势。此外，TransMorph 提供了多种变体以满足不同需求：包括确保拓扑结构不变的微分同胚版本、基于 B 样条的平滑版本，以及能输出配准不确定性估计的贝叶斯版本。作为曾在 MICCAI 挑战赛中斩获榜首的模型，它不仅支持单模态和多模态配准，还提供了预训练模型和 Docker 部署方案，帮助用户快速复现前沿研究成果并应用于实际项目。","# TransMorph: Transformer for Unsupervised Medical Image Registration\n\u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-yellow.svg\">\u003C\u002Fa> [![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2111.10480-b31b1b.svg)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.10480)\n\nkeywords: Vision Transformer, Swin Transformer, convolutional neural networks, image registration\n\nThis is a **PyTorch** implementation of my paper:\n\n\u003Ca href=\"https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS1361841522002432\">Chen, Junyu, et al. \"TransMorph: Transformer for Unsupervised Medical Image Registration. \" Medical Image Analysis, p. 102615, 2022.\u003C\u002Fa>\n\n**Here's the [errata](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002Fmain\u002Ferrata.md) (fixing several typos in paper).**\n\n## New features and updates \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyuchen245_TransMorph_Transformer_for_Medical_Image_Registration_readme_b27697ac3f37.gif\" width=\"30\">\n05\u002F22\u002F2025 - **We developed a lightweight registration package featuring several top-performing models, along with tutorials on how to deploy them on some public datasets and benchmarks. See details [here](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FMIR)**\\\n09\u002F12\u002F2024 - **We built a Docker image for brain MRI registration with TransMorph. See details [here](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Ftree\u002Fmain\u002FDocker)!** \\\n09\u002F03\u002F2022 - **TransMorph paper has been accepted for publication in Medical Image Analysis! Some changes will follow, according to reviewers' comments.** \\\n03\u002F24\u002F2022 - **TransMorph is currently ranked 1st place on the TEST set of task03 (brain MR) @ [MICCAI 2021 L2R challenge](https:\u002F\u002Flearn2reg.grand-challenge.org\u002Fevaluation\u002Ftask-3-validation\u002Fleaderboard\u002F) (results obtained from the Learn2Reg challenge organizers).  The training scripts, dataset, and the pretrained models are available here: [TransMorph on OASIS](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002Fmain\u002FOASIS\u002FTransMorph_on_OASIS.md)**\\\n02\u002F03\u002F2022 - **TransMorph is currently ranked 1st place on the VALIDATION set of task03 (brain MR) @ [MICCAI 2021 L2R challenge](https:\u002F\u002Flearn2reg.grand-challenge.org\u002Fevaluation\u002Ftask-3-validation\u002Fleaderboard\u002F).**\\\n12\u002F29\u002F2021 - **Our preprocessed IXI dataset and the pre-trained models are now publicly available! Check out this page for more information: [TransMorph on IXI](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002Fmain\u002FIXI\u002FTransMorph_on_IXI.md)**\n\n## TransMorph DIR Variants:\nThere are **four** TransMorph variants: *TransMorph*, *TransMorph-diff*, *TransMorph-bspl*, and *TransMorph-Bayes*. \\\nTraining and inference scripts are in `TransMorph\u002F`, and the models are contained in `TransMorph\u002Fmodel\u002F`.\n1. ***TransMorph:*** A hybrid Transformer-ConvNet network for image registration.\n2. ***TransMorph-diff:*** A probabilistic TransMorph that ensures a diffeomorphism.\n3. ***TransMorph-bspl:*** A B-spline TransMorph that ensures a diffeomorphism.\n4. ***TransMorph-Bayes:*** A Bayesian uncerntainty TransMorph that produces registration uncertainty estimate.\n\n## TransMorph Affine Model:\nThe scripts for ***TransMorph affine*** model are in `TransMorph_affine\u002F` folder.\n\n**11\u002F17\u002F2023** - We provided a toy example for training TransMorph-affine using a subset of IXI dataset [here](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002Fmain\u002FTransMorph_affine\u002Ftrain_TransMorph_affine.py).\n\n`train_xxx.py` and `infer_xxx.py` are the training and inference scripts for TransMorph models.\n\n\n## Loss Functions:\nTransMorph supports both **mono-** and **multi-modal** registration. We provided the following loss functions for **image similarity** measurements (the links will take you directly to the code):\n1. Mean squared error ([MSE](https:\u002F\u002Fpytorch.org\u002Fdocs\u002Fstable\u002Fgenerated\u002Ftorch.nn.MSELoss.html))\n2. Normalized cross correlation ([NCC](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002F205b09e8852ee4e415c36613413bc0bf3990f1f1\u002FTransMorph\u002Flosses.py#L211))\n3. Structural similarity index ([SSIM](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002Ff85635578d76e6076a262cd746a37d39c363a58d\u002FTransMorph\u002Flosses.py#L103))\n4. Mutual information ([MI](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002F205b09e8852ee4e415c36613413bc0bf3990f1f1\u002FTransMorph\u002Flosses.py#L338))\n5. Local mutual information ([LMI](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002F205b09e8852ee4e415c36613413bc0bf3990f1f1\u002FTransMorph\u002Flosses.py#L396))\n6. Modality independent neighbourhood descriptor with self-similarity context ([MIND-SSC](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002F205b09e8852ee4e415c36613413bc0bf3990f1f1\u002FTransMorph\u002Flosses.py#L274))\n\nand the following **deformation regularizers**:\n1. [Diffusion](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002F205b09e8852ee4e415c36613413bc0bf3990f1f1\u002FTransMorph\u002Flosses.py#L523)\n2. [L1](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002F205b09e8852ee4e415c36613413bc0bf3990f1f1\u002FTransMorph\u002Flosses.py#L523)\n3. [Anisotropic diffusion](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002F205b09e8852ee4e415c36613413bc0bf3990f1f1\u002FTransMorph\u002Flosses.py#L550)\n4. [Bending energy](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002F205b09e8852ee4e415c36613413bc0bf3990f1f1\u002FTransMorph\u002Flosses.py#L570)\n\n## Baseline Models:\nWe compared TransMorph with **eight** baseline registration methods + **four** Transformer architectures.\\\nThe links will take you to their official repositories.\n\n***Baseline registration methods:***\\\n*Training and inference scripts are in* `Baseline_registration_models\u002F`\n1. SyN\u002FANTsPy ([Official Website](https:\u002F\u002Fgithub.com\u002FANTsX\u002FANTsPy))\n2. NiftyReg ([Official Website](http:\u002F\u002Fcmictig.cs.ucl.ac.uk\u002Fwiki\u002Findex.php\u002FNiftyReg))\n3. LDDMM ([Official Website](https:\u002F\u002Fgithub.com\u002Fbrianlee324\u002Ftorch-lddmm))\n4. deedsBCV ([Official Website](https:\u002F\u002Fgithub.com\u002Fmattiaspaul\u002FdeedsBCV))\n5. VoxelMorph-1 & -2 ([Official Website](https:\u002F\u002Fgithub.com\u002Fvoxelmorph\u002Fvoxelmorph))\n6. CycleMorph ([Official Website](https:\u002F\u002Fgithub.com\u002FboahK\u002FMEDIA_CycleMorph))\n7. MIDIR ([Official Website](https:\u002F\u002Fgithub.com\u002Fqiuhuaqi\u002Fmidir))\n\n***Baseline Transformer architectures:***\\\n*Training and inference scripts are in* `Baseline_Transformers\u002F`\n1. PVT ([Official Website](https:\u002F\u002Fgithub.com\u002Fwhai362\u002FPVT))\n2. nnFormer ([Official Website](https:\u002F\u002Fgithub.com\u002F282857341\u002FnnFormer))\n3. CoTr ([Official Website](https:\u002F\u002Fgithub.com\u002FYtongXie\u002FCoTr))\n4. ViT-V-Net ([Official Website](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FViT-V-Net_for_3D_Image_Registration_Pytorch))\n\n## JHU Brain MRI & Duke CT Dataset:\nDue to restrictions, we cannot distribute our brain MRI and CT data. However, several brain MRI datasets are publicly available online: ADNI, OASIS, ABIDE, etc. Note that those datasets may not contain labels (segmentation). To generate labels, you can use FreeSurfer, which is an open-source software for normalizing brain MRI images. Here are some useful commands in FreeSurfer: \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002Fmain\u002FPreprocessingMRI.md\">Brain MRI preprocessing and subcortical segmentation using FreeSurfer\u003C\u002Fa>.\n\n**You can find our preprocessed IXI dataset in the next section.**\n\n## Reproducible Results on IXI Dataset:\nYou can find the preprocessed IXI dataset, the pre-trained baseline and TransMorph models, and the training and inference scripts for IXI dataset here :point_right: [TransMorph on IXI](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002Fmain\u002FIXI\u002FTransMorph_on_IXI.md)\n\n\n## Reproducible Results on OASIS Dataset:\nYou can find the preprocessed OASIS dataset, the pre-trained baseline and TransMorph models, and the training and inference scripts for OASIS dataset here :point_right: [TransMorph on OASIS](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002Fmain\u002FOASIS\u002FTransMorph_on_OASIS.md)\n\n## Brain MRI Image Registration from Scratch with Docker:\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyuchen245_TransMorph_Transformer_for_Medical_Image_Registration_readme_b27697ac3f37.gif\" width=\"30\">**You can find detailed instructions on how to use TransMorph with your skull-stripped MRI images :point_right: [here](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Ftree\u002Fmain\u002FDocker).**\n\n## Citation:\nIf you find this code is useful in your research, please consider to cite:\n    \n    @article{chen2022transmorph,\n    title = {TransMorph: Transformer for unsupervised medical image registration},\n    journal = {Medical Image Analysis},\n    pages = {102615},\n    year = {2022},\n    issn = {1361-8415},\n    doi = {https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.media.2022.102615},\n    url = {https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS1361841522002432},\n    author = {Junyu Chen and Eric C. Frey and Yufan He and William P. Segars and Ye Li and Yong Du}\n    }\n    \n## TransMorph Architecture:\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyuchen245_TransMorph_Transformer_for_Medical_Image_Registration_readme_366be2d580d0.jpg\" width=\"800\"\u002F>\n\n## Example Results:\n### Qualitative comparisons:\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyuchen245_TransMorph_Transformer_for_Medical_Image_Registration_readme_7f235a690aca.jpg\" width=\"1000\"\u002F>\n\n### Uncertainty Estimate by TransMorph-Bayes:\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyuchen245_TransMorph_Transformer_for_Medical_Image_Registration_readme_e70acbd03bb8.jpg\" width=\"700\"\u002F>\n\n## Quantitative Results:\n### Inter-patient Brain MRI:\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyuchen245_TransMorph_Transformer_for_Medical_Image_Registration_readme_9aff4870e1e4.jpg\" width=\"900\"\u002F>\n\n### XCAT-to-CT:\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyuchen245_TransMorph_Transformer_for_Medical_Image_Registration_readme_5907597d890b.jpg\" width=\"900\"\u002F>\n\n## Reference:\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FSwin-Transformer\">Swin Transformer\u003C\u002Fa>\\\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Funcbiag\u002Feasyreg\">easyreg\u003C\u002Fa>\\\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fqiuhuaqi\u002Fmidir\">MIDIR\u003C\u002Fa>\\\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fvoxelmorph\u002Fvoxelmorph\">VoxelMorph\u003C\u002Fa>\n### \u003Ca href=\"https:\u002F\u002Fjunyuchen245.github.io\"> About Me\u003C\u002Fa>\n","# TransMorph：用于无监督医学图像配准的Transformer\n\u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-yellow.svg\">\u003C\u002Fa> [![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2111.10480-b31b1b.svg)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.10480)\n\n关键词：视觉Transformer、Swin Transformer、卷积神经网络、图像配准\n\n这是我的论文的**PyTorch**实现：\n\n\u003Ca href=\"https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS1361841522002432\">Chen, Junyu, 等.“TransMorph：用于无监督医学图像配准的Transformer。”《医学图像分析》，第102615页，2022年。\u003C\u002Fa>\n\n**此处为[勘误](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002Fmain\u002Ferrata.md)，更正了论文中的若干错别字。**\n\n## 新功能与更新 \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyuchen245_TransMorph_Transformer_for_Medical_Image_Registration_readme_b27697ac3f37.gif\" width=\"30\">\n2025年5月22日 - **我们开发了一个轻量级配准工具包，包含多款性能优异的模型，并提供了在一些公开数据集和基准测试上部署这些模型的教程。详情请见[这里](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FMIR)**  \n2024年9月12日 - **我们基于TransMorph构建了一个用于脑部MRI配准的Docker镜像。详情请见[这里](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Ftree\u002Fmain\u002FDocker)！**  \n2022年9月3日 - **TransMorph论文已被《医学图像分析》期刊正式接收发表！根据审稿人意见，后续还将进行一些修改。**  \n2022年3月24日 - **在[MICCAI 2021 L2R挑战赛](https:\u002F\u002Flearn2reg.grand-challenge.org\u002Fevaluation\u002Ftask-3-validation\u002Fleaderboard\u002F)的任务03（脑部MR）TEST集上，TransMorph目前排名第一（结果由Learn2Reg挑战赛主办方提供）。训练脚本、数据集以及预训练模型均可在此获取：[TransMorph on OASIS](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002Fmain\u002FOASIS\u002FTransMorph_on_OASIS.md)**  \n2022年2月3日 - **在[MICCAI 2021 L2R挑战赛](https:\u002F\u002Flearn2reg.grand-challenge.org\u002Fevaluation\u002Ftask-3-validation\u002Fleaderboard\u002F)的任务03（脑部MR）VALIDATION集上，TransMorph目前排名第一。**  \n2021年12月29日 - **我们已公开发布预处理后的IXI数据集及预训练模型！更多信息请参阅此页面：[TransMorph on IXI](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002Fmain\u002FIXI\u002FTransMorph_on_IXI.md)**\n\n## TransMorph DIR变体：\nTransMorph共有**四**种变体：*TransMorph*、*TransMorph-diff*、*TransMorph-bspl*和*TransMorph-Bayes*。  \n训练与推理脚本位于`TransMorph\u002F`目录下，模型则存放在`TransMorph\u002Fmodel\u002F`中。\n1. ***TransMorph：*** 一种用于图像配准的混合Transformer-ConvNet网络。\n2. ***TransMorph-diff：*** 一种确保微分同胚性的概率型TransMorph。\n3. ***TransMorph-bspl：*** 一种同样确保微分同胚性的B样条TransMorph。\n4. ***TransMorph-Bayes：*** 一种能够输出配准不确定性估计的贝叶斯不确定性TransMorph。\n\n## TransMorph仿射模型：\n***TransMorph affine***模型的相关脚本位于`TransMorph_affine\u002F`文件夹内。\n\n**2023年11月17日** - 我们提供了一个使用IXI数据集子集训练TransMorph-affine的示例代码，详见[这里](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002Fmain\u002FTransMorph_affine\u002Ftrain_TransMorph_affine.py)。\n\n`train_xxx.py`和`infer_xxx.py`分别是TransMorph模型的训练与推理脚本。\n\n## 损失函数：\nTransMorph同时支持**单模态**和**多模态**配准。我们提供了以下用于**图像相似性**度量的损失函数（链接可直接跳转至代码）：\n1. 均方误差（[MSE](https:\u002F\u002Fpytorch.org\u002Fdocs\u002Fstable\u002Fgenerated\u002Ftorch.nn.MSELoss.html)）\n2. 归一化互相关（[NCC](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002F205b09e8852ee4e415c36613413bc0bf3990f1f1\u002FTransMorph\u002Flosses.py#L211)）\n3. 结构相似性指数（[SSIM](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002Ff85635578d76e6076a262cd746a37d39c363a58d\u002FTransMorph\u002Flosses.py#L103)）\n4. 互信息（[MI](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002F205b09e8852ee4e415c36613413bc0bf3990f1f1\u002FTransMorph\u002Flosses.py#L338)）\n5. 局部互信息（[LMI](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002F205b09e8852ee4e415c36613413bc0bf3990f1f1\u002FTransMorph\u002Flosses.py#L396)）\n6. 具有自相似上下文的模态无关邻域描述符（[MIND-SSC](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002F205b09e8852ee4e415c36613413bc0bf3990f1f1\u002FTransMorph\u002Flosses.py#L274)）\n\n此外，还提供了以下**形变正则化项**：\n1. [扩散](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002F205b09e8852ee4e415c36613413bc0bf3990f1f1\u002FTransMorph\u002Flosses.py#L523)\n2. [L1正则化](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002F205b09e8852ee4e415c36613413bc0bf3990f1f1\u002FTransMorph\u002Flosses.py#L523)\n3. [各向异性扩散](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002F205b09e8852ee4e415c36613413bc0bf3990f1f1\u002FTransMorph\u002Flosses.py#L550)\n4. [弯曲能量](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002F205b09e8852ee4e415c36613413bc0bf3990f1f1\u002FTransMorph\u002Flosses.py#L570)\n\n## 基线模型：\n我们对比了TransMorph与**八**种基线配准方法以及**四**种Transformer架构。  \n以下链接将带您前往它们的官方仓库。\n\n***基线配准方法：***  \n*训练与推理脚本位于* `Baseline_registration_models\u002F`\n1. SyN\u002FANTsPy（[官方网站](https:\u002F\u002Fgithub.com\u002FANTsX\u002FANTsPy)）\n2. NiftyReg（[官方网站](http:\u002F\u002Fcmictig.cs.ucl.ac.uk\u002Fwiki\u002Findex.php\u002FNiftyReg)）\n3. LDDMM（[官方网站](https:\u002F\u002Fgithub.com\u002Fbrianlee324\u002Ftorch-lddmm)）\n4. deedsBCV（[官方网站](https:\u002F\u002Fgithub.com\u002Fmattiaspaul\u002FdeedsBCV)）\n5. VoxelMorph-1 & -2（[官方网站](https:\u002F\u002Fgithub.com\u002Fvoxelmorph\u002Fvoxelmorph)）\n6. CycleMorph（[官方网站](https:\u002F\u002Fgithub.com\u002FboahK\u002FMEDIA_CycleMorph)）\n7. MIDIR（[官方网站](https:\u002F\u002Fgithub.com\u002Fqiuhuaqi\u002Fmidir)）\n\n***基线Transformer架构：***  \n*训练与推理脚本位于* `Baseline_Transformers\u002F`\n1. PVT（[官方网站](https:\u002F\u002Fgithub.com\u002Fwhai362\u002FPVT)）\n2. nnFormer（[官方网站](https:\u002F\u002Fgithub.com\u002F282857341\u002FnnFormer)）\n3. CoTr（[官方网站](https:\u002F\u002Fgithub.com\u002FYtongXie\u002FCoTr)）\n4. ViT-V-Net（[官方网站](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FViT-V-Net_for_3D_Image_Registration_Pytorch)）\n\n## 约翰霍普金斯大学脑部MRI与杜克大学CT数据集：\n由于相关限制，我们无法公开分发我们的脑部MRI和CT数据。不过，目前网络上已有一些公开的脑部MRI数据集可供使用，例如ADNI、OASIS、ABIDE等。请注意，这些数据集可能不包含标签（分割信息）。若需生成标签，可以使用FreeSurfer软件，这是一款用于标准化脑部MRI图像的开源工具。以下是FreeSurfer中的一些实用命令：[使用FreeSurfer进行脑部MRI预处理及皮层下结构分割](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002Fmain\u002FPreprocessingMRI.md)。\n\n**您可以在下一节找到我们预处理过的IXI数据集。**\n\n## IXI数据集上的可复现结果：\n您可以在此处找到预处理后的IXI数据集、预训练的基础模型和TransMorph模型，以及针对IXI数据集的训练与推理脚本：→ [TransMorph在IXI数据集上的应用](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002Fmain\u002FIXI\u002FTransMorph_on_IXI.md)\n\n## OASIS数据集上的可复现结果：\n您可以在此处找到预处理后的OASIS数据集、预训练的基础模型和TransMorph模型，以及针对OASIS数据集的训练与推理脚本：→ [TransMorph在OASIS数据集上的应用](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fblob\u002Fmain\u002FOASIS\u002FTransMorph_on_OASIS.md)\n\n## 从零开始使用Docker进行脑部MRI图像配准：\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyuchen245_TransMorph_Transformer_for_Medical_Image_Registration_readme_b27697ac3f37.gif\" width=\"30\">**您可以在这里找到如何将TransMorph应用于去颅骨的MRI图像的详细说明：→ [此处](https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Ftree\u002Fmain\u002FDocker)。**\n\n## 引用：\n如果您在研究中使用了本代码并认为其有所帮助，请考虑引用以下文献：\n\n    @article{chen2022transmorph,\n    title = {TransMorph: 用于无监督医学图像配准的Transformer},\n    journal = {Medical Image Analysis},\n    pages = {102615},\n    year = {2022},\n    issn = {1361-8415},\n    doi = {https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.media.2022.102615},\n    url = {https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS1361841522002432},\n    author = {Junyu Chen、Eric C. Frey、Yufan He、William P. Segars、Ye Li、Yong Du}\n    }\n\n## TransMorph架构：\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyuchen245_TransMorph_Transformer_for_Medical_Image_Registration_readme_366be2d580d0.jpg\" width=\"800\"\u002F>\n\n## 示例结果：\n### 定性比较：\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyuchen245_TransMorph_Transformer_for_Medical_Image_Registration_readme_7f235a690aca.jpg\" width=\"1000\"\u002F>\n\n### TransMorph-Bayes的不确定性估计：\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyuchen245_TransMorph_Transformer_for_Medical_Image_Registration_readme_e70acbd03bb8.jpg\" width=\"700\"\u002F>\n\n## 定量结果：\n### 患者间脑部MRI配准：\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyuchen245_TransMorph_Transformer_for_Medical_Image_Registration_readme_9aff4870e1e4.jpg\" width=\"900\"\u002F>\n\n### XCAT到CT的配准：\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyuchen245_TransMorph_Transformer_for_Medical_Image_Registration_readme_5907597d890b.jpg\" width=\"900\"\u002F>\n\n## 参考文献：\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FSwin-Transformer\">Swin Transformer\u003C\u002Fa>  \n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Funcbiag\u002Feasyreg\">easyreg\u003C\u002Fa>  \n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fqiuhuaqi\u002Fmidir\">MIDIR\u003C\u002Fa>  \n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fvoxelmorph\u002Fvoxelmorph\">VoxelMorph\u003C\u002Fa>  \n### \u003Ca href=\"https:\u002F\u002Fjunyuchen245.github.io\">关于我\u003C\u002Fa>","# TransMorph 医学图像配准快速上手指南\n\nTransMorph 是一个基于 Transformer 的无监督医学图像配准框架，支持多种变体（如 Diff、B-spline、Bayes）及多模态配准。本指南将帮助您快速搭建环境并运行基础示例。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04+) 或 macOS。Windows 用户建议使用 WSL2 或 Docker。\n*   **Python**: 3.8 或更高版本。\n*   **GPU**: 推荐使用 NVIDIA GPU (CUDA 11.0+) 以加速训练和推理。\n*   **依赖库**:\n    *   PyTorch (1.9+)\n    *   NumPy\n    *   SciPy\n    *   SimpleITK\n    *   NiBabel\n    *   scikit-image\n\n> **国内加速建议**：安装 Python 包时，推荐使用清华或阿里镜像源以提升下载速度。\n\n## 2. 安装步骤\n\n### 2.1 克隆仓库\n首先从 GitHub 克隆项目代码：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration.git\ncd TransMorph_Transformer_for_Medical_Image_Registration\n```\n\n### 2.2 创建虚拟环境并安装依赖\n建议使用 `conda` 创建独立环境，并使用国内镜像源安装 PyTorch 和其他依赖。\n\n```bash\n# 创建 conda 环境\nconda create -n transmorph python=3.8 -y\nconda activate transmorph\n\n# 安装 PyTorch (使用清华镜像，根据实际 CUDA 版本调整，此处以 cu118 为例)\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 安装其他依赖\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n*注：如果仓库根目录下没有 `requirements.txt` 文件，请手动安装核心依赖：*\n```bash\npip install numpy scipy SimpleITK nibabel scikit-image matplotlib -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 2.3 数据准备\n由于版权限制，项目未直接提供 JHU Brain MRI 或 Duke CT 原始数据。您可以：\n1.  **使用公开数据集**：如 OASIS, ADNI, ABIDE 等。\n2.  **使用预处理好的 IXI 数据集**：作者提供了预处理后的数据和预训练模型，详见项目中的 `IXI\u002FTransMorph_on_IXI.md`。\n3.  **自行预处理**：若使用自有数据，建议使用 FreeSurfer 进行脑提取和子皮层分割（参考 `PreprocessingMRI.md`）。\n\n确保您的数据目录结构如下（以 IXI 为例）：\n```text\ndata\u002F\n├── fixed_images\u002F   # 固定图像\n└── moving_images\u002F  # 移动图像\n```\n\n## 3. 基本使用\n\nTransMorph 提供了四种主要变体，最常用的是标准版 **TransMorph**。以下展示如何加载预训练模型进行推理。\n\n### 3.1 目录结构确认\n确保脚本位于 `TransMorph\u002F` 目录下，模型文件位于 `TransMorph\u002Fmodel\u002F`。\n\n### 3.2 运行推理示例\n假设您已经有了预处理好的 NIfTI 格式图像（`.nii.gz`），可以使用 `infer_transmorph.py` (文件名可能因具体变体略有不同，通常为 `infer_xxx.py`) 进行配准。\n\n以下是一个标准的推理命令示例：\n\n```bash\npython TransMorph\u002Finfer_transmorph.py \\\n    --img_dir .\u002Fdata\u002Fmoving_images \\\n    --fixed_img .\u002Fdata\u002Ffixed_images\u002Ftarget.nii.gz \\\n    --model_path .\u002FTransMorph\u002Fmodel\u002Ftransmorph_pretrained.pth \\\n    --save_dir .\u002Fresults\n```\n\n**参数说明：**\n*   `--img_dir`: 包含待配准移动图像的文件夹路径。\n*   `--fixed_img`: 目标固定图像的路径。\n*   `--model_path`: 预训练模型权重文件路径 (.pth)。\n*   `--save_dir`: 配准结果（变形场和 warped 图像）的保存路径。\n\n### 3.3 训练自己的模型\n如果您需要使用自定义数据集进行训练，可以使用 `train_transmorph.py`。以下是最小化训练命令示例：\n\n```bash\npython TransMorph\u002Ftrain_transmorph.py \\\n    --img_dir .\u002Fdata\u002Ftraining_set \\\n    --model_dir .\u002Fsaved_models \\\n    --batch_size 2 \\\n    --epochs 100 \\\n    --loss_func MSE \\\n    --reg_type diffusion\n```\n\n**关键配置：**\n*   **损失函数 (`--loss_func`)**: 支持 `MSE`, `NCC`, `SSIM`, `MI`, `LMI`, `MIND-SSC`。\n*   **形变正则化 (`--reg_type`)**: 支持 `diffusion`, `L1`, `anisotropic_diffusion`, `bending_energy`。\n*   **变体选择**: 若要使用 `TransMorph-diff` 或 `TransMorph-Bayes`，请调用对应的训练脚本（如 `train_transmorph_diff.py`）或修改模型配置文件。\n\n### 3.4 使用 Docker (可选)\n对于希望避免环境配置问题的用户，项目提供了针对脑 MRI 配准的 Docker 镜像。\n\n```bash\n# 构建镜像\ndocker build -t transmorph .\n\n# 运行容器 (需映射数据目录)\ndocker run --gpus all -v \u002Fpath\u002Fto\u002Fyour\u002Fdata:\u002Fdata transmorph python infer_transmorph.py ...\n```\n详细 Docker 使用说明请参阅项目根目录下的 `Docker\u002F` 文件夹。","某三甲医院影像科研究员正致力于构建阿尔茨海默病早期筛查系统，需要将数千例不同患者的脑部 MRI 扫描图像进行高精度对齐，以提取统一的生物标志物特征。\n\n### 没有 TransMorph_Transformer_for_Medical_Image_Registration 时\n- **配准精度不足**：传统卷积神经网络（CNN）受限于局部感受野，难以捕捉大脑整体解剖结构的长距离依赖关系，导致海马体等关键微小区域的配准误差较大。\n- **形变场不合理**：生成的形变场容易出现折叠或非物理性扭曲，破坏了生物组织的拓扑结构，后续需花费大量时间编写额外代码进行平滑约束或人工修正。\n- **缺乏不确定性评估**：模型仅输出单一结果，无法告知医生在哪些区域配准可信度较低，影响临床诊断的严谨性。\n- **多模态支持受限**：面对 T1 加权与 T2 加权等不同成像序列的对齐任务，往往需要调整复杂的损失函数或更换模型架构，开发周期漫长。\n\n### 使用 TransMorph_Transformer_for_Medical_Image_Registration 后\n- **全局特征精准捕获**：借助 Swin Transformer 架构，TransMorph 有效建模了全脑范围的上下文信息，显著提升了细微解剖结构的对齐精度，在 MICCAI 挑战赛中曾斩获榜首。\n- **保证微分同胚特性**：利用其内置的 TransMorph-diff 或 TransMorph-bspl 变体，自动确保形变场的可逆性与平滑度，直接生成符合物理规律的拓扑保持结果，无需后处理。\n- **量化配准置信度**：通过 TransMorph-Bayes 变体，可直接输出每个像素点的配准不确定性热力图，帮助医生快速识别低可信区域，辅助谨慎决策。\n- **灵活适配多模态任务**：原生支持单模态与多模态配准，结合 NCC 等多种损失函数，一套代码即可流畅处理不同 MRI 序列间的对齐需求，大幅缩短研发流程。\n\nTransMorph 通过将 Transformer 的全局感知能力引入医学图像配准，在确保解剖结构合理性的同时，为高精度、可信赖的自动化影像分析提供了核心引擎。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyuchen245_TransMorph_Transformer_for_Medical_Image_Registration_eefa94c0.png","junyuchen245","Junyu Chen","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjunyuchen245_d8146e6c.jpg","Instructor in the Department of Radiology and Radiological Science @ Johns Hopkins University","Johns Hopkins University","Baltimore, MD","jchen245@jhmi.edu","jchen245","junyuchen.me","https:\u002F\u002Fgithub.com\u002Fjunyuchen245",[84,88,92],{"name":85,"color":86,"percentage":87},"Python","#3572A5",99.9,{"name":89,"color":90,"percentage":91},"Shell","#89e051",0.1,{"name":93,"color":94,"percentage":95},"Dockerfile","#384d54",0,615,99,"2026-04-15T16:56:26","MIT","未说明","需要 NVIDIA GPU（基于 PyTorch 实现及医学图像配准任务特性推断，且提供了 Docker 镜像），具体型号和显存大小未说明",{"notes":103,"python":100,"dependencies":104},"该项目是用于无监督医学图像配准的 PyTorch 实现。提供了多种变体（TransMorph, TransMorph-diff, TransMorph-bspl, TransMorph-Bayes）及仿射模型。支持单模态和多模态配准。作者提供了针对 IXI 和 OASIS 数据集的预处理数据、预训练模型及训练\u002F推理脚本。此外，项目提供了用于脑部 MRI 配准的 Docker 镜像，建议通过 Docker 或参考提供的脚本进行部署。",[105,106],"PyTorch","未说明其他具体库及版本",[15,44,14],[109,110,111,112,113,114,115,116],"transformer","vision-transformer","image-registration","bayesian-deep-learning","image-alignment","deep-learning","diffeomorphism","swin-transformer",null,"2026-03-27T02:49:30.150509","2026-04-20T10:22:20.627788",[121,126,131,136,141,146],{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},44353,"在 IXI 数据集上运行代码时，为什么验证集或测试集的评估结果（如 Dice 系数）远低于预期（例如只有 0.4 或 0.6，而论文中更高）？","这通常是因为错误地将验证集（validation set）的 CSV 文件用于了专为测试集（test set）设计的 `analysis.py` 脚本。该脚本默认输入文件包含 115 个条目（测试集大小）。如果你传入只有 58 个条目的验证集文件，脚本会将剩余的 57 个条目视为 0，从而拉低平均分。\n解决方案：\n1. 确保对测试集使用 `analysis.py`。\n2. 如果需要评估验证集，请修改 `analysis.py` 中的条目数量假设，使其与验证集的实际大小匹配。","https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fissues\u002F11",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},44354,"如何将生成的变形场（deformation field，.npz 格式）转换为 .nii 格式以便在 ITK-SNAP 中可视化？","你需要加载目标图像的 affine 和 header 信息，并调整变形场的维度顺序以符合 NIfTI 格式。具体代码如下：\n\n```python\nimport nibabel as nib\nimport numpy as np\n\n# 加载目标图像以获取 affine 和 header\nimg = nib.load('target.nii.gz')\n\n# 加载 npz 文件中的变形场数据\nflow = np.load('filename.npz')['arr_0']\n\n# 转置维度以匹配 NIfTI 格式 (从 3,H,W,D 转为 H,W,D,3 等，具体视原始维度而定，通常是 transpose(2, 3, 4, 0, 1))\nflow = flow.transpose(2, 3, 4, 0, 1)\n\n# 创建 NIfTI 图像对象\nflow_img = nib.Nifti1Image(flow, img.affine, img.header)\n\n# 保存为 .nii.gz 文件\nnib.save(flow_img, 'filename.nii.gz')\n```\n保存后的文件可以直接拖入 ITK-SNAP 进行可视化。","https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fissues\u002F12",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},44355,"在使用 TransMorph-Affine 模型进行验证时，为什么所有图像对都输出了相同的变换矩阵？","这是一个已修复的问题，主要原因是权重初始化不当。如果将权重初始化为全零，会导致模型收敛困难，陷入局部最小值，从而无法更新权重，使得不同输入产生相同的输出。\n解决方案：\n作者已更新了模型和脚本，修正了特征初始化和归一化的问题。请拉取最新的代码库，特别是 `TransMorph_affine\u002F` 目录下的脚本。更新后的模型在训练和验证过程中会为不同的图像生成不同的变换矩阵。","https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fissues\u002F63",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},44356,"如何可视化论文中展示的光流场（flow field）效果？有相关的代码或工具推荐吗？","可以使用现有的光流可视化工具来实现类似的效果。社区用户推荐使用以下开源项目：\nhttps:\u002F\u002Fgithub.com\u002Ftomrunia\u002FOpticalFlow_Visualization\n该项目提供了将光流场转换为彩色可视化图像的代码，可以借鉴其方法来绘制 TransMorph 生成的变形场。","https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fissues\u002F56",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},44357,"在训练 TransMorph Affine 模型时，数据集代码中硬编码了固定的路径（如 'D:\u002FDATA\u002FDuke\u002FXCAT\u002Fphan.pkl'），我应该如何修改以适应自己的数据集？","代码中的固定路径是示例数据的路径。在实际训练中，你需要根据 `self.paths[index]` 动态加载对应的目标图像（y）和标签（y_seg），而不是使用固定文件。\n修改思路：\n1. 移除硬编码的 `pkload('D:\u002FDATA\u002F...')`。\n2. 确保你的数据集类能够成对地索引源图像（x）和目标图像（y）。\n3. 参考代码逻辑：`x, x_seg` 来自 `self.paths[index]`，你应该构建类似的列表或逻辑来获取对应的 `y` 和 `y_seg` 路径，然后分别加载并进行必要的翻转（flip）和张量转换操作。","https:\u002F\u002Fgithub.com\u002Fjunyuchen245\u002FTransMorph_Transformer_for_Medical_Image_Registration\u002Fissues\u002F50",{"id":147,"question_zh":148,"answer_zh":149,"source_url":130},44358,"在 ITK-SNAP 中查看变形场时，是否需要进行特殊的预处理或转换步骤？","不需要特殊的复杂处理，关键在于文件格式和维度的正确性。只要将流场（flow field）正确地转置并保存为 `*.nii.gz` 文件，就可以直接在 ITK-SNAP 中打开。\n操作方法：\n1. 确保使用上述方法将 `.npz` 转为 `.nii.gz` 并保留了正确的 affine 矩阵。\n2. 在 ITK-SNAP 中，你可以直接将该文件拖拽到窗口中，或者通过命令行加载。无需先将其转换为 warped grids 即可初步查看流场数据。",[]]