[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-caiyuanhao1998--SAX-NeRF":3,"tool-caiyuanhao1998--SAX-NeRF":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",148568,2,"2026-04-09T23:34:24",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":102,"env_os":103,"env_gpu":104,"env_ram":105,"env_deps":106,"category_tags":118,"github_topics":120,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":133,"updated_at":134,"faqs":135,"releases":169},6065,"caiyuanhao1998\u002FSAX-NeRF","SAX-NeRF","\"Structure-Aware Sparse-View X-ray 3D Reconstruction\" (CVPR 2024)  -  A Toolbox for CT reconstruction and X-ray Novel View Synthesis","SAX-NeRF 是一款专为稀疏视角 X 射线三维重建打造的开源工具箱，核心功能涵盖计算机断层扫描（CT）重建与新视图合成。它主要解决了传统医学成像中因拍摄角度有限（稀疏视角）而导致重建图像模糊、细节丢失的难题，能够从极少量的 X 射线投影数据中恢复出高保真的三维结构。\n\n这款工具非常适合医学影像研究人员、算法开发者以及相关领域的学生使用。SAX-NeRF 的独特亮点在于其“结构感知”机制，能够智能地利用物体内部的几何先验信息来填补数据缺失，显著提升了重建质量。作为一个综合性基准平台，它不仅实现了包括 SAX-NeRF 在内的 11 种前沿算法（涵盖 NeRF、3D 高斯溅射及传统优化方法），还提供了精美的可视化代码和数据生成脚本，方便用户进行公平的性能对比与二次开发。无论是希望探索低剂量 CT 成像新技术的研究者，还是需要高效复现 SOTA 模型的工程师，SAX-NeRF 都能提供强有力的支持，助力推动三维医学影像分析的发展。","&nbsp;\n\n\u003Cdiv align=\"center\">\n\u003Cp align=\"center\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_67be930ba023.png\" width=\"100px\"> \u003C\u002Fp>\n\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Farxiv-paper-179bd3)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.10959)\n[![zhihu](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F知乎-解读-179bd3)](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F702702109)\n[![Youtube](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYoutube-video-179bd3)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=oVVUaBY61eo)\n\n&nbsp;\n\n\u003Ch2> A Toolbox for Sparse-View X-ray 3D Reconstruction \u003C\u002Fh2> \n\n\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_fdcd200cd0a5.gif\" style=\"height:260px\" \u002F> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_f0f846fef140.gif\" style=\"height:260px\" \u002F>  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_0a3d3815c2de.gif\" style=\"height:260px\" \u002F> \n\n\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_fd4885c00778.gif\" style=\"height:230px\" \u002F>  &emsp; &emsp; \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_41aa6dde2ab8.gif\" style=\"height:230px\" \u002F> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_8f4df82e04ae.gif\" style=\"height:230px\" \u002F>\n\n\n\u003C\u002Fdiv>\n\n\n&nbsp;\n\n### Introduction\nThis repo is a comprehensive toolbox and library for X-ray 3D reconstruction including two tasks, novel view synthesis (NVS) and computed tomography (CT) reconstruction. This repo supports 11 state-of-the-art methods including six NeRF-based methods, two 3DGS-based methods, two optimization-based methods, and one analytical method. We also provide code for fancy visualization such as turntable video and data generation to help your research. If you find this repo useful, please give it a star ⭐ and consider citing our paper. Thank you.\n\n\n### News\n- **2025.09.18 :** Our new work [CARE](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.02093) for diffusion based Anatomy-aware enhancement of sparse-view CT reconstruction has been accepted by NeurIPS 2025. Congrats to [Tianyu](https:\u002F\u002Flin-tianyu.github.io\u002F). Code and models have been released at [this repo](https:\u002F\u002Fgithub.com\u002FMrGiovanni\u002FCARE). 🍒\n- **2025.06.25 :** Our new work [X2-Gaussian](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.21779) for dynamic human chest breathing CT reconstruction has been accepted by ICCV 2025. Congrats to [Weihao](https:\u002F\u002Fyuyouxixi.github.io\u002F). Code and models will be released at [this repo](https:\u002F\u002Fgithub.com\u002Fyuyouxixi\u002Fx2-gaussian).  🚀\n- **2024.09.25 :** Our new work [R2-Gaussian](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.20693v1) has been accepted by NeurIPS 2024. Congrats to [Ruyi](https:\u002F\u002Fruyi-zha.github.io\u002F). Code and model will be released at [this repo](https:\u002F\u002Fgithub.com\u002FRuyi-Zha\u002Fr2_gaussian). 💫 \n- **2024.09.01 :** Code of our ECCV 2024 work [X-Gaussian](https:\u002F\u002Fgithub.com\u002Fcaiyuanhao1998\u002FX-Gaussian\u002F) has been released. Welcome to have a try! 🚀\n- **2024.07.09 :** Our SAX-NeRF has been added to the [Awesome-Transformer-Attention](https:\u002F\u002Fgithub.com\u002Fcmhungsteve\u002FAwesome-Transformer-Attention\u002Fblob\u002Fmain\u002FREADME_2.md) collection 💫\n- **2024.06.16 :** I will present this work in person. Our poster session is from 10:30 am to 00:30 pm, Jun 20 at Arch 4A-E Poster #147. Welcome to chat with me in Seattle Convention Center. :satisfied:\n- **2024.06.16 :** More raw data and generation samples are provided. Feel free to use them. \n- **2024.06.03 :** Code for traditional methods has been released. 🚀\n- **2024.06.03 :** Code for fancy visualization and data generation has been released. 🚀\n- **2024.06.02 :** Data, code, models, and training logs have been released. Feel free to use them :)\n- **2024.03.07 :** Our new work [X-Gaussian](https:\u002F\u002Fgithub.com\u002Fcaiyuanhao1998\u002FX-Gaussian), the first 3DGS-based method for X-ray imaging, is now on [arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.04116) now. Code, models, and training logs will be released at [this repo](https:\u002F\u002Fgithub.com\u002Fcaiyuanhao1998\u002FX-Gaussian). Stay tuned. 💫\n- **2024.02.26 :** Our paper has been accepted by CVPR 2024. Code and pre-trained models will be released to the public before the start date of CVPR 2024 (2024.06.19). Stay tuned! :tada: :confetti_ball:\n- **2023.11.21 :** The benchmark of X3D at the [paper-with-code website](https:\u002F\u002Fpaperswithcode.com\u002Fdataset\u002Fx3d) has been set up. You are welcome to make a comparison. 🚀\n- **2023.11.21 :** Our paper is on [arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.10959) now. We will develop this repo into a baseline for X-ray novel view synthesis and CT reconstruction. All code, models, data, and training logs will be released. 💫\n\n### Performance\n\n\u003Cdetails close>\n\u003Csummary>\u003Cb>Novel View Synthesis\u003C\u002Fb>\u003C\u002Fsummary>\n\n![results1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_62932364051e.png)\n\n![results2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_1239620f70c9.png)\n\n\u003C\u002Fdetails>\n\n\n\u003Cdetails close>\n\u003Csummary>\u003Cb>CT Reconstruction\u003C\u002Fb>\u003C\u002Fsummary>\n\n![results3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_e82d843be9f8.png)\n\n![results4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_bfdc4fd0994f.png)\n\n\u003C\u002Fdetails>\n\n\n\n\u003Cdetails open>\n\u003Csummary>\u003Cb>Supported algorithms:\u003C\u002Fb>\u003C\u002Fsummary>\n\n* [x] [SAX-NeRF](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.10959) (CVPR 2024)\n* [x] [X-Gaussian](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.04116) (ECCV 2024)\n* [x] [R2-Gaussian](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.20693v1) (NeurIPS 2024)\n* [x] [X2-Gaussian](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.21779) (ICCV 2025)\n* [x] [CARE](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.02093) (NeurIPS 2025)\n* [x] [TensoRF](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.09517) (ECCV 2022)\n* [x] [NAF](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14540) (MICCAI 2022)\n* [x] [NeAT](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.02171) (ACM TOG 2022)\n* [x] [NeRF](https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.08934) (ECCV 2020)\n* [x] [InTomo](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FICCV2021\u002Fpapers\u002FZang_IntraTomo_Self-Supervised_Learning-Based_Tomography_via_Sinogram_Synthesis_and_Prediction_ICCV_2021_paper.pdf) (ICCV 2021)\n* [x] [SART](https:\u002F\u002Fengineering.purdue.edu\u002FRVL\u002FPublications\u002FSART_84.pdf) (Ultrasonic imaging 1984)\n* [x] [ASD-POCS](https:\u002F\u002Fwww.researchgate.net\u002Fprofile\u002FEmil-Sidky\u002Fpublication\u002F23169511_Image_reconstruction_in_circular_cone-beam_computed_tomography_by_constrained_total-variation_minimization\u002Flinks\u002F0c96052408b0814590000000\u002FImage-reconstruction-in-circular-cone-beam-computed-tomography-by-constrained-total-variation-minimization.pdf) (Physics in Medicine & Biology 2008)\n* [x] [FDK](https:\u002F\u002Fopg.optica.org\u002Fjosaa\u002Ffulltext.cfm?uri=josaa-1-6-612&id=996) (Josa a 1984)\n\n\u003C\u002Fdetails>\n\n\n### Coordinate System\n\nThe coordinate system in circular cone-beam X-ray scanning follows the OpenCV standards. The transformation between the camera, world, and image coordinate systems is shown below.\n\u003Cdiv align=\"center\">\n\u003Cp align=\"center\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_530ff557c9c9.png\" width=\"800px\"> \u003C\u002Fp>\n\u003C\u002Fdiv>\n\n&nbsp;\n\n## 1. Create Environment:\n\nWe recommend using [Conda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002Fminiconda.html) to set up an environment.\n\n``` sh\n# Create environment\nconda create -n sax_nerf python=3.9\nconda activate sax_nerf\n\n# for users that don't have CUDA-11.3 on their server and\n# don't have sudo permission to install, please install CUDA-11.3 in conda environment\n# otherwise you can skip these steps\nconda install -c nvidia\u002Flabel\u002Fcuda-11.3.1 cuda cudnn cuda-nvcc\t# install CUDA-11.3 (and all needed pkg) for conda environment\nln -s $CONDA_PREFIX\u002Flib $CONDA_PREFIX\u002Flib64\t# softlink to solve a TIGRE version\u002Fpath check issue\nconda install -c conda-forge gcc=10 gxx=10\t# only support gcc \u003C= 10\n\n# Install pytorch (hash encoder requires CUDA v11.3)\npip install torch==1.11.0+cu113 torchvision==0.12.0+cu113 torchaudio==0.11.0 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu113\n\n# Install other packages\npip install -r requirements.txt\n```\n\nWe suggest you install TIGRE toolbox (2.3 version) for executing traditional CT reconstruction methods and synthesize your own CT data if you plan to do so. Please note that TIGRE v2.5 might stuck when CT is large.\n``` sh\n# Download TIGRE\nwget https:\u002F\u002Fgithub.com\u002FCERN\u002FTIGRE\u002Farchive\u002Frefs\u002Ftags\u002Fv2.3.zip\nunzip v2.3.zip\nrm v2.3.zip\n\n# Install TIGRE\npip install cython==0.29.25\npip install numpy==1.21.6\ncd TIGRE-2.3\u002FPython\u002F\npython setup.py develop\n```\n\n&nbsp;\n\n## 2. Prepare Dataset:\n\nDownload our processed datasets from [Google drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1SlneuSGkhk0nvwPjxxnpBCO59XhjGGJX?usp=sharing) or [Baidu disk](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F18zc6jHeNvoUNAF6pUaL9eQ?pwd=cyh2). Then put the downloaded datasets into the folder `data\u002F` as\n\n```sh\n  |--data\n      |--chest_50.pickle\n      |--abdomen_50.pickle\n      |--aneurism_50.pickle\n      |--backpack_50.pickle\n      |--bonsai_50.pickle\n      |--box_50.pickle\n      |--carp_50.pickle\n      |--engine_50.pickle\n      |--foot_50.pickle\n      |--head_50.pickle\n      |--leg_50.pickle\n      |--pancreas_50.pickle\n      |--pelvis_50.pickle\n      |--teapot_50.pickle\n      |--jaw_50.pickle\n```\n\n&nbsp;\n\n## 3. Testing:\n\nYou can directly download our pre-trained models from [Google drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1wlDrZQRbQENcfW1Pjrr1gasFQ8v6znHV?usp=sharing) or [Baidu disk](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1FlQJQRYJ7ApjCrxcTrF5mQ?pwd=cyh2). Then put the downloaded models into the folder `pretrained\u002F` and run\n\n```sh\n# SAX-NeRF\npython test.py --method Lineformer --category chest --config config\u002FLineformer\u002Fchest_50.yaml --weights pretrained\u002Fchest.tar --output_path output \n\n# FDK\npython3 eval_traditional.py --algorithm fdk --category chest --config config\u002FFDK\u002Fchest_50.yaml\n\n# SART\npython3 eval_traditional.py --algorithm sart --category chest --config config\u002FSART\u002Fchest_50.yaml\n\n# ASD_POCS\npython3 eval_traditional.py --algorithm asd_pocs --category chest --config config\u002FASD_POCS\u002Fchest_50.yaml\n```\nFor your convenience, we provide the reconstructed results in [Google drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1kKGHRrabdbKQeKBLxK5tj8VqVipEvOW5?usp=sharing) and [Baidu disk](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1_S9BRTthsf7y96cBIWTJmw?pwd=cyh2).\n\n&nbsp;\n\n## 4. Training:\n\nWe provide the training logs on all scenes for your convenience to debug. Please download the training logs from [Google dive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F123WISBBc3rjfKqZ1EGK0-2sW5TY5dkLI?usp=sharing) or [Baidu disk](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F18NP2R215cU3op4mI3bQqug?pwd=cyh2).\n\n```sh\n# SAX-NeRF\npython train_mlg.py --config config\u002FLineformer\u002Fchest_50.yaml\n\n# NeRF\npython train.py --config config\u002Fnerf\u002Fchest_50.yaml\n\n# Intratomo\npython train.py --config config\u002Fintratomo\u002Fchest_50.yaml\n\n# NAF\npython train.py --config config\u002Fnaf\u002Fchest_50.yaml\n\n# TensoRF\npython train.py --config config\u002Ftensorf\u002Fchest_50.yaml\n```\n\nYou can use [this repo](https:\u002F\u002Fgithub.com\u002Fdarglein\u002FNeAT) to run NeAT. Remember to reprocess the data first.\n\n&nbsp;\n\n## 5. Visualization\n\nTo render a cool demo, we provide visualization code in the folder `3D_vis`\n\n```sh\ncd 3D_vis\npython 3D_vis_backpack.py\npython 3D_vis_backpack_gif.py\n```\n\n&nbsp;\n\n## 6. Generate Your Own Data\nWe also provide code for data generation in the folder `dataGenerator`. To give you a quick start, we provide the raw data for your debugging. Please download the raw data from [Google dive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1i3BhyftggTj1SqW6Ibl5tWTWD0VLc7ex?usp=sharing) or [Baidu disk](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F19mgQFBtDdfhjY4kkRGOmow?pwd=cyh2) and then put them into the folder `dataGenerator\u002Fraw_data`. Run\n\n```sh\ncd dataGenerator\npython data_vis_backpack.py\ncd ..\npython dataGenerator\u002FgenerateData_backpack.py\n```\n\n&nbsp;\n\n## 7. Citation\nIf this repo helps you, please consider citing our works:\n\n\n```sh\n# SAX-NeRF\n@inproceedings{sax_nerf,\n  title={Structure-Aware Sparse-View X-ray 3D Reconstruction},\n  author={Yuanhao Cai and Jiahao Wang and Alan Yuille and Zongwei Zhou and Angtian Wang},\n  booktitle={CVPR},\n  year={2024}\n}\n\n# X-Gaussian\n@inproceedings{x_gaussian,\n  title={Radiative gaussian splatting for efficient x-ray novel view synthesis},\n  author={Yuanhao Cai and Yixun Liang and Jiahao Wang and Angtian Wang and Yulun Zhang and Xiaokang Yang and Zongwei Zhou and Alan Yuille},\n  booktitle={ECCV},\n  year={2024}\n}\n\n# R2-Gaussian\n@inproceedings{r2_gaussian,\n  title={R2-Gaussian: Rectifying Radiative Gaussian Splatting for Tomographic Reconstruction},\n  author={Ruyi Zha and Tao Jun Lin and Yuanhao Cai and Jiwen Cao and Yanhao Zhang and Hongdong Li},\n  booktitle={NeurIPS},\n  year={2024}\n}\n\n# X2-Gaussian\n@inproceedings{x2_gaussian,\n  title={X2-Gaussian: 4D Radiative Gaussian Splatting for Continuous-time Tomographic Reconstruction},\n  author={Yu, Weihao and Cai, Yuanhao and Zha, Ruyi and Fan, Zhiwen and Li, Chenxin and Yuan, Yixuan},\n  booktitle={ICCV},\n  year={2025}\n}\n\n# CARE\n@inproceedings{lin2025pixel,\n  title={Are Pixel-Wise Metrics Reliable for Sparse-View Computed Tomography Reconstruction?},\n  author={Lin, Tianyu and Li, Xinran and Zhuang, Chuntung and Chen, Qi and Cai, Yuanhao and Ding, Kai and Yuille, Alan L and Zhou, Zongwei},\n  booktitle={NeurIPS},\n  year={2025}\n}\n```\n","&nbsp;\n\n\u003Cdiv align=\"center\">\n\u003Cp align=\"center\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_67be930ba023.png\" width=\"100px\"> \u003C\u002Fp>\n\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Farxiv-paper-179bd3)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.10959)\n[![zhihu](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F知乎-解读-179bd3)](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F702702109)\n[![Youtube](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYoutube-video-179bd3)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=oVVUaBY61eo)\n\n&nbsp;\n\n\u003Ch2> 稀疏视角X射线三维重建工具箱 \u003C\u002Fh2> \n\n\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_fdcd200cd0a5.gif\" style=\"height:260px\" \u002F> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_f0f846fef140.gif\" style=\"height:260px\" \u002F>  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_0a3d3815c2de.gif\" style=\"height:260px\" \u002F> \n\n\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_fd4885c00778.gif\" style=\"height:230px\" \u002F>  &emsp; &emsp; \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_41aa6dde2ab8.gif\" style=\"height:230px\" \u002F> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_8f4df82e04ae.gif\" style=\"height:230px\" \u002F>\n\n\n\u003C\u002Fdiv>\n\n\n&nbsp;\n\n### 简介\n本仓库是一个用于X射线三维重建的综合工具箱和库，涵盖新视图合成（NVS）和计算机断层扫描（CT）重建两大任务。该仓库支持11种最先进的方法，包括6种基于NeRF的方法、2种基于3DGS的方法、2种基于优化的方法以及1种解析方法。我们还提供了转盘视频等炫酷可视化代码以及数据生成工具，以助力您的研究。如果您觉得本仓库有用，请为它点亮一颗星⭐，并考虑引用我们的论文。感谢您的支持。\n\n\n### 最新动态\n- **2025.09.18 :** 我们关于基于扩散模型的解剖感知稀疏视角CT重建增强方法[CARE](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.02093)的新工作已被NeurIPS 2025接收。祝贺[Tianyu](https:\u002F\u002Flin-tianyu.github.io\u002F)！代码和模型已在[此仓库](https:\u002F\u002Fgithub.com\u002FMrGiovanni\u002FCARE)中发布。 🍒\n- **2025.06.25 :** 我们关于动态人体胸部呼吸CT重建的最新工作[X2-Gaussian](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.21779)已被ICCV 2025接收。祝贺[Weihao](https:\u002F\u002Fyuyouxixi.github.io\u002F)！代码和模型将在[此仓库](https:\u002F\u002Fgithub.com\u002Fyuyouxixi\u002Fx2-gaussian)中发布。  🚀\n- **2024.09.25 :** 我们关于[R2-Gaussian](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.20693v1)的新工作已被NeurIPS 2024接收。祝贺[Ruyi](https:\u002F\u002Fruyi-zha.github.io\u002F)！代码和模型将在[此仓库](https:\u002F\u002Fgithub.com\u002FRuyi-Zha\u002Fr2_gaussian)中发布。 💫 \n- **2024.09.01 :** 我们在ECCV 2024发表的工作[X-Gaussian](https:\u002F\u002Fgithub.com\u002Fcaiyuanhao1998\u002FX-Gaussian\u002F)的代码已发布。欢迎试用！ 🚀\n- **2024.07.09 :** 我们的SAX-NeRF已被加入[Awesome-Transformer-Attention](https:\u002F\u002Fgithub.com\u002Fcmhungsteve\u002FAwesome-Transformer-Attention\u002Fblob\u002Fmain\u002FREADME_2.md)合集 💫\n- **2024.06.16 :** 我将亲自展示这项工作。我们的海报展示时间为6月20日上午10:30至下午00:30，地点为Arch 4A-E Poster #147。欢迎莅临西雅图会议中心与我交流。 :satisfied:\n- **2024.06.16 :** 更多原始数据和生成样本现已提供，欢迎大家使用。\n- **2024.06.03 :** 传统方法的代码已发布。 🚀\n- **2024.06.03 :** 炫酷可视化和数据生成的代码已发布。 🚀\n- **2024.06.02 :** 数据、代码、模型及训练日志均已公开，欢迎大家使用 :) \n- **2024.03.07 :** 我们的新工作[X-Gaussian](https:\u002F\u002Fgithub.com\u002Fcaiyuanhao1998\u002FX-Gaussian)，首个基于3DGS的X射线成像方法，现已发表于[arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.04116)。代码、模型和训练日志将在[此仓库](https:\u002F\u002Fgithub.com\u002Fcaiyuanhao1998\u002FX-Gaussian)中发布。敬请期待。 💫\n- **2024.02.26 :** 我们的论文已被CVPR 2024接收。代码和预训练模型将于CVPR 2024开幕前（2024年6月19日）公开发布。敬请关注！ :tada: :confetti_ball:\n- **2023.11.21 :** X3D基准测试已在[paper-with-code网站](https:\u002F\u002Fpaperswithcode.com\u002Fdataset\u002Fx3d)上搭建完毕，欢迎大家进行对比。 🚀\n- **2023.11.21 :** 我们的论文现已发表于[arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.10959)。我们将把本仓库打造成为X射线新视图合成和CT重建的基准平台，所有代码、模型、数据和训练日志都将公开发布。 💫\n\n### 性能\n\n\u003Cdetails close>\n\u003Csummary>\u003Cb>新视图合成\u003C\u002Fb>\u003C\u002Fsummary>\n\n![results1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_62932364051e.png)\n\n![results2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_1239620f70c9.png)\n\n\u003C\u002Fdetails>\n\n\n\u003Cdetails close>\n\u003Csummary>\u003Cb>CT重建\u003C\u002Fb>\u003C\u002Fsummary>\n\n![results3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_e82d843be9f8.png)\n\n![results4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_bfdc4fd0994f.png)\n\n\u003C\u002Fdetails>\n\n\n\n\u003Cdetails open>\n\u003Csummary>\u003Cb>支持的算法：\u003C\u002Fb>\u003C\u002Fsummary>\n\n* [x] [SAX-NeRF](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.10959) (CVPR 2024)\n* [x] [X-Gaussian](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.04116) (ECCV 2024)\n* [x] [R2-Gaussian](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.20693v1) (NeurIPS 2024)\n* [x] [X2-Gaussian](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.21779) (ICCV 2025)\n* [x] [CARE](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.02093) (NeurIPS 2025)\n* [x] [TensoRF](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.09517) (ECCV 2022)\n* [x] [NAF](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14540) (MICCAI 2022)\n* [x] [NeAT](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.02171) (ACM TOG 2022)\n* [x] [NeRF](https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.08934) (ECCV 2020)\n* [x] [InTomo](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FICCV2021\u002Fpapers\u002FZang_IntraTomo_Self-Supervised_Learning-Based_Tomography_via_Sinogram_Synthesis_and_Prediction_ICCV_2021_paper.pdf) (ICCV 2021)\n* [x] [SART](https:\u002F\u002Fengineering.purdue.edu\u002FRVL\u002FPublications\u002FSART_84.pdf) (超声成像，1984年)\n* [x] [ASD-POCS](https:\u002F\u002Fwww.researchgate.net\u002Fprofile\u002FEmil-Sidky\u002Fpublication\u002F23169511_Image_reconstruction_in_circular_cone-beam_computed_tomography_by_constrained_total-variation_minimization\u002Flinks\u002F0c96052408b0814590000000\u002FImage-reconstruction-in-circular-cone-beam-computed-tomography-by-constrained-total-variation-minimization.pdf) (Physics in Medicine & Biology，2008年)\n* [x] [FDK](https:\u002F\u002Fopg.optica.org\u002Fjosaa\u002Ffulltext.cfm?uri=josaa-1-6-612&id=996) (Josa a，1984年)\n\n\u003C\u002Fdetails>\n\n\n### 坐标系\n\n圆锥束X射线扫描中的坐标系遵循OpenCV标准。相机、世界和图像坐标系之间的变换如下所示。\n\u003Cdiv align=\"center\">\n\u003Cp align=\"center\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_readme_530ff557c9c9.png\" width=\"800px\"> \u003C\u002Fp>\n\u003C\u002Fdiv>\n\n&nbsp;\n\n## 1. 创建环境：\n\n我们建议使用[Conda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002Fminiconda.html)来设置环境。\n\n``` sh\n# 创建环境\nconda create -n sax_nerf python=3.9\nconda activate sax_nerf\n\n# 对于服务器上没有CUDA-11.3且无sudo权限安装的用户，请在conda环境中安装CUDA-11.3\n# 否则可以跳过这些步骤\nconda install -c nvidia\u002Flabel\u002Fcuda-11.3.1 cuda cudnn cuda-nvcc\t# 为conda环境安装CUDA-11.3（及所有必要软件包）\nln -s $CONDA_PREFIX\u002Flib $CONDA_PREFIX\u002Flib64\t# 软链接以解决TIGRE版本\u002F路径检查问题\nconda install -c conda-forge gcc=10 gxx=10\t# 仅支持gcc \u003C= 10\n\n# 安装 PyTorch（哈希编码器需要 CUDA 11.3）\npip install torch==1.11.0+cu113 torchvision==0.12.0+cu113 torchaudio==0.11.0 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu113\n\n# 安装其他包\npip install -r requirements.txt\n```\n\n我们建议您安装 TIGRE 工具箱（2.3 版本），以执行传统的 CT 重建方法，并在计划时合成您自己的 CT 数据。请注意，当 CT 数据较大时，TIGRE v2.5 可能会卡住。\n``` sh\n# 下载 TIGRE\nwget https:\u002F\u002Fgithub.com\u002FCERN\u002FTIGRE\u002Farchive\u002Frefs\u002Ftags\u002Fv2.3.zip\nunzip v2.3.zip\nrm v2.3.zip\n\n# 安装 TIGRE\npip install cython==0.29.25\npip install numpy==1.21.6\ncd TIGRE-2.3\u002FPython\u002F\npython setup.py develop\n```\n\n&nbsp;\n\n## 2. 准备数据集：\n\n从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1SlneuSGkhk0nvwPjxxnpBCO59XhjGGJX?usp=sharing) 或 [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F18zc6jHeNvoUNAF6pUaL9eQ?pwd=cyh2) 下载我们处理好的数据集。然后将下载的数据集放入 `data\u002F` 文件夹中，结构如下：\n\n```sh\n  |--data\n      |--chest_50.pickle\n      |--abdomen_50.pickle\n      |--aneurism_50.pickle\n      |--backpack_50.pickle\n      |--bonsai_50.pickle\n      |--box_50.pickle\n      |--carp_50.pickle\n      |--engine_50.pickle\n      |--foot_50.pickle\n      |--head_50.pickle\n      |--leg_50.pickle\n      |--pancreas_50.pickle\n      |--pelvis_50.pickle\n      |--teapot_50.pickle\n      |--jaw_50.pickle\n```\n\n&nbsp;\n\n## 3. 测试：\n\n您可以直接从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1wlDrZQRbQENcfW1Pjrr1gasFQ8v6znHV?usp=sharing) 或 [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1FlQJQRYJ7ApjCrxcTrF5mQ?pwd=cyh2) 下载我们预训练的模型。然后将下载的模型放入 `pretrained\u002F` 文件夹中，并运行以下命令：\n\n```sh\n# SAX-NeRF\npython test.py --method Lineformer --category chest --config config\u002FLineformer\u002Fchest_50.yaml --weights pretrained\u002Fchest.tar --output_path output \n\n# FDK\npython3 eval_traditional.py --algorithm fdk --category chest --config config\u002FFDK\u002Fchest_50.yaml\n\n# SART\npython3 eval_traditional.py --algorithm sart --category chest --config config\u002FSART\u002Fchest_50.yaml\n\n# ASD_POCS\npython3 eval_traditional.py --algorithm asd_pocs --category chest --config config\u002FASD_POCS\u002Fchest_50.yaml\n```\n为了您的方便，我们提供了重建结果，存储在 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1kKGHRrabdbKQeKBLxK5tj8VqVipEvOW5?usp=sharing) 和 [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1_S9BRTthsf7y96cBIWTJmw?pwd=cyh2) 中。\n\n&nbsp;\n\n## 4. 训练：\n\n我们提供了所有场景的训练日志，方便您进行调试。请从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F123WISBBc3rjfKqZ1EGK0-2sW5TY5dkLI?usp=sharing) 或 [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F18NP2R215cU3op4mI3bQqug?pwd=cyh2) 下载训练日志。\n\n```sh\n# SAX-NeRF\npython train_mlg.py --config config\u002FLineformer\u002Fchest_50.yaml\n\n# NeRF\npython train.py --config config\u002Fnerf\u002Fchest_50.yaml\n\n# Intratomo\npython train.py --config config\u002Fintratomo\u002Fchest_50.yaml\n\n# NAF\npython train.py --config config\u002Fnaf\u002Fchest_50.yaml\n\n# TensoRF\npython train.py --config config\u002Ftensorf\u002Fchest_50.yaml\n```\n\n您可以使用 [这个仓库](https:\u002F\u002Fgithub.com\u002Fdarglein\u002FNeAT) 来运行 NeAT。请记得先重新处理数据。\n\n&nbsp;\n\n## 5. 可视化\n\n为了渲染一个酷炫的演示，我们在 `3D_vis` 文件夹中提供了可视化代码：\n\n```sh\ncd 3D_vis\npython 3D_vis_backpack.py\npython 3D_vis_backpack_gif.py\n```\n\n&nbsp;\n\n## 6. 生成您自己的数据\n我们还在 `dataGenerator` 文件夹中提供了数据生成代码。为了让您快速上手，我们还提供了原始数据供您调试。请从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1i3BhyftggTj1SqW6Ibl5tWTWD0VLc7ex?usp=sharing) 或 [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F19mgQFBtDdfhjY4kkRGOmow?pwd=cyh2) 下载原始数据，并将其放入 `dataGenerator\u002Fraw_data` 文件夹中。然后运行以下命令：\n\n```sh\ncd dataGenerator\npython data_vis_backpack.py\ncd ..\npython dataGenerator\u002FgenerateData_backpack.py\n```\n\n&nbsp;\n\n## 7. 引用\n如果本仓库对您有所帮助，请考虑引用我们的工作：\n\n```sh\n# SAX-NeRF\n@inproceedings{sax_nerf,\n  title={结构感知的稀疏视角 X 射线三维重建},\n  author={袁浩才、王嘉豪、艾伦·尤伊尔、周宗伟、王昂天},\n  booktitle={CVPR},\n  year={2024}\n}\n\n# X-Gaussian\n@inproceedings{x_gaussian,\n  title={用于高效 X 射线新视图合成的辐射高斯泼溅},\n  author={袁浩才、梁义勋、王嘉豪、王昂天、张宇伦、杨晓康、周宗伟、艾伦·尤伊尔},\n  booktitle={ECCV},\n  year={2024}\n}\n\n# R2-Gaussian\n@inproceedings{r2_gaussian,\n  title={R2-Gaussian：校正辐射高斯泼溅用于断层扫描重建},\n  author={赵瑞怡、林涛俊、袁浩才、曹继文、张彦浩、李洪东},\n  booktitle={NeurIPS},\n  year={2024}\n}\n\n# X2-Gaussian\n@inproceedings{x2_gaussian,\n  title={X2-Gaussian：用于连续时间断层扫描重建的四维辐射高斯泼溅},\n  author={于伟豪、袁浩才、赵瑞怡、范志文、李晨鑫、袁一轩},\n  booktitle={ICCV},\n  year={2025}\n}\n\n# CARE\n@inproceedings{lin2025pixel,\n  title={像素级指标对于稀疏视角计算机断层扫描重建是否可靠？},\n  author={林天宇、李欣然、庄春彤、陈琪、袁浩才、丁凯、艾伦·尤伊尔、周宗伟},\n  booktitle={NeurIPS},\n  year={2025}\n}\n```","# SAX-NeRF 快速上手指南\n\nSAX-NeRF 是一个用于稀疏视角 X 射线 3D 重建的综合工具箱，支持新视角合成（NVS）和计算机断层扫描（CT）重建任务。本指南将帮助您快速搭建环境并运行示例。\n\n## 1. 环境准备\n\n**系统要求：**\n- 操作系统：Linux (推荐)\n- Python 版本：3.9\n- CUDA 版本：11.3 (哈希编码器依赖此版本)\n- 编译器：GCC\u002FG++ 版本需 ≤ 10\n\n**前置依赖：**\n- Conda (用于环境管理)\n- TIGRE 工具箱 (v2.3，用于传统 CT 重建方法的数据合成与执行，可选但推荐)\n\n## 2. 安装步骤\n\n### 2.1 创建 Conda 环境\n```bash\n# 创建并激活环境\nconda create -n sax_nerf python=3.9\nconda activate sax_nerf\n\n# 如果服务器没有 CUDA 11.3 且无 sudo 权限，请在 conda 环境中安装 CUDA 11.3\n# 若已有合适环境可跳过以下三行\nconda install -c nvidia\u002Flabel\u002Fcuda-11.3.1 cuda cudnn cuda-nvcc\nln -s $CONDA_PREFIX\u002Flib $CONDA_PREFIX\u002Flib64\nconda install -c conda-forge gcc=10 gxx=10\n\n# 安装 PyTorch (必须匹配 CUDA 11.3)\npip install torch==1.11.0+cu113 torchvision==0.12.0+cu113 torchaudio==0.11.0 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu113\n\n# 安装其他依赖包\npip install -r requirements.txt\n```\n\n### 2.2 安装 TIGRE 工具箱 (可选)\n如需使用传统算法或生成自定义数据，建议安装 TIGRE v2.3 (v2.5 在处理大尺寸 CT 时可能卡顿)。\n\n```bash\n# 下载并解压 TIGRE v2.3\nwget https:\u002F\u002Fgithub.com\u002FCERN\u002FTIGRE\u002Farchive\u002Frefs\u002Ftags\u002Fv2.3.zip\nunzip v2.3.zip\nrm v2.3.zip\n\n# 安装依赖并编译\npip install cython==0.29.25\npip install numpy==1.21.6\ncd TIGRE-2.3\u002FPython\u002F\npython setup.py develop\n```\n\n## 3. 基本使用\n\n### 3.1 准备数据集\n从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1SlneuSGkhk0nvwPjxxnpBCO59XhjGGJX?usp=sharing) 或 [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F18zc6jHeNvoUNAF6pUaL9eQ?pwd=cyh2) 下载处理好的数据集，并将其放入项目根目录下的 `data\u002F` 文件夹中。\n\n目录结构应如下所示：\n```text\n|--data\n    |--chest_50.pickle\n    |--abdomen_50.pickle\n    |--... (其他 .pickle 文件)\n```\n\n### 3.2 测试预训练模型\n从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1wlDrZQRbQENcfW1Pjrr1gasFQ8v6znHV?usp=sharing) 或 [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1FlQJQRYJ7ApjCrxcTrF5mQ?pwd=cyh2) 下载预训练模型，放入 `pretrained\u002F` 文件夹。\n\n运行以下命令进行测试（以胸部数据为例）：\n\n**运行 SAX-NeRF:**\n```bash\npython test.py --method Lineformer --category chest --config config\u002FLineformer\u002Fchest_50.yaml --weights pretrained\u002Fchest.tar --output_path output\n```\n\n**运行传统算法 (如 FDK):**\n```bash\npython3 eval_traditional.py --algorithm fdk --category chest --config config\u002FFDK\u002Fchest_50.yaml\n```\n\n**运行传统算法 (如 SART):**\n```bash\npython3 eval_traditional.py --algorithm sart --category chest --config config\u002FSART\u002Fchest_50.yaml\n```\n\n### 3.3 训练模型\n您可以使用提供的配置文件重新训练模型。以下以训练 SAX-NeRF 为例：\n\n```bash\npython train_mlg.py --config config\u002FLineformer\u002Fchest_50.yaml\n```\n\n其他方法（如 NeRF, IntraTomo, NAF, TensoRF）可使用 `train.py` 配合对应的 config 文件进行训练。\n\n### 3.4 可视化结果\n生成的 3D 重建结果可通过 `3D_vis` 文件夹下的脚本进行渲染和制作演示视频：\n\n```bash\ncd 3D_vis\npython 3D_vis_backpack.py\npython 3D_vis_backpack_gif.py\n```","某医疗影像实验室的研究团队正试图利用极少量的 X 射线投影角度，重建高精度的肺部 CT 三维模型以辅助早期病灶诊断。\n\n### 没有 SAX-NeRF 时\n- **图像伪影严重**：在稀疏视角（如仅用 20 个角度）下，传统解析算法重建的图像充满条纹状伪影，导致微小结节难以辨认。\n- **结构细节丢失**：现有的神经辐射场（NeRF）方法缺乏对解剖结构的先验感知，重建出的支气管和血管边缘模糊，甚至出现断裂。\n- **研发效率低下**：团队需手动集成多种基线代码进行对比实验，缺乏统一的评估框架，复现前沿算法耗时数周。\n- **可视化验证困难**：缺少高效的工具生成旋转视频或新视角合成图，难以直观向临床医生展示重建效果。\n\n### 使用 SAX-NeRF 后\n- **伪影显著抑制**：借助其结构感知机制，SAX-NeRF 在同等稀疏数据下有效去除了条纹干扰，背景更纯净，病灶对比度大幅提升。\n- **解剖结构还原**：模型能精准捕捉肺部细微的拓扑结构，重建出的血管树连续且清晰，几何保真度达到临床可用标准。\n- **一站式实验流程**：依托其集成的 11 种 SOTA 方法工具箱，研究人员可快速切换不同算法进行基准测试，将对比实验周期缩短至几天。\n- **直观成果展示**：利用内置的高级可视化模块，一键生成高质量的新视角合成视频和转盘动画，极大提升了成果汇报的说服力。\n\nSAX-NeRF 通过引入结构感知能力，成功解决了稀疏视角下 X 射线三维重建中伪影多、细节差的难题，为低剂量 CT 成像提供了可靠的算法基石。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcaiyuanhao1998_SAX-NeRF_1239620f.png","caiyuanhao1998","Yuanhao Cai","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fcaiyuanhao1998_d16fc657.jpg","Johns Hopkins University\r\ncaiyuanhao1998@gmail.com\r\nycai51@jh.edu","Johns Hopkins University \u003C- Tsinghua","Baltimore, United States",null,"https:\u002F\u002Fcaiyuanhao1998.github.io\u002F","https:\u002F\u002Fgithub.com\u002Fcaiyuanhao1998",[82,86,90,94],{"name":83,"color":84,"percentage":85},"Python","#3572A5",95.3,{"name":87,"color":88,"percentage":89},"Cuda","#3A4E3A",4.4,{"name":91,"color":92,"percentage":93},"C","#555555",0.2,{"name":95,"color":96,"percentage":97},"C++","#f34b7d",0.1,781,41,"2026-04-01T01:35:31","MIT",4,"Linux","必需 NVIDIA GPU，需安装 CUDA 11.3 (代码明确指定 torch==1.11.0+cu113)，显存大小未说明","未说明",{"notes":107,"python":108,"dependencies":109},"1. 强烈建议使用 Conda 创建环境。2. 若无系统级 CUDA 11.3 或无 sudo 权限，需在 Conda 环境中单独安装 CUDA 11.3.1。3. 编译器版本必须为 gcc\u002Fgxx \u003C= 10，否则可能编译失败。4. 传统 CT 重建方法及数据合成需额外安装 TIGRE 工具箱（推荐 v2.3 版本，v2.5 在处理大数据时可能卡死）。5. 运行 NeAT 算法需使用外部仓库并重新处理数据。","3.9",[110,111,112,113,114,115,116,117],"torch==1.11.0+cu113","torchvision==0.12.0+cu113","torchaudio==0.11.0","gcc\u003C=10","gxx\u003C=10","cython==0.29.25","numpy==1.21.6","TIGRE==2.3",[119,35,15],"其他",[121,122,123,124,125,126,127,128,129,130,131,132],"3d-graphics","3d-reconstruction","ct-reconstruction","medical-imaging","nerf","x-ray-images","neural-radiance-fields","transformer","cvpr","3d-vision","instant-ngp","novel-view-synthesis","2026-03-27T02:49:30.150509","2026-04-10T10:28:40.970550",[136,141,145,150,155,159,164],{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},27473,"运行代码时遇到 'IndexError: list index out of range' 或 CUDA 架构编译错误怎么办？","这是由 Torch 读取您的 CUDA 支持的架构列表失败引起的。可以通过设置环境变量来解决。请根据您的显卡型号设置 `TORCH_CUDA_ARCH_LIST`。例如，对于 RTX 30 系列显卡，执行以下命令：\n`export TORCH_CUDA_ARCH_LIST=\"8.6\"`\n然后重新运行程序。您可以参考 https:\u002F\u002Farnon.dk\u002Fmatching-sm-architectures-arch-and-gencode-for-various-nvidia-cards\u002F 查找对应显卡的架构编号。","https:\u002F\u002Fgithub.com\u002Fcaiyuanhao1998\u002FSAX-NeRF\u002Fissues\u002F39",{"id":142,"question_zh":143,"answer_zh":144,"source_url":140},27474,"在 Windows 系统上运行代码遇到问题，是否支持 Windows？","该项目的许多问题（特别是涉及 CUDA 扩展编译的问题）是由 Windows 操作系统引起的。维护者建议用户使用 Ubuntu 系统来运行代码以获得最佳兼容性和稳定性。如果可能，请切换到 Linux\u002FUbuntu 环境。",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},27475,"Lineformer 和 MLG 策略是否适用于自然场景（如 RGB NeRF）？","是的，这些策略并非专门针对 X 射线设计，理论上也可以应用于自然场景（RGB NeRF）。作者已开源代码，欢迎尝试将其应用到其他领域。","https:\u002F\u002Fgithub.com\u002Fcaiyuanhao1998\u002FSAX-NeRF\u002Fissues\u002F3",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},27476,"CT 重建任务与论文中的 NSV（新视角合成）任务有什么区别？","NSV 任务通常只需要输入不同的相机姿态（camera pose）即可渲染出新图像。而 CT 重建任务旨在从有限的 X 射线投影数据中恢复物体的三维密度分布。虽然两者都涉及几何和成像模型，但 CT 重建更侧重于解决稀疏视图下的逆问题，且其物理成像模型（如锥束几何）与自然光相机不同。","https:\u002F\u002Fgithub.com\u002Fcaiyuanhao1998\u002FSAX-NeRF\u002Fissues\u002F20",{"id":156,"question_zh":157,"answer_zh":158,"source_url":154},27477,"X 射线投影图像的预处理和相机参数获取与可见光图像一样吗？可以直接用 COLMAP 吗？","不完全一样。X 射线成像遵循特定的物理投影模型（如锥束几何），其相机内参和外参通常由扫描设备的几何结构决定，而不是通过特征点匹配（如 COLMAP）直接获取。在某些合成数据实验中，参数是已知配置的；在处理真实数据时，可能需要专门的标定过程或根据设备几何信息手动配置，直接套用可见光的 COLMAP 流程可能不适用。",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},27478,"如何在配置文件中设置层析成像（Laminography\u002F倾斜 CT）的角度参数？","目前的配置文件示例中可能没有直接显示倾斜角度参数。对于倾斜 CT（如 40 度），用户通常需要修改数据生成脚本或配置中的几何定义部分。如果默认配置不支持，可能需要手动调整投影几何矩阵或在数据生成阶段对体积图像进行相应的倾斜变换（tilt the volume image），以模拟层析成像的几何结构。具体实现需参考数据生成脚本的逻辑。","https:\u002F\u002Fgithub.com\u002Fcaiyuanhao1998\u002FSAX-NeRF\u002Fissues\u002F25",{"id":165,"question_zh":166,"answer_zh":167,"source_url":168},27479,"运行测试脚本时出现 'No CUDA runtime is found' 或 '_hash_encoder' 编译失败错误如何解决？","这通常是因为环境中缺少正确的 CUDA 运行时或 Ninja 构建工具，导致 PyTorch 无法编译自定义 CUDA 扩展（如 hashencoder）。请确保：\n1. 已正确安装与 PyTorch 版本匹配的 CUDA Toolkit。\n2. 已安装 `ninja` 构建系统（可通过 `pip install ninja` 或系统包管理器安装）。\n3. 如果使用 Windows，强烈建议切换到 Ubuntu 环境，因为该项目的编译脚本主要针对 Linux 优化。","https:\u002F\u002Fgithub.com\u002Fcaiyuanhao1998\u002FSAX-NeRF\u002Fissues\u002F51",[]]