[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-yenchenlin--nerf-pytorch":3,"tool-yenchenlin--nerf-pytorch":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":10,"env_os":94,"env_gpu":95,"env_ram":94,"env_deps":96,"category_tags":105,"github_topics":78,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":106,"updated_at":107,"faqs":108,"releases":143},3016,"yenchenlin\u002Fnerf-pytorch","nerf-pytorch","A PyTorch implementation of NeRF (Neural Radiance Fields) that reproduces the results.","nerf-pytorch 是神经辐射场（NeRF）技术的 PyTorch 版本实现，旨在通过深度学习从一组静态照片中合成复杂场景的全新视角，生成逼真的 3D 漫游视频。它有效解决了传统方法在处理复杂光影和几何结构时难以还原真实感的难题，让计算机能够“理解”并重建三维空间。\n\n该项目忠实复现了原始论文的实验结果，并在运行效率上提升了约 1.3 倍，同时保证了数值计算的一致性。代码结构清晰，提供了乐高、蕨类植物等经典数据集的快速启动脚本及预训练模型，支持用户轻松进行训练与渲染测试。\n\nnerf-pytorch 特别适合计算机视觉领域的研究人员、希望深入理解 NeRF 原理的开发者，以及需要构建高质量新视角合成应用的技术团队。对于想要尝试将 2D 图像转化为沉浸式 3D 体验的设计师而言，这也是一个极具价值的参考工程。依托 PyTorch 生态，它在保持高性能的同时降低了学习与部署门槛，是探索前沿视图合成技术的理想起点。","# NeRF-pytorch\n\n\n[NeRF](http:\u002F\u002Fwww.matthewtancik.com\u002Fnerf) (Neural Radiance Fields) is a method that achieves state-of-the-art results for synthesizing novel views of complex scenes. Here are some videos generated by this repository (pre-trained models are provided below):\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyenchenlin_nerf-pytorch_readme_0e8dabd6d382.gif)\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyenchenlin_nerf-pytorch_readme_113ddf976880.gif)\n\nThis project is a faithful PyTorch implementation of [NeRF](http:\u002F\u002Fwww.matthewtancik.com\u002Fnerf) that **reproduces** the results while running **1.3 times faster**. The code is based on authors' Tensorflow implementation [here](https:\u002F\u002Fgithub.com\u002Fbmild\u002Fnerf), and has been tested to match it numerically. \n\n## Installation\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch.git\ncd nerf-pytorch\npip install -r requirements.txt\n```\n\n\u003Cdetails>\n  \u003Csummary> Dependencies (click to expand) \u003C\u002Fsummary>\n  \n  ## Dependencies\n  - PyTorch 1.4\n  - matplotlib\n  - numpy\n  - imageio\n  - imageio-ffmpeg\n  - configargparse\n  \nThe LLFF data loader requires ImageMagick.\n\nYou will also need the [LLFF code](http:\u002F\u002Fgithub.com\u002Ffyusion\u002Fllff) (and COLMAP) set up to compute poses if you want to run on your own real data.\n  \n\u003C\u002Fdetails>\n\n## How To Run?\n\n### Quick Start\n\nDownload data for two example datasets: `lego` and `fern`\n```\nbash download_example_data.sh\n```\n\nTo train a low-res `lego` NeRF:\n```\npython run_nerf.py --config configs\u002Flego.txt\n```\nAfter training for 100k iterations (~4 hours on a single 2080 Ti), you can find the following video at `logs\u002Flego_test\u002Flego_test_spiral_100000_rgb.mp4`.\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyenchenlin_nerf-pytorch_readme_4c8737cad53b.gif)\n\n---\n\nTo train a low-res `fern` NeRF:\n```\npython run_nerf.py --config configs\u002Ffern.txt\n```\nAfter training for 200k iterations (~8 hours on a single 2080 Ti), you can find the following video at `logs\u002Ffern_test\u002Ffern_test_spiral_200000_rgb.mp4` and `logs\u002Ffern_test\u002Ffern_test_spiral_200000_disp.mp4`\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyenchenlin_nerf-pytorch_readme_3063c9d8917e.gif)\n\n---\n\n### More Datasets\nTo play with other scenes presented in the paper, download the data [here](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F128yBriW1IG_3NJ5Rp7APSTZsJqdJdfc1). Place the downloaded dataset according to the following directory structure:\n```\n├── configs                                                                                                       \n│   ├── ...                                                                                     \n│                                                                                               \n├── data                                                                                                                                                                                                       \n│   ├── nerf_llff_data                                                                                                  \n│   │   └── fern                                                                                                                             \n│   │   └── flower  # downloaded llff dataset                                                                                  \n│   │   └── horns   # downloaded llff dataset\n|   |   └── ...\n|   ├── nerf_synthetic\n|   |   └── lego\n|   |   └── ship    # downloaded synthetic dataset\n|   |   └── ...\n```\n\n---\n\nTo train NeRF on different datasets: \n\n```\npython run_nerf.py --config configs\u002F{DATASET}.txt\n```\n\nreplace `{DATASET}` with `trex` | `horns` | `flower` | `fortress` | `lego` | etc.\n\n---\n\nTo test NeRF trained on different datasets: \n\n```\npython run_nerf.py --config configs\u002F{DATASET}.txt --render_only\n```\n\nreplace `{DATASET}` with `trex` | `horns` | `flower` | `fortress` | `lego` | etc.\n\n\n### Pre-trained Models\n\nYou can download the pre-trained models [here](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1jIr8dkvefrQmv737fFm2isiT6tqpbTbv). Place the downloaded directory in `.\u002Flogs` in order to test it later. See the following directory structure for an example:\n\n```\n├── logs \n│   ├── fern_test\n│   ├── flower_test  # downloaded logs\n│   ├── trex_test    # downloaded logs\n```\n\n### Reproducibility \n\nTests that ensure the results of all functions and training loop match the official implentation are contained in a different branch `reproduce`. One can check it out and run the tests:\n```\ngit checkout reproduce\npy.test\n```\n\n## Method\n\n[NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis](http:\u002F\u002Ftancik.com\u002Fnerf)  \n [Ben Mildenhall](https:\u002F\u002Fpeople.eecs.berkeley.edu\u002F~bmild\u002F)\\*\u003Csup>1\u003C\u002Fsup>,\n [Pratul P. Srinivasan](https:\u002F\u002Fpeople.eecs.berkeley.edu\u002F~pratul\u002F)\\*\u003Csup>1\u003C\u002Fsup>,\n [Matthew Tancik](http:\u002F\u002Ftancik.com\u002F)\\*\u003Csup>1\u003C\u002Fsup>,\n [Jonathan T. Barron](http:\u002F\u002Fjonbarron.info\u002F)\u003Csup>2\u003C\u002Fsup>,\n [Ravi Ramamoorthi](http:\u002F\u002Fcseweb.ucsd.edu\u002F~ravir\u002F)\u003Csup>3\u003C\u002Fsup>,\n [Ren Ng](https:\u002F\u002Fwww2.eecs.berkeley.edu\u002FFaculty\u002FHomepages\u002Fyirenng.html)\u003Csup>1\u003C\u002Fsup> \u003Cbr>\n \u003Csup>1\u003C\u002Fsup>UC Berkeley, \u003Csup>2\u003C\u002Fsup>Google Research, \u003Csup>3\u003C\u002Fsup>UC San Diego  \n  \\*denotes equal contribution  \n  \n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyenchenlin_nerf-pytorch_readme_2a2f84fedd20.jpg'\u002F>\n\n> A neural radiance field is a simple fully connected network (weights are ~5MB) trained to reproduce input views of a single scene using a rendering loss. The network directly maps from spatial location and viewing direction (5D input) to color and opacity (4D output), acting as the \"volume\" so we can use volume rendering to differentiably render new views\n\n\n## Citation\nKudos to the authors for their amazing results:\n```\n@misc{mildenhall2020nerf,\n    title={NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis},\n    author={Ben Mildenhall and Pratul P. Srinivasan and Matthew Tancik and Jonathan T. Barron and Ravi Ramamoorthi and Ren Ng},\n    year={2020},\n    eprint={2003.08934},\n    archivePrefix={arXiv},\n    primaryClass={cs.CV}\n}\n```\n\nHowever, if you find this implementation or pre-trained models helpful, please consider to cite:\n```\n@misc{lin2020nerfpytorch,\n  title={NeRF-pytorch},\n  author={Yen-Chen, Lin},\n  publisher = {GitHub},\n  journal = {GitHub repository},\n  howpublished={\\url{https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch\u002F}},\n  year={2020}\n}\n```\n","# NeRF-pytorch\n\n\n[NeRF](http:\u002F\u002Fwww.matthewtancik.com\u002Fnerf)（神经辐射场）是一种在复杂场景新视角合成任务中达到最先进水平的方法。以下是该仓库生成的一些视频（下方提供了预训练模型）：\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyenchenlin_nerf-pytorch_readme_0e8dabd6d382.gif)\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyenchenlin_nerf-pytorch_readme_113ddf976880.gif)\n\n本项目是对 [NeRF](http:\u002F\u002Fwww.matthewtancik.com\u002Fnerf) 的忠实 PyTorch 实现，能够在**复现原结果**的同时，运行速度提升至**1.3倍**。代码基于作者的 TensorFlow 实现[此处](https:\u002F\u002Fgithub.com\u002Fbmild\u002Fnerf)，并经过测试，在数值上与之完全一致。\n\n## 安装\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch.git\ncd nerf-pytorch\npip install -r requirements.txt\n```\n\n\u003Cdetails>\n  \u003Csummary> 依赖项（点击展开） \u003C\u002Fsummary>\n  \n  ## 依赖项\n  - PyTorch 1.4\n  - matplotlib\n  - numpy\n  - imageio\n  - imageio-ffmpeg\n  - configargparse\n  \nLLFF 数据加载器需要 ImageMagick。\n\n如果您想使用自己的真实数据进行实验，还需要设置好 [LLFF 代码](http:\u002F\u002Fgithub.com\u002Ffyusion\u002Fllff)（以及 COLMAP）来计算相机位姿。\n  \n\u003C\u002Fdetails>\n\n## 如何运行？\n\n### 快速入门\n\n下载两个示例数据集 `lego` 和 `fern` 的数据：\n```\nbash download_example_data.sh\n```\n\n训练低分辨率的 `lego` NeRF：\n```\npython run_nerf.py --config configs\u002Flego.txt\n```\n训练 10 万次迭代后（在单张 2080 Ti 上大约需 4 小时），您可以在 `logs\u002Flego_test\u002Flego_test_spiral_100000_rgb.mp4` 中找到以下视频。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyenchenlin_nerf-pytorch_readme_4c8737cad53b.gif)\n\n---\n\n训练低分辨率的 `fern` NeRF：\n```\npython run_nerf.py --config configs\u002Ffern.txt\n```\n训练 20 万次迭代后（在单张 2080 Ti 上大约需 8 小时），您可以在 `logs\u002Ffern_test\u002Ffern_test_spiral_200000_rgb.mp4` 和 `logs\u002Ffern_test\u002Ffern_test_spiral_200000_disp.mp4` 中找到以下视频。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyenchenlin_nerf-pytorch_readme_3063c9d8917e.gif)\n\n---\n\n### 更多数据集\n\n要尝试论文中提到的其他场景，请从[这里](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F128yBriW1IG_3NJ5Rp7APSTZsJqdJdfc1)下载数据。请按照以下目录结构放置下载的数据：\n```\n├── configs                                                                                                       \n│   ├── ...                                                                                     \n│                                                                                               \n├── data                                                                                                                                                                                                       \n│   ├── nerf_llff_data                                                                                                  \n│   │   └── fern                                                                                                                             \n│   │   └── flower  # 下载的 llff 数据集                                                                                  \n│   │   └── horns   # 下载的 llff 数据集\n|   |   └── ...\n|   ├── nerf_synthetic\n|   |   └── lego\n|   |   └── ship    # 下载的合成数据集\n|   |   └── ...\n```\n\n---\n\n要在不同数据集上训练 NeRF：\n\n```\npython run_nerf.py --config configs\u002F{DATASET}.txt\n```\n\n将 `{DATASET}` 替换为 `trex` | `horns` | `flower` | `fortress` | `lego` 等。\n\n---\n\n要测试在不同数据集上训练的 NeRF：\n\n```\npython run_nerf.py --config configs\u002F{DATASET}.txt --render_only\n```\n\n将 `{DATASET}` 替换为 `trex` | `horns` | `flower` | `fortress` | `lego` 等。\n\n### 预训练模型\n\n您可以从[这里](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1jIr8dkvefrQmv737fFm2isiT6tqpbTbv)下载预训练模型。将下载的文件夹放入 `.\u002Flogs` 目录中，以便后续测试。以下是一个示例目录结构：\n\n```\n├── logs \n│   ├── fern_test\n│   ├── flower_test  # 下载的日志\n│   ├── trex_test    # 下载的日志\n```\n\n### 可复现性\n\n确保所有函数和训练循环的结果与官方实现一致的测试包含在一个名为 `reproduce` 的分支中。您可以检出该分支并运行测试：\n```\ngit checkout reproduce\npy.test\n```\n\n## 方法\n\n[NeRF：将场景表示为神经辐射场以进行视图合成](http:\u002F\u002Ftancik.com\u002Fnerf)  \n [Ben Mildenhall](https:\u002F\u002Fpeople.eecs.berkeley.edu\u002F~bmild\u002F)\\*\u003Csup>1\u003C\u002Fsup>,\n [Pratul P. Srinivasan](https:\u002F\u002Fpeople.eecs.berkeley.edu\u002F~pratul\u002F)\\*\u003Csup>1\u003C\u002Fsup>,\n [Matthew Tancik](http:\u002F\u002Ftancik.com\u002F)\\*\u003Csup>1\u003C\u002Fsup>,\n [Jonathan T. Barron](http:\u002F\u002Fjonbarron.info\u002F)\u003Csup>2\u003C\u002Fsup>,\n [Ravi Ramamoorthi](http:\u002F\u002Fcseweb.ucsd.edu\u002F~ravir\u002F)\u003Csup>3\u003C\u002Fsup>,\n [Ren Ng](https:\u002F\u002Fwww2.eecs.berkeley.edu\u002FFaculty\u002FHomepages\u002Fyirenng.html)\u003Csup>1\u003C\u002Fsup> \u003Cbr>\n \u003Csup>1\u003C\u002Fsup>UC Berkeley, \u003Csup>2\u003C\u002Fsup>Google Research, \u003Csup>3\u003C\u002Fsup>UC San Diego  \n  \\*表示共同贡献  \n  \n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyenchenlin_nerf-pytorch_readme_2a2f84fedd20.jpg'\u002F>\n\n> 神经辐射场是一个简单的全连接网络（权重约 5MB），通过渲染损失训练以重现单个场景的输入视图。该网络直接从空间位置和观察方向（5D 输入）映射到颜色和不透明度（4D 输出），充当“体”，因此我们可以使用体渲染以可微分的方式渲染新视图。\n\n\n## 引用\n向作者们致敬，感谢他们取得的卓越成果：\n```\n@misc{mildenhall2020nerf,\n    title={NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis},\n    author={Ben Mildenhall and Pratul P. Srinivasan and Matthew Tancik and Jonathan T. Barron and Ravi Ramamoorthi and Ren Ng},\n    year={2020},\n    eprint={2003.08934},\n    archivePrefix={arXiv},\n    primaryClass={cs.CV}\n}\n```\n\n然而，如果您觉得本实现或预训练模型有所帮助，请考虑引用：\n```\n@misc{lin2020nerfpytorch,\n  title={NeRF-pytorch},\n  author={Yen-Chen, Lin},\n  publisher = {GitHub},\n  journal = {GitHub repository},\n  howpublished={\\url{https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch\u002F}},\n  year={2020}\n}\n```","# NeRF-pytorch 快速上手指南\n\nNeRF-pytorch 是经典神经辐射场（Neural Radiance Fields）项目的 PyTorch 复现版本。它在保持与官方 TensorFlow 实现数值一致的前提下，运行速度提升了约 1.3 倍，支持从单场景图像合成高质量的新视角视图。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux 或 macOS（Windows 需额外配置 ImageMagick 等依赖，建议优先使用 Linux）。\n*   **Python 版本**：推荐 Python 3.6+。\n*   **硬件要求**：需要 NVIDIA GPU（项目测试基于 2080 Ti，显存建议 8GB 以上以训练低分辨率模型）。\n*   **核心依赖**：\n    *   PyTorch 1.4+\n    *   matplotlib, numpy, imageio, imageio-ffmpeg, configargparse\n*   **外部工具**（可选）：\n    *   若需处理自定义真实世界数据，需安装 **ImageMagick** 以及 [LLFF](https:\u002F\u002Fgithub.com\u002Ffyusion\u002Fllff) 和 **COLMAP** 用于计算相机姿态。\n\n> **提示**：国内用户安装 Python 依赖时，建议使用清华或阿里镜像源加速：\n> `pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n## 安装步骤\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch.git\n    cd nerf-pytorch\n    ```\n\n2.  **安装依赖**\n    ```bash\n    pip install -r requirements.txt\n    ```\n\n3.  **下载示例数据**\n    执行脚本自动下载 `lego` 和 `fern` 两个示例数据集：\n    ```bash\n    bash download_example_data.sh\n    ```\n    *(注：若下载速度慢，可手动从 Google Drive 链接下载并解压至 `data` 目录，保持 README 中描述的目录结构)*\n\n## 基本使用\n\n以下以训练低分辨率的 `lego` 数据集为例，展示最简工作流程。\n\n### 1. 开始训练\n运行以下命令启动训练过程。在单张 2080 Ti 显卡上，训练 100k 次迭代（约 4 小时）即可得到不错的效果。\n\n```bash\npython run_nerf.py --config configs\u002Flego.txt\n```\n\n训练日志和中间结果将保存在 `logs\u002F` 目录下。\n\n### 2. 查看结果\n训练完成后，生成的螺旋视角渲染视频位于：\n`logs\u002Flego_test\u002Flego_test_spiral_100000_rgb.mp4`\n\n### 3. 切换其他数据集\n若要训练其他场景（如 `fern`, `flower`, `horns` 等），只需替换配置文件名：\n\n```bash\n# 训练 fern 数据集 (约需 200k 迭代)\npython run_nerf.py --config configs\u002Ffern.txt\n\n# 训练 horns 数据集\npython run_nerf.py --config configs\u002Fhorns.txt\n```\n\n### 4. 仅进行测试\u002F渲染\n如果您已拥有预训练模型（需下载并放入 `.\u002Flogs` 目录），可使用 `--render_only` 参数直接生成视频而无需重新训练：\n\n```bash\npython run_nerf.py --config configs\u002Flego.txt --render_only\n```","一家数字文物修复团队需要将博物馆中一件复杂的青铜器转化为可 360 度自由浏览的数字化资产，用于线上虚拟展览。\n\n### 没有 nerf-pytorch 时\n- 传统摄影建模难以处理青铜器表面的高反光和复杂镂空结构，生成的模型常出现纹理拉伸或几何空洞。\n- 若尝试复现原版 NeRF 论文效果，需搭建 TensorFlow 环境并手动调整大量参数，配置过程繁琐且容易出错。\n- 在单张消费级显卡上训练收敛速度极慢，完成一个高精度场景的渲染往往需要数天时间，严重拖慢项目进度。\n- 缺乏现成的预训练模型参考，团队必须从零开始验证算法有效性，研发风险高且试错成本巨大。\n\n### 使用 nerf-pytorch 后\n- 利用神经辐射场技术完美还原了青铜器的光泽质感与细微裂纹，实现了照片级真实感的任意视角合成。\n- 直接基于 PyTorch 框架运行，安装依赖简单，且代码经过数值验证，能稳定复现论文中的顶尖效果。\n- 得益于比原版快 1.3 倍的推理与训练速度，在单块 RTX 2080 Ti 上仅需约 4-8 小时即可完成高质量场景构建。\n- 直接调用官方提供的 `lego` 或 `fern` 等预训练模型作为基准，快速适配自有数据，大幅降低了开发门槛。\n\nnerf-pytorch 让中小团队也能以低成本、高效率将复杂实物转化为逼真的沉浸式 3D 体验，彻底打破了高质量新视图合成的技术壁垒。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyenchenlin_nerf-pytorch_3063c9d8.gif","yenchenlin","Yen-Chen Lin","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fyenchenlin_0259d25e.jpg",null,"http:\u002F\u002Fyenchenlin.me","https:\u002F\u002Fgithub.com\u002Fyenchenlin",[82,86],{"name":83,"color":84,"percentage":85},"Python","#3572A5",99.6,{"name":87,"color":88,"percentage":89},"Shell","#89e051",0.4,6019,1135,"2026-04-03T12:39:04","MIT","未说明","需要 NVIDIA GPU (基于 PyTorch 及训练时间参考：单张 RTX 2080 Ti)，显存需求未明确说明 (建议 8GB+)，CUDA 版本未说明",{"notes":97,"python":94,"dependencies":98},"LLFF 数据加载器需要安装 ImageMagick。若要在自己的真实数据上运行，需要配置 LLFF 代码库和 COLMAP 以计算相机姿态。训练低分辨率 'lego' 场景约需 4 小时 (2080 Ti)，'fern' 场景约需 8 小时。",[99,100,101,102,103,104],"PyTorch==1.4","matplotlib","numpy","imageio","imageio-ffmpeg","configargparse",[14,37],"2026-03-27T02:49:30.150509","2026-04-06T05:36:44.888962",[109,114,118,123,128,133,138],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},13901,"在 Lego 数据集上训练时，输出视频或测试帧全白或全黑，无法收敛怎么办？","这通常是由于配置文件参数设置不当导致的。尝试调整配置文件（如 configs\u002Flego.txt）：\n1. 确保 `white_bkgd = True`（如果背景是白色的）。\n2. 检查采样数量，尝试将 `N_importance` 从 128 改回 64，或者调整 `N_samples`。\n3. 有用户反馈使用旧版配置（移除部分新参数或降低采样数）可以产生合理结果。\n4. 确保数据路径 `datadir` 正确指向包含 transforms_train.json 等文件的目录。","https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch\u002Fissues\u002F5",{"id":115,"question_zh":116,"answer_zh":117,"source_url":113},13902,"运行代码时出现 \"no ndc\" 错误或验证集（val）不工作？","这个问题通常与配置文件中的数据集类型或预处理设置有关。请检查以下几点：\n1. 确认 `dataset_type` 设置为 `blender`（针对合成数据集）。\n2. 检查是否缺少必要的相机归一化设备坐标（NDC）设置，这通常在 `load_blender.py` 中处理。\n3. 确保输入的配置文件（如 lego.txt）完整且未被错误修改，特别是 `half_res` 和 `use_viewdirs` 参数。\n4. 如果问题依旧，尝试回退到之前的稳定版本配置，减少不必要的参数干扰。",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},13903,"该代码是否支持 NeRF 论文中的合成数据集（如 cars, drum 等）？","是的，该代码完全支持 NeRF 论文中的合成数据集（Blender 数据集）。\n1. 只需将配置中的 `datadir` 指向相应的数据集文件夹（如 `.\u002Fdata\u002Fnerf_synthetic\u002Fcar`）。\n2. 确保 `dataset_type = blender`。\n3. 维护者已展示过在多个合成物体（如 Lego, Mic 等）上的成功训练结果（约 10k 次迭代即可看到效果）。\n4. 如果早期训练（1000 次迭代内）只渲染出白色背景，可能是训练发散，可参考相关优化建议或调整学习率衰减策略。","https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch\u002Fissues\u002F6",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},13904,"渲染结果异常（如图像全黑、花屏或形状怪异）如何解决？","渲染异常通常由 PyTorch 版本不兼容或代码更新引入的 Bug 导致。\n解决方案：\n1. **版本回退**：暂时将代码库回退到稳定的提交点（例如 commit f38216f），避免使用最新的 dev 分支。\n2. **依赖匹配**：确保使用与模型训练时一致的 PyTorch 版本（推荐 torch==1.4.0, torchvision==0.5.0）。\n3. **手动安装扩展**：如果使用旧版依赖，记得手动安装 `torchsearchsorted`（进入该目录运行 `pip install .`）。\n4. **单卡测试**：如果在多 GPU 环境下出错，尝试先在单 GPU 上运行以排除分布式训练的问题。","https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch\u002Fissues\u002F33",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},13905,"运行预训练模型时报错 \"FileNotFoundError: transforms_train.json\" 找不到文件？","这是因为 `--render_only` 模式仍然尝试加载原始数据集的元数据文件（transforms_train.json），而预训练模型包中通常不包含这些大文件。\n解决方法：\n1. **下载完整数据集**：确保 `datadir` 指向的路径下包含完整的 NeRF 合成数据集（含 transforms_train.json, transforms_val.json 等）。\n2. **修改配置**：如果是为了测试预训练权重，确保配置文件中的 `expname` 正确，并且不要随意更改数据加载逻辑。\n3. **命令行覆盖**：可以通过命令行参数 `--expname` 覆盖配置文件中的实验名称，例如：`python run_nerf.py --config configs\u002Flego.txt --render_only --expname lego_test`。","https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch\u002Fissues\u002F15",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},13906,"训练完成后没有生成输出视频（.mp4 文件）怎么办？","如果训练结束但没有生成视频，可能是渲染步骤未触发或路径配置错误。\n1. **检查日志路径**：确认输出视频是否在预期的 `logs\u002F\u003Cexpname>\u002F\u003Cexpname>_spiral_\u003Citer>_rgb.mp4` 路径下。\n2. **显式渲染**：训练结束后，可能需要单独运行渲染命令。使用 `--render_only` 标志配合对应的配置文件重新运行脚本，例如：`python run_nerf.py --config configs\u002Flego.txt --render_only`。\n3. **迭代次数**：确保训练达到了足够的迭代次数（通常建议 200k 次以上以获得高质量视频），有时脚本在达到特定步数后才会自动触发最终渲染。","https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch\u002Fissues\u002F14",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},13907,"遇到 \"CUDA error: device-side assert triggered\" 错误如何排查？","这是一个常见的 CUDA 运行时错误，通常由索引越界或张量维度不匹配引起。\n排查步骤：\n1. **检查 PyTorch 和 CUDA 版本**：确保 PyTorch 版本与安装的 CUDA 版本兼容（例如 PyTorch 1.11.0 配 CUDA 11.3，或回退到 PyTorch 1.4.0 配 CUDA 10.1）。\n2. **简化环境**：尝试在单 GPU 环境下运行，排除多卡通信问题。\n3. **数据检查**：确认输入数据中没有异常的 NaN 或 Inf 值，这可能导致网络前向传播时的断言失败。\n4. **社区反馈**：该错误在多个衍生项目（如 A-NeRF）中也出现过，若上述方法无效，建议检查 `run_network` 函数中的 batchify 逻辑或降低 `netchunk` 大小以减少显存压力。","https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch\u002Fissues\u002F11",[]]