[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-autonomousvision--sdfstudio":3,"tool-autonomousvision--sdfstudio":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":78,"owner_url":79,"languages":80,"stars":107,"forks":108,"last_commit_at":109,"license":110,"difficulty_score":111,"env_os":112,"env_gpu":113,"env_ram":114,"env_deps":115,"category_tags":123,"github_topics":124,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":132,"updated_at":133,"faqs":134,"releases":165},3196,"autonomousvision\u002Fsdfstudio","sdfstudio","A Unified Framework for Surface Reconstruction","SDFStudio 是一个基于 Nerfstudio 构建的开源框架，专注于神经隐式表面重建。它旨在解决当前该领域算法分散、实现不统一的问题，为研究人员和开发者提供了一个模块化且高度集成的实验平台。\n\n通过统一实现 UniSurf、VolSDF 和 NeuS 等主流方法，SDFStudio 让用户能够轻松对比不同算法的效果。其核心亮点在于极强的灵活性与组合能力：不仅支持 MLP、三平面及多分辨率特征网格等多种场景表示方式，还集成了单目深度线索（MonoSDF）、几何正则化及多视图一致性等前沿技术。得益于模块化设计，用户可以像搭积木一样将不同方法的创新点相互迁移，例如快速构建结合单目先验的 NeuS 变体，极大降低了复现和改进算法的门槛。\n\n此外，SDFStudio 持续跟进最新进展，已整合了 BakedSDF 和 Neuralangelo 等高效训练策略。它特别适合计算机视觉领域的研究人员、算法工程师以及希望深入探索 3D 重建技术的高级开发者使用。无论是进行学术对比实验，还是开发自定义的重建流程，SDFStudio 都能提供坚实的基础设施支持，帮助用户更高效地生成高质量的三维表面模型","SDFStudio 是一个基于 Nerfstudio 构建的开源框架，专注于神经隐式表面重建。它旨在解决当前该领域算法分散、实现不统一的问题，为研究人员和开发者提供了一个模块化且高度集成的实验平台。\n\n通过统一实现 UniSurf、VolSDF 和 NeuS 等主流方法，SDFStudio 让用户能够轻松对比不同算法的效果。其核心亮点在于极强的灵活性与组合能力：不仅支持 MLP、三平面及多分辨率特征网格等多种场景表示方式，还集成了单目深度线索（MonoSDF）、几何正则化及多视图一致性等前沿技术。得益于模块化设计，用户可以像搭积木一样将不同方法的创新点相互迁移，例如快速构建结合单目先验的 NeuS 变体，极大降低了复现和改进算法的门槛。\n\n此外，SDFStudio 持续跟进最新进展，已整合了 BakedSDF 和 Neuralangelo 等高效训练策略。它特别适合计算机视觉领域的研究人员、算法工程师以及希望深入探索 3D 重建技术的高级开发者使用。无论是进行学术对比实验，还是开发自定义的重建流程，SDFStudio 都能提供坚实的基础设施支持，帮助用户更高效地生成高质量的三维表面模型。","\u003Cp align=\"center\">\n    \u003Cimg alt=\"nerfstudio\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_sdfstudio_readme_b557b531cf12.png\" width=\"300\">\n    \u003Ch1 align=\"center\">A Unified Framework for Surface Reconstruction\u003C\u002Fh1>\n    \u003Ch3 align=\"center\">\u003Ca href=\"https:\u002F\u002Fautonomousvision.github.io\u002Fsdfstudio\u002F\">Project Page\u003C\u002Fa> | \u003Ca href=\"docs\u002Fsdfstudio-methods.md\">Documentation\u003C\u002Fa> | \u003Ca href=\"docs\u002Fsdfstudio-data.md\">Datasets\u003C\u002Fa> | \u003Ca href=\"docs\u002Fsdfstudio-examples.md\">Examples\u003C\u002Fa> \u003C\u002Fh3>\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_sdfstudio_readme_9420f3d9abfa.png\" center width=\"95%\"\u002F>\n\u003C\u002Fp>\n\n# About\n\nSDFStudio is a unified and modular framework for neural implicit surface reconstruction, built on top of the awesome nerfstudio project. We provide a unified implementation of three major implicit surface reconstruction methods: UniSurf, VolSDF, and NeuS. SDFStudio also supports various scene representions, such as MLPs, Tri-plane, and Multi-res. feature grids, and multiple point sampling strategies such as surface-guided sampling as in UniSurf, and Voxel-surface guided sampling from NeuralReconW. It further integrates recent advances in the area such as the utillization of monocular cues (MonoSDF), geometry regularization (UniSurf) and multi-view consistency (Geo-NeuS). Thanks to the unified and modular implementation, SDFStudio makes it easy to transfer ideas from one method to another. For example, Mono-NeuS applies the idea from MonoSDF to NeuS, and Geo-VolSDF applies the idea from Geo-NeuS to VolSDF.\n\n# Updates\n\n**2023.06.16**: Add `bakedangelo` which combines `BakedSDF` with numerical gridents and progressive training of `Neuralangelo`.\n\n**2023.06.16**: Add `neus-facto-angelo` which combines `neus-facto` with numerical gridents and progressive training of `Neuralangelo`.\n\n**2023.06.16**: Support [Neuralangelo](https:\u002F\u002Fresearch.nvidia.com\u002Flabs\u002Fdir\u002Fneuralangelo\u002F).\n\n**2023.03.12**: Support [BakedSDF](https:\u002F\u002Fbakedsdf.github.io\u002F).\n\n**2022.12.28**: Support [Neural RGB-D Surface Reconstruction](https:\u002F\u002Fdazinovic.github.io\u002Fneural-rgbd-surface-reconstruction\u002F).\n\n# Quickstart\n\n## 1. Installation: Setup the environment\n\n### Prerequisites\n\nCUDA must be installed on the system. This library has been tested with version 11.3. You can find more information about installing CUDA [here](https:\u002F\u002Fdocs.nvidia.com\u002Fcuda\u002Fcuda-quick-start-guide\u002Findex.html).\n\n### Create environment\n\nSDFStudio requires `python >= 3.7`. We recommend using conda to manage dependencies. Make sure to install [Conda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002Fminiconda.html) before proceeding.\n\n```bash\nconda create --name sdfstudio -y python=3.8\nconda activate sdfstudio\npython -m pip install --upgrade pip\n```\n\n### Dependencies\n\nInstall pytorch with CUDA (this repo has been tested with CUDA 11.3) and [tiny-cuda-nn](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Ftiny-cuda-nn)\n\n```bash\npip install torch==1.12.1+cu113 torchvision==0.13.1+cu113 -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html\npip install git+https:\u002F\u002Fgithub.com\u002FNVlabs\u002Ftiny-cuda-nn\u002F#subdirectory=bindings\u002Ftorch\n```\n\n### Installing SDFStudio\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fsdfstudio.git\ncd sdfstudio\npip install --upgrade pip setuptools\npip install -e .\n# install tab completion\nns-install-cli\n```\n\n## 2. Train your first model\n\nThe following will train a _NeuS-facto_ model,\n\n```bash\n# Download some test data: you might need to install curl if your system don't have that\nns-download-data sdfstudio\n\n# Train model on the dtu dataset scan65\nns-train neus-facto --pipeline.model.sdf-field.inside-outside False --vis viewer --experiment-name neus-facto-dtu65 sdfstudio-data --data data\u002Fsdfstudio-demo-data\u002Fdtu-scan65\n\n# Or you could also train model on the Replica dataset room0 with monocular priors\nns-train neus-facto --pipeline.model.sdf-field.inside-outside True --pipeline.model.mono-depth-loss-mult 0.1 --pipeline.model.mono-normal-loss-mult 0.05 --vis viewer --experiment-name neus-facto-replica1 sdfstudio-data --data data\u002Fsdfstudio-demo-data\u002Freplica-room0 --include_mono_prior True\n```\n\nIf everything works, you should see the following training progress:\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"800\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_sdfstudio_readme_f88717f8afd5.png\">\n\u003C\u002Fp>\n\nNavigating to the link at the end of the terminal will load the webviewer (developled by nerfstudio). If you are running on a remote machine, you will need to port forward the websocket port (defaults to 7007). With an RTX3090 GPU, it takes ~15 mins for 20K iterations but you can already see reasonable reconstruction results after 2K iterations in the webviewer.\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"800\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_sdfstudio_readme_112fe7fae979.png\">\n\u003C\u002Fp>\n\n### Resume from checkpoint \u002F visualize existing run\n\nIt is also possible to load a pretrained model by running\n\n```bash\nns-train neus-facto --trainer.load-dir {outputs\u002Fneus-facto-dtu65\u002Fneus-facto\u002FXXX\u002Fsdfstudio_models} sdfstudio-data --data data\u002Fsdfstudio-demo-data\u002Fdtu-scan65 \n```\n\nThis will automatically resume training. If you do not want to resume training, add `--viewer.start-train False` to your training command. **Note that the order of command matters, dataparser subcommand needs to come after the model subcommand.**\n\n## 3. Exporting Results\n\nOnce you have a trained model you can export mesh and render the mesh.\n\n### Extract Mesh\n\n```bash\nns-extract-mesh --load-config outputs\u002Fneus-facto-dtu65\u002Fneus-facto\u002FXXX\u002Fconfig.yml --output-path meshes\u002Fneus-facto-dtu65.ply\n```\n\n### Render Mesh\n\n```\nns-render-mesh --meshfile meshes\u002Fneus-facto-dtu65.ply --traj interpolate  --output-path renders\u002Fneus-facto-dtu65.mp4 sdfstudio-data --data data\u002Fsdfstudio-demo-data\u002Fdtu-scan65\n```\n\nYou will get the following video if everything works properly.\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F13434986\u002F207892086-dd6cae89-7271-4904-9163-6a9bfec49a12.mp4\n\n### Render Video\n\nFirst we must create a path for the camera to follow. This can be done in the viewer under the \"RENDER\" tab. Orient your 3D view to the location where you wish the video to start, then press \"ADD CAMERA\". This will set the first camera key frame. Continue to new viewpoints adding additional cameras to create the camera path. We provide other parameters to further refine your camera path. Once satisfied, press \"RENDER\" which will display a modal that contains the command needed to render the video. Kill the training job (or create a new terminal if you have lots of compute) and the command to generate the video.\n\nTo view all video export options run:\n\n```bash\nns-render --help\n```\n\n## 4. Advanced Options\n\n### Training models other than NeuS-facto\n\nWe provide many other models than NeuS-facto, see [the documentation](docs\u002Fsdfstudio-methods.md). For example, if you want to train the original NeuS model, use the following command:\n\n```bash\nns-train neus --pipeline.model.sdf-field.inside-outside False sdfstudio-data --data data\u002Fsdfstudio-demo-data\u002Fdtu-scan65\n```\n\nFor a full list of included models run `ns-train --help`. Please refer to the [documentation](docs\u002Fsdfstudio-methods.md) for a more detailed explanation for each method.\n\n### Modify Configuration\n\nEach model contains many parameters that can be changed, too many to list here. Use the `--help` command to see the full list of configuration options.\n\n**Note, that order of parameters matters! For example, you cannot set `--machine.num-gpus` after the `--data` parameter**\n\n```bash\nns-train neus-facto --help\n```\n\n\u003Cdetails>\n\u003Csummary>[Click to see output]\u003C\u002Fsummary>\n\n![help-output](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_sdfstudio_readme_e4681c77c23f.png)\n\n\u003C\u002Fdetails>\n\n### Tensorboard \u002F WandB\n\nNerfstudio supports three different methods to track training progress, using the viewer, [tensorboard](https:\u002F\u002Fwww.tensorflow.org\u002Ftensorboard), and [Weights and Biases](https:\u002F\u002Fwandb.ai\u002Fsite). These visualization tools can also be used in SDFStudio. You can specify which visualizer to use by appending `--vis {viewer, tensorboard, wandb}` to the training command. Note that only one may be used at a time. Additionally the viewer only works for methods that are fast (ie. `NeuS-facto` and `NeuS-acc`), for slower methods like `NeuS-facto-bigmlp`, use the other loggers.\n\n## 5. Using Custom Data\n\nPlease refer to the [datasets](docs\u002Fsdfstudio-data.md) and [data format](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fsdfstudio\u002Fblob\u002Fmaster\u002Fdocs\u002Fsdfstudio-data.md#Dataset-format) documentation if you like to use custom datasets.\n\n# Built On\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fnerfstudio-project\u002Fnerfstudio\">\n\u003C!-- pypi-strip -->\n\u003Cpicture>\n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fdocs.nerf.studio\u002Fen\u002Flatest\u002F_images\u002Flogo.png\" \u002F>\n\u003C!-- \u002Fpypi-strip -->\n    \u003Cimg alt=\"tyro logo\" src=\"https:\u002F\u002Fdocs.nerf.studio\u002Fen\u002Flatest\u002F_images\u002Flogo.png\" width=\"150px\" \u002F>\n\u003C!-- pypi-strip -->\n\u003C\u002Fpicture>\n\u003C!-- \u002Fpypi-strip -->\n\u003C\u002Fa>\n\n- A collaboration friendly studio for NeRFs\n- Developed by [nerfstudio team](https:\u002F\u002Fgithub.com\u002Fnerfstudio-project)\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fbrentyi\u002Ftyro\">\n\u003C!-- pypi-strip -->\n\u003Cpicture>\n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fbrentyi.github.io\u002Ftyro\u002F_static\u002Flogo-dark.svg\" \u002F>\n\u003C!-- \u002Fpypi-strip -->\n    \u003Cimg alt=\"tyro logo\" src=\"https:\u002F\u002Fbrentyi.github.io\u002Ftyro\u002F_static\u002Flogo-light.svg\" width=\"150px\" \u002F>\n\u003C!-- pypi-strip -->\n\u003C\u002Fpicture>\n\u003C!-- \u002Fpypi-strip -->\n\u003C\u002Fa>\n\n- Easy-to-use config system\n- Developed by [Brent Yi](https:\u002F\u002Fbrentyi.com\u002F)\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FKAIR-BAIR\u002Fnerfacc\">\n\u003C!-- pypi-strip -->\n\u003Cpicture>\n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F3310961\u002F199083722-881a2372-62c1-4255-8521-31a95a721851.png\" \u002F>\n\u003C!-- \u002Fpypi-strip -->\n    \u003Cimg alt=\"tyro logo\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_sdfstudio_readme_6af681907002.png\" width=\"250px\" \u002F>\n\u003C!-- pypi-strip -->\n\u003C\u002Fpicture>\n\u003C!-- \u002Fpypi-strip -->\n\u003C\u002Fa>\n\n- Library for accelerating NeRF renders\n- Developed by [Ruilong Li](https:\u002F\u002Fwww.liruilong.cn\u002F)\n\n# Citation\n\nIf you use this library or find the documentation useful for your research, please consider citing:\n\n```bibtex\n@misc{Yu2022SDFStudio,\n    author    = {Yu, Zehao and Chen, Anpei and Antic, Bozidar and Peng, Songyou and Bhattacharyya, Apratim \n                 and Niemeyer, Michael and Tang, Siyu and Sattler, Torsten and Geiger, Andreas},\n    title     = {SDFStudio: A Unified Framework for Surface Reconstruction},\n    year      = {2022},\n    url       = {https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fsdfstudio},\n}\n```\n","\u003Cp align=\"center\">\n    \u003Cimg alt=\"nerfstudio\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_sdfstudio_readme_b557b531cf12.png\" width=\"300\">\n    \u003Ch1 align=\"center\">用于表面重建的统一框架\u003C\u002Fh1>\n    \u003Ch3 align=\"center\">\u003Ca href=\"https:\u002F\u002Fautonomousvision.github.io\u002Fsdfstudio\u002F\">项目页面\u003C\u002Fa> | \u003Ca href=\"docs\u002Fsdfstudio-methods.md\">文档\u003C\u002Fa> | \u003Ca href=\"docs\u002Fsdfstudio-data.md\">数据集\u003C\u002Fa> | \u003Ca href=\"docs\u002Fsdfstudio-examples.md\">示例\u003C\u002Fa> \u003C\u002Fh3>\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_sdfstudio_readme_9420f3d9abfa.png\" center width=\"95%\"\u002F>\n\u003C\u002Fp>\n\n# 关于\n\nSDFStudio 是一个基于强大的 nerfstudio 项目构建的、用于神经隐式表面重建的统一且模块化的框架。我们提供了三种主要隐式表面重建方法的统一实现：UniSurf、VolSDF 和 NeuS。SDFStudio 还支持多种场景表示方式，例如 MLP、Tri-plane 和多分辨率特征网格，并提供多种采样策略，如 UniSurf 中的表面引导采样以及 NeuralReconW 中的体素-表面引导采样。此外，它还整合了该领域的最新进展，例如单目线索的利用（MonoSDF）、几何正则化（UniSurf）和多视角一致性（Geo-NeuS）。得益于统一且模块化的实现，SDFStudio 使得将一种方法的思想迁移到另一种方法变得十分容易。例如，Mono-NeuS 将 MonoSDF 的思想应用到了 NeuS 上，而 Geo-VolSDF 则将 Geo-NeuS 的思想应用到了 VolSDF 上。\n\n# 更新\n\n**2023.06.16**: 添加 `bakedangelo`，它结合了 `BakedSDF` 与数值梯度以及 `Neuralangelo` 的渐进式训练。\n\n**2023.06.16**: 添加 `neus-facto-angelo`，它结合了 `neus-facto` 与数值梯度以及 `Neuralangelo` 的渐进式训练。\n\n**2023.06.16**: 支持 [Neuralangelo](https:\u002F\u002Fresearch.nvidia.com\u002Flabs\u002Fdir\u002Fneuralangelo\u002F)。\n\n**2023.03.12**: 支持 [BakedSDF](https:\u002F\u002Fbakedsdf.github.io\u002F)。\n\n**2022.12.28**: 支持 [Neural RGB-D Surface Reconstruction](https:\u002F\u002Fdazinovic.github.io\u002Fneural-rgbd-surface-reconstruction\u002F)。\n\n# 快速入门\n\n## 1. 安装：设置环境\n\n### 先决条件\n\n系统必须安装 CUDA。本库已在版本 11.3 上进行了测试。有关 CUDA 安装的更多信息，请参阅 [此处](https:\u002F\u002Fdocs.nvidia.com\u002Fcuda\u002Fcuda-quick-start-guide\u002Findex.html)。\n\n### 创建环境\n\nSDFStudio 需要 `python >= 3.7`。我们建议使用 conda 来管理依赖项。请确保在继续操作之前已安装 [Conda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002Fminiconda.html)。\n\n```bash\nconda create --name sdfstudio -y python=3.8\nconda activate sdfstudio\npython -m pip install --upgrade pip\n```\n\n### 依赖项\n\n安装带有 CUDA 的 PyTorch（本仓库已在 CUDA 11.3 上测试过）以及 [tiny-cuda-nn](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Ftiny-cuda-nn)。\n\n```bash\npip install torch==1.12.1+cu113 torchvision==0.13.1+cu113 -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html\npip install git+https:\u002F\u002Fgithub.com\u002FNVlabs\u002Ftiny-cuda-nn\u002F#subdirectory=bindings\u002Ftorch\n```\n\n### 安装 SDFStudio\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fsdfstudio.git\ncd sdfstudio\npip install --upgrade pip setuptools\npip install -e .\n# 安装 Tab 补全功能\nns-install-cli\n```\n\n## 2. 训练你的第一个模型\n\n以下将训练一个 _NeuS-facto_ 模型，\n\n```bash\n# 下载一些测试数据：如果你的系统没有 curl，可能需要先安装\nns-download-data sdfstudio\n\n# 在 dtu 数据集 scan65 上训练模型\nns-train neus-facto --pipeline.model.sdf-field.inside-outside False --vis viewer --experiment-name neus-facto-dtu65 sdfstudio-data --data data\u002Fsdfstudio-demo-data\u002Fdtu-scan65\n\n# 或者你也可以在 Replica 数据集 room0 上训练带有单目先验的模型\nns-train neus-facto --pipeline.model.sdf-field.inside-outside True --pipeline.model.mono-depth-loss-mult 0.1 --pipeline.model.mono-normal-loss-mult 0.05 --vis viewer --experiment-name neus-facto-replica1 sdfstudio-data --data data\u002Fsdfstudio-demo-data\u002Freplica-room0 --include_mono_prior True\n```\n\n如果一切顺利，你应该会看到如下训练进度：\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"800\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_sdfstudio_readme_f88717f8afd5.png\">\n\u003C\u002Fp>\n\n导航到终端末尾的链接将加载由 nerfstudio 开发的网页查看器。如果你是在远程机器上运行，你需要将 WebSocket 端口（默认为 7007）进行端口转发。使用 RTX3090 GPU，在 2 万次迭代中大约需要 15 分钟，但在网页查看器中，仅经过 2 千次迭代就能看到较为合理的重建结果。\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"800\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_sdfstudio_readme_112fe7fae979.png\">\n\u003C\u002Fp>\n\n### 从检查点恢复 \u002F 可视化现有运行\n\n也可以通过运行以下命令来加载预训练模型：\n\n```bash\nns-train neus-facto --trainer.load-dir {outputs\u002Fneus-facto-dtu65\u002Fneus-facto\u002FXXX\u002Fsdfstudio_models} sdfstudio-data --data data\u002Fsdfstudio-demo-data\u002Fdtu-scan65 \n```\n\n这将自动恢复训练。如果你不想恢复训练，可以在训练命令中添加 `--viewer.start-train False`。**请注意命令顺序很重要，数据解析子命令必须放在模型子命令之后。**\n\n## 3. 导出结果\n\n一旦你有了训练好的模型，就可以导出网格并渲染该网格。\n\n### 提取网格\n\n```bash\nns-extract-mesh --load-config outputs\u002Fneus-facto-dtu65\u002Fneus-facto\u002FXXX\u002Fconfig.yml --output-path meshes\u002Fneus-facto-dtu65.ply\n```\n\n### 渲染网格\n\n```\nns-render-mesh --meshfile meshes\u002Fneus-facto-dtu65.ply --traj interpolate  --output-path renders\u002Fneus-facto-dtu65.mp4 sdfstudio-data --data data\u002Fsdfstudio-demo-data\u002Fdtu-scan65\n```\n\n如果一切正常，你将得到如下视频。\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F13434986\u002F207892086-dd6cae89-7271-4904-9163-6a9bfec49a12.mp4\n\n### 渲染视频\n\n首先，我们需要为相机创建一条路径。这可以在查看器的“RENDER”选项卡中完成。将你的 3D 视图调整到你希望视频开始的位置，然后点击“ADD CAMERA”。这将设置第一个关键帧。继续添加其他相机以创建相机路径。我们还提供了其他参数来进一步优化你的相机路径。满意后，点击“RENDER”，将会弹出一个包含渲染视频所需命令的模态窗口。结束当前的训练任务（或者如果你有充足的计算资源，可以打开一个新的终端），然后执行生成视频的命令。\n\n要查看所有视频导出选项，请运行：\n\n```bash\nns-render --help\n```\n\n## 4. 高级选项\n\n### 训练除 NeuS-facto 之外的其他模型\n\n我们提供了许多除 NeuS-facto 外的其他模型，详情请参阅 [文档](docs\u002Fsdfstudio-methods.md)。例如，如果你想训练原始的 NeuS 模型，可以使用以下命令：\n\n```bash\nns-train neus --pipeline.model.sdf-field.inside-outside False sdfstudio-data --data data\u002Fsdfstudio-demo-data\u002Fdtu-scan65\n```\n\n要查看所有包含的模型列表，请运行 `ns-train --help`。有关每种方法的更详细说明，请参阅 [文档](docs\u002Fsdfstudio-methods.md)。\n\n### 修改配置\n\n每个模型包含许多可更改的参数，数量过多在此无法一一列出。请使用 `--help` 命令查看完整的配置选项列表。\n\n**请注意，参数的顺序很重要！例如，您不能在 `--data` 参数之后设置 `--machine.num-gpus`。**\n\n```bash\nns-train neus-facto --help\n```\n\n\u003Cdetails>\n\u003Csummary>[点击查看输出]\u003C\u002Fsummary>\n\n![help-output](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_sdfstudio_readme_e4681c77c23f.png)\n\n\u003C\u002Fdetails>\n\n### TensorBoard \u002F WandB\n\nNerfstudio 支持三种不同的方法来跟踪训练进度：使用查看器、[TensorBoard](https:\u002F\u002Fwww.tensorflow.org\u002Ftensorboard) 和 [Weights and Biases](https:\u002F\u002Fwandb.ai\u002Fsite)。这些可视化工具同样可以在 SDFStudio 中使用。您可以通过在训练命令后添加 `--vis {viewer, tensorboard, wandb}` 来指定要使用的可视化工具。请注意，一次只能使用其中一种。此外，查看器仅适用于速度快的方法（如 `NeuS-facto` 和 `NeuS-acc`），而对于较慢的方法（如 `NeuS-facto-bigmlp`），则应使用其他日志记录工具。\n\n## 5. 使用自定义数据\n\n如果您希望使用自定义数据集，请参阅 [数据集](docs\u002Fsdfstudio-data.md) 和 [数据格式](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fsdfstudio\u002Fblob\u002Fmaster\u002Fdocs\u002Fsdfstudio-data.md#Dataset-format) 文档。\n\n# 构建基础\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fnerfstudio-project\u002Fnerfstudio\">\n\u003C!-- pypi-strip -->\n\u003Cpicture>\n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fdocs.nerf.studio\u002Fen\u002Flatest\u002F_images\u002Flogo.png\" \u002F>\n\u003C!-- \u002Fpypi-strip -->\n    \u003Cimg alt=\"tyro logo\" src=\"https:\u002F\u002Fdocs.nerf.studio\u002Fen\u002Flatest\u002F_images\u002Flogo.png\" width=\"150px\" \u002F>\n\u003C!-- pypi-strip -->\n\u003C\u002Fpicture>\n\u003C!-- \u002Fpypi-strip -->\n\u003C\u002Fa>\n\n- 一个协作友好的 NeRF 工作室\n- 由 [nerfstudio 团队](https:\u002F\u002Fgithub.com\u002Fnerfstudio-project) 开发\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fbrentyi\u002Ftyro\">\n\u003C!-- pypi-strip -->\n\u003Cpicture>\n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fbrentyi.github.io\u002Ftyro\u002F_static\u002Flogo-dark.svg\" \u002F>\n\u003C!-- \u002Fpypi-strip -->\n    \u003Cimg alt=\"tyro logo\" src=\"https:\u002F\u002Fbrentyi.github.io\u002Ftyro\u002F_static\u002Flogo-light.svg\" width=\"150px\" \u002F>\n\u003C!-- pypi-strip -->\n\u003C\u002Fpicture>\n\u003C!-- \u002Fpypi-strip -->\n\u003C\u002Fa>\n\n- 易于使用的配置系统\n- 由 [Brent Yi](https:\u002F\u002Fbrentyi.com\u002F) 开发\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FKAIR-BAIR\u002Fnerfacc\">\n\u003C!-- pypi-strip -->\n\u003Cpicture>\n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F3310961\u002F199083722-881a2372-62c1-4255-8521-31a95a721851.png\" \u002F>\n\u003C!-- \u002Fpypi-strip -->\n    \u003Cimg alt=\"tyro logo\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_sdfstudio_readme_6af681907002.png\" width=\"250px\" \u002F>\n\u003C!-- pypi-strip -->\n\u003C\u002Fpicture>\n\u003C!-- \u002Fpypi-strip -->\n\u003C\u002Fa>\n\n- 用于加速 NeRF 渲染的库\n- 由 [Ruilong Li](https:\u002F\u002Fwww.liruilong.cn\u002F) 开发\n\n# 引用\n\n如果您使用了本库或发现文档对您的研究有所帮助，请考虑引用以下内容：\n\n```bibtex\n@misc{Yu2022SDFStudio,\n    author    = {Yu, Zehao and Chen, Anpei and Antic, Bozidar and Peng, Songyou and Bhattacharyya, Apratim \n                 and Niemeyer, Michael and Tang, Siyu and Sattler, Torsten and Geiger, Andreas},\n    title     = {SDFStudio: A Unified Framework for Surface Reconstruction},\n    year      = {2022},\n    url       = {https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fsdfstudio},\n}\n```","# SDFStudio 快速上手指南\n\nSDFStudio 是一个基于 Nerfstudio 构建的统一模块化框架，专用于神经隐式表面重建。它集成了 UniSurf、VolSDF、NeuS 等主流算法，并支持多种场景表示和采样策略。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐) 或 macOS\n*   **CUDA**: 必须安装 CUDA Toolkit (测试版本为 11.3)。\n    *   安装指南参考：[NVIDIA CUDA Quick Start](https:\u002F\u002Fdocs.nvidia.com\u002Fcuda\u002Fcuda-quick-start-guide\u002Findex.html)\n*   **Python**: 版本 >= 3.7 (推荐 3.8)\n*   **包管理器**: 推荐使用 Conda 管理依赖。\n\n## 2. 安装步骤\n\n### 2.1 创建虚拟环境\n\n```bash\nconda create --name sdfstudio -y python=3.8\nconda activate sdfstudio\npython -m pip install --upgrade pip\n```\n\n### 2.2 安装核心依赖\n\n安装带有 CUDA 支持的 PyTorch 和 `tiny-cuda-nn`。\n*(注：以下命令基于 CUDA 11.3，如需其他版本请调整 `cu113` 后缀)*\n\n```bash\n# 安装 PyTorch (使用官方源或国内镜像源，如清华源)\npip install torch==1.12.1+cu113 torchvision==0.13.1+cu113 -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html\n# 若下载缓慢，可尝试替换为清华镜像源参数：\n# pip install torch==1.12.1+cu113 torchvision==0.13.1+cu113 -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 安装 tiny-cuda-nn\npip install git+https:\u002F\u002Fgithub.com\u002FNVlabs\u002Ftiny-cuda-nn\u002F#subdirectory=bindings\u002Ftorch\n```\n\n### 2.3 安装 SDFStudio\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fsdfstudio.git\ncd sdfstudio\npip install --upgrade pip setuptools\npip install -e .\n\n# 安装命令行自动补全\nns-install-cli\n```\n\n## 3. 基本使用\n\n以下示例将演示如何下载测试数据并训练一个 `NeuS-facto` 模型。\n\n### 3.1 下载测试数据\n\n```bash\n# 下载 SDFStudio 演示数据 (需确保系统已安装 curl)\nns-download-data sdfstudio\n```\n\n### 3.2 训练模型\n\n使用 DTU 数据集 (scan65) 进行训练：\n\n```bash\nns-train neus-facto --pipeline.model.sdf-field.inside-outside False --vis viewer --experiment-name neus-facto-dtu65 sdfstudio-data --data data\u002Fsdfstudio-demo-data\u002Fdtu-scan65\n```\n\n**说明：**\n*   运行后终端会显示训练进度。\n*   训练结束后，终端会提供一个链接，点击即可在浏览器中打开可视化查看器 (Web Viewer)。\n*   **远程服务器用户**：如果是在远程机器上运行，需要将 websocket 端口（默认 7007）映射到本地。\n*   **性能参考**：在 RTX 3090 GPU 上，约 15 分钟可完成 20K 次迭代，但在 2K 次迭代后即可在查看器中看到初步的重建效果。\n\n### 3.3 导出结果\n\n训练完成后，您可以提取网格 Mesh 或渲染视频。\n\n**提取 Mesh (.ply):**\n```bash\nns-extract-mesh --load-config outputs\u002Fneus-facto-dtu65\u002Fneus-facto\u002FXXX\u002Fconfig.yml --output-path meshes\u002Fneus-facto-dtu65.ply\n```\n*(注意：请将 `XXX` 替换为实际生成的时间戳文件夹名称)*\n\n**渲染视频 (.mp4):**\n```bash\nns-render-mesh --meshfile meshes\u002Fneus-facto-dtu65.ply --traj interpolate  --output-path renders\u002Fneus-facto-dtu65.mp4 sdfstudio-data --data data\u002Fsdfstudio-demo-data\u002Fdtu-scan65\n```\n\n### 3.4 进阶提示\n\n*   **恢复训练\u002F加载预训练模型**:\n    ```bash\n    ns-train neus-facto --trainer.load-dir {outputs\u002Fneus-facto-dtu65\u002Fneus-facto\u002FXXX\u002Fsdfstudio_models} sdfstudio-data --data data\u002Fsdfstudio-demo-data\u002Fdtu-scan65 \n    ```\n    若仅想可视化而不继续训练，请添加 `--viewer.start-train False` 参数。\n\n*   **切换其他算法**:\n    SDFStudio 支持多种算法（如原始 NeuS, VolSDF 等）。例如训练原始 NeuS：\n    ```bash\n    ns-train neus --pipeline.model.sdf-field.inside-outside False sdfstudio-data --data data\u002Fsdfstudio-demo-data\u002Fdtu-scan65\n    ```\n    运行 `ns-train --help` 可查看完整支持的模型列表。\n\n*   **自定义数据**:\n    如需使用自己的数据集，请参考官方文档中的 [数据格式说明](docs\u002Fsdfstudio-data.md)。","某自动驾驶团队需要利用车载多视角相机数据，快速重建高保真的城市街道三维表面模型，以用于仿真测试和路径规划。\n\n### 没有 sdfstudio 时\n- **框架割裂严重**：团队成员若想对比 UniSurf、VolSDF 和 NeuS 三种主流算法，必须分别克隆三个独立的代码库，环境配置重复且极易冲突。\n- **创新迁移困难**：试图将单目深度先验（MonoSDF）引入 NeuS 架构时，因底层数据结构不兼容，需重写大量数据加载与采样逻辑，耗时数周。\n- **场景表达单一**：默认实现仅支持基础 MLP 网络，难以灵活切换至 Tri-plane 或多分辨率特征网格，导致在大规模街景重建中显存爆炸或细节丢失。\n- **调试成本高昂**：不同方法间的采样策略（如表面引导采样）无法统一可视化，排查几何伪影时只能靠猜，缺乏统一的调试视图。\n\n### 使用 sdfstudio 后\n- **统一实验平台**：基于 nerfstudio 构建的模块化架构，让团队只需一套环境即可一键切换并训练 UniSurf、VolSDF 及 NeuS 等多种算法，效率提升十倍。\n- **想法即插即用**：得益于解耦设计，研究人员轻松将 MonoSDF 的单目线索模块“嫁接”到 NeuS 上（即 Mono-NeuS），几天内便验证了新组合在弱纹理区域的重建效果。\n- **灵活场景适配**：自由组合 MLP、Tri-plane 等不同场景表示与体素引导采样策略，成功在有限显存下完成了高精度、大范围的街道模型重建。\n- **可视化全流程**：内置的统一查看器实时呈现几何正则化与多视角一致性效果，团队能直观定位并修复表面噪声，大幅缩短迭代周期。\n\nsdfstudio 通过打破算法壁垒，让三维重建研究从繁琐的工程拼凑转向高效的创新组合。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_sdfstudio_112fe7fa.png","autonomousvision","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fautonomousvision_e0fa4bb2.png",null,"https:\u002F\u002Fgithub.com\u002Fautonomousvision",[81,85,89,93,97,101,104],{"name":82,"color":83,"percentage":84},"Python","#3572A5",89.1,{"name":86,"color":87,"percentage":88},"JavaScript","#f1e05a",9.3,{"name":90,"color":91,"percentage":92},"Shell","#89e051",0.5,{"name":94,"color":95,"percentage":96},"SCSS","#c6538c",0.4,{"name":98,"color":99,"percentage":100},"TypeScript","#3178c6",0.2,{"name":102,"color":103,"percentage":100},"Dockerfile","#384d54",{"name":105,"color":106,"percentage":100},"HTML","#e34c26",2100,197,"2026-04-01T01:55:35","Apache-2.0",4,"未说明 (基于 PyTorch 和 CUDA 环境，通常支持 Linux)","必需 NVIDIA GPU，需安装 CUDA (测试版本为 11.3)，需支持 tiny-cuda-nn","未说明",{"notes":116,"python":117,"dependencies":118},"必须预先安装 CUDA Toolkit (文档测试版本为 11.3)；建议使用 conda 创建虚拟环境；安装时需先安装 PyTorch (带 CUDA 支持) 和 tiny-cuda-nn；远程运行时需端口转发 (默认 7007) 以使用 Web 查看器；部分慢速模型不建议使用内置查看器，应改用 Tensorboard 或 WandB。",">=3.7 (推荐 3.8)",[119,120,121,122],"torch==1.12.1+cu113","torchvision==0.13.1+cu113","tiny-cuda-nn","nerfstudio",[54,14,13],[125,126,127,128,129,130,131],"3d-reconstruction","implicit-neural-representation","multi-view-reconstruction","nerf","pytorch","sdf","surface-reconstruction","2026-03-27T02:49:30.150509","2026-04-06T09:43:38.335265",[135,140,145,150,155,160],{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},14738,"如何训练 Neuralangelo 模型？具体的训练命令是什么？","可以使用以下命令训练 Neuralangelo 模型。例如，在 DTU 数据集上：\n`ns-train neuralangelo --vis wandb --experiment-name neuralangelo-dtu24-withbg sdfstudio-data --data data\u002Fdtu\u002Fscan24 --load-dtu-highres True`\n或者使用 TensorBoard 可视化：\n`ns-train neuralangelo --pipeline.model.sdf-field.inside-outside False --vis tensorboard --experiment-name neuralangelo-dtu65 sdfstudio-data --data dtu-scan65`","https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fsdfstudio\u002Fissues\u002F140",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},14739,"为什么 SDFStudio 中提取的网格与原始 MonoSDF 的结果不同（例如地面不平）？","这通常是因为使用了错误的数据解析器。建议使用 `sdfstudio-data` 解析器而不是 `monosdf-data` 解析器。`sdfstudio-data` 会根据元数据自动设置近远平面（near and far planes），而使用 `monosdf-data` 时可能需要在命令行中手动设置这些参数。请参考官方文档中的数据集格式说明。","https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fsdfstudio\u002Fissues\u002F45",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},14740,"BakedSDF 提取的网格中存在大量噪声或漂浮物，如何去除？","可以通过调整 `ns-extract-mesh` 命令中的 `--marching_cube_threshold` 参数来减少噪声。理想情况下该值应设为 0，但这取决于具体的 SDF 到密度的转换偏差。例如：\n`ns-extract-mesh --load-config [config_path] --output-path [output_path] --marching_cube_threshold 0.001 --create_visibility_mask True`\n不同的阈值会产生不同的网格效果，建议尝试较小的值（如 0.001 或 0）以去除漂浮面。","https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fsdfstudio\u002Fissues\u002F115",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},14741,"如何在 DTU 数据集上复现 SOTA 结果并计算 Chamfer Distance 和 PSNR？","对于 PSNR，应在测试图像上进行评估（具体数据划分需参考原论文）。对于 Chamfer Distance，需要提取网格并在调用评估脚本前使用物体掩码（object mask）对网格进行过滤。可以参考 MonoSDF 仓库中的评估代码：https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fmonosdf\u002Ftree\u002Fmain\u002Fdtu_eval。","https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fsdfstudio\u002Fissues\u002F14",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},14742,"如何从 BakedSDF 模型中提取网格？","请使用 `ns-extract-mesh` 命令进行网格提取。具体用法可参考官方示例文档：https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fsdfstudio\u002Fblob\u002Fmaster\u002Fdocs\u002Fsdfstudio-examples.md#bakedsdf-on-the-mipnerf360-dataset","https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fsdfstudio\u002Fissues\u002F50",{"id":161,"question_zh":162,"answer_zh":163,"source_url":164},14743,"最新代码生成的网格锐度下降（不如以前尖锐），原因是什么？","这是因为梯度计算中增加了自由度，使得颜色网络更容易通过改变几何结构来最小化 RGB 损失，从而导致网格锐度降低。维护者已确认该问题并在后续提交中进行了修复（参考 Issue #56 的修复）。","https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fsdfstudio\u002Fissues\u002F54",[]]