[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-yashbhalgat--HashNeRF-pytorch":3,"tool-yashbhalgat--HashNeRF-pytorch":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",146793,2,"2026-04-08T23:32:35",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":10,"env_os":96,"env_gpu":97,"env_ram":96,"env_deps":98,"category_tags":104,"github_topics":106,"view_count":32,"oss_zip_url":118,"oss_zip_packed_at":118,"status":17,"created_at":119,"updated_at":120,"faqs":121,"releases":152},5693,"yashbhalgat\u002FHashNeRF-pytorch","HashNeRF-pytorch","Pure PyTorch Implementation of NVIDIA paper on Instant Training of Neural Graphics primitives: https:\u002F\u002Fnvlabs.github.io\u002Finstant-ngp\u002F","HashNeRF-pytorch 是 NVIDIA 重磅论文《Instant-NGP》的纯 PyTorch 版本实现，旨在让神经图形基元（如 NeRF）的训练变得极其高效。传统的 NeRF 模型训练往往耗时漫长，而 HashNeRF-pytorch 通过引入“多分辨率哈希编码”技术，成功将训练速度提升了高达 100 倍。这意味着在普通显卡上仅需约 10 分钟，即可从稀疏数据中重建出清晰锐利的 3D 场景。\n\n该项目主要解决了原有官方实现依赖 C++\u002FCUDA 环境、门槛较高且不易修改的问题。它完全基于 Python 生态构建，代码结构清晰，并继承了经典的 NeRF-pytorch 项目基础，极大地降低了实验与创新的技术壁垒。除了核心加速功能外，它还支持总变分损失和平滑嵌入等高级特性，甚至兼容 ScanNet 数据集。\n\nHashNeRF-pytorch 特别适合 AI 研究人员、深度学习开发者以及希望快速验证新想法的学生使用。对于想要深入理解即时神经图形原理，或需要在纯 PyTorch 环境下进行二次开发的团队来说，这是一个不可多得的开源利器。它不仅复现了前沿成果，更为社区提供了一个灵","HashNeRF-pytorch 是 NVIDIA 重磅论文《Instant-NGP》的纯 PyTorch 版本实现，旨在让神经图形基元（如 NeRF）的训练变得极其高效。传统的 NeRF 模型训练往往耗时漫长，而 HashNeRF-pytorch 通过引入“多分辨率哈希编码”技术，成功将训练速度提升了高达 100 倍。这意味着在普通显卡上仅需约 10 分钟，即可从稀疏数据中重建出清晰锐利的 3D 场景。\n\n该项目主要解决了原有官方实现依赖 C++\u002FCUDA 环境、门槛较高且不易修改的问题。它完全基于 Python 生态构建，代码结构清晰，并继承了经典的 NeRF-pytorch 项目基础，极大地降低了实验与创新的技术壁垒。除了核心加速功能外，它还支持总变分损失和平滑嵌入等高级特性，甚至兼容 ScanNet 数据集。\n\nHashNeRF-pytorch 特别适合 AI 研究人员、深度学习开发者以及希望快速验证新想法的学生使用。对于想要深入理解即时神经图形原理，或需要在纯 PyTorch 环境下进行二次开发的团队来说，这是一个不可多得的开源利器。它不仅复现了前沿成果，更为社区提供了一个灵活、透明的研究底座，助力神经图形学领域的进一步探索。","# HashNeRF-pytorch\n\n### 🌟 Update 🌟 \nGet answers to any questions about this repository using this [HuggingFace Chatbot](https:\u002F\u002Fhf.co\u002Fchat\u002Fassistant\u002F66b33a28bb36e2de9d8a2a93).\n\n---\n\n[Instant-NGP](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Finstant-ngp) recently introduced a Multi-resolution Hash Encoding for neural graphics primitives like [NeRFs](https:\u002F\u002Fwww.matthewtancik.com\u002Fnerf). The original NVIDIA implementation mainly in C++\u002FCUDA, based on [tiny-cuda-nn](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Ftiny-cuda-nn), can train NeRFs upto 100x faster!\n\nThis project is a **pure PyTorch** implementation of [Instant-NGP](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Finstant-ngp), built with the purpose of enabling AI Researchers to play around and innovate further upon this method.\n\nThis project is built on top of the super-useful [NeRF-pytorch](https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch) implementation.\n\n## Convergence speed w.r.t. Vanilla NeRF\n**HashNeRF-pytorch** (left) vs [NeRF-pytorch](https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch) (right):\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F8559512\u002F154065666-f2eb156c-333c-4de4-99aa-8aa15a9254de.mp4\n\nAfter training for just 5k iterations (~10 minutes on a single 1050Ti), you start seeing a _crisp_ chair rendering. :)\n\n# Instructions\nDownload the nerf-synthetic dataset from here: [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1JDdLGDruGNXWnM1eqY1FNL9PlStjaKWi).\n\nTo train a `chair` HashNeRF model:\n```\npython run_nerf.py --config configs\u002Fchair.txt --finest_res 512 --log2_hashmap_size 19 --lrate 0.01 --lrate_decay 10\n```\n\nTo train for other objects like `ficus`\u002F`hotdog`, replace `configs\u002Fchair.txt` with `configs\u002F{object}.txt`:\n\n![hotdog_ficus](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyashbhalgat_HashNeRF-pytorch_readme_05a44160eca0.gif)\n\n## Extras\nThe code-base has additional support for:\n* Total Variation Loss for smoother embeddings (use `--tv-loss-weight` to enable)\n* Sparsity-inducing loss on the ray weights (use `--sparse-loss-weight` to enable)\n\n## ScanNet dataset support\nThe repo now supports training a NeRF model on a scene from the ScanNet dataset. I personally found setting up the ScanNet dataset to be a bit tricky. Please find some instructions\u002Fnotes in [ScanNet.md](ScanNet.md).\n\n\n## TODO:\n* Voxel pruning during training and\u002For inference\n* Accelerated ray tracing, early ray termination\n\n\n# Citation\nKudos to [Thomas Müller](https:\u002F\u002Ftom94.net\u002F) and the NVIDIA team for this amazing work, that will greatly help accelerate Neural Graphics research:\n```\n@article{mueller2022instant,\n    title = {Instant Neural Graphics Primitives with a Multiresolution Hash Encoding},\n    author = {Thomas M\\\"uller and Alex Evans and Christoph Schied and Alexander Keller},\n    journal = {arXiv:2201.05989},\n    year = {2022},\n    month = jan\n}\n```\n\nAlso, thanks to [Yen-Chen Lin](https:\u002F\u002Fyenchenlin.me\u002F) for the super-useful [NeRF-pytorch](https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch):\n```\n@misc{lin2020nerfpytorch,\n  title={NeRF-pytorch},\n  author={Yen-Chen, Lin},\n  publisher = {GitHub},\n  journal = {GitHub repository},\n  howpublished={\\url{https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch\u002F}},\n  year={2020}\n}\n```\n\nIf you find this project useful, please consider to cite:\n```\n@misc{bhalgat2022hashnerfpytorch,\n  title={HashNeRF-pytorch},\n  author={Yash Bhalgat},\n  publisher = {GitHub},\n  journal = {GitHub repository},\n  howpublished={\\url{https:\u002F\u002Fgithub.com\u002Fyashbhalgat\u002FHashNeRF-pytorch\u002F}},\n  year={2022}\n}\n```\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyashbhalgat_HashNeRF-pytorch_readme_bee162d131b7.png)](https:\u002F\u002Fstar-history.com\u002F#yashbhalgat\u002FHashNeRF-pytorch&Date)\n","# HashNeRF-pytorch\n\n### 🌟 更新 🌟 \n如需解答关于本仓库的任何问题，请使用此 [HuggingFace 聊天机器人](https:\u002F\u002Fhf.co\u002Fchat\u002Fassistant\u002F66b33a28bb36e2de9d8a2a93)。\n\n---\n\n[Instant-NGP](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Finstant-ngp) 最近为神经图形基元（如 [NeRFs](https:\u002F\u002Fwww.matthewtancik.com\u002Fnerf)）引入了多分辨率哈希编码。NVIDIA 的原始实现主要基于 C++\u002FCUDA，并以 [tiny-cuda-nn](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Ftiny-cuda-nn) 为基础，能够将 NeRF 的训练速度提升至原来的 100 倍！\n\n本项目是 [Instant-NGP](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Finstant-ngp) 的 **纯 PyTorch** 实现，旨在让 AI 研究人员能够在此基础上进行实验和进一步创新。\n\n该项目构建于非常实用的 [NeRF-pytorch](https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch) 实现之上。\n\n## 与普通 NeRF 相比的收敛速度\n**HashNeRF-pytorch**（左）对比 [NeRF-pytorch](https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch)（右）：\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F8559512\u002F154065666-f2eb156c-333c-4de4-99aa-8aa15a9254de.mp4\n\n仅经过 5000 次迭代训练（在单块 1050Ti 显卡上约 10 分钟），你就能看到一张清晰的椅子渲染图。:)\n\n# 使用说明\n请从这里下载 nerf-synthetic 数据集：[Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1JDdLGDruGNXWnM1eqY1FNL9PlStjaKWi)。\n\n要训练一个 `chair` 的 HashNeRF 模型：\n```\npython run_nerf.py --config configs\u002Fchair.txt --finest_res 512 --log2_hashmap_size 19 --lrate 0.01 --lrate_decay 10\n```\n\n若要训练其他物体，如 `ficus` 或 `hotdog`，只需将 `configs\u002Fchair.txt` 替换为 `configs\u002F{object}.txt` 即可：\n\n![hotdog_ficus](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyashbhalgat_HashNeRF-pytorch_readme_05a44160eca0.gif)\n\n## 额外功能\n代码库还支持以下功能：\n* 总变差损失，用于使嵌入更平滑（使用 `--tv-loss-weight` 启用）\n* 对光线权重施加稀疏性损失（使用 `--sparse-loss-weight` 启用）\n\n## ScanNet 数据集支持\n该仓库现在支持在 ScanNet 数据集中的场景上训练 NeRF 模型。我个人发现设置 ScanNet 数据集有些复杂。相关说明和注意事项请参阅 [ScanNet.md](ScanNet.md)。\n\n## 待办事项：\n* 在训练和\u002F或推理过程中进行体素剪枝\n* 加速光线追踪，实现早期光线终止\n\n# 引用\n向 [Thomas Müller](https:\u002F\u002Ftom94.net\u002F) 和 NVIDIA 团队致以崇高的敬意，感谢他们这项令人惊叹的工作，它将极大地推动神经图形学研究的发展：\n```\n@article{mueller2022instant,\n    title = {具有多分辨率哈希编码的即时神经图形基元},\n    author = {Thomas M\\\"uller、Alex Evans、Christoph Schied 和 Alexander Keller},\n    journal = {arXiv:2201.05989},\n    year = {2022},\n    month = jan\n}\n```\n\n同时，也要感谢 [Yen-Chen Lin](https:\u002F\u002Fyenchenlin.me\u002F) 提供的非常实用的 [NeRF-pytorch](https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch)：\n```\n@misc{lin2020nerfpytorch,\n  title={NeRF-pytorch},\n  author={Yen-Chen, Lin},\n  publisher = {GitHub},\n  journal = {GitHub 仓库},\n  howpublished={\\url{https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch\u002F}},\n  year={2020}\n}\n```\n\n如果您觉得本项目有用，请考虑引用：\n```\n@misc{bhalgat2022hashnerfpytorch,\n  title={HashNeRF-pytorch},\n  author={Yash Bhalgat},\n  publisher = {GitHub},\n  journal = {GitHub 仓库},\n  howpublished={\\url{https:\u002F\u002Fgithub.com\u002Fyashbhalgat\u002FHashNeRF-pytorch\u002F}},\n  year={2022}\n}\n```\n\n## 星标历史\n\n[![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyashbhalgat_HashNeRF-pytorch_readme_bee162d131b7.png)](https:\u002F\u002Fstar-history.com\u002F#yashbhalgat\u002FHashNeRF-pytorch&Date)","# HashNeRF-pytorch 快速上手指南\n\nHashNeRF-pytorch 是 Instant-NGP 的纯 PyTorch 实现，利用多分辨率哈希编码技术，相比传统 NeRF 可实现高达 100 倍的训练加速。本指南将帮助你快速在本地运行该工具。\n\n## 环境准备\n\n在开始之前，请确保你的开发环境满足以下要求：\n\n*   **操作系统**: Linux 或 Windows (推荐 Linux)\n*   **Python**: 3.8 或更高版本\n*   **GPU**: 支持 CUDA 的 NVIDIA 显卡 (显存建议 4GB 以上)\n*   **核心依赖**:\n    *   PyTorch (需匹配你的 CUDA 版本)\n    *   torchvision\n    *   tqdm, imageio, configargparse 等常用库\n\n**前置依赖安装建议：**\n推荐使用国内镜像源加速 PyTorch 及相关库的安装。例如使用清华源：\n\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n*(注：若仓库根目录无 `requirements.txt`，请手动安装上述提到的常用库)*\n\n## 安装步骤\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fyashbhalgat\u002FHashNeRF-pytorch.git\n    cd HashNeRF-pytorch\n    ```\n\n2.  **下载数据集**\n    本项目默认使用 Nerf Synthetic 数据集。你可以从 Google Drive 下载，或使用国内可用的镜像\u002F网盘资源。\n    \n    *   **官方来源**: [Google Drive Link](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1JDdLGDruGNXWnM1eqY1FNL9PlStjaKWi)\n    *   **操作**: 下载后解压，确保数据文件夹结构清晰（例如包含 `chair`, `ficus`, `hotdog` 等子文件夹）。\n\n## 基本使用\n\n以下以训练经典的 `chair` (椅子) 模型为例，展示最简化的运行流程。\n\n### 1. 训练模型\n\n运行以下命令开始训练。该配置使用了哈希编码的关键参数，能在单张显卡（如 GTX 1050Ti）上约 10 分钟内完成初步收敛。\n\n```bash\npython run_nerf.py --config configs\u002Fchair.txt --finest_res 512 --log2_hashmap_size 19 --lrate 0.01 --lrate_decay 10\n```\n\n*   `--config`: 指定配置文件，若要训练其他物体（如 `ficus`, `hotdog`），请替换为 `configs\u002Fficus.txt` 等。\n*   `--finest_res`: 最高分辨率设置。\n*   `--log2_hashmap_size`: 哈希表大小对数，控制内存占用与精度。\n\n### 2. 进阶选项（可选）\n\n代码库支持额外的损失函数以优化渲染质量：\n\n*   **平滑嵌入**: 添加 `--tv-loss-weight` 参数启用总变分损失。\n*   **稀疏性约束**: 添加 `--sparse-loss-weight` 参数启用射线权重稀疏损失。\n\n示例：\n```bash\npython run_nerf.py --config configs\u002Fchair.txt --finest_res 512 --log2_hashmap_size 19 --lrate 0.01 --lrate_decay 10 --tv-loss-weight 1e-6\n```\n\n训练完成后，模型将自动保存，并可用于生成新视角的合成图像。","某高校计算机视觉实验室的研究团队正致力于利用神经辐射场（NeRF）技术，对博物馆内的珍贵文物进行高保真三维数字化重建，以便在虚拟展厅中展示。\n\n### 没有 HashNeRF-pytorch 时\n- **训练周期漫长**：使用传统纯 PyTorch 实现的 NeRF 模型，单件文物（如一把复杂的椅子或雕塑）往往需要数小时甚至更久才能收敛，严重拖慢实验迭代速度。\n- **硬件门槛过高**：为了获得可接受的训练速度，团队不得不依赖昂贵的多卡 A100 集群，普通研究人员的单张消费级显卡（如 GTX 1050Ti）几乎无法运行有效实验。\n- **算法调试困难**：由于原生 Instant-NGP 主要基于 C++\u002FCUDA 编写，研究人员难以深入代码底层修改网络结构或尝试新的损失函数，创新受阻。\n- **即时反馈缺失**：在调整超参数后，需要等待很久才能看到渲染效果的变化，导致试错成本极高，难以快速定位问题。\n\n### 使用 HashNeRF-pytorch 后\n- **分钟级快速收敛**：借助多分辨率哈希编码技术，仅需约 5000 次迭代（在单张 1050Ti 上约 10 分钟），即可生成清晰锐利的文物三维模型，效率提升百倍。\n- **平民化硬件支持**：纯 PyTorch 的实现让普通游戏显卡也能流畅运行，实验室所有成员均可在本地机器上独立开展高质量的重建实验。\n- **灵活的创新环境**：代码完全开源且基于熟悉的 PyTorch 框架，研究员可以轻松集成总变分损失（TV Loss）或稀疏性约束，快速验证新想法。\n- **实时可视化反馈**：训练过程中能迅速观察到模型从模糊到清晰的演变，极大缩短了参数调优周期，让研发流程更加顺畅。\n\nHashNeRF-pytorch 通过将原本需要高端算力集群才能完成的神经图形学任务，转化为单张普通显卡即可在几分钟内完成的高效流程，彻底降低了三维重建研究的门槛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyashbhalgat_HashNeRF-pytorch_05a44160.gif","yashbhalgat","Yash Sanjay Bhalgat","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fyashbhalgat_fe546675.jpg","Thou shall code. :computer: ","@Yash-DPhil-Research, @Qualcomm-AI-Research @voxel51, @princeton-vl","Oxford, UK","yashbhalgat95@gmail.com","ysbhalgat","yashbhalgat.github.io","https:\u002F\u002Fgithub.com\u002Fyashbhalgat",[84,88],{"name":85,"color":86,"percentage":87},"Python","#3572A5",99,{"name":89,"color":90,"percentage":91},"Shell","#89e051",1,1035,107,"2026-04-01T13:26:01","MIT","未说明","需要 NVIDIA GPU（基于 CUDA），文中示例提及在 GTX 1050Ti 上运行，具体显存大小和 CUDA 版本未明确说明",{"notes":99,"python":96,"dependencies":100},"该项目是 Instant-NGP 的纯 PyTorch 实现，主要用于神经辐射场（NeRF）的快速训练。支持多分辨率哈希编码。需自行下载 nerf-synthetic 数据集或配置 ScanNet 数据集。提供总变分损失（TV Loss）和稀疏性损失等额外功能选项。",[101,102,103],"PyTorch","tiny-cuda-nn (隐含依赖，用于哈希编码加速)","nerf-pytorch (基于此项目构建)",[105,14,15],"其他",[107,108,109,110,111,112,113,114,115,116,117],"nerf","real-time-rendering","computer-graphics","computer-vision","neural-network","signed-distance-functions","artificial-intelligence","machine-learning","3d-reconstruction","efficient-training","hashing",null,"2026-03-27T02:49:30.150509","2026-04-09T09:39:10.453049",[122,127,132,137,142,147],{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},25844,"如何在自定义数据集上训练模型？","首先需要获取 transforms.json 文件，然后参考项目中的 load_blender.py 脚本编写适用于自己数据集的数据加载器。如果使用 COLMAP 生成数据后效果不佳（PSNR 高但渲染视频差），请检查相机姿态约定是否与 NeRF 实现要求一致，并确保数据类型处理正确。","https:\u002F\u002Fgithub.com\u002Fyashbhalgat\u002FHashNeRF-pytorch\u002Fissues\u002F17",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},25845,"在真实场景图像（如 LLFF 数据集）上运行时出现 'numpy.ndarray' 和 'Tensor' 类型错误怎么办？","该错误通常是因为 LLFF 配置文件缺少 no_batching=True 选项导致的。解决方法有三种：1. 移除代码中将图像转换为 Tensor 并移至 GPU 的行；2. 在配置文件中添加 no_batching = True 选项；3. （推荐）在计算 PSNR 前检查并修正 gt_imgs 的类型。快速修复方案是将 PSNR 计算替换为：p = -10. * np.log10(np.mean(np.square(rgb.cpu().numpy() - (gt_imgs[i].cpu().numpy() if type(gt_imgs) == torch.Tensor else gt_imgs[i]))))。","https:\u002F\u002Fgithub.com\u002Fyashbhalgat\u002FHashNeRF-pytorch\u002Fissues\u002F10",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},25846,"为什么在大型真实场景（如教室）上训练时，训练视角重建完美但新视角泛化能力为零？","这很可能是因为使用的相机姿态约定与 NeRF 实现所要求的不同。即使场景很大或图像是全景的，如果相机坐标系不匹配，模型也无法正确学习几何结构导致无法泛化。请检查并转换相机姿态以符合项目要求的坐标系约定。","https:\u002F\u002Fgithub.com\u002Fyashbhalgat\u002FHashNeRF-pytorch\u002Fissues\u002F27",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},25847,"稀疏性正则化项（Sparsity regulariser）的实现是否有误？","是的，早期版本中用于计算熵的射线权重未归一化，导致计算不正确。该问题已在最新提交中修复。正确的做法是将权重向量归一化为：[w_1, w_2, ..., w_n, 1-sum(w_1, ..., w_n)]。代码中出现的常数 1e-6 是为了防止浮点精度问题导致权重和超过 1。","https:\u002F\u002Fgithub.com\u002Fyashbhalgat\u002FHashNeRF-pytorch\u002Fissues\u002F14",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},25848,"训练速度非常慢且效果不如预期是什么原因？","纯 PyTorch 实现的训练速度应与原始 NeRF (PyTorch) 相当，且收敛较快。如果感觉速度慢，可能是硬件问题（如使用了较旧的 GPU Tesla M60）而非代码实现问题。建议检查 GPU 性能及配置，并参考相关讨论确认是否为硬件瓶颈。","https:\u002F\u002Fgithub.com\u002Fyashbhalgat\u002FHashNeRF-pytorch\u002Fissues\u002F22",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},25849,"代码运行时报错 'TypeError: unsupported operand type(s) for &: 'int' and 'Tensor'' 如何解决？","该错误发生在哈希计算过程中，原因是整数与 Tensor 进行了位运算。维护者已指出这是已知问题并将讨论合并到其他 Issue 中跟踪。通常这类问题需要通过更新代码库到最新版本来解决，因为维护者会在后续提交中修复类型不匹配的问题。","https:\u002F\u002Fgithub.com\u002Fyashbhalgat\u002FHashNeRF-pytorch\u002Fissues\u002F2",[]]