[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-NVIDIAGameWorks--kaolin-wisp":3,"tool-NVIDIAGameWorks--kaolin-wisp":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":78,"owner_twitter":77,"owner_website":79,"owner_url":80,"languages":81,"stars":106,"forks":107,"last_commit_at":108,"license":109,"difficulty_score":110,"env_os":111,"env_gpu":112,"env_ram":111,"env_deps":113,"category_tags":120,"github_topics":122,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":128,"updated_at":129,"faqs":130,"releases":161},6456,"NVIDIAGameWorks\u002Fkaolin-wisp","kaolin-wisp","NVIDIA Kaolin Wisp is a PyTorch library powered by NVIDIA Kaolin Core to work with neural fields (including NeRFs, NGLOD, instant-ngp and VQAD).","kaolin-wisp 是由 NVIDIA 推出的基于 PyTorch 的开源库，专为神经场（Neural Fields）研究打造。它依托强大的 Kaolin Core 核心，旨在简化 NeRF、NGLOD、instant-ngp 及 VQAD 等前沿三维重建技术的开发与实验流程。\n\n在三维视觉研究中，开发者常需重复编写数据加载、射线生成及网格处理等基础代码。kaolin-wisp 通过提供一套标准化的通用工具函数，有效解决了这一痛点，让研究人员能更专注于算法创新而非底层基建。其内置了可微分渲染器、八叉树、哈希网格及三平面特征等关键构建模块，并集成了交互式训练、调试可视化及日志记录功能，大幅提升了研发效率。\n\n这款工具主要面向计算机图形学领域的科研人员、算法工程师及高校学生。无论是复现经典论文还是探索新的神经表示方法，kaolin-wisp 都能提供坚实的技术支撑。值得一提的是，它不仅支持无显示环境的 Jupyter Notebook 运行，还引入了灵活的配置系统，让复杂管线的搭建与管理变得更加直观便捷。如果你正致力于利用 AI 探索三维世界的奥秘，kaolin-wisp 将是一个值得","kaolin-wisp 是由 NVIDIA 推出的基于 PyTorch 的开源库，专为神经场（Neural Fields）研究打造。它依托强大的 Kaolin Core 核心，旨在简化 NeRF、NGLOD、instant-ngp 及 VQAD 等前沿三维重建技术的开发与实验流程。\n\n在三维视觉研究中，开发者常需重复编写数据加载、射线生成及网格处理等基础代码。kaolin-wisp 通过提供一套标准化的通用工具函数，有效解决了这一痛点，让研究人员能更专注于算法创新而非底层基建。其内置了可微分渲染器、八叉树、哈希网格及三平面特征等关键构建模块，并集成了交互式训练、调试可视化及日志记录功能，大幅提升了研发效率。\n\n这款工具主要面向计算机图形学领域的科研人员、算法工程师及高校学生。无论是复现经典论文还是探索新的神经表示方法，kaolin-wisp 都能提供坚实的技术支撑。值得一提的是，它不仅支持无显示环境的 Jupyter Notebook 运行，还引入了灵活的配置系统，让复杂管线的搭建与管理变得更加直观便捷。如果你正致力于利用 AI 探索三维世界的奥秘，kaolin-wisp 将是一个值得信赖的得力助手。","# Kaolin Wisp: A PyTorch Library and Engine for Neural Fields Research\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNVIDIAGameWorks_kaolin-wisp_readme_feefdfa3045a.jpg\" alt=\"drawing\" width=\"1000\"\u002F>\n\nNVIDIA Kaolin Wisp is a PyTorch library powered by [NVIDIA Kaolin Core](https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin) to work with\nneural fields (including NeRFs, [NGLOD](https:\u002F\u002Fnv-tlabs.github.io\u002Fnglod), [instant-ngp](https:\u002F\u002Fnvlabs.github.io\u002Finstant-ngp\u002F) and [VQAD](https:\u002F\u002Fnv-tlabs.github.io\u002Fvqad)).\n\nNVIDIA Kaolin Wisp aims to provide a set of common utility functions for performing research on neural fields. \nThis includes datasets, image I\u002FO, mesh processing, and ray utility functions. \nWisp also comes with building blocks like differentiable renderers and differentiable data structures \n(like octrees, hash grids, triplanar features) which are useful to build complex neural fields. \nIt also includes debugging visualization tools, interactive rendering and training, logging, and trainer classes.\n\n**[Check our docsite for additional information!](https:\u002F\u002Fkaolin-wisp.readthedocs.io\u002Fen\u002Flatest\u002Fpages\u002Fmain.html)**\n\nFor an overview on neural fields, we recommend you check out the EG STAR report: \n[Neural Fields for Visual Computing and Beyond](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.11426).\n\n## Latest Updates\n\n**wisp 1.0.3** \u003C-- `main`\n* _17\u002F04\u002F23_ The configuration system have been replaced! Check out [the config page](https:\u002F\u002Fkaolin-wisp.readthedocs.io\u002Fen\u002Flatest\u002Fpages\u002Fconfig_system.html) for usage instructions and backwards compatability (**breaking change**). Note that the wisp core library remains compatible, mains and trainers should be updated.\n\n**wisp 1.0.2** \u003C-- `stable`\n* _15\u002F04\u002F23_ Jupyter notebook support have been added - useful for machines without a display.\n* _01\u002F02\u002F23_ `attrdict` dependency added as part of the new datasets framework. If you pull latest, make sure to `pip install attrdict`.\n* _17\u002F01\u002F23_ `pycuda` replaced with `cuda-python`. Wisp can be installed from pip now  (If you pull, run **pip install -r requirements_app.txt**)\n* _05\u002F01\u002F23_ Mains are now introduced as standalone apps, for easier support of new pipelines (**breaking change**)  \n\n## Installation\n\nSee installation instructions [here](https:\u002F\u002Fkaolin-wisp.readthedocs.io\u002Fen\u002Flatest\u002Fpages\u002Finstall.html).\n\n\n## External Contributions\n\nWe welcome & encourage external contributions to the codebase!\nFor further details, read the [FAQ](https:\u002F\u002Fkaolin-wisp.readthedocs.io\u002Fen\u002Flatest\u002Fpages\u002Ffaq.html) and [license page](https:\u002F\u002Fkaolin-wisp.readthedocs.io\u002Fen\u002Flatest\u002Fpages\u002Flicense.html).\n\n## License and Citation\n\nThis codebase is licensed under the NVIDIA Source Code License. \nCommercial licenses are also available, free of charge. \nPlease apply using this link (use \"Other\" and specify Kaolin Wisp): https:\u002F\u002Fwww.nvidia.com\u002Fen-us\u002Fresearch\u002Finquiries\u002F\n\nIf you find the NVIDIA Kaolin Wisp library useful for your research, please cite:\n```\n@misc{KaolinWispLibrary,\n      author = {Towaki Takikawa and Or Perel and Clement Fuji Tsang and Charles Loop and Joey Litalien and Jonathan Tremblay and Sanja Fidler and Maria Shugrina},\n      title = {Kaolin Wisp: A PyTorch Library and Engine for Neural Fields Research},\n      year = {2022},\n      howpublished={\\url{https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp}}\n}\n```\n\n## Thanks\n\nWe thank James Lucas, Jonathan Tremblay, Valts Blukis, Anita Hu, and Nishkrit Desai for giving us early feedback\nand testing out the code at various stages throughout development. \nWe thank Rogelio Olguin and Jonathan Tremblay for the Wisp reference data. \n\nSpecial thanks for community members:\n* [lightfield botanist](https:\u002F\u002Fgithub.com\u002F3a1b2c3)\n* [Soumik Rakshit](https:\u002F\u002Fgithub.com\u002Fsoumik12345)\n\n\n## What is \"wisp\"?\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNVIDIAGameWorks_kaolin-wisp_readme_a4c8bb432460.jpg\" alt=\"drawing\" height=\"300\"\u002F>\n\nOur library is named after the atmospheric ghost light, will-o'-the-wisp, \nwhich are volumetric ghosts that are harder to model with common standard \ngeometry representations like meshes. We provide a [multiview dataset](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1jKIkqm4XhdeEQwXTqbKlZw-9dO7kJfsZ\u002Fview) of the \nwisp as a reference dataset for a volumetric object. \nWe also provide the [blender file and rendering scripts](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1Via1TOsnG-3mUkkGteEoRJdEYJEx3wgf?usp=sharing) if you want to generate specific data with this scene, please refer to the [readme.md](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1IrWKjxxrJOlD3C5lDYvejaSXiPtm_XI_\u002Fview?usp=sharing) for greater details on how to generate the data. \n\n","# Kaolin Wisp：用于神经场研究的 PyTorch 库和引擎\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNVIDIAGameWorks_kaolin-wisp_readme_feefdfa3045a.jpg\" alt=\"drawing\" width=\"1000\"\u002F>\n\nNVIDIA Kaolin Wisp 是一个基于 [NVIDIA Kaolin Core](https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin) 的 PyTorch 库，用于处理神经场（包括 NeRF、[NGLOD](https:\u002F\u002Fnv-tlabs.github.io\u002Fnglod)、[instant-ngp](https:\u002F\u002Fnvlabs.github.io\u002Finstant-ngp\u002F) 和 [VQAD](https:\u002F\u002Fnv-tlabs.github.io\u002Fvqad) 等）。\n\nNVIDIA Kaolin Wisp 的目标是为神经场研究提供一组通用的实用工具函数。这包括数据集、图像输入输出、网格处理以及光线相关的实用函数。Wisp 还提供了可微分渲染器和可微分数据结构（如八叉树、哈希网格、三平面特征）等构建模块，这些对于构建复杂的神经场非常有用。此外，它还包含调试可视化工具、交互式渲染与训练、日志记录以及训练器类。\n\n**[请访问我们的文档站点获取更多信息！](https:\u002F\u002Fkaolin-wisp.readthedocs.io\u002Fen\u002Flatest\u002Fpages\u002Fmain.html)**\n\n若想了解神经场的概述，我们推荐您阅读 EG STAR 报告：[Neural Fields for Visual Computing and Beyond](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.11426)。\n\n## 最新更新\n\n**wisp 1.0.3** \u003C-- `main`\n* _2023年4月17日_ 配置系统已被替换！请查看 [配置页面](https:\u002F\u002Fkaolin-wisp.readthedocs.io\u002Fen\u002Flatest\u002Fpages\u002Fconfig_system.html)，了解使用说明及向后兼容性问题（**重大变更**）。请注意，wisp 核心库仍保持兼容，但主程序和训练器需要更新。\n\n**wisp 1.0.2** \u003C-- `stable`\n* _2023年4月15日_ 新增了 Jupyter Notebook 支持，这对于没有显示器的机器非常有用。\n* _2023年2月1日_ 作为新数据集框架的一部分，添加了 `attrdict` 依赖项。如果您拉取最新代码，请确保运行 `pip install attrdict`。\n* _2023年1月17日_ 将 `pycuda` 替换为 `cuda-python`。现在可以通过 pip 安装 Wisp（如果您拉取最新代码，请运行 **pip install -r requirements_app.txt**）。\n* _2023年1月5日_ 主程序现以独立应用程序的形式引入，以便更轻松地支持新的工作流（**重大变更**）。\n\n## 安装\n\n安装说明请参见 [此处](https:\u002F\u002Fkaolin-wisp.readthedocs.io\u002Fen\u002Flatest\u002Fpages\u002Finstall.html)。\n\n## 外部贡献\n\n我们欢迎并鼓励对代码库的外部贡献！有关详细信息，请阅读 [常见问题解答](https:\u002F\u002Fkaolin-wisp.readthedocs.io\u002Fen\u002Flatest\u002Fpages\u002Ffaq.html) 和 [许可证页面](https:\u002F\u002Fkaolin-wisp.readthedocs.io\u002Fen\u002Flatest\u002Fpages\u002Flicense.html)。\n\n## 许可证与引用\n\n本代码库采用 NVIDIA 源代码许可证授权。我们也提供免费的商业许可证。请通过此链接申请（选择“其他”并注明 Kaolin Wisp）：https:\u002F\u002Fwww.nvidia.com\u002Fen-us\u002Fresearch\u002Finquiries\u002F\n\n如果您发现 NVIDIA Kaolin Wisp 库对您的研究有所帮助，请引用以下内容：\n```\n@misc{KaolinWispLibrary,\n      author = {Towaki Takikawa and Or Perel and Clement Fuji Tsang and Charles Loop and Joey Litalien and Jonathan Tremblay and Sanja Fidler and Maria Shugrina},\n      title = {Kaolin Wisp: A PyTorch Library and Engine for Neural Fields Research},\n      year = {2022},\n      howpublished={\\url{https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp}}\n}\n```\n\n## 致谢\n\n我们感谢 James Lucas、Jonathan Tremblay、Valts Blukis、Anita Hu 和 Nishkrit Desai 在开发过程中各个阶段给予的早期反馈和测试。同时，我们也感谢 Rogelio Olguin 和 Jonathan Tremblay 提供的 Wisp 参考数据。\n\n特别感谢社区成员：\n* [lightfield botanist](https:\u002F\u002Fgithub.com\u002F3a1b2c3)\n* [Soumik Rakshit](https:\u002F\u002Fgithub.com\u002Fsoumik12345)\n\n## 什么是“wisp”？\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNVIDIAGameWorks_kaolin-wisp_readme_a4c8bb432460.jpg\" alt=\"drawing\" height=\"300\"\u002F>\n\n我们的库以大气中的幽灵之光——鬼火命名。鬼火是一种体积型的“幽灵”，用常见的几何表示方法（如网格）难以建模。我们提供了一个关于鬼火的 [多视角数据集](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1jKIkqm4XhdeEQwXTqbKlZw-9dO7kJfsZ\u002Fview)，作为体积对象的参考数据集。此外，我们还提供了 [Blender 文件和渲染脚本](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1Via1TOsnG-3mUkkGteEoRJdEYJEx3wgf?usp=sharing)。如果您希望使用该场景生成特定数据，请参阅 [readme.md](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1IrWKjxxrJOlD3C5lDYvejaSXiPtm_XI_\u002Fview?usp=sharing)，以获取更多关于如何生成数据的详细信息。","# Kaolin Wisp 快速上手指南\n\nKaolin Wisp 是由 NVIDIA 开发的基于 PyTorch 的库与引擎，专为神经场（Neural Fields）研究设计。它支持 NeRF、NGLOD、instant-ngp 和 VQAD 等模型，提供可微渲染器、数据结构（如八叉树、哈希网格）、数据集工具及训练框架。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04\u002F20.04) 或 Windows (WSL2 支持良好)。\n*   **GPU**: 支持 CUDA 的 NVIDIA 显卡。\n*   **Python**: 版本 3.7 或更高。\n*   **PyTorch**: 需预先安装与您的 CUDA 版本匹配的 PyTorch。\n*   **前置依赖**:\n    *   `cuda-python` (替代了旧版的 pycuda)\n    *   `attrdict` (用于新的数据集框架)\n\n> **注意**：如果您从最新源码拉取代码，请务必安装应用层依赖：\n> ```bash\n> pip install -r requirements_app.txt\n> ```\n\n## 安装步骤\n\n### 方法一：通过 Pip 安装（推荐）\n\n自 2023 年 1 月更新后，Wisp 支持直接通过 pip 安装，这是最简便的方式。\n\n```bash\npip install kaolin-wisp\n```\n\n### 方法二：从源码安装\n\n如果您需要最新的功能或进行二次开发，可以从 GitHub 克隆源码安装。\n\n1.  **克隆仓库**：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp.git\n    cd kaolin-wisp\n    ```\n\n2.  **安装依赖并构建**：\n    ```bash\n    # 安装核心依赖和应用依赖\n    pip install -r requirements.txt\n    pip install -r requirements_app.txt\n    \n    # 以编辑模式安装（方便开发调试）\n    pip install -e .\n    ```\n\n> **国内加速提示**：如果下载依赖较慢，建议使用国内镜像源。例如：\n> ```bash\n> pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 基本使用\n\nKaolin Wisp 采用了模块化的应用程序（Mains）架构。以下是运行一个基础神经场训练任务的通用流程。\n\n### 1. 准备配置文件\nWisp 使用配置文件来定义模型架构、数据集和优化器参数。您通常可以在 `apps\u002Fconfigs` 目录下找到示例配置（如 `nerf_blender.yaml`）。\n\n### 2. 运行训练\n使用 `wisp_train` 命令启动训练。以下是一个最简单的示例，假设您有一个名为 `my_config.yaml` 的配置文件：\n\n```bash\nwisp_train --config apps\u002Fconfigs\u002Fnerf_blender.yaml\n```\n\n### 3. 交互式可视化与推理\n训练完成后（或在训练过程中），您可以使用 `wisp_render` 进行交互式渲染或生成结果视频：\n\n```bash\nwisp_render --config apps\u002Fconfigs\u002Fnerf_blender.yaml --checkpoint logs\u002Fexperiment_name\u002Fcheckpoints\u002Flatest.pth\n```\n\n### 4. Jupyter Notebook 支持\n对于没有显示输出（headless）的服务器环境，Wisp 提供了 Jupyter Notebook 支持，方便进行调试和可视化：\n\n```python\n# 在 Notebook 单元格中\nfrom wisp.framework.interactive import InteractiveRenderer\n\n# 初始化并加载您的模型进行预览\nrenderer = InteractiveRenderer()\nrenderer.load_checkpoint(\"path\u002Fto\u002Fcheckpoint.pth\")\nrenderer.show()\n```\n\n> **重要提示**：自 v1.0.3 版本起，配置系统已重构。如果您使用的是旧版配置文件，请参考官方文档的配置页面进行迁移，因为这是一个破坏性更新（breaking change）。","某自动驾驶仿真团队需要基于稀疏的激光雷达点云数据，快速构建高保真的城市街道 3D 场景，以训练感知算法。\n\n### 没有 kaolin-wisp 时\n- 研究人员需从零编写射线采样、体素网格构建等底层 CUDA 代码，开发周期长达数周且极易出错。\n- 尝试复现 Instant-NGP 或 NeRF 等前沿算法时，因缺乏统一的数据结构和可微渲染器接口，导致代码难以移植和对比。\n- 调试神经场模型时，缺少内置的交互式可视化工具，只能依赖静态日志分析，难以直观定位几何重建的缺陷。\n- 处理多视角图像数据集时，需手动编写繁琐的 I\u002FO 加载逻辑，不同格式的数据清洗工作占据了大量实验时间。\n\n### 使用 kaolin-wisp 后\n- 直接调用库中预置的哈希网格、八叉树等可微数据结构模块，将核心算法验证时间从数周缩短至几天。\n- 利用内置的 Instant-NGP 和 NGLOD 等标准实现作为基准，通过统一的配置系统快速切换架构进行消融实验。\n- 借助自带的交互式渲染器和调试可视化工具，实时观察训练过程中的几何细节变化，迅速修正模型偏差。\n- 使用标准化的数据集框架和射线工具函数，一键加载多视角数据，让团队能专注于网络结构创新而非数据管道维护。\n\nkaolin-wisp 通过提供标准化的神经场研发基础设施，让开发者从重复的底层造轮子中解放出来，显著加速了 3D 视觉算法的创新迭代。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNVIDIAGameWorks_kaolin-wisp_feefdfa3.jpg","NVIDIAGameWorks","NVIDIA GameWorks","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FNVIDIAGameWorks_ef1b3b72.png","NVIDIA Technologies for game and application developers",null,"gameworks@nvidia.com","https:\u002F\u002Fdeveloper.nvidia.com\u002Fgameworks-source-github","https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks",[82,86,90,94,98,102],{"name":83,"color":84,"percentage":85},"Python","#3572A5",92.8,{"name":87,"color":88,"percentage":89},"Cuda","#3A4E3A",3.9,{"name":91,"color":92,"percentage":93},"C++","#f34b7d",1.6,{"name":95,"color":96,"percentage":97},"Groovy","#4298b8",1.5,{"name":99,"color":100,"percentage":101},"Dockerfile","#384d54",0.1,{"name":103,"color":104,"percentage":105},"Shell","#89e051",0,1496,139,"2026-04-09T10:34:21","NOASSERTION",4,"未说明","必需 NVIDIA GPU (依赖 PyTorch, Kaolin Core, cuda-python)，具体型号和显存大小未说明",{"notes":114,"python":111,"dependencies":115},"该工具是用于神经场研究的 PyTorch 库。安装细节需参考官方文档链接。配置系统在 1.0.3 版本有重大更新。支持在无显示器的机器上通过 Jupyter notebook 运行。商业使用需申请免费许可证。",[116,117,118,119],"torch","kaolin","cuda-python","attrdict",[121,14],"其他",[123,124,125,126,127],"3d-deep-learning","nerf","pytorch","sdf","neuralfields","2026-03-27T02:49:30.150509","2026-04-11T08:11:30.136632",[131,136,141,146,151,156],{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},29226,"如何在 WSL (Windows Subsystem for Linux) 上运行 Kaolin-Wisp？","WSL 的支持问题已经在 PR #105 中得到修复。如果您之前在 WSL 下运行时遇到加载数据集后停止或报错的情况，请将代码更新到包含该修复的最新版本。确保您的 WSL 2 环境已正确配置了 NVIDIA GPU 支持（包括安装了适用于 WSL 的 NVIDIA 驱动），并且 CUDA 工具链已正确安装。","https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fissues\u002F8",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},29221,"如何在 Wisp 中联合渲染多种管线（如 NeRF、SDF、网格）？","可以将多个对象添加到场景图（scene graph）中来实现。具体步骤如下：\n1. 创建全局共享的 `WispState`。\n2. 实例化多个管线对象（例如 `nerf_pipeline1`, `nerf_pipeline2`）。\n3. 定义可选的渲染参数（如 `batch_size`）。\n4. 使用 `add_to_scene_graph` 函数将这些管线添加到场景图中。\n示例代码片段：\n```python\nfrom wisp.framework import WispState\nfrom wisp.renderer.core.api import add_to_scene_graph\n\nwisp_state = WispState()\nnerf_pipeline1 = Pipeline(nef=nef1, tracer=tracer1)\nnerf_pipeline2 = Pipeline(nef=nef2, tracer=tracer2)\nnerf_specific_args = dict(batch_size=2**14)\n# 将对象添加到场景图\nadd_to_scene_graph(wisp_state, nerf_pipeline1, **nerf_specific_args)\nadd_to_scene_graph(wisp_state, nerf_pipeline2, **nerf_specific_args)\n```\n这将确保在交互模式下正确渲染多个对象。","https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fissues\u002F35",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},29222,"Kaolin-Wisp 支持在 Windows 上运行吗？","是的，目前 Kaolin-Wisp 已经支持 Windows 系统。维护者已合并了相关的 Pull Request（PR #28）以修复 Windows 兼容性问题。用户现在可以按照 README.md 中的说明在 Windows 环境下进行安装和运行。如果遇到编译错误，请确保 CUDA 版本与 PyTorch 版本匹配。","https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fissues\u002F12",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},29223,"如何解决在 Windows 上编译时出现的 'conversion from unsigned __int64 to _Ty requires a narrowing conversion' 错误？","该错误通常是由于 CUDA 版本与 PyTorch 版本不匹配导致的。解决方法是确保安装的 CUDA  toolkit 版本与当前 PyTorch 所要求的 CUDA 版本一致。例如，如果使用的是 PyTorch 1.11.0，请检查其对应的 CUDA 版本（如 11.3），并重新配置环境。此外，该项目已通过 PR #28 修复了部分 Windows 编译问题，建议更新到最新代码后重试。","https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fissues\u002F34",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},29224,"`hashgrid_interpolate_cuda` 操作是否支持对输入坐标求梯度？","截至目前的版本，Kaolin-Wisp 和 Kaolin 原生并不直接支持对 `hashgrid_interpolate` 的输入坐标求梯度（即返回值为 None）。虽然 NVlabs 的 `tiny-cuda-nn` 框架通过 `kernel_grid_backward_input` 方法支持此功能，且理论上可以适配到 Kaolin-Wisp，但官方尚未完全集成此特性。如果急需此功能，用户可能需要参考 `tiny-cuda-nn` 的实现自行修改源码，或者关注后续版本的更新。","https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fissues\u002F41",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},29225,"运行交互式训练示例时出现 'GLError: glGetUniformLocation' 错误怎么办？","该错误通常与服务器或环境的 OpenGL\u002FGLFW 配置有关，特别是在无头（headless）服务器或远程桌面上运行时。有用户反馈在本地 Ubuntu 机器上运行正常，而在特定服务器配置上报错。可能的解决思路包括：\n1. 检查显卡驱动和 OpenGL 库是否正确安装。\n2. 尝试设置环境变量 `PYGLFW_IMGUI`（参考相关 workaround）。\n3. 确保 `pycuda.gl.autoinit` 能正确获取默认上下文。如果是在没有显示器的服务器上运行，可能需要配置虚拟显示器（如 Xvfb）或使用特定的后端设置。","https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fissues\u002F13",[162,167,172],{"id":163,"version":164,"summary_zh":165,"released_at":166},198039,"v0.1.2","# 亮点\n* 更易安装：弃用 pycuda，转而使用 cuda-python，并新增对 WSL 的支持，移除了部分依赖。\n* 对库进行了重大重构：清理了过时的研究代码，添加了文档，并引入了模块化的基类，如 `BaseAS`（加速结构，例如用于光线行进）和 `WispModule`（任何可在渲染器中显示属性的 Wisp 模块）。\n* 优化了哈希网格内核和剪枝功能。\n* 新增了 Jupyter Notebook 支持。\n\n## 变更内容\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F76 中修复了 main_interactive 的缩进问题。\n* @tovacinni 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F77 中添加了预步和后步，并对训练器进行了多项修复。\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F78 中增加了当 spc 文件中没有颜色时的默认颜色。\n* @tovacinni 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F79 中为哈希内核添加了 f16 支持，并增加了剪枝控制选项。\n* @tovacinni 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F80 中对数据加载器进行了优化，并进行了其他杂项优化及错误修复。\n* @tovacinni 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F81 中提交了一个小补丁，修复了哈希网格分辨率中的 bug。\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F82 中从插值和光线行进的输出中移除了 pidx。\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F83 中更新了网格 + AS API。\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F84 中再次从插值和光线行进的输出中移除了 pidx。\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F85 中进一步更新了网格 + AS API。\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F86 中改进了 operel\u002Fmvdataset Docker 的用户体验。\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F87 中更新了训练器的生命周期。\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F90 中恢复了神经场的属性。\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F91 中引入了新的配置解析器。\n* @tovacinni 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F92 中使剪枝功能更加通用，适用于不同类型的 BLAS。\n* @tovacinni 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F93 中为基础训练器打了个补丁，修复了假设 self.writer 存在但从未初始化的 bug。\n* @tovacinni 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F94 中实现了用于位置的哈希网格反向插值内核。\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F95 中编写了新文档并移除了模板。\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F97 中为应用程序流水线添加了单元测试。\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F98 中修复了 WISP_HEADLESS 文档错误以及快速链接缺失的问题。\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F99 中定义了 BaseAS 接口。\n* @orperel 在 ht 中引入了 WispModule，并为大多数模块添加了支持。","2023-05-02T09:06:13",{"id":168,"version":169,"summary_zh":170,"released_at":171},198040,"v0.1.1","# 亮点  \nWisp 的第二个版本包含以下特性：\n* 支持通过 Docker 进行安装\n* 光线追踪器现在能够正确处理额外通道\n* 对基于光线的神经场进行缩放、旋转和平移的对象变换功能\n* 支持在 Windows 上运行 Wisp（由 @3a1b2c3 提供的外部贡献）\n* 集成 Weights & Biases，包括 360 度可视化效果（由 @soumik12345 提供的外部贡献）\n* 两个演示：可视化 NeRF 隐式通道和浏览结构化点云\n* 多项错误修复\n以及更多内容……\n\n## 变更内容\n* @joeylitalien 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F7 中修复了 Python 3.7 兼容性的元组解包语法错误\n* @tovacinni 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F10 中为光线追踪器添加了通道接口\n* @Caenorst 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F16 中修复了 Dockerfile 中的交互模式路径问题，并在 README 中新增 Docker 章节\n* @Caenorst 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F18 中将分支名称从 `master` 更改为 `main`\n* @Caenorst 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F20 中修复了多进程相关问题\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F25 中实现了渲染器工厂对光线追踪器层次结构的支持\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F26 中增加了可配置的网格采样参数\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F27 中为渲染器、应用程序和 NeRF 模型提供了模板和更简洁的 API\n* @tovacinni 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F30 中为光线追踪器增加了对额外通道的支持\n* @3a1b2c3 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F28 中实现了 Windows 上的运行功能，并添加了点绘制功能\n* @Caenorst 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F36 中修复了 CI 相关问题\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F44 中更新了图表和 README\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F45 中提供了 SIGGRAPH 2022 演示内容\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F46 中修改了 GUI 使用时的交互模式关闭逻辑\n* @Caenorst 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F47 中支持在无光线相交情况下的反向传播\n* @orperel 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F48 中实现了 SPC 场及其示例\n* @Caenorst 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F49 中修复了三平面贴图脚本中的问题\n* @NIRVANALAN 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F50 中修正了 SDFTrainer validation() 方法中变量名的拼写错误\n* @Caenorst 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F51 中清理并优化了 main_nerf.py 文件\n* ERROR FIX：@chrischoy 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F52 中修复了打包光线追踪器的密度渲染错误\n* @Caenorst 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F55 中修复了多个 README 文件中的问题\n* @Caenorst 在 https:\u002F\u002Fgithub.com\u002FNVIDIAGameWorks\u002Fkaolin-wisp\u002Fpull\u002F56 中回滚了 main.py 的更改\n* 用于光线追踪对象的对象变换功能","2022-12-06T16:42:47",{"id":173,"version":174,"summary_zh":175,"released_at":176},198041,"v0.1.0","# 亮点\n首次发布 kaolin-wisp。\n支持神经辐射场和符号距离函数的完整优化流水线。\n同时还包含一个交互式渲染器，用于可视化优化进度。\n\n# 功能列表\n\n## 核心模块\n\n### 加速结构\n八叉树可用于快速基于位置的查询和光线行进操作。\n在 NVIDIA RTX 3090 显卡上，对于推土机等单个物体，NeRF 的训练时间可降至数十秒到一分钟不等。\n（具体性能还受神经网络流水线中其他组件的影响，如追踪器、特征结构等。）\n\n### 特征网格\nwisp 的初始版本提供了四种类型的特征网格：\n* 八叉树网格（源自 [Neural Geometric Level of Detail](https:\u002F\u002Fnv-tlabs.github.io\u002Fnglod\u002F)）\n* 哈希网格（源自 [Instant Neural Graphics Primitives](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Finstant-ngp)）\n* 三平面网格（源自 [Convolutional Occupancy Networks](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fconvolutional_occupancy_networks) 和 [EG3D](https:\u002F\u002Fnvlabs.github.io\u002Feg3d\u002F)）\n* 编码本网格（源自 [VQAD](https:\u002F\u002Fnv-tlabs.github.io\u002Fvqad\u002F)）\n其中，哈希网格以 CUDA 内核实现，进一步缩小了与原 NGP 项目的性能差距。\n\n### 其他基础组件\n支持位置编码（傅里叶变换）以及 PyTorch MLP 解码器。\n\n### 神经场\n* 神经场可以由多种基础组件组合配置而成，包括占用和特征结构、嵌入器、解码器等。\n* wisp 自带神经辐射场和神经 SDF 的实现。\n* 研究人员还可以注册新的神经场类型以供研究使用。\n\n### 追踪器\n追踪框架支持多种通道类型（如 RGBA、SDF）。\n内置两种可微分光线追踪器的实现：\n* 辐射场追踪器\n* 用于 SDF 的球体追踪器\n这两种追踪器均将采样点存储为紧凑张量，并利用八叉树加速计算。基于八叉树的光线行进支持两种采样模式：\n* `'voxel'` — 每个“八叉树单元”内生成固定数量的样本\n* `'ray'` — 在相机的近裁剪面与远裁剪面之间生成固定数量的样本\n\n### 核心数据结构\n* `RenderBuffer` — 追踪器使用的智能像素缓冲区，支持自定义通道类型以及多种混合和通道归一化模式。\n* `Ray` — 用于生成光线的批量光线包。\n\n### 光线生成器\n* 光线生成采用 kaolin 的 [Camera](https:\u002F\u002Fkaolin.readthedocs.io\u002Fen\u002Flatest\u002Fmodules\u002Fkaolin.render.camera.html) 模块。\n* 提供透视相机和正交相机的默认光线生成器。\n\n### 操作工具\n本版本包含一套用于加载、处理和评估多种模态数据的工具集，包括图像、网格、SDF 以及 kaolin 的 [结构化点云](https:\u002F\u002Fkaolin.readthedocs.io\u002Fen\u002Flatest\u002Fnotes\u002Fspc_summary.html)。\n\n### 数据加载器\nwisp 自带以下数据加载器支持：\n* 多视角图像：NeRF 标准数据集格式，包括扩展…","2022-08-03T18:08:34"]