[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-andyzeng--tsdf-fusion":3,"tool-andyzeng--tsdf-fusion":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":102,"env_os":103,"env_gpu":104,"env_ram":105,"env_deps":106,"category_tags":112,"github_topics":113,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":125,"updated_at":126,"faqs":127,"releases":156},2133,"andyzeng\u002Ftsdf-fusion","tsdf-fusion","Fuse multiple depth frames into a TSDF voxel volume.","tsdf-fusion 是一款基于 CUDA 和 C++ 开发的高效开源工具，专注于将多帧对齐后的深度图像融合为截断符号距离函数（TSDF）体素体积。它主要解决了如何从分散、带有噪声的深度数据中重建高质量、连续且完整的三维表面模型这一核心难题，是构建高精度 3D 点云和网格模型的关键步骤。\n\n该工具特别适合计算机视觉研究人员、机器人开发者以及从事三维重建工作的工程师使用。通过利用 NVIDIA GPU 的并行计算能力，tsdf-fusion 能够快速处理大量深度帧数据，显著提升了重建效率与细节表现力。其技术亮点在于实现了投影式 TSDF 融合算法，并提供了从体素数据生成标准 3D 文件（如 PLY 格式）的完整流程，方便用户直接在 Meshlab 等软件中进行可视化与分析。作为著名的 3DMatch 工具箱的重要组成部分，tsdf-fusion 已被多项顶级学术会议论文引用验证，是科研与工程实践中值得信赖的基础设施。","# Volumetric TSDF Fusion of Multiple Depth Maps\n\n**Update**: a python version of this code with both CPU\u002FGPU support can be found [here](https:\u002F\u002Fgithub.com\u002Fandyzeng\u002Ftsdf-fusion-python).\n\n![Teaser](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fandyzeng_tsdf-fusion_readme_2b6d00a7ded7.jpg)\n\nCUDA\u002FC++ code to fuse multiple registered depth maps into a projective truncated signed distance function (TSDF) voxel volume, which can then be used to create high quality 3D surface meshes and point clouds. Tested on Ubuntu 14.04 and 16.04.\n\nLooking for an older version? See [here](old-version).\n\n## Change Log\n* **Nov. 1, 2017.** Bug fix: `tsdf2mesh.m` now properly generates a mesh in camera coordinates instead of voxel coordinates.\n* **Oct. 30, 2017.** Notice: changed default weight threshold for `SaveVoxelGrid2SurfacePointCloud` in demo code to enable creating point cloud visualizations with only one depth frame.\n* **Aug. 30, 2017.** Bug fix: remove deprecated offsets from surface distance compute during integration.\n\n## Requirements\n * NVIDA GPU with [CUDA](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-downloads) support\n * [OpenCV](http:\u002F\u002Fopencv.org\u002F) (tested with OpenCV 2.4.11)\n\n## Demo\nThis demo fuses 50 registered depth maps from directory `data\u002Frgbd-frames` into a projective TSDF voxel volume, and creates a 3D surface point cloud `tsdf.ply`, which can be visualized with a 3D viewer like [Meshlab](http:\u002F\u002Fwww.meshlab.net\u002F).\n\n**Note**: Input depth maps should be saved in format: 16-bit PNG, depth in millimeters.\n\n```shell\n.\u002Fcompile.sh # compiles demo executable\n.\u002Fdemo # 3D point cloud saved to tsdf.ply and voxel grid saved to tsdf.bin\n```\n\n[Optional] This demo also saves the computed voxel volume into a binary file `tsdf.bin`. Run the following script in Matlab to create a 3D surface mesh `mesh.ply`, which can be visualized with [Meshlab](http:\u002F\u002Fwww.meshlab.net\u002F).\n\n```matlab\ntsdf2mesh; % 3D mesh saved to mesh.ply\n```\n\n## Seen in\n * [3DMatch: Learning Local Geometric Descriptors from RGB-D Reconstructions (CVPR 2017)](http:\u002F\u002F3dmatch.cs.princeton.edu\u002F)\n * [Semantic Scene Completion from a Single Depth Image (CVPR 2017)](http:\u002F\u002Fsscnet.cs.princeton.edu\u002F)\n * [Deep Sliding Shapes for Amodal 3D Object Detection in RGB-D Images (CVPR 2016)](http:\u002F\u002Fdss.cs.princeton.edu\u002F)\n\n## References\n * [A Volumetric Method for Building Complex Models from Range Images (SIGGRAPH 1996)](https:\u002F\u002Fgraphics.stanford.edu\u002Fpapers\u002Fvolrange\u002Fvolrange.pdf)\n * [KinectFusion: Real-Time Dense Surface Mapping and Tracking (ISMAR 2011)](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fwp-content\u002Fuploads\u002F2016\u002F02\u002Fismar2011.pdf)\n * [Scene Coordinate Regression Forests for Camera Relocalization in RGB-D Images (CVPR 2013)](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fwp-content\u002Fuploads\u002F2016\u002F02\u002FRelocForests.pdf)\n\n### Citing\n\nThis repository is a part of [3DMatch Toolbox](https:\u002F\u002Fgithub.com\u002Fandyzeng\u002F3dmatch-toolbox). If you find this code useful in your work, please consider citing:\n\n```\n@inproceedings{zeng20163dmatch, \n    title={3DMatch: Learning Local Geometric Descriptors from RGB-D Reconstructions}, \n    author={Zeng, Andy and Song, Shuran and Nie{\\ss}ner, Matthias and Fisher, Matthew and Xiao, Jianxiong and Funkhouser, Thomas}, \n    booktitle={CVPR}, \n    year={2017} \n}\n```","# 多幅深度图的体素化 TSDF 融合\n\n**更新**：包含 CPU 和 GPU 支持的 Python 版本代码可在此处找到 [tsdf-fusion-python](https:\u002F\u002Fgithub.com\u002Fandyzeng\u002Ftsdf-fusion-python)。\n\n![预告图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fandyzeng_tsdf-fusion_readme_2b6d00a7ded7.jpg)\n\n这是一段 CUDA\u002FC++ 代码，用于将多幅配准后的深度图融合为一个投影式截断符号距离函数（TSDF）体素体积，随后可用于生成高质量的 3D 表面网格和点云。已在 Ubuntu 14.04 和 16.04 上测试通过。\n\n寻找旧版本？请参阅 [这里](old-version)。\n\n## 更改日志\n* **2017年11月1日。** 错误修复：`tsdf2mesh.m` 现在会正确地以相机坐标系而非体素坐标系生成网格。\n* **2017年10月30日。** 注意：修改了演示代码中 `SaveVoxelGrid2SurfacePointCloud` 的默认权重阈值，以便仅使用单帧深度图像即可创建点云可视化效果。\n* **2017年8月30日。** 错误修复：移除了积分过程中计算表面距离时已弃用的偏移量。\n\n## 需求\n * 具有 [CUDA](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-downloads) 支持的 NVIDIA GPU\n * [OpenCV](http:\u002F\u002Fopencv.org\u002F)（经测试与 OpenCV 2.4.11 兼容）\n\n## 演示\n此演示将目录 `data\u002Frgbd-frames` 中的 50 幅配准深度图融合为一个投影式 TSDF 体素体积，并生成一个 3D 表面点云 `tsdf.ply`，可用如 [Meshlab](http:\u002F\u002Fwww.meshlab.net\u002F) 等 3D 查看器进行可视化。\n\n**注意**：输入的深度图应保存为 16 位 PNG 格式，深度单位为毫米。\n\n```shell\n.\u002Fcompile.sh # 编译演示可执行文件\n.\u002Fdemo # 3D 点云保存为 tsdf.ply，体素网格保存为 tsdf.bin\n```\n\n[可选] 此演示还会将计算得到的体素体积保存为二进制文件 `tsdf.bin`。在 Matlab 中运行以下脚本即可生成 3D 表面网格 `mesh.ply`，同样可用 [Meshlab](http:\u002F\u002Fwww.meshlab.net\u002F) 进行可视化。\n\n```matlab\ntsdf2mesh; % 3D 网格保存为 mesh.ply\n```\n\n## 应用实例\n * [3DMatch：从 RGB-D 重建中学习局部几何描述符（CVPR 2017）](http:\u002F\u002F3dmatch.cs.princeton.edu\u002F)\n * [基于单幅深度图像的语义场景补全（CVPR 2017）](http:\u002F\u002Fsscnet.cs.princeton.edu\u002F)\n * [RGB-D 图像中用于无遮挡 3D 物体检测的深度滑动形状方法（CVPR 2016）](http:\u002F\u002Fdss.cs.princeton.edu\u002F)\n\n## 参考文献\n * [一种基于深度图像构建复杂模型的体素化方法（SIGGRAPH 1996）](https:\u002F\u002Fgraphics.stanford.edu\u002Fpapers\u002Fvolrange\u002Fvolrange.pdf)\n * [KinectFusion：实时密集表面建模与跟踪（ISMAR 2011）](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fwp-content\u002Fuploads\u002F2016\u002F02\u002Fismar2011.pdf)\n * [RGB-D 图像中用于相机重定位的场景坐标回归森林（CVPR 2013）](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fwp-content\u002Fuploads\u002F2016\u002F02\u002FRelocForests.pdf)\n\n### 引用说明\n\n本仓库是 [3DMatch 工具箱](https:\u002F\u002Fgithub.com\u002Fandyzeng\u002F3dmatch-toolbox) 的一部分。如果您在工作中使用了此代码，请考虑引用以下文献：\n\n```\n@inproceedings{zeng20163dmatch, \n    title={3DMatch: Learning Local Geometric Descriptors from RGB-D Reconstructions}, \n    author={Zeng, Andy and Song, Shuran and Nie{\\ss}ner, Matthias and Fisher, Matthew and Xiao, Jianxiong and Funkhouser, Thomas}, \n    booktitle={CVPR}, \n    year={2017} \n}\n```","# tsdf-fusion 快速上手指南\n\n`tsdf-fusion` 是一个基于 CUDA\u002FC++ 的高效工具，用于将多张已配准的深度图融合为投影截断符号距离函数（TSDF）体素体积，进而生成高质量的 3D 表面网格和点云。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：推荐 Ubuntu 14.04 或 16.04（其他 Linux 发行版可能需自行调整编译配置）。\n*   **硬件要求**：必须配备支持 **CUDA** 的 NVIDIA GPU。\n    *   请前往 [NVIDIA 官网](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-downloads) 下载并安装对应版本的 CUDA Toolkit。\n*   **软件依赖**：\n    *   **OpenCV**：需安装 OpenCV 库（测试版本为 2.4.11，建议使用 2.4.x 或兼容的 3.x\u002F4.x 版本）。\n    *   **编译器**：确保系统已安装 `g++` 和 `make`。\n    *   **可选依赖**：若需从体素数据生成网格文件，需安装 **MATLAB**。\n\n> **提示**：国内用户可使用清华源或阿里源加速 `apt` 包管理器安装 OpenCV 及相关开发库。\n\n## 安装步骤\n\n本项目无需复杂的安装过程，主要通过源码编译生成可执行文件。\n\n1.  **克隆仓库**（如果尚未下载）：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fandyzeng\u002Ftsdf-fusion.git\n    cd tsdf-fusion\n    ```\n\n2.  **编译项目**：\n    运行提供的编译脚本，该脚本将构建演示程序所需的可执行文件。\n    ```bash\n    .\u002Fcompile.sh\n    ```\n    *注意：如果编译失败，请检查 `compile.sh` 中的 CUDA 路径和 OpenCV 链接参数是否与本地环境一致。*\n\n## 基本使用\n\n编译成功后，您可以直接运行演示程序。该程序会将 `data\u002Frgbd-frames` 目录下的 50 张已配准深度图融合，并输出 3D 点云文件。\n\n### 1. 运行融合演示\n\n执行以下命令开始融合过程：\n\n```bash\n.\u002Fdemo\n```\n\n**输出结果**：\n*   `tsdf.ply`：生成的 3D 表面点云文件，可使用 [Meshlab](http:\u002F\u002Fwww.meshlab.net\u002F) 等工具查看。\n*   `tsdf.bin`：保存的二进制体素网格数据。\n\n**输入数据规范**：\n*   格式：16-bit PNG 图像。\n*   单位：深度值以**毫米 (mm)** 为单位存储。\n\n### 2. （可选）生成 3D 网格模型\n\n如果您安装了 MATLAB 并希望从体素数据生成网格模型（`.ply`），请在 MATLAB 中运行以下脚本：\n\n```matlab\ntsdf2mesh; % 生成 mesh.ply\n```\n\n生成的 `mesh.ply` 同样可以使用 Meshlab 进行可视化。\n\n---\n*注：如果您更倾向于使用 Python 版本（支持 CPU\u002FGPU），可参考官方提供的 [tsdf-fusion-python](https:\u002F\u002Fgithub.com\u002Fandyzeng\u002Ftsdf-fusion-python) 项目。*","某机器人团队正在利用深度相机扫描仓库货架，旨在从多帧 RGB-D 数据中重建高精度的 3D 模型以用于导航避障。\n\n### 没有 tsdf-fusion 时\n- **数据碎片化严重**：单帧深度图视野有限且存在遮挡，直接拼接会导致模型出现大量空洞和断裂，无法形成完整的货架表面。\n- **噪声干扰大**：原始深度传感器数据包含高频噪声，简单叠加会使生成的点云杂乱无章，难以区分真实物体边缘与环境噪点。\n- **处理效率低下**：缺乏高效的体素融合算法，CPU 串行处理数十帧数据耗时极长，无法满足机器人实时建图或快速离线分析的需求。\n- **几何一致性差**：多视角数据对齐后缺乏全局优化机制，导致重叠区域表面厚度不均，生成的网格模型扭曲变形，无法用于精确测量。\n\n### 使用 tsdf-fusion 后\n- **构建完整稠密模型**：tsdf-fusion 将 50 帧注册后的深度图融合为截断符号距离函数（TSDF）体素体积，自动补全遮挡区域，生成连续且封闭的货架表面。\n- **显著抑制噪声**：通过体素内的加权平均融合机制，有效平滑了传感器噪声，输出的点云和网格边缘清晰锐利，几何细节保留完好。\n- **加速重建流程**：借助 CUDA 并行计算加速，tsdf-fusion 能在秒级时间内完成大规模体素积分，大幅缩短了从数据采集到生成 `tsdf.ply` 文件的等待时间。\n- **提升几何精度**：基于投影式的 TSDF 融合确保了多视角数据在全局坐标系下的一致性，生成的 3D 网格厚度均匀，可直接导入 Meshlab 进行高精度尺寸量测。\n\ntsdf-fusion 通过将离散的多帧深度数据转化为高质量的连续体素表示，彻底解决了复杂场景下 3D 重建的完整性与精度难题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fandyzeng_tsdf-fusion_2b6d00a7.jpg","andyzeng","Andy Zeng","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fandyzeng_2ca80003.jpg",null,"http:\u002F\u002Fandyzeng.github.io","https:\u002F\u002Fgithub.com\u002Fandyzeng",[82,86,90,94],{"name":83,"color":84,"percentage":85},"Cuda","#3A4E3A",53.9,{"name":87,"color":88,"percentage":89},"C++","#f34b7d",40,{"name":91,"color":92,"percentage":93},"MATLAB","#e16737",4.7,{"name":95,"color":96,"percentage":97},"Shell","#89e051",1.4,817,136,"2026-03-31T07:39:35","BSD-2-Clause",4,"Linux","必需：NVIDIA GPU，需支持 CUDA（具体型号和显存未说明）","未说明",{"notes":107,"python":108,"dependencies":109},"该工具主要为 CUDA\u002FC++ 实现，已在 Ubuntu 14.04 和 16.04 上测试。输入深度图需为 16-bit PNG 格式，单位为毫米。可选使用 Matlab 脚本 (tsdf2mesh.m) 将体素网格转换为 3D 网格。若需 Python 环境，请参考其独立的 Python 版本仓库。","未说明 (主代码为 C++\u002FCUDA，另有独立的 Python 版本)",[110,111],"CUDA","OpenCV (测试版本 2.4.11)",[51,13,54,14],[114,115,116,117,118,119,120,121,122,123,124],"rgbd","tsdf","kinect-fusion","depth-camera","3d-deep-learning","volumetric-data","cuda","3d-reconstruction","3d","vision","artificial-intelligence","2026-03-27T02:49:30.150509","2026-04-06T07:14:00.603251",[128,133,138,143,147,151],{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},9822,"如何设置相机内参（Camera Intrinsics）和体素网格原点（Voxel Grid Origin）？","相机内参是一个 3x3 矩阵，用于将深度值投影到 3D 相机坐标空间。体素网格原点（voxel_grid_origin）定义的是体素体积在相机坐标系中的“角落”位置（即坐标 (0,0,0) 的位置），而不是体积的中心。如果您希望将某个特定点（如物体的质心）对齐到体素网格的原点，需要先利用相机内参将深度数据投影为 3D 坐标，然后计算该点在相机坐标系下的位置，并将其设置为 voxel_grid_origin。移动该原点会整体移动生成的 3D 体素框。","https:\u002F\u002Fgithub.com\u002Fandyzeng\u002Ftsdf-fusion\u002Fissues\u002F7",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},9823,"运行 demo 时遇到 CUDA error 35 (cudaErrorInsufficientDriver) 错误怎么办？","错误代码 35 表示安装的 NVIDIA CUDA 驱动程序版本过旧，低于 CUDA 运行时库的要求。例如，如果您使用 CUDA 9.1，但显卡驱动是 384.111，则不兼容。解决方法有两种：1. 降级 CUDA 版本（例如降到 CUDA 9.0）；2. 升级 NVIDIA 显示驱动程序到支持该 CUDA 版本的最新驱动（例如升级到 390.12 或更高）。请查阅 NVIDIA 官方的 CUDA 兼容性图表以确认驱动与 CUDA 版本的对应关系。","https:\u002F\u002Fgithub.com\u002Fandyzeng\u002Ftsdf-fusion\u002Fissues\u002F14",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},9824,"当相机进行旋转运动时，重建结果不正确或失败，如何解决？","这通常是因为坐标系定义不一致导致的。该项目默认使用 OpenCV 相机坐标系（右手系，Y 轴向下），而某些输入数据（如来自 Unity、OpenGL 或部分机器人运动学数据）可能使用不同的坐标系（如左手系，Y 轴向上）。\n解决方案是对相机的外参矩阵（pose\u002Fextrinsic）进行坐标变换。如果是 OpenGL 坐标系，可以尝试以下 Python 代码转换外参矩阵 `mat`：\n```python\nmat[2, :] *= -1\nmat = mat[np.array([1, 0, 2, 3]), :]\nmat[0:3, 1:3] *= -1\n```\n如果是 Unity 坐标系，需要翻转 Y 轴平移量并调整旋转矩阵：\n```python\nty_new = -ty  # 翻转 Y 轴平移\nflip_y_matrix = np.array([[1, 0, 0], [0, -1, 0], [0, 0, 1]])\ntransformed_rotation_matrix = flip_y_matrix @ rotation_matrix @ flip_y_matrix.T\n```","https:\u002F\u002Fgithub.com\u002Fandyzeng\u002Ftsdf-fusion\u002Fissues\u002F21",{"id":144,"question_zh":145,"answer_zh":146,"source_url":132},9825,"截断距离（trunc_margin）参数是什么意思，如何设置？","截断距离（trunc_margin）定义了距离场被“截断”的范围。在完整的距离场中，距离值可以从 0（表面）延伸到无穷远。为了优化计算和存储，TSDF 只积分表面附近一定范围内的距离值，超出这个范围的值将被忽略。该参数通常设置为体素大小（voxel_size）的倍数，例如 `trunc_margin = voxel_size * 10`。如果设置过小，可能导致表面细节丢失；设置过大则会增加计算量且可能引入噪声。",{"id":148,"question_zh":149,"answer_zh":150,"source_url":132},9826,"如何使用单张深度图像生成体素体积？为什么设置为 1 时结果为空？","理论上可以从单张深度图像生成体素体积，但如果结果为空，通常是因为体素网格原点（voxel_grid_origin）设置不当。体素网格是一个固定在相机坐标系中的 3D 盒子，如果单张图像中的物体位于这个盒子范围之外，积分结果就会为空。您需要根据单张图像的相机内参，计算物体在相机坐标系下的 3D 位置，并将体素网格原点移动到包含该物体的区域。此外，确保 `voxel_grid_dim`（体素数量）和 `voxel_size`（体素分辨率）的乘积足以覆盖物体的物理尺寸。",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},9827,"如何处理不同格式的灰度深度图（Depthmaps）？","如果生成的点云为空，可能是因为深度图的格式或数值范围不符合代码要求。代码通常期望深度值以毫米为单位，并且可能需要特定的位深（如 16-bit）。如果您使用的是 32-bit 图像或其他格式，可能需要先将其转换为 16-bit 灰度图，并确保像素值直接代表以毫米为单位的深度距离。如果相机内参在序列中发生变化，还需要修改 `demo.cu` 代码，使其在循环处理深度帧时动态更新 `cam_K` 矩阵。","https:\u002F\u002Fgithub.com\u002Fandyzeng\u002Ftsdf-fusion\u002Fissues\u002F12",[]]