[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-griegler--octnet":3,"tool-griegler--octnet":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":78,"owner_url":79,"languages":80,"stars":109,"forks":110,"last_commit_at":111,"license":112,"difficulty_score":113,"env_os":114,"env_gpu":115,"env_ram":116,"env_deps":117,"category_tags":127,"github_topics":128,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":133,"updated_at":134,"faqs":135,"releases":174},2839,"griegler\u002Foctnet","octnet","OctNet: Learning Deep 3D Representations at High Resolutions","OctNet 是一个专为处理高分辨率三维数据而设计的深度学习框架。在传统方法中，直接对精细的 3D 体素数据进行卷积运算往往会导致内存爆炸和计算量过大，限制了网络的深度与分辨率。OctNet 巧妙地利用八叉树（Octree）这一空间划分结构来解决这一难题。它能够根据输入数据的稀疏性，自适应地将空间进行层级划分，仅在包含有效信息的密集区域分配计算资源和内存，从而在保持高分辨率的同时支持构建更深的神经网络。\n\n该项目的核心技术亮点在于其混合网格 - 八叉树数据结构，以及针对 CPU 和 GPU（CUDA）高度优化的卷积操作实现，并提供了便捷的 Torch 接口。这使得研究人员和开发者能够轻松地在 ModelNet 等数据集上复现论文结果，开展如 3D 物体分类、方向估计及点云标注等前沿研究。如果你是一名专注于计算机视觉、三维重建或机器人感知的科研人员或算法工程师，希望突破现有硬件限制以探索更高精度的 3D 深度学习模型，OctNet 将是一个极具价值的开源工具。","\u003Cp align=\"center\">\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgriegler_octnet_readme_50f8983f7124.png\" \u002F>\u003C\u002Fp>\n\nOctNet uses efficient space partitioning structures (i.e. octrees) to reduce memory and compute requirements of 3D convolutional neural networks, thereby enabling deep learning at high resolutions.\n\nThis is the code for the paper:\n\n**[OctNet: Learning Deep 3D Representations at High Resolutions](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.05009)**\n\u003Cbr>\n[Gernot Riegler](https:\u002F\u002Fgriegler.github.io\u002F), [Ali Osman Ulusoy](https:\u002F\u002Favg.is.tuebingen.mpg.de\u002Fperson\u002Foulusoy) and [Andreas Geiger](https:\u002F\u002Favg.is.tuebingen.mpg.de\u002Fperson\u002Fageiger)\n\u003Cbr>\n[CVPR 2017](http:\u002F\u002Fcvpr2017.thecvf.com\u002F)\n\n> We present OctNet, a representation for deep learning with sparse 3D data. In contrast to existing models, our representation enables 3D convolutional networks which are both deep and high resolution. Towards this goal, we exploit the sparsity in the input data to hierarchically partition the space using a set of unbalanced octrees where each leaf node stores a pooled feature representation. This allows to focus memory allocation and computation to the relevant dense regions and enables deeper networks without compromising resolution. We demonstrate the utility of our OctNet representation by analyzing the impact of resolution on several 3D tasks including 3D object classification, orientation estimation and point cloud labeling.\n\n[![CVPR'17 Presentation](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgriegler_octnet_readme_3018c2f33d10.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=qYyephF2BBw)\n\n[GTC'17 Presentation](http:\u002F\u002Fwww.cvlibs.net\u002Fvideos\u002Fgtc_17_talk.mp4)\n\nIf you find this code useful for your research, please cite\n\n```\n@inproceedings{Riegler2017OctNet,\n  title={OctNet: Learning Deep 3D Representations at High Resolutions},\n  author={Riegler, Gernot and Ulusoy, Ali Osman and Geiger, Andreas},\n  booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition},\n  year={2017}\n}\n```\n\n\n## Code Overview\n- `core` - This directory includes the core code for the hybrid grid-octree data structure (`include\u002Foctnet\u002Fcore`), the CPU code for the network operations on this data structure (`include\u002Foctnet\u002Fcpu`), as well as some code to create test objects (`include\u002Foctnet\u002Ftest`). \n- `core_gpu` - GPU (CUDA) code for the network operations.\n- `create` - Code to pre-process 3D data (point clouds, meshes, dense volumes) and convert it to the grid-octree structure.\n- `geometry` - Simple geometry routines mainly used in the `create` package.\n- `py` - This directory a small python wrapper to the `create` package and some `core` functions. \n- `th` - A full featured torch wrapper for all network operations. \n- [`example`](example\u002F01_classification_modelnet\u002F) - Contains an example to create data and train a network on ModelNet10.\n\n\n## Requirements\nWe tried to keep the requirements small.\nTo build the individual projects you will need:\n- `cmake` to setup the projects\n- `gcc`, or `clang` to build the core project\n- `nvcc` (CUDA) to compile the GPU network operations\n- `cython` to compile the Python wrapper\n- `torch` to setup the torch wrapper\n\nOptionally, you will need\n- `OpenMP` for the parallelization of the CPU functions\n\n\n## Build\nThe building process of the individual packages should be fairly easy. \nAll packages, except the Python wrapper `py`, are cmake projects. \nTherefore, you can create a `build` directory in the individual package folder and call `cmake` and `make`.\nFor example, to build the `core` package:\n\n    cd core\n    mkdir build\n    cd build\n    cmake ..\n    make -j\n\nTo build the Python wrapper just do\n\n    cd py\n    python setup.py build_ext --inplace\n\nIf you do not want to repeat this for all the packages, we provide two simple bash scripts that automate this process:\n- `build_cpu.sh` - builds all the CPU code for OctNet\n- `build_all.sh` - same as above, but also builds the GPU network functions and the GPU wrapper code for torch\n\n","\u003Cp align=\"center\">\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgriegler_octnet_readme_50f8983f7124.png\" \u002F>\u003C\u002Fp>\n\nOctNet 利用高效的空间划分结构（即八叉树）来降低 3D 卷积神经网络的内存和计算需求，从而实现高分辨率下的深度学习。\n\n这是论文对应的代码：\n\n**[OctNet：在高分辨率下学习深度 3D 表示](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.05009)**\n\u003Cbr>\n[Gernot Riegler](https:\u002F\u002Fgriegler.github.io\u002F)、[Ali Osman Ulusoy](https:\u002F\u002Favg.is.tuebingen.mpg.de\u002Fperson\u002Foulusoy) 和 [Andreas Geiger](https:\u002F\u002Favg.is.tuebingen.mpg.de\u002Fperson\u002Fageiger)\n\u003Cbr>\n[CVPR 2017](http:\u002F\u002Fcvpr2017.thecvf.com\u002F)\n\n> 我们提出了 OctNet，一种用于稀疏 3D 数据深度学习的表示方法。与现有模型不同，我们的表示使 3D 卷积网络既能保持深度，又能支持高分辨率。为此，我们利用输入数据的稀疏性，通过一组非平衡八叉树分层划分空间，每个叶节点存储一个池化后的特征表示。这使得内存分配和计算可以集中在相关的密集区域，从而在不牺牲分辨率的情况下构建更深的网络。我们通过分析分辨率对多个 3D 任务的影响来证明 OctNet 表示的有效性，这些任务包括 3D 物体分类、姿态估计和点云标注。\n\n[![CVPR'17 演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgriegler_octnet_readme_3018c2f33d10.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=qYyephF2BBw)\n\n[GTC'17 演示](http:\u002F\u002Fwww.cvlibs.net\u002Fvideos\u002Fgtc_17_talk.mp4)\n\n如果您觉得这段代码对您的研究有帮助，请引用以下文献：\n\n```\n@inproceedings{Riegler2017OctNet,\n  title={OctNet: Learning Deep 3D Representations at High Resolutions},\n  author={Riegler, Gernot and Ulusoy, Ali Osman and Geiger, Andreas},\n  booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition},\n  year={2017}\n}\n```\n\n\n## 代码概览\n- `core` - 该目录包含混合网格-八叉树数据结构的核心代码（`include\u002Foctnet\u002Fcore`）、针对该数据结构的网络操作的 CPU 代码（`include\u002Foctnet\u002Fcpu`），以及一些用于创建测试对象的代码（`include\u002Foctnet\u002Ftest`）。\n- `core_gpu` - 网络操作的 GPU（CUDA）代码。\n- `create` - 用于预处理 3D 数据（点云、网格、稠密体素）并将其转换为网格-八叉树结构的代码。\n- `geometry` - 主要用于 `create` 包中的简单几何运算例程。\n- `py` - 该目录包含一个小型 Python 封装器，用于调用 `create` 包及部分 `core` 函数。\n- `th` - 一个功能齐全的 Torch 封装器，用于所有网络操作。\n- [`example`](example\u002F01_classification_modelnet\u002F) - 包含一个示例，用于创建数据并在 ModelNet10 上训练网络。\n\n\n## 需求\n我们尽量将依赖项控制在较低水平。要构建各个项目，您需要：\n- `cmake` 来配置项目；\n- `gcc` 或 `clang` 来编译核心项目；\n- `nvcc`（CUDA）来编译 GPU 网络操作；\n- `cython` 来编译 Python 封装器；\n- `torch` 来设置 Torch 封装器。\n\n可选地，您还需要：\n- `OpenMP` 用于 CPU 函数的并行化。\n\n\n## 构建\n各个软件包的构建过程应该相当简单。除 Python 封装器 `py` 外，其他所有包都是 CMake 项目。因此，您可以在相应包的文件夹中创建一个 `build` 目录，然后运行 `cmake` 和 `make` 命令。例如，构建 `core` 包：\n\n    cd core\n    mkdir build\n    cd build\n    cmake ..\n    make -j\n\n要构建 Python 封装器，只需执行：\n\n    cd py\n    python setup.py build_ext --inplace\n\n如果您不想为每个包重复上述步骤，我们提供了两个简单的 Bash 脚本以自动化这一过程：\n- `build_cpu.sh` - 构建 OctNet 的所有 CPU 代码；\n- `build_all.sh` - 同上，但还会构建 GPU 网络函数以及 Torch 的 GPU 封装代码。","# OctNet 快速上手指南\n\nOctNet 是一种利用八叉树（Octrees）进行高效空间划分的技术，旨在降低 3D 卷积神经网络的内存和计算需求，从而实现高分辨率的深度学习。本指南将帮助你快速搭建环境并运行示例。\n\n## 环境准备\n\n在开始之前，请确保你的系统满足以下要求：\n\n### 系统要求\n- **操作系统**: Linux (推荐)\n- **编译器**: `gcc` 或 `clang`\n- **构建工具**: `cmake`\n- **GPU 支持 (可选但推荐)**: NVIDIA GPU 及 `nvcc` (CUDA Toolkit)\n- **并行加速 (可选)**: `OpenMP`\n\n### 依赖安装\n你需要安装以下 Python 和开发库：\n\n```bash\n# 安装基础构建工具 (以 Ubuntu\u002FDebian 为例)\nsudo apt-get update\nsudo apt-get install cmake build-essential\n\n# 安装 CUDA (如需 GPU 加速，请根据 NVIDIA 官方文档安装对应版本的 nvcc)\n\n# 安装 Python 依赖\npip install cython torch\n# 国内用户推荐使用清华源加速安装\n# pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple cython torch\n```\n\n## 安装步骤\n\nOctNet 由多个子模块组成（核心库、GPU 代码、数据预处理、Python\u002FTorch 封装）。你可以选择手动编译单个模块，或使用提供的脚本一键构建。\n\n### 方法一：一键构建（推荐）\n\n项目根目录提供了两个 Bash 脚本来自动化构建过程：\n\n1. **仅构建 CPU 版本**：\n   ```bash\n   .\u002Fbuild_cpu.sh\n   ```\n\n2. **构建完整版本（包含 GPU 网络和 Torch 封装）**：\n   ```bash\n   .\u002Fbuild_all.sh\n   ```\n\n### 方法二：手动分步构建\n\n如果你只需要特定模块，可以进入对应目录手动编译。\n\n**1. 构建核心库 (Core)**\n```bash\ncd core\nmkdir build\ncd build\ncmake ..\nmake -j\ncd ..\u002F..\n```\n\n**2. 构建 GPU 模块 (Core GPU)**\n```bash\ncd core_gpu\nmkdir build\ncd build\ncmake ..\nmake -j\ncd ..\u002F..\n```\n\n**3. 构建 Python 封装 (Py)**\n```bash\ncd py\npython setup.py build_ext --inplace\ncd ..\n```\n\n**4. 构建 Torch 封装 (Th)**\n```bash\ncd th\nmkdir build\ncd build\ncmake ..\nmake -j\ncd ..\u002F..\n```\n\n## 基本使用\n\n构建完成后，你可以参考官方提供的示例来训练一个简单的 3D 分类网络。\n\n### 运行示例：ModelNet10 分类\n\n示例代码位于 `example\u002F01_classification_modelnet\u002F` 目录下。该示例展示了如何预处理数据并训练网络。\n\n1. **进入示例目录**：\n   ```bash\n   cd example\u002F01_classification_modelnet\u002F\n   ```\n\n2. **查看并运行脚本**：\n   通常示例包含数据生成和训练脚本。请查阅该目录下的 `README` 或直接运行主脚本（具体文件名请参考目录内容，通常为 `.sh` 或 `.py` 文件）：\n   \n   ```bash\n   # 假设运行训练脚本 (具体命令请以该目录下实际脚本为准)\n   python train.lua \n   # 或者如果是 Python 接口\n   python train.py\n   ```\n\n> **提示**：由于 OctNet 主要基于 Lua\u002FTorch7 生态（论文发表时期），部分示例可能使用 `.lua` 脚本。如果你主要使用 PyTorch，建议参考 `py` 和 `th` 目录下的封装接口，将 OctNet 的核心操作集成到你现有的 PyTorch 项目中。核心功能是通过八叉树结构处理稀疏 3D 数据，你可以利用 `create` 包将点云或网格转换为 OctNet 格式，然后输入到网络中。","某自动驾驶团队正在开发基于激光雷达点云的高精度障碍物分类系统，需要处理高分辨率的 3D 空间数据以识别远处的小型物体。\n\n### 没有 octnet 时\n- **显存爆炸**：直接使用传统稠密 3D 卷积网络处理高分辨率点云时，空体素占据了绝大部分内存，导致显存迅速耗尽，无法加载大尺寸场景。\n- **分辨率妥协**：为了适应有限的硬件资源，被迫将输入点云下采样至低分辨率（如 64³），导致远处行人或交通标志的细节丢失，识别率大幅下降。\n- **计算浪费**：GPU 大量算力被消耗在对空白区域的无效卷积运算上，推理延迟高，无法满足实时驾驶决策的需求。\n- **网络深度受限**：由于内存瓶颈，无法堆叠更深的网络层来提取复杂特征，模型表达能力不足，难以区分形态相似的障碍物。\n\n### 使用 octnet 后\n- **内存高效**：octnet 利用八叉树结构仅对包含数据的稀疏区域分配内存，成功在同等显存下处理分辨率高达 512³ 的点云数据。\n- **细节保留**：无需牺牲输入分辨率，模型能清晰捕捉远处小物体的几何特征，显著提升了长距离障碍物的分类准确率。\n- **算力聚焦**：计算资源自动集中于非空叶节点，跳过空白区域运算，大幅降低了单次推理耗时，实现了高频实时检测。\n- **深层网络可行**：得益于内存占用的降低，团队得以部署更深的卷积网络，增强了模型对复杂 3D 结构的理解与泛化能力。\n\noctnet 通过智能的空间稀疏划分，打破了高分辨率 3D 深度学习的内存与算力壁垒，让精细化的实时场景感知成为可能。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgriegler_octnet_50f8983f.png","griegler","Gernot Riegler","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgriegler_0e265275.png",null,"https:\u002F\u002Fgithub.com\u002Fgriegler",[81,85,89,93,97,101,105],{"name":82,"color":83,"percentage":84},"C++","#f34b7d",36.7,{"name":86,"color":87,"percentage":88},"Cuda","#3A4E3A",25.4,{"name":90,"color":91,"percentage":92},"Lua","#000080",25,{"name":94,"color":95,"percentage":96},"Python","#3572A5",5.7,{"name":98,"color":99,"percentage":100},"C","#555555",4.3,{"name":102,"color":103,"percentage":104},"CMake","#DA3434",2.6,{"name":106,"color":107,"percentage":108},"Shell","#89e051",0.3,505,104,"2026-03-11T12:47:28","NOASSERTION",4,"Linux, macOS","可选（用于构建 core_gpu）。需要 NVIDIA GPU 及 nvcc (CUDA) 编译器。具体显卡型号、显存大小及 CUDA 版本未说明。","未说明",{"notes":118,"python":119,"dependencies":120},"该项目基于 2017 年的论文，主要依赖较旧版本的 Torch (Lua Torch 而非 PyTorch)，需注意环境兼容性。构建过程分为 CPU 核心库、GPU 核心库和 Python\u002FTorch 包装器。提供了自动化构建脚本 (build_cpu.sh 和 build_all.sh)。若不使用 GPU 功能，可不安装 CUDA。","未说明（需安装 cython 以编译 Python 包装器）",[121,122,123,124,125,126],"cmake","gcc 或 clang","nvcc (CUDA)","cython","torch","OpenMP (可选)",[13,54],[129,130,131,125,132],"deep-learning","3d","octree","python","2026-03-27T02:49:30.150509","2026-04-06T09:46:09.700552",[136,141,146,150,155,160,165,170],{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},13128,"是否有 PyTorch 版本的 OctNet？","目前官方没有直接提供 PyTorch 版本。有一个类似的竞争项目 O-CNN (https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FO-CNN) 是用 PyTorch 实现的，这可能会激励社区将 OctNet 移植到 PyTorch。如果有开发者愿意贡献，可以在相关 Issue 中联系维护者。","https:\u002F\u002Fgithub.com\u002Fgriegler\u002Foctnet\u002Fissues\u002F12",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},13129,"运行 create_data.py 时遇到 'Buffer has wrong number of dimensions' 或 'truth value of an array... is ambiguous' 错误怎么办？","这是 Python 2\u002F3 兼容性或数组内存布局问题。解决方法是在传递给函数的数组上添加 `.copy()` 方法。例如：`dense = np.zeros((vx_res,vx_res,vx_res,1), dtype=np.float32).copy()`。此外，确保输入数组的维度正确（通常为 4 维，最后一维代表特征通道数）。","https:\u002F\u002Fgithub.com\u002Fgriegler\u002Foctnet\u002Fissues\u002F20",{"id":147,"question_zh":148,"answer_zh":149,"source_url":145},13130,"在从密集体素网格创建 Octree 时，特征维度（feature dimension）应该如何定义？","特征维度取决于你的数据类型。可以将体素网格视为具有额外特征维度的 3D 网格。如果只有强度值，该维度为 1；如果是彩色数据，则为 3；如果包含法向量或其他属性，则相应增加。不需要为每个离散强度值建立单独的通道，而是将强度作为特征值传入。",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},13131,"如何可视化 Octree 数据？生成的 TikZ 文件太大无法渲染怎么办？","官方代码库中包含生成 TikZ (.tex) 文件的脚本用于可视化，但对于大型医疗数据可能文件过大。目前建议检查构建路径是否正确（`sys.path.append` 指向构建扩展的路径），并将 `pyoctree_cpu` 替换为 `pyoctnet` 以确保调用正确的模块。若需直接可视化或转换为其他格式，可能需要自行编写脚本解析 Octree 结构并导出为点云或网格格式。","https:\u002F\u002Fgithub.com\u002Fgriegler\u002Foctnet\u002Fissues\u002F28",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},13132,"如何在没有 GPU 的 CPU 机器上运行分类示例（如 01_classification_modelnet）？","默认示例依赖 Lua 的 `cunn` 和 `cudnn` 包（需要 GPU）。若要在 CPU 上运行，需手动修改代码：1. 移除所有 `require('cunn')` 和 `require('cudnn')` 语句；2. 将所有 `:cuda()` 调用替换为 `:float()`；3. 将 `oc.OctreeConvolutionMM` 替换为 `oc.OctreeConvolution3x3x3`（后者支持 CPU）。注意官方实现中缺少部分 CPU 优化的卷积后端。","https:\u002F\u002Fgithub.com\u002Fgriegler\u002Foctnet\u002Fissues\u002F4",{"id":161,"question_zh":162,"answer_zh":163,"source_url":164},13133,"增加 Batch Size 导致显存溢出（OOM）或处理时间线性增加，如何优化？","OctNet 的处理时间随 Batch Size 增加而显著增加，主要受 `n_grids` 参数影响。如果显存不足，尝试调整 `n_grids` 参数（不要设为 -1，这可能导致未压缩数组占用过大内存）。确保模型结构适合显存限制，必要时减小输入分辨率或网络深度。使用 cuDNN 时通常无需显式构建矩阵，可提升效率。","https:\u002F\u002Fgithub.com\u002Fgriegler\u002Foctnet\u002Fissues\u002F22",{"id":166,"question_zh":167,"answer_zh":168,"source_url":169},13134,"如何从原始 PCL 点云数据创建 Octree？ranges 和 number of ranges 参数是什么意思？","`create_from_pc` 函数不需要法向量。`ranges` 和 `number of ranges` 用于定义空间划分的范围和分辨率。你需要根据点云的边界框（Bounding Box）计算这些值，将原始点云坐标映射到指定的网格空间中。具体代码示例需参考官方文档或将点云先体素化（voxelization）再调用 `create_from_dense` 接口。","https:\u002F\u002Fgithub.com\u002Fgriegler\u002Foctnet\u002Fissues\u002F1",{"id":171,"question_zh":172,"answer_zh":173,"source_url":154},13135,"创建的 Octree 文件过大（如超过 2GB），是否有参数可以控制其大小？","Octree 的大小取决于输入数据的分辨率和细节程度。可以通过调整创建时的 `depth`、`height` 和 `width` 参数来限制最大深度或网格尺寸，从而减小 Octree 体积。对于医疗影像等高分辨率数据，适当降低分辨率或使用更粗糙的体素划分（pooling）也能有效减小文件大小。`n_threads` 参数仅影响创建速度，不影响最终大小。",[]]