[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-HuguesTHOMAS--KPConv-PyTorch":3,"tool-HuguesTHOMAS--KPConv-PyTorch":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85267,2,"2026-04-18T11:00:28",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75872,"2026-04-18T10:54:57",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":83,"owner_website":84,"owner_url":85,"languages":86,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":106,"env_os":107,"env_gpu":108,"env_ram":109,"env_deps":110,"category_tags":115,"github_topics":83,"view_count":10,"oss_zip_url":83,"oss_zip_packed_at":83,"status":22,"created_at":116,"updated_at":117,"faqs":118,"releases":151},9110,"HuguesTHOMAS\u002FKPConv-PyTorch","KPConv-PyTorch","Kernel Point Convolution implemented in PyTorch","KPConv-PyTorch 是经典点云处理算法“核点卷积”（Kernel Point Convolution）的 PyTorch 版本实现。它专为解决三维点云数据的深度学习难题而生，能够有效处理点云无序、稀疏且分布不均的特性，在物体分类、场景语义分割及 SLAM 分割等任务中表现卓越。\n\n相较于传统方法，KPConv 的核心亮点在于其“灵活可变形”的卷积机制。它通过在空间中动态分布的可学习核点进行卷积运算，不仅摆脱了对规则网格的依赖，还能自适应地捕捉复杂的几何结构特征，显著提升了模型对三维形状的理解能力。\n\n这款开源项目非常适合从事计算机视觉、机器人感知及自动驾驶领域的研究人员与开发者使用。无论是希望复现 ICCV 2019 论文成果的学者，还是需要在 ModelNet40、S3DIS 或 SemanticKitti 等数据集上构建高精度三维感知模型的工程师，都能从中获益。项目提供了详尽的训练脚本、预训练权重及可视化工具，并支持 Ubuntu 和 Windows 环境，帮助用户快速上手并验证想法，是推动三维深度学习研究与应用的高效利器。","\n![Intro figure](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHuguesTHOMAS_KPConv-PyTorch_readme_6edd47e9bcd6.png)\n\nCreated by Hugues THOMAS\n\n## Introduction\n\nThis repository contains the implementation of **Kernel Point Convolution** (KPConv) in [PyTorch](https:\u002F\u002Fpytorch.org\u002F).\n\nKPConv is also available in [Tensorflow](https:\u002F\u002Fgithub.com\u002FHuguesTHOMAS\u002FKPConv) (original but older implementation).\n\nAnother implementation of KPConv is available in [PyTorch-Points-3D](https:\u002F\u002Fgithub.com\u002Fnicolas-chaulet\u002Ftorch-points3d)\n \nKPConv is a point convolution operator presented in our ICCV2019 paper ([arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.08889)). If you find our work useful in your \nresearch, please consider citing:\n\n```\n@article{thomas2019KPConv,\n    Author = {Thomas, Hugues and Qi, Charles R. and Deschaud, Jean-Emmanuel and Marcotegui, Beatriz and Goulette, Fran{\\c{c}}ois and Guibas, Leonidas J.},\n    Title = {KPConv: Flexible and Deformable Convolution for Point Clouds},\n    Journal = {Proceedings of the IEEE International Conference on Computer Vision},\n    Year = {2019}\n}\n```\n\n## Installation\n\nThis implementation has been tested on Ubuntu 18.04 and Windows 10. Details are provided in [INSTALL.md](.\u002FINSTALL.md).\n\n\n## Experiments\n\nWe provide scripts for three experiments: ModelNet40, S3DIS and SemanticKitti. The instructions to run these \nexperiments are in the [doc](.\u002Fdoc) folder.\n\n* [Object Classification](.\u002Fdoc\u002Fobject_classification_guide.md): Instructions to train KP-CNN on an object classification\n task (Modelnet40).\n \n* [Scene Segmentation](.\u002Fdoc\u002Fscene_segmentation_guide.md): Instructions to train KP-FCNN on a scene segmentation \n task (S3DIS).\n \n* [SLAM Segmentation](.\u002Fdoc\u002Fslam_segmentation_guide.md): Instructions to train KP-FCNN on a slam segmentation \n task (SemanticKitti).\n \n* [Pretrained models](.\u002Fdoc\u002Fpretrained_models_guide.md): We provide pretrained weights and instructions to load them.\n \n* [Visualization scripts](.\u002Fdoc\u002Fvisualization_guide.md): For now only one visualization script has been implemented: \nthe kernel deformations display.\n\n## Acknowledgment\n\nOur code uses the \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fjlblancoc\u002Fnanoflann\">nanoflann\u003C\u002Fa> library.\n\n## License\nOur code is released under MIT License (see LICENSE file for details).\n\n## Updates\n* 27\u002F04\u002F2020: Initial release.\n* 27\u002F04\u002F2020: Added NPM3D support thanks to @GeoSur.\n","![简介图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHuguesTHOMAS_KPConv-PyTorch_readme_6edd47e9bcd6.png)\n\n由 Hugues THOMAS 创建\n\n## 简介\n\n本仓库包含 **Kernel Point Convolution** (KPConv) 在 [PyTorch](https:\u002F\u002Fpytorch.org\u002F) 中的实现。\n\nKPConv 也在 [TensorFlow](https:\u002F\u002Fgithub.com\u002FHuguesTHOMAS\u002FKPConv) 中提供（原始但较旧的实现）。\n\n此外，KPConv 的另一种实现可在 [PyTorch-Points-3D](https:\u002F\u002Fgithub.com\u002Fnicolas-chaulet\u002Ftorch-points3d) 中找到。\n\nKPConv 是我们在 ICCV2019 论文中提出的一种点云卷积算子（[arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.08889)）。如果您在研究中使用了我们的工作，请考虑引用：\n\n```\n@article{thomas2019KPConv,\n    Author = {Thomas, Hugues and Qi, Charles R. and Deschaud, Jean-Emmanuel and Marcotegui, Beatriz and Goulette, Fran{\\c{c}}ois and Guibas, Leonidas J.},\n    Title = {KPConv: Flexible and Deformable Convolution for Point Clouds},\n    Journal = {Proceedings of the IEEE International Conference on Computer Vision},\n    Year = {2019}\n}\n```\n\n## 安装\n\n此实现已在 Ubuntu 18.04 和 Windows 10 上测试过。详细信息请参阅 [INSTALL.md](.\u002FINSTALL.md)。\n\n## 实验\n\n我们提供了三个实验的脚本：ModelNet40、S3DIS 和 SemanticKitti。运行这些实验的说明位于 [doc](.\u002Fdoc) 文件夹中。\n\n* [物体分类](.\u002Fdoc\u002Fobject_classification_guide.md)：指导如何在物体分类任务（ModelNet40）上训练 KP-CNN。\n  \n* [场景分割](.\u002Fdoc\u002Fscene_segmentation_guide.md)：指导如何在场景分割任务（S3DIS）上训练 KP-FCNN。\n  \n* [SLAM 分割](.\u002Fdoc\u002Fslam_segmentation_guide.md)：指导如何在 SLAM 分割任务（SemanticKitti）上训练 KP-FCNN。\n  \n* [预训练模型](.\u002Fdoc\u002Fpretrained_models_guide.md)：我们提供了预训练权重及加载说明。\n  \n* [可视化脚本](.\u002Fdoc\u002Fvisualization_guide.md)：目前仅实现了一个可视化脚本：显示卷积核的变形。\n\n## 致谢\n\n我们的代码使用了 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fjlblancoc\u002Fnanoflann\">nanoflann\u003C\u002Fa> 库。\n\n## 许可证\n我们的代码采用 MIT 许可证发布（详情请参阅 LICENSE 文件）。\n\n## 更新\n* 2020年4月27日：首次发布。\n* 2020年4月27日：感谢 @GeoSur 的贡献，增加了 NPM3D 支持。","# KPConv-PyTorch 快速上手指南\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：已通过测试的系统为 **Ubuntu 18.04** 或 **Windows 10**。\n*   **核心框架**：已安装 [PyTorch](https:\u002F\u002Fpytorch.org\u002F)。\n*   **前置依赖**：本项目依赖 `nanoflann` 库用于近邻搜索。\n*   **详细配置**：具体的版本兼容性和编译依赖请参考项目根目录下的 `INSTALL.md` 文件。\n\n> **提示**：国内用户安装 PyTorch 时，建议优先使用清华或中科大镜像源加速下载。\n\n## 安装步骤\n\n克隆仓库并安装依赖。由于涉及自定义算子编译，请确保已安装对应的 CUDA 工具包（如需 GPU 加速）。\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002FHuguesTHOMAS\u002FKPConv-PyTorch.git\ncd KPConv-PyTorch\n\n# 安装 Python 依赖\n# 建议先创建虚拟环境\npip install -r requirements.txt\n\n# 编译扩展模块 (具体编译命令请参阅 INSTALL.md，通常涉及 setup.py)\npython setup.py build_ext --inplace\n```\n\n*注：若在 Windows 下遇到编译问题，请严格参照 `INSTALL.md` 中的 Windows 特定说明配置编译器环境。*\n\n## 基本使用\n\n本仓库提供了三个主要实验任务的脚本：**物体分类**、**场景分割**和 **SLAM 分割**。以下是基于官方文档的最简使用流程。\n\n### 1. 训练物体分类模型 (ModelNet40)\n\n运行以下命令启动训练（具体参数请查阅 `doc\u002Fobject_classification_guide.md`）：\n\n```bash\npython training_classification.py --config_path config\u002Fmodelnet40_config.json\n```\n\n### 2. 训练场景分割模型 (S3DIS)\n\n针对 S3DIS 数据集进行语义分割训练：\n\n```bash\npython training_segmentation.py --config_path config\u002Fs3dis_config.json\n```\n\n### 3. 加载预训练模型\n\n如果您不想从头训练，可以使用提供的预训练权重进行测试或微调：\n\n```bash\npython test_classification.py --config_path config\u002Fmodelnet40_config.json --checkpoint path\u002Fto\u002Fpretrained_weights.pth\n```\n\n### 4. 可视化内核形变\n\n查看卷积核的形变效果（目前唯一支持的可视化脚本）：\n\n```bash\npython visualize_deformations.py --config_path config\u002Fyour_config.json\n```\n\n> **注意**：运行上述脚本前，请确保已按照 `doc` 文件夹中对应指南准备好数据集（ModelNet40, S3DIS, SemanticKitti）并放置在指定目录。","某自动驾驶团队正在处理城市道路激光雷达点云数据，亟需提升对动态障碍物与复杂路面的实时语义分割精度。\n\n### 没有 KPConv-PyTorch 时\n- 传统体素化方法将不规则点云强制网格化，导致原始几何细节大量丢失，难以识别细小障碍物。\n- 固定卷积核无法适应点云密度的剧烈变化，在稀疏区域特征提取失效，密集区域则计算冗余严重。\n- 模型缺乏形变能力，面对车辆颠簸或传感器角度变化导致的点云分布扭曲，分割结果极不稳定。\n- 调参过程繁琐，需反复尝试不同的采样率和邻域定义，开发周期长达数周且效果仍不理想。\n\n### 使用 KPConv-PyTorch 后\n- 利用可变形核点卷积直接在原始点上操作，完整保留了路面裂缝、护栏边缘等关键几何特征。\n- 自适应核机制根据局部点密度灵活调整感受野，既保证了稀疏区域的感知能力，又提升了密集处的计算效率。\n- 内核点的空间形变特性让模型能“跟随”点云分布自动校正，显著增强了在不同行驶工况下的鲁棒性。\n- 直接调用官方提供的 SemanticKitti 预训练权重与脚本，三天内即可完成迁移训练并部署上车，大幅缩短研发链路。\n\nKPConv-PyTorch 通过其独特的柔性卷积机制，解决了非结构化点云处理中的几何失真与适应性难题，成为高精度三维感知任务的核心引擎。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHuguesTHOMAS_KPConv-PyTorch_bdaf41a1.png","HuguesTHOMAS","Hugues THOMAS","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FHuguesTHOMAS_0354f11c.jpg","AI\u002Frobotics Researcher. Postdoc at University of Toronto. Focus: Deep Learning and 3D Point clouds. Indoor navigation","University of Toronto","Toronto","huguesthomas218@gmail.com",null,"https:\u002F\u002Fhuguesthomas.github.io","https:\u002F\u002Fgithub.com\u002FHuguesTHOMAS",[87,91,95,99],{"name":88,"color":89,"percentage":90},"Python","#3572A5",84.6,{"name":92,"color":93,"percentage":94},"C++","#f34b7d",15.4,{"name":96,"color":97,"percentage":98},"Shell","#89e051",0,{"name":100,"color":101,"percentage":98},"Batchfile","#C1F12E",884,175,"2026-04-13T02:33:22","MIT",4,"Linux (Ubuntu 18.04), Windows 10","未说明（基于 PyTorch 实现，通常建议配备支持 CUDA 的 NVIDIA GPU 以加速点云卷积运算，具体型号和显存需参考 INSTALL.md）","未说明",{"notes":111,"python":109,"dependencies":112},"详细安装步骤、具体的 Python 版本、CUDA 版本及硬件需求请参阅项目根目录下的 INSTALL.md 文件。该工具主要依赖 nanoflann 库进行近邻搜索。",[113,114],"PyTorch","nanoflann",[18],"2026-03-27T02:49:30.150509","2026-04-18T22:31:46.057356",[119,124,128,133,137,142,147],{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},40868,"如何在验证阶段将预测结果保存为文本文件？","默认情况下，代码仅在测试集（test）上保存结果。若需在验证集（validation）也保存结果，请修改 `utils\u002Ftester.py` 文件中的判断条件。将：\n```python\nif test_loader.dataset.set == 'test':\n```\n替换为：\n```python\nif test_loader.dataset.set in ['test', 'validation']:\n```\n这样即可在验证过程中触发保存逻辑。","https:\u002F\u002Fgithub.com\u002FHuguesTHOMAS\u002FKPConv-PyTorch\u002Fissues\u002F149",{"id":125,"question_zh":126,"answer_zh":127,"source_url":123},40869,"在 Windows 系统上运行代码时出现路径分隔符导致的维度错误怎么办？","Windows 使用反斜杠 '\\' 作为路径分隔符，而 Linux 使用正斜杠 '\u002F'。如果在跨平台开发或数据准备过程中混合使用了这两种分隔符，会导致路径解析错误从而引发维度不匹配。请检查数据加载和路径拼接部分的代码，确保统一使用 `os.path.join()` 或根据操作系统动态处理分隔符，避免硬编码路径符号。",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},40870,"网格下采样（Grid Subsampling）策略是如何工作的？它在网络中如何使用？","1. 所有下采样操作（包括初始输入预处理和层间下采样）均基于网格进行。\n2. 初始预处理步骤用于控制进入网络的点云密度；后续的下采样则用于逐层降低该密度。\n3. 这样做的原因是点云邻域计算在 GPU 上不易高效完成。利用 CPU（配合 KDTree 加速，如 nanoflann 库）可以快速并行计算邻域，且可与 GPU 上的网络计算同时进行，从而大幅提升性能。","https:\u002F\u002Fgithub.com\u002FHuguesTHOMAS\u002FKPConv-PyTorch\u002Fissues\u002F78",{"id":134,"question_zh":135,"answer_zh":136,"source_url":132},40871,"代码中的 s_pts 和 q_pts 变量名代表什么含义？","s_ 代表 support（支持点），q_ 代表 query（查询点）。这是点云邻域计算中的标准命名惯例。",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},40872,"训练自定义数据集时遇到 \"ValueError: need at least one array to concatenate\" 错误如何解决？","该错误通常是因为数据集中某些类别的统计信息显示帧数为 0（即这些类别在任何帧中都不存在），但它们在配置中未被忽略。解决方案有两种：\n1. 检查并清理数据集，确保所有未忽略的类别至少出现在一帧中。\n2. 在创建数据集时设置 `balance_classes=False`，但这并不推荐，因为如果数据集中根本不存在某些类别，强行保留它们没有意义。","https:\u002F\u002Fgithub.com\u002FHuguesTHOMAS\u002FKPConv-PyTorch\u002Fissues\u002F186",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},40873,"如果测试集中完全不存在某个类别，可以在计算平均 IoU 时排除该类别吗？","不可以。在实际应用（如自动驾驶）中，你不能预知测试集中是否会出现某个类别（例如行人可能此刻不在，但稍后会出现）。因此，即使测试集中暂时缺少某些类别的样本，网络仍需针对这些类别进行训练和评估，以保证模型的泛化能力和鲁棒性。必须将所有定义的类别纳入整体 mean IoU 的计算中。","https:\u002F\u002Fgithub.com\u002FHuguesTHOMAS\u002FKPConv-PyTorch\u002Fissues\u002F147",{"id":148,"question_zh":149,"answer_zh":150,"source_url":146},40874,"如何对部分类别进行条件性子采样（例如保留重要类别的高密度，降低背景类别密度）？","可以在写入 .ply 文件之前，对特定类别（如天花板、地板）使用 `grid_subsampling()` 进行下采样，而对关键类别（如出口标志、火警器）保持原始密度。这会导致区域内点密度不均匀，是允许的。在这种情况下：\n1. 加载 .ply 文件训练时，可以不再进行额外的下采样。\n2. 参数 `first_subsampling_dl` 理论上可设为 0，但在 `calibration()` 方法中它用于评估邻居限制。建议设置为一个较小的任意值（如 0.01），以避免除零错误或逻辑异常，同时不会对网络性能产生显著负面影响。",[]]