[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-tusen-ai--SST":3,"similar-tusen-ai--SST":97},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":14,"owner_avatar_url":15,"owner_bio":16,"owner_company":17,"owner_location":17,"owner_email":17,"owner_twitter":17,"owner_website":17,"owner_url":18,"languages":19,"stars":40,"forks":41,"last_commit_at":42,"license":43,"difficulty_score":44,"env_os":45,"env_gpu":46,"env_ram":45,"env_deps":47,"category_tags":52,"github_topics":57,"view_count":61,"oss_zip_url":17,"oss_zip_packed_at":17,"status":62,"created_at":63,"updated_at":64,"faqs":65,"releases":96},6526,"tusen-ai\u002FSST","SST","Code for a series of work in LiDAR perception, including SST (CVPR 22), FSD (NeurIPS 22), FSD++ (TPAMI 23), FSDv2, and  CTRL (ICCV 23, oral).","SST 是一个专注于激光雷达（LiDAR）三维感知研究的开源代码库，集成了包括 SST、FSD 系列及 CTRL 在内的多项前沿算法。它主要解决自动驾驶场景中三维物体检测的精度与效率难题，特别是在处理稀疏点云数据时，如何平衡计算速度与检测性能。\n\n该工具特别适合从事自动驾驶感知算法研发的工程师、高校研究人员以及计算机视觉领域的开发者使用。通过提供从单步稀疏变换器到全稀疏检测的完整实现，SST 帮助用户快速复现顶会论文成果，并支持 Waymo、nuScenes 等多个主流数据集。\n\n其核心技术亮点在于“全稀疏”架构设计：不同于传统方法将稀疏点云转换为密集体素导致算力浪费，SST 系列算法全程保持数据的稀疏特性，显著降低了计算开销。此外，库中收录的 CTRL 模型更是首个开源的基于激光雷达的自动标注系统，能有效减少人工标注成本；而最新的 FSDv2 版本通过引入虚拟体素技术，进一步提升了检测精度并简化了部署流程。无论是进行学术探索还是工业级算法验证，SST 都提供了坚实的技术底座。","\u003C!-- ## FSD: Fully Sparse 3D Object Detection  &  SST: Single-stride Sparse Transformer  -->\n\t\n\u003C!-- [![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fembracing-single-stride-3d-object-detector\u002F3d-object-detection-on-waymo-pedestrian)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002F3d-object-detection-on-waymo-pedestrian?p=embracing-single-stride-3d-object-detector)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fembracing-single-stride-3d-object-detector\u002F3d-object-detection-on-waymo-cyclist)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002F3d-object-detection-on-waymo-cyclist?p=embracing-single-stride-3d-object-detector)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fembracing-single-stride-3d-object-detector\u002F3d-object-detection-on-waymo-vehicle)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002F3d-object-detection-on-waymo-vehicle?p=embracing-single-stride-3d-object-detector) -->\n#### If your issue has not received a response for a long time, please contact the author via email at lue.fan@ia.ac.cn.\n### 🔥 We release the code of CTRL, the first open-sourced LiDAR-based auto-labeling system. See [ctrl_instruction](https:\u002F\u002Fgithub.com\u002Ftusen-ai\u002FSST\u002Fblob\u002Fmain\u002Fdocs\u002FCTRL_instructions.md).\n### 🔥 We release FSDv2. Better performance, easier use! Support Waymo, nuScenes, and Argoverse 2. See [fsdv2_instruction](https:\u002F\u002Fgithub.com\u002Ftusen-ai\u002FSST\u002Fblob\u002Fmain\u002Fdocs\u002Ffsdv2_instructions.md).\n\n---\n\nThis repo contains official implementations of our series of work in LiDAR-based 3D object detection:\n\n- [Embracing Single Stride 3D Object Detector with Sparse Transformer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.06375) (CVPR 2022).\n- [Fully Sparse 3D Object Detection](http:\u002F\u002Farxiv.org\u002Fabs\u002F2207.10035) (NeurIPS 2022).\n- [Super Sparse 3D Object Detection](http:\u002F\u002Farxiv.org\u002Fabs\u002F2301.02562) (TPAMI 2023).\n- [Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR based 3D Object Detection](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12315) (ICCV 2023, Oral).\n- [FSD V2: Improving Fully Sparse 3D Object Detection with Virtual Voxels](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.03755).\n\nUsers could follow the instructions in [docs](https:\u002F\u002Fgithub.com\u002Ftusen-ai\u002FSST\u002Fblob\u002Fmain\u002Fdocs) to use this repo.\n\n\n**NEWS**\n- [23-08-08] The code of FSDv2 is merged into this repo.\n- [23-07-14] CTRL is aceepted at ICCV 2023.\n- [23-06-21] The code of FSD++ (TPAMI version of FSD) is released.\n- [23-06-19] The code of CTRL is released.\n- [23-03-21] The Argoverse 2 model of FSD is released. See [instructions](https:\u002F\u002Fgithub.com\u002Ftusen-ai\u002FSST\u002Fblob\u002Fmain\u002Finstructions.md).\n- [22-09-19] The code of FSD is released here.\n- [22-09-15] FSD is accepted at NeurIPS 2022.\n- [22-03-02] SST is accepted at CVPR 2022.\n- [21-12-10] The code of SST is released.\n\n\u003C!-- **Visualization of a SST detection sequence by AB3DMOT tracking:**\n\n![demo-min](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftusen-ai_SST_readme_88ff3951b3f3.gif) -->\n\n## Citation\nPlease consider citing our work as follows if it is helpful.\n\n**Since FSD++ (TPAMI version) is accidentally excluded in Google Scholar search results, if possible, please kindly use the following bibtex**.\n```\n@inproceedings{fan2022embracing,\n  title={{Embracing Single Stride 3D Object Detector with Sparse Transformer}},\n  author={Fan, Lue and Pang, Ziqi and Zhang, Tianyuan and Wang, Yu-Xiong and Zhao, Hang and Wang, Feng and Wang, Naiyan and Zhang, Zhaoxiang},\n  booktitle={CVPR},\n  year={2022}\n}\n```\n```\n@inproceedings{fan2022fully,\n  title={{Fully Sparse 3D Object Detection}},\n  author={Fan, Lue and Wang, Feng and Wang, Naiyan and Zhang, Zhaoxiang},\n  booktitle={NeurIPS},\n  year={2022}\n}\n```\n```\n@article{fan2023super,\n  title={Super Sparse 3D Object Detection},\n  author={Fan, Lue and Yang, Yuxue and Wang, Feng and Wang, Naiyan and Zhang, Zhaoxiang},\n  journal={IEEE Transactions on Pattern Analysis and Machine Intelligence},\n  year={2023}\n}\n```\n```\n@inproceedings{fan2023once,\n  title={Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR based 3D Object Detection},\n  author={Fan, Lue and Yang, Yuxue and Mao, Yiming and Wang, Feng and Chen, Yuntao and Wang, Naiyan and Zhang, Zhaoxiang},\n  booktitle={ICCV},\n  year={2023}\n}\n```\n```\n@article{fan2023fsdv2,\n  title={FSD V2: Improving Fully Sparse 3D Object Detection with Virtual Voxels},\n  author={Fan, Lue and Wang, Feng and Wang, Naiyan and Zhang, Zhaoxiang},\n  journal={arXiv preprint arXiv:2308.03755},\n  year={2023}\n}\n```\n\n## Acknowledgments\nThis project is based on the following codebases.  \n\n* [MMDetection3D](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d)\n* [LiDAR-RCNN](https:\u002F\u002Fgithub.com\u002FTuSimple\u002FLiDAR_RCNN)\n\nThank the authors of CenterPoint for providing their detailed results. \n","\u003C!-- ## FSD：全稀疏3D目标检测  &  SST：单步长稀疏Transformer  -->\n\n\u003C!-- [![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fembracing-single-stride-3d-object-detector\u002F3d-object-detection-on-waymo-pedestrian)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002F3d-object-detection-on-waymo-pedestrian?p=embracing-single-stride-3d-object-detector)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fembracing-single-stride-3d-object-detector\u002F3d-object-detection-on-waymo-cyclist)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002F3d-object-detection-on-waymo-cyclist?p=embracing-single-stride-3d-object-detector)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fembracing-single-stride-3d-object-detector\u002F3d-object-detection-on-waymo-vehicle)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002F3d-object-detection-on-waymo-vehicle?p=embracing-single-stride-3d-object-detector) -->\n#### 如果您的问题长时间未得到回复，请通过电子邮件 lue.fan@ia.ac.cn 联系作者。\n### 🔥 我们发布了CTRL的代码，这是首个开源的基于LiDAR的自动标注系统。详情请参阅 [ctrl_instruction](https:\u002F\u002Fgithub.com\u002Ftusen-ai\u002FSST\u002Fblob\u002Fmain\u002Fdocs\u002FCTRL_instructions.md)。\n### 🔥 我们发布了FSDv2。性能更优，使用更便捷！支持Waymo、nuScenes和Argoverse 2数据集。详情请参阅 [fsdv2_instruction](https:\u002F\u002Fgithub.com\u002Ftusen-ai\u002FSST\u002Fblob\u002Fmain\u002Fdocs\u002Ffsdv2_instructions.md)。\n\n---\n\n本仓库包含我们一系列基于LiDAR的3D目标检测工作的官方实现：\n\n- [拥抱单步长稀疏Transformer的3D目标检测器](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.06375)（CVPR 2022）。\n- [全稀疏3D目标检测](http:\u002F\u002Farxiv.org\u002Fabs\u002F2207.10035)（NeurIPS 2022）。\n- [超稀疏3D目标检测](http:\u002F\u002Farxiv.org\u002Fabs\u002F2301.02562)（TPAMI 2023）。\n- [一旦检测到，永不丢失：在离线LiDAR 3D目标检测中超越人类表现](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12315)（ICCV 2023，口头报告）。\n- [FSD V2：利用虚拟体素改进全稀疏3D目标检测](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.03755)。\n\n用户可以按照[docs](https:\u002F\u002Fgithub.com\u002Ftusen-ai\u002FSST\u002Fblob\u002Fmain\u002Fdocs)中的说明来使用本仓库。\n\n\n**新闻**\n- [23-08-08] FSDv2的代码已合并到本仓库。\n- [23-07-14] CTRL已被ICCV 2023接收。\n- [23-06-21] FSD++（TPAMI版本的FSD）的代码已发布。\n- [23-06-19] CTRL的代码已发布。\n- [23-03-21] FSD的Argoverse 2模型已发布。详情请参阅 [instructions](https:\u002F\u002Fgithub.com\u002Ftusen-ai\u002FSST\u002Fblob\u002Fmain\u002Finstructions.md)。\n- [22-09-19] FSD的代码在此发布。\n- [22-09-15] FSD已被NeurIPS 2022接收。\n- [22-03-02] SST已被CVPR 2022接收。\n- [21-12-10] SST的代码已发布。\n\n\u003C!-- **AB3DMOT跟踪下的SST检测序列可视化：**\n\n![demo-min](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftusen-ai_SST_readme_88ff3951b3f3.gif) -->\n\n## 引用\n如果我们的工作对您有所帮助，请考虑按以下方式引用。\n\n**由于FSD++（TPAMI版本）意外地未出现在Google Scholar的搜索结果中，如有可能，请使用以下BibTeX格式**。\n```\n@inproceedings{fan2022embracing,\n  title={{Embracing Single Stride 3D Object Detector with Sparse Transformer}},\n  author={Fan, Lue and Pang, Ziqi and Zhang, Tianyuan and Wang, Yu-Xiong and Zhao, Hang and Wang, Feng and Wang, Naiyan and Zhang, Zhaoxiang},\n  booktitle={CVPR},\n  year={2022}\n}\n```\n```\n@inproceedings{fan2022fully,\n  title={{Fully Sparse 3D Object Detection}},\n  author={Fan, Lue and Wang, Feng and Wang, Naiyan and Zhang, Zhaoxiang},\n  booktitle={NeurIPS},\n  year={2022}\n}\n```\n```\n@article{fan2023super,\n  title={Super Sparse 3D Object Detection},\n  author={Fan, Lue and Yang, Yuxue and Wang, Feng and Wang, Naiyan and Zhang, Zhaoxiang},\n  journal={IEEE Transactions on Pattern Analysis and Machine Intelligence},\n  year={2023}\n}\n```\n```\n@inproceedings{fan2023once,\n  title={Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR based 3D Object Detection},\n  author={Fan, Lue and Yang, Yuxue and Mao, Yiming and Wang, Feng and Chen, Yuntao and Wang, Naiyan and Zhang, Zhaoxiang},\n  booktitle={ICCV},\n  year={2023}\n}\n```\n```\n@article{fan2023fsdv2,\n  title={FSD V2: Improving Fully Sparse 3D Object Detection with Virtual Voxels},\n  author={Fan, Lue and Wang, Feng and Wang, Naiyan and Zhang, Zhaoxiang},\n  journal={arXiv preprint arXiv:2308.03755},\n  year={2023}\n}\n```\n\n## 致谢\n本项目基于以下代码库。\n\n* [MMDetection3D](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d)\n* [LiDAR-RCNN](https:\u002F\u002Fgithub.com\u002FTuSimple\u002FLiDAR_RCNN)\n\n感谢CenterPoint的作者提供了他们的详细结果。","# SST 快速上手指南\n\nSST (Single-stride Sparse Transformer) 及其后续系列（FSD, FSDv2, Super Sparse）是图森未来（TuSimple）开源的基于 LiDAR 的高性能 3D 目标检测框架。本指南将帮助你快速搭建环境并运行基础模型。\n\n## 1. 环境准备\n\n在开始之前，请确保你的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04\u002F20.04)\n*   **GPU**: NVIDIA GPU (建议显存 >= 11GB)，已安装 CUDA (推荐 11.1+) 和 cuDNN\n*   **Python**: 3.7 或更高版本\n*   **PyTorch**: 1.8.0 或更高版本\n\n**前置依赖安装：**\n建议先安装 PyTorch 和 MMCV。国内用户推荐使用清华源或阿里源加速安装。\n\n```bash\n# 示例：安装 PyTorch (请根据实际 CUDA 版本调整，此处以 CUDA 11.1 为例)\npip install torch==1.9.0+cu111 torchvision==0.10.0+cu111 -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html\n\n# 安装 MMCV (SST 基于 MMDetection3D，需匹配对应版本)\npip install mmcv-full==1.4.0 -f https:\u002F\u002Fdownload.openmmlab.com\u002Fmmcv\u002Fdist\u002Fcu111\u002Ftorch1.9.0\u002Findex.html\n```\n\n## 2. 安装步骤\n\n克隆仓库并安装 SST 及其依赖。\n\n```bash\n# 1. 克隆代码库\ngit clone https:\u002F\u002Fgithub.com\u002Ftusen-ai\u002FSST.git\ncd SST\n\n# 2. 安装 MMDetection3D 依赖 (SST 基于此框架)\n# 注意：具体版本请参考 docs 中的详细说明，此处为通用安装逻辑\npip install -r requirements.txt\n\n# 3. 安装 SST 包\npip install -e .\n```\n\n> **提示**：该项目深度依赖 `MMDetection3D`。如果遇到编译错误，请确保已正确安装 `mmcv-full` 且版本与 PyTorch\u002FCUDA 严格匹配。详细的环境配置说明请参阅项目根目录下的 `docs` 文件夹。\n\n## 3. 基本使用\n\nSST 系列模型支持多种数据集（Waymo, nuScenes, Argoverse 2 等）。以下以 **Waymo 数据集** 上的 **SST (CVPR 2022)** 模型为例，展示推理流程。\n\n### 3.1 数据准备\n请下载 Waymo Open Dataset 并按照 `data\u002Fwaymo` 目录结构整理数据。你需要运行数据预处理脚本生成 `.pkl` 信息文件（具体命令参考 `tools\u002Fcreate_data.py`）。\n\n### 3.2 模型推理\n使用预训练权重对数据进行测试。\n\n```bash\n# 单卡测试示例\n# --config: 配置文件路径\n# --checkpoint: 预训练权重路径 (.pth)\n# --out: 输出结果路径\n# --eval: 评估指标 (如 waymo_criterion)\n\npython tools\u002Ftest.py \\\n    configs\u002Fsst\u002Fsst_waymo_dbinf_1x.py \\\n    checkpoints\u002Fsst_waymo.pth \\\n    --out results.pkl \\\n    --eval waymo_criterion\n```\n\n### 3.3 训练模型\n如果你需要从头训练或使用新数据微调：\n\n```bash\n# 单卡训练示例\npython tools\u002Ftrain.py configs\u002Fsst\u002Fsst_waymo_dbinf_1x.py --work-dir work_dirs\u002Fsst_waymo\n\n# 多卡训练示例 (例如使用 8 张 GPU)\n.\u002Ftools\u002Fdist_train.sh configs\u002Fsst\u002Fsst_waymo_dbinf_1x.py 8 --work-dir work_dirs\u002Fsst_waymo\n```\n\n> **进阶提示**：\n> *   **FSDv2 \u002F CTRL**: 项目最新发布的 FSDv2（支持虚拟体素）和 CTRL（自动标注系统）拥有更优的性能和易用性。具体配置文件和使用指令请查阅 `docs\u002Ffsdv2_instructions.md` 和 `docs\u002FCTRL_instructions.md`。\n> *   **配置文件**: 所有模型的配置文件均位于 `configs\u002F` 目录下，按数据集和模型名称分类。","某自动驾驶初创团队正在开发城市复杂路况下的感知系统，急需提升对远处行人和骑行者的检测精度与实时性。\n\n### 没有 SST 时\n- **漏检率高**：传统体素化方法在处理稀疏点云时丢失大量细节，导致远距离或遮挡下的行人、骑行者频繁漏检。\n- **推理延迟大**：多阶段检测流程繁琐，计算资源消耗巨大，难以在嵌入式平台上满足实时性要求（如低于 100ms）。\n- **长尾场景乏力**：面对罕见角度或非标准姿态的目标，模型泛化能力不足，需耗费大量人力进行数据标注和规则修补。\n- **迭代周期长**：每次调整网络结构或超参数都需要重新训练数天，严重拖慢算法验证和部署进度。\n\n### 使用 SST 后\n- **精度显著提升**：利用稀疏 Transformer 架构直接处理原始点云，保留了关键几何特征，Waymo 数据集上行人和骑行者检测精度达到行业领先水平。\n- **单步高效推理**：SST 的“单步”检测机制大幅简化了流程，在保持高精度的同时将推理速度提升数倍，轻松适配车载计算单元。\n- **泛化性强**：完全稀疏的设计使其对各类长尾场景（如侧身行人、倒地的骑行者）具有更强的鲁棒性，减少了人工规则干预。\n- **研发效率飞跃**：依托成熟的开源代码库（含 FSDv2 等进阶版本），团队可快速复现 SOTA 效果并基于此微调，将新模型验证周期从数周缩短至数天。\n\nSST 通过革命性的稀疏变换器架构，帮助团队在降低算力的同时突破了复杂场景下的感知瓶颈，加速了高阶自动驾驶功能的落地。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftusen-ai_SST_88ff3951.gif","tusen-ai","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ftusen-ai_86ee719b.jpg","",null,"https:\u002F\u002Fgithub.com\u002Ftusen-ai",[20,24,28,32,36],{"name":21,"color":22,"percentage":23},"Python","#3572A5",91.5,{"name":25,"color":26,"percentage":27},"C++","#f34b7d",5.1,{"name":29,"color":30,"percentage":31},"Cuda","#3A4E3A",3.3,{"name":33,"color":34,"percentage":35},"Shell","#89e051",0.1,{"name":37,"color":38,"percentage":39},"Dockerfile","#384d54",0,873,105,"2026-04-08T04:40:35","Apache-2.0",4,"未说明","未说明（基于 LiDAR 的 3D 检测通常需 NVIDIA GPU，具体型号及显存未提及）",{"notes":48,"python":45,"dependencies":49},"该项目是基于 MMDetection3D 和 LiDAR-RCNN 代码库开发的 LiDAR 3D 目标检测系列工作（包含 SST, FSD, FSDv2 等）。README 中未直接列出具体的环境配置（如 Python 版本、CUDA 版本等），用户需参考 docs 目录下的详细指令或查阅其基础框架 MMDetection3D 的环境要求。",[50,51],"MMDetection3D","LiDAR-RCNN",[53,54,55,56],"Agent","其他","图像","开发框架",[58,59,60],"pytorch","3d-object-detection","autonomous-driving",2,"ready","2026-03-27T02:49:30.150509","2026-04-11T15:13:32.098613",[66,71,76,81,86,91],{"id":67,"question_zh":68,"answer_zh":69,"source_url":70},29515,"在 KITTI 数据集上训练时遇到 'load_interval' 参数错误怎么办？","该错误通常是因为配置文件中的参数与当前版本的 KittiDataset 不兼容。请检查配置文件，移除或修改 'load_interval' 参数。如果问题依旧，建议参考官方提供的最新配置文件，确保 voxel_size 和 point_cloud_range 设置正确（例如 voxel_size=(0.2, 0.2, 6) 对应 output_shape=(500, 500)）。","https:\u002F\u002Fgithub.com\u002Ftusen-ai\u002FSST\u002Fissues\u002F1",{"id":72,"question_zh":73,"answer_zh":74,"source_url":75},29516,"运行训练脚本时出现 KeyError: 'type' 错误如何解决？","此错误通常由配置中的 output_shape 设置不正确引起。根据配置中的 voxel_size=(0.2, 0.2, 6) 和 point_cloud_range=[0, -50, -5, 50, 50, 3]，正确的 voxel_size 应为 (0.2, 0.2, 8)，且 SSTv1 中的 output_shape 应设置为 (500, 500)。修正这些参数后错误即可消失。","https:\u002F\u002Fgithub.com\u002Ftusen-ai\u002FSST\u002Fissues\u002F2",{"id":77,"question_zh":78,"answer_zh":79,"source_url":80},29517,"Waymo 数据集太大，是否有轻量级的演示代码或无需下载全量数据的方法？","项目维护者通常会提供轻量级演示或样本数据的下载链接以供学习代码实现细节（如输入输出形状）。如果遇到此类需求，可以直接联系维护者或在 Issue 中询问，他们可能会通过邮件发送相关资源链接。","https:\u002F\u002Fgithub.com\u002Ftusen-ai\u002FSST\u002Fissues\u002F75",{"id":82,"question_zh":83,"answer_zh":84,"source_url":85},29518,"训练完成后如何进行评估？是否有评估脚本？","可以使用 TensorFlow 环境进行评测（tensorflow-gpu 在 MMDetection3D 中并非必须，但也可以使用）。评估结果会输出各类别（如 Vehicle, Pedestrian, Cyclist）的 L1\u002FL2 mAP 和 mAPH 指标。如果从零开始训练，请确保使用与训练配置一致的评估脚本，并检查是否存在小的配置误差。","https:\u002F\u002Fgithub.com\u002Ftusen-ai\u002FSST\u002Fissues\u002F7",{"id":87,"question_zh":88,"answer_zh":89,"source_url":90},29519,"SST 项目依赖哪个版本的 MMDetection3D？","建议使用与项目发布时相同的 MMDetection3D 版本以避免兼容性问题。关于训练速度，如果使用 20% 的训练数据，通常采用 12 个 epoch 的调度策略；对于 3 帧输入，在使用 8 张 2080Ti 显卡的情况下，训练时间应少于 10 小时。如有其他版本疑问，建议开启新的 Issue 讨论。","https:\u002F\u002Fgithub.com\u002Ftusen-ai\u002FSST\u002Fissues\u002F6",{"id":92,"question_zh":93,"answer_zh":94,"source_url":95},29520,"自定义数据集修改 seg_voxel_size 后，voxel2point neck 报错或损失曲线异常怎么办？","首先需调整 point_cloud_range 以匹配新的体素大小。其次，注意模型使用了 'EnableFSDDetectionHookIter' 钩子，这意味着 FSD 模型会先训练分割器几个迭代作为预热，然后才启用检测部分。因此，早期的 epoch 可能效果不明显或损失曲线看起来奇怪，这是正常现象，请继续训练观察收敛情况。","https:\u002F\u002Fgithub.com\u002Ftusen-ai\u002FSST\u002Fissues\u002F70",[],[98,108,116,125,133,142],{"id":99,"name":100,"github_repo":101,"description_zh":102,"stars":103,"difficulty_score":104,"last_commit_at":105,"category_tags":106,"status":62},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[53,56,55,107],"数据工具",{"id":109,"name":110,"github_repo":111,"description_zh":112,"stars":113,"difficulty_score":104,"last_commit_at":114,"category_tags":115,"status":62},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[56,55,53],{"id":117,"name":118,"github_repo":119,"description_zh":120,"stars":121,"difficulty_score":61,"last_commit_at":122,"category_tags":123,"status":62},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,"2026-04-10T23:33:47",[56,53,124],"语言模型",{"id":126,"name":127,"github_repo":128,"description_zh":129,"stars":130,"difficulty_score":61,"last_commit_at":131,"category_tags":132,"status":62},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[56,55,53],{"id":134,"name":135,"github_repo":136,"description_zh":137,"stars":138,"difficulty_score":61,"last_commit_at":139,"category_tags":140,"status":62},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[141,53,55,56],"插件",{"id":143,"name":144,"github_repo":145,"description_zh":146,"stars":147,"difficulty_score":61,"last_commit_at":148,"category_tags":149,"status":62},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[141,56]]