[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-mit-han-lab--torchsparse":3,"tool-mit-han-lab--torchsparse":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",156804,2,"2026-04-15T11:34:33",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":97,"forks":98,"last_commit_at":99,"license":100,"difficulty_score":10,"env_os":101,"env_gpu":102,"env_ram":103,"env_deps":104,"category_tags":109,"github_topics":110,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":113,"updated_at":114,"faqs":115,"releases":144},7787,"mit-han-lab\u002Ftorchsparse","torchsparse","[MICRO'23, MLSys'22] TorchSparse: Efficient Training and Inference Framework for Sparse Convolution on GPUs.","TorchSparse 是一个专为点云处理设计的高性能神经网络库，旨在加速自动驾驶等领域的三维深度学习任务。与传统二维图像不同，点云数据具有稀疏且不规则的分布特征，导致常规卷积计算效率低下。TorchSparse 通过提供专门优化的高性能内核，有效解决了这一痛点，显著提升了模型在 GPU 上的训练与推理速度。\n\n该工具特别适合从事三维视觉、自动驾驶感知及机器人导航的 AI 研究人员和开发者。其核心技术亮点在于系统性地分析并改进了现有的数据流策略，支持自适应矩阵乘法分组和感知局部性的内存访问。实测数据显示，在 NVIDIA A100 GPU 上，TorchSparse 的端到端推理速度比 MinkowskiEngine、SpConv 等主流方案快 1.7 至 3.3 倍。此外，新版 TorchSparse++ 已兼容 MMDetection3D 和 OpenPCDet 等流行框架，并成功应用于多项前沿三维生成与重建研究，帮助用户更轻松地构建高效的点云深度学习模型。","# TorchSparse\n\n\u003Cp align=\"center\">\n\u003Cimg \n   src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_torchsparse_readme_9a6d86840997.png\"\n   height=\"300\" \n>\n\n\nTorchSparse is a high-performance neural network library for point cloud processing.\n\n### [website](http:\u002F\u002Ftorchsparse.mit.edu\u002F) | [paper (MICRO 2023)](https:\u002F\u002Fwww.dropbox.com\u002Fscl\u002Ffi\u002Fobdku0kqxjlkvuom2opk4\u002Fpaper.pdf?rlkey=0zmy8eq9fzllgkx54zsvwsecf&dl=0) | [paper (MLSys 2022)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.10319) | [presentation](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=IIh4EwmcLUs) | [documents](http:\u002F\u002Ftorchsparse-docs.github.io\u002F) | [pypi server](http:\u002F\u002Fpypi.hanlab.ai\u002Fsimple\u002Ftorchsparse)\n\n\n## Introduction\n\nPoint cloud computation has become an increasingly more important workload for autonomous driving and other applications. Unlike dense 2D computation, point cloud convolution has **sparse** and **irregular** computation patterns and thus requires dedicated inference system support with specialized high-performance kernels. While existing point cloud deep learning libraries have developed different dataflows for convolution on point clouds, they assume a single dataflow throughout the execution of the entire model. In this work, we systematically analyze and improve existing dataflows. Our resulting system, TorchSparse, achieves **2.9x**, **3.3x**, **2.2x** and **1.7x** measured end-to-end speedup on an NVIDIA A100 GPU over the state-of-the-art MinkowskiEngine, SpConv 1.2, TorchSparse (MLSys) and SpConv v2 in inference respectively. \n\n## News\n**\\[2024\u002F11\\]** TorchSparse++ is now supporting [MMDetection3D](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d) and [OpenPCDet](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002FOpenPCDet) via plugins! [A full demo](.\u002Fexamples\u002F) is available.\n\n**\\[2023\u002F11\\]** TorchSparse++ has been adopted by [One-2-3-45++](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.07885) from Prof. Hao Su's lab (UCSD) for 3D object generation!\n\n**\\[2023\u002F10\\]** We present TorchSparse++ at 56th IEEE\u002FACM International Symposium on Microarchitecture (MICRO 2023). We also fully release the source code of TorchSparse++.\n\n**\\[2023\u002F6\\]** TorchSparse++ has been adopted by [One-2-3-45](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16928) from Prof. Hao Su's lab (UCSD) for 3D mesh reconstruction!\n\n**\\[2023\u002F6\\]** TorchSparse++ has been released and presented at CVPR 2023 workshops on autonomous driving. It achieves 1.7-2.9x inference speedup over previous state-of-the-art systems.\n\n**\\[2023\u002F1\\]** [Argoverse 2](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.00493) dataset implements their baseline detector with TorchSparse.\n\n**\\[2022\u002F8\\]** TorchSparse is presented at MLSys 2022. Talk video is available [here](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=IIh4EwmcLUs).\n\n**\\[2022\u002F6\\]** TorchSparse has been adopted by [SparseNeuS](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2206.05737) for neural surface reconstruction.\n\n**\\[2022\u002F1\\]** TorchSparse has been accepted to MLSys 2022, featuring adaptive matrix multiplication grouping and locality-aware memory access.\n\n**\\[2021\u002F6\\]** TorchSparse v1.4 has been released.\n\n## Installation\n\nWe provide pre-built torchsparse v2.1.0 packages (recommended) with different PyTorch and CUDA versions to simplify the building for the Linux system.\n\n1. Ensure at least PyTorch 1.9.0 is installed:\n\n   ```bash\n   python -c \"import torch; print(torch.__version__)\"\n   >>> 1.10.0\n   ```\n\n1. If you want to use TorchSparse with gpus, please ensure PyTorch was installed with CUDA:\n\n   ```bash\n   python -c \"import torch; print(torch.version.cuda)\"\n   >>> 11.3\n   ```\n\n1. Then the right TorchSparse wheel can be found and installed by running the installation script:\n\n   ```bash\n   python -c \"$(curl -fsSL https:\u002F\u002Fraw.githubusercontent.com\u002Fmit-han-lab\u002Ftorchsparse\u002Fmaster\u002Finstall.py)\"\n   ```\n   \n\nIf Pypi server does not work as expected, no worries, you can still manually download the wheels. The wheels are listed in [this website](http:\u002F\u002Fpypi.hanlab.ai\u002Fsimple\u002Ftorchsparse). One can utilize our installation script to automatically determine the version number used to index the wheels. For example, if you use PyTorch 1.11.0, CUDA 11.5, the version number will end up to be 2.1.0+torch111cu115. You can then select the proper wheel according to your Python version.\n\n\nYou may also alternatively install our library from source via:\n\n```bash\npython setup.py install\n```\nin the repository, or using  \n\n```\npip install git+https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse.git\n```\nwithout the need to clone the repository. \n\n## Benchmarks\n\n### Inference benchmarks\n\n![eval_benchmark.png](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_torchsparse_readme_bc2d3e2234e8.png)\n\nTorchSparse significantly outperforms existing point cloud inference engines in both 3D object detection and LiDAR segmentation benchmarks across three generations of GPU architecture (Pascal, Turing and Ampere)  and all precisions (FP16, TF32, FP32). It is up to **1.7x** faster than state-of-the-art SpConv 2.3.5 and is up to **2.2x** faster than  \nTorchSparse-MLsys on cloud GPUs. It also improves the latency of SpConv 2.3.5 by **1.25×** on Orin.\n\n### Training benchmarks\n\n![train_benchmark.png](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_torchsparse_readme_22468837da6f.png)\n\nTorchSparse achieves superior mixed-precision training speed compared with MinkowskiEngine, TorchSparse-MLSys and SpConv 2.3.5. Specifically, it is **1.16x** faster on Tesla A100, **1.27x** faster on RTX 2080 Ti than state-of-the-art SpConv 2.3.5. It also significantly outperforms MinkowskiEngine by **4.6-4.8x** across seven benchmarks on A100 and 2080 Ti. Measured with batch size = 2.\n\nYou may find our benchmarks from [this link](https:\u002F\u002Fzenodo.org\u002Frecords\u002F8311889). To access preprocessed datasets, please contact the authors. We cannot publicly release raw data from SemanticKITTI, nuScenes and Waymo due to license requirements.\n\n\n## Team\n\nTorchSparse is developed by the following wonderful team:\n\n- [Haotian Tang](http:\u002F\u002Fkentang.net): Ph.D. student (2020-) at MIT EECS, project lead, v2.0 and v2.1 lead;\n- [Shang Yang](http:\u002F\u002Fys-2020.github.io): Ph.D. student (2023-) at MIT EECS, project lead, v2.1 lead;\n- [Zhijian Liu](http:\u002F\u002Fzhijianliu.com): Ph.D. student (2018-) at MIT EECS, project lead, v2.0 lead;\n- [Xiuyu Li](http:\u002F\u002Fxiuyuli.com): Ph.D. student (2022-) at UC Berkeley EECS, v2.0 lead;\n- [Ke Hong](https:\u002F\u002Fieeexplore.ieee.org\u002Fauthor\u002F37089419138): Graduate student (2021-) at Tsinghua University EE, v2.1 core developer, authored PCEngine kernels;\n- [Zhongming Yu](https:\u002F\u002Ffishmingyu.github.io\u002F): Ph.D. student (2022-) at UCSD CS, v2.1 core developer, authored PCEngine kernels;\n- [Yujun Lin](https:\u002F\u002Fyujunlin.com\u002F): Ph.D. student (2018-) at MIT EECS, v2.0 core developer;\n- [Yingqi Cao](https:\u002F\u002Fgithub.com\u002Fioeddk): Undergrad student at UC San Diego, currently working on the TorchSparse++ integration into algorithm frameworks;\n- [Guohao Dai](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=gz3Tkl0AAAAJ&hl=en): Associate Professor at Shanghai Jiao Tong University, mentor of the project;\n- [Yu Wang](http:\u002F\u002Fnicsefc.ee.tsinghua.edu.cn\u002F): Professor at Tsinghua University, mentor of the project;\n- [Song Han](https:\u002F\u002Fsonghan.mit.edu): Associate Professor at MIT EECS, mentor of the project.\n\n\n## Citation\n\nIf you use TorchSparse, please use the following BibTeX entries to cite:\n\nTorchSparse++ (TorchSparse v2.1) is presented at MICRO 2023:\n\n```bibtex\n@inproceedings{tangandyang2023torchsparse,  \n  title={TorchSparse++: Efficient Training and Inference Framework for Sparse Convolution on GPUs},  \n  author={Tang, Haotian and Yang, Shang and Liu, Zhijian and Hong, Ke and Yu, Zhongming and Li, Xiuyu and Dai, Guohao and Wang, Yu and Han, Song},  \n  booktitle={IEEE\u002FACM International Symposium on Microarchitecture (MICRO)},  \n  year={2023}\n}\n```\n\nPreliminary version of TorchSparse++ (TorchSparse v2.1) is presented at CVPR Workshops 2023:\n\n```bibtex\n@inproceedings{tangandyang2023torchsparse++,\n  title = {{TorchSparse++: Efficient Point Cloud Engine}},\n  author = {Tang, Haotian and Yang, Shang and Liu, Zhijian and Hong, Ke and Yu, Zhongming and Li, Xiuyu and Dai, Guohao and Wang, Yu and Han, Song},\n  booktitle = {Computer Vision and Pattern Recognition Workshops (CVPRW)},\n  year = {2023}\n}\n```\n\nTorchSparse is presented at MLSys 2022:\n\n```bibtex\n@inproceedings{tang2022torchsparse,\n  title = {{TorchSparse: Efficient Point Cloud Inference Engine}},\n  author = {Tang, Haotian and Liu, Zhijian and Li, Xiuyu and Lin, Yujun and Han, Song},\n  booktitle = {Conference on Machine Learning and Systems (MLSys)},\n  year = {2022}\n}\n```\n\nInitial version of TorchSparse is part of the SPVNAS paper at ECCV 2020:\n\n```bibtex\n@inproceedings{tang2020searching,\n  title = {{Searching Efficient 3D Architectures with Sparse Point-Voxel Convolution}},\n  author = {Tang, Haotian and Liu, Zhijian and Zhao, Shengyu and Lin, Yujun and Lin, Ji and Wang, Hanrui and Han, Song},\n  booktitle = {European Conference on Computer Vision (ECCV)},\n  year = {2020}\n}\n```\n\nPCEngine paper is accepted by MLSys 2023:\n\n```bibtex\n@inproceedings{hong2023pcengine,\n  title={{Exploiting Hardware Utilization and Adaptive Dataflow for Efficient Sparse Convolution in 3D Point Clouds}},\n  author={Hong, Ke and Yu, Zhongming and Dai, Guohao and Yang, Xinhao and Lian, Yaoxiu and Liu, Zehao and Xu, Ningyi and Wang, Yu},\n  booktitle={Sixth Conference on Machine Learning and Systems (MLSys)},\n  year={2023}\n}\n```\n\n## Acknowledgement\n\nWe thank Yan Yan from TuSimple for helpful discussions. Please also have a look at the [dgSparse](https:\u002F\u002Fdgsparse.github.io\u002F) library, which is designed for fast and efficient sparse computation on graphs and point clouds. The work from PCEngine (MLSys 2023) team is also highly related to us. \n\nTorchSparse is inspired by many existing open-source libraries, including (but not limited to) [MinkowskiEngine](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002FMinkowskiEngine), [SECOND](https:\u002F\u002Fgithub.com\u002Ftraveller59\u002Fsecond.pytorch) and [SparseConvNet](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002FSparseConvNet).\n\nWe also thank [AttributeDict](https:\u002F\u002Fgithub.com\u002Fgrimen\u002Fpython-attributedict\u002Ftree\u002Fmaster) for providing an elegant way to manage the kernel\u002Fmodel configurations.\n\n","# TorchSparse\n\n\u003Cp align=\"center\">\n\u003Cimg \n   src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_torchsparse_readme_9a6d86840997.png\"\n   height=\"300\" \n>\n\n\nTorchSparse 是一个用于点云处理的高性能神经网络库。\n\n### [官网](http:\u002F\u002Ftorchsparse.mit.edu\u002F) | [论文 (MICRO 2023)](https:\u002F\u002Fwww.dropbox.com\u002Fscl\u002Ffi\u002Fobdku0kqxjlkvuom2opk4\u002Fpaper.pdf?rlkey=0zmy8eq9fzllgkx54zsvwsecf&dl=0) | [论文 (MLSys 2022)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.10319) | [演讲视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=IIh4EwmcLUs) | [文档](http:\u002F\u002Ftorchsparse-docs.github.io\u002F) | [PyPI 服务器](http:\u002F\u002Fpypi.hanlab.ai\u002Fsimple\u002Ftorchsparse)\n\n\n## 简介\n\n点云计算已成为自动驾驶及其他应用中日益重要的工作负载。与密集的 2D 计算不同，点云卷积具有 **稀疏** 和 **不规则** 的计算模式，因此需要专用的推理系统支持以及专门的高性能内核。尽管现有的点云深度学习库已经为点云上的卷积开发了不同的数据流，但它们假设在整个模型执行过程中只使用单一的数据流。在本工作中，我们系统地分析并改进了现有的数据流。我们的最终系统 TorchSparse 在 NVIDIA A100 GPU 上分别实现了相对于最先进的 MinkowskiEngine、SpConv 1.2、TorchSparse (MLSys) 和 SpConv v2 在推理方面的 **2.9 倍**、**3.3 倍**、**2.2 倍** 和 **1.7 倍** 的端到端加速。\n\n## 新闻\n**\\[2024\u002F11\\]** TorchSparse++ 现已通过插件支持 [MMDetection3D](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d) 和 [OpenPCDet](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002FOpenPCDet)! [完整示例](.\u002Fexamples\u002F) 已提供。\n\n**\\[2023\u002F11\\]** TorchSparse++ 已被 Hao Su 教授实验室（UCSD）的 [One-2-3-45++]（论文：[arXiv:2311.07885](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.07885)）采用，用于 3D 物体生成！\n\n**\\[2023\u002F10\\]** 我们在第 56 届 IEEE\u002FACM 国际微架构研讨会 (MICRO 2023) 上展示了 TorchSparse++。同时，我们也正式发布了 TorchSparse++ 的源代码。\n\n**\\[2023\u002F6\\]** TorchSparse++ 被 Hao Su 教授实验室（UCSD）的 [One-2-3-45]（论文：[arXiv:2306.16928](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16928)）采用，用于 3D 网格重建！\n\n**\\[2023\u002F6\\]** TorchSparse++ 已发布，并在 CVPR 2023 自动驾驶相关研讨会上进行了展示。它相比之前的最先进系统，在推理速度上提升了 1.7 至 2.9 倍。\n\n**\\[2023\u002F1\\]** [Argoverse 2](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.00493) 数据集使用 TorchSparse 实现了其基线检测器。\n\n**\\[2022\u002F8\\]** TorchSparse 在 MLSys 2022 上进行了展示。演讲视频可在 [这里](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=IIh4EwmcLUs) 观看。\n\n**\\[2022\u002F6\\]** TorchSparse 已被 [SparseNeuS](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2206.05737) 采用，用于神经表面重建。\n\n**\\[2022\u002F1\\]** TorchSparse 被 MLSys 2022 接收，其特点是自适应矩阵乘法分组和局部性感知的内存访问。\n\n**\\[2021\u002F6\\]** TorchSparse v1.4 已发布。\n\n## 安装\n\n我们提供了预编译的 torchsparse v2.1.0 包（推荐），支持不同的 PyTorch 和 CUDA 版本，以简化 Linux 系统上的安装过程。\n\n1. 确保已安装至少 PyTorch 1.9.0：\n\n   ```bash\n   python -c \"import torch; print(torch.__version__)\"\n   >>> 1.10.0\n   ```\n\n1. 如果您希望在 GPU 上使用 TorchSparse，请确保 PyTorch 已经安装了 CUDA：\n\n   ```bash\n   python -c \"import torch; print(torch.version.cuda)\"\n   >>> 11.3\n   ```\n\n1. 然后可以通过运行安装脚本来找到并安装合适的 TorchSparse wheel：\n\n   ```bash\n   python -c \"$(curl -fsSL https:\u002F\u002Fraw.githubusercontent.com\u002Fmit-han-lab\u002Ftorchsparse\u002Fmaster\u002Finstall.py)\"\n   ```\n   \n\n如果 PyPI 服务器无法正常工作，也不用担心，您仍然可以手动下载 wheel 文件。这些 wheel 文件列在 [这个网站](http:\u002F\u002Fpypi.hanlab.ai\u002Fsimple\u002Ftorchsparse) 上。您可以利用我们的安装脚本自动确定用于索引 wheel 的版本号。例如，如果您使用 PyTorch 1.11.0 和 CUDA 11.5，版本号将为 2.1.0+torch111cu115。然后您可以根据自己的 Python 版本选择合适的 wheel。\n\n您也可以通过以下方式从源码安装我们的库：\n\n```bash\npython setup.py install\n```\n在仓库目录下，或者使用\n\n```\npip install git+https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse.git\n```\n而无需克隆整个仓库。\n\n## 基准测试\n\n### 推理基准测试\n\n![eval_benchmark.png](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_torchsparse_readme_bc2d3e2234e8.png)\n\nTorchSparse 在 3D 物体检测和 LiDAR 分割基准测试中，显著优于现有的点云推理引擎，覆盖了 Pascal、Turing 和 Ampere 三代 GPU 架构以及 FP16、TF32 和 FP32 所有精度。它比最先进的 SpConv 2.3.5 快至 **1.7 倍**，在云端 GPU 上比 TorchSparse-MLsys 快至 **2.2 倍**。此外，它还将 Orin 上 SpConv 2.3.5 的延迟降低了 **1.25 倍**。\n\n### 训练基准测试\n\n![train_benchmark.png](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_torchsparse_readme_22468837da6f.png)\n\nTorchSparse 在混合精度训练速度方面优于 MinkowskiEngine、TorchSparse-MLSys 和 SpConv 2.3.5。具体而言，它在 Tesla A100 上比最先进的 SpConv 2.3.5 快 **1.16 倍**，在 RTX 2080 Ti 上快 **1.27 倍**。它还在 A100 和 2080 Ti 上的七项基准测试中，以 **4.6–4.8 倍** 的优势显著超越了 MinkowskiEngine。测量时批次大小为 2。\n\n您可以在 [这个链接](https:\u002F\u002Fzenodo.org\u002Frecords\u002F8311889) 找到我们的基准测试结果。如需访问预处理过的数据集，请联系作者。由于许可要求，我们无法公开 SemanticKITTI、nuScenes 和 Waymo 的原始数据。\n\n\n## 团队\n\nTorchSparse 由以下优秀的团队开发：\n\n- [Haotian Tang](http:\u002F\u002Fkentang.net)：MIT EECS 博士生（2020 年至今），项目负责人，v2.0 和 v2.1 主要负责人；\n- [Shang Yang](http:\u002F\u002Fys-2020.github.io)：MIT EECS 博士生（2023 年至今），项目负责人，v2.1 主要负责人；\n- [Zhijian Liu](http:\u002F\u002Fzhijianliu.com)：MIT EECS 博士生（2018 年至今），项目负责人，v2.0 主要负责人；\n- [Xiuyu Li](http:\u002F\u002Fxiuyuli.com)：UC Berkeley EECS 博士生（2022 年至今），v2.0 主要负责人；\n- [Ke Hong](https:\u002F\u002Fieeexplore.ieee.org\u002Fauthor\u002F37089419138)：清华大学 EE 研究生（2021 年至今），v2.1 核心开发者，负责 PCEngine 内核的编写；\n- [Zhongming Yu](https:\u002F\u002Ffishmingyu.github.io\u002F)：UCSD CS 博士生（2022 年至今），v2.1 核心开发者，负责 PCEngine 内核的编写；\n- [Yujun Lin](https:\u002F\u002Fyujunlin.com\u002F)：MIT EECS 博士生（2018 年至今），v2.0 核心开发者；\n- [Yingqi Cao](https:\u002F\u002Fgithub.com\u002Fioeddk)：UC San Diego 本科生，目前正致力于将 TorchSparse++ 集成到算法框架中；\n- [Guohao Dai](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=gz3Tkl0AAAAJ&hl=en)：上海交通大学副教授，项目的导师；\n- [Yu Wang](http:\u002F\u002Fnicsefc.ee.tsinghua.edu.cn\u002F)：清华大学教授，项目的导师；\n- [Song Han](https:\u002F\u002Fsonghan.mit.edu)：MIT EECS 副教授，项目的导师。\n\n## 引用\n\n如果您使用 TorchSparse，请使用以下 BibTeX 条目进行引用：\n\nTorchSparse++（TorchSparse v2.1）已在 MICRO 2023 上发表：\n\n```bibtex\n@inproceedings{tangandyang2023torchsparse,  \n  title={TorchSparse++: 面向 GPU 的稀疏卷积高效训练与推理框架},  \n  author={唐浩天、杨尚、刘志坚、洪科、俞仲明、李秀宇、戴国豪、王宇、韩松},  \n  booktitle={IEEE\u002FACM 国际微架构研讨会（MICRO）},  \n  year={2023}\n}\n```\n\nTorchSparse++ 的初步版本（TorchSparse v2.1）已在 CVPR 工作坊 2023 上发表：\n\n```bibtex\n@inproceedings{tangandyang2023torchsparse++,\n  title = {{TorchSparse++：高效点云引擎}},\n  author = {唐浩天、杨尚、刘志坚、洪科、俞仲明、李秀宇、戴国豪、王宇、韩松},\n  booktitle = {计算机视觉与模式识别工作坊（CVPRW）},\n  year = {2023}\n}\n```\n\nTorchSparse 已在 MLSys 2022 上发表：\n\n```bibtex\n@inproceedings{tang2022torchsparse,\n  title = {{TorchSparse：高效点云推理引擎}},\n  author = {唐浩天、刘志坚、李秀宇、林宇俊、韩松},\n  booktitle = {机器学习与系统大会（MLSys）},\n  year = {2022}\n}\n```\n\nTorchSparse 的初始版本包含于 ECCV 2020 的 SPVNAS 论文中：\n\n```bibtex\n@inproceedings{tang2020searching,\n  title = {{利用稀疏点—体素卷积搜索高效 3D 架构}},\n  author = {唐浩天、刘志坚、赵圣宇、林宇俊、林继、王涵睿、韩松},\n  booktitle = {欧洲计算机视觉大会（ECCV）},\n  year = {2020}\n}\n```\n\nPCEngine 论文已被 MLSys 2023 接受：\n\n```bibtex\n@inproceedings{hong2023pcengine,\n  title={{利用硬件资源与自适应数据流实现 3D 点云中的高效稀疏卷积}},\n  author={洪科、俞仲明、戴国豪、杨欣浩、连耀秀、刘泽昊、徐宁毅、王宇},\n  booktitle={第六届机器学习与系统大会（MLSys）},\n  year={2023}\n}\n```\n\n## 致谢\n\n我们感谢 TuSimple 的 Yan Yan 提供的有益讨论。同时，也请参阅 [dgSparse](https:\u002F\u002Fdgsparse.github.io\u002F) 库，该库专为图和点云上的快速高效稀疏计算而设计。PCEngine（MLSys 2023）团队的工作与我们的研究密切相关。\n\nTorchSparse 受到众多现有开源库的启发，其中包括但不限于 [MinkowskiEngine](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002FMinkowskiEngine)、[SECOND](https:\u002F\u002Fgithub.com\u002Ftraveller59\u002Fsecond.pytorch) 和 [SparseConvNet](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002FSparseConvNet)。\n\n此外，我们还要感谢 [AttributeDict](https:\u002F\u002Fgithub.com\u002Fgrimen\u002Fpython-attributedict\u002Ftree\u002Fmaster)，它提供了一种优雅的方式来管理内核\u002F模型配置。","# TorchSparse 快速上手指南\n\nTorchSparse 是一个专为点云处理设计的高性能神经网络库，特别适用于自动驾驶等场景。它针对点云卷积的稀疏和不规则计算模式进行了优化，在 NVIDIA GPU 上相比 MinkowskiEngine、SpConv 等主流库可实现显著的端到端加速（最高达 2.9 倍）。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux\n*   **Python 版本**：建议 Python 3.7+\n*   **PyTorch 版本**：至少 1.9.0 (`torch >= 1.9.0`)\n*   **CUDA 支持**：若需使用 GPU 加速，必须安装带有 CUDA 支持的 PyTorch 版本。\n\n您可以运行以下命令检查当前环境：\n\n```bash\n# 检查 PyTorch 版本\npython -c \"import torch; print(torch.__version__)\"\n\n# 检查 CUDA 版本 (若返回 None 则未安装 CUDA 版 PyTorch)\npython -c \"import torch; print(torch.version.cuda)\"\n```\n\n## 安装步骤\n\n推荐直接使用官方提供的预编译 Wheel 包进行安装，以避免复杂的源码编译过程。\n\n### 方法一：自动脚本安装（推荐）\n\n运行以下一键安装脚本，它会自动检测您的 PyTorch 和 CUDA 版本，并从服务器下载匹配的 Wheel 包：\n\n```bash\npython -c \"$(curl -fsSL https:\u002F\u002Fraw.githubusercontent.com\u002Fmit-han-lab\u002Ftorchsparse\u002Fmaster\u002Finstall.py)\"\n```\n\n> **注意**：如果上述脚本因网络原因无法连接服务器，您可以手动访问 [Wheel 包列表页](http:\u002F\u002Fpypi.hanlab.ai\u002Fsimple\u002Ftorchsparse)。根据脚本输出的版本号规则（例如 `2.1.0+torch111cu115` 对应 PyTorch 1.11 + CUDA 11.5），下载对应的 `.whl` 文件后使用 `pip install \u003C文件名>` 安装。\n\n### 方法二：源码安装\n\n如果您需要最新开发版或自定义编译，可以选择从源码安装：\n\n```bash\n# 方式 A: 克隆仓库后安装\ngit clone https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse.git\ncd torchsparse\npython setup.py install\n\n# 方式 B: 直接通过 pip 安装 (无需克隆)\npip install git+https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse.git\n```\n\n## 基本使用\n\nTorchSparse 的 API 设计与 PyTorch 高度兼容。以下是一个最简单的示例，展示如何创建稀疏张量并执行稀疏卷积操作。\n\n```python\nimport torch\nimport torchsparse\nimport torchsparse.nn as spnn\n\n# 1. 准备数据\n# coords: 坐标矩阵 [N, 4] (batch_idx, x, y, z)\ncoords = torch.IntTensor([\n    [0, 0, 0, 0],\n    [0, 0, 0, 1],\n    [0, 0, 1, 0],\n    [0, 1, 0, 0]\n])\n# feats: 特征矩阵 [N, C]\nfeats = torch.FloatTensor([\n    [1.0],\n    [2.0],\n    [3.0],\n    [4.0]\n])\n\n# 2. 创建稀疏张量\ninput_tensor = torchsparse.SparseTensor(feats, coords)\n\n# 3. 定义稀疏卷积层\n# 输入通道 1, 输出通道 4, 核大小 3, 步长 1\nconv = spnn.Conv3d(1, 4, kernel_size=3, stride=1)\n\n# 4. 前向传播\noutput_tensor = conv(input_tensor)\n\nprint(output_tensor)\nprint(f\"输出特征形状：{output_tensor.F.shape}\")\nprint(f\"输出坐标形状：{output_tensor.C.shape}\")\n```\n\n**核心概念说明：**\n*   `SparseTensor`: 核心数据结构，包含特征 `F` (Features) 和坐标 `C` (Coordinates)。\n*   `spnn.Conv3d`: 稀疏 3D 卷积层，用法与 `torch.nn.Conv3d` 类似，但专门针对稀疏数据优化。\n*   该库已集成至 [MMDetection3D](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d) 和 [OpenPCDet](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002FOpenPCDet) 等主流框架，可直接在这些项目中调用。","某自动驾驶初创团队正在开发实时 3D 目标检测系统，需处理激光雷达采集的高密度点云数据以识别道路上的车辆与行人。\n\n### 没有 torchsparse 时\n- **推理延迟过高**：使用传统稀疏卷积库（如 MinkowskiEngine）在 NVIDIA A100 上运行时，单帧处理耗时过长，难以满足自动驾驶毫秒级的实时响应需求。\n- **显存占用冗余**：由于缺乏针对不规则点云数据的专用内存访问优化，模型在处理复杂场景时常因显存峰值过高而触发 OOM（内存溢出）错误。\n- **算力利用率低**：现有框架采用单一数据流策略，无法自适应调整计算模式，导致 GPU 核心在处理稀疏数据时大量空闲，算力浪费严重。\n- **部署迭代缓慢**：为了平衡速度与精度，工程师不得不花费大量时间手动裁剪模型或降低点云分辨率，牺牲了检测小目标的准确性。\n\n### 使用 torchsparse 后\n- **端到端加速显著**：借助 torchsparse 的高效内核，系统在同等硬件下的推理速度提升了 2.9 倍，轻松实现高频实时检测。\n- **内存管理智能高效**：其感知局部性的内存访问机制大幅降低了显存占用，使得更高分辨率的点云输入也能稳定运行而不崩溃。\n- **自适应计算流**：torchsparse 自动分析并切换最优数据流，最大化 GPU 利用率，让每一分算力都转化为实际的检测性能。\n- **无缝集成主流框架**：通过插件直接支持 OpenPCDet 和 MMDetection3D，团队无需重构代码即可升级底层引擎，快速验证新算法。\n\ntorchsparse 通过专为稀疏点云设计的高性能计算架构，彻底解决了自动驾驶场景中实时性与资源消耗的矛盾，让高精度 3D 感知真正落地。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-han-lab_torchsparse_bc2d3e22.png","mit-han-lab","MIT HAN Lab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmit-han-lab_65e6a38d.png","Efficient AI Computing. PI: Song Han",null,"songhan_mit","https:\u002F\u002Fhanlab.mit.edu","https:\u002F\u002Fgithub.com\u002Fmit-han-lab",[81,85,89,93],{"name":82,"color":83,"percentage":84},"Cuda","#3A4E3A",77.1,{"name":86,"color":87,"percentage":88},"Python","#3572A5",19.9,{"name":90,"color":91,"percentage":92},"C++","#f34b7d",2.1,{"name":94,"color":95,"percentage":96},"C","#555555",1,1457,187,"2026-04-12T02:21:53","MIT","Linux","必需 NVIDIA GPU。基准测试涵盖 Pascal、Turing 和 Ampere 架构（如 Tesla A100, RTX 2080 Ti, Orin）。需安装带 CUDA 支持的 PyTorch，README 示例中提及 CUDA 11.3 和 11.5，具体版本需与预编译包匹配。","未说明",{"notes":105,"python":106,"dependencies":107},"官方推荐直接安装针对 Linux 系统预构建的 wheel 包 (v2.1.0)，以简化编译过程。若使用 GPU，必须确保安装的 PyTorch 版本已包含对应的 CUDA 支持。如果自动安装脚本失效，可手动从指定网站下载与本地 PyTorch 及 CUDA 版本严格匹配的 wheel 文件。也可选择从源码编译安装。","未说明 (需满足 PyTorch 1.9.0+ 的 Python 版本要求)",[108],"torch>=1.9.0",[14],[111,112],"pytorch","acceleration","2026-03-27T02:49:30.150509","2026-04-16T01:49:42.536835",[116,121,126,130,135,140],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},34872,"PyPI 服务器无法访问或下载 wheel 文件失败怎么办？","如果官方 PyPI 服务器（pypi.hanlab.ai）不可达，建议直接从源代码安装。请运行以下命令：\npip install git+https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse.git\n注意：构建 GPU 加速版本时，编译环境中必须有可用的 GPU。","https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse\u002Fissues\u002F300",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},34873,"遇到 AttributeError: module 'torchsparse.backend' has no attribute 'hash_cuda' 错误如何解决？","这通常是因为环境变量未正确设置导致 CUDA 扩展未编译。请尝试强制重新安装并启用 CUDA 支持：\nFORCE_CUDA=1 pip install --no-cache-dir git+https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse.git@v1.4.0\n如果在 Docker 中构建，请确保构建时使用了 NVIDIA Docker 或启用了 GPU 标志。","https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse\u002Fissues\u002F92",{"id":127,"question_zh":128,"answer_zh":129,"source_url":125},34874,"在 Docker 构建过程中如何安装需要 GPU 的 TorchSparse？","在 Docker 构建阶段通常无法直接使用 GPU。解决方案是在构建命令中设置环境变量 FORCE_CUDA=1，并确保构建环境（如 nvidia-docker）支持 GPU 访问。示例命令：\nFORCE_CUDA=1 pip install --no-cache-dir git+https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse.git@v1.4.0\n有用户反馈此方法在 Docker 构建中有效。",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},34875,"RTX 3090 (Ampere 架构) 或高版本 CUDA 环境下安装失败怎么办？","对于较新的 GPU 架构（如 Ampere）或高版本 CUDA，建议直接从源码编译安装，并确保安装了必要的依赖库 Google Sparse Hash。安装依赖命令（Ubuntu\u002FDebian）：\nsudo apt-get install libsparsehash-dev\n然后使用以下命令强制编译：\nFORCE_CUDA=1 python setup.py bdist_wheel","https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse\u002Fissues\u002F66",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},34876,"训练时出现 RuntimeError: CUDA error: an illegal memory access was encountered 如何解决？","该错误可能与哈希模式（hash_map_on_the_fly）有关。即使设置了 hashmap 模式，某些情况下 conv3D 仍可能运行 hashmap_on_the_fly。解决方法是修改源码 torchsparse\u002Fnn\u002Ffunctional\u002Fconv\u002Fconv.py 第 47 行，强制设置 kmap_mode = \"hashmap\" 以修复问题。","https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse\u002Fissues\u002F239",{"id":141,"question_zh":142,"answer_zh":143,"source_url":134},34877,"从源码构建时提示找不到 ninja 或回退到 distutils 后端有影响吗？","警告信息表明系统未找到 ninja 构建工具，因此回退到了较慢的 distutils 后端。虽然这通常不会导致构建失败，但会显著增加编译时间。建议安装 ninja 以加速构建：\npip install ninja\n或根据操作系统安装对应的 ninja 包。",[145,150,155,159,163],{"id":146,"version":147,"summary_zh":148,"released_at":149},272199,"v2.0.0","TorchSparse 2.0（MLSys 2022 版）。","2023-06-18T18:09:43",{"id":151,"version":152,"summary_zh":153,"released_at":154},272200,"v1.4.0","## 新特性\n* 支持使用 `torch.cuda.amp` 进行混合精度训练和推理（https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse\u002Fpull\u002F69, https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse\u002Fpull\u002F75）。\n* 添加了广义稀疏卷积（https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse\u002Fpull\u002F77）。\n* 添加了组归一化（https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse\u002Fpull\u002F63）。\n\n## API 变更\n* `sparse_{collate,quantize}` 现在需要从 `torchsparse.utils.{collate,quantize}` 中导入。\n* `sparse_quantize` 现在接受 `coords`、`voxel_size`（默认为 `1.0`）、`return_index`（默认为 `False`）和 `return_inverse`（默认为 `False`）作为输入，并返回量化后的 `coords` 以及 `indices` 和 `inverse_indices`（如果请求的话）。\n* 对于 `torchsparse.nn.Conv3d` 和 `torchsparse.nn.functional.conv3d`，`transpose` 被重命名为 `transposed`。\n* `KernelRegion` 已被移除，取而代之的是 `get_kernel_offsets`（位于 `torchsparse.nn.utils` 中）。","2021-06-25T01:03:54",{"id":156,"version":157,"summary_zh":76,"released_at":158},272201,"v1.2.0","2021-06-02T01:53:39",{"id":160,"version":161,"summary_zh":76,"released_at":162},272202,"v1.1.0","2021-03-20T00:27:01",{"id":164,"version":165,"summary_zh":166,"released_at":167},272203,"v1.0.0","版本1.0.0","2020-09-17T14:00:51"]