[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-LMD0311--PointMamba":3,"tool-LMD0311--PointMamba":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":76,"owner_twitter":79,"owner_website":76,"owner_url":80,"languages":81,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":10,"env_os":102,"env_gpu":103,"env_ram":102,"env_deps":104,"category_tags":112,"github_topics":114,"view_count":10,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":119,"updated_at":120,"faqs":121,"releases":157},3291,"LMD0311\u002FPointMamba","PointMamba","[NeurIPS 2024] PointMamba: A Simple State Space Model for Point Cloud Analysis","PointMamba 是一款专为点云分析设计的开源深度学习模型，由华中科技大学与百度联合研发，并入选 NeurIPS 2024。它旨在解决传统 Transformer 架构在处理 3D 点云数据时计算复杂度高达二次方的问题，在保持强大全局建模能力的同时，显著降低了对显存和算力的需求。\n\n该工具的核心亮点在于创新性地将自然语言处理领域流行的状态空间模型（Mamba）引入 3D 视觉任务。PointMamba 摒弃了复杂的层级结构，采用极其简洁的非分层编码器作为主干，并结合空间填充曲线技术对点云进行高效标记化。这种设计使其拥有线性级的计算复杂度，不仅大幅减少了浮点运算量（FLOPs）和 GPU 内存占用，还在多个主流数据集上实现了超越现有方法的精度表现。\n\nPointMamba 非常适合从事 3D 视觉研究的研究人员、需要高效部署模型的算法工程师以及关注前沿 AI 架构的开发者使用。对于希望在有限硬件资源下探索高性能点云处理方案，或试图理解状态空间模型在三维场景中应用潜力的团队来说，这是一个简单而强大的基准工具。","\u003Cdiv  align=\"center\">    \n \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLMD0311_PointMamba_readme_f6def7a629f7.png\" width = \"100\"  align=center \u002F>\n\u003C\u002Fdiv>\n\n\n\n\u003Cdiv align=\"center\">\n\u003Ch1>PointMamba\u003C\u002Fh1>\n\u003Ch3>A Simple State Space Model for Point Cloud Analysis\u003C\u002Fh3>\n\n\n[Dingkang Liang](https:\u002F\u002Fdk-liang.github.io\u002F)\u003Csup>1\u003C\u002Fsup> \\*, [Xin Zhou](https:\u002F\u002Flmd0311.github.io\u002F)\u003Csup>1\u003C\u002Fsup> \\*, [Wei Xu](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=oMvFn0wAAAAJ&hl=en)\u003Csup>1\u003C\u002Fsup>, [Xingkui Zhu](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=wKKiNQkAAAAJ&hl=en)\u003Csup>1\u003C\u002Fsup>, [Zhikang Zou](https:\u002F\u002Fbigteacher-777.github.io\u002F)\u003Csup>2\u003C\u002Fsup>, [Xiaoqing Ye](https:\u002F\u002Fshuluoshu.github.io\u002F)\u003Csup>2\u003C\u002Fsup>, [Xiao Tan](https:\u002F\u002Ftanxchong.github.io\u002F)\u003Csup>2\u003C\u002Fsup> and [Xiang Bai](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=UeltiQ4AAAAJ&hl=en)\u003Csup>1†\u003C\u002Fsup>\n\n\u003Csup>1\u003C\u002Fsup>  Huazhong University of Science & Technology, \u003Csup>2\u003C\u002Fsup>  Baidu Inc.\n\n(\\*) Equal contribution. ($\\dagger$) Corresponding author.\n\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FArxiv-2402.10739-b31b1b.svg?logo=arXiv)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.10739)\n[![Project](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHomepage-project-orange.svg?logo=googlehome)](https:\u002F\u002Flmd0311.github.io\u002Fprojects\u002FPointMamba\u002F)\n[![Zhihu](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FBlog-zhihu(中文)-blue.svg)](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F687191399)\n[![Hits](https:\u002F\u002Fhits.seeyoufarm.com\u002Fapi\u002Fcount\u002Fincr\u002Fbadge.svg?url=https%3A%2F%2Fgithub.com%2FLMD0311%2FPointMamba&count_bg=%2379C83D&title_bg=%23555555&icon=&icon_color=%23E7E7E7&title=Hits&edge_flat=false)](https:\u002F\u002Fhits.seeyoufarm.com)\n[![GitHub closed issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-closed\u002FLMD0311\u002FPointMamba?color=success&label=Issues)](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Fissues?q=is%3Aissue+is%3Aclosed) \n[![Code License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCode%20License-Apache_2.0-green.svg)](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca\u002Fblob\u002Fmain\u002FLICENSE)\n\n\u003C\u002Fdiv>\n\n## 📣 News\n\n- **[12\u002FMar\u002F2025]** Update the code. The earlier version is available [here](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Ftree\u002Fold).\n- **[11\u002FOct\u002F2024]** 🚀 Check out our latest work **[PointGST](https:\u002F\u002Fgithub.com\u002Fjerryfeng2003\u002FPointGST)** which achieves **99.48%**, **97.76%**, and **96.18%** overall accuracy on the ScanObjNN OBJ_BG, OBJ_OBLY, and PB_T50_RS datasets, respectively.\n- **[26\u002FSep\u002F2024]** PointMamba is accepted to **NeurIPS 2024**! 🥳🥳🥳\n- **[30\u002FMay\u002F2024]** **Update!** We update the architecture and performance. Please check our **latest paper** and compare it with the **new results**. **Code and weight will be updated soon**.\n- **[01\u002FApr\u002F2024]** ScanObjectNN with further data augmentation is now available, check it out!\n- **[16\u002FMar\u002F2024]** The configurations and checkpoints for ModelNet40 are now accessible, check it out!\n- **[05\u002FMar\u002F2024]** Our paper **DAPT ([github](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FDAPT))** has been accepted by **CVPR 2024**! 🥳🥳🥳 Check it out and give it a star 🌟!\n- **[16\u002FFeb\u002F2024]** Release the [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.10739).\n\n## Abstract\n\nTransformers have become one of the foundational architectures in point cloud analysis tasks due to their excellent global modeling ability. However, the attention mechanism has quadratic complexity, making the design of a linear complexity method with global modeling appealing. In this paper, we propose **PointMamba**, transferring the success of Mamba, a recent representative state space model (SSM), from NLP to point cloud analysis tasks. Unlike traditional Transformers, **PointMamba** employs a linear complexity algorithm, presenting global modeling capacity while significantly reducing computational costs. Specifically, our method leverages space-filling curves for effective point tokenization and adopts an extremely simple, non-hierarchical Mamba encoder as the backbone. Comprehensive evaluations demonstrate that **PointMamba** achieves superior performance across multiple datasets while significantly reducing GPU memory usage and FLOPs. This work underscores the potential of SSMs in 3D vision-related tasks and presents a simple yet effective Mamba-based baseline for future research.\n\n## Overview\n\n\u003Cdiv  align=\"center\">    \n \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLMD0311_PointMamba_readme_b831196f8d91.png\" width = \"888\"  align=center \u002F>\n\u003C\u002Fdiv>\n\n\n## Main Results\n\n\u003Cdiv  align=\"center\">    \n \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLMD0311_PointMamba_readme_38ef1653b8b3.png\" width = \"888\"  align=center \u002F>\n\u003C\u002Fdiv>\n\n| Task | Dataset | Config | Acc.   | Download (ckpt\u002Flog)                                                                                                                                                                              |\n| :---- | :---- | :---- |:-------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Pre-training | ShapeNet | [pretrain.yaml](.\u002Fcfgs\u002Fpretrain.yaml) | N.A.   | [ckpt](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Freleases\u002Fdownload\u002Fckpts-2\u002Fpretrain.pth)      |\n| Classification | ModelNet40 | [finetune_modelnet.yaml](.\u002Fcfgs\u002Ffinetune_modelnet.yaml) | 93.6%  | [ckpt](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Freleases\u002Fdownload\u002Fckpts-2\u002Ffinetune_modelnet.pth)                                                                                                    |\n| Classification | ScanObjectNN | [finetune_scan_objbg.yaml](.\u002Fcfgs\u002Ffinetune_scan_objbg.yaml) | 94.32% | [ckpt](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Freleases\u002Fdownload\u002Fckpts-2\u002Ffinetune_scan_objbg.pth) \u002F [log](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Freleases\u002Fdownload\u002Fckpts-2\u002Ffinetune_scan_objbg.log) |\n| Classification | ScanObjectNN | [finetune_scan_objonly.yaml](.\u002Fcfgs\u002Ffinetune_scan_objonly.yaml) | 92.60% | [ckpt](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Freleases\u002Fdownload\u002Fckpts-2\u002Ffinetune_scan_only.pth) \u002F [log](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Freleases\u002Fdownload\u002Fckpts-2\u002Ffinetune_scan_only.log)   |\n| Classification | ScanObjectNN | [finetune_scan_hardest.yaml](.\u002Fcfgs\u002Ffinetune_scan_hardest.yaml) | 89.31% | [ckpt](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Freleases\u002Fdownload\u002Fckpts-2\u002Ffinetune_scan_hardest.pth)                                                                                                   |\n\n## Getting Started\n\n### Datasets\n\nSee [DATASET.md](.\u002Fdocs\u002FDATASET.md) for details.\n\n### Usage\n\nSee [USAGE.md](.\u002Fdocs\u002FUSAGE.md) for details.\n\n## To Do\n\n- [x] Release code.\n- [x] Release checkpoints.\n- [x] ModelNet40.\n- [x] Update the code.\n\n## Acknowledgement\n\nThis project is based on Point-BERT ([paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.14819), [code](https:\u002F\u002Fgithub.com\u002Flulutang0608\u002FPoint-BERT?tab=readme-ov-file)), Point-MAE ([paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.06604), [code](https:\u002F\u002Fgithub.com\u002FPang-Yatian\u002FPoint-MAE)), Mamba ([paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.00752), [code](https:\u002F\u002Fgithub.com\u002Fstate-spaces\u002Fmamba)), Causal-Conv1d ([code](https:\u002F\u002Fgithub.com\u002FDao-AILab\u002Fcausal-conv1d)). Thanks for their wonderful works.\n\n## Citation\n\nIf you find this repository useful in your research, please consider giving a star ⭐ and a citation\n```bibtex\n@inproceedings{liang2024pointmamba,\n      title={PointMamba: A Simple State Space Model for Point Cloud Analysis}, \n      author={Liang, Dingkang and Zhou, Xin and Xu, Wei and Zhu, Xingkui and Zou, Zhikang and Ye, Xiaoqing and Tan, Xiao and Bai, Xiang},\n      booktitle={Advances in Neural Information Processing Systems},\n      year={2024}\n}\n```\n","\u003Cdiv  align=\"center\">    \n \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLMD0311_PointMamba_readme_f6def7a629f7.png\" width = \"100\"  align=center \u002F>\n\u003C\u002Fdiv>\n\n\n\n\u003Cdiv align=\"center\">\n\u003Ch1>PointMamba\u003C\u002Fh1>\n\u003Ch3>一种用于点云分析的简单状态空间模型\u003C\u002Fh3>\n\n\n[Dingkang Liang](https:\u002F\u002Fdk-liang.github.io\u002F)\u003Csup>1\u003C\u002Fsup> \\*, [Xin Zhou](https:\u002F\u002Flmd0311.github.io\u002F)\u003Csup>1\u003C\u002Fsup> \\*, [Wei Xu](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=oMvFn0wAAAAJ&hl=en)\u003Csup>1\u003C\u002Fsup>, [Xingkui Zhu](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=wKKiNQkAAAAJ&hl=en)\u003Csup>1\u003C\u002Fsup>, [Zhikang Zou](https:\u002F\u002Fbigteacher-777.github.io\u002F)\u003Csup>2\u003C\u002Fsup>, [Xiaoqing Ye](https:\u002F\u002Fshuluoshu.github.io\u002F)\u003Csup>2\u003C\u002Fsup>, [Xiao Tan](https:\u002F\u002Ftanxchong.github.io\u002F)\u003Csup>2\u003C\u002Fsup>和[Xiang Bai](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=UeltiQ4AAAAJ&hl=en)\u003Csup>1†\u003C\u002Fsup>\n\n\u003Csup>1\u003C\u002Fsup> 华中科技大学，\u003Csup>2\u003C\u002Fsup> 百度公司\n\n(\\*) 共同第一作者。($\\dagger$) 通讯作者。\n\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FArxiv-2402.10739-b31b1b.svg?logo=arXiv)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.10739)\n[![项目](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHomepage-project-orange.svg?logo=googlehome)](https:\u002F\u002Flmd0311.github.io\u002Fprojects\u002FPointMamba\u002F)\n[![知乎](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FBlog-zhihu(中文)-blue.svg)](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F687191399)\n[![访问量](https:\u002F\u002Fhits.seeyoufarm.com\u002Fapi\u002Fcount\u002Fincr\u002Fbadge.svg?url=https%3A%2F%2Fgithub.com%2FLMD0311%2FPointMamba&count_bg=%2379C83D&title_bg=%23555555&icon=&icon_color=%23E7E7E7&title=Hits&edge_flat=false)](https:\u002F\u002Fhits.seeyoufarm.com)\n[![GitHub已关闭的问题](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-closed\u002FLMD0311\u002FPointMamba?color=success&label=Issues)](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Fissues?q=is%3Aissue+is%3Aclosed) \n[![代码许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCode%20License-Apache_2.0-green.svg)](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca\u002Fblob\u002Fmain\u002FLICENSE)\n\n\u003C\u002Fdiv>\n\n## 📣 新闻\n\n- **[2025年3月12日]** 更新代码。旧版本可在[这里](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Ftree\u002Fold)找到。\n- **[2024年10月11日]** 🚀 欢迎查看我们的最新工作**[PointGST](https:\u002F\u002Fgithub.com\u002Fjerryfeng2003\u002FPointGST)**，它在ScanObjNN OBJ_BG、OBJ_OBLY和PB_T50_RS数据集上分别达到了**99.48%**、**97.76%**和**96.18%**的整体准确率。\n- **[2024年9月26日]** PointMamba已被**NeurIPS 2024**接收！🥳🥳🥳\n- **[2024年5月30日]** **更新！** 我们更新了架构和性能。请查阅我们的**最新论文**，并与**新结果**进行比较。**代码和权重将很快更新**。\n- **[2024年4月1日]** 带有进一步数据增强的ScanObjectNN现已可用，请查看！\n- **[2024年3月16日]** ModelNet40的配置文件和检查点现已开放下载，请查看！\n- **[2024年3月5日]** 我们的论文**DAPT ([github](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FDAPT))**已被**CVPR 2024**接收！🥳🥳🥳 请查看并给它一颗星🌟！\n- **[2024年2月16日]** 发布了[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.10739)。\n\n## 摘要\n\nTransformer因其卓越的全局建模能力，已成为点云分析任务中的基础架构之一。然而，其注意力机制具有二次复杂度，因此设计一种具有线性复杂度且具备全局建模能力的方法显得颇具吸引力。本文提出**PointMamba**，将近期代表性状态空间模型（SSM）——Mamba的成功经验从自然语言处理领域迁移到点云分析任务中。与传统Transformer不同，**PointMamba**采用线性复杂度的算法，在显著降低计算成本的同时，仍能实现全局建模能力。具体而言，我们的方法利用空间填充曲线对点云进行有效分词，并采用极其简单的非层次化Mamba编码器作为骨干网络。全面的评估表明，**PointMamba**在多个数据集上均表现出色，同时大幅减少了GPU显存占用和浮点运算次数。本研究凸显了SSM在三维视觉相关任务中的潜力，并为未来的研究提供了一个简单而有效的基于Mamba的基准模型。\n\n## 概述\n\n\u003Cdiv  align=\"center\">    \n \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLMD0311_PointMamba_readme_b831196f8d91.png\" width = \"888\"  align=center \u002F>\n\u003C\u002Fdiv>\n\n\n## 主要结果\n\n\u003Cdiv  align=\"center\">    \n \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLMD0311_PointMamba_readme_38ef1653b8b3.png\" width = \"888\"  align=center \u002F>\n\u003C\u002Fdiv>\n\n| 任务 | 数据集 | 配置 | 准确率   | 下载（检查点\u002F日志）                                                                                                                                                                              |\n| :---- | :---- | :---- |:-------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| 预训练 | ShapeNet | [pretrain.yaml](.\u002Fcfgs\u002Fpretrain.yaml) | N.A.   | [检查点](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Freleases\u002Fdownload\u002Fckpts-2\u002Fpretrain.pth)      |\n| 分类 | ModelNet40 | [finetune_modelnet.yaml](.\u002Fcfgs\u002Ffinetune_modelnet.yaml) | 93.6%  | [检查点](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Freleases\u002Fdownload\u002Fckpts-2\u002Ffinetune_modelnet.pth)                                                                                                    |\n| 分类 | ScanObjectNN | [finetune_scan_objbg.yaml](.\u002Fcfgs\u002Ffinetune_scan_objbg.yaml) | 94.32% | [检查点](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Freleases\u002Fdownload\u002Fckpts-2\u002Ffinetune_scan_objbg.pth) \u002F [日志](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Freleases\u002Fdownload\u002Fckpts-2\u002Ffinetune_scan_objbg.log) |\n| 分类 | ScanObjectNN | [finetune_scan_objonly.yaml](.\u002Fcfgs\u002Ffinetune_scan_objonly.yaml) | 92.60% | [检查点](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Freleases\u002Fdownload\u002Fckpts-2\u002Ffinetune_scan_only.pth) \u002F [日志](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Freleases\u002Fdownload\u002Fckpts-2\u002Ffinetune_scan_only.log)   |\n| 分类 | ScanObjectNN | [finetune_scan_hardest.yaml](.\u002Fcfgs\u002Ffinetune_scan_hardest.yaml) | 89.31% | [检查点](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Freleases\u002Fdownload\u002Fckpts-2\u002Ffinetune_scan_hardest.pth)                                                                                                   |\n\n## 快速入门\n\n### 数据集\n\n详情请参阅[DATASET.md](.\u002Fdocs\u002FDATASET.md)。\n\n### 使用方法\n\n详情请参阅[USAGE.md](.\u002Fdocs\u002FUSAGE.md)。\n\n## 待办事项\n\n- [x] 发布代码。\n- [x] 发布检查点。\n- [x] ModelNet40。\n- [x] 更新代码。\n\n## 致谢\n\n本项目基于Point-BERT（[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.14819)，[代码](https:\u002F\u002Fgithub.com\u002Flulutang0608\u002FPoint-BERT?tab=readme-ov-file))、Point-MAE（[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.06604)，[代码](https:\u002F\u002Fgithub.com\u002FPang-Yatian\u002FPoint-MAE))、Mamba（[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.00752)，[代码](https:\u002F\u002Fgithub.com\u002Fstate-spaces\u002Fmamba))以及Causal-Conv1d（[代码](https:\u002F\u002Fgithub.com\u002FDao-AILab\u002Fcausal-conv1d)）。感谢他们的杰出工作。\n\n## 引用\n\n如果您在研究中觉得本仓库很有用，请考虑给它点个赞 ⭐ 并引用如下文献：\n```bibtex\n@inproceedings{liang2024pointmamba,\n      title={PointMamba：用于点云分析的简单状态空间模型}, \n      author={梁丁康、周欣、徐伟、朱兴魁、邹志康、叶晓青、谭晓、白翔},\n      booktitle={神经信息处理系统进展},\n      year={2024}\n}\n```","# PointMamba 快速上手指南\n\nPointMamba 是一种基于状态空间模型（SSM\u002FMamba）的点云分析架构，具有线性计算复杂度和强大的全局建模能力，在显著降低显存和 FLOPs 的同时实现了优异的性能。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04+)\n*   **Python**: 3.8 或更高版本\n*   **GPU**: 支持 CUDA 的 NVIDIA 显卡（建议显存 >= 8GB）\n*   **核心依赖**:\n    *   PyTorch (建议 1.12+)\n    *   CUDA Toolkit (需与 PyTorch 版本匹配)\n    *   `mamba-ssm`\n    *   `causal-conv1d`\n\n> **提示**：由于 `mamba-ssm` 和 `causal-conv1d` 包含自定义 CUDA 算子，编译时需要安装 `ninja` 和对应的 CUDA 开发包。\n\n## 安装步骤\n\n### 1. 克隆项目代码\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba.git\ncd PointMamba\n```\n\n### 2. 创建虚拟环境并安装基础依赖\n建议使用 Conda 管理环境：\n```bash\nconda create -n pointmamba python=3.8 -y\nconda activate pointmamba\n```\n\n安装 PyTorch（请根据您的 CUDA 版本选择，以下为 CUDA 11.8 示例）：\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n```\n\n### 3. 安装 Mamba 相关核心组件\n这是运行 PointMamba 的关键步骤。为了加速下载，国内用户可使用清华源或阿里源。\n\n首先安装编译工具：\n```bash\npip install ninja packaging wheel\n```\n\n接着安装 `causal-conv1d` 和 `mamba-ssm`：\n```bash\n# 安装 causal-conv1d\npip install causal-conv1d>=1.2.0 --extra-index-url https:\u002F\u002Fpypi.nvidia.com\n\n# 安装 mamba-ssm\npip install mamba-ssm --extra-index-url https:\u002F\u002Fpypi.nvidia.com\n```\n\n> **注意**：如果上述命令编译失败，请确保已正确安装 `cuda-toolkit` (例如 `conda install -c nvidia cuda-toolkit`)。\n\n### 4. 安装其他项目依赖\n```bash\npip install -r requirements.txt\n```\n*(注：如果根目录下没有 requirements.txt，通常需手动安装常见库如 `yaml`, `tqdm`, `scipy`, `open3d` 等)*\n\n## 基本使用\n\n### 1. 数据集准备\nPointMamba 支持 ModelNet40 和 ScanObjectNN 等数据集。请参考项目内的 `docs\u002FDATASET.md` 下载数据并放置到指定目录。通常结构如下：\n```text\ndata\u002F\n├── modelnet40_normal_resampled\u002F\n└── scanobjectnn\u002F\n```\n\n### 2. 模型推理\u002F测试 (Classification)\n使用预训练权重在 ModelNet40 数据集上进行分类测试。\n\n```bash\npython main.py \\\n    --config cfgs\u002Ffinetune_modelnet.yaml \\\n    --finetune \\\n    --pretrain .\u002Fpretrain.pth\n```\n\n*   `--config`: 指定配置文件（如 `finetune_modelnet.yaml` 或 `finetune_scan_objbg.yaml`）。\n*   `--finetune`: 开启微调\u002F测试模式。\n*   `--pretrain`: 指定预训练权重路径（可从 README 中的 \"Main Results\" 表格下载）。\n\n### 3. 从头训练 (Training)\n如果您想从头开始训练模型（例如在 ModelNet40 上）：\n\n```bash\npython main.py \\\n    --config cfgs\u002Ffinetune_modelnet.yaml \\\n    --exp_name modelnet40_pointmamba\n```\n\n训练完成后，模型检查点和日志将保存在输出目录中。\n\n### 4. 自监督预训练 (Pre-training)\n进行无标签数据的自监督预训练（基于 ShapeNet）：\n\n```bash\npython main.py \\\n    --config cfgs\u002Fpretrain.yaml \\\n    --exp_name shapenet_pretrain\n```\n\n---\n**资源下载**：\n*   **预训练权重 (ModelNet40)**: [下载链接](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Freleases\u002Fdownload\u002Fckpts-2\u002Ffinetune_modelnet.pth)\n*   **预训练权重 (ScanObjectNN)**: [下载链接](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Freleases\u002Fdownload\u002Fckpts-2\u002Ffinetune_scan_objbg.pth)\n*   **自监督预训练权重**: [下载链接](https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Freleases\u002Fdownload\u002Fckpts-2\u002Fpretrain.pth)","某自动驾驶初创公司的感知算法团队正在开发实时 3D 目标检测系统，需要在嵌入式设备上处理激光雷达采集的高密度点云数据以识别道路障碍物。\n\n### 没有 PointMamba 时\n- **显存爆炸难以部署**：传统 Transformer 架构因注意力机制的计算复杂度呈二次方增长，处理大规模点云时 GPU 显存占用极高，导致模型无法在车载边缘设备上运行。\n- **推理延迟过高**：全局建模能力虽强，但巨大的计算量（FLOPs）使得单帧数据处理耗时过长，无法满足自动驾驶毫秒级的实时响应需求。\n- **工程优化成本高**：为了适配硬件，工程师不得不花费大量时间进行复杂的模型剪枝、量化或设计分层结构，严重拖慢了迭代进度。\n- **细节特征易丢失**：在强行降低计算负载的过程中，往往牺牲了对细小物体（如路锥、行人）的全局上下文捕捉能力，导致漏检率上升。\n\n### 使用 PointMamba 后\n- **线性复杂度省显存**：PointMamba 利用状态空间模型（SSM）将计算复杂度降为线性，显著降低了 GPU 显存占用，使大模型直接部署成为可能。\n- **推理速度大幅提升**：凭借极简的非分层 Mamba 编码器，系统在保持全局建模能力的同时，大幅减少了 FLOPs，实现了流畅的实时推理。\n- **架构简单易于集成**：无需复杂的分层设计或繁琐的调优，通过空间填充曲线即可高效完成点云令牌化，研发团队可快速将新算法落地。\n- **精度与效率兼得**：在 ScanObjectNN 等数据集上验证了其在低资源消耗下仍能保持卓越的分类与检测精度，有效提升了小目标的识别率。\n\nPointMamba 通过引入线性复杂度的状态空间模型，彻底打破了 3D 视觉任务中全局建模能力与计算效率不可兼得的瓶颈。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLMD0311_PointMamba_f6def7a6.png","LMD0311","Xin Zhou","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FLMD0311_1faf40a8.jpg",null,"Huazhong University of Science & Technology","Wuhan, Hubei Province, China","THELMDOFZHOUXIN","https:\u002F\u002Fgithub.com\u002FLMD0311",[82,86,90,94],{"name":83,"color":84,"percentage":85},"Python","#3572A5",82.5,{"name":87,"color":88,"percentage":89},"Cuda","#3A4E3A",12.7,{"name":91,"color":92,"percentage":93},"C++","#f34b7d",4.4,{"name":95,"color":96,"percentage":97},"C","#555555",0.4,528,40,"2026-04-03T12:01:46","Apache-2.0","未说明","需要 NVIDIA GPU（基于 Mamba 和 CUDA 扩展依赖），具体显存和 CUDA 版本未说明，但文中提到显著减少 GPU 内存占用",{"notes":105,"python":102,"dependencies":106},"该项目基于 Point-BERT 和 Point-MAE 架构，并引入了 Mamba 状态空间模型及 Causal-Conv1d。虽然 README 未列出具体的版本号和环境配置细节，但由于依赖了自定义 CUDA 算子（mamba-ssm, causal-conv1d），通常仅支持 Linux 环境且需要编译安装。建议参考其引用的上游项目（如 Point-BERT）或查看 docs\u002FUSAGE.md 获取详细安装步骤。",[107,108,109,110,111],"torch","mamba-ssm","causal-conv1d","Point-BERT (代码基础)","Point-MAE (代码基础)",[15,113],"其他",[115,116,117,118],"3d-point-clouds","computer-vision","mamba","state-space-model","2026-03-27T02:49:30.150509","2026-04-11T18:51:57.101417",[122,127,132,137,142,147,152],{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},15119,"安装 Chamfer Distance 时遇到报错怎么办？","建议尝试使用特定版本的 causal-conv1d 库。维护者推荐使用 `causal-conv1d==1.1.1`，其他版本也可能兼容。可以通过命令 `pip install causal-conv1d==1.1.1` 进行安装。","https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Fissues\u002F3",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},15120,"预训练时应该使用哪种数据增强策略？为什么我自己添加增强后性能下降了？","为了与论文方法保持一致，预训练阶段请使用 `PointcloudScaleAndTranslate()`。如果您自行添加其他增强（如旋转）导致性能下降约 3%，可能是因为该策略未经过充分验证或不适配当前设置。维护者建议直接使用官方提供的预训练权重进行测试，以确保结果复现。","https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Fissues\u002F61",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},15121,"如何可视化点云掩码（mask）和重建结果？开启 vis 参数报错怎么办？","直接开启 `vis=True` 可能会导致代码报错（如 tuple 对象没有 backward 属性），因为官方的可视化代码是临时性的且未完全保存。解决方案有两种：1. 参考官方代码中关于掩码和重建可视化的实现逻辑（见 models\u002Fpoint_mamba.py 第 628-639 行）；2. 将对应的 tensor 保存到本地，使用第三方工具如 PointVisualization (https:\u002F\u002Fgithub.com\u002Fqizekun\u002FPointVisualizaiton) 进行可视化；或者参考 tools\u002Frunner.py 中 Point-MAE 的可视化方法。","https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Fissues\u002F38",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},15122,"代码中是否包含希尔伯特排序（Hilbert ordering）或特定的点云序列化顺序？","是的，代码库已经更新并包含了施加特定顺序并进行序列化的代码。早期版本中可能存在随机采样导致顺序混乱的情况，请确保拉取最新代码以获取正确的排序实现。","https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Fissues\u002F18",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},15123,"部件分割任务中的特征池化方式（对 C 维度池化）与分类任务（对 N 维度池化）不同，这是为什么？","这种设计是为了公平比较。作者明确表示，这部分逻辑是直接遵循 Point-MAE 的实现方式，以便在相同的基准下进行性能对比，而非模型架构的特殊需求。","https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Fissues\u002F8",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},15124,"复现论文结果时准确率偏低（例如 ModelNet40 只有 93% 而非 93.6%），可能的原因是什么？","准确率出现 1-4% 的波动可能是由于随机性或参数未完全对齐。维护者建议：1. 严格检查是否使用了正确的预训练权重文件；2. 确认数据增强策略（特别是预训练阶段）是否与论文一致；3. 如果多次运行结果仍不稳定，建议直接使用官方提供的权重进行测试，因为官方权重是在特定环境下训练得到的最佳结果。","https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Fissues\u002F16",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},15125,"运行 test_tsne 函数进行可视化时报错 'too many values to unpack' 或形状不匹配，如何解决？","该错误通常源于模型返回值的解包方式与当前代码版本不匹配。不要手动修改为 `[-2]` 等硬编码索引，这会导致后续张量形状不匹配。建议参考官方仓库中 `models\u002Fpoint_mamba.py` 的最新实现来理解返回值结构，或者检查 `runner_finetune.py` 是否有更新版本修复了此解包逻辑。","https:\u002F\u002Fgithub.com\u002FLMD0311\u002FPointMamba\u002Fissues\u002F36",[158,162],{"id":159,"version":160,"summary_zh":76,"released_at":161},85298,"ckpts-2","2025-03-12T13:46:28",{"id":163,"version":164,"summary_zh":165,"released_at":166},85299,"ckpts","这些是PointMamba的检查点。","2024-02-17T12:14:57"]