[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-w111liang222--lidar-slam-detection":3,"tool-w111liang222--lidar-slam-detection":62},[4,18,28,36,45,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":24,"last_commit_at":42,"category_tags":43,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,44],"语言模型",{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":51,"last_commit_at":52,"category_tags":53,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,27],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":24,"last_commit_at":60,"category_tags":61,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":77,"owner_website":77,"owner_url":80,"languages":81,"stars":121,"forks":122,"last_commit_at":123,"license":124,"difficulty_score":125,"env_os":126,"env_gpu":127,"env_ram":128,"env_deps":129,"category_tags":142,"github_topics":144,"view_count":24,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":155,"updated_at":156,"faqs":157,"releases":186},9876,"w111liang222\u002Flidar-slam-detection","lidar-slam-detection","LSD (LiDAR SLAM & Detection) is an open source perception architecture for autonomous vehicle\u002Frobotic","lidar-slam-detection（简称 LSD）是一款专为自动驾驶车辆和机器人设计的开源感知架构。它核心解决了移动机器人在复杂环境中“我在哪”以及“周围有什么”两大关键问题，通过融合激光雷达、相机、毫米波雷达及惯性导航等多传感器数据，实现高精度的实时定位、建图与动态物体检测跟踪。\n\n这款工具特别适合自动驾驶算法工程师、机器人研究人员及相关领域的开发者使用。其技术亮点在于构建了一套完整的感知闭环：前端采用基于 FastLIO 的里程计与 G2O 位姿图优化，确保运动估计的鲁棒性；后端支持基于体素 3D-CNN 的目标检测与多目标跟踪，最新模型在保持实时运行（30FPS+）的同时显著提升了精度。此外，lidar-slam-detection 还独具特色地提供了基于 Web 的交互式地图修正工具，让用户能直观地编辑和优化地图数据，并原生支持 ROS 通信协议，便于集成到现有系统中。配合提供的 Docker 镜像，用户可快速搭建环境并验证效果，是进行自主导航感知系统研发的高效利器。","# LSD (LiDAR SLAM & Detection)\n\nLSD is an open source perception architecture for autonomous vehicle and robotics.\n\n\u003Cdiv align=\"left\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fw111liang222_lidar-slam-detection_readme_517b4e621de8.jpg\" width = 33% \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fw111liang222_lidar-slam-detection_readme_99dd64634390.jpg\" width = 33% \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fw111liang222_lidar-slam-detection_readme_0ebb359a1367.gif\" width = 30% >\n\nLSD currently supports many features:\n\n- [x] support multiple LiDAR, camera, radar and INS\u002FIMU sensors.\n- [x] support user-friendly calibration for LiDAR and camera etc.\n- [x] support software time sync, data record and playback.\n- [x] support voxel 3D-CNN based pointcloud object detection, tracking and prediction.\n- [x] support FastLIO based frontend odometry and G2O based pose graph optimization.\n- [x] support Web based interactive map correction tool(editor).\n- [x] support communication with [ROS](#ros).\n\n# Overview\n\n- [Quick Demo](docs\u002Fdemo\u002FREADME.md)\n- [Architecture](docs\u002Farchitecture.md)\n- [Mapping & Localization](docs\u002Fslam.md)\n- [Object Detection & Tracking](docs\u002Fdetect.md)\n\n# Changelog\n\n**[2024-12-21]** LiDAR mapping (LIO odometry and PGO) is further improved.\n- LIO odometry: degenerate detection and wheelspeed observation for FASTLIO.\n- PGO backend: GNSS outlier detection and extrinsic estimation.\n- Map management: support automatic multi-maps merging.\n- Other: pointcloud colouration with multi-cam, dense map generation and pointcloud to BEV (under tools\u002Fpostprocessing).\n- BUG fix: UTM projection when cross the projection zone and the grid converage of UTM is considered.\n\n**[2023-10-08]** Better 3DMOT (GIOU, Two-stage association).\n| Performance (WOD val) | AMOTA ↑ | AMOTP ↓ |  IDs(%) ↓ |\n|-----------------------|:-------:|:-------:|:---------:|\n| AB3DMOT               |  47.84  |  0.2584 |   0.67    |\n| GIOU + Two-stage      |  54.79  |  0.2492 |   0.19    |\n\n**[2023-07-06]** A new detection model (CenterPoint-VoxelNet) is support to run realtime (30FPS+).\n| Performance (WOD val) | Vec_L1 | Vec_L2 | Ped_L1 | Ped_L2 | Cyc_L1 | Cyc_L2 |\n|--------------------------|:----------:|:-------:|:-------:|:-------:|:-------:|:-------:|\n| PointPillar              | 73.71\u002F73.12|65.71\u002F65.17|71.70\u002F60.90|63.52\u002F53.78|65.30\u002F63.77 |63.12\u002F61.64|\n| CenterPoint-VoxelNet (1 frame)     | 74.75\u002F74.24|66.09\u002F65.63|77.66\u002F71.54|68.57\u002F63.02|72.03\u002F70.93 |69.63\u002F68.57|\n| **CenterPoint-VoxelNet** (4 frame) | **77.55\u002F77.03**|**69.65\u002F69.17**|**80.72\u002F77.80**|**72.91\u002F70.15**|**72.63\u002F71.72** |**70.55\u002F69.67**|\n\n**Note: the CenterPoint-VoxelNet is built on [libspconv](https:\u002F\u002Fgithub.com\u002FNVIDIA-AI-IOT\u002FLidar_AI_Solution) and the GPU with SM80+ is required.**\n\n**[2023-06-01]** [Web UI](web_ui\u002FREADME.md)(JS code of preview, tviz and map editor) is uploaded.\n\n### Basic Enviroment\n\nUbuntu20.04, Python3.8, Eigen 3.3.7, Ceres 1.14.0, Protobuf 3.8.0, NLOPT 2.4.2, G2O, OpenCV 4.5.5, PCL 1.9.1, GTSAM 4.0\n\n# Getting Started\n\nNVIDIA Container Toolkit is needed to install firstly [Installation](https:\u002F\u002Fdocs.nvidia.com\u002Fdatacenter\u002Fcloud-native\u002Fcontainer-toolkit\u002Flatest\u002Finstall-guide.html).\n\nA x86_64 docker image is provided to test.\n```bash\nsudo docker pull 15liangwang\u002Flsd-cuda118 # sudo docker pull 15liangwang\u002Flsd-cpu, if you don't have GPU\nsudo docker run --gpus all -it -d --net=host --privileged --shm-size=4g --name=\"LSD\" -v \u002Fmedia:\u002Froot\u002Fexchange 15liangwang\u002Flsd-cuda118\nsudo docker exec -it LSD \u002Fbin\u002Fbash\n```\n\nClone this repository and build the source code\n```bash\ncd \u002Fhome\u002Fznqc\u002Fwork\u002F\ngit clone https:\u002F\u002Fgithub.com\u002Fw111liang222\u002Flidar-slam-detection.git\ncd lidar-slam-detection\u002F\nunzip slam\u002Fdata\u002FORBvoc.zip -d slam\u002Fdata\u002F\npython setup.py install\nbash sensor_inference\u002Fpytorch_model\u002Fexport\u002Fgenerate_trt.sh\n```\n\nRun LSD\n```bash\ntools\u002Fscripts\u002Fstart_system.sh\n```\nOpen http:\u002F\u002Flocalhost (or http:\u002F\u002Flocalhost:1234) in your browser, e.g. Chrome, and you can see this screen.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fw111liang222_lidar-slam-detection_readme_0858df8a1528.png\" width=\"720pix\" \u002F>\n\n\n## Example Data\n\nDownload the demo data [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1wi3KATudMX3b4Wz0Bu-qcScaFuQDvXwW\u002Fview?usp=sharing) | [百度网盘(密码sk5h)](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1N7-w-Ls294MzfvX2X866Uw) and unzip it. (other dataset can be found [百度网盘, 提取码：36ly](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1BYgwkSWehtnPCn4NUBg_cA?pwd=36ly))\n\n```bash\nunzip demo_data.zip -d \u002Fhome\u002Fznqc\u002Fwork\u002F\ntools\u002Fscripts\u002Fstart_system.sh # re-run LSD\n```\n\nMore usages can be found [here](docs\u002Fguide.md)\n\n# ROS\n\nLSD is NOT built on the Robot Operating System (ROS), but we provides some tools to bridge the communication with ROS.\n\n- [rosbag to pickle](tools\u002Frosbag_to_pkl\u002FREADME.md): convert rosbag to pickle files, then LSD can read and run.\n- [pickle to rosbag](tools\u002Fpkl_to_rosbag\u002FREADME.md): a convenient tool to convert the pickle files which are recorded by LSD to rosbag.\n- [rosbag proxy](tools\u002Frosbag_proxy\u002FREADME.md): a tool which send the ros topic data to LSD.\n\n# License\n\nLSD is released under the [Apache 2.0 license](LICENSE).\n\n# Acknowledgments\n\nIn the development of LSD, we stand on the shoulders of the following repositories:\n\n- [lidar_align](https:\u002F\u002Fgithub.com\u002Fethz-asl\u002Flidar_align): A simple method for finding the extrinsic calibration between a 3D lidar and a 6-dof pose sensor.\n- [lidar_imu_calib](https:\u002F\u002Fgithub.com\u002Fchennuo0125-HIT\u002Flidar_imu_calib): automatic calibration of 3D lidar and IMU extrinsics.\n- [OpenPCDet](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002FOpenPCDet): OpenPCDet Toolbox for LiDAR-based 3D Object Detection.\n- [AB3DMOT](https:\u002F\u002Fgithub.com\u002Fxinshuoweng\u002FAB3DMOT): 3D Multi-Object Tracking: A Baseline and New Evaluation Metrics.\n- [FAST-LIO](https:\u002F\u002Fgithub.com\u002Fhku-mars\u002FFAST_LIO): A computationally efficient and robust LiDAR-inertial odometry package.\n- [R3LIVE](https:\u002F\u002Fgithub.com\u002Fhku-mars\u002Fr3live): A Robust, Real-time, RGB-colored, LiDAR-Inertial-Visual tightly-coupled state Estimation and mapping package.\n- [FLOAM](https:\u002F\u002Fgithub.com\u002Fwh200720041\u002Ffloam): Fast and Optimized Lidar Odometry And Mapping for indoor\u002Foutdoor localization.\n- [hdl_graph_slam](https:\u002F\u002Fgithub.com\u002Fkoide3\u002Fhdl_graph_slam): an open source ROS package for real-time 6DOF SLAM using a 3D LIDAR.\n- [hdl_localization](https:\u002F\u002Fgithub.com\u002Fkoide3\u002Fhdl_localization): Real-time 3D localization using a (velodyne) 3D LIDAR.\n- [ORB_SLAM2](https:\u002F\u002Fgithub.com\u002Fraulmur\u002FORB_SLAM2): Real-Time SLAM for Monocular, Stereo and RGB-D Cameras, with Loop Detection and Relocalization Capabilities.\n- [scancontext](https:\u002F\u002Fgithub.com\u002Firapkaist\u002Fscancontext): Global LiDAR descriptor for place recognition and long-term localization.\n\n# Citation\nIf you find this project useful in your research, please consider cite and star this project:\n\n```\n@misc{LiDAR-SLAM-Detection,\n    title={LiDAR SLAM & Detection: an open source perception architecture for autonomous vehicle and robotics},\n    author={LiangWang},\n    howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fw111liang222\u002Flidar-slam-detection}},\n    year={2023}\n}\n```\n\n# Contact\n\nLiangWang 15lwang@alumni.tongji.edu.cn\n","# LSD（激光雷达SLAM与检测）\n\nLSD 是一个面向自动驾驶汽车和机器人技术的开源感知架构。\n\n\u003Cdiv align=\"left\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fw111liang222_lidar-slam-detection_readme_517b4e621de8.jpg\" width = 33% \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fw111liang222_lidar-slam-detection_readme_99dd64634390.jpg\" width = 33% \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fw111liang222_lidar-slam-detection_readme_0ebb359a1367.gif\" width = 30% >\n\nLSD 目前支持多项功能：\n\n- [x] 支持多种激光雷达、摄像头、雷达以及惯性导航系统\u002F惯性测量单元传感器。\n- [x] 提供针对激光雷达、摄像头等设备的人性化标定工具。\n- [x] 支持软件时间同步、数据记录与回放功能。\n- [x] 支持基于体素3D-CNN的点云目标检测、跟踪与预测。\n- [x] 支持基于FastLIO的前端里程计及基于G2O的姿态图优化。\n- [x] 提供基于Web的交互式地图修正工具（编辑器）。\n- [x] 支持与[ROS](#ros)的通信。\n\n# 概述\n\n- [快速演示](docs\u002Fdemo\u002FREADME.md)\n- [架构](docs\u002Farchitecture.md)\n- [建图与定位](docs\u002Fslam.md)\n- [目标检测与跟踪](docs\u002Fdetect.md)\n\n# 更改日志\n\n**[2024-12-21]** 激光雷达建图（LIO里程计和PGO）进一步优化。\n- LIO里程计：为FASTLIO增加了退化检测和轮速观测功能。\n- PGO后端：新增GNSS异常值检测和外参估计功能。\n- 地图管理：支持多地图自动合并。\n- 其他：通过多目相机对点云进行着色，生成稠密地图，并提供点云到BEV视图的转换工具（位于tools\u002Fpostprocessing目录下）。\n- BUG修复：解决了跨投影带时的UTM投影问题，并考虑了UTM网格覆盖范围。\n\n**[2023-10-08]** 改进了3DMOT算法（GIOU、两阶段关联）。\n| 性能指标（WOD验证集） | AMOTA ↑ | AMOTP ↓ | IDs(%) ↓ |\n|-----------------------|:-------:|:-------:|:---------:|\n| AB3DMOT               |  47.84  |  0.2584 |   0.67    |\n| GIOU + 两阶段       |  54.79  |  0.2492 |   0.19    |\n\n**[2023-07-06]** 新增了一个实时运行的检测模型（CenterPoint-VoxelNet，帧率超过30FPS）。\n| 性能指标（WOD验证集） | Vec_L1 | Vec_L2 | Ped_L1 | Ped_L2 | Cyc_L1 | Cyc_L2 |\n|--------------------------|:----------:|:-------:|:-------:|:-------:|:-------:|:-------:|\n| PointPillar              | 73.71\u002F73.12|65.71\u002F65.17|71.70\u002F60.90|63.52\u002F53.78|65.30\u002F63.77 |63.12\u002F61.64|\n| CenterPoint-VoxelNet（单帧）     | 74.75\u002F74.24|66.09\u002F65.63|77.66\u002F71.54|68.57\u002F63.02|72.03\u002F70.93 |69.63\u002F68.57|\n| **CenterPoint-VoxelNet**（4帧） | **77.55\u002F77.03**|**69.65\u002F69.17**|**80.72\u002F77.80**|**72.91\u002F70.15**|**72.63\u002F71.72** |**70.55\u002F69.67**|\n\n**注：CenterPoint-VoxelNet基于[libspconv](https:\u002F\u002Fgithub.com\u002FNVIDIA-AI-IOT\u002FLidar_AI_Solution)构建，需要配备SM80及以上版本的GPU。**\n\n**[2023-06-01]** [Web UI](web_ui\u002FREADME.md)（预览、tviz和地图编辑器的JS代码）已上传。\n\n### 基本环境\n\nUbuntu20.04, Python3.8, Eigen 3.3.7, Ceres 1.14.0, Protobuf 3.8.0, NLOPT 2.4.2, G2O, OpenCV 4.5.5, PCL 1.9.1, GTSAM 4.0\n\n# 快速入门\n\n首先需要安装NVIDIA Container Toolkit [安装指南](https:\u002F\u002Fdocs.nvidia.com\u002Fdatacenter\u002Fcloud-native\u002Fcontainer-toolkit\u002Flatest\u002Finstall-guide.html)。\n\n我们提供了一个x86_64架构的Docker镜像用于测试。\n```bash\nsudo docker pull 15liangwang\u002Flsd-cuda118 # 如果没有GPU，可使用 sudo docker pull 15liangwang\u002Flsd-cpu\nsudo docker run --gpus all -it -d --net=host --privileged --shm-size=4g --name=\"LSD\" -v \u002Fmedia:\u002Froot\u002Fexchange 15liangwang\u002Flsd-cuda118\nsudo docker exec -it LSD \u002Fbin\u002Fbash\n```\n\n克隆本仓库并编译源代码\n```bash\ncd \u002Fhome\u002Fznqc\u002Fwork\u002F\ngit clone https:\u002F\u002Fgithub.com\u002Fw111liang222\u002Flidar-slam-detection.git\ncd lidar-slam-detection\u002F\nunzip slam\u002Fdata\u002FORBvoc.zip -d slam\u002Fdata\u002F\npython setup.py install\nbash sensor_inference\u002Fpytorch_model\u002Fexport\u002Fgenerate_trt.sh\n```\n\n运行LSD\n```bash\ntools\u002Fscripts\u002Fstart_system.sh\n```\n在浏览器中打开http:\u002F\u002Flocalhost（或http:\u002F\u002Flocalhost:1234），例如Chrome，您将看到如下界面。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fw111liang222_lidar-slam-detection_readme_0858df8a1528.png\" width=\"720像素\" \u002F>\n\n\n## 示例数据\n\n下载演示数据 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1wi3KATudMX3b4Wz0Bu-qcScaFuQDvXwW\u002Fview?usp=sharing) | [百度网盘（密码sk5h）](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1N7-w-Ls294MzfvX2X866Uw) 并解压。（其他数据集可在[百度网盘，提取码：36ly](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1BYgwkSWehtnPCn4NUBg_cA?pwd=36ly)找到）\n\n```bash\nunzip demo_data.zip -d \u002Fhome\u002Fznqc\u002Fwork\u002F\ntools\u002Fscripts\u002Fstart_system.sh # 重新运行LSD\n```\n\n更多用法请参阅[使用指南](docs\u002Fguide.md)。\n\n# ROS\n\nLSD并未基于机器人操作系统（ROS）构建，但我们提供了一些工具来实现与ROS的通信。\n\n- [rosbag转pickle](tools\u002Frosbag_to_pkl\u002FREADME.md)：将rosbag文件转换为pickle格式，以便LSD读取和运行。\n- [pickle转rosbag](tools\u002Fpkl_to_rosbag\u002FREADME.md)：方便地将LSD录制的pickle文件转换为rosbag文件。\n- [rosbag代理](tools\u002Frosbag_proxy\u002FREADME.md)：用于将ROS话题数据发送至LSD的工具。\n\n# 许可证\n\nLSD采用[Apache 2.0许可证](LICENSE)发布。\n\n# 致谢\n\n在LSD的开发过程中，我们借鉴了以下开源项目：\n\n- [lidar_align](https:\u002F\u002Fgithub.com\u002Fethz-asl\u002Flidar_align)：一种简单的方法，用于确定3D激光雷达与6自由度姿态传感器之间的外参标定。\n- [lidar_imu_calib](https:\u002F\u002Fgithub.com\u002Fchennuo0125-HIT\u002Flidar_imu_calib)：用于自动校准3D激光雷达与IMU的外参。\n- [OpenPCDet](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002FOpenPCDet)：基于激光雷达的3D目标检测开源工具箱。\n- [AB3DMOT](https:\u002F\u002Fgithub.com\u002Fxinshuoweng\u002FAB3DMOT)：3D多目标跟踪：基准方法及新的评估指标。\n- [FAST-LIO](https:\u002F\u002Fgithub.com\u002Fhku-mars\u002FFAST_LIO)：高效且鲁棒的激光雷达-惯性里程计软件包。\n- [R3LIVE](https:\u002F\u002Fgithub.com\u002Fhku-mars\u002Fr3live)：一款鲁棒、实时、带有RGB颜色信息的激光雷达-惯性-视觉紧耦合状态估计与建图软件包。\n- [FLOAM](https:\u002F\u002Fgithub.com\u002Fwh200720041\u002Ffloam)：适用于室内外定位的快速优化激光雷达里程计与建图系统。\n- [hdl_graph_slam](https:\u002F\u002Fgithub.com\u002Fkoide3\u002Fhdl_graph_slam)：一个基于3D激光雷达的开源ROS实时6DOF SLAM软件包。\n- [hdl_localization](https:\u002F\u002Fgithub.com\u002Fkoide3\u002Fhdl_localization)：利用（Velodyne）3D激光雷达进行实时3D定位。\n- [ORB_SLAM2](https:\u002F\u002Fgithub.com\u002Fraulmur\u002FORB_SLAM2)：适用于单目、双目及RGB-D相机的实时SLAM系统，具备回环检测与重定位能力。\n- [scancontext](https:\u002F\u002Fgithub.com\u002Firapkaist\u002Fscancontext)：用于场景识别和长期定位的全局激光雷达描述子。\n\n# 引用\n\n如果您在研究中使用了本项目，请考虑引用并给本项目点赞：\n\n```\n@misc{LiDAR-SLAM-Detection,\n    title={LiDAR SLAM & Detection: an open source perception architecture for autonomous vehicle and robotics},\n    author={LiangWang},\n    howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fw111liang222\u002Flidar-slam-detection}},\n    year={2023}\n}\n```\n\n# 联系方式\n\nLiangWang 15lwang@alumni.tongji.edu.cn","# LSD (LiDAR SLAM & Detection) 快速上手指南\n\nLSD 是一款面向自动驾驶和机器人的开源感知架构，支持多传感器融合（LiDAR、相机、雷达、IMU）、高精度建图定位以及基于深度学习的 3D 目标检测与跟踪。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Ubuntu 20.04\n- **硬件架构**: x86_64\n- **GPU 要求** (可选但推荐): NVIDIA GPU (SM80+ 架构，如 RTX 30\u002F40 系列或 A100)，需安装 **NVIDIA Container Toolkit**。\n  - 若无 GPU，可使用 CPU 版本镜像，但部分深度学习功能可能受限。\n\n### 前置依赖\n本项目推荐使用官方提供的 Docker 镜像，已预装所有核心依赖，包括：\n- Python 3.8\n- Eigen 3.3.7, Ceres 1.14.0, Protobuf 3.8.0\n- G2O, OpenCV 4.5.5, PCL 1.9.1, GTSAM 4.0\n- PyTorch 及相关推理引擎\n\n> **注意**：在运行 Docker 前，请确保已安装 [NVIDIA Container Toolkit](https:\u002F\u002Fdocs.nvidia.com\u002Fdatacenter\u002Fcloud-native\u002Fcontainer-toolkit\u002Flatest\u002Finstall-guide.html)。\n\n## 安装步骤\n\n### 1. 获取并运行 Docker 镜像\n根据是否拥有 GPU 选择对应的镜像。以下命令将拉取镜像并启动容器，同时挂载本地目录以便数据交换。\n\n```bash\n# 如果有 GPU (推荐)\nsudo docker pull 15liangwang\u002Flsd-cuda118\nsudo docker run --gpus all -it -d --net=host --privileged --shm-size=4g --name=\"LSD\" -v \u002Fmedia:\u002Froot\u002Fexchange 15liangwang\u002Flsd-cuda118\n\n# 如果没有 GPU\n# sudo docker pull 15liangwang\u002Flsd-cpu\n# sudo docker run -it -d --net=host --privileged --shm-size=4g --name=\"LSD\" -v \u002Fmedia:\u002Froot\u002Fexchange 15liangwang\u002Flsd-cpu\n```\n\n进入容器内部：\n```bash\nsudo docker exec -it LSD \u002Fbin\u002Fbash\n```\n\n### 2. 克隆代码与编译\n在容器内执行以下命令克隆仓库、解压必要数据文件并安装 Python 包。\n\n```bash\ncd \u002Fhome\u002Fznqc\u002Fwork\u002F\ngit clone https:\u002F\u002Fgithub.com\u002Fw111liang222\u002Flidar-slam-detection.git\ncd lidar-slam-detection\u002F\n\n# 解压 ORB-SLAM 词袋文件\nunzip slam\u002Fdata\u002FORBvoc.zip -d slam\u002Fdata\u002F\n\n# 安装 Python 依赖\npython setup.py install\n\n# 生成 TensorRT 推理引擎 (首次运行需要，耗时较长)\nbash sensor_inference\u002Fpytorch_model\u002Fexport\u002Fgenerate_trt.sh\n```\n\n## 基本使用\n\n### 1. 启动系统\n在项目根目录下运行启动脚本：\n\n```bash\ntools\u002Fscripts\u002Fstart_system.sh\n```\n\n### 2. 访问可视化界面\n打开浏览器（推荐 Chrome），访问以下地址即可看到交互式地图和传感器数据预览：\n- 地址：`http:\u002F\u002Flocalhost` 或 `http:\u002F\u002Flocalhost:1234`\n\n### 3. 运行示例数据\n为了验证功能，建议下载官方提供的演示数据包。\n\n**下载数据：**\n- **Google Drive**: [下载链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1wi3KATudMX3b4Wz0Bu-qcScaFuQDvXwW\u002Fview?usp=sharing)\n- **百度网盘 (国内加速)**: [下载链接](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1N7-w-Ls294MzfvX2X866Uw) (提取码：`sk5h`)\n- *更多数据集*: [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1BYgwkSWehtnPCn4NUBg_cA?pwd=36ly) (提取码：`36ly`)\n\n**解压并运行：**\n假设将 `demo_data.zip` 下载到了 `\u002Fhome\u002Fznqc\u002Fwork\u002F` 目录：\n\n```bash\n# 解压数据\nunzip demo_data.zip -d \u002Fhome\u002Fznqc\u002Fwork\u002F\n\n# 重新运行启动脚本加载数据\ntools\u002Fscripts\u002Fstart_system.sh\n```\n\n此时，Web 界面将自动加载演示数据，展示建图、定位及目标检测效果。更多高级用法请参考项目文档 `docs\u002Fguide.md`。","某自动驾驶初创团队正在开发一款用于园区物流的无人配送车，需要在复杂的半结构化环境中实现高精度的实时定位与动态障碍物感知。\n\n### 没有 lidar-slam-detection 时\n- **定位漂移严重**：在长廊或特征单一的园区道路中，传统激光里程计容易退化，导致车辆累积误差大，频繁丢失位置信息。\n- **感知延迟高**：原有的检测模型推理速度慢，无法在嵌入式设备上达到实时帧率，导致车辆对突然出现的行人或叉车反应滞后。\n- **多传感器融合难**：激光雷达、相机和 IMU 的时间同步与外参标定依赖人工脚本，调试周期长且数据对齐精度差。\n- **地图维护成本高**：发现建图错误时缺乏可视化工具，工程师只能修改代码重跑数据，无法交互式地修正地图细节。\n\n### 使用 lidar-slam-detection 后\n- **鲁棒定位**：利用基于 FastLIO 的前端和 G2O 后端优化，结合轮速计观测，即使在特征退化场景下也能保持厘米级定位精度。\n- **实时精准感知**：部署 CenterPoint-VoxelNet 模型，在单帧下即可实现 30FPS+ 的实时检测，显著提升了车辆对动态障碍物的追踪与预测能力。\n- **一站式传感器支持**：内置友好的多传感器（LiDAR\u002F相机\u002F雷达）标定流程与软件时间同步机制，大幅缩短了系统集成与调试时间。\n- **可视化地图编辑**：通过 Web 端交互式地图编辑器，工程师可直接在浏览器中修正建图瑕疵并自动合并多张地图，极大提升了迭代效率。\n\nlidar-slam-detection 通过集成高性能的 SLAM 算法与实时感知模型，将原本分散且耗时的研发环节整合为流畅的闭环工作流，显著加速了自动驾驶系统的落地进程。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fw111liang222_lidar-slam-detection_517b4e62.jpg","w111liang222","Liang Wang","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fw111liang222_f4573741.jpg","Autonomous vehicle SLAM & Perception\r\n",null,"SuZhou","15lwang@alumni.tongji.edu.cn","https:\u002F\u002Fgithub.com\u002Fw111liang222",[82,86,90,94,98,102,106,110,114,118],{"name":83,"color":84,"percentage":85},"C++","#f34b7d",56.7,{"name":87,"color":88,"percentage":89},"Python","#3572A5",20.2,{"name":91,"color":92,"percentage":93},"C","#555555",8.2,{"name":95,"color":96,"percentage":97},"TypeScript","#3178c6",6.8,{"name":99,"color":100,"percentage":101},"CMake","#DA3434",2.9,{"name":103,"color":104,"percentage":105},"Java","#b07219",2.6,{"name":107,"color":108,"percentage":109},"JavaScript","#f1e05a",1.1,{"name":111,"color":112,"percentage":113},"Cuda","#3A4E3A",0.7,{"name":115,"color":116,"percentage":117},"Shell","#89e051",0.2,{"name":119,"color":120,"percentage":117},"Makefile","#427819",737,154,"2026-04-18T10:03:55","Apache-2.0",4,"Linux (Ubuntu 20.04)","运行实时检测模型 (CenterPoint-VoxelNet) 必需 NVIDIA GPU (SM80+ 架构，如 RTX 30 系列\u002FA100)，需安装 NVIDIA Container Toolkit。Docker 镜像基于 CUDA 11.8。若无 GPU 可使用 CPU 镜像但可能无法运行实时检测。","未说明 (Docker 容器建议分配共享内存 --shm-size=4g)",{"notes":130,"python":131,"dependencies":132},"1. 该项目不直接依赖 ROS，但提供工具与 ROS 进行数据桥接。2. 推荐使用提供的 Docker 镜像 (lsd-cuda118) 进行部署，需预先安装 NVIDIA Container Toolkit。3. 核心检测模型基于 libspconv，对显卡计算能力有特定要求 (SM80+)。4. 首次构建需解压 ORBvoc.zip 并生成 TensorRT 引擎文件。","3.8",[133,134,135,136,137,138,139,140,141],"Eigen 3.3.7","Ceres 1.14.0","Protobuf 3.8.0","NLOPT 2.4.2","G2O","OpenCV 4.5.5","PCL 1.9.1","GTSAM 4.0","libspconv",[143,13,14,15],"其他",[145,146,147,148,149,150,151,152,153,154],"calibration","deep-learning","detection","perception","pointcloud","slam","autonomous-driving","lidar","mapping","robotics","2026-03-27T02:49:30.150509","2026-04-20T10:35:03.649866",[158,163,168,173,178,182],{"id":159,"question_zh":160,"answer_zh":161,"source_url":162},44359,"在 Jetpack 5.0.2 (Orin) 上部署后相机无法打开或显示黑屏怎么办？","此问题通常由两个原因导致：\n1. OpenCV 未与 GStreamer 一起编译：请重新编译安装支持 GStreamer 的 OpenCV 版本。\n2. JPEG 编解码导致的黑屏：如果是 Orin NX 且使用 Jetpack 5.1.2 以下版本，请修改 `hardware\u002Fgstreamer\u002F__init__.py` 文件第 4 行，将 `from .jetson.driver import *` 改为 `from .base.driver import *`。这将启用 CPU 实现的 JPEG 编解码，避免黑屏问题。","https:\u002F\u002Fgithub.com\u002Fw111liang222\u002Flidar-slam-detection\u002Fissues\u002F27",{"id":164,"question_zh":165,"answer_zh":166,"source_url":167},44360,"如何在没有强大 GPU 的环境下运行项目？是否必须生成 TRT 模型？","对象检测模块基于 TensorRT，因此通常需要 GPU 支持。如果您使用的是非 CUDA 版本的 Docker 镜像（例如在没有强力 GPU 的机器上测试其他模块），可以忽略执行 `generate_trt.sh` 脚本时产生的 `trtexec` 或 `polygraphy` 找不到命令的错误。该步骤仅在需要构建或测试对象检测功能时才必须执行。","https:\u002F\u002Fgithub.com\u002Fw111liang222\u002Flidar-slam-detection\u002Fissues\u002F9",{"id":169,"question_zh":170,"answer_zh":171,"source_url":172},44361,"Web UI (Tviz) 的源代码在哪里？如何发布点云等消息到可视化界面？","Web UI 的源代码已上传至 GitHub，请参考 README 进行安装和测试。\n若需向 Tviz 模块发布消息（如点云、里程计、地图等）：\n1. 参考 `sensor_driver\u002Fins_driver\u002Fsrc\u002Fins_driver.cpp` 第 144 行，查看如何发布 IMU 消息。\n2. 利用 `sensor_driver\u002Fcommon_lib\u002Fcpp_utils\u002FUtils.h` 中提供的函数，将数据转换为相应的消息格式进行发布。","https:\u002F\u002Fgithub.com\u002Fw111liang222\u002Flidar-slam-detection\u002Fissues\u002F1",{"id":174,"question_zh":175,"answer_zh":176,"source_url":177},44362,"在使用自定义激光雷达（如禾赛 128 线）且无 IMU 时，如何配置数据解析？","如果使用 Rosbag 并通过 rosbag_proxy 工具转换数据，可能需要修改 `lidar_driver.cpp` 中的数据解析代码以适配您的传感器。例如，如果传感器不提供强度（intensity）值，可以尝试修改代码逻辑，将 ring（线号）值传递到 pkl 文件中代替 intensity。确保在 Web 配置中选择 'custom' 模式，并打印输出确认 ring 值已正确获取。","https:\u002F\u002Fgithub.com\u002Fw111liang222\u002Flidar-slam-detection\u002Fissues\u002F15",{"id":179,"question_zh":180,"answer_zh":181,"source_url":177},44363,"后端优化中加入回环后地图变得混乱（Z 轴、Roll、Pitch 漂移），如何解决？","这通常是因为在缺乏地面约束的情况下，回环检测引入的误差导致优化器为了最小化代价函数而大幅调整 Z 轴、Roll 和 Pitch。\n解决方案建议：\n1. 如果场景包含上下坡，无法开启强地面约束（否则坡道会被拉平），可以尝试利用 IMU 加速度计的重力约束来稳定姿态。\n2. 排查回环误检：虽然参数得分满足，仍需可视化检查产生回环的两帧是否真的符合实际场景。\n3. 检查关键帧对齐（align）逻辑，确保后端代码与官方版本一致，特别是数据输入部分。",{"id":183,"question_zh":184,"answer_zh":185,"source_url":177},44364,"fitness_score 和 inlier_ratio 的含义是什么？相关计算逻辑是怎样的？","这两个指标用于评估点云配准的质量。\n关于 fitness_score 计算中的特定判断：`if (horizon_dist \u003C= 10.0 && p1.z \u003C floor_height_max && p2.z \u003C floor_height_max && fabs(p1.z - p2.z) > 0.25)`，该语句旨在保留地面点附近的特征，通过限制高度差和水平距离来过滤噪声。\n代码中某些临时计算行（如 221-224 行）可能仅用于中间变量统计或调试，若后续未被引用则不影响最终结果。具体文档可参考源码中的注释或相关 SLAM 算法论文。",[187,192,196,201,206,211],{"id":188,"version":189,"summary_zh":190,"released_at":191},351914,"v2.1.0","**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fw111liang222\u002Flidar-slam-detection\u002Fcompare\u002Fv2.0.0...v2.1.0","2024-10-05T10:06:52",{"id":193,"version":194,"summary_zh":77,"released_at":195},351915,"v2.0.0","2024-05-25T09:57:44",{"id":197,"version":198,"summary_zh":199,"released_at":200},351916,"v1.3.0","优化：\n1. 离线模式下，SLAM 不输出高频位姿。\n2. 定位运行时，预览页面中无连接边。\n\n修复：\n1. 点云上色时的崩溃问题。","2023-07-17T02:14:31",{"id":202,"version":203,"summary_zh":204,"released_at":205},351917,"v1.2.0","特性：\n\n1. 支持多激光雷达建图与定位（FLOAM 除外）\n\n优化：\n\n1. FastLIO 需要 IMU 初始化流程（启动时保持 1 秒稳定）  \n2. 将激光雷达检测的输入点云数量从 10 万增大至 20 万  \n3. 当无法接收到 IMU 数据时，自动切换到 100Hz 运动模型的定位模式  \n4. 优化惯性导航系统（INS）的状态切换逻辑  \n\n修复：\n\n1. FastLIO 建图中加速度计的单位问题  \n2. 读取错误地图时程序崩溃  \n3. 保存地图时部分顶点可能未被正确导出  \n4. 当相机不可用时进行 SLAM 会引发崩溃  \n5. 升级后自定义配置未更新","2023-07-04T05:31:05",{"id":207,"version":208,"summary_zh":209,"released_at":210},351918,"v1.1.0","特性：\n\n1. TViz 支持 XYZI\u002FXYZRGB 点云可视化  \n2. 增加下采样步骤，提升 Web 端 SLAM 定位的分辨率  \n3. 支持构建 RGB 点云地图  \n4. 在预览中新增“RGB”颜色可视化  \n5. 支持在 x86 平台上进行鱼眼镜头去畸变  \n6. 为相机数据添加时间戳  \n\n优化：\n\n1. RTK 建图不再依赖 INS 状态  \n2. 加快回环检测速度  \n3. 使用半径滤波器去除地图关键帧中的离群点  \n4. 过滤地面点云中的离群点以精简数据  \n5. 更新预览中的车辆模型  \n\n修复：\n\n1. 时间戳跳变导致 FastLIO 输出姿态错误  \n2. 使用 RTK 建图时无法保存地图  \n3. INS 驱动中的边界处理问题","2023-05-15T01:55:35",{"id":212,"version":213,"summary_zh":77,"released_at":214},351919,"v1.0.0","2023-04-03T08:50:28"]