[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-xinshuoweng--AB3DMOT":3,"tool-xinshuoweng--AB3DMOT":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,2,"2026-04-16T23:34:05",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":73,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":10,"env_os":91,"env_gpu":92,"env_ram":91,"env_deps":93,"category_tags":102,"github_topics":104,"view_count":32,"oss_zip_url":120,"oss_zip_packed_at":120,"status":17,"created_at":121,"updated_at":122,"faqs":123,"releases":154},8291,"xinshuoweng\u002FAB3DMOT","AB3DMOT","(IROS 2020, ECCVW 2020) Official Python Implementation for \"3D Multi-Object Tracking: A Baseline and New Evaluation Metrics\"","AB3DMOT 是一个专注于 3D 多目标跟踪（3D MOT）的开源基准系统，旨在为自动驾驶和辅助机器人等实时应用提供高效可靠的解决方案。针对现有研究往往过度追求精度而忽视计算成本与系统复杂度的问题，AB3DMOT 提出了一种简洁却高性能的实时基线方法。它利用现成的 3D 物体检测器从激光雷达点云中提取定向边界框，并结合 3D 卡尔曼滤波与匈牙利算法完成状态估计和数据关联。\n\n尽管架构简单，AB3DMOT 在权威的 KITTI 数据集上取得了当时的最先进成果，将 3D MOTA 指标从 72.23 提升至 76.47。更令人惊喜的是，将其结果投影到 2D 平面后，其表现甚至能排在官方 2D 跟踪榜单第二位，且运行速度高达 214.7 FPS，比同类顶尖 2D 系统快 65 倍。此外，该项目还引入了新的评估指标（如 sAMOTA），推动了行业评测标准的完善。\n\nAB3DMOT 非常适合计算机视觉领域的研究人员、算法工程师以及自动驾驶开发者使用。无论是希望快速复现经典基线、对比新算法性能，还是寻求轻量级部署方案的技术团队，都能从中获得重要参考。代码支持 Python 3，并兼容 KITTI","AB3DMOT 是一个专注于 3D 多目标跟踪（3D MOT）的开源基准系统，旨在为自动驾驶和辅助机器人等实时应用提供高效可靠的解决方案。针对现有研究往往过度追求精度而忽视计算成本与系统复杂度的问题，AB3DMOT 提出了一种简洁却高性能的实时基线方法。它利用现成的 3D 物体检测器从激光雷达点云中提取定向边界框，并结合 3D 卡尔曼滤波与匈牙利算法完成状态估计和数据关联。\n\n尽管架构简单，AB3DMOT 在权威的 KITTI 数据集上取得了当时的最先进成果，将 3D MOTA 指标从 72.23 提升至 76.47。更令人惊喜的是，将其结果投影到 2D 平面后，其表现甚至能排在官方 2D 跟踪榜单第二位，且运行速度高达 214.7 FPS，比同类顶尖 2D 系统快 65 倍。此外，该项目还引入了新的评估指标（如 sAMOTA），推动了行业评测标准的完善。\n\nAB3DMOT 非常适合计算机视觉领域的研究人员、算法工程师以及自动驾驶开发者使用。无论是希望快速复现经典基线、对比新算法性能，还是寻求轻量级部署方案的技术团队，都能从中获得重要参考。代码支持 Python 3，并兼容 KITTI 和 nuScenes 主流数据集，便于集成与二次开发。","# AB3DMOT\n\n\u003Cb>3D Multi-Object Tracking: A Baseline and New Evaluation Metrics (IROS 2020, ECCVW 2020)\u003C\u002Fb>\n\nThis repository contains the official python implementation for our full paper at IROS 2020 \"[3D Multi-Object Tracking: A Baseline and New Evaluation Metrics](http:\u002F\u002Fwww.xinshuoweng.com\u002Fpapers\u002FAB3DMOT\u002Fproceeding.pdf)\" and short paper \"[AB3DMOT: A Baseline for 3D Multi-Object Tracking and New Evaluation Metrics](http:\u002F\u002Fwww.xinshuoweng.com\u002Fpapers\u002FAB3DMOT_eccvw\u002Fcamera_ready.pdf)\" at ECCVW 2020. Our project website and video demos are [here](http:\u002F\u002Fwww.xinshuoweng.com\u002Fprojects\u002FAB3DMOT\u002F). If you find our paper or code useful, please cite our papers:\n\n```\n@article{Weng2020_AB3DMOT, \nauthor = {Weng, Xinshuo and Wang, Jianren and Held, David and Kitani, Kris}, \njournal = {IROS}, \ntitle = {{3D Multi-Object Tracking: A Baseline and New Evaluation Metrics}}, \nyear = {2020} \n}\n```\n```\n@article{Weng2020_AB3DMOT_eccvw, \nauthor = {Weng, Xinshuo and Wang, Jianren and Held, David and Kitani, Kris}, \njournal = {ECCVW}, \ntitle = {{AB3DMOT: A Baseline for 3D Multi-Object Tracking and New Evaluation Metrics}}, \nyear = {2020} \n}\n```\n\n\u003Cimg align=\"center\" width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxinshuoweng_AB3DMOT_readme_cbf85d33fd37.gif\">\n\u003Cimg align=\"center\" width=\"100%\" src=\"https:\u002F\u002Fgithub.com\u002Fxinshuoweng\u002FAB3DMOT\u002Fblob\u002Fmaster\u002Fmain2.gif\">\n\n## Overview\n\n- [News](#news)\n- [Introduction](#introduction)\n- [Installation](#installation)\n- [Quick Demo on KITTI](#quick-demo-on-kitti)\n- [Benchmarking](#benchmarking)\n- [Acknowledgement](#acknowledgement)\n\n## News\n\n- Feb. 27, 2022: Added support to the nuScenes dataset and updated README\n- Feb. 26, 2022: Refactored code libraries and signficantly improved performance on KITTI 3D MOT\n- Aug. 06, 2020: Extend abstract (one oral) accepted at two ECCV workshops: [WiCV](https:\u002F\u002Fsites.google.com\u002Fview\u002Fwicvworkshop-eccv2020\u002F), [PAD](https:\u002F\u002Fsites.google.com\u002Fview\u002Fpad2020\u002Faccepted-papers?authuser=0)\n- Jul. 05, 2020: 2D MOT results on KITTI for all three categories released\n- Jul. 04, 2020: Code modularized and a minor bug in KITTI evaluation for DontCare objects fixed\n- Jun. 30, 2020: Paper accepted at IROS 2020\n- Jan. 10, 2020: New metrics sAMOTA added and results updated\n- Aug. 21, 2019: Python 3 supported\n- Aug. 21, 2019: 3D MOT results on KITTI \"Pedestrian\" and \"Cyclist\" categories released\n- Aug. 19, 2019: A minor bug in orientation correction fixed\n- Jul. 9, 2019: Code and 3D MOT results on KITTI \"Car\" category released, support Python 2 only\n\n## Introduction\n\n3D multi-object tracking (MOT) is an essential component technology for many real-time applications such as autonomous driving or assistive robotics. However, recent works for 3D MOT tend to focus more on developing accurate systems giving less regard to computational cost and system complexity. In contrast, this work proposes a simple yet accurate real-time baseline 3D MOT system. We use an off-the-shelf 3D object detector to obtain oriented 3D bounding boxes from the LiDAR point cloud. Then, a combination of 3D Kalman filter and Hungarian algorithm is used for state estimation and data association. Although our baseline system is a straightforward combination of standard methods, we obtain the state-of-the-art results. To evaluate our baseline system, we propose a new 3D MOT extension to the official KITTI 2D MOT evaluation along with two new metrics. Our proposed baseline method for 3D MOT establishes new state-of-the-art performance on 3D MOT for KITTI, improving the 3D MOTA from 72.23 of prior art to 76.47. Surprisingly, by projecting our 3D tracking results to the 2D image plane and compare against published 2D MOT methods, our system places 2nd on the official KITTI leaderboard. Also, our proposed 3D MOT method runs at a rate of 214.7 FPS, 65 times faster than the state-of-the-art 2D MOT system. \n\n## Installation\n\nPlease follow carefully our provided [installation instructions](docs\u002FINSTALL.md), to avoid errors when running the code.\n\n## Quick Demo on KITTI\n\nTo quickly get a sense of our method's performance on the KITTI dataset, one can run the following command after installation of the code. This step does not require you to download any dataset (a small set of data is already included in this code repository).\n\n```\npython3 main.py --dataset KITTI --split val --det_name pointrcnn\npython3 scripts\u002Fpost_processing\u002Ftrk_conf_threshold.py --dataset KITTI --result_sha pointrcnn_val_H1\npython3 scripts\u002Fpost_processing\u002Fvisualization.py --result_sha pointrcnn_val_H1_thres --split val\n```\n\n## Benchmarking\n\nWe provide instructions (inference, evaluation and visualization) for reproducing our method's performance on various supported datasets ([KITTI](docs\u002FKITTI.md), [nuScenes](docs\u002FnuScenes.md)) for benchmarking purposes. \n\n## Real-Time Tracking in ROS\n\nSpecial thanks to Pardis for the development of the real-time version running in ROS. Code can be found [here](https:\u002F\u002Fgithub.com\u002FPardisTaghavi\u002Freal_time_tracking_AB3DMOT).\n\n## Acknowledgement\n\nThe idea of this method is inspired by \"[SORT](https:\u002F\u002Fgithub.com\u002Fabewley\u002Fsort)\"\n\n","# AB3DMOT\n\n\u003Cb>3D多目标跟踪：基准方法与新评估指标（IROS 2020，ECCVW 2020）\u003C\u002Fb>\n\n本仓库包含我们在IROS 2020发表的完整论文“3D多目标跟踪：基准方法与新评估指标”（[链接](http:\u002F\u002Fwww.xinshuoweng.com\u002Fpapers\u002FAB3DMOT\u002Fproceeding.pdf)）以及在ECCVW 2020发表的短文“AB3DMOT：3D多目标跟踪基准方法与新评估指标”（[链接](http:\u002F\u002Fwww.xinshuoweng.com\u002Fpapers\u002FAB3DMOT_eccvw\u002Fcamera_ready.pdf)）的官方Python实现。我们的项目主页和视频演示请见[这里](http:\u002F\u002Fwww.xinshuoweng.com\u002Fprojects\u002FAB3DMOT\u002F)。如果您觉得我们的论文或代码有用，请引用以下文献：\n\n```\n@article{Weng2020_AB3DMOT, \nauthor = {Weng, Xinshuo and Wang, Jianren and Held, David and Kitani, Kris}, \njournal = {IROS}, \ntitle = {{3D多目标跟踪：基准方法与新评估指标}}, \nyear = {2020} \n}\n```\n```\n@article{Weng2020_AB3DMOT_eccvw, \nauthor = {Weng, Xinshuo and Wang, Jianren and Held, David and Kitani, Kris}, \njournal = {ECCVW}, \ntitle = {{AB3DMOT：3D多目标跟踪基准方法与新评估指标}}, \nyear = {2020} \n}\n```\n\n\u003Cimg align=\"center\" width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxinshuoweng_AB3DMOT_readme_cbf85d33fd37.gif\">\n\u003Cimg align=\"center\" width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxinshuoweng_AB3DMOT_readme_183f470c61cb.gif\">\n\n## 概述\n\n- [新闻](#news)\n- [简介](#introduction)\n- [安装](#installation)\n- [KITTI数据集快速演示](#quick-demo-on-kitti)\n- [基准测试](#benchmarking)\n- [致谢](#acknowledgement)\n\n## 新闻\n\n- 2022年2月27日：新增对nuScenes数据集的支持，并更新了README文件。\n- 2022年2月26日：重构代码库，显著提升了在KITTI 3D MOT上的性能。\n- 2020年8月6日：摘要扩展（口头报告）被两个ECCV研讨会接受：[WiCV](https:\u002F\u002Fsites.google.com\u002Fview\u002Fwicvworkshop-eccv2020\u002F)、[PAD](https:\u002F\u002Fsites.google.com\u002Fview\u002Fpad2020\u002Faccepted-papers?authuser=0)。\n- 2020年7月5日：发布了KITTI数据集所有三个类别的2D MOT结果。\n- 2020年7月4日：代码模块化，并修复了KITTI评估中针对DontCare对象的一个小bug。\n- 2020年6月30日：论文被IROS 2020接收。\n- 2020年1月10日：新增sAMOTA指标并更新了结果。\n- 2019年8月21日：支持Python 3。\n- 2019年8月21日：发布了KITTI数据集“Pedestrian”和“Cyclist”类别的3D MOT结果。\n- 2019年8月19日：修复了一个方向校正的小bug。\n- 2019年7月9日：发布了代码及KITTI数据集“Car”类别的3D MOT结果，仅支持Python 2。\n\n## 简介\n\n3D多目标跟踪（MOT）是许多实时应用（如自动驾驶或辅助机器人技术）中的关键组件技术。然而，近年来关于3D MOT的研究往往更注重系统精度，而忽视了计算成本和系统复杂度。与此相反，本研究提出了一种简单却精确的实时3D MOT基准系统。我们使用现成的3D目标检测器从LiDAR点云中获取定向3D边界框，然后结合3D卡尔曼滤波器和匈牙利算法进行状态估计和数据关联。尽管我们的基准系统只是标准方法的简单组合，却取得了当前最先进的结果。为了评估该基准系统，我们提出了一个基于官方KITTI 2D MOT评估的3D MOT扩展方案，并引入了两个新指标。我们的3D MOT基准方法在KITTI数据集上实现了新的SOTA性能，将3D MOTA从先前工作的72.23提升至76.47。令人惊讶的是，通过将3D跟踪结果投影到2D图像平面并与已发布的2D MOT方法进行比较，我们的系统在官方KITTI排行榜上位列第二。此外，我们的3D MOT方法运行速度可达214.7 FPS，比当前最先进的2D MOT系统快65倍。\n\n## 安装\n\n请仔细遵循我们提供的[安装说明](docs\u002FINSTALL.md)，以避免运行代码时出现错误。\n\n## KITTI数据集快速演示\n\n为了快速了解我们在KITTI数据集上的方法性能，您可以在安装代码后运行以下命令。此步骤无需下载任何数据集（本代码仓库已包含一小部分数据）。\n\n```\npython3 main.py --dataset KITTI --split val --det_name pointrcnn\npython3 scripts\u002Fpost_processing\u002Ftrk_conf_threshold.py --dataset KITTI --result_sha pointrcnn_val_H1\npython3 scripts\u002Fpost_processing\u002Fvisualization.py --result_sha pointrcnn_val_H1_thres --split val\n```\n\n## 基准测试\n\n我们提供了用于复现我们在各种支持数据集（[KITTI](docs\u002FKITTI.md)、[nuScenes](docs\u002FnuScenes.md)）上方法性能的说明（推理、评估和可视化），以供基准测试之用。\n\n## ROS中的实时跟踪\n\n特别感谢Pardis开发的在ROS中运行的实时版本。代码可在[这里](https:\u002F\u002Fgithub.com\u002FPardisTaghavi\u002Freal_time_tracking_AB3DMOT)找到。\n\n## 致谢\n\n本方法的灵感来源于“[SORT](https:\u002F\u002Fgithub.com\u002Fabewley\u002Fsort)”。","# AB3DMOT 快速上手指南\n\nAB3DMOT 是一个简单且高效的 3D 多目标跟踪（3D MOT）基线系统，基于 3D 卡尔曼滤波和匈牙利算法，在 KITTI 和 nuScenes 数据集上实现了领先的实时性能。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04\u002F20.04)\n*   **Python 版本**: Python 3.6+ (已不再支持 Python 2)\n*   **核心依赖**:\n    *   `numpy`\n    *   `scipy`\n    *   `opencv-python`\n    *   `pyquaternion` (nuScenes 数据集必需)\n    *   `nuscenes-devkit` (nuScenes 数据集必需)\n*   **硬件建议**: 虽然推理速度极快，但运行 3D 检测器（如 PointRCNN）通常需要 NVIDIA GPU 及对应的 CUDA 环境。\n\n> **提示**：建议使用 `conda` 创建虚拟环境以避免依赖冲突。国内用户可使用清华源或阿里源加速包安装：\n> ```bash\n> conda create -n ab3dmot python=3.8\n> conda activate ab3dmot\n> pip install numpy scipy opencv-python -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fxinshuoweng\u002FAB3DMOT.git\n    cd AB3DMOT\n    ```\n\n2.  **安装项目依赖**\n    请严格参照官方提供的详细安装文档以避免错误，主要步骤通常包括安装必要的 Python 库。对于仅需运行基准测试或演示的用户，基础依赖如下：\n    ```bash\n    pip install -r requirements.txt\n    ```\n    *(注：若仓库根目录无 requirements.txt，请手动安装上述“环境准备”中列出的核心依赖)*\n\n3.  **配置数据集（可选）**\n    *   **快速演示**：无需下载额外数据，代码库已内置少量 KITTI 样本数据。\n    *   **完整评测**：如需在完整 KITTI 或 nuScenes 数据集上复现结果，请参考 `docs\u002FKITTI.md` 或 `docs\u002FnuScenes.md` 下载数据并放置于指定目录。\n\n## 基本使用\n\n以下命令展示了如何在 **KITTI 数据集** 上进行快速演示。该流程包含三个步骤：运行跟踪、后处理（置信度阈值过滤）以及结果可视化。\n\n**注意**：以下命令直接使用仓库内置的小样本数据，无需预先下载大型数据集。\n\n1.  **运行 3D 跟踪**\n    使用 PointRCNN 检测器在验证集上运行跟踪算法：\n    ```bash\n    python3 main.py --dataset KITTI --split val --det_name pointrcnn\n    ```\n\n2.  **后处理（置信度过滤）**\n    对生成的跟踪结果进行置信度阈值过滤，优化输出质量：\n    ```bash\n    python3 scripts\u002Fpost_processing\u002Ftrk_conf_threshold.py --dataset KITTI --result_sha pointrcnn_val_H1\n    ```\n\n3.  **可视化结果**\n    生成可视化的跟踪视频以直观查看效果：\n    ```bash\n    python3 scripts\u002Fpost_processing\u002Fvisualization.py --result_sha pointrcnn_val_H1_thres --split val\n    ```\n\n执行完毕后，可视化结果通常保存在 `results` 或 `visualizations` 相关目录下（具体路径视脚本输出日志而定）。如需在 nuScenes 数据集上运行，请将 `--dataset` 参数改为 `nuscenes` 并确保已正确配置 nuScenes 数据路径。","某自动驾驶初创团队正在开发城市道路感知系统，急需在嵌入式设备上实现实时、精准的 3D 多目标跟踪以支撑路径规划。\n\n### 没有 AB3DMOT 时\n- **算力负担过重**：现有复杂模型在车载芯片上运行缓慢，难以达到实时性要求，导致车辆决策延迟。\n- **评估标准缺失**：缺乏针对 3D 跟踪的专用评价指标，团队只能沿用 2D 指标，无法准确衡量空间位置追踪的真实误差。\n- **开发周期冗长**：从零构建卡尔曼滤波与数据关联模块耗时费力，且难以复现论文中的基准性能。\n- **场景适应性差**：在行人和骑行者密集的复杂路口，传统方法容易出现目标丢失或 ID 频繁切换的问题。\n\n### 使用 AB3DMOT 后\n- **推理速度飞跃**：凭借高效的\"3D 卡尔曼滤波 + 匈牙利算法”基线，系统在 KITTI 数据集上跑出 214.7 FPS，比原有方案快 65 倍，轻松满足实时控制需求。\n- **度量体系完善**：直接采用其提出的 sAMOTA 等新指标，团队能精准量化 3D 空间内的跟踪质量，快速定位算法短板。\n- **落地效率提升**：调用现成的 Python 官方实现，无需重复造轮子，一周内即可完成从传感器数据到稳定跟踪输出的全流程部署。\n- **追踪稳定性增强**：在复杂动态场景中，AB3DMOT 显著减少了目标 ID 跳变，将 3D MOTA 指标从 72.23 提升至 76.47，大幅提高了对弱势交通参与者的保护能力。\n\nAB3DMOT 通过提供极简而高效的基准方案与权威评估体系，帮助团队以最低成本实现了业界领先的实时 3D 跟踪性能。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxinshuoweng_AB3DMOT_c4b9f5b4.png","xinshuoweng","Xinshuo Weng","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fxinshuoweng_624cb4f9.jpg","Research Scientist at NVIDIA Research, Robotics PhD Alumni at CMU, Qualcomm Fellowship Winner","NVIDIA","Toronto, Canada","xinshuo.weng@gmail.com","https:\u002F\u002Fwww.xinshuoweng.com","https:\u002F\u002Fgithub.com\u002Fxinshuoweng",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,1835,416,"2026-04-16T03:47:12","NOASSERTION","未说明","未说明 (代码使用现成的 3D 检测器如 PointRCNN，通常隐含需要 NVIDIA GPU，但 README 未明确指定型号或显存)",{"notes":94,"python":95,"dependencies":96},"README 中未直接列出具体依赖库版本，详细安装步骤需参考项目提供的 docs\u002FINSTALL.md 文档。该工具主要作为基线系统，结合了现成的 3D 检测器、3D 卡尔曼滤波和匈牙利算法。支持 KITTI 和 nuScenes 数据集。另有基于 ROS 的实时版本可在外部仓库找到。","3.8+ (README 提到 2019 年 8 月增加 Python 3 支持，且演示命令使用 python3)",[97,98,99,100,101],"numpy","scipy","filterpy (卡尔曼滤波)","PointRCNN (或其他 3D 检测器)","KITTI\u002FnusScenes 数据集工具",[103,15,14],"其他",[105,106,107,108,109,110,111,112,113,114,115,116,117,118,119],"computer-vision","machine-learning","robotics","tracking","3d-tracking","multi-object-tracking","real-time","evaluation-metrics","evaluation","3d-multi-object-tracking","2d-mot-evaluation","kitti","3d-mot","3d-multi","kitti-3d",null,"2026-03-27T02:49:30.150509","2026-04-17T08:25:58.386259",[124,129,134,139,144,149],{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},37127,"AB3DMOT 是否支持基于点云（而非图像）的 3D 检测输入？如果模型能预测速度，能否用于增强卡尔曼滤波的速度估计？","是的，该追踪器可以应用于点云生成的 3D 检测结果。关于速度估计：使用卡尔曼滤波本身就是一种“预测方法”（predictive approach），它通过将新检测与卡尔曼滤波预测的下一状态进行匹配，而不是与上一帧的检测直接匹配。如果你已有模型预测的速度，理论上可以用于增强，但需注意调整输入格式。对于点云数据，确保输入符合代码要求的格式（如 theta 值的范围处理），通常无需大幅修改核心逻辑即可运行。","https:\u002F\u002Fgithub.com\u002Fxinshuoweng\u002FAB3DMOT\u002Fissues\u002F55",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},37128,"如何使用 AB3DMOT 追踪带有方向信息（旋转角）的定向物体（Oriented Objects）？","这是可行的。如果你的检测框包含方向信息（orientation），代码可以输出带方向的追踪结果。但你需要修改卡尔曼滤波中的状态转移矩阵（transition matrix），以正确建模角度（theta）的变化。默认实现可能假设简单的线性运动，对于旋转物体需自定义矩阵以适配角度更新逻辑。","https:\u002F\u002Fgithub.com\u002Fxinshuoweng\u002FAB3DMOT\u002Fissues\u002F24",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},37129,"检测文件（.txt）中各列的含义是什么？`additional_info` 具体包含哪些变量？","检测文件中每行代表一个检测框，列含义如下：\n- 第 0 列：帧号（frame number）\n- 第 1 列：物体类型（如 2=Car）\n- 第 2-6 列：通常为截断、遮挡等辅助信息（在主要算法中未直接使用，即 `additional_info`）\n- 第 7-13 列：3D 框参数 [x, y, z, theta, l, w, h]\n注意：代码内部（如 main.py 第 348 行附近）可能会交换数值顺序或对 theta 进行归一化处理（确保在 -π 到 π 之间）。只要按照 README 提供的格式输入数据，追踪器即可正常工作。","https:\u002F\u002Fgithub.com\u002Fxinshuoweng\u002FAB3DMOT\u002Fissues\u002F8",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},37130,"当目标很小或帧间运动很大导致 IoU 为零时，卡尔曼滤波如何完成首两帧的检测关联？","对于小物体或低帧率场景（如 nuScenes），仅依赖 IoU（交并比）作为关联准则可能失效，因为预测状态与当前检测的重叠可能为零。此时建议改用基于距离的关联准则（distance-based criteria），结合物体尺寸或其他特征进行匹配。在 KITTI 数据集上 IoU 效果好是因为车辆较大且帧率高；对于其他场景，需灵活切换评估指标以避免因 IoU 为零而无法关联的问题。","https:\u002F\u002Fgithub.com\u002Fxinshuoweng\u002FAB3DMOT\u002Fissues\u002F47",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},37131,"如果我使用 BEV（鸟瞰图）点云检测架构或其他自定义检测模型，能否直接使用 AB3DMOT 进行追踪？","可以。AB3DMOT 是通用的追踪框架，不依赖特定的检测架构（如 PointRCNN 或单目 3D 方法）。只要你能够将自定义模型（如基于 BEV 的检测器）的输出转换为代码所需的文本格式（包含 x, y, z, theta, l, w, h 等信息），即可直接使用该追踪器。已有用户成功将 BEV 预测结果接入并完成了评估。","https:\u002F\u002Fgithub.com\u002Fxinshuoweng\u002FAB3DMOT\u002Fissues\u002F10",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},37132,"如何将 OpenPCDet 框架输出的检测结果转换为 AB3DMOT 可用的输入格式？","OpenPCDet 输出的字典包含 'location' (x,y,z), 'dimensions' (l,w,h), 'rotation_y' 等字段。你需要将其重组为 AB3DMOT 要求的格式：\n1. 提取 location 作为中心点坐标。\n2. 提取 dimensions 作为长宽高。\n3. 将 rotation_y 转换为 theta（注意坐标系差异，可能需要加减 π\u002F2 或调整符号）。\n4. 组合成 [x, y, z, theta, l, w, h] 的数组。\n5. 补充帧号和类别 ID，保存为 .txt 文件或直接在内存中构建 `dets_all` 字典传入 `tracker.update()`。具体转换代码需根据 OpenPCDet 的版本和坐标系定义微调。","https:\u002F\u002Fgithub.com\u002Fxinshuoweng\u002FAB3DMOT\u002Fissues\u002F82",[]]