[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-sshaoshuai--MTR":3,"tool-sshaoshuai--MTR":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,2,"2026-04-06T11:09:19",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75054,"2026-04-07T10:38:03",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65679,"2026-04-07T11:38:52",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":106,"forks":107,"last_commit_at":108,"license":109,"difficulty_score":110,"env_os":111,"env_gpu":112,"env_ram":111,"env_deps":113,"category_tags":116,"github_topics":82,"view_count":10,"oss_zip_url":82,"oss_zip_packed_at":82,"status":22,"created_at":117,"updated_at":118,"faqs":119,"releases":149},5256,"sshaoshuai\u002FMTR","MTR","MTR: Motion Transformer with Global Intention Localization and Local Movement Refinement, NeurIPS 2022.","MTR（Motion Transformer）是一款专为自动驾驶领域设计的开源算法框架，旨在精准预测交通参与者的未来多模态运动轨迹。在复杂的道路环境中，车辆需要预判行人或其他车辆可能采取的多种行驶路径以做出安全决策，而现有方法往往面临训练收敛慢或计算效率低的问题。MTR 通过创新的“全局意图定位”与“局部运动细化”联合优化机制，有效解决了这一难题。\n\n该工具的核心亮点在于摒弃了传统的密集目标候选点策略，转而采用少量可学习的“运动查询对”。每个查询对专门负责一种特定的运动模式，这不仅大幅提升了模型处理多模态预测的稳定性，还显著提高了推理效率。作为基于纯 Transformer 架构的解决方案，MTR 拥有清晰的代码结构，曾在 Waymo 开放数据集运动预测挑战赛中两度夺冠，代表了该领域的顶尖水平。\n\nMTR 非常适合自动驾驶算法研究人员、机器人开发者以及计算机视觉领域的工程师使用。如果你正在探索高精度的轨迹预测方案，或希望复现 NeurIPS 2022 的口头报告论文成果，MTR 提供了一个高效、准确且易于扩展的强力基线，能帮助你快速构建和验证先进的运动预测模型。","# Motion Transformer (MTR): A Strong Baseline for Multimodal Motion Prediction in Autonomous Driving\n\n\n![teaser](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsshaoshuai_MTR_readme_bd26aad555b9.png)\n\n\nThis repository is the official implementation of the NeurIPS 2022 paper (oral presentation) [\"Motion Transformer with Global Intention Localization and Local Movement Refinement\"](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.13508). \n\nAuthors: Shaoshuai Shi, Li Jiang, Dengxin Dai, Bernt Schiele\n\n[[MTR (arXiv)]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.13508) &nbsp;&nbsp;  [[MTR++ (arXiv)]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17770) \n\n## News\n[2023-06] The formal paper of [`MTR++`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17770) is released to [arXiv:2306.17770](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17770), which support multi-agent motion prediction and achieve state-of-the-art performance on Waymo Open Dataset.\n\n[2023-05] [`MTR++`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17770) **won the Championship** of Waymo Open Dataset Motion Prediction Challenge 2023, see the leaderboard [here](https:\u002F\u002Fwaymo.com\u002Fopen\u002Fchallenges\u002F2023\u002Fmotion-prediction\u002F).\n\n[2022-06] [`MTR`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.10033) **won the Championship** of Waymo Open Dataset Motion Prediction Challenge 2022, see the official post [here](https:\u002F\u002Fwaymo.com\u002Fopen\u002Fchallenges\u002F). \n\n\n\n## Abstract\nPredicting multimodal future behavior of traffic participants is essential for robotic vehicles to make safe decisions. Existing works explore to directly predict future trajectories based on latent features or utilize dense goal candidates to identify agent's destinations, where the former strategy converges slowly since all motion modes are derived from the same feature while the latter strategy has efficiency issue since its performance highly relies on the density of goal candidates. In this paper, we propose the [`Motion TRansformer (MTR)`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.13508) framework that models motion prediction as the joint optimization of global intention localization and local movement refinement. Instead of using goal candidates, MTR incorporates spatial intention priors by adopting a small set of learnable motion query pairs. Each motion query pair takes charge of trajectory prediction and refinement for a specific motion mode, which stabilizes the training process and facilitates better multimodal predictions. Experiments show that MTR achieves state-of-the-art performance on both the marginal and joint motion prediction challenges, ranking $1^{st}$ on the leaderbaords of Waymo Open Motion Dataset.\n\n\n## Highlights\n\n### MTR Codebase\n\n- [x] State-of-the-art performance with clear code structure, easy to be extended\n- [x] A very simple context encoder for modeling agent\u002Fmap relations\n- [x] Motion decoder with learnable queries on intention points\n- [x] Loss with Gaussian Mixture Model for multimodal motion prediction\n- [x] Clear data processing and organization on Waymo Open Motion Dataset\n- [x] Local evaluation tool with official Waymo Motion Evaluation API\n\n### Method \n* **Simple**: pure transformer-based context encoder and motion decoder\n* **Efficient**: model multimodal future prediction with a small number of learnable intention queries\n* **Accurate**: rank 1st place at Waymo Motion Prediction leaderboard (last update: Feb 2023)\n\n![teaser](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsshaoshuai_MTR_readme_2fa7814b86fe.png)\n\n\n\n## Getting Started\n\n- [Installation](docs\u002FINSTALL.md)\n\n- [Dataset Preparation](docs\u002FDATASET_PREPARATION.md)\n\n- [Training & Evaluation](docs\u002FTRAIN_EVAL.md)\n\n\n## Main Results\n\n#### Performance on the validation set of Waymo Open Motion Dataset\n|  Model  |  Training Set | minADE | minFDE | Miss Rate | mAP |\n|---------|----------------|--------|--------|--------|--------|\n|[MTR](tools\u002Fcfgs\u002Fwaymo\u002Fmtr+20_percent_data.yaml)      | 20%            | 0.6697 | 1.3712 | 0.1668 | 0.3437 |\n|[MTR](tools\u002Fcfgs\u002Fwaymo\u002Fmtr+100_percent_data.yaml)      | 100%           | 0.6046 | 1.2251 | 0.1366 | 0.4164 |\n|MTR-e2e  | 100%           | 0.5160 | 1.0404 | 0.1234 | 0.3245 |\n\n\n#### Performance on the testing set of Waymo Open Motion Dataset\n|  Model  |  Training Set | minADE | minFDE | Miss Rate | mAP |\n|---------|----------------|--------|--------|--------|--------|\n|[MTR](tools\u002Fcfgs\u002Fwaymo\u002Fmtr+100_percent_data.yaml)      | 100%          | 0.6050 | 1.2207 | 0.1351 | 0.4129 |\n|MTR-A (ens) | 100%           | 0.5640 | 1.1344 | 0.1160 | 0.4492 |\n\n\n\n\n## Citation\nIf you find this work useful in your research, please consider cite:\n```\n@article{shi2022motion,\n  title={Motion transformer with global intention localization and local movement refinement},\n  author={Shi, Shaoshuai and Jiang, Li and Dai, Dengxin and Schiele, Bernt},\n  journal={Advances in Neural Information Processing Systems},\n  year={2022}\n}\n\n@article{shi2023mtr,\n  title={MTR++: Multi-Agent Motion Prediction with Symmetric Scene Modeling and Guided Intention Querying},\n  author={Shi, Shaoshuai and Jiang, Li and Dai, Dengxin and Schiele, Bernt},\n  journal={arXiv preprint arXiv:2306.17770},\n  year={2023}\n}\n\n@article{shi2022mtra,\n  title={MTR-A: 1st Place Solution for 2022 Waymo Open Dataset Challenge--Motion Prediction},\n  author={Shi, Shaoshuai and Jiang, Li and Dai, Dengxin and Schiele, Bernt},\n  journal={arXiv preprint arXiv:2209.10033},\n  year={2022}\n}\n```","# 运动变换器 (MTR)：自动驾驶中多模态运动预测的强大基线\n\n\n![teaser](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsshaoshuai_MTR_readme_bd26aad555b9.png)\n\n\n本仓库是 NeurIPS 2022 论文（口头报告）[\"具有全局意图定位与局部运动精炼的运动变换器\"](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.13508) 的官方实现。\n\n作者：ShaoShuai Shi、Li Jiang、Dengxin Dai、Bernt Schiele\n\n[[MTR (arXiv)]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.13508) &nbsp;&nbsp;  [[MTR++ (arXiv)]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17770) \n\n## 最新消息\n[2023-06] [`MTR++`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17770) 的正式论文已发布至 [arXiv:2306.17770](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17770)，该模型支持多智能体运动预测，并在 Waymo 开放数据集上取得了最先进性能。\n\n[2023-05] [`MTR++`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.17770) **荣获冠军**，赢得了 2023 年 Waymo 开放数据集运动预测挑战赛的冠军，排行榜请见 [此处](https:\u002F\u002Fwaymo.com\u002Fopen\u002Fchallenges\u002F2023\u002Fmotion-prediction\u002F)。\n\n[2022-06] [`MTR`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.10033) **荣获冠军**，赢得了 2022 年 Waymo 开放数据集运动预测挑战赛的冠军，官方公告请见 [此处](https:\u002F\u002Fwaymo.com\u002Fopen\u002Fchallenges\u002F)。\n\n\n\n## 摘要\n预测交通参与者的多模态未来行为对于机器人车辆做出安全决策至关重要。现有方法要么直接基于潜在特征预测未来轨迹，要么利用密集的目标候选点来识别智能体的目的地。前者由于所有运动模式都源自同一特征，收敛速度较慢；后者则因性能高度依赖目标候选点的密度而存在效率问题。本文提出 [`运动变换器 (MTR)`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.13508) 框架，将运动预测建模为全局意图定位与局部运动精炼的联合优化过程。MTR 不使用目标候选点，而是通过采用一组可学习的运动查询对来引入空间意图先验。每对运动查询负责特定运动模式的轨迹预测与精炼，从而稳定训练过程并促进更优的多模态预测。实验表明，MTR 在边缘和联合运动预测挑战中均达到最先进水平，在 Waymo 开放运动数据集的排行榜上位居第一。\n\n\n## 亮点\n\n### MTR 代码库\n\n- [x] 具有清晰代码结构的最先进性能，易于扩展\n- [x] 非常简单的上下文编码器，用于建模智能体与地图的关系\n- [x] 基于意图点的可学习查询的运动解码器\n- [x] 使用高斯混合模型的损失函数，用于多模态运动预测\n- [x] 清晰的 Waymo 开放运动数据集数据处理与组织\n- [x] 包含官方 Waymo 运动评估 API 的本地评估工具\n\n### 方法 \n* **简单**：纯基于 Transformer 的上下文编码器和运动解码器\n* **高效**：仅用少量可学习的意图查询即可建模多模态未来预测\n* **准确**：在 Waymo 运动预测排行榜上排名第一（最后更新：2023年2月）\n\n![teaser](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsshaoshuai_MTR_readme_2fa7814b86fe.png)\n\n\n\n## 快速入门\n\n- [安装](docs\u002FINSTALL.md)\n\n- [数据集准备](docs\u002FDATASET_PREPARATION.md)\n\n- [训练与评估](docs\u002FTRAIN_EVAL.md)\n\n\n## 主要结果\n\n#### 在 Waymo 开放运动数据集验证集上的性能\n|  模型  |  训练集 | minADE | minFDE | 误检率 | mAP |\n|---------|----------------|--------|--------|--------|--------|\n|[MTR](tools\u002Fcfgs\u002Fwaymo\u002Fmtr+20_percent_data.yaml)      | 20%            | 0.6697 | 1.3712 | 0.1668 | 0.3437 |\n|[MTR](tools\u002Fcfgs\u002Fwaymo\u002Fmtr+100_percent_data.yaml)      | 100%           | 0.6046 | 1.2251 | 0.1366 | 0.4164 |\n|MTR-e2e  | 100%           | 0.5160 | 1.0404 | 0.1234 | 0.3245 |\n\n\n#### 在 Waymo 开放运动数据集测试集上的性能\n|  模型  |  训练集 | minADE | minFDE | 误检率 | mAP |\n|---------|----------------|--------|--------|--------|--------|\n|[MTR](tools\u002Fcfgs\u002Fwaymo\u002Fmtr+100_percent_data.yaml)      | 100%          | 0.6050 | 1.2207 | 0.1351 | 0.4129 |\n|MTR-A (集成) | 100%           | 0.5640 | 1.1344 | 0.1160 | 0.4492 |\n\n\n\n\n## 引用\n如果您在研究中发现本工作有所帮助，请考虑引用：\n```\n@article{shi2022motion,\n  title={Motion transformer with global intention localization and local movement refinement},\n  author={Shi, Shaoshuai and Jiang, Li and Dai, Dengxin and Schiele, Bernt},\n  journal={Advances in Neural Information Processing Systems},\n  year={2022}\n}\n\n@article{shi2023mtr,\n  title={MTR++: Multi-Agent Motion Prediction with Symmetric Scene Modeling and Guided Intention Querying},\n  author={Shi, Shaoshuai and Jiang, Li and Dai, Dengxin and Schiele, Bernt},\n  journal={arXiv preprint arXiv:2306.17770},\n  year={2023}\n}\n\n@article{shi2022mtra,\n  title={MTR-A: 1st Place Solution for 2022 Waymo Open Dataset Challenge--Motion Prediction},\n  author={Shi, Shaoshuai and Jiang, Li and Dai, Dengxin and Schiele, Bernt},\n  journal={arXiv preprint arXiv:2209.10033},\n  year={2022}\n}\n```","# MTR (Motion Transformer) 快速上手指南\n\nMTR 是 NeurIPS 2022 提出的自动驾驶多模态运动预测强基线模型，曾在 Waymo 开放数据集挑战赛中夺冠。本指南帮助开发者快速搭建环境并运行模型。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统和依赖要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04\u002F20.04)\n*   **Python**: 3.7 或更高版本\n*   **GPU**: NVIDIA GPU (支持 CUDA)，显存建议 16GB 以上以训练完整模型\n*   **核心依赖**:\n    *   PyTorch >= 1.8\n    *   CUDA Toolkit (需与 PyTorch 版本匹配)\n    *   OpenCV\n    *   NumPy, SciPy, YAML\n\n> **国内加速建议**：安装 Python 依赖时，推荐使用清华或阿里镜像源以提升下载速度。\n> ```bash\n> pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fsshaoshuai\u002FMTR.git\n    cd MTR\n    ```\n\n2.  **创建虚拟环境并安装依赖**\n    ```bash\n    conda create -n mtr python=3.8 -y\n    conda activate mtr\n    \n    # 安装 PyTorch (请根据实际 CUDA 版本调整，此处以 CUDA 11.1 为例)\n    pip install torch==1.9.0+cu111 torchvision==0.10.0+cu111 -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html\n    \n    # 安装其他项目依赖\n    pip install -r requirements.txt\n    ```\n\n3.  **编译扩展模块**\n    MTR 包含自定义的 CUDA 算子，需要编译安装：\n    ```bash\n    python setup.py develop\n    ```\n\n4.  **数据集准备**\n    下载 [Waymo Open Motion Dataset](https:\u002F\u002Fwaymo.com\u002Fopen\u002F)，并按照 `docs\u002FDATASET_PREPARATION.md` 中的说明进行预处理和目录组织。\n    *   将处理后的数据放置在 `data\u002Fwaymo\u002F` 目录下。\n\n## 基本使用\n\n以下命令展示如何加载预配置进行模型评估（假设已准备好验证集数据）。\n\n### 单卡评估示例\n\n使用官方提供的配置文件对验证集进行评估：\n\n```bash\npython test.py --cfg_file tools\u002Fcfgs\u002Fwaymo\u002Fmtr+100_percent_data.yaml --batch_size 1 --eval_all\n```\n\n### 训练示例\n\n启动模型训练（单卡）：\n\n```bash\npython train.py --cfg_file tools\u002Fcfgs\u002Fwaymo\u002Fmtr+100_percent_data.yaml --batch_size 4\n```\n\n### 多卡分布式训练\n\n使用 `torch.distributed.launch` 进行多卡加速训练（例如使用 8 张卡）：\n\n```bash\npython -m torch.distributed.launch --nproc_per_node=8 train.py --cfg_file tools\u002Fcfgs\u002Fwaymo\u002Fmtr+100_percent_data.yaml --batch_size 4 --launcher pytorch\n```\n\n> **注意**：具体的超参数、数据路径配置请查阅 `tools\u002Fcfgs\u002F` 目录下的 `.yaml` 文件。更多详细的高级用法请参考项目根目录下的 `docs\u002FTRAIN_EVAL.md` 文档。","某自动驾驶初创团队正在开发城市复杂路口的决策规划模块，急需提升车辆对周围行人和车辆未来轨迹的预测能力。\n\n### 没有 MTR 时\n- **多模态预测缺失**：传统模型往往只能输出单一确定性轨迹，无法有效覆盖路口行人突然折返或车辆变道等多种潜在行为模式，导致决策保守。\n- **训练收敛缓慢**：基于隐式特征直接预测的方法难以区分不同运动模式，所有模式共享同一特征源，使得模型训练周期长且不稳定。\n- **计算效率低下**：部分方案依赖密集的目标候选点来推断目的地，随着候选点密度增加，推理延迟显著上升，难以满足实时性要求。\n- **长尾场景表现差**：在 Waymo 等公开数据集的复杂交互场景中，漏检率（Miss Rate）较高，极易引发紧急制动或规划失败。\n\n### 使用 MTR 后\n- **精准多模态输出**：MTR 通过可学习的运动查询对，将全局意图定位与局部轨迹细化联合优化，能同时生成多条高置信度的未来轨迹，全面覆盖潜在风险。\n- **训练稳定高效**：特有的查询机制让每个查询对专门负责一种运动模式，解耦了特征学习过程，大幅加速模型收敛并提升了训练稳定性。\n- **轻量实时推理**：摒弃了密集候选点策略，仅用少量可学习意图查询即可建模多模态未来，在保证精度的同时显著降低了计算开销。\n- **业界领先精度**：依托在 Waymo 开放数据集上夺冠的架构，MTR 显著降低了最小平均位移误差（minADE）和漏检率，让车辆在复杂路口博弈中更加拟人化且安全。\n\nMTR 通过将意图识别与轨迹细化深度融合，为自动驾驶系统提供了兼具高精度、多可能性和低延迟的运动预测核心能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsshaoshuai_MTR_bd26aad5.png","sshaoshuai","Shaoshuai Shi","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsshaoshuai_3e07c2a3.jpg","Ph.D. @ MMLab-CUHK ","Max Planck Institute for Informatics","Germany",null,"shishaoshuai.com","https:\u002F\u002Fgithub.com\u002Fsshaoshuai",[86,90,94,98,102],{"name":87,"color":88,"percentage":89},"Python","#3572A5",76.9,{"name":91,"color":92,"percentage":93},"Cuda","#3A4E3A",14.1,{"name":95,"color":96,"percentage":97},"C++","#f34b7d",8.4,{"name":99,"color":100,"percentage":101},"C","#555555",0.4,{"name":103,"color":104,"percentage":105},"Shell","#89e051",0.3,906,162,"2026-04-01T03:19:36","Apache-2.0",4,"未说明","需要 NVIDIA GPU（基于 Waymo 数据集和 Transformer 架构推断），具体型号、显存大小及 CUDA 版本未在提供的文本中说明",{"notes":114,"python":111,"dependencies":115},"README 正文中未包含具体的环境配置细节（如操作系统、Python 版本、依赖库列表等）。安装、数据集准备及训练评估的具体要求需参考文中提到的外部文档链接：docs\u002FINSTALL.md、docs\u002FDATASET_PREPARATION.md 和 docs\u002FTRAIN_EVAL.md。该工具主要用于 Waymo Open Motion Dataset 上的多模态运动预测任务。",[111],[18],"2026-03-27T02:49:30.150509","2026-04-08T05:31:04.321536",[120,125,130,134,139,144],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},23815,"运行训练脚本时出现 torch.distributed.launch 弃用警告或端口连接错误怎么办？","该警告是因为 PyTorch 新版本推荐使用 `torchrun` 替代 `torch.distributed.launch`。如果遇到端口连接失败（如 `nc -z` 检查失败）或进程启动错误（exitcode: 255），请尝试以下方法：\n1. 确保端口未被占用，脚本会自动检测可用端口。\n2. 检查环境变量 `OMP_NUM_THREADS`，默认设为 1 以避免系统过载，可根据性能需求调整。\n3. 如果是多卡训练，确认 `--nproc_per_node` 参数与实际 GPU 数量一致。\n4. 若使用 `torchrun`，请注意它默认设置 `--use-env`，脚本中读取 rank 的方式需改为从 `os.environ['LOCAL_RANK']` 获取。","https:\u002F\u002Fgithub.com\u002Fsshaoshuai\u002FMTR\u002Fissues\u002F22",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},23816,"数据处理过程中报错或无法完成预处理，可能是什么原因？","最常见的原因是下载的数据集版本不正确。请确保您下载的是正确的 Waymo Open Dataset 版本（例如 scenario 1.1）。此外，如果遇到多线程处理中断或文件数量不对（预期训练文件数为 487002），可能是 TensorFlow 或多进程兼容性问题。解决方案包括：\n1. 修改 `mtr\u002Fdatasets\u002Fwaymo\u002Fdata_preprocess.py` 第 225 行，将多进程方式改为线程池：\n```python\nwith futures.ThreadPoolExecutor(num_workers) as executor:\n    data_infos = executor.map(func, src_files)\n    data_infos = list(data_infos)\n```\n2. 如果仍不行，可以禁用多进程，顺序运行 `process_waymo_data_with_scenario_proto` 函数。","https:\u002F\u002Fgithub.com\u002Fsshaoshuai\u002FMTR\u002Fissues\u002F8",{"id":131,"question_zh":132,"answer_zh":133,"source_url":129},23817,"数据预处理时出现 CUDA 显存不足（CUDA_ERROR_OUT_OF_MEMORY）且看不到进度条怎么办？","这通常是由于 TensorFlow 在初始化时尝试分配显存导致的，即使预处理主要依赖 CPU。解决方法是限制 TensorFlow 的显存增长或改用线程池处理。具体操作参考数据处理问题的解决方案：修改 `mtr\u002Fdatasets\u002Fwaymo\u002Fdata_preprocess.py` 中的多进程逻辑为 `ThreadPoolExecutor`，或者单线程顺序运行预处理脚本。虽然单线程运行时间较长，但能避免显存冲突问题。",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},23818,"如何可视化模型预测的轨迹（pred_trajs）？result.pkl 中没有地图信息怎么办？","`result.pkl` 文件仅包含模型输出和元数据，不存储地图信息。要绘制带有地图背景的轨迹，您需要：\n1. 从已处理的数据集（dataloader 中）重新加载地图数据。\n2. 地图数据以折线（polylines）形式存储，可以使用 `plt.plot` 进行绘制。\n3. 将预测轨迹与加载的地图折线在同一坐标系下绘制即可。目前仓库未提供直接的可视化脚本，需参考 dataloader 代码自行编写绘图逻辑。","https:\u002F\u002Fgithub.com\u002Fsshaoshuai\u002FMTR\u002Fissues\u002F43",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},23819,"MTR 代码支持 Argoverse 2 数据集吗？","当前代码主要针对 Waymo 数据集设计，未直接内置 Argoverse 2 的支持。不过，由于 Argoverse 1 和 2 的图结构相似，适配起来相对容易。您可以参考现有的数据加载逻辑，将 Argoverse 2 的数据格式转换为模型所需的图结构。作者建议可以尝试对比 Waymo 和 Argoverse 2，Waymo 数据集更大（>1TB）且包含更详细的 HDMap 信息，可能提供更丰富的训练信号。","https:\u002F\u002Fgithub.com\u002Fsshaoshuai\u002FMTR\u002Fissues\u002F10",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},23820,"GMM Loss 代码中的 log_std 和 rho 是如何计算的？","在 GMM Loss 计算中，根据 `use_square_gmm` 标志位有不同的处理方式：\n1. 如果 `use_square_gmm` 为真，假设高斯分布的两个标准差相等且相关性为 0。此时 `log_std1` 和 `log_std2` 均取自预测值的第 2 维，并裁剪到 `[log_std_range[0], log_std_range[1]]` 范围（对应 0.2m 到 150m），`rho` 设为 0。\n2. 如果为假，则分别取第 2 维和第 3 维作为 `log_std1` 和 `log_std2`，取第 4 维作为相关系数 `rho`（裁剪到 `[-rho_limit, rho_limit]`）。\n最终通过公式 `-log(a^-1 * e^b) = log(a) - b` 计算回归损失系数。","https:\u002F\u002Fgithub.com\u002Fsshaoshuai\u002FMTR\u002Fissues\u002F28",[]]