[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Henry1iu--TNT-Trajectory-Prediction":3,"tool-Henry1iu--TNT-Trajectory-Prediction":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75569,"2026-04-14T10:38:48",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":82,"owner_email":83,"owner_twitter":84,"owner_website":85,"owner_url":86,"languages":87,"stars":96,"forks":97,"last_commit_at":98,"license":84,"difficulty_score":99,"env_os":100,"env_gpu":101,"env_ram":102,"env_deps":103,"category_tags":117,"github_topics":84,"view_count":10,"oss_zip_url":84,"oss_zip_packed_at":84,"status":22,"created_at":118,"updated_at":119,"faqs":120,"releases":149},7413,"Henry1iu\u002FTNT-Trajectory-Prediction","TNT-Trajectory-Prediction","A Unofficial Pytorch Implementation of TNT: Target-driveN Trajectory Prediction","TNT-Trajectory-Prediction 是一个基于 PyTorch 开发的开源项目，旨在复现并优化\"Target-driveN Trajectory Prediction\"（TNT）及 VectorNet 算法。它主要解决自动驾驶领域中复杂的轨迹预测难题，即如何根据车辆历史状态和高精地图信息，准确推断其未来的行驶路径。\n\n该工具的核心亮点在于采用了“目标驱动”的三阶段预测机制：首先预测潜在的目标终点，再规划到达该终点的具体轨迹，最后评估各轨迹的可能性。这种分步策略显著提升了长时域运动预测的准确性。项目在 Argoverse 等权威数据集上进行了验证，部分指标表现优异，甚至超越了原始论文报告的基线水平，为学术界提供了可靠的复现参考。\n\n需要注意的是，当前版本在训练时对内存要求较高（建议 128GB 以上），适合拥有高性能计算资源的环境。TNT-Trajectory-Prediction 非常适合自动驾驶算法研究人员、计算机视觉开发者以及相关领域的学生使用。通过提供预训练权重和详细的数据准备指南，它帮助用户快速搭建实验环境，深入探索基于矢量化表示的运动预测技术，推动自动驾驶感知","TNT-Trajectory-Prediction 是一个基于 PyTorch 开发的开源项目，旨在复现并优化\"Target-driveN Trajectory Prediction\"（TNT）及 VectorNet 算法。它主要解决自动驾驶领域中复杂的轨迹预测难题，即如何根据车辆历史状态和高精地图信息，准确推断其未来的行驶路径。\n\n该工具的核心亮点在于采用了“目标驱动”的三阶段预测机制：首先预测潜在的目标终点，再规划到达该终点的具体轨迹，最后评估各轨迹的可能性。这种分步策略显著提升了长时域运动预测的准确性。项目在 Argoverse 等权威数据集上进行了验证，部分指标表现优异，甚至超越了原始论文报告的基线水平，为学术界提供了可靠的复现参考。\n\n需要注意的是，当前版本在训练时对内存要求较高（建议 128GB 以上），适合拥有高性能计算资源的环境。TNT-Trajectory-Prediction 非常适合自动驾驶算法研究人员、计算机视觉开发者以及相关领域的学生使用。通过提供预训练权重和详细的数据准备指南，它帮助用户快速搭建实验环境，深入探索基于矢量化表示的运动预测技术，推动自动驾驶感知系统的研发进程。","[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Ftnt-target-driven-trajectory-prediction\u002Ftrajectory-prediction-on-interaction-dataset-2)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Ftrajectory-prediction-on-interaction-dataset-2?p=tnt-target-driven-trajectory-prediction)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Ftnt-target-driven-trajectory-prediction\u002Fmotion-forecasting-on-argoverse-cvpr-2020)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fmotion-forecasting-on-argoverse-cvpr-2020?p=tnt-target-driven-trajectory-prediction)\n\n# TNT-Trajectory-Predition\n\nA Python and Pytorch implementation of \n[TNT: Target-driveN Trajectory Prediction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2008.08294#:~:text=TNT%20has%20three%20stages%20which,state%20sequences%20conditioned%20on%20targets.)\nand\n[VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized Representation](https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.04259).\n\n> **ATTENTION**: Currently, the training consumes a large memory (128G+) since an in-memory data loader is implemented. We'll provide a new dataloader that loading only training batches from disk for each step in the coming future.\n\n\n### Achieved Best Performance\nThe best performance achieved by our implementation and reported in the papers on the evaluation dataset. \n\n| Algorithm | minADE(K=1) | minFDE(K=1) | MR(2.0m) | minADE(K=6) | minFDE(K=6) | MR(2.0m) |\n| :-------: |:-----------:|:-----------:|:--------:|:-----------:|:-----------:|:--------:|\n| VectorNet (Original) |    1.66     |    3.67     |    -     |      -      |      -      |    -     |\n| VectorNet (**Ours**) |    1.46     |    3.15     |  0.548   |      -      |      -      |    -     |\n|  TNT(Original)   |      -      |      -      |    -     |    0.728    |    1.292    |  0.093   |\n|  TNT(**Ours**)   |      -      |      -      |    -     |    0.928    |    1.686    |  0.195   |\n\nThe best performance achieved by our implementation and reported in the papers on the test dataset on \n[Argoverse Leaderboard](https:\u002F\u002Feval.ai\u002Fweb\u002Fchallenges\u002Fchallenge-page\u002F454\u002Fleaderboard).\n\n|    Algorithm     |  minADE(K=6)  | minFDE(K=6)  | MR(2.0m)  |\n|:----------------:|:-------------:|:------------:|:---------:|\n| \tTNT - CoRL20    |    0.9097     |    1.4457    |  0.1656   |\n|  \tCUHK RPAI (TNT_20220819)   |    1.1518     |    2.1322    |  0.2585   |\n\n\n* [VectorNet Pre-trained Weights](https:\u002F\u002Fmycuhk-my.sharepoint.com\u002F:u:\u002Fg\u002Fpersonal\u002F1155071948_link_cuhk_edu_hk\u002FEe7FZXGwXB9Mh7O7wSHjAlUBH5uB1fP9LEXPP8TS1lSFTQ?e=ajPXMo)\n* [TNT Pre-trained Weights](https:\u002F\u002Fmycuhk-my.sharepoint.com\u002F:u:\u002Fg\u002Fpersonal\u002F1155071948_link_cuhk_edu_hk\u002FEfgqFbzKKJlJle7E-y-DVCkBVQQQH09CUwTDN5GfjtYAOg?e=mUINGD)\n\n## Setup\n\n### Prerequisite\nThis implementation has been tested on Ubuntu 18.04 and has the following requirements:\n* python == 3.8.8\n* pytorch == 1.8.1\n* torch-geometric == 1.7.2 (The version of related libraries are listed as follows.)\n  * pytorch-cluster == 1.5.9          \n  * pytorch-geometric == 1.7.2           \n  * pytorch-scatter == 2.0.7           \n  * pytorch-sparse == 0.6.10         \n  * pytorch-spline-conv == 1.2.1\n* pandas == 1.4.4\n* tqdm == 4.60.0\n* tensorboard\n* (Optianl) [nvidia-apex](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fapex) == 1.0\n\n* [Argoverse-api](https:\u002F\u002Fgithub.com\u002Fargoai\u002Fargoverse-api)\n\nYou can also install the dependencies using pip.\n```\npip install -r requirements.txt\n```\n\n### Data Preparation\nPlease download the [Argoverse Motion Forecasting v1.1](https:\u002F\u002Fwww.argoverse.org\u002Fav1.html#forecasting-link) and extract \nthe compressed data to the \"raw_datas\" folder as stored in the following directory structure:\n```latex\n├── TNT-Trajectory-Prediction\n│   ├── dataset\n│   │   ├── raw_data\n│   │   │   ├── train\n│   │   │   │   ├── *.csv\n│   │   │   ├── val\n│   │   │   │   ├── *.csv\n│   │   │   ├── test_obs\n│   │   │   │   ├── *.csv\n│   │   ├── interm_data\n```\nThen, direct to the root directory of this code implementation in terminal (``\u002Fpath_you_place_this_folder\u002FTNT-Trajectory-Prediction``) and run the command:\n```\n.\u002Fscripts\u002Fpreprocessing.sh\n```\nIf you store the raw data at a different location, you can change relative path in the bash script with your path. \n\n> **ATTENTION**: If you aren't familiar with the bash script and path routing, just follow the directory structure.\n\n> **Reminding**: Change the mode of the bash file with \"chmod +x scripts\u002Fpreprocessing.sh\" before running the script for the first time.\n\nAn example of the processed dataset(small) is available \n[here](https:\u002F\u002Fmycuhk-my.sharepoint.com\u002F:u:\u002Fg\u002Fpersonal\u002F1155071948_link_cuhk_edu_hk\u002FEWv6Dec3yqhPkZLgdw9eEt0Bso2K-ef1-7UOzklwc4NDPQ?e=2TIBGX).\nDownload it to check if your environment is configured appropriately. \n\n## Usage\n\n### Training\n1. To train the VectorNet model using NVIDIA GPU and CUDA:\n    ```\n    python train_vectornet.py --data_root dataset\u002Finterm_data --output_dir run\u002Ftnt\u002F \\\n                              --aux_loss --batch_size 64 --with_cuda --cuda_device 0 \\\n                              --lr 0.0010 --warmup_epoch 30 --lr_update_freq 10 --lr_decay_rate 0.1\n    ```\n    or run the bash script: ``.\u002Fscripts\u002Ftrain_vectornet.sh``.\n    > **Reminding**: Change the mode of the bash file with \"chmod +x scripts\u002Ftrain_vectornet.sh\" before running the script for the first time.\n\n2. To train the TNT model using NVIDIA GPU and CUDA:\n    ```\n    python train_tnt.py --data_root dataset\u002Finterm_data --output_dir run\u002Ftnt\u002F \\\n                        --aux_loss --batch_size 64 --with_cuda --cuda_device 0 \\\n                        --lr 0.0010 --warmup_epoch 30 --lr_update_freq 10 --lr_decay_rate 0.1\n    ```\n    or run the bash script: ``.\u002Fscripts\u002Ftrain_tnt.sh``. \n    > **Reminding**: Change the mode of the bash file with \"chmod +x scripts\u002Ftrain_vectornet.sh\" before running the script for the first time.\n\n3. For more configuretion, please refer to the parsers in ``train_tnt.py`` and ``train_vectornet.py``.\n\n4. For users with multiple GPUs, this implementation uses NVIDIA Apex library to enable the distributed parallel training. To enable the multi-gpu training:\n   ```\n   python -m torch.distributed.launch --nproc_per_node=2 train_tnt.py ...\n   ```\n   or enable corresponding command in the bash scripts for training. \n### Inference\n\nA python script named \"test_tnt.py\" is provided for the inference of TNT model. \nIt can make prediction on the test set and generate .h5 files required by the Argoverse benchmark. \nYou need to specify the file path to your trained model file or checkpoint.\nSince the model are trained in the relative coordinate, a coordinate conversion has been enabled to recover the \nworld coordinates of the predicted trajectories.\n\n> **Reminding**: Specify either the file path to the checkpoint or the trained model. \n> Also, specify the path to your dataset if you are using a different directory structure.\n\nThe prediction result can be genearted withe command:\n```\npython test_tnt.py -rm Path_to_Your_Model_File\n```\n\n## Others\n\n**TBD**\n\n### TODO\n1. Data-Related:\n- [x] Preprocessing of test set;\n\n2. Model-Related:\n- [ ] Create a base class for models;\n\n3. Training-Related:\n- [x] Enable multi-gpu training; (Using Nvidia APEX library, will be merged to main branch later...)\n- [ ] Enable loading data from the hard disk. \n\n4. Inference-Related:\n- [x] Provide the inference function to visualize the input sequences and corresponding results.\n\n### Citing\n\n\nif you've found this code to be useful, please consider citing our paper!\n```\nLiu, J., Mao, X., Fang, Y., Zhu, D., & Meng, M. Q. H. (2021). A Survey on Deep-Learning Approaches for Vehicle Trajectory Prediction in Autonomous Driving. arXiv preprint arXiv:2110.10436.\n\n```\n\n### Questions\n\nThis repo is maintained by [Jianbang Liu](henryliu@link.cuhk.edu.hk) and [Xinyu Mao](maoxinyu@link.cuhk.edu.hk) - please feel free to reach out or open an issue if you have additional questions\u002Fconcerns.\n","[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Ftnt-target-driven-trajectory-prediction\u002Ftrajectory-prediction-on-interaction-dataset-2)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Ftrajectory-prediction-on-interaction-dataset-2?p=tnt-target-driven-trajectory-prediction)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Ftnt-target-driven-trajectory-prediction\u002Fmotion-forecasting-on-argoverse-cvpr-2020)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fmotion-forecasting-on-argoverse-cvpr-2020?p=tnt-target-driven-trajectory-prediction)\n\n# TNT-轨迹-прогнозирование\n\nРеализация на Python и PyTorch алгоритмов\n[TNT: Target-driveN Trajectory Prediction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2008.08294#:~:text=TNT%20has%20three%20stages%20which,state%20sequences%20conditioned%20on%20targets.)\nи\n[VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized Representation](https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.04259).\n\n> **ВНИМАНИЕ**: В настоящее время обучение требует большого объема памяти (128 ГБ+), так как используется загрузчик данных, хранящий все данные в оперативной памяти. В ближайшем будущем мы предоставим новый загрузчик данных, который будет загружать только обучающие партии с диска для каждого шага.\n\n### Достигнутые лучшие результаты\nЛучшие результаты, достигнутые нашей реализацией и представленные в статьях на тестовом наборе данных.\n\n| Алгоритм | minADE(K=1) | minFDE(K=1) | MR(2.0m) | minADE(K=6) | minFDE(K=6) | MR(2.0m) |\n| :-------: |:-----------:|:-----------:|:--------:|:-----------:|:-----------:|:--------:|\n| VectorNet (Оригинал) |    1.66     |    3.67     |    -     |      -      |      -      |    -     |\n| VectorNet (**Наша реализация**) |    1.46     |    3.15     |  0.548   |      -      |      -      |    -     |\n|  TNT (Оригинал)   |      -      |      -      |    -     |    0.728    |    1.292    |  0.093   |\n|  TNT (**Наша реализация**)   |      -      |      -      |    -     |    0.928    |    1.686    |  0.195   |\n\nЛучшие результаты, достигнутые нашей реализацией и представленные в статьях на тестовом наборе данных на \n[Argoverse Leaderboard](https:\u002F\u002Feval.ai\u002Fweb\u002Fchallenges\u002Fchallenge-page\u002F454\u002Fleaderboard).\n\n|    Алгоритм     |  minADE(K=6)  | minFDE(K=6)  | MR(2.0m)  |\n|:----------------:|:-------------:|:------------:|:---------:|\n| \tTNT - CoRL20    |    0.9097     |    1.4457    |  0.1656   |\n|  \tCUHK RPAI (TNT_20220819)   |    1.1518     |    2.1322    |  0.2585   |\n\n\n* [Предобученные весы VectorNet](https:\u002F\u002Fmycuhk-my.sharepoint.com\u002F:u:\u002Fg\u002Fpersonal\u002F1155071948_link_cuhk_edu_hk\u002FEe7FZXGwXB9Mh7O7wSHjAlUBH5uB1fP9LEXPP8TS1lSFTQ?e=ajPXMo)\n* [Предобученные весы TNT](https:\u002F\u002Fmycuhk-my.sharepoint.com\u002F:u:\u002Fg\u002Fpersonal\u002F1155071948_link_cuhk_edu_hk\u002FEfgqFbzKKJlJle7E-y-DVCkBVQQQH09CUwTDN5GfjtYAOg?e=mUINGD)\n\n## Настройка\n\n### Необходимые условия\nДанная реализация была протестирована на Ubuntu 18.04 и имеет следующие требования:\n* python == 3.8.8\n* pytorch == 1.8.1\n* torch-geometric == 1.7.2 (Список связанных библиотек приведен ниже.)\n  * pytorch-cluster == 1.5.9          \n  * pytorch-geometric == 1.7.2           \n  * pytorch-scatter == 2.0.7           \n  * pytorch-sparse == 0.6.10         \n  * pytorch-spline-conv == 1.2.1\n* pandas == 1.4.4\n* tqdm == 4.60.0\n* tensorboard\n* (Опционально) [nvidia-apex](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fapex) == 1.0\n\n* [Argoverse-api](https:\u002F\u002Fgithub.com\u002Fargoai\u002Fargoverse-api)\n\nВы также можете установить зависимости с помощью pip.\n```\npip install -r requirements.txt\n```\n\n### Подготовка данных\nПожалуйста, скачайте [Argoverse Motion Forecasting v1.1](https:\u002F\u002Fwww.argoverse.org\u002Fav1.html#forecasting-link) и извлеките\nсжатые данные в папку \"raw_datas\" согласно следующей структуре каталогов:\n```latex\n├── TNT-Trajectory-Prediction\n│   ├── dataset\n│   │   ├── raw_data\n│   │   │   ├── train\n│   │   │   │   ├── *.csv\n│   │   │   ├── val\n│   │   │   │   ├── *.csv\n│   │   │   ├── test_obs\n│   │   │   │   ├── *.csv\n│   │   ├── interm_data\n```\nЗатем перейдите в корневую директорию этого проекта в терминале (``\u002Fpath_you_place_this_folder\u002FTNT-Trajectory-Prediction``) и выполните команду:\n```\n.\u002Fscripts\u002Fpreprocessing.sh\n```\nЕсли вы храните исходные данные в другом месте, вы можете изменить относительный путь в bash-скрипте на ваш путь.\n\n> **ВНИМАНИЕ**: Если вы не знакомы с bash-скриптами и путями, просто следуйте указанной структуре каталогов.\n\n> **Напоминание**: Перед первым запуском скрипта измените права доступа к файлу с помощью команды \"chmod +x scripts\u002Fpreprocessing.sh\".\n\nПример обработанного небольшого набора данных доступен\n[здесь](https:\u002F\u002Fmycuhk-my.sharepoint.com\u002F:u:\u002Fg\u002Fpersonal\u002F1155071948_link_cuhk_edu_hk\u002FEWv6Dec3yqhPkZLgdw9eEt0Bso2K-ef1-7UOzklwc4NDPQ?e=2TIBGX).\nСкачайте его, чтобы проверить, правильно ли настроена ваша среда.\n\n## Использование\n\n### Обучение\n1. Для обучения модели VectorNet с использованием NVIDIA GPU и CUDA:\n    ```\n    python train_vectornet.py --data_root dataset\u002Finterm_data --output_dir run\u002Ftnt\u002F \\\n                              --aux_loss --batch_size 64 --with_cuda --cuda_device 0 \\\n                              --lr 0.0010 --warmup_epoch 30 --lr_update_freq 10 --lr_decay_rate 0.1\n    ```\n    или запустите bash-скрипт: ``.\u002Fscripts\u002Ftrain_vectornet.sh``.\n    > **Напоминание**: Перед первым запуском скрипта измените права доступа к файлу с помощью команды \"chmod +x scripts\u002Ftrain_vectornet.sh\".\n\n2. Для обучения модели TNT с использованием NVIDIA GPU и CUDA:\n    ```\n    python train_tnt.py --data_root dataset\u002Finterm_data --output_dir run\u002Ftnt\u002F \\\n                        --aux_loss --batch_size 64 --with_cuda --cuda_device 0 \\\n                        --lr 0.0010 --warmup_epoch 30 --lr_update_freq 10 --lr_decay_rate 0.1\n    ```\n    или запустите bash-скрипт: ``.\u002Fscripts\u002Ftrain_tnt.sh``. \n    > **Напоминание**: Перед первым запуском скрипта измените права доступа к файлу с помощью команды \"chmod +x scripts\u002Ftrain_vectornet.sh\".\n\n3. Для более подробных настроек, пожалуйста, обратитесь к парсерам в файлах ``train_tnt.py`` и ``train_vectornet.py``.\n\n4. Для пользователей с несколькими GPU данная реализация использует библиотеку NVIDIA Apex для распределенного параллельного обучения. Чтобы включить многопроцессорное обучение:\n   ```\n   python -m torch.distributed.launch --nproc_per_node=2 train_tnt.py ...\n   ```\n   или активируйте соответствующую команду в bash-скриптах для обучения. \n### Инференс\n\nДля инференса модели TNT предоставляется скрипт \"test_tnt.py\". \nОн может делать предсказания на тестовом наборе данных и генерировать .h5-файлы, необходимые для оценки Argoverse. \nВам необходимо указать путь к вашей обученной модели или чекпоинту. \nПоскольку модель обучена в относительной системе координат, предусмотрен механизм преобразования координат, чтобы восстановить \nмировые координаты предсказанных траекторий.\n\n> **Напоминание**: Укажите либо путь к чекпоинту, либо к обученной модели. \n> Также укажите путь к вашему набору данных, если вы используете другую структуру каталогов.\n\nРезультат предсказания можно получить с помощью команды:\n```\npython test_tnt.py -rm Path_to_Your_Model_File\n```\n\n## Разное\n\n**ТБД**\n\n### 待办事项\n1. 数据相关：\n- [x] 测试集预处理；\n\n2. 模型相关：\n- [ ] 创建模型基类；\n\n3. 训练相关：\n- [x] 启用多GPU训练；（使用Nvidia APEX库，后续将合并到主分支...）\n- [ ] 启用从硬盘加载数据的功能。\n\n4. 推理相关：\n- [x] 提供推理函数，用于可视化输入序列及对应结果。\n\n### 引用\n如果您觉得这段代码有用，请考虑引用我们的论文：\n```\nLiu, J., Mao, X., Fang, Y., Zhu, D., & Meng, M. Q. H. (2021). 自动驾驶中基于深度学习的车辆轨迹预测方法综述. arXiv预印本 arXiv:2110.10436.\n```\n\n### 问题\n本仓库由[刘建邦](henryliu@link.cuhk.edu.hk)和[毛新宇](maoxinyu@link.cuhk.edu.hk)维护。如有任何疑问或建议，欢迎随时联系或提交Issue。","# TNT-Trajectory-Prediction 快速上手指南\n\n本指南基于 `TNT-Trajectory-Prediction` 开源项目，帮助开发者快速在本地搭建并运行目标驱动轨迹预测（Target-driven Trajectory Prediction）模型。\n\n## 1. 环境准备\n\n### 系统要求\n*   **操作系统**: Ubuntu 18.04 (已在该版本测试通过)\n*   **硬件**: NVIDIA GPU (支持 CUDA)\n*   **内存警告**: 当前版本使用内存数据加载器，训练时消耗较大内存（建议 **128GB+**）。未来版本将优化为磁盘分批加载。\n\n### 前置依赖\n请确保安装以下核心组件及对应版本：\n*   Python == 3.8.8\n*   PyTorch == 1.8.1\n*   Torch-Geometric == 1.7.2 及其相关库 (cluster, scatter, sparse, spline-conv)\n*   Pandas, tqdm, tensorboard\n*   (可选) NVIDIA Apex == 1.0 (用于多卡分布式训练)\n*   Argoverse-api\n\n> **提示**: 国内用户建议使用清华或阿里镜像源加速 pip 安装。\n\n## 2. 安装步骤\n\n### 2.1 安装 Python 依赖\n克隆项目后，进入根目录，使用 pip 安装所需包（推荐添加国内镜像源）：\n\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n若需手动安装 `torch-geometric` 相关特定版本，请参考原文列出的具体版本号进行安装。\n\n### 2.2 数据准备\n1. 下载 [Argoverse Motion Forecasting v1.1](https:\u002F\u002Fwww.argoverse.org\u002Fav1.html#forecasting-link) 数据集。\n2. 将解压后的数据按照以下目录结构放置于 `dataset\u002Fraw_data` 文件夹中：\n\n```text\n├── TNT-Trajectory-Prediction\n│   ├── dataset\n│   │   ├── raw_data\n│   │   │   ├── train\n│   │   │   │   ├── *.csv\n│   │   │   ├── val\n│   │   │   │   ├── *.csv\n│   │   │   ├── test_obs\n│   │   │   │   ├── *.csv\n│   │   ├── interm_data\n```\n\n3. 赋予预处理脚本执行权限并运行预处理命令：\n\n```bash\nchmod +x scripts\u002Fpreprocessing.sh\n.\u002Fscripts\u002Fpreprocessing.sh\n```\n\n*注：若数据存放路径不同，请修改 `scripts\u002Fpreprocessing.sh` 中的相对路径。*\n\n## 3. 基本使用\n\n### 3.1 训练模型\n\n#### 训练 VectorNet 模型\n使用单卡 GPU 训练：\n```bash\npython train_vectornet.py --data_root dataset\u002Finterm_data --output_dir run\u002Ftnt\u002F \\\n                          --aux_loss --batch_size 64 --with_cuda --cuda_device 0 \\\n                          --lr 0.0010 --warmup_epoch 30 --lr_update_freq 10 --lr_decay_rate 0.1\n```\n或者直接运行脚本：\n```bash\nchmod +x scripts\u002Ftrain_vectornet.sh\n.\u002Fscripts\u002Ftrain_vectornet.sh\n```\n\n#### 训练 TNT 模型\n使用单卡 GPU 训练：\n```bash\npython train_tnt.py --data_root dataset\u002Finterm_data --output_dir run\u002Ftnt\u002F \\\n                    --aux_loss --batch_size 64 --with_cuda --cuda_device 0 \\\n                    --lr 0.0010 --warmup_epoch 30 --lr_update_freq 10 --lr_decay_rate 0.1\n```\n或者直接运行脚本：\n```bash\nchmod +x scripts\u002Ftrain_tnt.sh\n.\u002Fscripts\u002Ftrain_tnt.sh\n```\n\n> **多卡训练**: 若拥有多张 GPU，可使用 `torch.distributed.launch` 启动分布式训练（需安装 NVIDIA Apex）：\n> ```bash\n> python -m torch.distributed.launch --nproc_per_node=2 train_tnt.py ...\n> ```\n\n### 3.2 模型推理 (Inference)\n\n使用训练好的模型对测试集进行预测，并生成符合 Argoverse 基准要求的 `.h5` 文件。脚本会自动处理坐标转换（从相对坐标恢复为世界坐标）。\n\n请将 `Path_to_Your_Model_File` 替换为你的模型权重文件路径：\n\n```bash\npython test_tnt.py -rm Path_to_Your_Model_File\n```\n\n*注：如果数据集目录结构与默认不同，请在命令中指定相应的数据路径参数。*","某自动驾驶初创公司的感知算法团队正在基于 Argoverse 数据集开发城市道路预测模块，旨在提升车辆对周围动态障碍物未来轨迹的判断能力。\n\n### 没有 TNT-Trajectory-Prediction 时\n- **预测意图模糊**：传统模型仅依赖历史运动状态进行外推，难以识别车辆变道或转弯等特定目标意图，导致在复杂路口预测轨迹偏离实际路径。\n- **长时预测误差大**：随着预测时间步长增加，累积误差迅速放大，minFDE（最终位移误差）指标居高不下，系统无法准确判断 3 秒后车辆的确切位置。\n- **多模态覆盖不足**：面对具有多种可能行驶路径的场景（如岔路口），模型输出的单一轨迹缺乏多样性，Miss Rate（漏检率）较高，存在严重的安全隐患。\n- **地图信息利用低效**：难以将高精地图的车道拓扑结构与代理动力学特征有效融合，导致预测结果有时违反交通规则（如预测车辆穿越隔离带）。\n\n### 使用 TNT-Trajectory-Prediction 后\n- **目标驱动精准定位**：利用 TNT 的目标驱动机制，先预测潜在终点再生成轨迹，显著提升了模型对变道、转向等意图的理解，轨迹贴合度大幅提高。\n- **长时精度显著优化**：借助 VectorNet 对矢量化高精地图的编码能力，有效约束了长时预测的发散问题，minFDE 指标从基准线的 3.67 米降至 3.15 米甚至更低。\n- **多模态分布更真实**：通过生成多样化的候选轨迹集（K=6），覆盖了行人或车辆可能的多种去向，将 2 米范围内的漏检率（MR）控制在极低水平。\n- **规则约束自然融入**：模型天然融合了车道中心线与交通约束，生成的轨迹序列严格遵循道路拓扑结构，彻底消除了“穿墙”或违规变道等不合理预测。\n\nTNT-Trajectory-Prediction 通过引入目标驱动机制与矢量化地图编码，从根本上解决了复杂场景下长时轨迹预测不准与多模态缺失的难题，为自动驾驶规划决策提供了高可靠性的感知输入。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHenry1iu_TNT-Trajectory-Prediction_986b21a4.png","Henry1iu","LIU Jianbang","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FHenry1iu_82dc9083.jpg","PhD Graduate @ Robotics, Perception & AI Lab, CUHK","The Chinese University of Hong Kong","HONG KONG","henryliu@link.cuhk.edu.hk",null,"henry1iu.github.io\u002Fhomepage\u002F","https:\u002F\u002Fgithub.com\u002FHenry1iu",[88,92],{"name":89,"color":90,"percentage":91},"Python","#3572A5",99.2,{"name":93,"color":94,"percentage":95},"Shell","#89e051",0.8,589,107,"2026-04-13T12:18:19",4,"Linux (Ubuntu 18.04)","必需 NVIDIA GPU，支持 CUDA（具体版本未说明，需配合 PyTorch 1.8.1），支持多卡分布式训练（需安装 nvidia-apex）","推荐 128GB+（训练时因使用内存数据加载器消耗巨大）",{"notes":104,"python":105,"dependencies":106},"1. 当前版本训练极其消耗内存（128GB+），因为实现了全量内存数据加载，未来计划更新为按需从磁盘加载。2. 可选安装 nvidia-apex (版本 1.0) 以启用多 GPU 分布式训练。3. 首次运行预处理脚本前需赋予执行权限 (chmod +x)。4. 需下载 Argoverse Motion Forecasting v1.1 数据集并按特定目录结构存放。","3.8.8",[107,108,109,110,111,112,113,114,115,116],"pytorch==1.8.1","torch-geometric==1.7.2","pytorch-cluster==1.5.9","pytorch-scatter==2.0.7","pytorch-sparse==0.6.10","pytorch-spline-conv==1.2.1","pandas==1.4.4","tqdm==4.60.0","tensorboard","argoverse-api",[18],"2026-03-27T02:49:30.150509","2026-04-14T20:50:59.115294",[121,126,131,136,141,145],{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},33254,"提交 .h5 文件到 EvalAI 时出现 KeyError 错误怎么办？","这通常是因为数据预处理（preprocessing）或 DataLoader 配置不完整导致的。请检查以下几点：\n1. 确认 `interm_data\u002Ftest_intermediate` 文件夹下是否生成了正确的 `.pt` 文件，如果只有一个 `data.pt` 可能说明预处理未完成。\n2. 修改代码以仅处理 \"test\" 分割集：在遍历 split 的代码中，删除 \"train\" 和 \"val\"，只保留 \"test\"。\n3. 修改 DataLoader 部分：参考 `core\u002Fdataloader\u002Fargoverse_loader_v2.py` 第 389 行附近的代码，确保只生成 test set 的数据加载逻辑。","https:\u002F\u002Fgithub.com\u002FHenry1iu\u002FTNT-Trajectory-Prediction\u002Fissues\u002F30",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},33255,"运行训练脚本时报错 'ValueError: zero-size array to reduction operation maximum' 是什么原因？","这个错误通常意味着数据预处理（preprocessing）没有正确完成，导致生成的数据集为空或格式不正确。\n解决方案：\n1. 对比作者提供的示例小数据集与你本地生成的数据集结构，检查 `raw` 和 `processed` 文件夹中的文件数量和类型是否一致。\n2. 如果问题依旧，可能是 `torch_geometric` 的版本或配置有问题。建议下载作者分享的可用小数据集进行测试，若小数据集能正常运行，则确认为本地预处理流程或环境问题。","https:\u002F\u002Fgithub.com\u002FHenry1iu\u002FTNT-Trajectory-Prediction\u002Fissues\u002F26",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},33256,"运行 train_vectornet.sh 时出现 'IndexError: list index out of range' 错误如何解决？","该错误通常由 `torch_geometric` 版本不兼容或预处理未完成引起。\n具体解决步骤：\n1. 检查 `torch_geometric` 版本：必须使用版本 1.7.2，较高版本（如 2.04）会导致此问题。\n2. 验证预处理结果：如果 `raw` 文件夹下只有 3 个 `.pkl` 文件且 `processed` 文件夹为空，说明预处理未完成。正确的状态应该是 `raw` 文件夹中有大量文件，`processed` 文件夹中有 3 个文件。\n3. 推荐的环境配置参考（CUDA 10.2）：\n   - pytorch-cluster 1.5.9\n   - pytorch-geometric 1.7.2\n   - pytorch-scatter 2.0.7\n   - pytorch-sparse 0.6.10\n   - pytorch-spline-conv 1.2.1","https:\u002F\u002Fgithub.com\u002FHenry1iu\u002FTNT-Trajectory-Prediction\u002Fissues\u002F9",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},33257,"加载数据时出现 'RuntimeError: file not found: archive\u002Fdata\u002F...' 错误怎么办？","这个问题通常不是由 CUDA 版本（如 11.1）直接引起的，而是 `torch_geometric` 及其依赖库的版本不匹配导致的序列化\u002F反序列化失败。\n解决方法：\n1. 检查并重新安装与当前 PyTorch 和 CUDA 版本严格匹配的 `torch_geometric` 及其相关插件（scatter, sparse, cluster 等）。\n2. 尝试重新运行数据预处理脚本，确保生成的 `.pt` 文件完整且未损坏。\n3. 如果使用的是自动下载的数据集，尝试手动清理缓存后重新下载。","https:\u002F\u002Fgithub.com\u002FHenry1iu\u002FTNT-Trajectory-Prediction\u002Fissues\u002F20",{"id":142,"question_zh":143,"answer_zh":144,"source_url":125},33258,"运行预处理或训练时遇到内存溢出（OOM）怎么办？","如果可用内存不足（例如只有 46G），可能会导致进程崩溃。\n建议方案：\n1. 增加 Swap 空间：通过配置 Swap 分区来扩大可用虚拟内存。\n2. 目标总量：建议将物理内存（Memory）与 Swap 空间的总和提升至至少 64GB，以确保数据处理过程顺利进行。",{"id":146,"question_zh":147,"answer_zh":148,"source_url":130},33259,"如何确认数据预处理（preprocessing）已经成功完成？","可以通过检查输出目录的文件结构和数量来确认：\n1. 观察进度条：所有进度条应显示 100%。\n2. 检查文件夹内容：\n   - `raw` 文件夹：应该包含大量的数据文件（如果是 Argoverse 数据集，不应只有几个 .pkl 文件）。\n   - `processed` 文件夹：应该包含 3 个处理好的数据文件。\n3. 如果 `raw` 文件夹下仅有 3 个 `.pkl` 文件且 `processed` 为空，说明预处理脚本报错或未执行完毕，需要重新运行 `scripts\u002Fpreprocess.sh` 并排查报错信息。",[]]