[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-researchmm--Stark":3,"tool-researchmm--Stark":65},[4,17,27,35,48,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150720,2,"2026-04-11T11:33:10",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":54,"last_commit_at":55,"category_tags":56,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,43,46],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":54,"last_commit_at":63,"category_tags":64,"status":16},6590,"gpt4all","nomic-ai\u002Fgpt4all","GPT4All 是一款让普通电脑也能轻松运行大型语言模型（LLM）的开源工具。它的核心目标是打破算力壁垒，让用户无需依赖昂贵的显卡（GPU）或云端 API，即可在普通的笔记本电脑和台式机上私密、离线地部署和使用大模型。\n\n对于担心数据隐私、希望完全掌控本地数据的企业用户、研究人员以及技术爱好者来说，GPT4All 提供了理想的解决方案。它解决了传统大模型必须联网调用或需要高端硬件才能运行的痛点，让日常设备也能成为强大的 AI 助手。无论是希望构建本地知识库的开发者，还是单纯想体验私有化 AI 聊天的普通用户，都能从中受益。\n\n技术上，GPT4All 基于高效的 `llama.cpp` 后端，支持多种主流模型架构（包括最新的 DeepSeek R1 蒸馏模型），并采用 GGUF 格式优化推理速度。它不仅提供界面友好的桌面客户端，支持 Windows、macOS 和 Linux 等多平台一键安装，还为开发者提供了便捷的 Python 库，可轻松集成到 LangChain 等生态中。通过简单的下载和配置，用户即可立即开始探索本地大模型的无限可能。",77307,"2026-04-11T06:52:37",[15,13],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":81,"owner_email":81,"owner_twitter":81,"owner_website":81,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":23,"env_os":96,"env_gpu":97,"env_ram":98,"env_deps":99,"category_tags":106,"github_topics":107,"view_count":10,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":109,"updated_at":110,"faqs":111,"releases":146},6674,"researchmm\u002FStark","Stark","[ICCV'21] Learning Spatio-Temporal Transformer for Visual Tracking","Stark 是一款基于深度学习的高性能视觉目标跟踪开源工具，源自 ICCV 2021 的研究成果。它核心解决了传统跟踪算法在复杂场景下精度不足、依赖繁琐后处理以及难以平衡速度与准确率的问题。\n\n与以往方法不同，Stark 创新性地引入了时空 Transformer 架构，采用端到端的训练方式，能够直接预测精准的目标边界框，完全摒弃了对超参数敏感的后处理步骤，从而显著提升了运行的稳定性。在性能表现上，Stark 在 LaSOT、GOT-10k 等多个权威数据集上取得了领先的评分。同时，它兼顾了实时性需求，标准版本在主流显卡上可达 30-40 FPS，其轻量版\"STARK-Lightning\"更是能将速度提升至 200-300 FPS，且模型体积极小。\n\n该工具纯基于 PyTorch 构建，代码结构清晰，并提供了完善的训练、测试脚本及 Docker 环境支持，已集成至 OpenMMLab 生态。Stark 非常适合计算机视觉领域的研究人员、算法工程师以及希望探索 Transformer 在跟踪任务中应用的开发者使用。无论是进行学术对比实验，还是部署需要高帧率响应的实时跟踪系统，Stark ","Stark 是一款基于深度学习的高性能视觉目标跟踪开源工具，源自 ICCV 2021 的研究成果。它核心解决了传统跟踪算法在复杂场景下精度不足、依赖繁琐后处理以及难以平衡速度与准确率的问题。\n\n与以往方法不同，Stark 创新性地引入了时空 Transformer 架构，采用端到端的训练方式，能够直接预测精准的目标边界框，完全摒弃了对超参数敏感的后处理步骤，从而显著提升了运行的稳定性。在性能表现上，Stark 在 LaSOT、GOT-10k 等多个权威数据集上取得了领先的评分。同时，它兼顾了实时性需求，标准版本在主流显卡上可达 30-40 FPS，其轻量版\"STARK-Lightning\"更是能将速度提升至 200-300 FPS，且模型体积极小。\n\n该工具纯基于 PyTorch 构建，代码结构清晰，并提供了完善的训练、测试脚本及 Docker 环境支持，已集成至 OpenMMLab 生态。Stark 非常适合计算机视觉领域的研究人员、算法工程师以及希望探索 Transformer 在跟踪任务中应用的开发者使用。无论是进行学术对比实验，还是部署需要高帧率响应的实时跟踪系统，Stark 都是一个值得信赖的高效选择。","# STARK\n\u003C!-- \n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Flearning-spatio-temporal-transformer-for\u002Fvisual-object-tracking-on-lasot)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fvisual-object-tracking-on-lasot?p=learning-spatio-temporal-transformer-for)  \n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Flearning-spatio-temporal-transformer-for\u002Fvisual-object-tracking-on-got-10k)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fvisual-object-tracking-on-got-10k?p=learning-spatio-temporal-transformer-for)  \n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Flearning-spatio-temporal-transformer-for\u002Fvisual-object-tracking-on-trackingnet)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fvisual-object-tracking-on-trackingnet?p=learning-spatio-temporal-transformer-for)\n-->\n\nThe official implementation of the **ICCV2021** paper [**Learning Spatio-Temporal Transformer for Visual Tracking**](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FICCV2021\u002Fpapers\u002FYan_Learning_Spatio-Temporal_Transformer_for_Visual_Tracking_ICCV_2021_paper.pdf)\n\nHiring research interns for visual transformer projects: houwen.peng@microsoft.com\n## News\n- STARK has been integrated into the [mmtracking](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmtracking\u002Ftree\u002Fmaster\u002Fconfigs\u002Fsot\u002Fstark) library!\n- :trophy: **We are the Winner of VOT-21 RGB-D challenge** \n- :trophy: **We won the Runner-ups in VOT-21 Real-Time and Long-term challenges**\n- We release an extremely fast version of STARK called **STARK-Lightning** :zap: . It can run at **200~300 FPS** on a RTX TITAN GPU. \n  Besides, its performance can beat DiMP50, while the model size is even less than that of SiamFC! \n  More details can be found at [STARK_Lightning_En.md](lib\u002Ftutorials\u002FSTARK_Lightning_En.md)\u002F[中文教程](lib\u002Ftutorials\u002FSTARK_Lightning_Ch.md)\n- The raw results of STARK and other trackers on NOTU (NFS, OTB100, TC128, UAV123) have been uploaded to [here](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1KbtTdxxvvtC6_rlBM3Gi_H7HzpCdrX1F\u002Fview?usp=sharing)\n![STARK_Framework](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fresearchmm_Stark_readme_84ffd1b9a4e8.png)\n## Highlights\n### End-to-End, Post-processing Free\n\nSTARK is an **end-to-end** tracking approach, which directly predicts one accurate bounding box as the tracking result.  \nBesides, STARK does not use any hyperparameters-sensitive post-processing, leading to stable performances.\n\n### Real-Time Speed\nSTARK-ST50 and STARK-ST101 run at **40FPS** and **30FPS** respectively on a Tesla V100 GPU.\n\n### Strong performance\n| Tracker | LaSOT (AUC)| GOT-10K (AO)| TrackingNet (AUC)|\n|---|---|---|---|\n|**STARK**|**67.1**|**68.8**|**82.0**|\n|TransT|64.9|67.1|81.4|\n|TrDiMP|63.7|67.1|78.4|\n|Siam R-CNN|64.8|64.9|81.2|\n\n### Purely PyTorch-based Code\n\nSTARK is implemented purely based on the PyTorch. \n\n## Install the environment\n**Option1**: Use the Anaconda\n```\nconda create -n stark python=3.6\nconda activate stark\nbash install_pytorch17.sh\n```\n**Option2**: Use the docker file\n\nWe provide the complete docker at [here](https:\u002F\u002Fhub.docker.com\u002Frepository\u002Fdocker\u002Falphabin\u002Fstark)\n\n## Data Preparation\nPut the tracking datasets in .\u002Fdata. It should look like:\n   ```\n   ${STARK_ROOT}\n    -- data\n        -- lasot\n            |-- airplane\n            |-- basketball\n            |-- bear\n            ...\n        -- got10k\n            |-- test\n            |-- train\n            |-- val\n        -- coco\n            |-- annotations\n            |-- images\n        -- trackingnet\n            |-- TRAIN_0\n            |-- TRAIN_1\n            ...\n            |-- TRAIN_11\n            |-- TEST\n   ```\n## Set project paths\nRun the following command to set paths for this project\n```\npython tracking\u002Fcreate_default_local_file.py --workspace_dir . --data_dir .\u002Fdata --save_dir .\n```\nAfter running this command, you can also modify paths by editing these two files\n```\nlib\u002Ftrain\u002Fadmin\u002Flocal.py  # paths about training\nlib\u002Ftest\u002Fevaluation\u002Flocal.py  # paths about testing\n```\n\n## Train STARK\nTraining with multiple GPUs using DDP\n```\n# STARK-S50\npython tracking\u002Ftrain.py --script stark_s --config baseline --save_dir . --mode multiple --nproc_per_node 8  # STARK-S50\n# STARK-ST50\npython tracking\u002Ftrain.py --script stark_st1 --config baseline --save_dir . --mode multiple --nproc_per_node 8  # STARK-ST50 Stage1\npython tracking\u002Ftrain.py --script stark_st2 --config baseline --save_dir . --mode multiple --nproc_per_node 8 --script_prv stark_st1 --config_prv baseline  # STARK-ST50 Stage2\n# STARK-ST101\npython tracking\u002Ftrain.py --script stark_st1 --config baseline_R101 --save_dir . --mode multiple --nproc_per_node 8  # STARK-ST101 Stage1\npython tracking\u002Ftrain.py --script stark_st2 --config baseline_R101 --save_dir . --mode multiple --nproc_per_node 8 --script_prv stark_st1 --config_prv baseline_R101  # STARK-ST101 Stage2\n```\n(Optionally) Debugging training with a single GPU\n```\npython tracking\u002Ftrain.py --script stark_s --config baseline --save_dir . --mode single\n```\n## Test and evaluate STARK on benchmarks\n\n- LaSOT\n```\npython tracking\u002Ftest.py stark_st baseline --dataset lasot --threads 32\npython tracking\u002Fanalysis_results.py # need to modify tracker configs and names\n```\n- GOT10K-test\n```\npython tracking\u002Ftest.py stark_st baseline_got10k_only --dataset got10k_test --threads 32\npython lib\u002Ftest\u002Futils\u002Ftransform_got10k.py --tracker_name stark_st --cfg_name baseline_got10k_only\n```\n- TrackingNet\n```\npython tracking\u002Ftest.py stark_st baseline --dataset trackingnet --threads 32\npython lib\u002Ftest\u002Futils\u002Ftransform_trackingnet.py --tracker_name stark_st --cfg_name baseline\n```\n- VOT2020  \nBefore evaluating \"STARK+AR\" on VOT2020, please install some extra packages following [external\u002FAR\u002FREADME.md](external\u002FAR\u002FREADME.md)\n```\ncd external\u002Fvot20\u002F\u003Cworkspace_dir>\nexport PYTHONPATH=\u003Cpath to the stark project>:$PYTHONPATH\nbash exp.sh\n```\n- VOT2020-LT\n```\ncd external\u002Fvot20_lt\u002F\u003Cworkspace_dir>\nexport PYTHONPATH=\u003Cpath to the stark project>:$PYTHONPATH\nbash exp.sh\n```\n## Test FLOPs, Params, and Speed\n```\n# Profiling STARK-S50 model\npython tracking\u002Fprofile_model.py --script stark_s --config baseline\n# Profiling STARK-ST50 model\npython tracking\u002Fprofile_model.py --script stark_st2 --config baseline\n# Profiling STARK-ST101 model\npython tracking\u002Fprofile_model.py --script stark_st2 --config baseline_R101\n# Profiling STARK-Lightning-X-trt\npython tracking\u002Fprofile_model_lightning_X_trt.py\n```\n\n## Model Zoo\nThe trained models, the training logs, and the raw tracking results are provided in the [model zoo](MODEL_ZOO.md)\n\n## Acknowledgments\n* Thanks for the great [PyTracking](https:\u002F\u002Fgithub.com\u002Fvisionml\u002Fpytracking) Library, which helps us to quickly implement our ideas.\n* We use the implementation of the DETR from the official repo [https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetr](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetr).  \n","# STARK\n\u003C!--\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Flearning-spatio-temporal-transformer-for\u002Fvisual-object-tracking-on-lasot)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fvisual-object-tracking-on-lasot?p=learning-spatio-temporal-transformer-for)  \n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Flearning-spatio-temporal-transformer-for\u002Fvisual-object-tracking-on-got-10k)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fvisual-object-tracking-on-got-10k?p=learning-spatio-temporal-transformer-for)  \n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Flearning-spatio-temporal-transformer-for\u002Fvisual-object-tracking-on-trackingnet)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fvisual-object-tracking-on-trackingnet?p=learning-spatio-temporal-transformer-for)\n-->\n\n**ICCV2021** 论文 **《用于视觉跟踪的时空Transformer学习》** 的官方实现，论文链接：[Learning Spatio-Temporal Transformer for Visual Tracking](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FICCV2021\u002Fpapers\u002FYan_Learning_Spatio-Temporal_Transformer_for_Visual_Tracking_ICCV_2021_paper.pdf)\n\n现招聘视觉Transformer相关研究实习生：houwen.peng@microsoft.com\n## 新闻\n- STARK 已被集成到 [mmtracking](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmtracking\u002Ftree\u002Fmaster\u002Fconfigs\u002Fsot\u002Fstark) 库中！\n- :trophy: **我们在 VOT-21 RGB-D 挑战赛中夺冠**\n- :trophy: **我们在 VOT-21 实时和长期跟踪挑战赛中获得亚军**\n- 我们发布了 STARK 的极速版本 **STARK-Lightning** :zap: 。在 RTX TITAN GPU 上，它能够以 **200~300 FPS** 的速度运行。  \n  此外，其性能甚至超越 DiMP50，而模型大小却比 SiamFC 还小！  \n  更多详情请参阅 [STARK_Lightning_En.md](lib\u002Ftutorials\u002FSTARK_Lightning_En.md)\u002F[中文教程](lib\u002Ftutorials\u002FSTARK_Lightning_Ch.md)\n- STARK 及其他跟踪器在 NOTU 数据集（NFS、OTB100、TC128、UAV123）上的原始结果已上传至 [这里](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1KbtTdxxvvtC6_rlBM3Gi_H7HzpCdrX1F\u002Fview?usp=sharing)\n![STARK_Framework](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fresearchmm_Stark_readme_84ffd1b9a4e8.png)\n## 亮点\n### 端到端，无需后处理\n\nSTARK 是一种 **端到端** 的跟踪方法，直接预测出一个精确的边界框作为跟踪结果。  \n此外，STARK 不使用任何对超参数敏感的后处理步骤，因此性能非常稳定。\n\n### 实时速度\n\nSTARK-ST50 和 STARK-ST101 分别在 Tesla V100 GPU 上以 **40FPS** 和 **30FPS** 的速度运行。\n\n### 强大的性能\n\n| 跟踪器 | LaSOT (AUC) | GOT-10K (AO) | TrackingNet (AUC) |\n|---|---|---|---|\n|**STARK**|**67.1**|**68.8**|**82.0**|\n|TransT|64.9|67.1|81.4|\n|TrDiMP|63.7|67.1|78.4|\n|Siam R-CNN|64.8|64.9|81.2|\n\n### 纯 PyTorch 实现\n\nSTARK 完全基于 PyTorch 实现。\n\n## 环境安装\n**选项1**：使用 Anaconda\n```\nconda create -n stark python=3.6\nconda activate stark\nbash install_pytorch17.sh\n```\n**选项2**：使用 Docker 文件\n\n我们提供了完整的 Docker 镜像，地址为 [这里](https:\u002F\u002Fhub.docker.com\u002Frepository\u002Fdocker\u002Falphabin\u002Fstark)\n\n## 数据准备\n将跟踪数据集放置在 .\u002Fdata 目录下，目录结构应如下所示：\n   ```\n   ${STARK_ROOT}\n    -- data\n        -- lasot\n            |-- airplane\n            |-- basketball\n            |-- bear\n            ...\n        -- got10k\n            |-- test\n            |-- train\n            |-- val\n        -- coco\n            |-- annotations\n            |-- images\n        -- trackingnet\n            |-- TRAIN_0\n            |-- TRAIN_1\n            ...\n            |-- TRAIN_11\n            |-- TEST\n   ```\n## 设置项目路径\n运行以下命令以设置该项目的路径：\n```\npython tracking\u002Fcreate_default_local_file.py --workspace_dir . --data_dir .\u002Fdata --save_dir .\n```\n执行此命令后，您还可以通过编辑以下两个文件来修改路径：\n```\nlib\u002Ftrain\u002Fadmin\u002Flocal.py  # 训练相关路径\nlib\u002Ftest\u002Fevaluation\u002Flocal.py  # 测试相关路径\n```\n\n## 训练 STARK\n使用 DDP 多 GPU 训练\n```\n# STARK-S50\npython tracking\u002Ftrain.py --script stark_s --config baseline --save_dir . --mode multiple --nproc_per_node 8  # STARK-S50\n# STARK-ST50\npython tracking\u002Ftrain.py --script stark_st1 --config baseline --save_dir . --mode multiple --nproc_per_node 8  # STARK-ST50 第一阶段\npython tracking\u002Ftrain.py --script stark_st2 --config baseline --save_dir . --mode multiple --nproc_per_node 8 --script_prv stark_st1 --config_prv baseline  # STARK-ST50 第二阶段\n# STARK-ST101\npython tracking\u002Ftrain.py --script stark_st1 --config baseline_R101 --save_dir . --mode multiple --nproc_per_node 8  # STARK-ST101 第一阶段\npython tracking\u002Ftrain.py --script stark_st2 --config baseline_R101 --save_dir . --mode multiple --nproc_per_node 8 --script_prv stark_st1 --config_prv baseline_R101  # STARK-ST101 第二阶段\n```\n（可选）使用单 GPU 调试训练\n```\npython tracking\u002Ftrain.py --script stark_s --config baseline --save_dir . --mode single\n```\n## 在基准测试上测试和评估 STARK\n\n- LaSOT\n```\npython tracking\u002Ftest.py stark_st baseline --dataset lasot --threads 32\npython tracking\u002Fanalysis_results.py # 需要修改跟踪器配置和名称\n```\n- GOT10K-test\n```\npython tracking\u002Ftest.py stark_st baseline_got10k_only --dataset got10k_test --threads 32\npython lib\u002Ftest\u002Futils\u002Ftransform_got10k.py --tracker_name stark_st --cfg_name baseline_got10k_only\n```\n- TrackingNet\n```\npython tracking\u002Ftest.py stark_st baseline --dataset trackingnet --threads 32\npython lib\u002Ftest\u002Futils\u002Ftransform_trackingnet.py --tracker_name stark_st --cfg_name baseline\n```\n- VOT2020  \n在评估“STARK+AR”在 VOT2020 上的表现之前，请按照 [external\u002FAR\u002FREADME.md](external\u002FAR\u002FREADME.md) 安装一些额外的包。\n```\ncd external\u002Fvot20\u002F\u003Cworkspace_dir>\nexport PYTHONPATH=\u003Cstark项目路径>:$PYTHONPATH\nbash exp.sh\n```\n- VOT2020-LT\n```\ncd external\u002Fvot20_lt\u002F\u003Cworkspace_dir>\nexport PYTHONPATH=\u003Cstark项目路径>:$PYTHONPATH\nbash exp.sh\n```\n## 测试 FLOPs、参数量和速度\n```\n# 对 STARK-S50 模型进行性能分析\npython tracking\u002Fprofile_model.py --script stark_s --config baseline\n# 对 STARK-ST50 模型进行性能分析\npython tracking\u002Fprofile_model.py --script stark_st2 --config baseline\n# 对 STARK-ST101 模型进行性能分析\npython tracking\u002Fprofile_model.py --script stark_st2 --config baseline_R101\n# 对 STARK-Lightning-X-trt 进行性能分析\npython tracking\u002Fprofile_model_lightning_X_trt.py\n```\n\n## 模型库\n训练好的模型、训练日志以及原始跟踪结果均在 [模型库](MODEL_ZOO.md) 中提供。\n\n## 致谢\n* 感谢优秀的 [PyTracking](https:\u002F\u002Fgithub.com\u002Fvisionml\u002Fpytracking) 库，它帮助我们快速实现了自己的想法。\n* 我们使用了来自官方仓库 [https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetr](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetr) 的 DETR 实现。","# STARK 快速上手指南\n\nSTARK 是 ICCV 2021 论文《Learning Spatio-Temporal Transformer for Visual Tracking》的官方实现。它是一个端到端的视觉目标跟踪器，无需后处理即可直接预测精确边界框，在 LaSOT、GOT-10k 和 TrackingNet 等基准测试中表现优异。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux (推荐 Ubuntu)\n- **Python**: 3.6+\n- **GPU**: 支持 CUDA 的 NVIDIA GPU (训练推荐多卡，如 Tesla V100；推理单卡即可)\n- **框架**: PyTorch 1.7+\n\n### 前置依赖\n确保已安装 `conda` 或 `docker`。若使用国内网络，建议在创建环境时配置清华或阿里镜像源以加速下载。\n\n## 安装步骤\n\n### 方案一：使用 Conda（推荐）\n\n1. 创建并激活虚拟环境：\n```bash\nconda create -n stark python=3.6\nconda activate stark\n```\n\n2. 安装 PyTorch 及相关依赖（执行官方提供的脚本）：\n```bash\nbash install_pytorch17.sh\n```\n> **提示**：若 `install_pytorch17.sh` 执行缓慢，可手动使用国内源安装 PyTorch 1.7：\n> `pip install torch==1.7.1 torchvision==0.8.2 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n### 方案二：使用 Docker\n\n直接使用预构建的镜像：\n```bash\ndocker pull alphabin\u002Fstark\n```\n\n## 基本使用\n\n### 1. 数据准备\n将数据集放置在项目根目录下的 `.\u002Fdata` 文件夹中，目录结构应如下所示：\n```text\n${STARK_ROOT}\n -- data\n     -- lasot\n         |-- airplane\n         |-- basketball\n         ...\n     -- got10k\n         |-- test\n         |-- train\n         |-- val\n     -- coco\n         |-- annotations\n         |-- images\n     -- trackingnet\n         |-- TRAIN_0\n         ...\n         |-- TEST\n```\n\n### 2. 配置路径\n运行以下命令生成默认本地配置文件，并根据实际路径修改（如需）：\n```bash\npython tracking\u002Fcreate_default_local_file.py --workspace_dir . --data_dir .\u002Fdata --save_dir .\n```\n*注：如需自定义路径，可编辑 `lib\u002Ftrain\u002Fadmin\u002Flocal.py` (训练) 和 `lib\u002Ftest\u002Fevaluation\u002Flocal.py` (测试)。*\n\n### 3. 模型训练\n支持多卡分布式训练 (DDP)。以下是训练 **STARK-ST50** 的两阶段示例：\n\n**第一阶段：**\n```bash\npython tracking\u002Ftrain.py --script stark_st1 --config baseline --save_dir . --mode multiple --nproc_per_node 8\n```\n\n**第二阶段：**\n```bash\npython tracking\u002Ftrain.py --script stark_st2 --config baseline --save_dir . --mode multiple --nproc_per_node 8 --script_prv stark_st1 --config_prv baseline\n```\n\n*单卡调试模式：*\n```bash\npython tracking\u002Ftrain.py --script stark_s --config baseline --save_dir . --mode single\n```\n\n### 4. 模型测试与评估\n以 **LaSOT** 数据集为例进行测试和结果分析：\n\n**执行测试：**\n```bash\npython tracking\u002Ftest.py stark_st baseline --dataset lasot --threads 32\n```\n\n**分析结果：**\n```bash\npython tracking\u002Fanalysis_results.py\n```\n> 注意：运行分析脚本前，可能需要根据提示修改 tracker 的配置名称。\n\n### 5. 性能分析 (可选)\n查看模型的 FLOPs、参数量和推理速度：\n```bash\n# 分析 STARK-S50\npython tracking\u002Fprofile_model.py --script stark_s --config baseline\n\n# 分析 STARK-ST50\npython tracking\u002Fprofile_model.py --script stark_st2 --config baseline\n```\n\n训练好的模型权重、日志及原始测试结果可在项目的 [Model Zoo](MODEL_ZOO.md) 中获取。","某安防监控团队正在开发一套无人机自动跟踪系统，需要在复杂背景下长时间稳定锁定高速移动的目标。\n\n### 没有 Stark 时\n- **跟踪易丢失**：传统算法在目标快速运动或被短暂遮挡时，极易发生漂移甚至完全丢失目标，导致监控中断。\n- **依赖人工调参**：输出结果需要繁琐的后处理步骤来过滤噪声，且高度依赖人工调整超参数，不同场景下稳定性差。\n- **实时性不足**：现有高精度模型推理速度慢，难以在边缘设备上满足实时视频流的处理需求，延迟严重影响决策。\n- **部署成本高**：为了兼顾速度与精度，往往需要堆叠多个模型或复杂的集成方案，增加了工程维护难度。\n\n### 使用 Stark 后\n- **抗干扰能力强**：利用时空 Transformer 架构，Stark 能有效建模长时序依赖，即使在目标被遮挡或高速机动时也能精准锁定，大幅降低丢失率。\n- **端到端免后处理**：Stark 直接输出精确边界框，无需任何敏感的后处理步骤，消除了人工调参成本，保证了不同场景下的性能一致性。\n- **极速实时推理**：借助 STARK-Lightning 版本，系统在 RTX 显卡上可达 200~300 FPS 的推理速度，轻松实现低延迟的实时高清跟踪。\n- **架构简洁高效**：纯 PyTorch 实现的端到端设计简化了代码库，以更小的模型尺寸超越了 DiMP50 等经典算法，显著降低了部署门槛。\n\nStark 通过端到端的时空建模能力，彻底解决了复杂动态场景下目标跟踪“看不清、跟不住、跑不快”的核心难题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fresearchmm_Stark_f85e1c9b.png","researchmm","Multimedia Research","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fresearchmm_6de575f1.png","Multimedia Research at Microsoft Research Asia",null,"https:\u002F\u002Fgithub.com\u002Fresearchmm",[84,88],{"name":85,"color":86,"percentage":87},"Python","#3572A5",99.1,{"name":89,"color":90,"percentage":91},"Shell","#89e051",0.9,708,150,"2026-04-11T02:31:25","MIT","Linux","需要 NVIDIA GPU。文中提及在 Tesla V100 上运行速度为 30-40 FPS，在 RTX TITAN 上可达 200-300 FPS。显存大小和具体 CUDA 版本未说明（需参考 install_pytorch17.sh 脚本）。","未说明",{"notes":100,"python":101,"dependencies":102},"1. 该项目基于 PyTracking 库实现，并使用了 DETR 的代码。2. 提供两种环境安装方式：Anaconda（需运行特定的 bash 脚本安装 PyTorch）或 Docker。3. 训练支持多卡分布式数据并行（DDP），示例命令中使用了 8 张显卡。4. 数据集需按特定目录结构放置在 .\u002Fdata 文件夹下。5. 项目包含 STARK 标准版和极速版（STARK-Lightning）。","3.6",[103,104,105],"PyTorch (通过 install_pytorch17.sh 安装)","Conda (推荐用于环境管理)","Docker (可选)",[15],[108],"transformer","2026-03-27T02:49:30.150509","2026-04-11T23:22:53.347814",[112,117,122,127,132,137,142],{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},30142,"训练过程中 DataLoader 随机崩溃（RuntimeError: DataLoader worker exited unexpectedly）怎么办？","这通常是由 Docker 环境的内存限制引起的。请尝试增加 Docker 容器的内存限制，问题解决后训练即可正常进行。","https:\u002F\u002Fgithub.com\u002Fresearchmm\u002FStark\u002Fissues\u002F7",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},30143,"微调 stark_st (spatio-temporal) 模型时遇到 'Network is not of correct type' 断言错误如何解决？","原因是使用了错误的预训练权重（如将 stark_s 的权重用于 stark_st）。请使用正确的 checkpoint（例如 Google Drive 链接中的 ST 模型权重）。如果急需解决类型检查问题，最直接的方法是注释掉代码中关于 `assert net_type == checkpoint_dict['net_type']` 的那一行。","https:\u002F\u002Fgithub.com\u002Fresearchmm\u002FStark\u002Fissues\u002F16",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},30144,"在 RTX 3060 显卡上运行时报 CUDA 兼容性错误或 TensorBoard 相关错误怎么办？","RTX 3060 (sm_86) 需要较新版本的 PyTorch 支持。建议安装 PyTorch 1.8.0 及以上版本，例如使用命令：`conda install pytorch==1.8.0 torchvision==0.9.0 torchaudio==0.8.0 cudatoolkit=11.1 -c pytorch -c conda-forge`。如果仅需运行演示或测试而不需要训练日志，也可以直接注释掉代码中所有与 TensorBoard 相关的行来绕过报错。","https:\u002F\u002Fgithub.com\u002Fresearchmm\u002FStark\u002Fissues\u002F23",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},30145,"为什么使用全数据集训练的 STARK-S50 模型在 GOT-10k 测试集上的提升很小？","潜在原因是 STARK-S 缺乏模板更新机制（template update mechanism），这限制了其判别能力，特别是在存在相似干扰物的情况下。因此，单纯增加训练数据量带来的性能提升有限。相比之下，具备时空特征的 STARK-ST 模型表现会更好。","https:\u002F\u002Fgithub.com\u002Fresearchmm\u002FStark\u002Fissues\u002F8",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},30146,"下载的 Alpha-Refine 压缩包无法解压或提示文件损坏怎么办？","该文件（.pth.tar）是 PyTorch 的模型权重文件，不需要也不应该尝试解压。请直接将其作为 `.pth.tar` 文件加载到代码中使用即可。","https:\u002F\u002Fgithub.com\u002Fresearchmm\u002FStark\u002Fissues\u002F4",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},30147,"如何使用自己的视频文件进行测试（而不是在标准数据集上测试）？","可以使用 `video_demo.py` 脚本。命令格式通常为：`python tracking\u002Fvideo_demo.py [模型名称] [配置文件] [视频路径]`。例如：`python tracking\u002Fvideo_demo.py stark_st2 baseline xxx.mp4`。如果遇到环境配置错误，请确保按照上述兼容性问题修正 PyTorch 版本或注释掉不必要的模块。","https:\u002F\u002Fgithub.com\u002Fresearchmm\u002FStark\u002Fissues\u002F22",{"id":143,"question_zh":144,"answer_zh":145,"source_url":141},30148,"STARK 模型在处理目标消失重出现和相似干扰物时的表现如何？","STARK 在处理目标消失和重新出现（这对长时跟踪很重要）方面表现良好。然而，它在处理相似干扰物（distractors）方面较为吃力，部分原因是缺乏时间平滑后处理（如余弦窗等）。这是一个值得改进的方向。",[]]