[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-open-mmlab--mmaction2":3,"tool-open-mmlab--mmaction2":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159267,2,"2026-04-17T11:29:14",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":73,"owner_website":77,"owner_url":78,"languages":79,"stars":96,"forks":97,"last_commit_at":98,"license":99,"difficulty_score":10,"env_os":100,"env_gpu":101,"env_ram":102,"env_deps":103,"category_tags":112,"github_topics":115,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":134,"updated_at":135,"faqs":136,"releases":164},8565,"open-mmlab\u002Fmmaction2","mmaction2","OpenMMLab's Next Generation Video Understanding Toolbox and Benchmark","mmaction2 是 OpenMMLab 推出的新一代视频理解工具箱与基准测试平台，专为处理动态视觉数据而生。它致力于解决视频分析领域中算法复现难、评估标准不统一以及开发效率低等痛点，为从基础动作识别到复杂时空行为分析的各类任务提供了一站式解决方案。\n\n这款工具非常适合计算机视觉领域的研究人员、算法工程师及高校开发者使用。无论是需要快速验证最新学术模型的研究者，还是希望将视频分析能力落地到实际产品中的开发人员，都能从中获益。mmaction2 的核心亮点在于其高度模块化的架构设计，支持灵活配置训练流程，并内置了丰富的主流模型库（Model Zoo）和预训练权重。它不仅涵盖了多种经典与前沿的视频理解算法，还提供了标准化的性能基准，帮助用户轻松对比不同方法的效果。凭借清晰的文档支持和活跃的社区维护，mmaction2 大幅降低了视频理解技术的入门门槛，让用户能更专注于核心算法的创新与应用探索。","\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_d7f27bce0cbb.png\" width=\"600\"\u002F>\n  \u003Cdiv>&nbsp;\u003C\u002Fdiv>\n  \u003Cdiv align=\"center\">\n    \u003Cb>\u003Cfont size=\"5\">OpenMMLab website\u003C\u002Ffont>\u003C\u002Fb>\n    \u003Csup>\n      \u003Ca href=\"https:\u002F\u002Fopenmmlab.com\">\n        \u003Ci>\u003Cfont size=\"4\">HOT\u003C\u002Ffont>\u003C\u002Fi>\n      \u003C\u002Fa>\n    \u003C\u002Fsup>\n    &nbsp;&nbsp;&nbsp;&nbsp;\n    \u003Cb>\u003Cfont size=\"5\">OpenMMLab platform\u003C\u002Ffont>\u003C\u002Fb>\n    \u003Csup>\n      \u003Ca href=\"https:\u002F\u002Fplatform.openmmlab.com\">\n        \u003Ci>\u003Cfont size=\"4\">TRY IT OUT\u003C\u002Ffont>\u003C\u002Fi>\n      \u003C\u002Fa>\n    \u003C\u002Fsup>\n  \u003C\u002Fdiv>\n\n[![Documentation](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_6bf48b3e9a6d.png)](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002F)\n[![actions](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fworkflows\u002Fbuild\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Factions)\n[![codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fopen-mmlab\u002Fmmaction2\u002Fbranch\u002Fmain\u002Fgraph\u002Fbadge.svg)](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fopen-mmlab\u002Fmmaction2)\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fmmaction2)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fmmaction2\u002F)\n[![LICENSE](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fopen-mmlab\u002Fmmaction2.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002FLICENSE)\n[![Average time to resolve an issue](https:\u002F\u002Fisitmaintained.com\u002Fbadge\u002Fresolution\u002Fopen-mmlab\u002Fmmaction2.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fissues)\n[![Percentage of issues still open](https:\u002F\u002Fisitmaintained.com\u002Fbadge\u002Fopen\u002Fopen-mmlab\u002Fmmaction2.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fissues)\n\n[📘Documentation](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002F) |\n[🛠️Installation](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fget_started\u002Finstallation.html) |\n[👀Model Zoo](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fmodelzoo_statistics.html) |\n[🆕Update News](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fnotes\u002Fchangelog.html) |\n[🚀Ongoing Projects](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fprojects) |\n[🤔Reporting Issues](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fissues\u002Fnew\u002Fchoose)\n\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fopenmmlab.medium.com\u002F\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_062337b0e5ec.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fdiscord.com\u002Fchannels\u002F1037617289144569886\u002F1046608014234370059\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_6342e5371027.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002FOpenMMLab\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_04c3beda0b07.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fopenmmlab\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_204fe79b5a90.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fspace.bilibili.com\u002F1293512903\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_8655b6233577.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fwww.zhihu.com\u002Fpeople\u002Fopenmmlab\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_447c4737c11f.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\nEnglish | [简体中文](\u002FREADME_zh-CN.md)\n\n## 📄 Table of Contents\n\n- [📄 Table of Contents](#-table-of-contents)\n- [🥳 🚀 What's New](#--whats-new-)\n- [📖 Introduction](#-introduction-)\n- [🎁 Major Features](#-major-features-)\n- [🛠️ Installation](#️-installation-)\n- [👀 Model Zoo](#-model-zoo-)\n- [👨‍🏫 Get Started](#-get-started-)\n- [🎫 License](#-license-)\n- [🖊️ Citation](#️-citation-)\n- [🙌 Contributing](#-contributing-)\n- [🤝 Acknowledgement](#-acknowledgement-)\n- [🏗️ Projects in OpenMMLab](#️-projects-in-openmmlab-)\n\n## 🥳 🚀 What's New [🔝](#-table-of-contents)\n\n**The default branch has been switched to `main`(previous `1.x`) from `master`(current `0.x`), and we encourage users to migrate to the latest version with more supported models, stronger pre-training checkpoints and simpler coding. Please refer to [Migration Guide](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fmigration.html) for more details.**\n\n**Release (2023.10.12)**: v1.2.0 with the following new features:\n\n- Support VindLU multi-modality algorithm and the Training of ActionClip\n- Support lightweight model MobileOne TSN\u002FTSM\n- Support video retrieval dataset MSVD\n- Support SlowOnly K700 feature to train localization models\n- Support Video and Audio Demos\n\n## 📖 Introduction [🔝](#-table-of-contents)\n\nMMAction2 is an open-source toolbox for video understanding based on PyTorch.\nIt is a part of the [OpenMMLab](http:\u002F\u002Fopenmmlab.com\u002F) project.\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_055d5f6c765f.gif\" width=\"380px\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_a35964f95b9f.gif\" width=\"380px\">\n  \u003Cp style=\"font-size:1.5vw;\"> Action Recognition on Kinetics-400 (left) and Skeleton-based Action Recognition on NTU-RGB+D-120 (right)\u003C\u002Fp>\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_d2079fa4dba2.gif\" width=\"580px\"\u002F>\u003Cbr>\n    \u003Cp style=\"font-size:1.5vw;\">Skeleton-based Spatio-Temporal Action Detection and Action Recognition Results on Kinetics-400\u003C\u002Fp>\n\u003C\u002Fdiv>\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_e256f3cdd805.gif\" width=\"800px\"\u002F>\u003Cbr>\n    \u003Cp style=\"font-size:1.5vw;\">Spatio-Temporal Action Detection Results on AVA-2.1\u003C\u002Fp>\n\u003C\u002Fdiv>\n\n## 🎁 Major Features [🔝](#-table-of-contents)\n\n- **Modular design**: We decompose a video understanding framework into different components. One can easily construct a customized video understanding framework by combining different modules.\n\n- **Support five major video understanding tasks**: MMAction2 implements various algorithms for multiple video understanding tasks, including action recognition, action localization, spatio-temporal action detection, skeleton-based action detection and video retrieval.\n\n- **Well tested and documented**: We provide detailed documentation and API reference, as well as unit tests.\n\n## 🛠️ Installation [🔝](#-table-of-contents)\n\nMMAction2 depends on [PyTorch](https:\u002F\u002Fpytorch.org\u002F), [MMCV](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmcv), [MMEngine](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmengine), [MMDetection](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection) (optional) and [MMPose](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpose) (optional).\n\nPlease refer to [install.md](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fget_started\u002Finstallation.html) for detailed instructions.\n\n\u003Cdetails close>\n\u003Csummary>Quick instructions\u003C\u002Fsummary>\n\n```shell\nconda create --name openmmlab python=3.8 -y\nconda activate openmmlab\nconda install pytorch torchvision -c pytorch  # This command will automatically install the latest version PyTorch and cudatoolkit, please check whether they match your environment.\npip install -U openmim\nmim install mmengine\nmim install mmcv\nmim install mmdet  # optional\nmim install mmpose  # optional\ngit clone https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2.git\ncd mmaction2\npip install -v -e .\n```\n\n\u003C\u002Fdetails>\n\n## 👀 Model Zoo [🔝](#-table-of-contents)\n\nResults and models are available in the [model zoo](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fmodel_zoo\u002Fmodelzoo.html).\n\n\u003Cdetails close>\n\n\u003Csummary>Supported model\u003C\u002Fsummary>\n\n\u003Ctable style=\"margin-left:auto;margin-right:auto;font-size:1.3vw;padding:3px 5px;text-align:center;vertical-align:center;\">\n  \u003Ctr>\n    \u003Ctd colspan=\"5\" style=\"font-weight:bold;\">Action Recognition\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fc3d\u002FREADME.md\">C3D\u003C\u002Fa> (CVPR'2014)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Ftsn\u002FREADME.md\">TSN\u003C\u002Fa> (ECCV'2016)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fi3d\u002FREADME.md\">I3D\u003C\u002Fa> (CVPR'2017)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fc2d\u002FREADME.md\">C2D\u003C\u002Fa> (CVPR'2018)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fi3d\u002FREADME.md\">I3D Non-Local\u003C\u002Fa> (CVPR'2018)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fr2plus1d\u002FREADME.md\">R(2+1)D\u003C\u002Fa> (CVPR'2018)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Ftrn\u002FREADME.md\">TRN\u003C\u002Fa> (ECCV'2018)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Ftsm\u002FREADME.md\">TSM\u003C\u002Fa> (ICCV'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Ftsm\u002FREADME.md\">TSM Non-Local\u003C\u002Fa> (ICCV'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fslowonly\u002FREADME.md\">SlowOnly\u003C\u002Fa> (ICCV'2019)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fslowfast\u002FREADME.md\">SlowFast\u003C\u002Fa> (ICCV'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fcsn\u002FREADME.md\">CSN\u003C\u002Fa> (ICCV'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Ftin\u002FREADME.md\">TIN\u003C\u002Fa> (AAAI'2020)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Ftpn\u002FREADME.md\">TPN\u003C\u002Fa> (CVPR'2020)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fx3d\u002FREADME.md\">X3D\u003C\u002Fa> (CVPR'2020)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition_audio\u002Fresnet\u002FREADME.md\">MultiModality: Audio\u003C\u002Fa> (ArXiv'2020)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Ftanet\u002FREADME.md\">TANet\u003C\u002Fa> (ArXiv'2020)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Ftimesformer\u002FREADME.md\">TimeSformer\u003C\u002Fa> (ICML'2021)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fprojects\u002Factionclip\u002FREADME.md\">ActionCLIP\u003C\u002Fa> (ArXiv'2021)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fswin\u002FREADME.md\">VideoSwin\u003C\u002Fa> (CVPR'2022)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fvideomae\u002FREADME.md\">VideoMAE\u003C\u002Fa> (NeurIPS'2022)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fmvit\u002FREADME.md\">MViT V2\u003C\u002Fa> (CVPR'2022)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Funiformer\u002FREADME.md\">UniFormer V1\u003C\u002Fa> (ICLR'2022)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Funiformerv2\u002FREADME.md\">UniFormer V2\u003C\u002Fa> (Arxiv'2022)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fvideomaev2\u002FREADME.md\">VideoMAE V2\u003C\u002Fa> (CVPR'2023)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd colspan=\"5\" style=\"font-weight:bold;\">Action Localization\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Flocalization\u002Fbsn\u002FREADME.md\">BSN\u003C\u002Fa> (ECCV'2018)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Flocalization\u002Fbmn\u002FREADME.md\">BMN\u003C\u002Fa> (ICCV'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Flocalization\u002Ftcanet\u002FREADME.md\">TCANet\u003C\u002Fa> (CVPR'2021)\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd colspan=\"5\" style=\"font-weight:bold;\">Spatio-Temporal Action Detection\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Fdetection\u002Facrn\u002FREADME.md\">ACRN\u003C\u002Fa> (ECCV'2018)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Fdetection\u002Fslowonly\u002FREADME.md\">SlowOnly+Fast R-CNN\u003C\u002Fa> (ICCV'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Fdetection\u002Fslowfast\u002FREADME.md\">SlowFast+Fast R-CNN\u003C\u002Fa> (ICCV'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Fdetection\u002Flfb\u002FREADME.md\">LFB\u003C\u002Fa> (CVPR'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fvideomae\u002FREADME.md\">VideoMAE\u003C\u002Fa> (NeurIPS'2022)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd colspan=\"5\" style=\"font-weight:bold;\">Skeleton-based Action Recognition\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Fskeleton\u002Fstgcn\u002FREADME.md\">ST-GCN\u003C\u002Fa> (AAAI'2018)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Fskeleton\u002F2s-agcn\u002FREADME.md\">2s-AGCN\u003C\u002Fa> (CVPR'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Fskeleton\u002Fposec3d\u002FREADME.md\">PoseC3D\u003C\u002Fa> (CVPR'2022)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Fskeleton\u002Fstgcnpp\u002FREADME.md\">STGCN++\u003C\u002Fa> (ArXiv'2022)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fprojects\u002Fctrgcn\u002FREADME.md\">CTRGCN\u003C\u002Fa> (CVPR'2021)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fprojects\u002Fmsg3d\u002FREADME.md\">MSG3D\u003C\u002Fa> (CVPR'2020)\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd colspan=\"5\" style=\"font-weight:bold;\">Video Retrieval\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Fretrieval\u002Fclip4clip\u002FREADME.md\">CLIP4Clip\u003C\u002Fa> (ArXiv'2022)\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\n\u003C\u002Ftable>\n\n\u003C\u002Fdetails>\n\n\u003Cdetails close>\n\n\u003Csummary>Supported dataset\u003C\u002Fsummary>\n\n\u003Ctable style=\"margin-left:auto;margin-right:auto;font-size:1.3vw;padding:3px 5px;text-align:center;vertical-align:center;\">\n  \u003Ctr>\n    \u003Ctd colspan=\"4\" style=\"font-weight:bold;\">Action Recognition\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fhmdb51\u002FREADME.md\">HMDB51\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fserre-lab.clps.brown.edu\u002Fresource\u002Fhmdb-a-large-human-motion-database\u002F\">Homepage\u003C\u002Fa>) (ICCV'2011)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fucf101\u002FREADME.md\">UCF101\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fwww.crcv.ucf.edu\u002Fresearch\u002Fdata-sets\u002Fucf101\u002F\">Homepage\u003C\u002Fa>) (CRCV-IR-12-01)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Factivitynet\u002FREADME.md\">ActivityNet\u003C\u002Fa> (\u003Ca href=\"http:\u002F\u002Factivity-net.org\u002F\">Homepage\u003C\u002Fa>) (CVPR'2015)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fkinetics\u002FREADME.md\">Kinetics-[400\u002F600\u002F700]\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fdeepmind.com\u002Fresearch\u002Fopen-source\u002Fkinetics\u002F\">Homepage\u003C\u002Fa>) (CVPR'2017)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fsthv1\u002FREADME.md\">SthV1\u003C\u002Fa>  (ICCV'2017)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fsthv2\u002FREADME.md\">SthV2\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fdeveloper.qualcomm.com\u002Fsoftware\u002Fai-datasets\u002Fsomething-something\">Homepage\u003C\u002Fa>) (ICCV'2017)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fdiving48\u002FREADME.md\">Diving48\u003C\u002Fa> (\u003Ca href=\"http:\u002F\u002Fwww.svcl.ucsd.edu\u002Fprojects\u002Fresound\u002Fdataset.html\">Homepage\u003C\u002Fa>) (ECCV'2018)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fjester\u002FREADME.md\">Jester\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fdeveloper.qualcomm.com\u002Fsoftware\u002Fai-datasets\u002Fjester\">Homepage\u003C\u002Fa>) (ICCV'2019)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fmit\u002FREADME.md\">Moments in Time\u003C\u002Fa> (\u003Ca href=\"http:\u002F\u002Fmoments.csail.mit.edu\u002F\">Homepage\u003C\u002Fa>) (TPAMI'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fmmit\u002FREADME.md\">Multi-Moments in Time\u003C\u002Fa> (\u003Ca href=\"http:\u002F\u002Fmoments.csail.mit.edu\u002Fchallenge_iccv_2019.html\">Homepage\u003C\u002Fa>) (ArXiv'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fhvu\u002FREADME.md\">HVU\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fholistic-video-understanding\u002FHVU-Dataset\">Homepage\u003C\u002Fa>) (ECCV'2020)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fomnisource\u002FREADME.md\">OmniSource\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fkennymckormick.github.io\u002Fomnisource\u002F\">Homepage\u003C\u002Fa>) (ECCV'2020)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fgym\u002FREADME.md\">FineGYM\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fsdolivia.github.io\u002FFineGym\u002F\">Homepage\u003C\u002Fa>) (CVPR'2020)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fkinetics710\u002FREADME.md\">Kinetics-710\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2211.09552.pdf\">Homepage\u003C\u002Fa>) (Arxiv'2022)\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd colspan=\"4\" style=\"font-weight:bold;\">Action Localization\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fthumos14\u002FREADME.md\">THUMOS14\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fwww.crcv.ucf.edu\u002FTHUMOS14\u002Fdownload.html\">Homepage\u003C\u002Fa>) (THUMOS Challenge 2014)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Factivitynet\u002FREADME.md\">ActivityNet\u003C\u002Fa> (\u003Ca href=\"http:\u002F\u002Factivity-net.org\u002F\">Homepage\u003C\u002Fa>) (CVPR'2015)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fhacs\u002FREADME.md\">HACS\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fhangzhaomit\u002FHACS-dataset\">Homepage\u003C\u002Fa>) (ICCV'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd colspan=\"4\" style=\"font-weight:bold;\">Spatio-Temporal Action Detection\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fucf101_24\u002FREADME.md\">UCF101-24*\u003C\u002Fa> (\u003Ca href=\"http:\u002F\u002Fwww.thumos.info\u002Fdownload.html\">Homepage\u003C\u002Fa>) (CRCV-IR-12-01)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fjhmdb\u002FREADME.md\">JHMDB*\u003C\u002Fa> (\u003Ca href=\"http:\u002F\u002Fjhmdb.is.tue.mpg.de\u002F\">Homepage\u003C\u002Fa>) (ICCV'2015)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fava\u002FREADME.md\">AVA\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fresearch.google.com\u002Fava\u002Findex.html\">Homepage\u003C\u002Fa>) (CVPR'2018)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fava_kinetics\u002FREADME.md\">AVA-Kinetics\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fresearch.google.com\u002Fava\u002Findex.html\">Homepage\u003C\u002Fa>) (Arxiv'2020)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fmultisports\u002FREADME.md\">MultiSports\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fdeeperaction.github.io\u002Fdatasets\u002Fmultisports.html\">Homepage\u003C\u002Fa>) (ICCV'2021)\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd colspan=\"4\" style=\"font-weight:bold;\">Skeleton-based Action Recognition\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fskeleton\u002FREADME.md\">PoseC3D-FineGYM\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fkennymckormick.github.io\u002Fposec3d\u002F\">Homepage\u003C\u002Fa>) (ArXiv'2021)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fskeleton\u002FREADME.md\">PoseC3D-NTURGB+D\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fkennymckormick.github.io\u002Fposec3d\u002F\">Homepage\u003C\u002Fa>) (ArXiv'2021)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fskeleton\u002FREADME.md\">PoseC3D-UCF101\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fkennymckormick.github.io\u002Fposec3d\u002F\">Homepage\u003C\u002Fa>) (ArXiv'2021)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fskeleton\u002FREADME.md\">PoseC3D-HMDB51\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fkennymckormick.github.io\u002Fposec3d\u002F\">Homepage\u003C\u002Fa>) (ArXiv'2021)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd colspan=\"4\" style=\"font-weight:bold;\">Video Retrieval\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fvideo_retrieval\u002FREADME.md\">MSRVTT\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fpublication\u002Fmsr-vtt-a-large-video-description-dataset-for-bridging-video-and-language\u002F\">Homepage\u003C\u002Fa>) (CVPR'2016)\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\n\u003C\u002Ftable>\n\n\u003C\u002Fdetails>\n\n## 👨‍🏫 Get Started [🔝](#-table-of-contents)\n\nFor tutorials, we provide the following user guides for basic usage:\n\n- [Migration from MMAction2 0.X](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fmigration.html)\n- [Learn about Configs](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Fconfig.html)\n- [Prepare Datasets](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Fprepare_dataset.html)\n- [Inference with Existing Models](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Finference.html)\n- [Training and Testing](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Ftrain_test.html)\n\n\u003Cdetails close>\n\u003Csummary>Research works built on MMAction2 by users from community\u003C\u002Fsummary>\n\n- Video Swin Transformer. [\\[paper\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.13230)[\\[github\\]](https:\u002F\u002Fgithub.com\u002FSwinTransformer\u002FVideo-Swin-Transformer)\n- Evidential Deep Learning for Open Set Action Recognition, ICCV 2021 **Oral**. [\\[paper\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2107.10161)[\\[github\\]](https:\u002F\u002Fgithub.com\u002FCogito2012\u002FDEAR)\n- Rethinking Self-supervised Correspondence Learning: A Video Frame-level Similarity Perspective, ICCV 2021 **Oral**. [\\[paper\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.17263)[\\[github\\]](https:\u002F\u002Fgithub.com\u002Fxvjiarui\u002FVFS)\n\n\u003C\u002Fdetails>\n\n## 🎫 License [🔝](#-table-of-contents)\n\nThis project is released under the [Apache 2.0 license](LICENSE).\n\n## 🖊️ Citation [🔝](#-table-of-contents)\n\nIf you find this project useful in your research, please consider cite:\n\n```BibTeX\n@misc{2020mmaction2,\n    title={OpenMMLab's Next Generation Video Understanding Toolbox and Benchmark},\n    author={MMAction2 Contributors},\n    howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2}},\n    year={2020}\n}\n```\n\n## 🙌 Contributing [🔝](#-table-of-contents)\n\nWe appreciate all contributions to improve MMAction2. Please refer to [CONTRIBUTING.md](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmcv\u002Fblob\u002F2.x\u002FCONTRIBUTING.md) in MMCV for more details about the contributing guideline.\n\n## 🤝 Acknowledgement [🔝](#-table-of-contents)\n\nMMAction2 is an open-source project that is contributed by researchers and engineers from various colleges and companies.\nWe appreciate all the contributors who implement their methods or add new features and users who give valuable feedback.\nWe wish that the toolbox and benchmark could serve the growing research community by providing a flexible toolkit to reimplement existing methods and develop their new models.\n\n## 🏗️ Projects in OpenMMLab [🔝](#-table-of-contents)\n\n- [MMEngine](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmengine): OpenMMLab foundational library for training deep learning models.\n- [MMCV](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmcv): OpenMMLab foundational library for computer vision.\n- [MIM](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmim): MIM installs OpenMMLab packages.\n- [MMEval](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmeval): A unified evaluation library for multiple machine learning libraries.\n- [MMPreTrain](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain): OpenMMLab pre-training toolbox and benchmark.\n- [MMDetection](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection): OpenMMLab detection toolbox and benchmark.\n- [MMDetection3D](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d): OpenMMLab's next-generation platform for general 3D object detection.\n- [MMRotate](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmrotate): OpenMMLab rotated object detection toolbox and benchmark.\n- [MMYOLO](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmyolo): OpenMMLab YOLO series toolbox and benchmark.\n- [MMSegmentation](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmsegmentation): OpenMMLab semantic segmentation toolbox and benchmark.\n- [MMOCR](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmocr): OpenMMLab text detection, recognition, and understanding toolbox.\n- [MMPose](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpose): OpenMMLab pose estimation toolbox and benchmark.\n- [MMHuman3D](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmhuman3d): OpenMMLab 3D human parametric model toolbox and benchmark.\n- [MMSelfSup](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmselfsup): OpenMMLab self-supervised learning toolbox and benchmark.\n- [MMRazor](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmrazor): OpenMMLab model compression toolbox and benchmark.\n- [MMFewShot](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot): OpenMMLab fewshot learning toolbox and benchmark.\n- [MMAction2](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2): OpenMMLab's next-generation action understanding toolbox and benchmark.\n- [MMTracking](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmtracking): OpenMMLab video perception toolbox and benchmark.\n- [MMFlow](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmflow): OpenMMLab optical flow toolbox and benchmark.\n- [MMagic](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmagic): Open**MM**Lab **A**dvanced, **G**enerative and **I**ntelligent **C**reation toolbox.\n- [MMGeneration](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmgeneration): OpenMMLab image and video generative models toolbox.\n- [MMDeploy](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdeploy): OpenMMLab model deployment framework.\n- [Playground](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fplayground): A central hub for gathering and showcasing amazing projects built upon OpenMMLab.\n","\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_d7f27bce0cbb.png\" width=\"600\"\u002F>\n  \u003Cdiv>&nbsp;\u003C\u002Fdiv>\n  \u003Cdiv align=\"center\">\n    \u003Cb>\u003Cfont size=\"5\">OpenMMLab官网\u003C\u002Ffont>\u003C\u002Fb>\n    \u003Csup>\n      \u003Ca href=\"https:\u002F\u002Fopenmmlab.com\">\n        \u003Ci>\u003Cfont size=\"4\">热门\u003C\u002Ffont>\u003C\u002Fi>\n      \u003C\u002Fa>\n    \u003C\u002Fsup>\n    &nbsp;&nbsp;&nbsp;&nbsp;\n    \u003Cb>\u003Cfont size=\"5\">OpenMMLab平台\u003C\u002Ffont>\u003C\u002Fb>\n    \u003Csup>\n      \u003Ca href=\"https:\u002F\u002Fplatform.openmmlab.com\">\n        \u003Ci>\u003Cfont size=\"4\">立即体验\u003C\u002Ffont>\u003C\u002Fi>\n      \u003C\u002Fa>\n    \u003C\u002Fsup>\n  \u003C\u002Fdiv>\n\n[![文档](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_6bf48b3e9a6d.png)](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002F)\n[![工作流](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fworkflows\u002Fbuild\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Factions)\n[![代码覆盖率](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fopen-mmlab\u002Fmmaction2\u002Fbranch\u002Fmain\u002Fgraph\u002Fbadge.svg)](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fopen-mmlab\u002Fmmaction2)\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fmmaction2)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fmmaction2\u002F)\n[![许可证](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fopen-mmlab\u002Fmmaction2.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002FLICENSE)\n[![平均问题解决时间](https:\u002F\u002Fisitmaintained.com\u002Fbadge\u002Fresolution\u002Fopen-mmlab\u002Fmmaction2.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fissues)\n[![未解决问题比例](https:\u002F\u002Fisitmaintained.com\u002Fbadge\u002Fopen\u002Fopen-mmlab\u002Fmmaction2.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fissues)\n\n[📘文档](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002F) |\n[🛠️安装](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fget_started\u002Finstallation.html) |\n[👀模型库](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fmodelzoo_statistics.html) |\n[🆕更新消息](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fnotes\u002Fchangelog.html) |\n[🚀进行中项目](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fprojects) |\n[🤔提交问题](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fissues\u002Fnew\u002Fchoose)\n\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fopenmmlab.medium.com\u002F\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_062337b0e5ec.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fdiscord.com\u002Fchannels\u002F1037617289144569886\u002F1046608014234370059\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_6342e5371027.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002FOpenMMLab\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_04c3beda0b07.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fopenmmlab\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_204fe79b5a90.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fspace.bilibili.com\u002F1293512903\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_8655b6233577.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fwww.zhihu.com\u002Fpeople\u002Fopenmmlab\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_447c4737c11f.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\nEnglish | [简体中文](\u002FREADME_zh-CN.md)\n\n## 📄 目录\n\n- [📄 目录](#-table-of-contents)\n- [🥳 🚀 最新动态](#--whats-new-)\n- [📖 简介](#-introduction-)\n- [🎁 主要特性](#-major-features-)\n- [🛠️ 安装](#️-installation-)\n- [👀 模型库](#-model-zoo-)\n- [👨‍🏫 快速入门](#-get-started-)\n- [🎫 许可证](#-license-)\n- [🖊️ 引用](#️-citation-)\n- [🙌 贡献](#-contributing-)\n- [🤝 致谢](#-acknowledgement-)\n- [🏗️ OpenMMLab中的项目](#️-projects-in-openmmlab-)\n\n## 🥳 🚀 最新动态 [🔝](#-table-of-contents)\n\n**默认分支已从`master`(当前`0.x`)切换至`main`(之前的`1.x`)，我们鼓励用户迁移到最新版本，该版本支持更多模型、更强的预训练检查点以及更简洁的代码。更多详情请参阅[迁移指南](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fmigration.html)。**\n\n**发布日期（2023年10月12日）：** v1.2.0 新增以下功能：\n\n- 支持VindLU多模态算法及ActionClip的训练\n- 支持轻量级模型MobileOne TSN\u002FTSM\n- 支持视频检索数据集MSVD\n- 支持使用SlowOnly K700特征训练定位模型\n- 支持视频和音频演示\n\n## 📖 简介 [🔝](#-table-of-contents)\n\nMMAction2是一个基于PyTorch的开源视频理解工具箱。\n它是[OpenMMLab](http:\u002F\u002Fopenmmlab.com\u002F)项目的一部分。\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_055d5f6c765f.gif\" width=\"380px\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_a35964f95b9f.gif\" width=\"380px\">\n  \u003Cp style=\"font-size:1.5vw;\"> 基于Kinetics-400的动作分类（左）和基于NTU-RGB+D-120的骨骼动作分类（右）\u003C\u002Fp>\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_d2079fa4dba2.gif\" width=\"580px\"\u002F>\u003Cbr>\n    \u003Cp style=\"font-size:1.5vw;\"> 基于骨骼的时空动作检测及在Kinetics-400上的动作分类结果\u003C\u002Fp>\n\u003C\u002Fdiv>\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_readme_e256f3cdd805.gif\" width=\"800px\"\u002F>\u003Cbr>\n    \u003Cp style=\"font-size:1.5vw;\"> AVA-2.1上的时空动作检测结果\u003C\u002Fp>\n\u003C\u002Fdiv>\n\n## 🎁 主要特性 [🔝](#-table-of-contents)\n\n- **模块化设计**：我们将视频理解框架分解为不同的组件。用户可以通过组合不同模块轻松构建自定义的视频理解框架。\n\n- **支持五大视频理解任务**：MMAction2实现了多种算法，用于处理包括动作分类、动作定位、时空动作检测、基于骨骼的动作检测以及视频检索在内的多项视频理解任务。\n\n- **经过充分测试与完善文档**：我们提供了详尽的文档和API参考，以及单元测试。\n\n## 🛠️ 安装 [🔝](#-table-of-contents)\n\nMMAction2 依赖于 [PyTorch](https:\u002F\u002Fpytorch.org\u002F)、[MMCV](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmcv)、[MMEngine](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmengine)、[MMDetection](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection)（可选）以及 [MMPose](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpose)（可选）。\n\n请参阅 [install.md](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fget_started\u002Finstallation.html) 获取详细说明。\n\n\u003Cdetails close>\n\u003Csummary>快速安装指南\u003C\u002Fsummary>\n\n```shell\nconda create --name openmmlab python=3.8 -y\nconda activate openmmlab\nconda install pytorch torchvision -c pytorch  # 此命令将自动安装最新版本的 PyTorch 和 cudatoolkit，请检查它们是否与您的环境匹配。\npip install -U openmim\nmim install mmengine\nmim install mmcv\nmim install mmdet  # 可选\nmim install mmpose  # 可选\ngit clone https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2.git\ncd mmaction2\npip install -v -e .\n```\n\n\u003C\u002Fdetails>\n\n## 👀 模型库 [🔝](#-table-of-contents)\n\n结果和模型可在 [模型库](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fmodel_zoo\u002Fmodelzoo.html) 中找到。\n\n\u003Cdetails close>\n\n\u003Csummary>支持的模型\u003C\u002Fsummary>\n\n\u003Ctable style=\"margin-left:auto;margin-right:auto;font-size:1.3vw;padding:3px 5px;text-align:center;vertical-align:center;\">\n  \u003Ctr>\n    \u003Ctd colspan=\"5\" style=\"font-weight:bold;\">动作识别\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fc3d\u002FREADME.md\">C3D\u003C\u002Fa> (CVPR'2014)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Ftsn\u002FREADME.md\">TSN\u003C\u002Fa> (ECCV'2016)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fi3d\u002FREADME.md\">I3D\u003C\u002Fa> (CVPR'2017)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fc2d\u002FREADME.md\">C2D\u003C\u002Fa> (CVPR'2018)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fi3d\u002FREADME.md\">I3D Non-Local\u003C\u002Fa> (CVPR'2018)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fr2plus1d\u002FREADME.md\">R(2+1)D\u003C\u002Fa> (CVPR'2018)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Ftrn\u002FREADME.md\">TRN\u003C\u002Fa> (ECCV'2018)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Ftsm\u002FREADME.md\">TSM\u003C\u002Fa> (ICCV'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Ftsm\u002FREADME.md\">TSM Non-Local\u003C\u002Fa> (ICCV'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fslowonly\u002FREADME.md\">SlowOnly\u003C\u002Fa> (ICCV'2019)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fslowfast\u002FREADME.md\">SlowFast\u003C\u002Fa> (ICCV'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fcsn\u002FREADME.md\">CSN\u003C\u002Fa> (ICCV'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Ftin\u002FREADME.md\">TIN\u003C\u002Fa> (AAAI'2020)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Ftpn\u002FREADME.md\">TPN\u003C\u002Fa> (CVPR'2020)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fx3d\u002FREADME.md\">X3D\u003C\u002Fa> (CVPR'2020)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition_audio\u002Fresnet\u002FREADME.md\">多模态：音频\u003C\u002Fa> (ArXiv'2020)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Ftanet\u002FREADME.md\">TANet\u003C\u002Fa> (ArXiv'2020)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fprojects\u002Factionclip\u002FREADME.md\">ActionCLIP\u003C\u002Fa> (ArXiv'2021)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fswin\u002FREADME.md\">VideoSwin\u003C\u002Fa> (CVPR'2022)\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fvideomae\u002FREADME.md\">VideoMAE\u003C\u002Fa> (NeurIPS'2022)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fmvit\u002FREADME.md\">MViT V2\u003C\u002Fa> (CVPR'2022)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Funiformer\u002FREADME.md\">UniFormer V1\u003C\u002Fa> (ICLR'2022)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Funiformerv2\u002FREADME.md\">UniFormer V2\u003C\u002Fa> (Arxiv'2022)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fvideomaev2\u002FREADME.md\">VideoMAE V2\u003C\u002Fa> (CVPR'2023)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd colspan=\"5\" style=\"font-weight:bold;\">动作定位\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Flocalization\u002Fbsn\u002FREADME.md\">BSN\u003C\u002Fa> (ECCV'2018)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Flocalization\u002Fbmn\u002FREADME.md\">BMN\u003C\u002Fa> (ICCV'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Flocalization\u002Ftcanet\u002FREADME.md\">TCANet\u003C\u002Fa> (CVPR'2021)\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd colspan=\"5\" style=\"font-weight:bold;\">时空动作检测\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Fdetection\u002Facrn\u002FREADME.md\">ACRN\u003C\u002Fa> (ECCV'2018)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Fdetection\u002Fslowonly\u002FREADME.md\">SlowOnly+Fast R-CNN\u003C\u002Fa> (ICCV'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Fdetection\u002Fslowfast\u002FREADME.md\">SlowFast+Fast R-CNN\u003C\u002Fa> (ICCV'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Fdetection\u002Flfb\u002FREADME.md\">LFB\u003C\u002Fa> (CVPR'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Frecognition\u002Fvideomae\u002FREADME.md\">VideoMAE\u003C\u002Fa> (NeurIPS'2022)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd colspan=\"5\" style=\"font-weight:bold;\">基于骨骼的动作识别\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Fskeleton\u002Fstgcn\u002FREADME.md\">ST-GCN\u003C\u002Fa> (AAAI'2018)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Fskeleton\u002F2s-agcn\u002FREADME.md\">2s-AGCN\u003C\u002Fa> (CVPR'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Fskeleton\u002Fposec3d\u002FREADME.md\">PoseC3D\u003C\u002Fa> (CVPR'2022)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Fskeleton\u002Fstgcnpp\u002FREADME.md\">STGCN++\u003C\u002Fa> (ArXiv'2022)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fprojects\u002Fctrgcn\u002FREADME.md\">CTRGCN\u003C\u002Fa> (CVPR'2021)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fprojects\u002Fmsg3d\u002FREADME.md\">MSG3D\u003C\u002Fa> (CVPR'2020)\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd colspan=\"5\" style=\"font-weight:bold;\">视频检索\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Fconfigs\u002Fretrieval\u002Fclip4clip\u002FREADME.md\">CLIP4Clip\u003C\u002Fa> (ArXiv'2022)\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\n\u003C\u002Ftable>\n\n\u003C\u002Fdetails>\n\n\u003Cdetails close>\n\n\u003Csummary>支持的数据集\u003C\u002Fsummary>\n\n\u003Ctable style=\"margin-left:auto;margin-right:auto;font-size:1.3vw;padding:3px 5px;text-align:center;vertical-align:center;\">\n  \u003Ctr>\n    \u003Ctd colspan=\"4\" style=\"font-weight:bold;\">动作识别\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fhmdb51\u002FREADME.md\">HMDB51\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fserre-lab.clps.brown.edu\u002Fresource\u002Fhmdb-a-large-human-motion-database\u002F\">官网\u003C\u002Fa>) (ICCV'2011)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fucf101\u002FREADME.md\">UCF101\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fwww.crcv.ucf.edu\u002Fresearch\u002Fdata-sets\u002Fucf101\u002F\">官网\u003C\u002Fa>) (CRCV-IR-12-01)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Factivitynet\u002FREADME.md\">ActivityNet\u003C\u002Fa> (\u003Ca href=\"http:\u002F\u002Factivity-net.org\u002F\">官网\u003C\u002Fa>) (CVPR'2015)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fkinetics\u002FREADME.md\">Kinetics-[400\u002F600\u002F700]\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fdeepmind.com\u002Fresearch\u002Fopen-source\u002Fkinetics\u002F\">官网\u003C\u002Fa>) (CVPR'2017)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fsthv1\u002FREADME.md\">SthV1\u003C\u002Fa> (ICCV'2017)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fsthv2\u002FREADME.md\">SthV2\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fdeveloper.qualcomm.com\u002Fsoftware\u002Fai-datasets\u002Fsomething-something\">官网\u003C\u002Fa>) (ICCV'2017)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fdiving48\u002FREADME.md\">Diving48\u003C\u002Fa> (\u003Ca href=\"http:\u002F\u002Fwww.svcl.ucsd.edu\u002Fprojects\u002Fresound\u002Fdataset.html\">官网\u003C\u002Fa>) (ECCV'2018)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fjester\u002FREADME.md\">Jester\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fdeveloper.qualcomm.com\u002Fsoftware\u002Fai-datasets\u002Fjester\">官网\u003C\u002Fa>) (ICCV'2019)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fmit\u002FREADME.md\">Moments in Time\u003C\u002Fa> (\u003Ca href=\"http:\u002F\u002Fmoments.csail.mit.edu\u002F\">官网\u003C\u002Fa>) (TPAMI'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fmmit\u002FREADME.md\">Multi-Moments in Time\u003C\u002Fa> (\u003Ca href=\"http:\u002F\u002Fmoments.csail.mit.edu\u002Fchallenge_iccv_2019.html\">官网\u003C\u002Fa>) (ArXiv'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fhvu\u002FREADME.md\">HVU\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fholistic-video-understanding\u002FHVU-Dataset\">官网\u003C\u002Fa>) (ECCV'2020)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fomnisource\u002FREADME.md\">OmniSource\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fkennymckormick.github.io\u002Fomnisource\u002F\">官网\u003C\u002Fa>) (ECCV'2020)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fgym\u002FREADME.md\">FineGYM\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fsdolivia.github.io\u002FFineGym\u002F\">官网\u003C\u002Fa>) (CVPR'2020)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fkinetics710\u002FREADME.md\">Kinetics-710\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2211.09552.pdf\">官网\u003C\u002Fa>) (Arxiv'2022)\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd colspan=\"4\" style=\"font-weight:bold;\">动作定位\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fthumos14\u002FREADME.md\">THUMOS14\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fwww.crcv.ucf.edu\u002FTHUMOS14\u002Fdownload.html\">官网\u003C\u002Fa>) (THUMOS Challenge 2014)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Factivitynet\u002FREADME.md\">ActivityNet\u003C\u002Fa> (\u003Ca href=\"http:\u002F\u002Factivity-net.org\u002F\">官网\u003C\u002Fa>) (CVPR'2015)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fhacs\u002FREADME.md\">HACS\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fhangzhaomit\u002FHACS-dataset\">官网\u003C\u002Fa>) (ICCV'2019)\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd colspan=\"4\" style=\"font-weight:bold;\">时空动作检测\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fucf101_24\u002FREADME.md\">UCF101-24*\u003C\u002Fa> (\u003Ca href=\"http:\u002F\u002Fwww.thumos.info\u002Fdownload.html\">官网\u003C\u002Fa>) (CRCV-IR-12-01)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fjhmdb\u002FREADME.md\">JHMDB*\u003C\u002Fa> (\u003Ca href=\"http:\u002F\u002Fjhmdb.is.tue.mpg.de\u002F\">官网\u003C\u002Fa>) (ICCV'2015)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fava\u002FREADME.md\">AVA\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fresearch.google.com\u002Fava\u002Findex.html\">官网\u003C\u002Fa>) (CVPR'2018)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fava_kinetics\u002FREADME.md\">AVA-Kinetics\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fresearch.google.com\u002Fava\u002Findex.html\">官网\u003C\u002Fa>) (Arxiv'2020)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fmultisports\u002FREADME.md\">MultiSports\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fdeeperaction.github.io\u002Fdatasets\u002Fmultisports.html\">官网\u003C\u002Fa>) (ICCV'2021)\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd colspan=\"4\" style=\"font-weight:bold;\">基于骨骼的动作识别\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fskeleton\u002FREADME.md\">PoseC3D-FineGYM\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fkennymckormick.github.io\u002Fposec3d\u002F\">官网\u003C\u002Fa>) (ArXiv'2021)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fskeleton\u002FREADME.md\">PoseC3D-NTURGB+D\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fkennymckormick.github.io\u002Fposec3d\u002F\">官网\u003C\u002Fa>) (ArXiv'2021)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fskeleton\u002FREADME.md\">PoseC3D-UCF101\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fkennymckormick.github.io\u002Fposec3d\u002F\">官网\u003C\u002Fa>) (ArXiv'2021)\u003C\u002Ftd>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fskeleton\u002FREADME.md\">PoseC3D-HMDB51\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fkennymckormick.github.io\u002Fposec3d\u002F\">官网\u003C\u002Fa>) (ArXiv'2021)\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd colspan=\"4\" style=\"font-weight:bold;\">视频检索\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002Fmain\u002Ftools\u002Fdata\u002Fvideo_retrieval\u002FREADME.md\">MSRVTT\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fpublication\u002Fmsr-vtt-a-large-video-description-dataset-for-bridging-video-and-language\u002F\">官网\u003C\u002Fa>) (CVPR'2016)\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\n\u003C\u002Ftable>\n\n\u003C\u002Fdetails>\n\n## 👨‍🏫 开始使用 [🔝](#-table-of-contents)\n\n为了帮助用户快速上手，我们提供了以下基础使用指南：\n\n- [从 MMAction2 0.X 迁移](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fmigration.html)\n- [配置文件详解](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Fconfig.html)\n- [数据集准备](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Fprepare_dataset.html)\n- [使用现有模型进行推理](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Finference.html)\n- [训练与测试](https:\u002F\u002Fmmaction2.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Ftrain_test.html)\n\n\u003Cdetails close>\n\u003Csummary>社区用户基于 MMAction2 的研究成果\u003C\u002Fsummary>\n\n- Video Swin Transformer。[\\[论文\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.13230)[\\[GitHub\\]](https:\u002F\u002Fgithub.com\u002FSwinTransformer\u002FVideo-Swin-Transformer)\n- 面向开放集动作识别的证据深度学习，ICCV 2021 **口头报告**。[\\[论文\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2107.10161)[\\[GitHub\\]](https:\u002F\u002Fgithub.com\u002FCogito2012\u002FDEAR)\n- 重新思考自监督对应关系学习：视频帧级相似性视角，ICCV 2021 **口头报告**。[\\[论文\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.17263)[\\[GitHub\\]](https:\u002F\u002Fgithub.com\u002Fxvjiarui\u002FVFS)\n\n\u003C\u002Fdetails>\n\n## 🎫 许可证 [🔝](#-table-of-contents)\n\n本项目采用 [Apache 2.0 许可证](LICENSE) 发布。\n\n## 🖊️ 引用 [🔝](#-table-of-contents)\n\n如果您在研究中使用了本项目，请考虑引用：\n\n```BibTeX\n@misc{2020mmaction2,\n    title={OpenMMLab 下一代视频理解工具箱及基准},\n    author={MMAction2 贡献者},\n    howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2}},\n    year={2020}\n}\n```\n\n## 🙌 贡献 [🔝](#-table-of-contents)\n\n我们非常欢迎对 MMAction2 的任何贡献。有关贡献指南的详细信息，请参阅 MMCV 中的 [CONTRIBUTING.md](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmcv\u002Fblob\u002F2.x\u002FCONTRIBUTING.md)。\n\n## 🤝 致谢 [🔝](#-table-of-contents)\n\nMMAction2 是一个开源项目，由来自不同院校和公司的研究人员与工程师共同贡献而成。\n我们感谢所有实现其方法或添加新功能的贡献者，以及提供宝贵反馈的用户。\n我们希望该工具箱和基准能够为不断壮大的研究社区服务，提供一个灵活的工具集，用于复现现有方法并开发新的模型。\n\n## 🏗️ OpenMMLab 中的项目 [🔝](#-table-of-contents)\n\n- [MMEngine](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmengine)：OpenMMLab 用于训练深度学习模型的基础库。\n- [MMCV](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmcv)：OpenMMLab 用于计算机视觉的基础库。\n- [MIM](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmim)：MIM 用于安装 OpenMMLab 的相关软件包。\n- [MMEval](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmeval)：一个面向多种机器学习框架的统一评估库。\n- [MMPreTrain](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain)：OpenMMLab 的预训练工具箱及基准。\n- [MMDetection](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection)：OpenMMLab 的目标检测工具箱及基准。\n- [MMDetection3D](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d)：OpenMMLab 新一代通用 3D 物体检测平台。\n- [MMRotate](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmrotate)：OpenMMLab 的旋转目标检测工具箱及基准。\n- [MMYOLO](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmyolo)：OpenMMLab YOLO 系列工具箱及基准。\n- [MMSegmentation](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmsegmentation)：OpenMMLab 的语义分割工具箱及基准。\n- [MMOCR](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmocr)：OpenMMLab 的文本检测、识别与理解工具箱。\n- [MMPose](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpose)：OpenMMLab 的姿态估计工具箱及基准。\n- [MMHuman3D](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmhuman3d)：OpenMMLab 的 3D 人体参数化模型工具箱及基准。\n- [MMSelfSup](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmselfsup)：OpenMMLab 的自监督学习工具箱及基准。\n- [MMRazor](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmrazor)：OpenMMLab 的模型压缩工具箱及基准。\n- [MMFewShot](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot)：OpenMMLab 的少样本学习工具箱及基准。\n- [MMAction2](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2)：OpenMMLab 下一代动作理解工具箱及基准。\n- [MMTracking](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmtracking)：OpenMMLab 的视频感知工具箱及基准。\n- [MMFlow](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmflow)：OpenMMLab 的光流计算工具箱及基准。\n- [MMagic](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmagic)：Open**MM**Lab **A**dvanced, **G**enerative and **I**ntelligent **C**reation 工具箱。\n- [MMGeneration](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmgeneration)：OpenMMLab 的图像和视频生成模型工具箱。\n- [MMDeploy](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdeploy)：OpenMMLab 的模型部署框架。\n- [Playground](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fplayground)：一个汇集并展示基于 OpenMMLab 构建的优秀项目的中心平台。","# MMAction2 快速上手指南\n\nMMAction2 是一个基于 PyTorch 的开源视频理解工具箱，由 OpenMMLab 开发。它支持动作识别、动作定位、时空动作检测、基于骨架的动作检测及视频检索等五大核心任务。\n\n## 1. 环境准备\n\n在开始安装前，请确保满足以下系统要求：\n\n*   **操作系统**: Linux (推荐), Windows, macOS\n*   **Python**: 3.8 及以上版本\n*   **PyTorch**: 1.6+ (推荐最新稳定版)\n*   **CUDA**: 根据显卡型号安装对应的 CUDA Toolkit (可选，用于 GPU 加速)\n*   **前置依赖**: 需安装 `mmcv`, `mmengine`，可选安装 `mmdet` (用于检测任务) 和 `mmpose` (用于骨架任务)。\n\n> **提示**：国内用户建议使用清华源或阿里源加速 Python 包下载。\n\n## 2. 安装步骤\n\n推荐使用 `conda` 创建独立虚拟环境，并使用 `openmim` 工具管理 OpenMMLab 系列依赖。\n\n### 第一步：创建并激活环境\n```shell\nconda create --name openmmlab python=3.8 -y\nconda activate openmmlab\n```\n\n### 第二步：安装 PyTorch\n根据您的 CUDA 版本选择安装命令（以下为通用命令，会自动匹配最新兼容版本）：\n```shell\nconda install pytorch torchvision -c pytorch\n```\n*国内加速方案（清华源）*:\n```shell\nconda install pytorch torchvision -c https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fcloud\u002Fpytorch\u002F\n```\n\n### 第三步：安装 OpenMMLab 核心组件\n使用 `mim` (OpenMMLab Package Manager) 安装依赖，它会自动处理版本兼容性：\n```shell\npip install -U openmim\nmim install mmengine\nmim install mmcv\n```\n\n如需支持动作定位或骨架检测任务，请安装可选依赖：\n```shell\nmim install mmdet\nmim install mmpose\n```\n\n### 第四步：安装 MMAction2\n克隆源码并以可编辑模式安装：\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2.git\ncd mmaction2\npip install -v -e .\n```\n*国内加速克隆*:\n```shell\ngit clone https:\u002F\u002Fgitee.com\u002Fopenmmlab\u002Fmmaction2.git\n```\n\n## 3. 基本使用\n\n安装完成后，您可以直接使用提供的配置文件进行模型推理或训练。以下是一个最简单的**视频动作识别推理**示例。\n\n### 准备测试视频\n确保当前目录下有一个视频文件（例如 `demo.mp4`），或者使用项目自带的示例视频。\n\n### 运行推理脚本\n使用预训练模型对视频进行动作识别。以下命令使用 TSN 模型（ResNet50 骨干网络）在 Kinetics-400 数据集上预训练的权重进行测试：\n\n```shell\npython demo\u002Fdemo_inferencer.py \\\n    demo\u002Fdemo.mp4 \\\n    configs\u002Frecognition\u002Ftsn\u002Ftsn_imagenet-pretrained-r50_8xb32-1x1x3-100e_kinetics400-rgb.py \\\n    https:\u002F\u002Fdownload.openmmlab.com\u002Fmmaction\u002Fv1.0\u002Frecognition\u002Ftsn\u002Ftsn_imagenet-pretrained-r50_8xb32-1x1x3-100e_kinetics400-rgb\u002Ftsn_imagenet-pretrained-r50_8xb32-1x1x3-100e_kinetics400-rgb_20220922-10297f05.pth \\\n    --out-dir result\n```\n\n**参数说明：**\n*   `demo\u002Fdemo.mp4`: 输入视频路径。\n*   `.py` 文件：模型配置文件（定义了网络结构）。\n*   `.pth` 文件：预训练权重文件链接（也可下载后使用本地路径）。\n*   `--out-dir result`: 输出结果目录，包含带有预测标签的视频和文本结果。\n\n执行完毕后，查看 `result` 文件夹即可看到标注了动作类别的视频文件。","某短视频平台的内容安全团队需要每天自动审核数万条用户上传的视频，以识别其中的打架、跌倒或危险驾驶等异常行为。\n\n### 没有 mmaction2 时\n- 算法工程师需从零复现论文代码，针对不同动作类别（如“推搡”与“拥抱”）反复调试数据预处理管道，耗时数周仍难以收敛。\n- 缺乏统一的基准测试框架，团队无法快速对比 TSN、SlowFast 等不同模型在自有数据集上的真实性能，选型全靠经验猜测。\n- 视频解码与帧采样逻辑分散在各个脚本中，一旦输入视频分辨率或帧率变化，整个推理流程就会报错，维护成本极高。\n- 部署阶段需手动转换模型格式，且缺乏对时序动作定位（Temporal Action Localization）的原生支持，难以精准截取违规片段。\n\n### 使用 mmaction2 后\n- 直接调用内置的数十种预训练模型和标准数据集配置，仅需修改几行配置文件即可完成新动作类别的微调，研发周期从数周缩短至两天。\n- 利用统一的评测基准，一键生成多模型性能对比报告，迅速锁定最适合当前业务场景的轻量级架构，准确率提升 15%。\n- 依托标准化的数据加载模块，自动适配各种编码格式和分辨率的视频流，推理服务稳定性大幅增强，不再因格式问题中断。\n- 通过原生支持的时空动作检测算法，不仅能分类视频内容，还能精确输出违规行为的时间戳区间，实现自动化精准剪辑与打标。\n\nmmaction2 将繁琐的视频理解研发流程标准化，让团队从重复造轮子中解放出来，专注于解决具体的业务难题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmaction2_c92b3156.png","open-mmlab","OpenMMLab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fopen-mmlab_7c171dd7.png","",null,"https:\u002F\u002Fopenmmlab.com","https:\u002F\u002Fgithub.com\u002Fopen-mmlab",[80,84,88,92],{"name":81,"color":82,"percentage":83},"Python","#3572A5",83.7,{"name":85,"color":86,"percentage":87},"Jupyter Notebook","#DA5B0B",15,{"name":89,"color":90,"percentage":91},"Shell","#89e051",1.3,{"name":93,"color":94,"percentage":95},"Dockerfile","#384d54",0.1,4993,1348,"2026-04-17T10:07:51","Apache-2.0","Linux","需要 NVIDIA GPU (依赖 PyTorch CUDA 版本)，具体型号和显存未说明，取决于所选模型","未说明",{"notes":104,"python":105,"dependencies":106},"默认分支已切换至 main (v1.x)，建议用户迁移。安装推荐使用 conda 创建环境，并通过 openmim 工具安装 MMEngine、MMCV 等核心依赖。部分功能（如骨骼检测）需额外安装 MMDetection 或 MMPose。","3.8+",[107,108,109,110,111],"PyTorch","MMCV","MMEngine","MMDetection (可选)","MMPose (可选)",[113,114,14],"其他","视频",[116,117,118,119,120,121,122,123,124,125,126,127,128,129,130,131,132,133],"action-recognition","temporal-action-localization","pytorch","video-understanding","tsn","i3d","slowfast","ava","spatial-temporal-action-detection","benchmark","tsm","x3d","non-local","deep-learning","openmmlab","posec3d","video-classification","uniformerv2","2026-03-27T02:49:30.150509","2026-04-18T00:45:28.715991",[137,142,146,151,156,160],{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},38365,"在自定义数据集上训练 SlowFast 模型时，验证集的 mAP 始终为 0 是什么原因？","最常见的原因是未在数据配置（data config）中正确设置 `num_classes` 参数。即使你在模型头（model head）中设置了类别数，如果数据集定义中缺少该参数，评估指标仍会出错。\n\n请确保在配置文件的数据字典中，为 train、val 和 test 部分都显式添加 `num_classes`。示例如下：\n\n```python\ndata = dict(\n    videos_per_gpu=1,\n    workers_per_gpu=4,\n    train=dict(\n        type='AVADataset',\n        num_classes=3,  # 必须添加此项，数值为你的实际类别数\n        ann_file=ann_file_train,\n        # ... 其他配置\n    ),\n    val=dict(\n        type='AVADataset',\n        num_classes=3,  # 必须添加此项\n        ann_file=ann_file_val,\n        # ... 其他配置\n    ),\n    test=dict(\n        type='AVADataset',\n        num_classes=3,  # 必须添加此项\n        # ... 其他配置\n    ),\n)\n```\n修改后重新训练即可解决 mAP 为 0 的问题。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fissues\u002F732",{"id":143,"question_zh":144,"answer_zh":145,"source_url":141},38366,"使用自定义数据进行 AVA 格式的动作检测训练时，如何正确设置类别数量以避免断言错误（Assertion Error）？","当遇到类似 `box_head.py` 中的断言错误时，通常是因为 `num_classes` 设置不匹配。你需要同时在模型配置和数据集配置中统一类别数。\n\n1. 确认你的自定义类别列表，例如 `custom_classes = [1, 2, 3]`，则 `num_classes` 应设为 3（或者根据背景类情况设为 4，具体视标签文件而定，通常直接对应标签数量）。\n2. 在配置文件的 `data` 字段中，务必为 `train`, `val`, `test` 字典添加 `num_classes` 键。\n\n代码示例：\n```python\ndata = dict(\n    train=dict(\n        type='AVADataset',\n        num_classes=3,  # 根据你的实际类别数修改\n        ...\n    ),\n    val=dict(\n        type='AVADataset',\n        num_classes=3,\n        ...\n    )\n)\n```\n确保该数值与 `model.roi_head.bbox_head.num_classes` 保持一致。",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},38367,"自定义训练 SpatioTemporal 模型（如 SlowFast）时，标注文件中的边界框坐标格式应该是怎样的？","在 MMAction2 的 AVA 数据集格式中，边界框坐标通常需要使用归一化坐标。如果你使用的是原始像素坐标（x1, y1, x2, y2），可能会导致模型无法学习（mAP 为 0）。\n\n请检查你的标注生成脚本，确保输出的坐标是归一化到 [0, 1] 之间的浮点数：\n- x1, x2 应除以视频宽度\n- y1, y2 应除以视频高度\n\n格式应为：`video_id, timestamp, x1, y1, x2, y2, label_id`，其中坐标值均在 0 到 1 之间。如果未归一化，请在预处理阶段进行转换。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fissues\u002F1140",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},38368,"在单 GPU 环境下运行训练命令时，程序启动后卡住（hangs）没有输出怎么办？","如果在单 GPU 上运行 `python tools\u002Ftrain.py ...` 后，日志显示环境信息并开始运行（Start running），但随后没有任何训练进度输出且程序不退出，可能是以下原因：\n\n1. **数据加载问题**：检查 `workers_per_gpu` 设置。在某些系统环境下，多进程数据加载可能导致死锁。尝试将配置文件中的 `workers_per_gpu` 设置为 0 或 1 进行测试：\n   ```python\n   data = dict(\n       workers_per_gpu=0,  # 改为 0 测试是否恢复正常\n       ...\n   )\n   ```\n2. **验证集配置**：如果使用了 `--validate` 参数，尝试暂时移除该参数，看是否能正常进入训练循环。\n3. **版本兼容性**：确保 PyTorch、MMCV 和 MMAction2 的版本相互兼容。日志中显示的 PyTorch 1.4.0 + MMCV 1.2.1 组合较旧，建议升级到最新稳定版。\n\n如果问题依旧，建议新建 Issue 并提供完整的堆栈跟踪或最小复现配置。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fissues\u002F421",{"id":157,"question_zh":158,"answer_zh":159,"source_url":141},38369,"训练日志中 loss 在下降但 mAP 始终为 0，除了类别数设置外还有哪些可能原因？","如果确认 `num_classes` 已正确设置，但 mAP 仍为 0，请检查以下几点：\n\n1. **样本数量不足**：对于自定义活动识别，如果每个类别的训练样本太少（例如只有几个短视频），模型可能无法收敛到能产生有效检测框的状态。建议至少准备几十到上百个包含目标动作的视频片段。\n2. **IoU 阈值设置**：检查配置文件中的 `pos_iou_thr` 和 `neg_iou_thr`。如果设置过高（如 0.9），可能导致没有正样本被选中。可以尝试降低阈值（如 0.5）。\n3. **标注文件格式**：再次确认标注文件是否符合 AVA 格式规范，特别是时间戳和帧率的对应关系是否正确。\n4. **预训练权重**：如果是从头训练（pretrained=None），难度较大。建议使用 Kinetics 等大数据集预训练的权重进行微调。\n5. **学习率与 Epoch**：50 个 epoch 可能不足以让模型在自定义小数据集上过拟合或收敛，尝试增加 epoch 数或调整学习率策略。",{"id":161,"question_zh":162,"answer_zh":163,"source_url":141},38370,"如何在 MMAction2 中配置自定义数据集的类别映射？","在 MMAction2 中处理自定义数据集（如 AVA 格式）时，不需要显式的“类别映射”文件，而是通过以下方式定义：\n\n1. **Label 文件**：创建一个 label 文件（通常是 `.txt` 或 `.pbtxt` 格式），列出所有类别名称，顺序对应 ID。\n2. **配置文件设置**：在 config 文件中，通过 `num_classes` 指定类别总数，并确保数据集注解文件（ann_file）中的 label ID 在 1 到 `num_classes` 范围内。\n3. **数据字典**：如前所述，必须在 `data` 配置的各个子项中指定 `num_classes`。\n\n示例配置片段：\n```python\n# 假设你有 3 个自定义动作类别\ncustom_classes = ['sweeping', 'walking', 'running']\nnum_classes = len(custom_classes) \n\n# 在 model 中\nmodel = dict(\n    roi_head=dict(\n        bbox_head=dict(\n            num_classes=num_classes + 1, # 如果需要背景类则 +1，视具体 Head 实现而定，AVA 通常直接设为目标类数\n            ...\n        )\n    )\n)\n\n# 在 data 中\ndata = dict(\n    train=dict(num_classes=num_classes),\n    val=dict(num_classes=num_classes),\n    test=dict(num_classes=num_classes)\n)\n```\n确保注解 CSV 文件中的标签列使用的是对应的整数 ID。",[165,170,175,180,185,190,195,200,205,210,215,220,225,230,235,240,245,250,255,260],{"id":166,"version":167,"summary_zh":168,"released_at":169},306531,"v1.2.0","**亮点**\n\n- 支持 ActionClip 的训练\n- 支持 VindLU 多模态算法\n- 支持 MobileOne TSN\u002FTSM\n\n**新特性**\n\n- 支持 ActionClip 的训练（[2620](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2620)）\n- 支持视频检索数据集 MSVD（[2622](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2622)）\n- 支持 VindLU 多模态算法（[2667](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2667)）\n- 支持用于视频定位的密集回归网络（[2668](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2668)）\n\n**改进**\n\n- 支持视频演示（[2602](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2602)）\n- 支持音频演示（[2603](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2603)）\n- 为 Swin 和 VideoMAE 添加 README_zh-CN.md（[2621](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2621)）\n- 支持 MobileOne TSN\u002FTSM（[2656](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2656)）\n- 支持使用 SlowOnly K700 特征来训练定位模型（[2673](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2673)）\n\n**Bug 修复**\n\n- 优化 ActionDataSample 结构（[2658](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2658)）\n- 修复 MPS 设备问题（[2619](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2619)）","2023-10-12T12:08:51",{"id":171,"version":172,"summary_zh":173,"released_at":174},306532,"v1.1.0","# 新方向：多模态视频理解\n\n我们支持两种基于开放域文本的新型视频识别与检索模型：[ActionCLIP](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Ftree\u002Fmain\u002Fprojects\u002Factionclip#readme) 和 [CLIP4Clip](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Ftree\u002Fmain\u002Fconfigs\u002Fretrieval\u002Fclip4clip#readme)。这些模型标志着 MMAction2 在多模态视频理解领域迈出的第一步。此外，我们还引入了一个新的视频检索数据集——[MSR-VTT](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fpublication\u002Fmsr-vtt-a-large-video-description-dataset-for-bridging-video-and-language\u002F)。\n\n![img_v2_e882ffb4-84c9-4b3a-9ab6-38c251e7d95g](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fassets\u002F58767402\u002F58b6fc4b-2680-4bb7-8b2b-8c6df1eeaadc)\n\n更多详情请参阅 [ActionCLIP](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Ftree\u002Fmain\u002Fprojects\u002Factionclip#readme)、[CLIP4Clip](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Ftree\u002Fmain\u002Fconfigs\u002Fretrieval\u002Fclip4clip#readme) 以及 [MSR-VTT](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Ftree\u002Fmain\u002Ftools\u002Fdata\u002Fvideo_retrieval#preparing-msrvtt-dataset)。\n\n由 @Dai-Wenxun 在 #2470 和 #2489 中提供支持。\n\n# 新配置类型\n\nMMEngine 引入了纯 Python 风格的配置文件：\n\n- 支持在 IDE 中跳转到基础配置文件\n- 支持在 IDE 中跳转到基础变量\n- 支持在 IDE 中跳转到类的源代码\n- 支持继承包含相同字段的两个配置文件\n- 无需其他第三方依赖即可加载配置文件\n\n更多详细用法请参阅 [教程](https:\u002F\u002Fmmengine.readthedocs.io\u002Fen\u002Flatest\u002Fadvanced_tutorials\u002Fconfig.html#a-pure-python-style-configuration-file-beta)。\n\n![img_v2_e882ffb4-84c9-4b3a-9ab6-38c251e7d95g](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmengine\u002Fassets\u002F57566630\u002F7eb41748-9374-488f-901e-fcd7f0d3c8a1)\n\n# 新数据集\n\n我们很高兴地支持 3 个新数据集：\n\n- (ICCV2019) [HACS](http:\u002F\u002Fhacs.csail.mit.edu\u002F)\n- (ICCV2021) [MultiSports](https:\u002F\u002Fgithub.com\u002FMCG-NJU\u002FMultiSports)\n- (Arxiv2022) [Kinetics-710](https:\u002F\u002Fgithub.com\u002FOpenGVLab\u002FUniFormerV2)\n\n## (ICCV2019) HACS\n\n**HACS** 是一个从网络视频中收集的、用于人体动作识别和时序定位的大规模数据集。\n\nhttps:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fassets\u002F58767402\u002F7b7407e3-994a-4523-975c-5bdee3b54998\n\n更多详情请参阅 [HACS](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Ftree\u002Fmain\u002Ftools\u002Fdata\u002Fhacs#readme)。\n\n由 @hukkai 在 #2224 中提供支持。\n\n## (ICCV2021) MultiSports\n\n**MultiSports** 是一个包含时空定位体育动作的多人视频数据集。\n\nhttps:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fassets\u002F58767402\u002F1f94668a-823b-46a0-9ea7-eedf0f29d1d1\n\n更多详情请参阅 [MultiSports](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Ftree\u002Fmain\u002Ftools\u002Fdata\u002Fmultisports#readme)。\n\n由 @cir7 在 #2280 中提供支持。\n\n## (Arxiv2022) Kinetics-710\n\n更多详情请参阅 [Kinetics710](https:","2023-07-04T14:01:03",{"id":176,"version":177,"summary_zh":178,"released_at":179},306533,"v1.0.0","# 亮点\n\n我们很高兴地宣布，作为 OpenMMLab 2.0 项目的一部分，MMAction2 1.0.0 正式发布！MMAction2 1.0.0 对核心包的框架结构进行了更新，并新增了一个名为 `Projects` 的板块。该板块展示了基于 MMAction2 基础构建的多种有趣且多功能的应用。\n\n在本次最新版本中，我们对核心包的代码进行了大幅重构，使其更加清晰易懂、模块化程度更高。这不仅提升了多个现有算法的性能，使它们的表现超越了之前的版本，还引入了一些前沿算法，如 VideoSwin 和 VideoMAE，进一步增强了 MMAction2 的能力，为用户提供一套更全面、更强大的工具集。新增的 `Projects` 板块是 MMAction2 的重要补充，旨在促进用户之间的创新与协作。该板块具备以下吸引人的特性：\n\n- **灵活的代码贡献**：与核心包不同，`Projects` 板块提供了更为灵活的代码贡献环境，能够更快地集成最先进的人工智能模型和功能。\n- **多样化应用展示**：探索基于 MMAction2 构建的各类项目，例如部署示例以及视频识别与其他任务的结合应用。\n- **激发创造力与协作**：鼓励用户在 MMAction2 平台上进行实验、二次开发，并分享他们的创新应用和技术，从而形成一个活跃的开发者与研究者社区。快来发现 “Projects” 板块中的无限可能，加入充满活力的 MMAction2 社区，共同推动视频理解领域的边界吧！\n\n# 令人振奋的新特性\n\n## RGBPoseConv3D\n\nRGBPoseConv3D 是一种联合使用 2D 人体骨骼信息和 RGB 外观特征进行人体动作识别的框架。它是一种双流 3D 卷积神经网络，其架构借鉴自 SlowFast。在 [RGBPoseConv3D](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Ftree\u002Fmain\u002Fconfigs\u002Fskeleton\u002Fposec3d\u002Frgbpose_conv3d#readme) 中：\n\n- RGB 流对应 SlowFast 中的 `slow` 流；骨骼流对应 SlowFast 中的 `fast` 流。\n- RGB 帧的输入分辨率是伪热图分辨率的 4 倍。\n- 采用双向连接实现两种模态之间的早期特征融合。\n\n\n\u003Cdiv align=center>\n\u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F34324155\u002F209961351-6def0074-9b05-43fc-8210-a1cdaaed6536.png\" width=50%\u002F>\n\u003C\u002Fdiv>\n\n- 由 @Dai-Wenxun 在 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2182 中支持实现。\n\n## 推理器\n\n在本次发布中，我们推出了 MMAction2 推理器（Inferencer），这是一个功能强大的推理 API，支持多种输入类型。该 API 允许用户轻松指定和定制动作识别模型，从而简化视频预测的过程。","2023-04-07T03:23:54",{"id":181,"version":182,"summary_zh":183,"released_at":184},306534,"v1.0.0rc3","**亮点**\n\n- 支持动作识别模型 UniFormer V1（ICLR 2022）、UniFormer V2（ArXiv 2022）。\n- 支持 MViT V2（CVPR 2022）的训练，以及 MaskFeat（CVPR 2022）的微调。\n\n**新特性**\n\n- 支持 UniFormer V1\u002FV2（[#2153](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2153)）\n- 支持 MViT 的训练和 MaskFeat 的微调（[#2186](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2186)）\n- 支持统一的推理接口：Inferencer（[#2164](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2164)）\n\n**改进**\n\n- 支持从多后端加载数据列表（[#2176](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2176)）\n\n**Bug 修复**\n\n- 升级 isort 以修复 CI 问题（[#2198](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2198)）\n- 修复骨架演示中的 bug（[#2214](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2214)）\n\n**文档**\n\n- 为 config.md 添加中文文档（[#2188](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2188)）\n- 为 Omnisource 添加 README 文件（[#2205](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2205)）","2023-02-10T14:18:57",{"id":186,"version":187,"summary_zh":188,"released_at":189},306535,"v1.0.0rc2","**亮点**\n\n- 支持动作识别模型 VideoMAE（NeurIPS 2022）、MVit V2（CVPR 2022）、C2D 以及基于骨骼的动作识别模型 STGCN++\n- 支持在 ImageNet 和 Kinetics 数据集上进行全源训练\n- 支持将时空检测模型导出为 ONNX 格式\n\n**新增功能**\n\n- 支持 VideoMAE ([#1942](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1942))\n- 支持 MViT V2 ([#2007](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2007))\n- 支持 C2D ([#2022](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2022))\n- 支持 AVA-Kinetics 数据集 ([#2080](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2080))\n- 支持 STGCN++ ([#2156](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2156))\n- 支持将时空检测模型导出为 ONNX 格式 ([#2148](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2148))\n- 支持在 ImageNet 和 Kinetics 数据集上进行全源训练 ([#2143](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2143))\n\n**改进**\n\n- 支持重复批次数据增强 ([#2170](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2170))\n- 支持使用 fvcore 提供的 FLOPs 计算工具 ([#1997](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1997))\n- 支持时空检测演示程序 ([#2019](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2019))\n- 添加 SyncBufferHook，并在 train.py 中增加随机性配置 ([#2044](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2044))\n- 重构 GradCAM ([#2049](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2049))\n- 支持 Swin 和 ViTMAE 中的 init_cfg 配置 ([#2055](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2055))\n- 重构 STGCN 及相关流程 ([#2087](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2087))\n- 重构可视化工具 ([#2092](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2092))\n- 更新 `SampleFrames` 转换，并提升大多数模型的性能 ([#1942](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1942))\n- 支持实时摄像头演示程序 ([#2152](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2152))\n- 重构并增强 2s-AGCN ([#2130](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2130))\n- 支持在 `SampleFrame` 中调整帧率 ([#2157](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2157))\n\n**Bug 修复**\n\n- 修复 CI 的上游库依赖问题 ([#2000](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2000))\n- 修复 SlowOnly 文档中的拼写错误及结果问题 ([#2006](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2006))\n- 修复 VideoSwin 文档 ([#2010](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2010))\n- 修复工具和 mim 错误 ([#2028](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2028))\n- 修复 Imgaug 包装器 ([#2024](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2024))\n- 移除无用脚本 ([#2032](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2032))\n- 修复多视角推理问题 ([#2045](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2045))\n- 将 mmcv 的最大版本更新至 1.8.0 ([#2047](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F2047))\n- 修复 torchserver 错误","2023-01-10T14:08:14",{"id":191,"version":192,"summary_zh":193,"released_at":194},306536,"v1.0.0rc1","**亮点**\n\n- 支持 Video Swin Transformer\n\n**新特性**\n\n- 支持 Video Swin Transformer（[#1939](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1939)）\n\n**改进**\n\n- 添加 1.x 版本的 Colab 教程（[#1956](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1956)）\n- 支持基于骨架的动作识别演示（[#1920](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1920)）\n\n**Bug 修复**\n\n- 修复文档中的链接（[#1986](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1986)、[#1967](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1967)、[#1951](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1951)、[#1926](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1926)、[#1944](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1944)、[#1944](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1944)、[#1927](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1927)、[#1925](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1925)）\n- 修复 CI 流程（[#1987](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1987)、[#1930](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1930)、[#1923](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1923)）\n- 修复 pre-commit 钩子配置（[#1971](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1971)）\n- 修复 TIN 配置文件（[#1912](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1912)）\n- 修复 BMN 和 BSN 的单元测试（[#1966](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1966)）\n- 修复 Recognizer2D 的单元测试（[#1937](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1937)）\n- 修复 BSN 和 BMN 的定位配置文件（[#1913](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1913)）\n- 修改 ST-GCN 配置文件（[#1913](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1914)）\n- 修复迁移文档中的拼写错误（[#1931](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1931)）\n- 移除与 ONNX 相关的工具（[#1928](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1928)）\n- 更新 TANet 的 README 文件（[#1916](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1916)、[#1890](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1890)）\n- 更新 2S-AGCN 的 README 文件（[#1915](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1915)）\n- 修复 TSN 的配置文件（[#1905](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1905)）\n- 修复检测相关的配置文件（[#1903](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1903)）\n- 修复 TIN 配置文件中的拼写错误（[#1904](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1904)）\n- 修复 PoseC3D 的 README 文件（[#1899](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1899)）\n- 修复 ST-GCN 的配置文件（[#1891](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1891)）\n- 修复音频识别的 README 文件（[#1898](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1898)）\n- 修复 TSM 的 README 文件（[#1887](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1887)）\n- 修复 SlowOnly 的 README 文件（[#1889](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1889)）\n- 修复 TRN 的 README 文件（[#1888](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1888)）\n- 修复入门文档中的拼写错误（[#1895](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1895)）","2022-10-14T13:27:00",{"id":196,"version":197,"summary_zh":198,"released_at":199},306537,"v1.0.0rc0","我们很高兴地宣布 MMAction2 v1.0.0rc0 正式发布。  \nMMAction2 1.0.0beta 是 MMAction2 1.x 系列的第一个版本，属于 OpenMMLab 2.0 项目的一部分。它基于全新的 [训练引擎](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmengine) 构建。\n\n**亮点**\n\n- **全新引擎**。MMAction2 1.x 基于 [MMEngine](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmengine)，该引擎提供了一个通用且功能强大的运行器，支持更灵活的自定义配置，并显著简化了高层接口的入口点。\n\n- **统一接口**。作为 OpenMMLab 2.0 项目的一部分，MMAction2 1.x 对训练、测试、数据集、模型、评估和可视化等模块的接口及内部逻辑进行了统一重构。所有 OpenMMLab 2.0 项目在这些接口和逻辑上采用一致的设计，从而更好地支持多任务\u002F多模态算法的开发。\n\n- **更丰富的文档与教程**。我们新增了大量文档和教程，帮助用户更顺畅地入门。详情请参阅 [这里](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fblob\u002F1.x\u002Fdocs\u002Fen\u002Fmigration.md)。\n\n**重大变更**\n\n本次发布进行了大量的重构和修改。有关详细信息及迁移说明，请参阅 [迁移指南](..\u002Fmigration.md)。","2022-09-01T05:35:35",{"id":201,"version":202,"summary_zh":203,"released_at":204},306538,"v0.24.1","本次发布旨在修复与最新版 mmcv v1.6.1 的兼容性问题。","2022-07-29T18:20:53",{"id":206,"version":207,"summary_zh":208,"released_at":209},306539,"v0.24.0","**亮点**\n\n- 支持不同的随机种子\n\n**新特性**\n\n- 在多网格配置中添加横向归一化（[#1567](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1567)）\n- 在图结构配置中添加 OpenPose 25 关节点（[#1578](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1578)）\n- 支持 MLU 后端（[#1608](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1608)）\n\n**Bug 修复与错别字修正**\n\n- 修复 local_rank 问题（[#1558](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1558)）\n- 修复安装说明中的错别字（[#1571](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1571)）\n- 修正推理 API 文档（[#1580](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1580)）\n- 修正 zh-CN 版本的 demo.md 和 getting_started.md 文件（[#1587](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1587)）\n- 移除 Recommonmark（[#1595](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1595)）\n- 修复使用 ndarray 进行推理的问题（[#1603](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1603)）\n- 修复使用 `IterBasedRunner` 时的日志错误（[#1606](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1606)）","2022-05-05T03:45:51",{"id":211,"version":212,"summary_zh":213,"released_at":214},306540,"v0.23.0","**亮点**\n\n- 支持不同随机种子\n- 提供多节点训练与测试脚本\n- 更新错误日志\n\n**新特性**\n\n- 支持不同随机种子([#1502](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1502))\n- 提供多节点训练与测试脚本([#1521](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1521))\n- 更新错误日志([#1546](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1546))\n\n**文档更新**\n\n- 更新 Slowfast 说明书中关于 GPU 的内容([#1497](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1497))\n- 修复 multigrid 配置中的 work_dir 设置([#1498](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1498))\n- 添加 sub bn 相关文档([#1503](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1503))\n- 添加 shortcycle sampler 相关文档([#1513](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1513))\n- 更新 Windows 声明([#1520](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1520))\n- 更新 ST-GCN 的链接([#1544](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1544))\n- 更新安装命令([#1549](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1549))\n\n**Bug 修复与错别字修正**\n\n- 更新 Colab 教程中的安装命令([#1522](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1522))\n- 修复 analyze_logs.py 中的 num_iters_per_epoch 参数([#1530](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1530))\n- 修复 distributed_sampler 的问题([#1532](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1532))\n- 修复 cd 目录时的错误([#1545](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1545))\n- 更新参数名称([#1548](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1548))","2022-04-02T09:44:30",{"id":216,"version":217,"summary_zh":218,"released_at":219},306541,"v0.22.0","### 0.22.0 (03\u002F05\u002F2022)\r\n\r\n**Highlights**\r\n\r\n- Support Multigrid training strategy\r\n- Support CPU training\r\n- Support audio demo\r\n- Support topk customizing in models\u002Fheads\u002Fbase.py\r\n\r\n**New Features**\r\n\r\n- Support Multigrid training strategy([#1378](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1378))\r\n- Support STGCN in demo_skeleton.py([#1391](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1391))\r\n- Support CPU training([#1407](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1407))\r\n- Support audio demo([#1425](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1425))\r\n- Support topk customizing in models\u002Fheads\u002Fbase.py([#1452](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1452))\r\n\r\n**Documentations**\r\n\r\n- Add OpenMMLab platform([#1393](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1393))\r\n- Update links([#1394](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1394))\r\n- Update readme in configs([#1404](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1404))\r\n- Update instructions to install mmcv-full([#1426](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1426))\r\n- Add shortcut([#1433](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1433))\r\n- Update modelzoo([#1439](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1439))\r\n- add video_structuralize in readme([#1455](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1455))\r\n- Update OpenMMLab repo information([#1482](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1482))\r\n\r\n**Bug and Typo Fixes**\r\n\r\n- Update train.py([#1375](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1375))\r\n- Fix printout bug([#1382]((https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1382)))\r\n- Update multi processing setting([#1395](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1395))\r\n- Setup multi processing both in train and test([#1405](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1405))\r\n- Fix bug in nondistributed multi-gpu training([#1406](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1406))\r\n- Add variable fps in  ava_dataset.py([#1409](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1409))\r\n- Only support distributed training([#1414](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1414))\r\n- Set test_mode for AVA configs([#1432](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1432))\r\n- Support single label([#1434](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1434))\r\n- Add check copyright([#1447](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1447))\r\n- Support Windows CI([#1448](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1448))\r\n- Fix wrong device of class_weight in models\u002Flosses\u002Fcross_entropy_loss.py([#1457](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1457))\r\n- Fix bug caused by distributed([#1459](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1459))\r\n- Update readme([#1460](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1460))\r\n- Fix lint caused by colab automatic upload([#1461](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1461))\r\n- Refine CI([#1471](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1471))\r\n- Update pre-commit([#1474](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1474))\r\n- Add deprecation message for deploy tool([#1483](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1483))\r\n\r\n**ModelZoo**\r\n\r\n- Support slowfast_steplr([#1421](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1421))","2022-03-07T08:55:54",{"id":221,"version":222,"summary_zh":223,"released_at":224},306542,"v0.21.0","**Highlights**\r\n\r\n- Support 2s-AGCN\r\n- Support publish models in Windows\r\n- Improve some sthv1 related models\r\n- Support BABEL\r\n\r\n**New Features**\r\n\r\n- Support 2s-AGCN([#1248](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1248))\r\n- Support skip postproc in ntu_pose_extraction([#1295](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1295))\r\n- Support publish models in Windows([#1325](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1325))\r\n- Add copyright checkhook in pre-commit-config([#1344](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1344))\r\n\r\n**Documentations**\r\n\r\n- Add MMFlow ([#1273](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1273))\r\n- Revise README.md and add projects.md ([#1286](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1286))\r\n- Add 2s-AGCN in Updates([#1289](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1289))\r\n- Add MMFewShot([#1300](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1300))\r\n- Add MMHuman3d([#1304](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1304))\r\n- Update pre-commit([#1313](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1313))\r\n- Use share menu from the theme instead([#1328](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1328))\r\n- Update installation command([#1340](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1340))\r\n\r\n**Bug and Typo Fixes**\r\n\r\n- Update the inference part in notebooks([#1256](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1256))\r\n- Update the map_location([#1262]((https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1262)))\r\n- Fix bug that start_index is not used in RawFrameDecode([#1278](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1278))\r\n- Fix bug in init_random_seed([#1282](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1282))\r\n- Fix bug in setup.py([#1303](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1303))\r\n- Fix interrogate error in workflows([#1305](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1305))\r\n- Fix typo in slowfast config([#1309](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1309))\r\n- Cancel previous runs that are not completed([#1327](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1327))\r\n- Fix missing skip_postproc parameter([#1347](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1347))\r\n- Update ssn.py([#1355](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1355))\r\n- Use latest youtube-dl([#1357](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1357))\r\n- Fix test-best([#1362](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1362))\r\n\r\n**ModelZoo**\r\n\r\n- Improve some sthv1 related models([#1306](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1306))\r\n- Support BABEL([#1332](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1332))\r\n","2021-12-31T08:26:02",{"id":226,"version":227,"summary_zh":228,"released_at":229},306543,"v0.20.0","**Highlights**\r\n\r\n- Support TorchServe\r\n- Add video structuralize demo\r\n- Support using 3D skeletons for skeleton-based action recognition\r\n- Benchmark PoseC3D on UCF and HMDB\r\n\r\n**New Features**\r\n\r\n- Support TorchServe ([#1212](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1212))\r\n- Support 3D skeletons pre-processing ([#1218](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1218))\r\n- Support video structuralize demo ([#1197](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1197))\r\n\r\n**Documentations**\r\n\r\n- Revise README.md and add projects.md ([#1214](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1214))\r\n- Add CN docs for Skeleton dataset, PoseC3D and ST-GCN ([#1228](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1228), [#1237](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1237), [#1236](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1236))\r\n- Add tutorial for custom dataset training for skeleton-based action recognition ([#1234](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1234))\r\n\r\n**Bug and Typo Fixes**\r\n\r\n- Fix tutorial link ([#1219](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1219))\r\n- Fix GYM links ([#1224](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1224))\r\n\r\n**ModelZoo**\r\n\r\n- Benchmark PoseC3D on UCF and HMDB ([#1223](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1223))\r\n- Add ST-GCN + 3D skeleton model for NTU60-XSub ([#1236](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1236))\r\n\r\n## New Contributors\r\n* @bit-scientist made their first contribution in https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1234\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fcompare\u002Fv0.19.0...v0.20.0","2021-10-30T03:59:31",{"id":231,"version":232,"summary_zh":233,"released_at":234},306544,"v0.19.0","**Highlights**\r\n\r\n- Support ST-GCN\r\n- Refactor the inference API\r\n- Add code spell check hook\r\n\r\n**New Features**\r\n\r\n- Support ST-GCN ([#1123](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1123))\r\n\r\n**Improvement**\r\n\r\n- Add label maps for every dataset ([#1127](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1127))\r\n- Remove useless code MultiGroupCrop ([#1180](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1180))\r\n- Refactor Inference API ([#1191](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1191))\r\n- Add code spell check hook ([#1208](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1208))\r\n- Use docker in CI ([#1159](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1159))\r\n\r\n**Documentations**\r\n\r\n- Update metafiles to new OpenMMLAB protocols ([#1134](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1134))\r\n- Switch to new doc style ([#1160](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1160))\r\n- Improve the ERROR message ([#1203](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1203))\r\n- Fix invalid URL in getting_started ([#1169](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1169))\r\n\r\n**Bug and Typo Fixes**\r\n\r\n- Compatible with new MMClassification ([#1139](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1139))\r\n- Add missing runtime dependencies ([#1144](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1144))\r\n- Fix THUMOS tag proposals path ([#1156](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1156))\r\n- Fix LoadHVULabel ([#1194](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1194))\r\n- Switch the default value of `persistent_workers` to False ([#1202](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1202))\r\n- Fix `_freeze_stages` for MobileNetV2 ([#1193](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1193))\r\n- Fix resume when building rawframes ([#1150](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1150))\r\n- Fix device bug for class weight ([#1188](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1188))\r\n- Correct Arg names in extract_audio.py ([#1148](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1148))\r\n\r\n**ModelZoo**\r\n\r\n- Add TSM-MobileNetV2 ported from TSM ([#1163](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1163))\r\n- Add ST-GCN for NTURGB+D-XSub-60 ([#1123](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1123))","2021-10-07T16:13:47",{"id":236,"version":237,"summary_zh":238,"released_at":239},306545,"v0.18.0","**Improvement**\r\n\r\n- Add CopyRight ([#1099](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1099))\r\n- Support NTU Pose Extraction ([#1076](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1076))\r\n- Support Caching in RawFrameDecode ([#1078](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1078))\r\n- Add citations & Support python3.9 CI & Use fixed-version sphinx ([#1125](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1125))\r\n\r\n**Documentations**\r\n\r\n- Add Descriptions of PoseC3D dataset ([#1053](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1053))\r\n\r\n**Bug and Typo Fixes**\r\n\r\n- Fix SSV2 checkpoints ([#1101](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1101))\r\n- Fix CSN normalization ([#1116](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1116))\r\n- Fix typo ([#1121](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1121))\r\n- Fix new_crop_quadruple bug ([#1108](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1108))","2021-09-02T07:56:54",{"id":241,"version":242,"summary_zh":243,"released_at":244},306546,"v0.17.0","**Highlights**\r\n\r\n- Support PyTorch 1.9\r\n- Support Pytorchvideo Transforms\r\n- Support PreciseBN\r\n\r\n**New Features**\r\n\r\n- Support Pytorchvideo Transforms ([#1008](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1008))\r\n- Support PreciseBN ([#1038](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1038))\r\n\r\n**Improvements**\r\n\r\n- Remove redundant augmentations in config files ([#996](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F996))\r\n- Make resource directory to hold common resource pictures ([#1011](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1011))\r\n- Remove deperecated FrameSelector ([#1010](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1010))\r\n- Support Concat Dataset ([#1000](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1000))\r\n- Add `to-mp4` option to resize_videos.py ([#1021](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1021))\r\n- Add option to keep tail frames ([#1050](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1050))\r\n- Update MIM support ([#1061](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1061))\r\n- Calculate Top-K accurate and inaccurate classes ([#1047](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1047))\r\n\r\n**Bug and Typo Fixes**\r\n\r\n- Fix bug in PoseC3D demo ([#1009](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1009))\r\n- Fix some problems in resize_videos.py ([#1012](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1012))\r\n- Support torch1.9 ([#1015](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1015))\r\n- Remove redundant code in CI ([#1046](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1046))\r\n- Fix bug about persistent_workers ([#1044](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1044))\r\n- Support TimeSformer feature extraction ([#1035](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1035))\r\n- Fix ColorJitter ([#1025](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1025))\r\n\r\n**ModelZoo**\r\n\r\n- Add TSM-R50 sthv1 models trained by PytorchVideo RandAugment and AugMix ([#1008](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1008))\r\n- Update SlowOnly SthV1 checkpoints ([#1034](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1034))\r\n- Add SlowOnly Kinetics400 checkpoints trained with Precise-BN ([#1038](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1038))\r\n- Add CSN-R50 from scratch checkpoints ([#1045](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1045))\r\n- TPN Kinetics-400 Checkpoints trained with the new ColorJitter ([#1025](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1025))\r\n\r\n**Documentation**\r\n\r\n- Add Chinese translation of feature_extraction.md ([#1020](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1020))\r\n- Fix the code snippet in getting_started.md ([#1023](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1023))\r\n- Fix TANet config table ([#1028](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1028))\r\n- Add description to PoseC3D dataset ([#1053](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F1053))","2021-08-03T04:56:47",{"id":246,"version":247,"summary_zh":248,"released_at":249},306547,"v0.16.0","**Highlights**\r\n\r\n- Support using backbone from pytorch-image-models(timm)\r\n- Support PIMS Decoder\r\n- Demo for skeleton-based action recognition\r\n- Support Timesformer\r\n\r\n**New Features**\r\n\r\n- Support using backbones from pytorch-image-models(timm) for TSN ([#880](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F880))\r\n- Support torchvision transformations in preprocessing pipelines ([#972](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F972))\r\n- Demo for skeleton-based action recognition ([#972](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F972))\r\n- Support Timesformer ([#839](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F839))\r\n\r\n**Improvements**\r\n\r\n- Add a tool to find invalid videos ([#907](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F907), [#950](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F950))\r\n- Add an option to specify spectrogram_type ([#909](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F909))\r\n- Add json output to video demo ([#906](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F906))\r\n- Add MIM related docs ([#918](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F918))\r\n- Rename lr to scheduler ([#916](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F916))\r\n- Support `--cfg-options` for demos ([#911](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F911))\r\n- Support number counting for flow-wise filename template ([#922](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F922))\r\n- Add Chinese tutorial ([#941](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F941))\r\n- Change ResNet3D default values ([#939](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F939))\r\n- Adjust script structure ([#935](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F935))\r\n- Add font color to args in long_video_demo ([#947](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F947))\r\n- Polish code style with Pylint ([#908](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F908))\r\n- Support PIMS Decoder ([#946](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F946))\r\n- Improve Metafiles ([#956](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F956), [#979](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F979), [#966](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F966))\r\n- Add links to download Kinetics400 validation ([#920](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F920))\r\n- Audit the usage of shutil.rmtree ([#943](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F943))\r\n- Polish localizer related codes([#913](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F913))\r\n\r\n**Bug and Typo Fixes**\r\n\r\n- Fix spatiotemporal detection demo ([#899](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F899))\r\n- Fix docstring for 3D inflate ([#925](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F925))\r\n- Fix bug of writing text to video with TextClip ([#952](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F952))\r\n- Fix mmcv install in CI ([#977](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F977))\r\n\r\n**ModelZoo**\r\n\r\n- Add TSN with Swin Transformer backbone as an example for using pytorch-image-models(timm) backbones ([#880](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F880))\r\n- Port CSN checkpoints from VMZ ([#945](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F945))\r\n- Release various checkpoints for UCF101, HMDB51 and Sthv1 ([#938](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F938))\r\n- Support Timesformer ([#839](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F839))\r\n- Update TSM modelzoo ([#981](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F981))","2021-07-01T09:56:21",{"id":251,"version":252,"summary_zh":253,"released_at":254},306548,"v0.15.0","**Highlights**\r\n\r\n- Support PoseC3D\r\n- Support ACRN\r\n- Support MIM\r\n\r\n**New Features**\r\n\r\n- Support PoseC3D ([#786](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F786), [#890](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F890))\r\n- Support MIM ([#870](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F870))\r\n- Support ACRN and Focal Loss ([#891](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F891))\r\n- Support Jester dataset ([#864](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F864))\r\n\r\n**Improvements**\r\n\r\n- Add `metric_options` for evaluation to docs ([#873](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F873))\r\n- Support creating a new label map based on custom classes for demos about spatio temporal demo ([#879](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F879))\r\n- Improve document about AVA dataset preparation ([#878](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F878))\r\n- Provide a script to extract clip-level feature ([#856](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F856))\r\n\r\n**Bug and Typo Fixes**\r\n\r\n- Fix issues about resume ([#877](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F877), [#878](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F878))\r\n- Correct the key name of `eval_results` dictionary for metric 'mmit_mean_average_precision' ([#885](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F885))\r\n\r\n**ModelZoo**\r\n\r\n- Support Jester dataset ([#864](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F864))\r\n- Support ACRN and Focal Loss ([#891](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F891))","2021-05-31T15:13:53",{"id":256,"version":257,"summary_zh":258,"released_at":259},306549,"v0.14.0","**Highlights**\r\n\r\n- Support TRN\r\n- Support Diving48\r\n\r\n**New Features**\r\n\r\n- Support TRN ([#755](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F755))\r\n- Support Diving48 ([#835](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F835))\r\n- Support Webcam Demo for Spatio-temporal Action Detection Models ([#795](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F795))\r\n\r\n**Improvements**\r\n\r\n- Add softmax option for pytorch2onnx tool ([#781](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F781))\r\n- Support TRN ([#755](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F755))\r\n- Test with onnx models and TensorRT engines ([#758](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F758))\r\n- Speed up AVA Testing ([#784](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F784))\r\n- Add `self.with_neck` attribute ([#796](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F796))\r\n- Update installation document ([#798](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F798))\r\n- Use a random master port ([#809](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F8098))\r\n- Update AVA processing data document ([#801](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F801))\r\n- Refactor spatio-temporal augmentation ([#782](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F782))\r\n- Add QR code in CN README ([#812](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F812))\r\n- Add Alternative way to download Kinetics ([#817](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F817), [#822](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F822))\r\n- Refactor Sampler ([#790](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F790))\r\n- Use EvalHook in MMCV with backward compatibility ([#793](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F793))\r\n- Use MMCV Model Registry ([#843](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F843))\r\n\r\n**Bug and Typo Fixes**\r\n\r\n- Fix a bug in pytorch2onnx.py when `num_classes \u003C= 4` ([#800](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F800), [#824](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F824))\r\n- Fix `demo_spatiotemporal_det.py` error ([#803](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F803), [#805](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F805))\r\n- Fix loading config bugs when resume ([#820](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F820))\r\n- Make HMDB51 annotation generation more robust ([#811](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F811))\r\n\r\n**ModelZoo**\r\n\r\n- Update checkpoint for 256 height in something-V2 ([#789](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F789))\r\n- Support Diving48 ([#835](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F835))\r\n","2021-05-03T06:43:55",{"id":261,"version":262,"summary_zh":263,"released_at":264},306550,"v0.13.0","**Highlights**\r\n\r\n- Support LFB\r\n- Support using backbone from MMCls\u002FTorchVision\r\n- Add Chinese documentation\r\n\r\n**New Features**\r\n\r\n- Support LFB ([#553](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F553))\r\n- Support using backbones from MMCls for TSN ([#679](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F679))\r\n- Support using backbones from TorchVision for TSN ([#720](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F720))\r\n- Support Mixup and Cutmix for recognizers ([#681](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F681))\r\n- Support Chinese documentation ([#665](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F665), [#680](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F680), [#689](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F689), [#701](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F701), [#702](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F702), [#703](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F703), [#706](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F706), [#716](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F716), [#717](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F717), [#731](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F731), [#733](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F733), [#735](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F735), [#736](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F736), [#737](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F737), [#738](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F738), [#739](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F739), [#740](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F740), [#742](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F742), [#752](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F752), [#759](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F759), [#761](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F761), [#772](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F772), [#775](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F775))\r\n\r\n**Improvements**\r\n\r\n- Add slowfast config\u002Fjson\u002Flog\u002Fckpt for training custom classes of AVA ([#678](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F678))\r\n- Set RandAugment as Imgaug default transforms ([#585](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F585))\r\n- Add `--test-last` & `--test-best` for `tools\u002Ftrain.py` to test checkpoints after training ([#608](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F608))\r\n- Add fcn_testing in TPN ([#684](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F684))\r\n- Remove redundant recall functions ([#741](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F741))\r\n- Recursively remove pretrained step for testing ([#695](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F695))\r\n- Improve demo by limiting inference fps ([#668](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F668))\r\n\r\n**Bug and Typo Fixes**\r\n\r\n- Fix a bug about multi-class in VideoDataset ([#723](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F678))\r\n- Reverse key-value in anet filelist generation ([#686](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F686))\r\n- Fix flow norm cfg typo ([#693](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F693))\r\n\r\n**ModelZoo**\r\n\r\n- Add LFB for AVA2.1 ([#553](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F553))\r\n- Add TSN with ResNeXt-101-32x4d backbone as an example for using MMCls backbones ([#679](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F679))\r\n- Add TSN with Densenet161 backbone as an example for using TorchVision backbones ([#720](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F720))\r\n- Add slowonly_nl_embedded_gaussian_r50_4x16x1_150e_kinetics400_rgb ([#690](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F690))\r\n- Add slowonly_nl_embedded_gaussian_r50_8x8x1_150e_kinetics400_rgb ([#704](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F704))\r\n- Add slowonly_nl_kinetics_pretrained_r50_4x16x1(8x8x1)_20e_ava_rgb ([#730](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2\u002Fpull\u002F730))","2021-04-01T11:02:20"]