[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-open-mmlab--mmpretrain":3,"tool-open-mmlab--mmpretrain":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":76,"owner_website":80,"owner_url":81,"languages":82,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":10,"env_os":106,"env_gpu":107,"env_ram":106,"env_deps":108,"category_tags":116,"github_topics":117,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":135,"updated_at":136,"faqs":137,"releases":171},2789,"open-mmlab\u002Fmmpretrain","mmpretrain","OpenMMLab Pre-training Toolbox and Benchmark","mmpretrain 是 OpenMMLab 推出的开源预训练工具箱与基准测试平台，专为深度学习领域的模型预训练环节打造。在人工智能研发中，获取高质量的预训练模型往往面临流程复杂、算法复现困难以及评估标准不统一等挑战，mmpretrain 正是为了解决这些痛点而生。它提供了一套标准化的框架，支持从数据加载、模型构建、训练策略配置到性能评估的全流程管理，让研究人员能够轻松复现前沿论文算法，并公平地对比不同模型的表现。\n\n这款工具非常适合 AI 研究人员、算法工程师以及希望深入探索大模型技术的开发者使用。无论是学术界需要验证新想法，还是工业界希望快速落地高性能模型，mmpretrain 都能提供强有力的支持。其核心亮点在于拥有庞大的“模型库”（Model Zoo），内置了多种主流架构和经过严格验证的预训练权重，覆盖视觉、多模态等多个领域。同时，它采用模块化设计，代码结构清晰，用户只需通过简单的配置文件即可灵活调整实验参数，极大地降低了预训练任务的技术门槛。借助 mmpretrain，用户可以更高效地打磨基础模型，为下游具体应用奠定坚实基础。","\u003Cdiv align=\"center\">\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmpretrain_readme_c391e8ecc32d.png\" width=\"600\"\u002F>\n  \u003Cdiv>&nbsp;\u003C\u002Fdiv>\n  \u003Cdiv align=\"center\">\n    \u003Cb>\u003Cfont size=\"5\">OpenMMLab website\u003C\u002Ffont>\u003C\u002Fb>\n    \u003Csup>\n      \u003Ca href=\"https:\u002F\u002Fopenmmlab.com\">\n        \u003Ci>\u003Cfont size=\"4\">HOT\u003C\u002Ffont>\u003C\u002Fi>\n      \u003C\u002Fa>\n    \u003C\u002Fsup>\n    &nbsp;&nbsp;&nbsp;&nbsp;\n    \u003Cb>\u003Cfont size=\"5\">OpenMMLab platform\u003C\u002Ffont>\u003C\u002Fb>\n    \u003Csup>\n      \u003Ca href=\"https:\u002F\u002Fplatform.openmmlab.com\">\n        \u003Ci>\u003Cfont size=\"4\">TRY IT OUT\u003C\u002Ffont>\u003C\u002Fi>\n      \u003C\u002Fa>\n    \u003C\u002Fsup>\n  \u003C\u002Fdiv>\n  \u003Cdiv>&nbsp;\u003C\u002Fdiv>\n\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fmmpretrain)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fmmpretrain)\n[![Docs](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-latest-blue)](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002F)\n[![Build Status](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fworkflows\u002Fbuild\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Factions)\n[![codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fopen-mmlab\u002Fmmpretrain\u002Fbranch\u002Fmain\u002Fgraph\u002Fbadge.svg)](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fopen-mmlab\u002Fmmpretrain)\n[![license](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fopen-mmlab\u002Fmmpretrain.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fblob\u002Fmain\u002FLICENSE)\n[![open issues](https:\u002F\u002Fisitmaintained.com\u002Fbadge\u002Fopen\u002Fopen-mmlab\u002Fmmpretrain.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fissues)\n[![issue resolution](https:\u002F\u002Fisitmaintained.com\u002Fbadge\u002Fresolution\u002Fopen-mmlab\u002Fmmpretrain.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fissues)\n\n[📘 Documentation](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002F) |\n[🛠️ Installation](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fget_started.html#installation) |\n[👀 Model Zoo](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fmodelzoo_statistics.html) |\n[🆕 Update News](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fnotes\u002Fchangelog.html) |\n[🤔 Reporting Issues](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fissues\u002Fnew\u002Fchoose)\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmpretrain_readme_c4e5b3d9bae5.png\" width=\"400\"\u002F>\n\nEnglish | [简体中文](\u002FREADME_zh-CN.md)\n\n\u003C\u002Fdiv>\n\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fopenmmlab.medium.com\u002F\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmpretrain_readme_062337b0e5ec.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FraweFPmdzG\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmpretrain_readme_6342e5371027.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002FOpenMMLab\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmpretrain_readme_04c3beda0b07.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fopenmmlab\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmpretrain_readme_204fe79b5a90.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fspace.bilibili.com\u002F1293512903\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmpretrain_readme_8655b6233577.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fwww.zhihu.com\u002Fpeople\u002Fopenmmlab\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmpretrain_readme_447c4737c11f.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n## Introduction\n\nMMPreTrain is an open source pre-training toolbox based on PyTorch. It is a part of the [OpenMMLab](https:\u002F\u002Fopenmmlab.com\u002F) project.\n\nThe `main` branch works with **PyTorch 1.8+**.\n\n### Major features\n\n- Various backbones and pretrained models\n- Rich training strategies (supervised learning, self-supervised learning, multi-modality learning etc.)\n- Bag of training tricks\n- Large-scale training configs\n- High efficiency and extensibility\n- Powerful toolkits for model analysis and experiments\n- Various out-of-box inference tasks.\n  - Image Classification\n  - Image Caption\n  - Visual Question Answering\n  - Visual Grounding\n  - Retrieval (Image-To-Image, Text-To-Image, Image-To-Text)\n\nhttps:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fassets\u002F26739999\u002Fe4dcd3a2-f895-4d1b-a351-fbc74a04e904\n\n## What's new\n\n🌟 v1.2.0 was released in 04\u002F01\u002F2023\n\n- Support LLaVA 1.5.\n- Implement of RAM with a gradio interface.\n\n🌟 v1.1.0 was released in 12\u002F10\u002F2023\n\n- Support Mini-GPT4 training and provide a Chinese model (based on Baichuan-7B)\n- Support zero-shot classification based on CLIP.\n\n🌟 v1.0.0 was released in 04\u002F07\u002F2023\n\n- Support inference of more **multi-modal** algorithms, such as [**LLaVA**](.\u002Fconfigs\u002Fllava\u002F), [**MiniGPT-4**](.\u002Fconfigs\u002Fminigpt4), [**Otter**](.\u002Fconfigs\u002Fotter\u002F), etc.\n- Support around **10 multi-modal** datasets!\n- Add [**iTPN**](.\u002Fconfigs\u002Fitpn\u002F), [**SparK**](.\u002Fconfigs\u002Fspark\u002F) self-supervised learning algorithms.\n- Provide examples of [New Config](.\u002Fmmpretrain\u002Fconfigs\u002F) and [DeepSpeed\u002FFSDP with FlexibleRunner](.\u002Fconfigs\u002Fmae\u002Fbenchmarks\u002F). Here are the documentation links of [New Config](https:\u002F\u002Fmmengine.readthedocs.io\u002Fen\u002Flatest\u002Fadvanced_tutorials\u002Fconfig.html#a-pure-python-style-configuration-file-beta) and [DeepSpeed\u002FFSDP with FlexibleRunner](https:\u002F\u002Fmmengine.readthedocs.io\u002Fen\u002Flatest\u002Fapi\u002Fgenerated\u002Fmmengine.runner.FlexibleRunner.html#mmengine.runner.FlexibleRunner).\n\n🌟 Upgrade from MMClassification to MMPreTrain\n\n- Integrated Self-supervised learning algorithms from **MMSelfSup**, such as **MAE**, **BEiT**, etc.\n- Support **RIFormer**, a simple but effective vision backbone by removing token mixer.\n- Refactor dataset pipeline visualization.\n- Support **LeViT**, **XCiT**, **ViG**, **ConvNeXt-V2**, **EVA**, **RevViT**, **EfficientnetV2**, **CLIP**, **TinyViT** and **MixMIM** backbones.\n\nThis release introduced a brand new and flexible training & test engine, but it's still in progress. Welcome\nto try according to [the documentation](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002F).\n\nAnd there are some BC-breaking changes. Please check [the migration tutorial](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fmigration.html).\n\nPlease refer to [changelog](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fnotes\u002Fchangelog.html) for more details and other release history.\n\n## Installation\n\nBelow are quick steps for installation:\n\n```shell\nconda create -n open-mmlab python=3.8 pytorch==1.10.1 torchvision==0.11.2 cudatoolkit=11.3 -c pytorch -y\nconda activate open-mmlab\npip install openmim\ngit clone https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain.git\ncd mmpretrain\nmim install -e .\n```\n\nPlease refer to [installation documentation](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fget_started.html) for more detailed installation and dataset preparation.\n\nFor multi-modality models support, please install the extra dependencies by:\n\n```shell\nmim install -e \".[multimodal]\"\n```\n\n## User Guides\n\nWe provided a series of tutorials about the basic usage of MMPreTrain for new users:\n\n- [Learn about Configs](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Fconfig.html)\n- [Prepare Dataset](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Fdataset_prepare.html)\n- [Inference with existing models](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Finference.html)\n- [Train](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Ftrain.html)\n- [Test](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Ftest.html)\n- [Downstream tasks](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Fdownstream.html)\n\nFor more information, please refer to [our documentation](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002F).\n\n## Model zoo\n\nResults and models are available in the [model zoo](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fmodelzoo_statistics.html).\n\n\u003Cdiv align=\"center\">\n  \u003Cb>Overview\u003C\u002Fb>\n\u003C\u002Fdiv>\n\u003Ctable align=\"center\">\n  \u003Ctbody>\n    \u003Ctr align=\"center\" valign=\"bottom\">\n      \u003Ctd>\n        \u003Cb>Supported Backbones\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cb>Self-supervised Learning\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cb>Multi-Modality Algorithms\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cb>Others\u003C\u002Fb>\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr valign=\"top\">\n      \u003Ctd>\n        \u003Cul>\n        \u003Cli>\u003Ca href=\"configs\u002Fvgg\">VGG\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fresnet\">ResNet\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fresnext\">ResNeXt\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fseresnet\">SE-ResNet\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fseresnet\">SE-ResNeXt\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fregnet\">RegNet\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fshufflenet_v1\">ShuffleNet V1\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fshufflenet_v2\">ShuffleNet V2\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmobilenet_v2\">MobileNet V2\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmobilenet_v3\">MobileNet V3\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fswin_transformer\">Swin-Transformer\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fswin_transformer_v2\">Swin-Transformer V2\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Frepvgg\">RepVGG\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fvision_transformer\">Vision-Transformer\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Ftnt\">Transformer-in-Transformer\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fres2net\">Res2Net\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmlp_mixer\">MLP-Mixer\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fdeit\">DeiT\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fdeit3\">DeiT-3\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fconformer\">Conformer\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Ft2t_vit\">T2T-ViT\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Ftwins\">Twins\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fefficientnet\">EfficientNet\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fedgenext\">EdgeNeXt\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fconvnext\">ConvNeXt\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fhrnet\">HRNet\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fvan\">VAN\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fconvmixer\">ConvMixer\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fcspnet\">CSPNet\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fpoolformer\">PoolFormer\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Finception_v3\">Inception V3\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmobileone\">MobileOne\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fefficientformer\">EfficientFormer\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmvit\">MViT\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fhornet\">HorNet\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmobilevit\">MobileViT\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fdavit\">DaViT\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Freplknet\">RepLKNet\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fbeit\">BEiT\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmixmim\">MixMIM\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fefficientnet_v2\">EfficientNet V2\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Frevvit\">RevViT\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fconvnext_v2\">ConvNeXt V2\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fvig\">ViG\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fxcit\">XCiT\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Flevit\">LeViT\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Friformer\">RIFormer\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fglip\">GLIP\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fsam\">ViT SAM\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Feva02\">EVA02\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fdinov2\">DINO V2\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fhivit\">HiViT\u003C\u002Fa>\u003C\u002Fli>\n        \u003C\u002Ful>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cul>\n        \u003Cli>\u003Ca href=\"configs\u002Fmocov2\">MoCo V1 (CVPR'2020)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fsimclr\">SimCLR (ICML'2020)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmocov2\">MoCo V2 (arXiv'2020)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fbyol\">BYOL (NeurIPS'2020)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fswav\">SwAV (NeurIPS'2020)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fdensecl\">DenseCL (CVPR'2021)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fsimsiam\">SimSiam (CVPR'2021)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fbarlowtwins\">Barlow Twins (ICML'2021)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmocov3\">MoCo V3 (ICCV'2021)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fbeit\">BEiT (ICLR'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmae\">MAE (CVPR'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fsimmim\">SimMIM (CVPR'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmaskfeat\">MaskFeat (CVPR'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fcae\">CAE (arXiv'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmilan\">MILAN (arXiv'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fbeitv2\">BEiT V2 (arXiv'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Feva\">EVA (CVPR'2023)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmixmim\">MixMIM (arXiv'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fitpn\">iTPN (CVPR'2023)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fspark\">SparK (ICLR'2023)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmff\">MFF (ICCV'2023)\u003C\u002Fa>\u003C\u002Fli>\n        \u003C\u002Ful>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cul>\n        \u003Cli>\u003Ca href=\"configs\u002Fblip\">BLIP (arxiv'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fblip2\">BLIP-2 (arxiv'2023)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fofa\">OFA (CoRR'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fflamingo\">Flamingo (NeurIPS'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fchinese_clip\">Chinese CLIP (arxiv'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fminigpt4\">MiniGPT-4 (arxiv'2023)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fllava\">LLaVA (arxiv'2023)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fotter\">Otter (arxiv'2023)\u003C\u002Fa>\u003C\u002Fli>\n        \u003C\u002Ful>\n      \u003C\u002Ftd>\n      \u003Ctd>\n      Image Retrieval Task:\n        \u003Cul>\n        \u003Cli>\u003Ca href=\"configs\u002Farcface\">ArcFace (CVPR'2019)\u003C\u002Fa>\u003C\u002Fli>\n        \u003C\u002Ful>\n      Training&Test Tips:\n        \u003Cul>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.13719\">RandAug\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1805.09501\">AutoAug\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"mmpretrain\u002Fdatasets\u002Fsamplers\u002Frepeat_aug.py\">RepeatAugSampler\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"mmpretrain\u002Fmodels\u002Ftta\u002Fscore_tta.py\">TTA\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>...\u003C\u002Fli>\n        \u003C\u002Ful>\n      \u003C\u002Ftd>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n## Contributing\n\nWe appreciate all contributions to improve MMPreTrain.\nPlease refer to [CONTRUBUTING](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fnotes\u002Fcontribution_guide.html) for the contributing guideline.\n\n## Acknowledgement\n\nMMPreTrain is an open source project that is contributed by researchers and engineers from various colleges and companies. We appreciate all the contributors who implement their methods or add new features, as well as users who give valuable feedbacks.\nWe wish that the toolbox and benchmark could serve the growing research community by providing a flexible toolkit to reimplement existing methods and supporting their own academic research.\n\n## Citation\n\nIf you find this project useful in your research, please consider cite:\n\n```BibTeX\n@misc{2023mmpretrain,\n    title={OpenMMLab's Pre-training Toolbox and Benchmark},\n    author={MMPreTrain Contributors},\n    howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain}},\n    year={2023}\n}\n```\n\n## License\n\nThis project is released under the [Apache 2.0 license](LICENSE).\n\n## Projects in OpenMMLab\n\n- [MMEngine](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmengine): OpenMMLab foundational library for training deep learning models.\n- [MMCV](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmcv): OpenMMLab foundational library for computer vision.\n- [MIM](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmim): MIM installs OpenMMLab packages.\n- [MMEval](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmeval): A unified evaluation library for multiple machine learning libraries.\n- [MMPreTrain](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain): OpenMMLab pre-training toolbox and benchmark.\n- [MMDetection](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection): OpenMMLab detection toolbox and benchmark.\n- [MMDetection3D](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d): OpenMMLab's next-generation platform for general 3D object detection.\n- [MMRotate](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmrotate): OpenMMLab rotated object detection toolbox and benchmark.\n- [MMYOLO](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmyolo): OpenMMLab YOLO series toolbox and benchmark.\n- [MMSegmentation](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmsegmentation): OpenMMLab semantic segmentation toolbox and benchmark.\n- [MMOCR](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmocr): OpenMMLab text detection, recognition, and understanding toolbox.\n- [MMPose](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpose): OpenMMLab pose estimation toolbox and benchmark.\n- [MMHuman3D](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmhuman3d): OpenMMLab 3D human parametric model toolbox and benchmark.\n- [MMSelfSup](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmselfsup): OpenMMLab self-supervised learning toolbox and benchmark.\n- [MMRazor](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmrazor): OpenMMLab model compression toolbox and benchmark.\n- [MMFewShot](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot): OpenMMLab fewshot learning toolbox and benchmark.\n- [MMAction2](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2): OpenMMLab's next-generation action understanding toolbox and benchmark.\n- [MMTracking](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmtracking): OpenMMLab video perception toolbox and benchmark.\n- [MMFlow](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmflow): OpenMMLab optical flow toolbox and benchmark.\n- [MMagic](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmagic): Open**MM**Lab **A**dvanced, **G**enerative and **I**ntelligent **C**reation toolbox.\n- [MMGeneration](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmgeneration): OpenMMLab image and video generative models toolbox.\n- [MMDeploy](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdeploy): OpenMMLab model deployment framework.\n- [Playground](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fplayground): A central hub for gathering and showcasing amazing projects built upon OpenMMLab.\n","\u003Cdiv align=\"center\">\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmpretrain_readme_c391e8ecc32d.png\" width=\"600\"\u002F>\n  \u003Cdiv>&nbsp;\u003C\u002Fdiv>\n  \u003Cdiv align=\"center\">\n    \u003Cb>\u003Cfont size=\"5\">OpenMMLab 官网\u003C\u002Ffont>\u003C\u002Fb>\n    \u003Csup>\n      \u003Ca href=\"https:\u002F\u002Fopenmmlab.com\">\n        \u003Ci>\u003Cfont size=\"4\">热门\u003C\u002Ffont>\u003C\u002Fi>\n      \u003C\u002Fa>\n    \u003C\u002Fsup>\n    &nbsp;&nbsp;&nbsp;&nbsp;\n    \u003Cb>\u003Cfont size=\"5\">OpenMMLab 平台\u003C\u002Ffont>\u003C\u002Fb>\n    \u003Csup>\n      \u003Ca href=\"https:\u002F\u002Fplatform.openmmlab.com\">\n        \u003Ci>\u003Cfont size=\"4\">立即体验\u003C\u002Ffont>\u003C\u002Fi>\n      \u003C\u002Fa>\n    \u003C\u002Fsup>\n  \u003C\u002Fdiv>\n  \u003Cdiv>&nbsp;\u003C\u002Fdiv>\n\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fmmpretrain)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fmmpretrain)\n[![Docs](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-latest-blue)](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002F)\n[![Build Status](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fworkflows\u002Fbuild\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Factions)\n[![codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fopen-mmlab\u002Fmmpretrain\u002Fbranch\u002Fmain\u002Fgraph\u002Fbadge.svg)](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fopen-mmlab\u002Fmmpretrain)\n[![license](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fopen-mmlab\u002Fmmpretrain.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fblob\u002Fmain\u002FLICENSE)\n[![open issues](https:\u002F\u002Fisitmaintained.com\u002Fbadge\u002Fopen\u002Fopen-mmlab\u002Fmmpretrain.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fissues)\n[![issue resolution](https:\u002F\u002Fisitmaintained.com\u002Fbadge\u002Fresolution\u002Fopen-mmlab\u002Fmmpretrain.svg)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fissues)\n\n[📘 文档](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002F) |\n[🛠️ 安装](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fget_started.html#installation) |\n[👀 模型库](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fmodelzoo_statistics.html) |\n[🆕 更新消息](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fnotes\u002Fchangelog.html) |\n[🤔 提交问题](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fissues\u002Fnew\u002Fchoose)\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmpretrain_readme_c4e5b3d9bae5.png\" width=\"400\"\u002F>\n\nEnglish | [简体中文](\u002FREADME_zh-CN.md)\n\n\u003C\u002Fdiv>\n\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fopenmmlab.medium.com\u002F\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmpretrain_readme_062337b0e5ec.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FraweFPmdzG\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmpretrain_readme_6342e5371027.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002FOpenMMLab\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmpretrain_readme_04c3beda0b07.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fopenmmlab\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmpretrain_readme_204fe79b5a90.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fspace.bilibili.com\u002F1293512903\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmpretrain_readme_8655b6233577.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F25839884\u002F218346358-56cc8e2f-a2b8-487f-9088-32480cceabcf.png\" width=\"3%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fwww.zhihu.com\u002Fpeople\u002Fopenmmlab\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmpretrain_readme_447c4737c11f.png\" width=\"3%\" alt=\"\" \u002F>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n## 简介\n\nMMPreTrain 是一个基于 PyTorch 的开源预训练工具箱，隶属于 [OpenMMLab](https:\u002F\u002Fopenmmlab.com\u002F) 项目。\n\n`main` 分支支持 **PyTorch 1.8 及以上版本**。\n\n### 主要特性\n\n- 多种骨干网络和预训练模型\n- 丰富的训练策略（监督学习、自监督学习、多模态学习等）\n- 训练技巧包\n- 大规模训练配置\n- 高效且可扩展\n- 强大的模型分析与实验工具集\n- 多种开箱即用的推理任务。\n  - 图像分类\n  - 图像字幕生成\n  - 视觉问答\n  - 视觉定位\n  - 检索（图像到图像、文本到图像、图像到文本）\n\nhttps:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fassets\u002F26739999\u002Fe4dcd3a2-f895-4d1b-a351-fbc74a04e904\n\n## 最新动态\n\n🌟 v1.2.0 于 2023年04月01日发布\n\n- 支持 LLaVA 1.5。\n- 实现了 RAM，并提供了 Gradio 界面。\n\n🌟 v1.1.0 于 2023年12月10日发布\n\n- 支持 Mini-GPT4 训练，并提供中文模型（基于 Baichuan-7B）\n- 支持基于 CLIP 的零样本分类。\n\n🌟 v1.0.0 于 2023年04月07日发布\n\n- 支持更多 **多模态** 算法的推理，例如 [**LLaVA**](.\u002Fconfigs\u002Fllava\u002F)、[**MiniGPT-4**](.\u002Fconfigs\u002Fminigpt4)、[**Otter**](.\u002Fconfigs\u002Fotter\u002F) 等。\n- 支持约 **10 种多模态** 数据集！\n- 新增 [**iTPN**](.\u002Fconfigs\u002Fitpn\u002F) 和 [**SparK**](.\u002Fconfigs\u002Fspark\u002F) 自监督学习算法。\n- 提供 [新配置](.\u002Fmmpretrain\u002Fconfigs\u002F) 和 [DeepSpeed\u002FFSDP 结合 FlexibleRunner](.\u002Fconfigs\u002Fmae\u002Fbenchmarks\u002F) 的示例。以下是相关文档链接：[新配置](https:\u002F\u002Fmmengine.readthedocs.io\u002Fen\u002Flatest\u002Fadvanced_tutorials\u002Fconfig.html#a-pure-python-style-configuration-file-beta) 和 [DeepSpeed\u002FFSDP 结合 FlexibleRunner](https:\u002F\u002Fmmengine.readthedocs.io\u002Fen\u002Flatest\u002Fapi\u002Fgenerated\u002Fmmengine.runner.FlexibleRunner.html#mmengine.runner.FlexibleRunner)。\n\n🌟 从 MMClassification 升级至 MMPreTrain\n\n- 整合了来自 **MMSelfSup** 的自监督学习算法，如 **MAE**、**BEiT** 等。\n- 支持 **RIFormer**，一种通过移除 token mixer 而实现的简单但有效的视觉骨干网络。\n- 重构了数据集流水线可视化。\n- 支持 **LeViT**、**XCiT**、**ViG**、**ConvNeXt-V2**、**EVA**、**RevViT**、**EfficientnetV2**、**CLIP**、**TinyViT** 和 **MixMIM** 等骨干网络。\n\n此次发布引入了一个全新且灵活的训练与测试引擎，但仍处于开发中。欢迎根据 [文档](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002F) 进行尝试。\n\n同时，存在一些破坏性变更。请查阅 [迁移教程](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fmigration.html)。\n\n更多详情及其他版本历史，请参阅 [changelog](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fnotes\u002Fchangelog.html)。\n\n## 安装\n\n以下是快速安装步骤：\n\n```shell\nconda create -n open-mmlab python=3.8 pytorch==1.10.1 torchvision==0.11.2 cudatoolkit=11.3 -c pytorch -y\nconda activate open-mmlab\npip install openmim\ngit clone https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain.git\ncd mmpretrain\nmim install -e .\n```\n\n更多详细的安装和数据集准备信息，请参阅[安装文档](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fget_started.html)。\n\n若需支持多模态模型，请通过以下命令安装额外依赖：\n\n```shell\nmim install -e \".[multimodal]\"\n```\n\n## 用户指南\n\n我们为新用户提供了一系列关于 MMPreTrain 基本使用的教程：\n\n- [配置文件简介](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Fconfig.html)\n- [数据集准备](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Fdataset_prepare.html)\n- [使用现有模型进行推理](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Finference.html)\n- [训练](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Ftrain.html)\n- [测试](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Ftest.html)\n- [下游任务](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002Fdownstream.html)\n\n如需更多信息，请参阅[我们的文档](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002F)。\n\n## 模型动物园\n\n结果和模型可在[模型动物园](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fmodelzoo_statistics.html)中找到。\n\n\u003Cdiv align=\"center\">\n  \u003Cb>概览\u003C\u002Fb>\n\u003C\u002Fdiv>\n\u003Ctable align=\"center\">\n  \u003Ctbody>\n    \u003Ctr align=\"center\" valign=\"bottom\">\n      \u003Ctd>\n        \u003Cb>支持的骨干网络\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cb>自监督学习\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cb>多模态算法\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cb>其他\u003C\u002Fb>\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr valign=\"top\">\n      \u003Ctd>\n        \u003Cul>\n        \u003Cli>\u003Ca href=\"configs\u002Fvgg\">VGG\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fresnet\">ResNet\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fresnext\">ResNeXt\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fseresnet\">SE-ResNet\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fseresnet\">SE-ResNeXt\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fregnet\">RegNet\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fshufflenet_v1\">ShuffleNet V1\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fshufflenet_v2\">ShuffleNet V2\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmobilenet_v2\">MobileNet V2\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmobilenet_v3\">MobileNet V3\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fswin_transformer\">Swin-Transformer\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fswin_transformer_v2\">Swin-Transformer V2\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Frepvgg\">RepVGG\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fvision_transformer\">Vision-Transformer\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Ftnt\">Transformer-in-Transformer\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fres2net\">Res2Net\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmlp_mixer\">MLP-Mixer\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fdeit\">DeiT\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fdeit3\">DeiT-3\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fconformer\">Conformer\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Ft2t_vit\">T2T-ViT\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Ftwins\">Twins\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fefficientnet\">EfficientNet\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fedgenext\">EdgeNeXt\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fconvnext\">ConvNeXt\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fhrnet\">HRNet\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fvan\">VAN\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fconvmixer\">ConvMixer\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fcspnet\">CSPNet\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fpoolformer\">PoolFormer\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Finception_v3\">Inception V3\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmobileone\">MobileOne\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fefficientformer\">EfficientFormer\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmvit\">MViT\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fhornet\">HorNet\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmobilevit\">MobileViT\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fdavit\">DaViT\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Freplknet\">RepLKNet\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fbeit\">BEiT\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmixmim\">MixMIM\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fefficientnet_v2\">EfficientNet V2\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Frevvit\">RevViT\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fconvnext_v2\">ConvNeXt V2\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fvig\">ViG\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fxcit\">XCiT\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Flevit\">LeViT\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Friformer\">RIFormer\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fglip\">GLIP\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fsam\">ViT SAM\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Feva02\">EVA02\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fdinov2\">DINO V2\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fhivit\">HiViT\u003C\u002Fa>\u003C\u002Fli>\n        \u003C\u002Ful>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cul>\n        \u003Cli>\u003Ca href=\"configs\u002Fmocov2\">MoCo V1 (CVPR'2020)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fsimclr\">SimCLR (ICML'2020)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmocov2\">MoCo V2 (arXiv'2020)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fbyol\">BYOL (NeurIPS'2020)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fswav\">SwAV (NeurIPS'2020)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fdensecl\">DenseCL (CVPR'2021)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fsimsiam\">SimSiam (CVPR'2021)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fbarlowtwins\">Barlow Twins (ICML'2021)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmocov3\">MoCo V3 (ICCV'2021)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fbeit\">BEiT (ICLR'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmae\">MAE (CVPR'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fsimmim\">SimMIM (CVPR'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmaskfeat\">MaskFeat (CVPR'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fcae\">CAE (arXiv'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmilan\">MILAN (arXiv'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fbeitv2\">BEiT V2 (arXiv'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Feva\">EVA (CVPR'2023)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmixmim\">MixMIM (arXiv'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fitpn\">iTPN (CVPR'2023)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fspark\">SparK (ICLR'2023)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fmff\">MFF (ICCV'2023)\u003C\u002Fa>\u003C\u002Fli>\n        \u003C\u002Ful>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cul>\n        \u003Cli>\u003Ca href=\"configs\u002Fblip\">BLIP (arxiv'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fblip2\">BLIP-2 (arxiv'2023)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fofa\">OFA (CoRR'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fflamingo\">Flamingo (NeurIPS'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fchinese_clip\">Chinese CLIP (arxiv'2022)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fminigpt4\">MiniGPT-4 (arxiv'2023)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fllava\">LLaVA (arxiv'2023)\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"configs\u002Fotter\">Otter (arxiv'2023)\u003C\u002Fa>\u003C\u002Fli>\n        \u003C\u002Ful>\n      \u003C\u002Ftd>\n      \u003Ctd>\n      图像检索任务：\n        \u003Cul>\n        \u003Cli>\u003Ca href=\"configs\u002Farcface\">ArcFace (CVPR'2019)\u003C\u002Fa>\u003C\u002Fli>\n        \u003C\u002Ful>\n      训练与测试技巧：\n        \u003Cul>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.13719\">RandAug\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1805.09501\">AutoAug\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"mmpretrain\u002Fdatasets\u002Fsamplers\u002Frepeat_aug.py\">RepeatAugSampler\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"mmpretrain\u002Fmodels\u002Ftta\u002Fscore_tta.py\">TTA\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>...\u003C\u002Fli>\n        \u003C\u002Ful>\n      \u003C\u002Ftd>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n## 贡献\n\n我们感谢所有为改进 MMPreTrain 所做的贡献。请参阅[CONTRIBUTING](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fnotes\u002Fcontribution_guide.html)以获取贡献指南。\n\n## 致谢\n\nMMPreTrain 是一个开源项目，由来自不同院校和公司的研究人员及工程师共同贡献而成。我们感谢所有实现其方法或添加新功能的贡献者，以及提供宝贵反馈的用户。我们希望这个工具箱和基准能够服务于不断壮大的研究社区，为重现实验室现有方法并支持他们自身的学术研究提供灵活的工具包。\n\n## 引用\n\n如果您在研究中使用了本项目，请考虑引用：\n\n```BibTeX\n@misc{2023mmpretrain,\n    title={OpenMMLab预训练工具箱与基准},\n    author={MMPreTrain贡献者},\n    howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain}},\n    year={2023}\n}\n```\n\n## 许可证\n\n本项目采用[Apache 2.0许可证](LICENSE)发布。\n\n## OpenMMLab中的项目\n\n- [MMEngine](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmengine)：OpenMMLab用于训练深度学习模型的基础库。\n- [MMCV](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmcv)：OpenMMLab用于计算机视觉的基础库。\n- [MIM](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmim)：MIM用于安装OpenMMLab的相关软件包。\n- [MMEval](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmeval)：一个面向多种机器学习框架的统一评估库。\n- [MMPreTrain](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain)：OpenMMLab预训练工具箱及基准。\n- [MMDetection](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection)：OpenMMLab目标检测工具箱及基准。\n- [MMDetection3D](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d)：OpenMMLab新一代通用3D目标检测平台。\n- [MMRotate](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmrotate)：OpenMMLab旋转目标检测工具箱及基准。\n- [MMyolo](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmyolo)：OpenMMLab YOLO系列工具箱及基准。\n- [MMSegmentation](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmsegmentation)：OpenMMLab语义分割工具箱及基准。\n- [MMOCR](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmocr)：OpenMMLab文本检测、识别与理解工具箱。\n- [MMPose](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpose)：OpenMMLab人体姿态估计工具箱及基准。\n- [MMHuman3D](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmhuman3d)：OpenMMLab 3D人体参数化模型工具箱及基准。\n- [MMSelfSup](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmselfsup)：OpenMMLab自监督学习工具箱及基准。\n- [MMRazor](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmrazor)：OpenMMLab模型压缩工具箱及基准。\n- [MMFewShot](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmfewshot)：OpenMMLab小样本学习工具箱及基准。\n- [MMAction2](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmaction2)：OpenMMLab新一代动作理解工具箱及基准。\n- [MMTracking](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmtracking)：OpenMMLab视频感知工具箱及基准。\n- [MMFlow](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmflow)：OpenMMLab光流计算工具箱及基准。\n- [MMagic](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmagic)：Open**MM**Lab **A**dvanced, **G**enerative and **I**ntelligent **C**reation工具箱。\n- [MMGeneration](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmgeneration)：OpenMMLab图像和视频生成模型工具箱。\n- [MMDeploy](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdeploy)：OpenMMLab模型部署框架。\n- [Playground](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fplayground)：一个汇集并展示基于OpenMMLab构建的优秀项目的中心平台。","# MMPreTrain 快速上手指南\n\nMMPreTrain 是 OpenMMLab 推出的基于 PyTorch 的开源预训练工具箱，支持图像分类、自监督学习及多模态任务（如 LLaVA、MiniGPT-4 等）。\n\n## 1. 环境准备\n\n*   **操作系统**: Linux (推荐), Windows, macOS\n*   **Python**: 3.8+\n*   **PyTorch**: 1.8+ (推荐 1.10+)\n*   **CUDA**: 根据显卡驱动版本选择 (可选，用于 GPU 加速)\n\n> **提示**：建议使用 `conda` 创建独立的虚拟环境以避免依赖冲突。\n\n## 2. 安装步骤\n\n以下命令将创建一个名为 `open-mmlab` 的环境并安装 MMPreTrain 及其核心依赖。\n\n### 第一步：创建并激活 Conda 环境\n```shell\nconda create -n open-mmlab python=3.8 pytorch==1.10.1 torchvision==0.11.2 cudatoolkit=11.3 -c pytorch -y\nconda activate open-mmlab\n```\n*(注：请根据您的实际 CUDA 版本调整 `cudatoolkit` 版本号，或访问 PyTorch 官网获取对应安装命令)*\n\n### 第二步：安装 OpenMIM 工具\nOpenMIM 是 OpenMMLab 系列的包管理工具，能自动处理复杂的依赖关系。\n```shell\npip install openmim\n```\n\n### 第三步：克隆代码并安装 MMPreTrain\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain.git\ncd mmpretrain\nmim install -e .\n```\n\n### （可选）安装多模态支持\n如果您需要使用 LLaVA、MiniGPT-4 等多模态模型，请额外安装相关依赖：\n```shell\nmim install -e \".[multimodal]\"\n```\n\n## 3. 基本使用\n\n安装完成后，您可以直接使用 Python 调用预训练模型进行推理。以下是一个最简单的图像分类示例：\n\n```python\nfrom mmpretrain import inference_model\n\n# 指定模型配置名称和图片路径\n# 这里以 ResNet50 在 ImageNet 上预训练的模型为例\nresult = inference_model('resnet50_8xb32_in1k', 'demo.jpg')\n\n# 打印预测结果\nprint(result['pred_class'])  # 输出预测类别名称\nprint(result['pred_score'])  # 输出置信度分数\n```\n\n**进阶提示**：\n*   **配置文件**：所有支持的模型配置名称可在 [Model Zoo](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fmodelzoo_statistics.html) 中查找。\n*   **多模态推理**：对于多模态任务（如视觉问答），需加载对应的多模态模型配置，并确保已安装 `[multimodal]` 依赖。\n*   **训练与测试**：详细的数据集准备、训练及测试流程请参考官方文档中的 [User Guides](https:\u002F\u002Fmmpretrain.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guides\u002F)。","某医疗影像初创公司的算法团队正急需利用自研的十万张标注眼底照片，训练一个高精度的疾病筛查模型以通过临床验证。\n\n### 没有 mmpretrain 时\n- **代码重复造轮子**：团队成员需手动从零编写数据加载、增强及主流骨干网络（如 ResNet, ViT）的代码，耗费数周时间且容易引入隐蔽 Bug。\n- **复现基准困难**：想要对比最新论文中的预训练权重效果时，因缺乏统一的模型库和标准评估脚本，复现过程繁琐且结果难以对齐。\n- **训练流程割裂**：预处理、预训练微调、推理部署各环节使用不同框架或脚本拼接，配置管理混乱，实验记录难以追溯。\n- **资源利用率低**：由于缺乏针对分布式训练的优化封装，多卡训练时常出现显存溢出或通信瓶颈，导致昂贵的 GPU 资源闲置等待调试。\n\n### 使用 mmpretrain 后\n- **开箱即用模型**：直接调用 mmpretrain 内置的数百种标准化骨干网络和预训练权重，将环境搭建与基础代码编写时间从数周缩短至几小时。\n- **统一基准评测**：利用其自带的 Benchmark 工具一键运行多种算法对比，快速锁定最适合医疗小样本场景的基线模型，确保结果可复现。\n- **全流程标准化**：通过统一的配置文件管理数据、训练策略及评估指标，实现了从预训练到微调的无缝衔接，实验迭代效率提升三倍。\n- **高效分布式支持**：依托其优化的分布式训练引擎，轻松实现多机多卡线性加速，大幅缩短了大规模眼底数据的模型收敛时间。\n\nmmpretrain 通过提供标准化的预训练工具箱与基准测试，让算法团队从繁琐的基础设施构建中解放出来，专注于核心业务逻辑的创新与落地。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-mmlab_mmpretrain_73f9ea5d.png","open-mmlab","OpenMMLab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fopen-mmlab_7c171dd7.png","",null,"https:\u002F\u002Fopenmmlab.com","https:\u002F\u002Fgithub.com\u002Fopen-mmlab",[83,87,91,95,98],{"name":84,"color":85,"percentage":86},"Python","#3572A5",98.4,{"name":88,"color":89,"percentage":90},"Cuda","#3A4E3A",1.2,{"name":92,"color":93,"percentage":94},"Shell","#89e051",0.2,{"name":96,"color":97,"percentage":94},"C++","#f34b7d",{"name":99,"color":100,"percentage":101},"Dockerfile","#384d54",0,3839,1116,"2026-04-01T12:46:32","Apache-2.0","未说明","需要 NVIDIA GPU (基于 PyTorch 和 cudatoolkit 依赖)，示例环境使用 CUDA 11.3",{"notes":109,"python":110,"dependencies":111},"主分支兼容 PyTorch 1.8+。官方安装示例使用 Python 3.8、PyTorch 1.10.1、TorchVision 0.11.2 和 CUDA 11.3。支持多模态模型需额外安装 '[multimodal]' 依赖包。建议使用 conda 管理环境。","3.8+",[112,113,114,115],"torch>=1.8","torchvision","openmim","mmengine",[14,53,13,54,26],[118,119,120,121,122,123,124,125,126,127,128,129,130,131,132,133,134],"image-classification","resnet","mobilenet","pytorch","deep-learning","swin-transformer","beit","clip","constrastive-learning","convnext","mae","masked-image-modeling","moco","pretrained-models","self-supervised-learning","vision-transformer","multimodal","2026-03-27T02:49:30.150509","2026-04-06T08:40:53.026286",[138,143,148,152,157,162,166],{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},12889,"运行 demo 时出现 'IndexError: list index out of range' 错误怎么办？","这通常是由于 PyTorch 在特定设备（如 MPS）上执行 `torch.argmax` 时的已知问题导致的。您可以尝试复现该问题并向 PyTorch 官方报告。临时解决方案包括避免使用触发该错误的特定设备或等待 PyTorch 下一个版本修复。复现代码示例：\n```python\nimport torch\nx = torch.rand((100), device=\"mps:0\")\nres = torch.argmax(x)\nprint(res)\n```","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fissues\u002F1560",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},12890,"如何自定义优化器和学习率调整策略？有哪些可选方案？","您可以通过修改配置文件来自定义优化器和学习率策略。关于“当 Loss 不再降低时自动降低学习率”的功能，可以参考 MMCV 的相关 PR (open-mmlab\u002Fmmcv#1183) 获取实现细节。如果在训练过程中看不到 Loss 和学习率等参数，且写入 TensorBoard 也没有数据，请检查您的日志配置是否正确启用了相关钩子（Hooks）。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fissues\u002F484",{"id":149,"question_zh":150,"answer_zh":151,"source_url":147},12891,"PyTorch 模型转 ONNX 时遇到不支持 'same' 模式 padding 的报错如何解决？","这是因为 PyTorch 转 ONNX 时不支持 \"same\" 模式的 padding。解决方法是将配置文件或代码中的 padding 模式从 \"same\" 改为具体的数字（例如 1），即可正常转换。",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},12892,"如何使用 analyze_logs.py 工具绘制验证准确率 (val_acc) 曲线？","在使用 `tools\u002Fanalysis_tools\u002Fanalyze_logs.py` 绘图时，请检查生成的 `log.json` 文件。验证准确率通常记录在验证步骤的输出中。如果您只有两个类别，可能需要将配置中的 `topk` 从 `(1, 5)` 修改为 `(1,)`，并设置 `cal_acc=True` 以确保准确计算和记录。在 log 文件中查找包含 validation 信息的行即可找到 val_acc 数据用于绘图。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fissues\u002F993",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},12893,"遇到 'ImportError: cannot import name FileClient from mmcv' 错误如何处理？","此错误通常是由于 `mmcv` 版本不兼容或 API 变更引起的（FileClient 可能已被移除或移动）。请确保您安装的 `mmcv` 版本与当前的 `mmpretrain` (或 `mmclassification`) 版本严格匹配。建议参考官方文档的安装指南，重新安装对应版本的 `mmcv-full`。如果是从旧版本迁移，可能需要更新导入路径或升级相关库。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fissues\u002F1368",{"id":163,"question_zh":164,"answer_zh":165,"source_url":161},12894,"模型微调时遇到 'AttributeError: module torch._C._nn has no attribute cross_entropy_' 错误怎么办？","这个错误通常与模型定义或损失函数的修改有关。如果您正在尝试微调模型，建议先运行官方提供的示例代码以确保环境无误。如果您修改了损失函数（例如将 `CrossEntropyLoss` 改为 `LabelSmoothLoss`），请确保修改后的配置与模型结构兼容，并且没有遗留导致属性缺失的代码冲突。",{"id":167,"question_zh":168,"answer_zh":169,"source_url":170},12895,"为什么单独推理图片的结果与测试工具得出的准确率不一致？","如果测试工具显示高准确率但单独推理时所有图片都被分类为同一类（或结果混乱），请重点检查以下几点：\n1. **数据预处理**：确保推理时的图像预处理流程（如归一化均值 mean、标准差 std、Resize 策略等）与训练及测试配置完全一致。\n2. **标签映射**：检查类别索引与标签名称的映射关系是否正确，特别是在自定义数据集上。\n3. **模型加载**：确认加载的是正确的权重文件，且模型处于评估模式 (`model.eval()`)。\n配置中的 `img_norm_cfg` 必须与训练时保持一致，否则会导致严重的分布偏移。","https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fissues\u002F596",[172,177,182,187,192,197,202,207,212,217,222,227,232,237,242,247,252,257,262,267],{"id":173,"version":174,"summary_zh":175,"released_at":176},71563,"v1.0.1","修复了一些 bug，并增强了代码库。\n\n## 变更内容\n* [修复] 由 @Ezra-Yu 在 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1706 中修复了 RandomCrop 的参数错误问题。\n* [重构] 由 @fanqiNO1 在 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1705 中对 BEiT 进行了重构。\n* [重构] 由 @fanqiNO1 在 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1689 中修正了拼写错误。\n* [修复] 由 @fabien-merceron 在 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1693 中修复了 VisionTransformer 中 cls_token 的冻结问题。\n* [修复] 由 @bryanbocao 在 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1655 中修正了 vis_cam.py 中 ‘target’ 的拼写错误。\n* [新功能] 由 @fanqiNO1 在 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1687 中增加了对 LoRA 的支持。\n* [修复] 由 @liyunlong10 在 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1722 中修复了 issue #1711 “GaussianBlur 不工作”的问题。\n* [增强] 由 @NripeshN 在 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1699 中添加了对 Apple Silicon Mac 的 GPU 加速支持。\n* [增强] 由 @Ginray 在 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1728 中适配了 Ascend NPU 上的测试用例。\n* [增强] 由 @marouaneamz 在 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1716 中实现了嵌套预测功能。\n* [增强] 由 @fangyixiao18 在 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1718 中为部分多模态方法设置了 ‘is_init’ 标志。\n* [增强] 由 @fangyixiao18 在 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1717 中为下游任务添加了 type='pretrained' 的 init_cfg 配置。\n* [修复] 由 @fangyixiao18 在 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1709 中修复了 minigpt4 中字典更新的问题。\n* 由 @fangyixiao18 将版本号升级至 1.0.1，详见 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1731。\n\n## 新贡献者\n* @fabien-merceron 在 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1693 中完成了首次贡献。\n* @bryanbocao 在 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1655 中完成了首次贡献。\n* @liyunlong10 在 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1722 中完成了首次贡献。\n* @NripeshN 在 https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1699 中完成了首次贡献。\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fcompare\u002F1.0.0...v1.0.1","2023-07-31T11:36:36",{"id":178,"version":179,"summary_zh":180,"released_at":181},71564,"1.0.0","# MMPreTrain 发布 v1.0.0：骨干网络、自监督学习与多模态能力\n\n### 支持更多**多模态**算法和数据集\n我们很高兴地宣布，现已支持多项先进的多模态方法！我们将 *huggingface\u002Ftransformers* 与 MMPreTrain 中的视觉骨干网络集成，以实现推理和训练（开发中）。\n\n| 方法 | 数据集 |\n|:---|:---|\n|[BLIP (arxiv'2022)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fblob\u002Fmain\u002Fconfigs\u002Fblip) | COCO（字幕生成、检索、VQA） |\n|[BLIP-2 (arxiv'2023)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fblob\u002Fmain\u002Fconfigs\u002Fblip2) | Flickr30k（字幕生成、检索） |\n|[OFA (CoRR'2022)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fblob\u002Fmain\u002Fconfigs\u002Fofa) | GQA |\n|[Flamingo (NeurIPS'2022)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fblob\u002Fmain\u002Fconfigs\u002Fflamingo) | NLVR2 |\n|[中文 CLIP (arxiv'2022)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fblob\u002Fmain\u002Fconfigs\u002Fchinese_clip) | NoCaps |\n|[MiniGPT-4 (arxiv'2023)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fblob\u002Fmain\u002Fconfigs\u002Fminigpt4) | OCR VQA |\n|[LLaVA (arxiv'2023)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fblob\u002Fmain\u002Fconfigs\u002Fllava) | 文本 VQA |\n|[Otter (arxiv'2023)](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fblob\u002Fmain\u002Fconfigs\u002Fotter) | VG VQA|\n|| VisualGenomeQA |\n|| VizWiz |\n|| VSR |\n\n\n### 新增**iTPN**、**SparK** 自监督学习算法。\n![image](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fassets\u002F36138628\u002F328e4c44-edf6-49cc-a54b-5b6b408cc92f)\n![image](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fassets\u002F36138628\u002F82ed14ca-618c-414b-89af-f7476bb5c320)\n\n\n### 提供**新配置**和**DeepSpeed\u002FFSDP** 的示例\n我们使用 MMEngine 对 DeepSpeed 和 FSDP 进行了测试。以下是使用 ViT-large、ViT-huge 以及 8B 多模态模型时的显存和训练时间数据，左图为显存数据，右图为训练时间数据。\n\n测试环境：8*A100 (80G) PyTorch 2.0.0\n![image](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fassets\u002F36138628\u002F2fbb2ede-b226-4679-86f3-14913f600a2a)\n备注：FSDP 和 DeepSpeed 均采用默认配置进行测试，并未进行调优；若手动调整 FSDP 的包装策略，可进一步降低训练时间和显存占用。\n\n## 新特性\n\n- 将 mmselfsup 中的形状偏差工具迁移过来（[#1658](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1685)）\n- 使用 MIM 和 OpenDataLab 下载数据集（[#1630](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1630)）\n- 支持新配置（[#1639](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1639)、[#1647](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1647)、[#1665](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1665)）\n- 支持 Flickr30k 检索数据集（[#1625](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1625)）\n- 支持 SparK（[#1531](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1531)）\n- 支持 LLaVA（[#1652](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1652)）\n- 支持 Otter（[#1651](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1651)）","2023-07-05T08:33:03",{"id":183,"version":184,"summary_zh":185,"released_at":186},71565,"v1.0.0rc8","# 亮点\n\n- 支持多种多模态算法和推理器。您可以通过 [gradio demo](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Ftree\u002Fmain\u002Fprojects\u002Fgradio_demo) 探索这些功能！\n- 新增 EVA-02、Dino-V2、ViT-SAM 和 GLIP 主干网络。\n- 将 torchvision 的变换注册到 MMPretrain 中，现在您可以轻松地在 MMPretrain 中集成 torchvision 的数据增强功能。\n\n# 新特性\n\n- 支持中文 CLIP。（[#1576](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1576)）\n- 添加 ScienceQA 指标。（[#1577](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1577)）\n- 支持多种多模态算法和推理器。（[#1561](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1561)）\n- 增加 eva02 主干网络。（[#1450](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1450)）\n- 支持 dinov2 主干网络。（[#1522](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1522)）\n- 支持一些下游分类数据集。（[#1467](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1467)）\n- 支持 GLIP。（[#1308](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1308)）\n- 将 torchvision 的变换注册到 mmpretrain 中。（[#1265](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1265)）\n- 增加 SAM 的 ViT 模型。（[#1476](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1476)）\n\n# 改进\n\n- 【重构】支持冻结通道缩减并添加层衰减功能。（[#1490](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1490)）\n- 【重构】支持加载检查点时调整 pos_embed 大小以及格式化输出。（[#1488](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1488)）\n\n### Bug 修复\n\n- 修复 scienceqa 相关问题。（[#1581](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1581)）\n- 修复 beit 的配置问题。（[#1528](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1528)）\n- 修复 RIFormer 模型中阶段冻结错误。（[#1573](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1573)）\n- 修复由 `out_type` 引发的 DDP bug。（[#1570](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1570)）\n- 修复多任务头损失中的潜在 bug。（[#1530](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1530)）\n- 支持在不进行批量增强的情况下使用 BCE 损失。（[#1525](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1525)）\n- 修复 CLIP 生成器初始化 bug。（[#1518](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1518)）\n- 修复二元交叉熵损失中的 bug。（[#1499](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1499)）\n\n# 文档更新\n\n- 将 PoolFormer 的引用更新为 CVPR 版本。（[#1505](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1505)）\n- 优化推理文档。（[#1489](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1489)）\n- 添加混淆矩阵使用说明文档。（[#1513](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1513)）\n- 更新 MMagic 链接。（[#1517](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1517)）\n- 修复 example_project 的 README 文件。（[#1575](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1575)）\n- 添加 NPU 支持页面。（[#1481](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1481)）\n- train cfg：移除旧的描述。（[#1473](https:\u002F\u002Fgithub.co","2023-05-23T03:45:02",{"id":188,"version":189,"summary_zh":190,"released_at":191},71566,"v1.0.0rc7","# MMPreTrain v1.0.0rc7 发行说明\n- 亮点\n- 新特性\n- 改进\n- Bug 修复\n- 文档更新\n\n## 亮点\n\n我们很高兴地宣布，MMClassification 和 MMSelfSup 已经合并到一个代码库中，命名为 MMPreTrain，其主要亮点如下：\n- 集成了来自 **MMSelfSup** 的自监督学习算法，例如 **MAE**、**BEiT** 等。用户可以在我们的 `mmpretrain\u002Fmodels` 目录下找到新创建的 `selfsup` 文件夹，其中支持 18 种最新的自监督学习算法。\n\n| 对比学习  | 掩码图像建模   |\n| :----------------------------: | :----------------------------------: |\n|  MoCo 系列  | BEiT 系列 |\n|  SimCLR        | MAE          |\n|  BYOL           | SimMIM      |\n|  SwAV          | MaskFeat    |\n|  DenseCL     | CAE          |\n|  SimSiam       | MILAN      |\n|  BarlowTwins  | EVA         |\n|  DenseCL     | MixMIM      |\n\n- 支持 **RIFormer**，这是一种在保持视觉骨干网络有效性的同时，移除其基本构建块中 token 混合器的方法。结合我们提出的优化策略，我们能够构建出极其简单的视觉骨干网络，同时在推理过程中具有很高的效率，并取得令人鼓舞的性能。\n\n\u003Cdiv>\n\u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F48375204\u002F223930120-dc075c8e-0513-42eb-9830-469a45c1d941.png\" width=\"80%\"\u002F>\n\u003C\u002Fdiv>\n\n- 支持 **LeViT**、**XCiT**、**ViG** 和 **ConvNeXt-V2** 骨干网络，因此目前我们共支持 68 种骨干网络或算法，以及 472 个预训练模型检查点。\n  \n- 新增 t-SNE 可视化功能，用户可以通过 t-SNE 可视化来分析骨干网络的特征表示能力。可视化示例：左侧来自 `MoCoV2_ResNet50`，右侧来自 `MAE_ViT-base`：\n\n\u003Cdiv>\n\u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F36138628\u002F207305086-91df298c-0eb7-4254-9c5b-ba711644501b.png\" width=\"40%\" \u002F>\n\u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F36138628\u002F223383663-a021bb5f-1ef5-404d-87aa-c353edd4e1e1.png\" width=\"40%\" \u002F>\n\u003C\u002Fdiv>\n\n- 重构了数据集流水线的可视化功能，现在也可以可视化掩码图像建模的流水线，例如 BEiT：\n\n\u003Cdiv>\u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F26739999\u002F226542300-74216187-e3d0-4a6e-8731-342abe719721.png\" width=\"70%\">\u003C\u002Fdiv>\n\n## 新特性\n\n- 支持 RIFormer。([#1453](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain\u002Fpull\u002F1453))\n- 支持 XCiT 骨干网络。([#1305](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1305))\n- 支持计算并绘制混淆矩阵。([#1287](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1287))\n- 支持 RetrieverRecall 指标，并新增 ArcFace 配置。([#1316](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1316))\n- 新增 `ImageClassificationInferencer`。([#1261](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1261))\n- 支持 InShop 数据集（图像检索）。([#1019](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1019))\n- 支持 LeViT 骨干网络。([#1238](htt","2023-04-07T10:25:02",{"id":193,"version":194,"summary_zh":195,"released_at":196},71567,"v1.0.0rc5","# 亮点\n\n- 支持 EVA、RevViT、EfficientnetV2、CLIP、TinyViT 和 MixMIM 等骨干网络。\n- 复现了 ConvNeXt 和 RepVGG 的训练精度。\n- 支持多任务训练与测试。\n- 支持测试时增强（TTA）。\n\n# 新特性\n\n- [特性] 添加 EfficientnetV2 骨干网络。（[#1253](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1253)）\n- [特性] 支持 TTA，并在 `tools\u002Ftest.py` 中新增 `--tta` 参数。（[#1161](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1161)）\n- [特性] 支持多任务。（[#1229](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1229)）\n- [特性] 添加 CLIP 骨干网络。（[#1258](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1258)）\n- [特性] 添加带有检查点的 MixMIM 骨干网络。（[#1224](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1224)）\n- [特性] 为 dev-1.x 版本添加 TinyViT。（[#1042](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1042)）\n- [特性] 添加了一些用于开发的脚本。（[#1257](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1257)）\n- [特性] 支持 EVA。（[#1239](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1239)）\n- [特性] 实现 RevViT。（[#1127](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1127)）\n\n# 改进\n\n- [复现] 复现 RepVGG 的训练精度。（[#1264](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1264)）\n- [增强] 支持更多 ConvNeXt 权重。（[#1240](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1240)）\n- [复现] 更新 ConvNeXt 配置文件。（[#1256](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1256)）\n- [CI] 更新 CI 以测试 PyTorch 1.13.0。（[#1260](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1260)）\n- [项目] 添加 ACCV 研讨会第一届解决方案。（[#1245](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1245)）\n- [项目] 添加示例项目。（[#1254](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1254)）\n\n# 错误修复\n\n- [修复] 修复变换中的导入问题。（[#1255](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1255)）\n- [修复] 修复 CAM 可视化问题。（[#1248](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1248)）\n- [修复] 修复依赖项及 mmcls 模型的懒加载注册问题。（[#1275](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1275)）\n\n# 贡献者\n本次发布共有 12 名开发者参与贡献。\n\n@marouaneamz @piercus @Ezra-Yu @mzr1996 @bobo0810 @suibe-qingtian @Scarecrow0 @tonysy @WINDSKY45 @wangbo-zhao @Francis777 @okotaku","2022-12-30T13:52:10",{"id":198,"version":199,"summary_zh":200,"released_at":201},71568,"v0.25.0","# 亮点\n\n- 支持 MLU 后端。\n- 添加适用于 ARM 设备的 `dist_train_arm.sh` 脚本。\n\n# 新特性\n\n- 支持 MLU 后端。([#1159](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1159))\n- 为 ConvNeXt 引入激活检查点技术。([#1152](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1152))\n\n# 改进\n\n- 添加适用于 ARM 设备的 `dist_train_arm.sh` 脚本，并更新 NPU 相关结果。([#1218](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1218))\n\n# Bug 修复\n\n- 修复由 `MMClsWandbHook` 卡住导致的 bug。([#1242](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1242))\n- 修复 `tools\u002Ftest.py` 中多余的 `device_ids` 参数。([#1215](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1215))\n\n# 文档更新\n\n- 在主分支文档中添加版本横幅和版本警告。([#1216](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1216))\n- 更新 NPU 支持相关文档。([#1198](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1198))\n- 修正 `pytorch2torchscript.md` 中的拼写错误。([#1173](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1173))\n- 修正 `miscellaneous.md` 中的拼写错误。([#1137](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1137))\n- 进一步完善 `ClassBalancedDataset` 的文档说明。([#901](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F901))\n\n# 贡献者\n本次发布共有 7 位开发者参与贡献。\n\n@nijkah @xiaoyuan0203 @mzr1996 @Qiza-lyhm @ganghe74 @unseenme @wangjiangben-hw","2022-12-06T10:34:27",{"id":203,"version":204,"summary_zh":205,"released_at":206},71569,"v1.0.0rc4","# 亮点\n\n- 新增 API，用于获取 MMClassification 的预定义模型。更多详情请参见 [#1236](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1236)。\n- 重构 BEiT 主干网络，并支持 v1\u002Fv2 推理模式。详情请参见 [#1144](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1144)。\n\n# 新特性\n\n- 支持通过 model-index 文件中定义的名称获取模型。([#1236](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1236))\n\n# 改进\n\n- 支持对 EMA 模型和非 EMA 模型进行评估。([#1204](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1204))\n- 重构 BEiT 主干网络，并支持 v1\u002Fv2 推理模式。([#1144](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1144))\n\n# Bug 修复\n\n- 修复 `reparameterize_model.py` 不会保存元信息的问题。([#1221](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1221))\n- 修复 BEiT 中字典更新的问题。([#1234](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1234))\n\n# 文档更新\n\n- 更新安装教程。([#1223](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1223))\n- 更新 MobileNetv2 和 MobileNetv3 的 README 文件。([#1222](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1222))\n- 在页眉中添加版本选择功能。([#1217](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1217))\n\n# 贡献者\n本次发布共有 4 名开发者参与贡献。\n\n@techmonsterwang @mzr1996 @fangyixiao18 @kitecats","2022-12-06T10:07:47",{"id":208,"version":209,"summary_zh":210,"released_at":211},71570,"v1.0.0rc3","# 亮点\n\n- 添加了 **Switch Recipe** 钩子，现在我们可以在训练过程中修改训练流水线、mixup 和损失设置，详情请参阅 [#1101](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1101)。\n- 添加了 **TIMM 和 HuggingFace** 封装器。现在可以直接使用 TIMM\u002FHuggingFace 中的模型进行训练或推理，详情请参阅 [#1102](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1102)。\n- 支持 **检索任务**，详情请参阅 [#1055](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1055)。\n- 复现了 **MobileOne** 的训练精度。详情请参阅 [#1191](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1191)。\n\n# 新特性\n\n- 添加了来自 EfficientNets NoisyStudent & L2 的检查点。（[#1122](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1122)）\n- 将 CSRA 头迁移至 1.x 版本。（[#1177](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1177)）\n- 支持 RepLKnet 主干网络。（[#1129](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1129)）\n- 添加 Switch Recipe 钩子。（[#1101](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1101)）\n- 添加 adan 优化器。（[#1180](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1180)）\n- 支持 DaViT。（[#1105](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1105)）\n- 为 ConvNeXt 支持激活检查点技术。（[#1153](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1153)）\n- 添加 TIMM 和 HuggingFace 封装器，以便直接基于它们构建分类器。（[#1102](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1102)）\n- 为颈部添加降维操作。（[#978](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F978)）\n- 为 dev1.x 版本支持 HorNet 主干网络。（[#1094](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1094)）\n- 添加 arcface 头。（[#926](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F926)）\n- 为检索任务添加 Base Retriever 和 Image2Image Retriever。（[#1055](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1055)）\n- 支持 MobileViT 主干网络。（[#1068](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1068)）\n\n# 改进\n\n- [增强] 增强 ArcFaceClsHead。（[#1181](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1181)）\n- [重构] 重构以使用 MMEngine 中的新 fileio API。（[#1176](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1176)）\n- [增强] 复现 mobileone 的训练精度。（[#1191](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1191)）\n- [增强] 在 swinv2 中添加删除参数的信息。（[#1142](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1142)）\n- [增强] 添加更多 mobilenetv3 的预训练模型。（[#1154](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1154)）\n- [增强] 为 YOLOX-PAI 的 RepVGG 提供 dev-1.x 版本的支持。（[#1126](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1126)）\n- [改进] 加快数据预处理速度。（[#1064](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1064)）\n\n### Bug 修复\n\n- 修复 torchserve 相关问题。（[#1143](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1143)）\n- 由于 `num_classes` 接口重构，修复相关配置文件。（[#1184](https:\u002F\u002Fgithub","2022-11-21T10:40:24",{"id":213,"version":214,"summary_zh":215,"released_at":216},71571,"v0.24.1","# 新特性\n\n- [特性] 支持使用 NPU 后端的 mmcls。([#1072](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1072))\n\n# Bug 修复\n\n- [修复] 修复 ConvNeXt DDP 训练中的性能问题。([#1098](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1098))\n\n# 贡献者\n本次发布共有 3 名开发者做出贡献。\n\n@wangjiangben-hw @790475019 @mzr1996","2022-11-01T06:23:34",{"id":218,"version":219,"summary_zh":220,"released_at":221},71572,"v1.0.0rc2","# 新特性\n\n- 支持 DeiT3。([#1065](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1065))\n\n# 改进\n\n- 更新 `analyze_results.py` 以适配 dev-1.x 版本。([#1071](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1071))\n- 从推理 API 中获取分数。([#1070](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1070))\n\n# Bug 修复\n\n- 更新依赖项。([#1083](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1083))\n\n# 文档更新\n\n- 添加 1x 版本的文档计划。([#1015](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1015))\n\n# 贡献者\n本次发布共有 3 名开发者做出贡献。\n\n@mzr1996 @okotaku @yingfhu","2022-10-12T08:57:19",{"id":223,"version":224,"summary_zh":225,"released_at":226},71573,"v0.24.0","# Highlights\r\n\r\n- Support HorNet, EfficientFormerm, SwinTransformer V2, and MViT backbones.\r\n- Support Standford Cars dataset.\r\n\r\n# New Features\r\n\r\n- Support HorNet Backbone. ([#1013](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1013))\r\n- Support EfficientFormer. ([#954](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F954))\r\n- Support Stanford Cars dataset. ([#893](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F893))\r\n- Support CSRA head. ([#881](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F881))\r\n- Support Swin Transform V2. ([#799](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F799))\r\n- Support MViT and add checkpoints. ([#924](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F924))\r\n\r\n# Improvements\r\n\r\n- [Improve] replace loop of progressbar in api\u002Ftest. ([#878](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F878))\r\n- [Enhance] RepVGG for YOLOX-PAI. ([#1025](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1025))\r\n- [Enhancement] Update VAN. ([#1017](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1017))\r\n- [Refactor] Re-write `get_sinusoid_encoding` from third-party implementation. ([#965](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F965))\r\n- [Improve] Upgrade onnxsim to v0.4.0. ([#915](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F915))\r\n- [Improve] Fixed typo in `RepVGG`. ([#985](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F985))\r\n- [Imporve] Using `train_step` instead of `forward` in PreciseBNHook ([#964](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F964))\r\n- [Improve] Use `forward_dummy` to calculate FLOPS. ([#953](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F953))\r\n\r\n# Bug Fixes\r\n\r\n- Fix warning with `torch.meshgrid`. ([#860](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F860))\r\n- Add matplotlib minimum version requirements. ([#909](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F909))\r\n- val loader should not drop last by default. ([#857](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F857))\r\n- Fix config.device bug in toturial. ([#1059](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1059))\r\n- Fix attenstion clamp max params ([#1034](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1034))\r\n- Fix device mismatch in Swin-v2. ([#976](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F976))\r\n- Fix the output position of Swin-Transformer. ([#947](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F947))\r\n\r\n# Docs Update\r\n\r\n- Add version for torchvision to avoid error. ([#903](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F903))\r\n- Fix typo for `--out-dir` option of analyze_results.py. ([#898](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F898))\r\n- Refine the docstring of RegNet. ([#935](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F935))\r\n\r\n# Contributors\r\nA total of 19 developers contributed to this release.\r\n\r\n@a-mos @Ezra-Yu @Fei-Wang @nijkah @PeterH0323 @yingfhu @techmonsterwang @JiayuXu0 @jlim262 @hukkai @mzr1996 @liu-mengyang @twmht @pallgeuer @timothylimyl @daquexian @okotaku @tpoisonooo @zzc98 ","2022-09-30T10:17:15",{"id":228,"version":229,"summary_zh":230,"released_at":231},71574,"v1.0.0rc1","# Highlights\r\n\r\n- Support MViT, EdgeNeXt, Swin-Transformer V2, EfficientFormer and MobileOne.\r\n- Support BEiT type transformer layer.\r\n\r\n# New Features\r\n\r\n- Support MViT for MMCLS 1.x ([#1023](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1023))\r\n- Add ViT huge architecture. ([#1049](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1049))\r\n- Support EdgeNeXt for dev-1.x. ([#1037](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1037))\r\n- Support Swin Transformer V2 for MMCLS 1.x. ([#1029](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1029))\r\n- Add efficientformer Backbone for MMCls 1.x. ([#1031](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1031))\r\n- Add MobileOne Backbone For MMCls 1.x.  ([#1030](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1030))\r\n- Support BEiT Transformer layer. ([#919](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F919))\r\n\r\n# Improvements\r\n\r\n- [Refactor] Fix visualization tools. ([#1045](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1045))\r\n- [Improve] Update benchmark scripts ([#1028](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1028))\r\n- [Imporve] Update tools to enable `pin_memory` and `persistent_workers` by default. ([#1024](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1024))\r\n- [CI] Update circle-ci and github workflow. ([#1018](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1018))\r\n\r\n# Bug Fixes\r\n\r\n- Fix verify dataset tool in 1.x. ([#1062](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1062))\r\n- Fix `loss_weight` in `LabelSmoothLoss`. ([#1058](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1058))\r\n- Fix the output position of Swin-Transformer. ([#947](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F947))\r\n\r\n# Docs Update\r\n\r\n- Fix typo in migration document. ([#1063](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1063))\r\n- Auto generate model summary table.  ([#1010](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F1010))\r\n- Refactor new modules tutorial. ([#998](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F998))\r\n\r\n# Contributors\r\nA total of 8 developers contributed to this release.\r\n\r\n@Ezra-Yu @yingfhu @mzr1996 @tonysy @fangyixiao18 @YuanLiuuuuuu @HIT-cwh @techmonsterwang","2022-09-30T09:45:49",{"id":233,"version":234,"summary_zh":235,"released_at":236},71575,"v1.0.0rc0","MMClassification 1.0.0rc0 is the first version of MMClassification 1.x, a part of the OpenMMLab 2.0 projects.\r\n\r\nBuilt upon the new [training engine](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmengine), MMClassification 1.x unifies the interfaces of dataset, models, evaluation, and visualization.\r\n\r\nAnd there are some BC-breaking changes. Please check [the migration tutorial](https:\u002F\u002Fmmclassification.readthedocs.io\u002Fen\u002F1.x\u002Fmigration.html) for more details.","2022-08-31T16:19:58",{"id":238,"version":239,"summary_zh":240,"released_at":241},71576,"v0.23.2","# New Features\r\n\r\n- Support MPS device. ([#894](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F894))\r\n\r\n# Improvements\r\n\r\n- Add test mim CI. ([#879](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F879))\r\n\r\n# Bug Fixes\r\n\r\n- [Fix] Fix Albu crash bug. ([#918](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F918))\r\n- [Fix] Add mim to extras_require in setup.py. ([#872](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F872))\r\n\r\n# Contributors\r\nA total of 2 developers contributed to this release.\r\n\r\n@mzr1996 @PeterH0323 \r\n","2022-07-28T06:24:55",{"id":243,"version":244,"summary_zh":245,"released_at":246},71577,"v0.23.1","# Highlights\r\n\r\n- New WandbHook to store your training log and visualize validation results!\r\n\r\n# New Features\r\n\r\n- [Feature] Dedicated MMClsWandbHook for MMClassification (Weights and Biases Integration) ([#764](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F764))\r\n\r\n# Improvements\r\n\r\n- [Refactor] Use mdformat instead of markdownlint to format markdown. ([#844](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F844))\r\n\r\n# Bug Fixes\r\n\r\n- [Fix] Fix wrong `--local_rank`.\r\n\r\n# Docs Update\r\n\r\n- [Docs] Update install tutorials. ([#854](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F854))\r\n- [Docs] Fix wrong link in README. ([#835](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F835))\r\n\r\n# Contributors\r\nA total of 3 developers contributed to this release.\r\n\r\n@ayulockin @mzr1996 @timothylimyl","2022-06-02T13:25:40",{"id":248,"version":249,"summary_zh":250,"released_at":251},71578,"v0.23.0","# New Features\r\n\r\n- Support DenseNet. ([#750](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F750))\r\n- Support VAN. ([#739](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F739))\r\n\r\n# Improvements\r\n\r\n- Support training on IPU and add fine-tuning configs of ViT. ([#723](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F723))\r\n\r\n# Docs Update\r\n\r\n- New style API reference, and easier to use! Welcome [view it](https:\u002F\u002Fmmclassification.readthedocs.io\u002Fen\u002Fmaster\u002Fapi\u002Fmodels.html). ([#774](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F774))\r\n\r\n# Contributors\r\nA total of 4 developers contributed to this release.\r\n\r\n@mzr1996 @okotaku @yingfhu @HuDi2018\r\n","2022-05-01T14:01:46",{"id":253,"version":254,"summary_zh":255,"released_at":256},71579,"v0.22.1","# New Features\r\n\r\n- Support resize relative position embedding in `SwinTransformer`. ([#749](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F749))\r\n- Add PoolFormer backbone and checkpoints. ([#746](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F746))\r\n\r\n# Improvements\r\n\r\n- Improve CPE performance by reduce memory copy. ([#762](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F762))\r\n- Add extra dataloader settings in configs. ([#752](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F752))\r\n\r\n# Contributors\r\nA total of 4 developers contributed to this release.\r\n\r\n@mzr1996 @yuweihao @XiaobingSuper @YuanLiuuuuuu\r\n","2022-04-15T12:14:21",{"id":258,"version":259,"summary_zh":260,"released_at":261},71580,"v0.22.0","Considering more and more codebase depends on new features of MMClassification, we will release a minor version at the middle of every month. 😉\r\n\r\n# Highlights\r\n\r\n- Support a series of CSP Network, such as CSP-ResNet, CSP-ResNeXt and CSP-DarkNet.\r\n- A new `CustomDataset` class to help you build dataset of yourself!\r\n- Support ConvMixer, RepMLP and new dataset - CUB dataset.\r\n\r\n# New Features\r\n\r\n- Add CSPNet and backbone and checkpoints ([#735](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F735))\r\n- Add `CustomDataset`. ([#738](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F738))\r\n- Add diff seeds to diff ranks.  ([#744](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F744))\r\n- Support ConvMixer. ([#716](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F716))\r\n- Our `dist_train` & `dist_test` tools support distributed training on multiple machines. ([#734](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F734))\r\n- Add RepMLP backbone and checkpoints. ([#709](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F709))\r\n- Support CUB dataset. ([#703](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F703))\r\n- Support ResizeMix. ([#676](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F676))\r\n\r\n\r\n# Improvements\r\n\r\n- Use `--a-b` instead of `--a_b` in arguments. ([#754](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F754))\r\n- Add `get_cat_ids` and `get_gt_labels` to KFoldDataset. ([#721](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F721))\r\n- Set torch seed in `worker_init_fn`. ([#733](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F733))\r\n\r\n# Bug Fixes\r\n\r\n- Fix the discontiguous output feature map of ConvNeXt. ([#743](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F743))\r\n\r\n# Docs Update\r\n\r\n- Add brief installation steps in README for copy&paste. ([#755](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F755))\r\n- fix logo url link from mmocr to mmcls. ([#732](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F732))\r\n\r\n# Contributors\r\nA total of 6 developers contributed to this release.\r\n\r\n@Ezra-Yu @yingfhu @Hydrion-Qlz @mzr1996 @huyu398 @okotaku \r\n","2022-03-30T17:44:37",{"id":263,"version":264,"summary_zh":265,"released_at":266},71581,"v0.21.0","# Highlights\r\n\r\n- Support ResNetV1c and Wide-ResNet, and provide pre-trained models.\r\n- Support dynamic input shape for ViT-based algorithms. Now our ViT, DeiT, Swin-Transformer and T2T-ViT supports forwarding with any input shape.\r\n- Reproduce training results of DeiT. And our DeiT-T and DeiT-S have higher accuracy comparing with the official weights.\r\n\r\n# New Features\r\n\r\n- Add ResNetV1c. ([#692](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F692))\r\n- Support Wide-ResNet. ([#715](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F715))\r\n- Support gem pooling ([#677](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F677))\r\n\r\n# Improvements\r\n\r\n- Reproduce training results of DeiT. ([#711](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F711))\r\n- Add ConvNeXt pretrain models on ImageNet-1k. ([#707](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F707))\r\n- Support dynamic input shape for ViT-based algorithms. ([#706](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F706))\r\n- Add `evaluate` function for ConcatDataset. ([#650](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F650))\r\n- Enhance vis-pipeline tool. ([#604](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F604))\r\n- Return code 1 if scripts runs failed. ([#694](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F694))\r\n- Use PyTorch official `one_hot` to implement `convert_to_one_hot`. ([#696](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F696))\r\n- Add a new pre-commit-hook to automatically add a copyright. ([#710](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F710))\r\n- Add deprecation message for deploy tools. ([#697](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F697))\r\n- Upgrade isort pre-commit hooks. ([#687](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F687))\r\n- Use `--gpu-id` instead of `--gpu-ids` in non-distributed multi-gpu training\u002Ftesting. ([#688](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F688))\r\n- Remove deprecation. ([#633](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F633))\r\n\r\n# Bug Fixes\r\n\r\n- Fix Conformer forward with irregular input size. ([#686](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F686))\r\n- Add `dist.barrier` to fix a bug in directory checking. ([#666](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmclassification\u002Fpull\u002F666))\r\n\r\n# Contributors\r\nA total of 8 developers contributed to this release.\r\n\r\n@Ezra-Yu @HumberMe @mzr1996 @twmht @RunningLeon @yasu0001 @okotaku @yingfhu ","2022-03-04T08:22:42",{"id":268,"version":269,"summary_zh":270,"released_at":271},71582,"v0.20.1","# Bug Fixes\r\n\r\n- Fix the MMCV dependency version.","2022-02-07T03:48:59"]