[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Westlake-AI--openmixup":3,"tool-Westlake-AI--openmixup":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":83,"stars":96,"forks":97,"last_commit_at":98,"license":99,"difficulty_score":10,"env_os":100,"env_gpu":101,"env_ram":102,"env_deps":103,"category_tags":111,"github_topics":112,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":131,"updated_at":132,"faqs":133,"releases":168},4108,"Westlake-AI\u002Fopenmixup","openmixup","CAIRI Supervised, Semi- and Self-Supervised Visual Representation Learning Toolbox and Benchmark","OpenMixup 是一款基于 PyTorch 打造的开源视觉表示学习工具箱，专注于监督、半监督及自监督学习领域，尤其擅长处理各类 Mixup（混合增强）相关算法。它旨在解决研究人员在复现前沿视觉模型时面临的代码分散、框架不统一及评估标准缺失等痛点，让用户能在同一套架构下轻松完成从图像分类到自监督预训练的全流程实验。\n\n这款工具非常适合计算机视觉领域的研究人员、算法工程师及高校开发者使用。无论是需要快速验证新想法的学术探索，还是构建高性能工业模型的工程实践，OpenMixup 都能提供强有力的支持。其核心亮点在于采用了模块化设计，架构灵活且易于扩展，能够无缝对接 OpenMMLab 生态（如 MMPreTrain）。它不仅集成了主流的骨干网络与先进的 Mixup 策略，还提供了标准化的基准测试环境，支持将预训练模型平滑迁移至目标检测与图像分割等下游任务，是探索视觉表征学习前沿技术的得力助手。","# OpenMixup\n[![release](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Frelease-V0.2.7-%09%2360004F)](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases)\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fopenmixup)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fopenmixup)\n[![arxiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2209.04851-b31b1b.svg?style=flat)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.04851)\n[![docs](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-latest-%23002FA7)](https:\u002F\u002Fopenmixup.readthedocs.io\u002Fen\u002Flatest\u002F)\n[![license](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache--2.0-%23B7A800)](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fblob\u002Fmain\u002FLICENSE)\n[![open issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-raw\u002FWestlake-AI\u002Fopenmixup?color=%23009763)](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fissues)\n\u003C!-- [![issue resolution](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fissue%20resolution-1%20d-%23009763)](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fissues) -->\n\n[📘Documentation](https:\u002F\u002Fopenmixup.readthedocs.io\u002Fen\u002Flatest\u002F) |\n[🛠️Installation](https:\u002F\u002Fopenmixup.readthedocs.io\u002Fen\u002Flatest\u002Finstall.html) |\n[🚀Model Zoo](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fdocs\u002Fen\u002Fmodel_zoos) |\n[👀Awesome Mixup](https:\u002F\u002Fopenmixup.readthedocs.io\u002Fen\u002Flatest\u002Fawesome_mixups\u002FMixup_SL.html) |\n[🔍Awesome MIM](https:\u002F\u002Fopenmixup.readthedocs.io\u002Fen\u002Flatest\u002Fawesome_selfsup\u002FMIM.html) |\n[🆕News](https:\u002F\u002Fopenmixup.readthedocs.io\u002Fen\u002Flatest\u002Fchangelog.html)\n\n## Introduction\n\nThe main branch works with **PyTorch 1.8** (required by some self-supervised methods) or higher (we recommend **PyTorch 1.12**). You can still use **PyTorch 1.6** for supervised classification methods.\n\n`OpenMixup` is an open-source toolbox for supervised, self-, and semi-supervised visual representation learning with mixup based on PyTorch, especially for mixup-related methods. *Recently, `OpenMixup` is on updating to adopt new features and code structures of OpenMMLab 2.0 ([#42](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fissues\u002F42)).*\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWestlake-AI_openmixup_readme_158e33325e0c.jpg\" width=\"100%\"\u002F>\n\u003C\u002Fdiv>\n\n\u003Cdetails open>\n\u003Csummary>Major Features\u003C\u002Fsummary>\n\n- **Modular Design.**\n  OpenMixup follows a similar code architecture of OpenMMLab projects, which decompose the framework into various components, and users can easily build a customized model by combining different modules. OpenMixup is also transplantable to OpenMMLab projects (e.g., [MMPreTrain](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain)).\n\n- **All in One.**\n  OpenMixup provides popular backbones, mixup methods, semi-supervised, and self-supervised algorithms. Users can perform image classification (CNN & Transformer) and self-supervised pre-training (contrastive and autoregressive) under the same framework.\n\n- **Standard Benchmarks.**\n  OpenMixup supports standard benchmarks of image classification, mixup classification, self-supervised evaluation, and provides smooth evaluation on downstream tasks with open-source projects (e.g., object detection and segmentation on [Detectron2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fmaskrcnn-benchmark) and [MMSegmentation](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmsegmentation)).\n\n- **State-of-the-art Methods.**\n  Openmixup provides awesome lists of popular mixup and self-supervised methods. OpenMixup is updating to support more state-of-the-art image classification and self-supervised methods.\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>Table of Contents\u003C\u002Fsummary>\n  \u003Col>\n    \u003Cli>\u003Ca href=\"#introduction\">Introduction\u003C\u002Fa>\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"#news-and-updates\">News and Updates\u003C\u002Fa>\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"#installation\">Installation\u003C\u002Fa>\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"#getting-started\">Getting Started\u003C\u002Fa>\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"#overview-of-model-zoo\">Overview of Model Zoo\u003C\u002Fa>\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"#change-log\">Change Log\u003C\u002Fa>\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"#license\">License\u003C\u002Fa>\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"#acknowledgement\">Acknowledgement\u003C\u002Fa>\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"#contributors\">Contributors\u003C\u002Fa>\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"#contributors-and-contact\">Contributors and Contact\u003C\u002Fa>\u003C\u002Fli>\n  \u003C\u002Fol>\n\u003C\u002Fdetails>\n\n## News and Updates\n\n[2025-03-19] `OpenMixup` v0.2.10 is released, supporting **PyTorch >= 2.0** and more mixup augmentations and networks.\n\n## Installation\n\nOpenMixup is compatible with **Python 3.6\u002F3.7\u002F3.8\u002F3.9** and **PyTorch >= 1.6**. Here are quick installations for installation in the development mode:\n\n```shell\nconda create -n openmixup python=3.8 pytorch=1.12 cudatoolkit=11.3 torchvision -c pytorch -y\nconda activate openmixup\npip install openmim\nmim install mmcv-full\ngit clone https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup.git\ncd openmixup\npython setup.py develop\n```\n\n\u003Cdetails>\n  \u003Csummary>Installation with PyTorch 2.x requiring different processes.\u003C\u002Fsummary>\n\n  ```bash\n  conda create -n openmixup python=3.9\n  conda activate openmixup\n  pip install torch==2.1.0 torchvision==0.16.0 torchaudio==2.1.0 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n  pip install https:\u002F\u002Fdownload.openmmlab.com\u002Fmmcv\u002Fdist\u002Fcu118\u002Ftorch2.1.0\u002Fmmcv_full-1.7.2-cp39-cp39-manylinux1_x86_64.whl\n  git clone https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup.git\n  cd openmixup\n  pip install -r requirements\u002Fruntime.txt\n  python setup.py develop\n  ```\n\u003C\u002Fdetails>\n\nFore more detailed installation and dataset preparation, please refer to [install.md](docs\u002Fen\u002Finstall.md).\n\n## Getting Started\n\nOpenMixup supports Linux and macOS. It enables easy implementation and extensions of mixup data augmentation methods in existing supervised, self-, and semi-supervised visual recognition models. Please see [get_started.md](docs\u002Fen\u002Fget_started.md) for the basic usage of OpenMixup.\n\n### Training and Evaluation Scripts\n\nHere, we provide scripts for starting a quick end-to-end training with multiple `GPUs` and the specified `CONFIG_FILE`. \n```shell\nbash tools\u002Fdist_train.sh ${CONFIG_FILE} ${GPUS} [optional arguments]\n```\nFor example, you can run the script below to train a ResNet-50 classifier on ImageNet with 4 GPUs:\n```shell\nCUDA_VISIBLE_DEVICES=0,1,2,3 PORT=29500 bash tools\u002Fdist_train.sh configs\u002Fclassification\u002Fimagenet\u002Fresnet\u002Fresnet50_4xb64_cos_ep100.py 4\n```\nAfter training, you can test the trained models with the corresponding evaluation script:\n```shell\nbash tools\u002Fdist_test.sh ${CONFIG_FILE} ${GPUS} ${PATH_TO_MODEL} [optional arguments]\n```\n\n### Development\n\nPlease see [Tutorials](docs\u002Fen\u002Ftutorials) for more developing examples and tech details:\n\n- [config files](docs\u002Fen\u002Ftutorials\u002F0_config.md)\n- [add new dataset](docs\u002Fen\u002Ftutorials\u002F1_new_dataset.md)\n- [data pipeline](docs\u002Fen\u002Ftutorials\u002F2_data_pipeline.md)\n- [add new modules](docs\u002Fen\u002Ftutorials\u002F3_new_module.md)\n- [customize schedules](docs\u002Fen\u002Ftutorials\u002F4_schedule.md)\n- [customize runtime](docs\u002Fen\u002Ftutorials\u002F5_runtime.md)\n\nDownetream Tasks for Self-supervised Learning\n\n- [Classification](docs\u002Fen\u002Ftutorials\u002Fssl_classification.md)\n- [Detection](docs\u002Fen\u002Ftutorials\u002Fssl_detection.md)\n- [Segmentation](docs\u002Fen\u002Ftutorials\u002Fssl_segmentation.md)\n\nUseful Tools\n\n- [Analysis](docs\u002Fen\u002Ftutorials\u002Fanalysis.md)\n- [Visualization](docs\u002Fen\u002Ftutorials\u002Fvisualization.md)\n- [pytorch2onnx](docs\u002Fen\u002Ftutorials\u002Fpytorch2onnx.md)\n- [pytorch2torchscript](docs\u002Fen\u002Ftutorials\u002Fpytorch2torchscript.md)\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n## Overview of Model Zoo\n\nPlease run experiments or find results on each config page. Refer to [Mixup Benchmarks](docs\u002Fen\u002Fmixup_benchmarks) for benchmarking results of mixup methods. View [Model Zoos Sup](docs\u002Fen\u002Fmodel_zoos\u002FModel_Zoo_sup.md) and [Model Zoos SSL](docs\u002Fen\u002Fmodel_zoos\u002FModel_Zoo_selfsup.md) for a comprehensive collection of mainstream backbones and self-supervised algorithms. We also provide the paper lists of [Awesome Mixups](docs\u002Fen\u002Fawesome_mixups) and [Awesome MIM](docs\u002Fen\u002Fawesome_selfsup\u002FMIM.md) for your reference. Please view config files and links to models at the following config pages. Checkpoints and training logs are on updating!\n\n\u003Ctable align=\"center\">\n  \u003Ctbody>\n    \u003Ctr align=\"center\" valign=\"bottom\">\n      \u003Ctd>\n        \u003Cb>Supported Backbone Architectures\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cb>Mixup Data Augmentations\u003C\u002Fb>\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr valign=\"top\">\n      \u003Ctd>\n        \u003Cul>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3065386\">AlexNet\u003C\u002Fa> (NeurIPS'2012) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Falexnet\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1409.1556\">VGG\u003C\u002Fa> (ICLR'2015) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fvgg\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.00567\">InceptionV3\u003C\u002Fa> (CVPR'2016) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Finception_v3\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2016\u002Fhtml\u002FHe_Deep_Residual_Learning_CVPR_2016_paper.html\">ResNet\u003C\u002Fa> (CVPR'2016) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fresnet\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.05431\">ResNeXt\u003C\u002Fa> (CVPR'2017) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fresnet\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.01507\">SE-ResNet\u003C\u002Fa> (CVPR'2018) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fresnet\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.01507\">SE-ResNeXt\u003C\u002Fa> (CVPR'2018) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fresnet\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.11164\">ShuffleNetV1\u003C\u002Fa> (CVPR'2018) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fshufflenet_v1\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.11164\">ShuffleNetV2\u003C\u002Fa> (ECCV'2018) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fshufflenet_v2\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.04381\">MobileNetV2\u003C\u002Fa> (CVPR'2018) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmobilenet_v2\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.02244\">MobileNetV3\u003C\u002Fa> (ICCV'2019) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmobilenet_v3\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.11946\">EfficientNet\u003C\u002Fa> (ICML'2019) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fefficientnet\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.00298\">EfficientNetV2\u003C\u002Fa> (ICML'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fefficientnet_v2\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.07919\">HRNet\u003C\u002Fa> (TPAMI'2019) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fhrnet\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.01169\">Res2Net\u003C\u002Fa> (ArXiv'2019) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fres2net\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.11929\">CSPNet\u003C\u002Fa> (CVPRW'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fcspnet\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.13678\">RegNet\u003C\u002Fa> (CVPR'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fregnet\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2010.11929\">Vision-Transformer\u003C\u002Fa> (ICLR'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fvision_transformer\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.14030\">Swin-Transformer\u003C\u002Fa> (ICCV'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fswin_transformer\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.12122\">PVT\u003C\u002Fa> (ICCV'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fpvt\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.11986\">T2T-ViT\u003C\u002Fa> (ICCV'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Ft2t_vit\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.01136\">LeViT\u003C\u002Fa> (ICCV'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Flevit\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.03697\">RepVGG\u003C\u002Fa> (CVPR'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Frepvgg\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.12877\">DeiT\u003C\u002Fa> (ICML'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fdeit\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.01601\">MLP-Mixer\u003C\u002Fa> (NeurIPS'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmlp_mixer\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Fproceedings.neurips.cc\u002Fpaper\u002F2021\u002Fhash\u002F4e0928de075538c593fbdabb0c5ef2c3-Abstract.html\">Twins\u003C\u002Fa> (NeurIPS'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Ftwins\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.09792\">ConvMixer\u003C\u002Fa> (TMLR'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fconvmixer\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.08254\">BEiT\u003C\u002Fa> (ICLR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fbeit\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.09450\">UniFormer\u003C\u002Fa> (ICLR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Funiformer\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"http:\u002F\u002Farxiv.org\u002Fabs\u002F2110.02178\">MobileViT\u003C\u002Fa> (ICLR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmobilevit\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.11418\">PoolFormer\u003C\u002Fa> (CVPR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fpoolformer\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.03545\">ConvNeXt\u003C\u002Fa> (CVPR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fconvnext\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.01526\">MViTV2\u003C\u002Fa> (CVPR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmvit\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.01883\">RepMLP\u003C\u002Fa> (CVPR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Frepmlp\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.09741\">VAN\u003C\u002Fa> (CVMJ'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fvan\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.07118\">DeiT-3\u003C\u002Fa> (ECCV'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fdeit3\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.13213\">LITv2\u003C\u002Fa> (NeurIPS'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Flit_v2\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.14284\">HorNet\u003C\u002Fa> (NeurIPS'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fhornet\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.03645\">DaViT\u003C\u002Fa> (ECCV'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fdavit\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.10589\">EdgeNeXt\u003C\u002Fa> (ECCVW'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fedgenext\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.01191\">EfficientFormer\u003C\u002Fa> (NeurIPS'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fefficientformer\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.03295\">MogaNet\u003C\u002Fa> (ICLR'2024) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmoganet\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"http:\u002F\u002Farxiv.org\u002Fabs\u002F2210.13452\">MetaFormer\u003C\u002Fa> (TPAMI'2024) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmetaformer\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"http:\u002F\u002Farxiv.org\u002Fabs\u002F2301.00808\">ConvNeXtV2\u003C\u002Fa> (CVPR'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fconvnext_v2\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.01494\">CoC\u003C\u002Fa> (ICLR'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fcontext_cluster\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"http:\u002F\u002Farxiv.org\u002Fabs\u002F2206.04040\">MobileOne\u003C\u002Fa> (CVPR'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmobileone\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"http:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12972\">VanillaNet\u003C\u002Fa> (NeurIPS'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fvanillanet\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13048\">RWKV\u003C\u002Fa> (ArXiv'2023) \u003Ca href=\"IP51\u002Fopenmixup\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Frwkv\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.15599\">UniRepLKNet\u003C\u002Fa> (CVPR'2024) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Funireplknet\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.17132\">TransNeXt\u003C\u002Fa> (CVPR'2024) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Ftransnext\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.19967\">StarNet\u003C\u002Fa> (CVPR'2024) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fstarnet\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003C\u002Ful>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cul>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.09412\">Mixup\u003C\u002Fa> (ICLR'2018) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.04899\">CutMix\u003C\u002Fa> (ICCV'2019) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.05236\">ManifoldMix\u003C\u002Fa> (ICML'2019) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2002.12047\">FMix\u003C\u002Fa> (ArXiv'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.13048\">AttentiveMix\u003C\u002Fa> (ICASSP'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPRW_2020\u002Fpapers\u002Fw45\u002FLee_SmoothMix_A_Simple_Yet_Effective_Data_Augmentation_to_Train_Robust_CVPRW_2020_paper.pdf\">SmoothMix\u003C\u002Fa> (CVPRW'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.09412\">SaliencyMix\u003C\u002Fa> (ICLR'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1912.02781\">AugMix\u003C\u002Fa> (ICLR'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2009.06962\">PuzzleMix\u003C\u002Fa> (ICML'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.04846\">SnapMix\u003C\u002Fa> (AAAI'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcifar100\u002Fmixups\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS0031320320303976\">GridMix\u003C\u002Fa> (Pattern Recognition'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.11101\">ResizeMix\u003C\u002Fa> (CVMJ'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.15375\">AlignMix\u003C\u002Fa> (CVPR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.09833\">TransMix\u003C\u002Fa> (CVPR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.13027\">AutoMix\u003C\u002Fa> (ECCV'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fautomix\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.15454\">SAMix\u003C\u002Fa> (ArXiv'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fsamix\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.08409\">TokenMix\u003C\u002Fa> (ECCV'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcifar100\u002Fmixups\u002Fvits\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12043\">MixPro\u003C\u002Fa> (ICLR'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcifar100\u002Fmixups\u002Fvits\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.10761\">DecoupleMix\u003C\u002Fa> (NeurIPS'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002Fdecouple\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.12977\">SMMix\u003C\u002Fa> (ICCV'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcifar100\u002Fmixups\u002Fvits\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.06455\">TLA\u003C\u002Fa> (ICCV'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcifar100\u002Fmixups\u002Fvits\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16612\">GuidedMixup\u003C\u002Fa> (AAAI'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcifar100\u002Fmixups\u002Fvits\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.11954\">AdAutoMix\u003C\u002Fa> (ICLR'2024) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fadautomix\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.07805\">SUMix\u003C\u002Fa> (ECCV'2024) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcifar100\u002Fmixups\u002Fvits\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>MergeMix (ArXiv'2025) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmergemix\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003C\u002Ful>\n      \u003C\u002Ftd>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\n\u003Ctable align=\"center\">\n  \u003Ctbody>\n    \u003Ctr align=\"center\" valign=\"bottom\">\n      \u003Ctd>\n        \u003Cb>Self-supervised Learning Algorithms\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cb>Supported Datasets\u003C\u002Fb>\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr valign=\"top\">\n      \u003Ctd>\n        \u003Cul>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1505.05192\">Relative Location\u003C\u002Fa> (ICCV'2015) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Frelative_loc\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.07728\">Rotation Prediction\u003C\u002Fa> (ICLR'2018) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Frotation_pred\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.05520\">DeepCluster\u003C\u002Fa> (ECCV'2018) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fdeepcluster\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1805.01978\">NPID\u003C\u002Fa> (CVPR'2018) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fnpid\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.10645\">ODC\u003C\u002Fa> (CVPR'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fodc\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.05722\">MoCov1\u003C\u002Fa> (CVPR'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fmocov1\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2002.05709\">SimCLR\u003C\u002Fa> (ICML'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fsimclr\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.04297\">MoCoV2\u003C\u002Fa> (ArXiv'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fmocov2\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.07733\">BYOL\u003C\u002Fa> (NeurIPS'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fbyol\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.09882\">SwAV\u003C\u002Fa> (NeurIPS'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fswav\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2011.09157\">DenseCL\u003C\u002Fa> (CVPR'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fdensecl\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2011.10566\">SimSiam\u003C\u002Fa> (CVPR'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fsimsiam\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.03230\">Barlow Twins\u003C\u002Fa> (ICML'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fbarlowtwins\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.02057\">MoCoV3\u003C\u002Fa> (ICCV'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fmocov3\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.14294\">DINO\u003C\u002Fa> (ICCV'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fdino\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.08254\">BEiT\u003C\u002Fa> (ICLR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fbeit\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.06377\">MAE\u003C\u002Fa> (CVPR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fmae\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.09886\">SimMIM\u003C\u002Fa> (CVPR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fsimmim\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.09133\">MaskFeat\u003C\u002Fa> (CVPR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fmaskfeat\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.03026\">CAE\u003C\u002Fa> (IJCV'2024) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fcae\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.13943\">A2MIM\u003C\u002Fa> (ICML'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fa2mim\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003C\u002Ful>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cul>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1409.0575\">ImageNet\u003C\u002Fa> [\u003Ca href=\"http:\u002F\u002Fwww.image-net.org\u002Fchallenges\u002FLSVRC\u002F2012\u002F\">download (1K)\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fimage-net.org\u002Fdata\u002Fimagenet21k_resized.tar.gz\">download (21K)\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.cs.toronto.edu\u002F~kriz\u002Flearning-features-2009-TR.pdf\">CIFAR-10 [\u003Ca href=\"https:\u002F\u002Fwww.cs.toronto.edu\u002F~kriz\u002Fcifar.html\">download\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcifar10\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.cs.toronto.edu\u002F~kriz\u002Flearning-features-2009-TR.pdf\">CIFAR-100\u003C\u002Fa> [\u003Ca href=\"https:\u002F\u002Fwww.cs.toronto.edu\u002F~kriz\u002Fcifar.html\">download\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcifar100\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.08819\">Tiny-ImageNet [\u003Ca href=\"http:\u002F\u002Fcs231n.stanford.edu\u002Ftiny-imagenet-200.zip\">download\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Ftiny_imagenet\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.07747\">FashionMNIST\u003C\u002Fa> [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fzalandoresearch\u002Ffashion-mnist\">download\u003C\u002Fa>]\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"http:\u002F\u002Fproceedings.mlr.press\u002Fv15\u002Fcoates11a\u002Fcoates11a.pdf\">STL-10 [\u003Ca href=\"https:\u002F\u002Fcs.stanford.edu\u002F~acoates\u002Fstl10\u002F\">download\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fmocov2\u002Fstl10\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Fresolver.caltech.edu\u002FCaltechAUTHORS:20111026-120541847\">CUB-200-2011\u003C\u002Fa> [\u003Ca href=\"http:\u002F\u002Fwww.vision.caltech.edu\u002Fdatasets\u002Fcub_200_2011\u002F\">download\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcub200\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1306.5151\">FGVC-Aircraft [\u003Ca href=\"https:\u002F\u002Fwww.robots.ox.ac.uk\u002F~vgg\u002Fdata\u002Ffgvc-aircraft\u002F\">download\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Faircrafts\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"http:\u002F\u002Fai.stanford.edu\u002F~jkrause\u002Fpapers\u002F3drr13.pdf\">Stanford-Cars\u003C\u002Fa> [\u003Ca href=\"http:\u002F\u002Fai.stanford.edu\u002F~jkrause\u002Fcars\u002Fcar_dataset.html\">download\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcars\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"http:\u002F\u002Fplaces2.csail.mit.edu\u002Findex.html\">Places205 [\u003Ca href=\"http:\u002F\u002Fplaces.csail.mit.edu\u002FdownloadData.html\">download\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fplace205\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.06642\">iNaturalist-2017\u003C\u002Fa> [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fvisipedia\u002Finat_comp\u002Ftree\u002Fmaster\u002F2017\">download\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Finaturalist2017\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.06642\">iNaturalist-2018\u003C\u002Fa> [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fvisipedia\u002Finat_comp\u002Ftree\u002Fmaster\u002F2018\">download\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Finaturalist2018\u002F\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8014984\">AgeDB\u003C\u002Fa> [\u003Ca href=\"https:\u002F\u002Fibug.doc.ic.ac.uk\u002Fresources\u002Fagedb\u002F\">download\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1XdibVxiGoWf46HLOHKiIyw?pwd=0n6p\">download (baidu)\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fregression\u002Fagedb\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002Fs11263-016-0940-3\">IMDB-WIKI\u003C\u002Fa> [\u003Ca href=\"https:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fcvl\u002Frrothe\u002Fimdb-wiki\u002Fstatic\u002Fimdb_crop.tar\">download (imdb)\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fcvl\u002Frrothe\u002Fimdb-wiki\u002Fstatic\u002Fwiki_crop.tar\">download (wiki)\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fregression\u002Fimdb_wiki\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.05775\">RCFMNIST\u003C\u002Fa> [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fzalandoresearch\u002Ffashion-mnist\">download\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fregression\u002Frcfmnist\">config\u003C\u002Fa>\u003C\u002Fli>\n        \u003C\u002Ful>\n      \u003C\u002Ftd>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n## Change Log\n\nPlease refer to [changelog.md](docs\u002Fen\u002Fchangelog.md) for more details and release history.\n\n## License\n\nThis project is released under the [Apache 2.0 license](LICENSE). See `LICENSE` for more information.\n\n## Acknowledgement\n\n- OpenMixup is an open-source project for mixup methods and visual representation learning created by researchers in **CAIRI AI Lab**. We encourage researchers interested in backbone architectures, mixup augmentations, and self-supervised learning methods to contribute to OpenMixup!\n- This project borrows the architecture design and part of the code from [MMPreTrain](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain) and the official implementations of supported algorisms.\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n## Citation\n\nIf you find this project useful in your research, please consider star `OpenMixup` or cite our [tech report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.04851):\n\n```BibTeX\n@article{li2022openmixup,\n  title = {OpenMixup: A Comprehensive Mixup Benchmark for Visual Classification},\n  author = {Siyuan Li and Zedong Wang and Zicheng Liu and Di Wu and Cheng Tan and Stan Z. Li},\n  journal = {ArXiv},\n  year = {2022},\n  volume = {abs\u002F2209.04851}\n}\n```\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n## Contributors and Contact\n\nFor help, new features, or reporting bugs associated with OpenMixup, please open a [GitHub issue](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fissues) and [pull request](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fpulls) with the tag \"help wanted\" or \"enhancement\". For now, the direct contributors include: Siyuan Li ([@Lupin1998](https:\u002F\u002Fgithub.com\u002FLupin1998)), Zedong Wang ([@Jacky1128](https:\u002F\u002Fgithub.com\u002FJacky1128)), and Zicheng Liu ([@pone7](https:\u002F\u002Fgithub.com\u002Fpone7)). We thank all public contributors and contributors from MMPreTrain (MMSelfSup and MMClassification)!\n\nThis repo is currently maintained by:\n\n- Siyuan Li (lisiyuan@westlake.edu.cn), Westlake University\n- Zedong Wang (wangzedong@westlake.edu.cn), Westlake University\n- Zicheng Liu (liuzicheng@westlake.edu.cn), Westlake University\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n","# OpenMixup\n[![release](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Frelease-V0.2.7-%09%2360004F)](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases)\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fopenmixup)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fopenmixup)\n[![arxiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2209.04851-b31b1b.svg?style=flat)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.04851)\n[![docs](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-latest-%23002FA7)](https:\u002F\u002Fopenmixup.readthedocs.io\u002Fen\u002Flatest\u002F)\n[![license](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache--2.0-%23B7A800)](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fblob\u002Fmain\u002FLICENSE)\n[![open issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-raw\u002FWestlake-AI\u002Fopenmixup?color=%23009763)](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fissues)\n\u003C!-- [![issue resolution](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fissue%20resolution-1%20d-%23009763)](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fissues) -->\n\n[📘文档](https:\u002F\u002Fopenmixup.readthedocs.io\u002Fen\u002Flatest\u002F) |\n[🛠️安装](https:\u002F\u002Fopenmixup.readthedocs.io\u002Fen\u002Flatest\u002Finstall.html) |\n[🚀模型库](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fdocs\u002Fen\u002Fmodel_zoos) |\n[👀精彩混元](https:\u002F\u002Fopenmixup.readthedocs.io\u002Fen\u002Flatest\u002Fawesome_mixups\u002FMixup_SL.html) |\n[🔍精彩自监督](https:\u002F\u002Fopenmixup.readthedocs.io\u002Fen\u002Flatest\u002Fawesome_selfsup\u002FMIM.html) |\n[🆕新闻](https:\u002F\u002Fopenmixup.readthedocs.io\u002Fen\u002Flatest\u002Fchangelog.html)\n\n## 简介\n\n主分支支持 **PyTorch 1.8**（部分自监督方法所需）及以上版本（推荐使用 **PyTorch 1.12**）。对于有监督分类方法，您仍然可以使用 **PyTorch 1.6**。\n\n`OpenMixup` 是一个基于 PyTorch 的开源工具箱，用于基于 mixup 的有监督、自监督和半监督视觉表征学习，尤其适用于与 mixup 相关的方法。*近期，`OpenMixup` 正在更新以适配 OpenMMLab 2.0 的新特性及代码结构（[#42](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fissues\u002F42))。*\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWestlake-AI_openmixup_readme_158e33325e0c.jpg\" width=\"100%\"\u002F>\n\u003C\u002Fdiv>\n\n\u003Cdetails open>\n\u003Csummary>主要特性\u003C\u002Fsummary>\n\n- **模块化设计。**\n  OpenMixup 遵循与 OpenMMLab 项目相似的代码架构，将框架分解为多个组件，用户可以通过组合不同模块轻松构建自定义模型。OpenMixup 也可以移植到 OpenMMLab 项目中（例如 [MMPreTrain](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain)）。\n\n- **一体化。**\n  OpenMixup 提供了流行的骨干网络、mixup 方法以及半监督和自监督算法。用户可以在同一框架下进行图像分类（CNN 和 Transformer）以及自监督预训练（对比学习和自回归方法）。\n\n- **标准基准。**\n  OpenMixup 支持图像分类、mixup 分类和自监督评估的标准基准，并能与开源项目（如 [Detectron2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fmaskrcnn-benchmark) 和 [MMSegmentation](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmsegmentation) 上的目标检测和分割任务）无缝对接，方便下游任务的评估。\n\n- **前沿方法。**\n  OpenMixup 提供了热门 mixup 和自监督方法的精选列表。目前，OpenMixup 正在持续更新，以支持更多最先进的图像分类和自监督方法。\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>目录\u003C\u002Fsummary>\n  \u003Col>\n    \u003Cli>\u003Ca href=\"#introduction\">简介\u003C\u002Fa>\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"#news-and-updates\">新闻与更新\u003C\u002Fa>\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"#installation\">安装\u003C\u002Fa>\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"#getting-started\">快速入门\u003C\u002Fa>\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"#overview-of-model-zoo\">模型库概览\u003C\u002Fa>\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"#change-log\">变更日志\u003C\u002Fa>\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"#license\">许可证\u003C\u002Fa>\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"#acknowledgement\">致谢\u003C\u002Fa>\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"#contributors\">贡献者\u003C\u002Fa>\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"#contributors-and-contact\">贡献者与联系方式\u003C\u002Fa>\u003C\u002Fli>\n  \u003C\u002Fol>\n\u003C\u002Fdetails>\n\n## 新闻与更新\n\n[2025-03-19] `OpenMixup` v0.2.10 发布，支持 **PyTorch >= 2.0**，并增加了更多的 mixup 数据增强和网络。\n\n## 安装\n\nOpenMixup 兼容 **Python 3.6\u002F3.7\u002F3.8\u002F3.9** 和 **PyTorch >= 1.6**。以下是开发模式下的快速安装步骤：\n\n```shell\nconda create -n openmixup python=3.8 pytorch=1.12 cudatoolkit=11.3 torchvision -c pytorch -y\nconda activate openmixup\npip install openmim\nmim install mmcv-full\ngit clone https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup.git\ncd openmixup\npython setup.py develop\n```\n\n\u003Cdetails>\n  \u003Csummary>使用 PyTorch 2.x 安装的不同流程。\u003C\u002Fsummary>\n\n  ```bash\n  conda create -n openmixup python=3.9\n  conda activate openmixup\n  pip install torch==2.1.0 torchvision==0.16.0 torchaudio==2.1.0 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n  pip install https:\u002F\u002Fdownload.openmmlab.com\u002Fmmcv\u002Fdist\u002Fcu118\u002Ftorch2.1.0\u002Fmmcv_full-1.7.2-cp39-cp39-manylinux1_x86_64.whl\n  git clone https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup.git\n  cd openmixup\n  pip install -r requirements\u002Fruntime.txt\n  python setup.py develop\n  ```\n\u003C\u002Fdetails>\n\n有关更详细的安装和数据集准备，请参阅 [install.md](docs\u002Fen\u002Finstall.md)。\n\n## 快速入门\n\nOpenMixup 支持 Linux 和 macOS。它能够轻松地在现有的有监督、自监督和半监督视觉识别模型中实现和扩展 mixup 数据增强方法。有关 OpenMixup 的基本用法，请参阅 [get_started.md](docs\u002Fen\u002Fget_started.md)。\n\n### 训练与评估脚本\n\n以下提供了一个使用多块 `GPU` 和指定 `CONFIG_FILE` 进行快速端到端训练的脚本：\n```shell\nbash tools\u002Fdist_train.sh ${CONFIG_FILE} ${GPUS} [可选参数]\n```\n例如，您可以运行以下脚本，使用 4 块 GPU 在 ImageNet 数据集上训练 ResNet-50 分类器：\n```shell\nCUDA_VISIBLE_DEVICES=0,1,2,3 PORT=29500 bash tools\u002Fdist_train.sh configs\u002Fclassification\u002Fimagenet\u002Fresnet\u002Fresnet50_4xb64_cos_ep100.py 4\n```\n训练完成后，您可以使用相应的评估脚本来测试训练好的模型：\n```shell\nbash tools\u002Fdist_test.sh ${CONFIG_FILE} ${GPUS} ${PATH_TO_MODEL} [可选参数]\n```\n\n### 开发\n\n更多开发示例和技术细节，请参阅[教程](docs\u002Fen\u002Ftutorials)：\n\n- [配置文件](docs\u002Fen\u002Ftutorials\u002F0_config.md)\n- [添加新数据集](docs\u002Fen\u002Ftutorials\u002F1_new_dataset.md)\n- [数据流水线](docs\u002Fen\u002Ftutorials\u002F2_data_pipeline.md)\n- [添加新模块](docs\u002Fen\u002Ftutorials\u002F3_new_module.md)\n- [自定义调度策略](docs\u002Fen\u002Ftutorials\u002F4_schedule.md)\n- [自定义运行时配置](docs\u002Fen\u002Ftutorials\u002F5_runtime.md)\n\n自监督学习下游任务\n\n- [分类](docs\u002Fen\u002Ftutorials\u002Fssl_classification.md)\n- [目标检测](docs\u002Fen\u002Ftutorials\u002Fssl_detection.md)\n- [图像分割](docs\u002Fen\u002Ftutorials\u002Fssl_segmentation.md)\n\n实用工具\n\n- [分析](docs\u002Fen\u002Ftutorials\u002Fanalysis.md)\n- [可视化](docs\u002Fen\u002Ftutorials\u002Fvisualization.md)\n- [PyTorch转ONNX](docs\u002Fen\u002Ftutorials\u002Fpytorch2onnx.md)\n- [PyTorch转TorchScript](docs\u002Fen\u002Ftutorials\u002Fpytorch2torchscript.md)\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>\n\n## 模型库概览\n\n请在各个配置页面上运行实验或查找结果。有关 mixup 方法的基准测试结果，请参阅[Mixup 基准](docs\u002Fen\u002Fmixup_benchmarks)。查看[有监督模型库](docs\u002Fen\u002Fmodel_zoos\u002FModel_Zoo_sup.md)和[自监督模型库](docs\u002Fen\u002Fmodel_zoos\u002FModel_Zoo_selfsup.md)，其中汇集了主流骨干网络和自监督算法。我们还提供了[Awesome Mixups](docs\u002Fen\u002Fawesome_mixups)和[Awesome MIM](docs\u002Fen\u002Fawesome_selfsup\u002FMIM.md)的论文列表，供您参考。请在以下配置页面查看配置文件及模型链接。检查点和训练日志正在持续更新中！\n\n\u003Ctable align=\"center\">\n  \u003Ctbody>\n    \u003Ctr align=\"center\" valign=\"bottom\">\n      \u003Ctd>\n        \u003Cb>支持的主干网络架构\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cb>Mixup 数据增强方法\u003C\u002Fb>\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr valign=\"top\">\n      \u003Ctd>\n        \u003Cul>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3065386\">AlexNet\u003C\u002Fa> (NeurIPS'2012) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Falexnet\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1409.1556\">VGG\u003C\u002Fa> (ICLR'2015) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fvgg\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.00567\">InceptionV3\u003C\u002Fa> (CVPR'2016) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Finception_v3\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2016\u002Fhtml\u002FHe_Deep_Residual_Learning_CVPR_2016_paper.html\">ResNet\u003C\u002Fa> (CVPR'2016) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fresnet\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.05431\">ResNeXt\u003C\u002Fa> (CVPR'2017) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fresnet\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.01507\">SE-ResNet\u003C\u002Fa> (CVPR'2018) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fresnet\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.01507\">SE-ResNeXt\u003C\u002Fa> (CVPR'2018) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fresnet\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.11164\">ShuffleNetV1\u003C\u002Fa> (CVPR'2018) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fshufflenet_v1\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.11164\">ShuffleNetV2\u003C\u002Fa> (ECCV'2018) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fshufflenet_v2\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.04381\">MobileNetV2\u003C\u002Fa> (CVPR'2018) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmobilenet_v2\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.02244\">MobileNetV3\u003C\u002Fa> (ICCV'2019) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmobilenet_v3\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.11946\">EfficientNet\u003C\u002Fa> (ICML'2019) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fefficientnet\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.00298\">EfficientNetV2\u003C\u002Fa> (ICML'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fefficientnet_v2\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.07919\">HRNet\u003C\u002Fa> (TPAMI'2019) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fhrnet\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.01169\">Res2Net\u003C\u002Fa> (ArXiv'2019) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fres2net\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.11929\">CSPNet\u003C\u002Fa> (CVPRW'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fcspnet\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.13678\">RegNet\u003C\u002Fa> (CVPR'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fregnet\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2010.11929\">Vision-Transformer\u003C\u002Fa> (ICLR'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fvision_transformer\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.14030\">Swin-Transformer\u003C\u002Fa> (ICCV'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fswin_transformer\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.12122\">PVT\u003C\u002Fa> (ICCV'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fpvt\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.11986\">T2T-ViT\u003C\u002Fa> (ICCV'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Ft2t_vit\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.01136\">LeViT\u003C\u002Fa> (ICCV'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Flevit\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.03697\">RepVGG\u003C\u002Fa> (CVPR'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Frepvgg\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.12877\">DeiT\u003C\u002Fa> (ICML'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fdeit\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.01601\">MLP-Mixer\u003C\u002Fa> (NeurIPS'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmlp_mixer\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Fproceedings.neurips.cc\u002Fpaper\u002F2021\u002Fhash\u002F4e0928de075538c593fbdabb0c5ef2c3-Abstract.html\">Twins\u003C\u002Fa> (NeurIPS'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Ftwins\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.09792\">ConvMixer\u003C\u002Fa> (TMLR'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fconvmixer\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.08254\">BEiT\u003C\u002Fa> (ICLR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fbeit\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.09450\">UniFormer\u003C\u002Fa> (ICLR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Funiformer\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"http:\u002F\u002Farxiv.org\u002Fabs\u002F2110.02178\">MobileViT\u003C\u002Fa> (ICLR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmobilevit\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.11418\">PoolFormer\u003C\u002Fa> (CVPR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fpoolformer\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.03545\">ConvNeXt\u003C\u002Fa> (CVPR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fconvnext\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.01526\">MViTV2\u003C\u002Fa> (CVPR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmvit\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.01883\">RepMLP\u003C\u002Fa> (CVPR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Frepmlp\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.09741\">VAN\u003C\u002Fa> (CVMJ'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fvan\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.07118\">DeiT-3\u003C\u002Fa> (ECCV'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fdeit3\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.13213\">LITv2\u003C\u002Fa> (NeurIPS'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Flit_v2\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.14284\">HorNet\u003C\u002Fa> (NeurIPS'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fhornet\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.03645\">DaViT\u003C\u002Fa> (ECCV'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fdavit\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.10589\">EdgeNeXt\u003C\u002Fa> (ECCVW'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fedgenext\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.01191\">EfficientFormer\u003C\u002Fa> (NeurIPS'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fefficientformer\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.03295\">MogaNet\u003C\u002Fa> (ICLR'2024) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmoganet\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"http:\u002F\u002Farxiv.org\u002Fabs\u002F2210.13452\">MetaFormer\u003C\u002Fa> (TPAMI'2024) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmetaformer\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.00808\">ConvNeXtV2\u003C\u002Fa> (CVPR'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fconvnext_v2\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.01494\">CoC\u003C\u002Fa> (ICLR'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fcontext_cluster\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"http:\u002F\u002Farxiv.org\u002Fabs\u002F2206.04040\">MobileOne\u003C\u002Fa> (CVPR'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmobileone\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"http:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12972\">VanillaNet\u003C\u002Fa> (NeurIPS'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fvanillanet\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13048\">RWKV\u003C\u002Fa> (ArXiv'2023) \u003Ca href=\"IP51\u002Fopenmixup\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Frwkv\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.15599\">UniRepLKNet\u003C\u002Fa> (CVPR'2024) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Funireplknet\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.17132\">TransNeXt\u003C\u002Fa> (CVPR'2024) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Ftransnext\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.19967\">StarNet\u003C\u002Fa> (CVPR'2024) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fstarnet\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003C\u002Ful>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cul>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.09412\">Mixup\u003C\u002Fa> (ICLR'2018) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.04899\">CutMix\u003C\u002Fa> (ICCV'2019) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.05236\">ManifoldMix\u003C\u002Fa> (ICML'2019) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2002.12047\">FMix\u003C\u002Fa> (ArXiv'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.13048\">AttentiveMix\u003C\u002Fa> (ICASSP'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPRW_2020\u002Fpapers\u002Fw45\u002FLee_SmoothMix_A_Simple_Yet_Effective_Data_Augmentation_to_Train_Robust_CVPRW_2020_paper.pdf\">SmoothMix\u003C\u002Fa> (CVPRW'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.09412\">SaliencyMix\u003C\u002Fa> (ICLR'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1912.02781\">AugMix\u003C\u002Fa> (ICLR'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2009.06962\">PuzzleMix\u003C\u002Fa> (ICML'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.04846\">SnapMix\u003C\u002Fa> (AAAI'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcifar100\u002Fmixups\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS0031320320303976\">GridMix\u003C\u002Fa> (Pattern Recognition'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.11101\">ResizeMix\u003C\u002Fa> (CVMJ'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.15375\">AlignMix\u003C\u002Fa> (CVPR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.09833\">TransMix\u003C\u002Fa> (CVPR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.13027\">AutoMix\u003C\u002Fa> (ECCV'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fautomix\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.15454\">SAMix\u003C\u002Fa> (ArXiv'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fsamix\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.08409\">TokenMix\u003C\u002Fa> (ECCV'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcifar100\u002Fmixups\u002Fvits\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12043\">MixPro\u003C\u002Fa> (ICLR'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcifar100\u002Fmixups\u002Fvits\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.10761\">DecoupleMix\u003C\u002Fa> (NeurIPS'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002Fdecouple\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.12977\">SMMix\u003C\u002Fa> (ICCV'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcifar100\u002Fmixups\u002Fvits\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.06455\">TLA\u003C\u002Fa> (ICCV'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcifar100\u002Fmixups\u002Fvits\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.11954\">AdAutoMix\u003C\u002Fa> (ICLR'2024) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fadautomix\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.07805\">SUMix\u003C\u002Fa> (ECCV'2024) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcifar100\u002Fmixups\u002Fvits\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>MergeMix (ArXiv'2025) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmergemix\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003C\u002Ful>\n      \u003C\u002Ftd>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\u003Ctable align=\"center\">\n  \u003Ctbody>\n    \u003Ctr align=\"center\" valign=\"bottom\">\n      \u003Ctd>\n        \u003Cb>自监督学习算法\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cb>支持的数据集\u003C\u002Fb>\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr valign=\"top\">\n      \u003Ctd>\n        \u003Cul>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1505.05192\">相对位置\u003C\u002Fa> (ICCV'2015) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Frelative_loc\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.07728\">旋转预测\u003C\u002Fa> (ICLR'2018) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Frotation_pred\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.05520\">DeepCluster\u003C\u002Fa> (ECCV'2018) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fdeepcluster\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1805.01978\">NPID\u003C\u002Fa> (CVPR'2018) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fnpid\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.10645\">ODC\u003C\u002Fa> (CVPR'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fodc\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.05722\">MoCov1\u003C\u002Fa> (CVPR'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fmocov1\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2002.05709\">SimCLR\u003C\u002Fa> (ICML'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fsimclr\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.04297\">MoCoV2\u003C\u002Fa> (ArXiv'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fmocov2\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.07733\">BYOL\u003C\u002Fa> (NeurIPS'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fbyol\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.09882\">SwAV\u003C\u002Fa> (NeurIPS'2020) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fswav\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2011.09157\">DenseCL\u003C\u002Fa> (CVPR'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fdensecl\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2011.10566\">SimSiam\u003C\u002Fa> (CVPR'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fsimsiam\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.03230\">Barlow Twins\u003C\u002Fa> (ICML'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fbarlowtwins\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.02057\">MoCoV3\u003C\u002Fa> (ICCV'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fmocov3\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.14294\">DINO\u003C\u002Fa> (ICCV'2021) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fdino\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.08254\">BEiT\u003C\u002Fa> (ICLR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fbeit\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.06377\">MAE\u003C\u002Fa> (CVPR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fmae\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.09886\">SimMIM\u003C\u002Fa> (CVPR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fsimmim\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.09133\">MaskFeat\u003C\u002Fa> (CVPR'2022) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fmaskfeat\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.03026\">CAE\u003C\u002Fa> (IJCV'2024) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fcae\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.13943\">A2MIM\u003C\u002Fa> (ICML'2023) \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fa2mim\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003C\u002Ful>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cul>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1409.0575\">ImageNet\u003C\u002Fa> [\u003Ca href=\"http:\u002F\u002Fwww.image-net.org\u002Fchallenges\u002FLSVRC\u002F2012\u002F\">下载 (1K)\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fimage-net.org\u002Fdata\u002Fimagenet21k_resized.tar.gz\">下载 (21K)\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmixups\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.cs.toronto.edu\u002F~kriz\u002Flearning-features-2009-TR.pdf\">CIFAR-10 [\u003Ca href=\"https:\u002F\u002Fwww.cs.toronto.edu\u002F~kriz\u002Fcifar.html\">下载\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcifar10\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.cs.toronto.edu\u002F~kriz\u002Flearning-features-2009-TR.pdf\">CIFAR-100\u003C\u002Fa> [\u003Ca href=\"https:\u002F\u002Fwww.cs.toronto.edu\u002F~kriz\u002Fcifar.html\">下载\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcifar100\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.08819\">Tiny-ImageNet [\u003Ca href=\"http:\u002F\u002Fcs231n.stanford.edu\u002Ftiny-imagenet-200.zip\">下载\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Ftiny_imagenet\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.07747\">FashionMNIST\u003C\u002Fa> [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fzalandoresearch\u002Ffashion-mnist\">下载\u003C\u002Fa>]\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"http:\u002F\u002Fproceedings.mlr.press\u002Fv15\u002Fcoates11a\u002Fcoates11a.pdf\">STL-10 [\u003Ca href=\"https:\u002F\u002Fcs.stanford.edu\u002F~acoates\u002Fstl10\u002F\">下载\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002Fmocov2\u002Fstl10\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Fresolver.caltech.edu\u002FCaltechAUTHORS:20111026-120541847\">CUB-200-2011\u003C\u002Fa> [\u003Ca href=\"http:\u002F\u002Fwww.vision.caltech.edu\u002Fdatasets\u002Fcub_200_2011\u002F\">下载\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcub200\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1306.5151\">FGVC-Aircraft [\u003Ca href=\"https:\u002F\u002Fwww.robots.ox.ac.uk\u002F~vgg\u002Fdata\u002Ffgvc-aircraft\u002F\">下载\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Faircrafts\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"http:\u002F\u002Fai.stanford.edu\u002F~jkrause\u002Fpapers\u002F3drr13.pdf\">Stanford-Cars\u003C\u002Fa> [\u003Ca href=\"http:\u002F\u002Fai.stanford.edu\u002F~jkrause\u002Fcars\u002Fcar_dataset.html\">下载\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcars\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"http:\u002F\u002Fplaces2.csail.mit.edu\u002Findex.html\">Places205 [\u003Ca href=\"http:\u002F\u002Fplaces.csail.mit.edu\u002FdownloadData.html\">下载\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fplace205\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.06642\">iNaturalist-2017\u003C\u002Fa> [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fvisipedia\u002Finat_comp\u002Ftree\u002Fmaster\u002F2017\">下载\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Finaturalist2017\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.06642\">iNaturalist-2018\u003C\u002Fa> [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fvisipedia\u002Finat_comp\u002Ftree\u002Fmaster\u002F2018\">下载\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Finaturalist2018\u002F\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8014984\">AgeDB\u003C\u002Fa> [\u003Ca href=\"https:\u002F\u002Fibug.doc.ic.ac.uk\u002Fresources\u002Fagedb\u002F\">下载\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1XdibVxiGoWf46HLOHKiIyw?pwd=0n6p\">下载 (百度)\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fregression\u002Fagedb\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002Fs11263-016-0940-3\">IMDB-WIKI\u003C\u002Fa> [\u003Ca href=\"https:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fcvl\u002Frrothe\u002Fimdb-wiki\u002Fstatic\u002Fimdb_crop.tar\">下载 (IMDB)\u003C\u002Fa>] [\u003Ca href=\"https:\u002F\u002Fdata.vision.ee.ethz.ch\u002Fcvl\u002Frrothe\u002Fimdb-wiki\u002Fstatic\u002Fwiki_crop.tar\">下载 (WIKI)\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fregression\u002Fimdb_wiki\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.05775\">RCFMNIST\u003C\u002Fa> [\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fzalandoresearch\u002Ffashion-mnist\">下载\u003C\u002Fa>] \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fregression\u002Frcfmnist\">配置\u003C\u002Fa>\u003C\u002Fli>\n        \u003C\u002Ful>\n      \u003C\u002Ftd>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n\n\n## Change Log\n\nPlease refer to [changelog.md](docs\u002Fen\u002Fchangelog.md) for more details and release history.\n\n## License\n\nThis project is released under the [Apache 2.0 license](LICENSE). See `LICENSE` for more information.\n\n## Acknowledgement\n\n- OpenMixup is an open-source project for mixup methods and visual representation learning created by researchers in **CAIRI AI Lab**. We encourage researchers interested in backbone architectures, mixup augmentations, and self-supervised learning methods to contribute to OpenMixup!\n- This project borrows the architecture design and part of the code from [MMPreTrain](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmpretrain) and the official implementations of supported algorisms.\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n## Citation\n\nIf you find this project useful in your research, please consider star `OpenMixup` or cite our [tech report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.04851):\n\n```BibTeX\n@article{li2022openmixup,\n  title = {OpenMixup: A Comprehensive Mixup Benchmark for Visual Classification},\n  author = {Siyuan Li and Zedong Wang and Zicheng Liu and Di Wu and Cheng Tan and Stan Z. Li},\n  journal = {ArXiv},\n  year = {2022},\n  volume = {abs\u002F2209.04851}\n}\n```\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n## Contributors and Contact\n\nFor help, new features, or reporting bugs associated with OpenMixup, please open a [GitHub issue](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fissues) and [pull request](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fpulls) with the tag \"help wanted\" or \"enhancement\". For now, the direct contributors include: Siyuan Li ([@Lupin1998](https:\u002F\u002Fgithub.com\u002FLupin1998)), Zedong Wang ([@Jacky1128](https:\u002F\u002Fgithub.com\u002FJacky1128)), and Zicheng Liu ([@pone7](https:\u002F\u002Fgithub.com\u002Fpone7)). We thank all public contributors and contributors from MMPreTrain (MMSelfSup and MMClassification)!\n\nThis repo is currently maintained by:\n\n- Siyuan Li (lisiyuan@westlake.edu.cn), Westlake University\n- Zedong Wang (wangzedong@westlake.edu.cn), Westlake University\n- Zicheng Liu (liuzicheng@westlake.edu.cn), Westlake University\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>","# OpenMixup 快速上手指南\n\nOpenMixup 是一个基于 PyTorch 的开源工具箱，专注于监督、自监督和半监督视觉表示学习，特别针对 Mixup 及相关数据增强方法进行了优化。它采用模块化设计，支持多种主流骨干网络（CNN & Transformer）及前沿算法。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux 或 macOS\n*   **Python**: 3.6 - 3.9 (推荐 3.8 或 3.9)\n*   **PyTorch**: \n    *   基础分类任务：>= 1.6\n    *   自监督学习任务：>= 1.8 (推荐 1.12 或更高)\n    *   最新特性支持：>= 2.0\n*   **CUDA**: 根据显卡驱动版本安装对应的 Toolkit (如 11.3, 11.8 等)\n\n## 2. 安装步骤\n\n推荐使用 `conda` 创建独立虚拟环境进行安装。以下提供两种常见场景的安装命令。\n\n### 方案 A：标准安装 (PyTorch 1.12 + CUDA 11.3)\n适用于大多数现有模型和教程。\n\n```shell\n# 1. 创建并激活 conda 环境\nconda create -n openmixup python=3.8 pytorch=1.12 cudatoolkit=11.3 torchvision -c pytorch -y\nconda activate openmixup\n\n# 2. 安装 OpenMIM 工具及 MMCV\npip install openmim\nmim install mmcv-full\n\n# 3. 克隆代码库并安装\ngit clone https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup.git\ncd openmixup\npython setup.py develop\n```\n\n### 方案 B：新版安装 (PyTorch 2.1 + CUDA 11.8)\n适用于需要最新特性及高性能训练的场景。\n\n```bash\n# 1. 创建并激活 conda 环境\nconda create -n openmixup python=3.9\nconda activate openmixup\n\n# 2. 安装 PyTorch 2.1 (官方源)\npip install torch==2.1.0 torchvision==0.16.0 torchaudio==2.1.0 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n\n# 3. 安装特定版本的 MMCV (适配 Torch 2.1)\npip install https:\u002F\u002Fdownload.openmmlab.com\u002Fmmcv\u002Fdist\u002Fcu118\u002Ftorch2.1.0\u002Fmmcv_full-1.7.2-cp39-cp39-manylinux1_x86_64.whl\n\n# 4. 克隆代码库并安装依赖\ngit clone https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup.git\ncd openmixup\npip install -r requirements\u002Fruntime.txt\npython setup.py develop\n```\n\n> **提示**：国内用户若下载缓慢，可在 `pip` 命令后添加 `-i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple` 使用清华镜像源。\n\n## 3. 基本使用\n\n安装完成后，您可以立即开始训练和评估模型。OpenMixup 提供了便捷的分布式训练脚本。\n\n### 快速训练示例\n以下命令演示了如何使用 4 张 GPU 在 ImageNet 数据集上训练一个 ResNet-50 分类器：\n\n```shell\nCUDA_VISIBLE_DEVICES=0,1,2,3 PORT=29500 bash tools\u002Fdist_train.sh configs\u002Fclassification\u002Fimagenet\u002Fresnet\u002Fresnet50_4xb64_cos_ep100.py 4\n```\n\n*   `${CONFIG_FILE}`: 配置文件路径 (例如 `configs\u002Fclassification\u002Fimagenet\u002Fresnet\u002Fresnet50_4xb64_cos_ep100.py`)\n*   `${GPUS}`: 使用的 GPU 数量\n\n### 模型评估示例\n训练完成后，使用以下命令对模型进行测试：\n\n```shell\nbash tools\u002Fdist_test.sh ${CONFIG_FILE} ${GPUS} ${PATH_TO_MODEL} [optional arguments]\n```\n\n*   `${PATH_TO_MODEL}`: 训练生成的权重文件路径 (`.pth`)\n\n### 进阶开发\n如需自定义数据集、修改数据流水线或添加新模块，请参考项目目录下的 `docs\u002Fen\u002Ftutorials` 文档系列。","某医疗影像算法团队正致力于利用少量标注的肺部 CT 扫描数据，训练一个高精度的肺炎辅助诊断模型，以解决医学领域标注数据稀缺的难题。\n\n### 没有 openmixup 时\n- **代码重复造轮子**：团队需手动复现 Mixup、CutMix 等混合增强策略及对比学习算法，耗费数周时间调试底层代码，且难以保证与论文效果一致。\n- **实验框架割裂**：监督学习、半监督和自监督预训练分别使用不同的代码库，导致数据加载、模型评估流程不统一，切换实验设置极易出错。\n- **基准对比困难**：缺乏统一的评测标准，难以在相同环境下公平对比不同混合增强策略对最终分类精度的提升效果。\n- **下游任务迁移繁琐**：将预训练模型迁移到具体的病灶分割任务时，需重新编写大量适配代码，无法直接对接 Detectron2 或 MMSegmentation 等主流框架。\n\n### 使用 openmixup 后\n- **开箱即用算法库**：直接调用 openmixup 内置的多种 SOTA 混合增强方法和自监督算法，将算法验证周期从数周缩短至几天，快速锁定最优策略。\n- **统一训练框架**：在同一个架构下灵活切换监督、半监督及自监督模式，通过模块化配置即可组合不同骨干网络与增强策略，大幅提升实验效率。\n- **标准化性能评估**：利用内置的标准 Benchmark 一键完成图像分类与自监督评估，清晰量化不同 Mixup 策略在小样本场景下的增益表现。\n- **无缝生态集成**：借助其与 OpenMMLab 生态的兼容性，轻松将预训练权重导出并应用于下游的病灶检测与分割任务，实现端到端流畅开发。\n\nopenmixup 通过提供统一且模块化的混合增强学习框架，帮助团队在低资源场景下快速构建并验证了高性能的视觉表示学习模型。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWestlake-AI_openmixup_158e3332.jpg","Westlake-AI","AI Research and Innovation Lab, Westlake University","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FWestlake-AI_45b8e168.png","",null,"cairi@westlake.edu.cn","https:\u002F\u002Fwestlake-ai.github.io\u002FAI-Bio\u002F","https:\u002F\u002Fgithub.com\u002FWestlake-AI",[84,88,92],{"name":85,"color":86,"percentage":87},"Python","#3572A5",99.3,{"name":89,"color":90,"percentage":91},"Shell","#89e051",0.7,{"name":93,"color":94,"percentage":95},"Dockerfile","#384d54",0,657,62,"2026-03-27T09:02:51","Apache-2.0","Linux, macOS","需要 NVIDIA GPU (用于多 GPU 训练示例)，支持 CUDA 11.3 或 CUDA 11.8 (取决于 PyTorch 版本)","未说明",{"notes":104,"python":105,"dependencies":106},"主分支兼容 PyTorch 1.8+ (推荐 1.12)，部分自监督方法需 PyTorch 1.8+，监督分类可低至 1.6。v0.2.10+ 版本支持 PyTorch 2.0+。安装 PyTorch 2.x 时需手动指定 mmcv 预编译包路径。建议使用 conda 管理环境。","3.6, 3.7, 3.8, 3.9",[107,108,109,110],"torch>=1.6 (推荐 1.12 或 >=2.0)","torchvision","mmcv-full","openmim",[51,54,13,14,26],[113,114,115,116,117,118,119,120,121,122,123,124,125,126,127,128,129,130],"pytorch","awesome-list","awesome-mim","awesome-mixup","contrastive-learning","data-augmentation","image-classifcation","imagenet","masked-image-modeling","mixup","self-supervised-learning","semi-supervised-learning","vision-transformer","deep-learning","benchmark","automix","data-generation","machine-learning","2026-03-27T02:49:30.150509","2026-04-06T09:25:38.355347",[134,139,144,149,154,159,164],{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},18730,"A2MIM 的预训练模型在哪里下载？","A2MIM 及相关自监督方法的权重、日志和可视化结果已发布。您可以访问以下链接下载：https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Ftag\u002Fa2mim-in1k-weights","https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fissues\u002F13",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},18731,"项目是否提供预训练权重？","是的，项目提供了预训练权重。具体的权重文件可以在项目的 Release 页面找到（例如 A2MIM 的权重在 a2mim-in1k-weights 标签下）。","https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fissues\u002F52",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},18732,"如何在 ImageNet 数据集上开始训练？如何获取所需的列表文件？","解压 ImageNet 后，您需要生成训练集和验证集的列表文件（如 train_labeled_full.txt 和 val_labeled.txt）。这些文件通常包含图像路径和标签。生成后，修改配置文件中的 data_train_list, data_train_root, data_test_list, data_test_root 路径，然后使用 tools\u002Fdist_train.sh 脚本启动训练。","https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fissues\u002F50",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},18733,"如何将训练好的 .pth 权重加载到模型中进行其他任务或推理？","训练得到的权重（如 epoch_400.pth）可以通过配置文件的 pretrained 字段加载。对于 AutoMix 等混合增强方法，注意混合损失（mixup loss）仅在 mode='train' 时应用。在推理（mode='inference'）或评估（model.eval()）模式下，模型不会执行样本混合操作，而是直接输出预测结果。具体实现可参考 openmixup\u002Fmodels\u002Fclassifiers\u002Fautomix_V1plus.py 中的 forward_train 方法。","https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fissues\u002F45",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},18734,"AutoMix 方法是否支持语义分割或目标检测等下游任务？","目前 AutoMix 仅支持分类任务，因为它依赖混合分类损失（如 mixup with CE\u002FBCE loss）来训练 MixBlock 生成混合样本的过程。若需应用于下游任务（如分割），一种可行的方法是先使用多标签分类损失配合 mixup 预训练 MixBlock，然后利用生成的增强图像进行后续任务。但在 OpenMixup 框架中，mixup 增强目前主要针对分类任务设计。","https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fissues\u002F21",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},18735,"MogaNet 网络是否可以被称为残差网络（Residual Network）？","MogaNet-Tiny 属于深度神经网络，尽管参数量小，但它需要堆叠许多网络块。虽然它包含残差结构，但通常不直接将其等同于经典的 ResNet。相比之下，VanillaNet 变体更倾向于被视为浅层网络。","https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fissues\u002F54",{"id":165,"question_zh":166,"answer_zh":167,"source_url":148},18736,"在哪里可以找到不同 Mixup 方法的超参数（如 alpha 值）？","项目在各种 Mixup 方法的配置说明中提供了超参数。例如，您可以在 configs\u002Fclassification\u002Fcifar100\u002FREADME.md 中找到不同方法的 alpha 值设置。建议在 CIFAR-100 上尝试复现基准结果，例如使用 alpha=1 的 Mixup 方法。",[169,174,179,184,189,194,199,204,209,214,219],{"id":170,"version":171,"summary_zh":172,"released_at":173},109236,"vits-mix-cifar100-weights","一组用于在[CIFAR-100](https:\u002F\u002Fwww.cs.toronto.edu\u002F~kriz\u002Fcifar.html)数据集上，针对现代Transformer架构进行图像分类实验的权重和日志。这些基准旨在方便研究Transformer模型下的Mixup增强技术，因为目前公开的基于ViT的Mixup变体基准大多基于ImageNet-1K数据集。更多详情请参阅我们的[技术报告](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.04851)。\n\n* 由于CIFAR-100原始图像分辨率对ViT模型过小，我们将其输入图像统一调整为$224\\times 224$（训练和测试阶段均如此），而未对ViT架构进行任何修改。本基准采用DeiT的设置，在CIFAR-100数据集上以100的批量大小训练200或600个epoch。DeiT和Swin的基础学习率分别为$1e-3$和$5e-4$，这也是我们在实验中验证的最佳配置。对于所有对比方法，我们都搜索并报告了$Beta(\\alpha, \\alpha)$中的$\\alpha$值。相关配置文件请参见[mixups\u002Fvits](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fcifar100\u002Fmixups\u002Fvits\u002F)。\n\n* 对于ViT架构，我们报告了最后10个训练epoch中最高的Top-1准确率。我们已在[vits-mix-cifar100-weights](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Ftag\u002Fvits-mix-cifar100-weights)中发布了训练好的模型和日志。\n\n### CIFAR-100上的ViT Mixup基准\n\n| 主干网络     |  $Beta$  | DEiT-S(\u002F16) | DEiT-S(\u002F16) |   Swin-T   |   Swin-T   |\n|---------------|:--------:|:-----------:|:-----------:|:----------:|:----------:|\n| Epoch         | $\\alpha$ |  200 epochs |  600 epochs | 200 epochs | 600 epochs |\n| Vanilla       |     -    |    65.81    |    68.50    |    78.41   |    81.29   |\n| MixUp         |    0.8   |    69.98    |    76.35    |    76.78   |    83.67   |\n| CutMix        |     2    |    74.12    |    79.54    |    80.64   |    83.38   |\n| DeiT          |   0.8,1  |    75.92    |    79.38    |    81.25   |    84.41   |\n| SmoothMix     |    0.2   |    67.54    |    80.25    |    66.69   |    81.18   |\n| SaliencyMix   |    0.2   |    69.78    |    76.60    |    80.40   |    82.58   |\n| AttentiveMix+ |     2    |    75.98    |    80.33    |    81.13   |    83.69   |\n| FMix*         |     1    |    70.41    |    74.31    |    80.72   |    82.82   |\n| GridMix       |     1    |    68.86    |    74.96    |    78.54   |    80.79   |\n| PuzzleMix     |     2    |    73.60    |    81.01    |    80.44   |    84.74   |\n| ResizeMix*    |     1    |    68.45    |    71.95    |    80.16   |    82.36   |\n| AlignMix      |     1    |      -      |      -      |    78.91   |    83.34   |\n| TransMix      |   0.8,1  |    76.17    |    79.33    |    81.33   |    84.45   |\n| AutoMix       |     2    |    76.24    |    80.91    |    82.67   |    84.70   |\n| SAMix*        |     2    |    77.94    |    82.49    |    82.62   |    84.85   |","2023-07-18T21:57:30",{"id":175,"version":176,"summary_zh":177,"released_at":178},109237,"open-in1k-weights","我们提供了在[ImageNet-1K](https:\u002F\u002Farxiv.org\u002Fabs\u002F1409.0575)（[下载](http:\u002F\u002Fwww.image-net.org\u002Fchallenges\u002FLSVRC\u002F2012\u002F)）数据集上，使用`OpenMixup`或MMLab框架复现的图像分类网络的模型权重和日志集合。您可以在相关模型的配置文件和README页面中查看训练设置。所有文件均可从[**百度网盘（cicj）**](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1q6XmCP8ApsVqEy0K-IUvjw?pwd=cicj)下载。\n\n如果您希望我们复现新的模型，或者能够为OpenMixup提供复现结果，请通过[GitHub议题](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fissues)或电子邮件与我们联系。**本版本将持续更新！**\n\n### 使用OpenMixup进行ImageNet分类\n\n| 模型 | 论文 | 预训练 | 参数量(M) | FLOPs(G) | Top-1(%) | Top-5(%) | 配置 | 下载 |\n|---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|\n| DeiT-S | [ICML'2021](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.12877) | 从零开始 | 22.05 | 4.24 | 80.28 | 95.07 | [配置](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fdeit\u002Fdeit_small_8xb128_ep300.py) | [模型](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Fdownload\u002Fopen-in1k-weights\u002Fdeit_small_8xb128_ep300.pth) \\| [日志](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Fdownload\u002Fopen-in1k-weights\u002Fdeit_small_8xb128_ep300.log.json) |\n| DeiT-B | [ICML'2021](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.12877) | 从零开始 | 86.57 | 16.86 | 81.82 | 95.57 | [配置](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fdeit\u002Fdeit_base_8xb128_ep300.py) | [模型](https:\u002F\u002Fdownload.openmmlab.com\u002Fmmclassification\u002Fv0\u002Fdeit\u002Fdeit-base_pt-16xb64_in1k_20220216-db63c16c.pth) \\| [日志](https:\u002F\u002Fdownload.openmmlab.com\u002Fmmclassification\u002Fv0\u002Fdeit\u002Fdeit-base_pt-16xb64_in1k_20220216-db63c16c.log.json) | |\n| Swin-T | [ICCV'2021](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.14030) | 从零开始 | 28.29 | 4.36 | 81.18 | 95.61 | [配置](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fswin_transformer\u002Fswin_tiny_8xb128_fp16_ep300.py) | [模型](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Fdownload\u002Fopen-in1k-weights\u002Fswin_tiny_8xb128_fp16_ep300.pth) \\| [日志](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Fdownload\u002Fopen-in1k-weights\u002Fswin_tiny_8xb128_fp16_ep300.log.json) |\n| ConvNeXt-T | [CVPR'2022](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.03545) | 从零开始 | 28.59 | 4.46 | 82.16 | 95.81 | [配置](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fconvnext\u002Fconvnext_tiny_8xb256_accu2_fp16_ep300.py) | [模型](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Fdownload\u002Fopen-in1k-weights\u002Fconvnext_small_8xb128_accu4_fp16_ep300.pth) \\| [日志](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Fdownload\u002Fopen-in1k-weights\u002Fconvnext_small_8xb128_accu4_fp16_ep300.log.json) |\n| UniFormer-T | [ICLR'2022](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.09450) | 从零开始 | 5.55 | 0.88 | 78.02 | 94.14 | [配置](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fma","2023-04-27T23:24:08",{"id":180,"version":181,"summary_zh":182,"released_at":183},109238,"rsb-a3-weights","一组用于在 [ImageNet-1K](https:\u002F\u002Farxiv.org\u002Fabs\u002F1409.0575) 数据集上进行 RSB A3 训练设置的图像分类实验的权重和日志文件（[下载](http:\u002F\u002Fwww.image-net.org\u002Fchallenges\u002FLSVRC\u002F2012\u002F)）。您可以在 [ResNet strikes back](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.00476) 中查看该训练设置，并在 [MogaNet](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.03295) 的附录表 A.7 中找到完整结果。所有文件均可从 [**百度网盘** (ss3j)](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1WgUn0zOtrmN2GBZ3aFjONw?pwd=ss3j) 下载。\n\n* 我们按照 [RSB A3](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.00476) 设置，在 ImageNet-1K 数据集上对所有模型训练 100 个 epoch。我们将基础学习率调整为 \\{8e-3, 6e-3\\}，以获得更好的性能。\n* 对于所有实验，均报告最后 10 个训练 epoch 内的 **最佳** 图像分类 Top-1 准确率。\n\n## RSB A3 在 ImageNet-1K 上的图像分类\n\n| 模型 | 日期 | 训练 \u002F 测试 | 参数量 (M) | Top-1 (%) | Top-5 (%) | 配置 | 下载 |\n|---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|\n| ResNet-50 | CVPR'2016 | 160 \u002F 224 | 26 | 78.1 | 93.8 | [配置](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fresnet\u002Fresnet50_rsb_a3_sz160_8xb256_ep100.py) | [模型](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Fdownload\u002Frsb-a3-weights\u002Fresnet50_rsb_a3_sz160_8xb256_ep100.pth) \\| [日志](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Fdownload\u002Frsb-a3-weights\u002Fresnet50_rsb_a3_sz160_8xb256_ep100.log.json) |\n| ResNet-101 | CVPR'2016 | 160 \u002F 224 | 45 | 79.9 | 94.9 | [配置](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fresnet\u002Fresnet101_rsb_a3_sz160_8xb256_ep100.py) | [模型](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Fdownload\u002Frsb-a3-weights\u002Fresnet101_rsb_a3_sz160_8xb256_ep100.pth) \\| [日志](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Fdownload\u002Frsb-a3-weights\u002Fresnet101_rsb_a3_sz160_8xb256_ep100.log.json) |\n| ResNet-152 | CVPR'2016 | 160 \u002F 224 | 60 | 80.7 | 95.2 | [配置](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fresnet\u002Fresnet152_rsb_a3_sz160_8xb256_ep100.py) | [模型](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Fdownload\u002Frsb-a3-weights\u002Fresnet152_rsb_a3_sz160_8xb256_ep100.pth) \\| [日志](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Fdownload\u002Frsb-a3-weights\u002Fresnet152_rsb_a3_sz160_8xb256_ep100.log.json) |\n| ViT-T | ICLR'2021 | 160 \u002F 224 | 6 | 66.7 | 87.7 | [配置](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fdeit\u002Fdeit_tiny_rsb_a3_sz160_8xb256_ep100.py) | [模型](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Fdownload\u002Frsb-a3-weights\u002Fdeit_tiny_rsb_a3_sz160_8xb256_ep100.pth) \\| [日志](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Fdownload\u002Frsb-a3-weights\u002Fdeit_tiny_rsb_a3_sz160_8xb256_ep100.log.json) |\n| ViT-S | ICLR'2021 | 160 \u002F 224 | 22 | 73.8 | 91.2 | [配置](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fdeit\u002Fdeit_small_rsb_a3_sz1","2023-02-26T19:17:23",{"id":185,"version":186,"summary_zh":187,"released_at":188},109239,"moganet-in1k-weights","用于在[ImageNet-1K](https:\u002F\u002Farxiv.org\u002Fabs\u002F1409.0575)上进行[MogaNet](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.03295)图像分类实验的权重和日志集合（[下载](http:\u002F\u002Fwww.image-net.org\u002Fchallenges\u002FLSVRC\u002F2012\u002F)）。您可以通过[**百度网盘** (z8mf)](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1d5MTTC66gegehmfZvCQRUA?pwd=z8mf) 在 `MogaNet\u002FClassification_OpenMixup` 目录下下载所有文件。\n\n* 我们按照[RSB A3](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.00476)和[DeiT](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.12877)的设置，在ImageNet-1K数据集上分别训练MogaNet 100和300个epoch。请注意，\\* 表示采用[3-Augment](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.07118)对轻量级模型进行优化后的训练设置。更多训练细节请参阅[MogaNet](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.13943)的附录。\n* 所有实验均报告最后10个训练epoch中**最佳**的top-1准确率。需要注意的是，对于MogaNet-S、MogaNet-B和MogaNet-L，我们报告的是EMA权重的分类准确率。\n* 对于预训练权重的评估实验，您可以使用`tools\u002Fdist_test.sh`测试其分类性能，或者仅加载编码器权重，在下游任务上进行微调，例如COCO目标检测和ADE20K语义分割。\n* 关于`attn_force_fp32`的警告：在fp16训练过程中，我们强制将门控函数以fp32精度运行，以避免出现inf或nan。我们发现，如果在训练时设置了`attn_force_fp32=True`，那么在评估时也应保持该设置为真。这可能是由于是否启用`attn_force_fp32`导致输出结果存在差异所致。这不会影响全量微调的效果，但可能会影响迁移学习的结果（例如，COCO Mask-RCNN冻结了第一阶段的参数）。我们在OpenMixup中将其默认设置为True，而在[MogaNet](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002FMogaNet)的实现中则去掉了这一设置。例如，您可以使用[moga_small_ema_sz224_8xb128_ep300.pth](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Fdownload\u002Fmoganet-in1k-weights\u002Fmoga_small_ema_sz224_8xb128_ep300.pth)，并设置`attn_force_fp32=True`；而使用[moga_small_ema_sz224_8xb128_no_forcefp32_ep300.pth](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Fdownload\u002Fmoganet-in1k-weights\u002Fmoga_small_ema_sz224_8xb128_no_forcefp32_ep300.pth)时，则应将`attn_force_fp32=False`。\n\n## ImageNet-1K上的图像分类\n\n| 模型 | 预训练 | 设置 | 分辨率 | 参数(M) | 浮点运算量(G) | Top-1 (%) | 配置 | 下载 |\n|---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|\n| MogaNet-XT | 从零开始 | DeiT | 224x224 | 2.97 | 0.80 | 76.5 | [配置](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fimagenet\u002Fmoganet\u002Fmoga_xtiny_sz224_8xb128_fp16_ep300.py) | [模型](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Fdownload\u002Fmoganet-in1k-weights\u002Fmoga_xtiny_sz224_8xb128_fp16_ep300.pth) \\| [日志](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Freleases\u002Fdownload\u002Fmoganet-in1k-weights\u002Fmoga_xtiny_sz224_8xb128_fp16_ep300.","2022-12-01T21:55:24",{"id":190,"version":191,"summary_zh":192,"released_at":193},109240,"a2mim-in1k-weights","用于在[ImageNet-1K](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3065386)上进行自监督学习基准测试的权重和日志集合（[下载](http:\u002F\u002Fwww.image-net.org\u002Fchallenges\u002FLSVRC\u002F2012\u002F)）。您可以在[OpenMixup](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup)、[VISSL](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fvissl)、[solo-learn](https:\u002F\u002Fgithub.com\u002Fvturrisi\u002Fsolo-learn)以及各方法的官方仓库中找到对比方法的预训练代码。所有文件均可从**百度网盘**下载：[A2MIM (3q5i)](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1aj3Lbj_wvyV_1BRzFhPcwQ?pwd=3q5i)。\n\n* 所有对比方法均采用ResNet-50或ViT-B架构，并在ImageNet-1K数据集上分别预训练100\u002F300或800个epoch。预训练和微调时使用的图像尺寸均为$224\\times 224$。微调协议包括：针对ResNet-50的[RSB A3](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fblob\u002Fmain\u002Fconfigs\u002Fbenchmarks\u002Fclassification\u002Fimagenet\u002Fr50_rsb_a3_ft_sz160_4xb512_cos_fp16_ep100.py)和[RSB A2](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fblob\u002Fmain\u002Fconfigs\u002Fbenchmarks\u002Fclassification\u002Fimagenet\u002Fr50_rsb_a2_ft_sz224_8xb256_cos_fp16_ep300.py)，以及针对ViT-B的[BEiT (SimMIM)](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fbenchmarks\u002Fclassification\u002Fimagenet\u002Fvit_base_p16_swin_ft_simmim_sz224_4xb128_accu2_cos_ep100.py)。更多细节请参阅[A2MIM](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.13943)论文。\n* 对于所有自监督方法，报告的是在最后10个训练epoch中的**最佳**微调top-1准确率。\n* 提供了[A2MIM](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.13943)混合样本的可视化文件，以zip格式打包。\n* 至于预训练和微调权重，您可以使用`tools\u002Fdist_test.sh`对其进行评估，或者通过`tools\u002Fdist_train.sh`并指定`--load_checkpoint`参数来微调预训练模型（加载完整检查点）。请注意，标有`full_`的预训练权重包含预训练模型的全部键，而`backbone_`仅包含编码器权重，可用于下游任务，例如COCO目标检测和ADE20K语义分割。\n\n## 在ImageNet-1K上使用ResNet-50进行自监督预训练与微调\n\n我们在下表中提供了预训练权重来源、预训练epoch数、微调epoch数及协议，以及对应的top-1准确率。\n\n| 方法      |   来源   | 预训练epoch | 微调协议 | 微调top-1 |\n|--------------|:----------:|:--------:|:-----------:|:--------:|\n| PyTorch      |   PyTorch  |    90    |    RSB A3   |   78.8   |\n| [Inpainting](https:\u002F\u002Farxiv.org\u002Fabs\u002F1604.07379)   |  OpenMixup |    70    |    RSB A3   |   78.4   |\n| [Relative-Loc](https:\u002F\u002Farxiv.org\u002Fabs\u002F1505.05192) |  OpenMixup |    70    |    RSB A3   |   77.8   |\n| [Rotation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.07728)     |  OpenMixup |    70    |    RSB A3   |   77.7   |\n| [SimCLR](https:\u002F\u002Farxiv.org\u002Fabs\u002F2002.05709)       |    VISSL   |    100   |    RSB A3   |   78.5   |\n| [MoCoV2](https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.04297)       |  OpenMixup |    100   |    RSB A3   |   78.5   |\n| [BYOL](","2022-11-18T01:05:10",{"id":195,"version":196,"summary_zh":197,"released_at":198},109241,"mixup-inat2018-weights","用于 [iNaturalist-2018](https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.06642) 混合分类基准的权重和日志集合（[下载](https:\u002F\u002Fgithub.com\u002Fvisipedia\u002Finat_comp\u002Ftree\u002Fmaster\u002F2018)，[配置](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Finaturalist2018\u002F)）。您可从 **百度网盘** 下载所有文件：[iNaturalist-2018 (wy2v)](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1P4VeJalFLV0chryjYCfveg)。\n\n* 所有对比方法均采用 ResNet-50 和 ResNeXt-101 (32x4d) 架构，并使用 PyTorch 训练流程训练 100 个 epoch。训练和测试图像尺寸均为 224，中心裁剪比例为 0.85。我们为所有对比方法在 $Beta(\\alpha, \\alpha)$ 中搜索 $\\alpha$。\n* 对于 ResNet 变体，报告最后 5 个训练 epoch 的 top-1 准确率的 **中位数**。\n* 提供了来自 [AutoMix](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.13027) 和 [SAMix](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.15454) 的混合样本可视化文件，以 zip 格式打包。[2022-08-22] 更新了 [AutoMix](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.13027) 和 [SAMix](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.15454) 检查点中的 MixBlock 键。\n* 使用 `tools\u002Fdist_test.sh` 测试预训练权重，或使用带有 `--load_checkpoint` 参数的 `tools\u002Fdist_train.sh` 对预训练模型进行微调。\n\n## iNaturalist-2018 上的混合分类基准\n\n| 主干网络                                                   | ResNet-50 top-1 | ResNeXt-101 top-1 |\n|-------------------------------------------------------------|:---------------:|:-----------------:|\n| 范式                                                      |      62.53      |       66.94       |\n| MixUp [[ICLR'2018](https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.09412)]       |      62.69      |       67.56       |\n| CutMix [[ICCV'2019](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.04899)]      |      63.91      |       69.75       |\n| ManifoldMix [[ICML'2019](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.05236)] |      63.46      |       69.30       |\n| SaliencyMix [[ICLR'2021](https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.01791)] |      64.27      |       70.01       |\n| FMix [[Arixv'2020](https:\u002F\u002Farxiv.org\u002Fabs\u002F2002.12047)]       |      63.71      |       69.46       |\n| PuzzleMix [[ICML'2020](https:\u002F\u002Farxiv.org\u002Fabs\u002F2009.06962)]   |      64.36      |       70.12       |\n| ResizeMix [[Arixv'2020](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.11101)]  |      64.12      |       69.30       |\n| AutoMix [[ECCV'2022](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.13027)]     |      64.73      |       70.49       |\n| SAMix [[Arxiv'2021](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.15454)]      |      64.84      |       70.54       |","2022-08-19T18:12:29",{"id":200,"version":201,"summary_zh":202,"released_at":203},109242,"mixup-inat2017-weights","用于 [iNaturalist-2017](https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.06642) 混合分类基准的权重和日志集合（[下载](https:\u002F\u002Fgithub.com\u002Fvisipedia\u002Finat_comp)，[配置](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Finaturalist2017\u002F)）。您可从 **百度网盘** 下载所有文件：[iNaturalist-2017 (1e7w)](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1GsoXVpIBXPjyFKsCdnmp9Q)。\n\n* 所有对比方法均采用 ResNet-18\u002F50 和 ResNeXt-101 (32×4d) 架构，并使用 PyTorch 训练流程训练 100 个 epoch。训练和测试图像尺寸均为 224，中心裁剪比例为 0.85。我们为所有对比方法在 $Beta(\\alpha, \\alpha)$ 分布中搜索 $\\alpha$。\n* 对于 ResNet 变体，报告最后 5 个训练 epoch 的 top-1 精度的 **中位数**。\n* 提供了来自 [AutoMix](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.13027) 和 [SAMix](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.15454) 的混合样本可视化文件，以 zip 格式打包。[2022-08-22] 更新了 [AutoMix](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.13027) 和 [SAMix](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.15454) 检查点中的 MixBlock 键。\n* 使用 `tools\u002Fdist_test.sh` 测试预训练权重，或使用带有 `--load_checkpoint` 参数的 `tools\u002Fdist_train.sh` 对预训练模型进行微调。\n\n## iNaturalist-2017 上的混合分类基准\n\n| 主干网络   | ResNet-18 top-1 | ResNet-50 top-1 | ResNeXt-101 top-1 |\n|-------------|:---------------:|:---------------:|:-----------------:|\n| Vanilla     |      51.79      |      60.23      |       63.70       |\n| MixUp [[ICLR'2018](https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.09412)]      |      51.40      |      61.22      |       66.27       |\n| CutMix [[ICCV'2019](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.04899)]     |      51.24      |      62.34      |       67.59       |\n| ManifoldMix [[ICML'2019](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.05236)] |      51.83      |      61.47      |       66.08       |\n| SaliencyMix [[ICLR'2021](https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.01791)] |      51.29      |      62.51      |       67.20       |\n| FMix [[Arixv'2020](https:\u002F\u002Farxiv.org\u002Fabs\u002F2002.12047)]       |      52.01      |      61.90      |       66.64       |\n| PuzzleMix [[ICML'2020](https:\u002F\u002Farxiv.org\u002Fabs\u002F2009.06962)]  |        -        |      62.66      |       67.72       |\n| ResizeMix [[Arixv'2020](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.11101)]  |      51.21      |      62.29      |       66.82       |\n| AutoMix [[ECCV'2022](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.13027)]    |      52.84      |      63.08      |       68.03       |\n| SAMix [[Arxiv'2021](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.15454)]      |      53.42      |      63.32      |       68.26       |","2022-08-19T14:01:53",{"id":205,"version":206,"summary_zh":207,"released_at":208},109243,"mixup-place205-weights","用于[Place205](http:\u002F\u002Fplaces2.csail.mit.edu\u002FPAMI_places.pdf)上的Mixup分类基准测试的权重和日志集合（[下载](http:\u002F\u002Fplaces2.csail.mit.edu\u002Findex.html)，[配置](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002Fplace205\u002F)）。您可以从[Baidu Cloud (4m94)](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1ciAYxK6SwR13UNScp0W3bQ)下载所有文件。\n\n* 所有对比方法均采用ResNet-18\u002F50架构，并使用PyTorch训练流程训练100个epoch。训练和测试图像尺寸均为224，中心裁剪比例为0.85。我们为所有对比方法在$Beta(\\alpha, \\alpha)$中搜索$\\alpha$。\n* 对于ResNet变体，报告最后5个训练epoch中top-1准确率的*中位数*。\n* 提供了来自[AutoMix](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.13027)和[SAMix](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.15454)的混合样本可视化文件，以zip格式打包。[2022-08-22] 更新了[AutoMix](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.13027)和[SAMix](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.15454)检查点中的MixBlock键。\n* 可以使用`tools\u002Fdist_test.sh`测试预训练权重，或使用`tools\u002Fdist_train.sh`并指定`--load_checkpoint`对预训练模型进行微调。\n\n## Place205上的Mixup分类基准测试\n\n| 主干网络                                                   | ResNet-18 top-1 | ResNet-50 top-1 |\n|-------------------------------------------------------------|:---------------:|:---------------:|\n| Vanilla                                                     |      59.63      |      63.10      |\n| MixUp [[ICLR'2018](https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.09412)]       |      59.33      |      63.01      |\n| CutMix [[ICCV'2019](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.04899)]      |      59.21      |      63.75      |\n| ManifoldMix [[ICML'2019](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.05236)] |      59.46      |      63.23      |\n| SaliencyMix [[ICLR'2021](https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.01791)] |      59.50      |      63.33      |\n| FMix [[Arixv'2020](https:\u002F\u002Farxiv.org\u002Fabs\u002F2002.12047)]       |      59.51      |      63.63      |\n| PuzzleMix [[ICML'2020](https:\u002F\u002Farxiv.org\u002Fabs\u002F2009.06962)]   |      59.62      |      63.91      |\n| ResizeMix [[Arixv'2020](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.11101)]  |      59.66      |      63.88      |\n| AutoMix [[ECCV'2022](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.13027)]     |      59.74      |      64.06      |\n| SAMix [[Arxiv'2021](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.15454)]      |      59.86      |      64.27      |","2022-08-19T08:16:04",{"id":210,"version":211,"summary_zh":212,"released_at":213},109244,"V0.2.3","#### 亮点\n* 支持 `OpenMixup` 的[在线文档](https:\u002F\u002Fwestlake-ai.github.io\u002Fopenmixup\u002F)（基于 Read the Docs 构建）。\n* 提供 `README` 并更新自监督学习（[链接](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fselfsup\u002F)）和监督学习（[链接](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Ftree\u002Fmain\u002Fconfigs\u002Fclassification\u002F)）方法的配置文件。\n* 新增对对比学习方法（如 [Barlow Twins](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.03230)）以及掩码图像建模（MIM）方法（如 [MAE](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.06377)、[SimMIM](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.09886)、[MaskFeat](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.09133)、[CAE](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.03026)、[A2MIM](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.13943)）的支持。\n* 新增对多种骨干网络（如 [ConvMixer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.09792)、[DenseNet](https:\u002F\u002Farxiv.org\u002Fabs\u002F1608.06993)、[MLPMixer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.01601)、[ResNeSt](https:\u002F\u002Farxiv.org\u002Fabs\u002F2004.08955)、[PoolFormer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.11418)、[UniFormer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.09450)、[VAN](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.09741)）的支持。\n* 新增对一种新的微调方法（[HCR](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.00845)）的支持。\n* 新增对多种 Mixup 数据增强方法（如 [SmoothMix](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPRW_2020\u002Fpapers\u002Fw45\u002FLee_SmoothMix_A_Simple_Yet_Effective_Data_Augmentation_to_Train_Robust_CVPRW_2020_paper.pdf)、[GridMix](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS0031320320303976)）的支持。\n* 新增对更多回归损失函数（如 [Charbonnier loss](https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.01992v1)、[Focal Frequency loss](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2012.12821.pdf)、[Focal L1\u002FL2 loss](https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.09554)、[Balanced L1 loss](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.02701)、[Balanced MSE loss](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.16427)）的支持。\n* 新增对更多回归指标（包括回归误差与相关性）及回归数据集的支持。\n* 新增对来自 [MMDetection](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection) 的多种重加权分类损失函数（如 [Gradient Harmonized loss](https:\u002F\u002Farxiv.org\u002Fabs\u002F1811.05181)、[Varifocal Focal Loss](https:\u002F\u002Farxiv.org\u002Fabs\u002F1811.05181)）的支持。\n* 更新了[模型库](docs\u002Fmodel_zoos)和[精选 Mixup 方法列表](docs\u002Fawesome_mixups)。\n\n### Bug 修复\n* 重构了 `openmixup.models.utils` 的代码结构，并支持更多网络层。\n* 修复了在 [RSB A1\u002FA2](https:\u002F\u002Fgithub.com\u002Frwightman\u002Fpytorch-image-models) 训练设置中，`ResNet` 中使用随机深度规则的 `DropPath` 的 bug。\n* 修复了自监督分类基准测试中的 bug（VisionTransformer 的配置与实现）。\n* 更新了 [INSTALL.md](INSTALL.md)。建议安装 **PyTorch 1.8** 或更高版本以及 mmcv-full，以更好地使用本仓库。由于 **PyTorch 1.8** 的 AdamW 优化器存在 bug，不建议使用该版本对基于 ViT 的方法进行微调。\n* 修复了 RSB A1\u002FA2 中的 `PreciseBNHook`（更新所有 BN 统计信息）和 `RepeatSampler`（设置 sync_random_seed）的相关 bug。\n* 修复了回归指标、MIM 数据集以及基准测试配置中的 bug。请注意，仅 `l1","2022-06-17T19:46:35",{"id":215,"version":216,"summary_zh":217,"released_at":218},109245,"release","## 亮点\n* 支持多种主流骨干网络（ConvNet 和 ViT）、各类图像数据集、流行的 Mixup 方法以及监督学习基准。配置文件已提供并重新整理。\n* 支持在大规模和小规模数据集上运行流行的自监督方法（如 BYOL、MoCo.V3、MAE、SimMIM），并整合了来自 MMSelfSup 的自监督基准。配置文件已提供并重新整理。\n* 提供自监督学习的分析工具，包括 kNN\u002FSVM\u002F线性评估指标以及 t-SNE\u002FUMAP 可视化。\n* 配置使用便捷：通过 `auto_train.py` 快速生成配置，并支持 MMCV 的配置继承机制。\n* 所有方法均支持混合精度训练（NVIDIA Apex 或 MMCV Apex）。\n* 已发布 [模型库](docs\u002Fmodel_zoos) 和 [精选 Mixup 方法列表](docs\u002Fawesome_mixups)。\n\n## 错误修复\n* 完成了代码重构，遵循 MMSelfSup 和 MMClassification 的规范 [#3](https:\u002F\u002Fgithub.com\u002FWestlake-AI\u002Fopenmixup\u002Fissues\u002F3)。\n* 修复了混合精度训练中的溢出问题（监督学习 Mixup 方法中出现 NaN 和 INF）。\n* 按照 MMSelfsup 的标准修复了微调设置（针对 ViT 和 Swin Transformer）。","2022-04-08T16:22:06",{"id":220,"version":221,"summary_zh":222,"released_at":223},109246,"dataset","Provide metafiles (`meta.zip`) for supported datasets in OpenMixup v0.1.3 (update ImageNet-100 for self-supervised learning). Please unzip and place it under `data\u002F` (see readme_data.txt), and download full datasets by yourself. Supported datasets include: [MNIST](http:\u002F\u002Fyann.lecun.com\u002Fexdb\u002Fmnist\u002F), [CIFAR-10\u002F100](https:\u002F\u002Fwww.cs.toronto.edu\u002F~kriz\u002Fcifar.html), [Tiny-ImageNet](https:\u002F\u002Fwww.kaggle.com\u002Fc\u002Ftiny-imagenet), [ImageNet-1k](http:\u002F\u002Fwww.image-net.org\u002Fchallenges\u002FLSVRC\u002F2012\u002F)\u002F[ImageNet-100](https:\u002F\u002Fgithub.com\u002FHobbitLong\u002FCMC\u002Fblob\u002Fmaster\u002Fimagenet100.txt), [Place205,](http:\u002F\u002Fplaces.csail.mit.edu\u002FdownloadData.html) [iNaturalist2017\u002F2018,](https:\u002F\u002Fgithub.com\u002Fvisipedia\u002Finat_comp) [CUB-200-2011,](http:\u002F\u002Fwww.vision.caltech.edu\u002Fvisipedia\u002FCUB-200-2011.html) [FGVC-Aircrafts,](https:\u002F\u002Fwww.robots.ox.ac.uk\u002F~vgg\u002Fdata\u002Ffgvc-aircraft\u002F) [StandordCars.](http:\u002F\u002Fai.stanford.edu\u002F~jkrause\u002Fcars\u002Fcar_dataset.html)\r\n\r\n* [2022-04-12] Update meta.zip for ImageNet-100 in OpenMixup v0.2.0.\r\n* [2022-12-28] Update download links for ImageNet datasets from the [official ImageNet site](https:\u002F\u002Fimage-net.org\u002Fdownload-images.php): [ImageNet-1K (train)](https:\u002F\u002Fimage-net.org\u002Fdata\u002FILSVRC\u002F2012\u002FILSVRC2012_img_train.tar), [ImageNet-1K (val)](https:\u002F\u002Fimage-net.org\u002Fdata\u002FILSVRC\u002F2012\u002FILSVRC2012_img_val.tar), [ImageNet-21K-P (winter21 resized)](https:\u002F\u002Fimage-net.org\u002Fdata\u002Fimagenet21k_resized.tar.gz), [ImageNet-21K-P (winter21 whole)](https:\u002F\u002Fimage-net.org\u002Fdata\u002Fwinter21_whole.tar.gz).\r\n","2022-01-21T15:16:17"]