[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Alibaba-MIIL--ImageNet21K":3,"tool-Alibaba-MIIL--ImageNet21K":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",147882,2,"2026-04-09T11:32:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":74,"owner_location":74,"owner_email":74,"owner_twitter":74,"owner_website":74,"owner_url":75,"languages":76,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":10,"env_os":89,"env_gpu":90,"env_ram":91,"env_deps":92,"category_tags":97,"github_topics":98,"view_count":32,"oss_zip_url":74,"oss_zip_packed_at":74,"status":17,"created_at":107,"updated_at":108,"faqs":109,"releases":150},5851,"Alibaba-MIIL\u002FImageNet21K","ImageNet21K","Official Pytorch Implementation of: \"ImageNet-21K Pretraining for the Masses\"(NeurIPS, 2021) paper","ImageNet21K 是一个基于 PyTorch 的开源项目，旨在让大规模图像预训练变得简单高效。它源自阿里巴巴达摩院发表在 NeurIPS 2021 的研究论文，核心目标是解决开发者长期面临的难题：虽然 ImageNet-21K 数据集比标准的 ImageNet-1K 拥有更丰富的图片和类别，能显著提升模型性能，但因数据复杂、处理困难，往往被忽视或难以利用。\n\n通过引入专门的数据预处理流程（利用 WordNet 层级结构）以及创新的“语义 Softmax\"训练方案，ImageNet21K 成功降低了使用门槛。实验证明，无论是小型移动端模型还是先进的 Vision Transformer (ViT)，经过其预训练后，在图像分类、多标签识别等多种任务上均能获得更优的表现，甚至超越以往的预训练方案。\n\n这套工具非常适合计算机视觉领域的研究人员和算法工程师使用。如果你希望提升模型在下游任务中的准确率，或者正在探索更高效的大规模预训练策略，ImageNet21K 提供了一套可复现、高效率的完整流水线，让你无需从零构建复杂的数据处理逻辑，即可轻松享受海量数据带来的性能红利。","# ImageNet-21K Pretraining for the Masses\n\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fimagenet-21k-pretraining-for-the-masses\u002Fmulti-label-classification-on-ms-coco)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fmulti-label-classification-on-ms-coco?p=imagenet-21k-pretraining-for-the-masses)\n\u003Cbr>\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fimagenet-21k-pretraining-for-the-masses\u002Fmulti-label-classification-on-pascal-voc-2007)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fmulti-label-classification-on-pascal-voc-2007?p=imagenet-21k-pretraining-for-the-masses)\n\u003Cbr>\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fimagenet-21k-pretraining-for-the-masses\u002Fimage-classification-on-cifar-100)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fimage-classification-on-cifar-100?p=imagenet-21k-pretraining-for-the-masses)\n\u003Cbr>\n\n[Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2104.10972v4.pdf) |\n[Pretrained models](MODEL_ZOO.md)\n\nOfficial PyTorch Implementation\n\n> Tal Ridnik, Emanuel Ben-Baruch, Asaf Noy, Lihi Zelnik-Manor\u003Cbr\u002F> DAMO Academy, Alibaba\n> Group\n\n**Abstract**\n\nImageNet-1K serves as the primary dataset for pretraining deep learning models for computer vision tasks. ImageNet-21K dataset, which contains more pictures and classes, is used less frequently for pretraining, mainly due to its complexity, and underestimation of its added value compared to standard ImageNet-1K pretraining.\nThis paper aims to close this gap, and make high-quality efficient pretraining on ImageNet-21K available for everyone.\nVia a dedicated preprocessing stage, utilizing WordNet hierarchies, and a novel training scheme called semantic softmax, we show that different models, including small mobile-oriented models, significantly benefit from ImageNet-21K pretraining on numerous datasets and tasks.\nWe also show that we outperform previous ImageNet-21K pretraining schemes for prominent new models like ViT.\nOur proposed pretraining pipeline is efficient, accessible, and leads to SoTA reproducible results, from a publicly available dataset.\n\n\u003C!--\u003Cbr>-->\n\u003C!--\u003Cbr>-->\n\u003C!--\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-MIIL_ImageNet21K_readme_f2c622f3cbf8.png\" align=\"center\" width=\"450\" height=\"350\">\u003C\u002Ftd>-->\n\n## 10\u002F1\u002F2023 Update \nAdded [tests](https:\u002F\u002Fgithub.com\u002FAlibaba-MIIL\u002FImageNet21K\u002Fblob\u002Fmain\u002Ftests\u002Ftest_semantic_softmax_loss) auto-generated by [CodiumAI](https:\u002F\u002Fwww.codium.ai\u002F)\n\n## 29\u002F11\u002F2021 Update - New article released, offering new classification head with state-of-the-art results\nCheckout our new project, [Ml-Decoder](https:\u002F\u002Fgithub.com\u002FAlibaba-MIIL\u002FML_Decoder), which presents a unified classification head for multi-label, single-label and\nzero-shot tasks. Backbones with ML-Decoder reach SOTA results, while also improving speed-accuracy tradeoff.\n\n\u003Cp align=\"center\">\n \u003Ctable class=\"tg\">\n  \u003Ctr>\n    \u003Ctd class=\"tg-c3ow\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-MIIL_ImageNet21K_readme_fa41000a40e8.png\" align=\"center\" width=\"300\"\">\u003C\u002Ftd>\n    \u003Ctd class=\"tg-c3ow\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-MIIL_ImageNet21K_readme_f5f75a3a091a.png\" align=\"center\" width=\"300\" >\u003C\u002Ftd>\n\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\u003C\u002Fp>\n\n\u003C!--## 05\u002F08\u002F2021 Update - Training From Random Initilization Script Released-->\n\u003C!--We release the following [script](.\u002Ftrain_single_label_from_scratch.py), that reproduces the article results with random initialization, instead of initalizing from ImageNet-1K. The only change is that 140 epochs of training are needed, instead of 80, and we use SGD optimizer with a higher learning rate.-->\n\u003C!--We still recommend initializing your models from standard ImageNet-1K pretraining to reduce training times and save rainforests.-->\n\n\u003C!--Note that we also released a new version of the article in arxiv, with additional interesting ablation tests. For example - comparison to Open Images pretraining, and more-->\n\u003C!--comparisons on non-classification tasks. Thanks to Matan Karklinsky for his help with Inria-holidays dataset.-->\n\n\n## 01\u002F08\u002F2021 Update - \"ImageNet-21K Pretraining for the Masses\" Was Accepted to NeurIPS 2021 !\nWe are very happy to announce that \"ImageNet-21K Pretraining for the Masses\" article was accepted to NeurIPS 2021 (Datasets and Benchmarks [Track](https:\u002F\u002Fnips.cc\u002FConferences\u002F2021\u002FCallForDatasetsBenchmarks)). OpenReview is\navailable [here](https:\u002F\u002Fopenreview.net\u002Fforum?id=Zkj_VcZ6ol&noteId=1oUacUMpIbg).\n\n\u003C!--## 17\u002F05\u002F2021 Update - ImageNet-21K-P is Now Available for Downloading From the Official ImageNet Site-->\n\u003C!--ImageNet-21K-P processed dataset, based on ImageNet-21K winter release, is now available-->\n\u003C!--for easy downloading via the offical [ImageNet site](https:\u002F\u002Fimage-net.org\u002Fdownload-images.php).-->\n\u003C!--See more details on the different versions of ImageNet-21K-P in [here](.\u002Fdataset_preprocessing\u002Fprocessing_instructions.md).-->\n\n\n## Getting Started\n\n### (0) Visualization and Inference Script\nFirst you can play and do inference on dedicated images using the following [script](.\u002Fvisualize_detector.py).\nAn example result:\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-MIIL_ImageNet21K_readme_a499f76b6310.png\" align=\"center\" width=\"500\" >\n\n### (1) Pretrained Models  on ImageNet-21K-P Dataset\n| Backbone  |  ImageNet-21K-P semantic\u003Cbr> top-1 Accuracy \u003Cbr>[%] | ImageNet-1K\u003Cbr> top-1 Accuracy \u003Cbr>[%] | Maximal \u003Cbr> batch size | Maximal \u003Cbr> training speed \u003Cbr>(img\u002Fsec) | Maximal \u003Cbr> inference speed \u003Cbr>(img\u002Fsec) |\n| :------------: | :--------------: | :--------------: | :--------------: | :--------------: | :--------------: |\n[MobilenetV3_large_100](https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fmodels\u002Fmobilenetv3_large_100_miil_21k.pth) | 73.1 | 78.0 | 488 | 1210 | 5980 |\n[OFA_flops_595m_s](https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fmodels\u002Fofa_flops_595m_s_miil_21k.pth) | 75.0 | 81.0 | 288 | 500 | 3240 |\n[ResNet50](https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fmodels\u002Fresnet50_miil_21k.pth) | 75.6 | 82.0 | 320 | 720 | 2760 |\n[TResNet-M](https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fmodels\u002Ftresnet_m_miil_21k.pth) | 76.4 | 83.1 | 520 | 670 | 2970 |\n[TResNet-L (V2)](https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fmodels\u002Ftresnet_l_v2_miil_21k.pth) | 76.7 | 83.9 | 240 | 300 | 1460 |\n[ViT-B-16](https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fmodels\u002Fvit_base_patch16_224_miil_21k.pth) | 77.6 | 84.4 | 160 | 340 | 1140 |\n\nSee [here](MODEL_ZOO.md) for more details.\n\u003Cbr>\nWe highly recommend to start working with ImageNet-21K by testing these weights against standard ImageNet-1K pretraining, and comparing results on your relevant downstream tasks.\nAfter you will see a significant improvement, proceed to pretraining new models.\n\nNote that some of our models, with 21K and 1K pretraining, are also avaialbe via the excellent [timm](https:\u002F\u002Fgithub.com\u002Frwightman\u002Fpytorch-image-models) package:\n```\n21K:\nmodel = timm.create_model('mobilenetv3_large_100_miil_in21k', pretrained=True)\nmodel = timm.create_model('tresnet_m_miil_in21k', pretrained=True)\nmodel = timm.create_model('vit_base_patch16_224_miil_in21k', pretrained=True)\nmodel = timm.create_model('mixer_b16_224_miil_in21k', pretrained=True)\n\n\n1K:\nmodel = timm.create_model('mobilenetv3_large_100_miil', pretrained=True)\nmodel = timm.create_model('tresnet_m', pretrained=True)\nmodel = timm.create_model('vit_base_patch16_224_miil', pretrained=True)\nmodel = timm.create_model('mixer_b16_224_miil', pretrained=True)\n```\nUsing this [link](https:\u002F\u002Fgithub.com\u002Frwightman\u002Fpytorch-image-models\u002Fblob\u002Fmaster\u002Fresults\u002Fresults-imagenet.csv) you can make sure we indeed reach the reported accuracies in the article.\n\n### (2) Obtaining and Processing the Dataset\nSee instructions for obtaining and processing the dataset in [here](.\u002Fdataset_preprocessing\u002Fprocessing_instructions.md).\n\n\n### (3) Training Code\nTo use the training code, first download the relevant ImageNet-21K-P semantic tree file to your local .\u002Fresources\u002F folder:\n- fall11 [semantic tree](https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fresources\u002Ffall11\u002Fimagenet21k_miil_tree.pth)\n- winter21 [semantic tree](https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fresources\u002Fwinter21\u002Fimagenet21k_miil_tree.pth)\n\n\n\nExample of semantic softmax training:\n```\npython train_semantic_softmax.py \\\n--batch_size=4 \\\n--data_path=\u002Fmnt\u002Fdatasets\u002F21k \\\n--model_name=mobilenetv3_large_100 \\\n--model_path=\u002Fmnt\u002Fmodels\u002Fmobilenetv3_large_100.pth \\\n--epochs=80\n```\nFor shortening the training, we initialize the weights from standard ImageNet-1K. Recommended to use ImageNet-1K weights from timm [repo](https:\u002F\u002Fgithub.com\u002Frwightman\u002Fpytorch-image-models).\n\n### (4) Transfer Learning Code\nSee [here](Transfer_learning.md) for reproduction code, that show how miil pretraining not only improves transfer learning results, but also makes MLP models more stable and robust for hyper-parameters selection.\n\n## Additional SoTA results\nThe results in the article are comparative results, with fixed hyper-parameters.\nIn addition, using our pretrained models, and a dedicated training scheme with adjusted hyper-parameters per dataset (resolution, optimizer, learning rate), we were able\nto achieve SoTA results on several computer vision dataset - MS-COCO, Pascal-VOC, Stanford Cars and CIFAR-100.\n\nWe will share our models' checkpoints to validate our scores.\n\n\u003C!--## To be added-->\n\u003C!--- KD training code-->\n\u003C!--- Inference code-->\n\u003C!--- Model weights after transferred to ImageNet-1K-->\n\u003C!--- Downstream training code.-->\n\u003C!--- More-->\n\n## Citation\n```\n@misc{ridnik2021imagenet21k,\n      title={ImageNet-21K Pretraining for the Masses}, \n      author={Tal Ridnik and Emanuel Ben-Baruch and Asaf Noy and Lihi Zelnik-Manor},\n      year={2021},\n      eprint={2104.10972},\n      archivePrefix={arXiv},\n      primaryClass={cs.CV}\n}\n```\n","# 面向大众的ImageNet-21K预训练\n\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fimagenet-21k-pretraining-for-the-masses\u002Fmulti-label-classification-on-ms-coco)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fmulti-label-classification-on-ms-coco?p=imagenet-21k-pretraining-for-the-masses)\n\u003Cbr>\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fimagenet-21k-pretraining-for-the-masses\u002Fmulti-label-classification-on-pascal-voc-2007)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fmulti-label-classification-on-pascal-voc-2007?p=imagenet-21k-pretraining-for-the-masses)\n\u003Cbr>\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fimagenet-21k-pretraining-for-the-masses\u002Fimage-classification-on-cifar-100)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fimage-classification-on-cifar-100?p=imagenet-21k-pretraining-for-the-masses)\n\u003Cbr>\n\n[论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2104.10972v4.pdf) |\n[预训练模型](MODEL_ZOO.md)\n\n官方 PyTorch 实现\n\n> Tal Ridnik, Emanuel Ben-Baruch, Asaf Noy, Lihi Zelnik-Manor\u003Cbr\u002F> 达摩院，阿里巴巴集团\n\n**摘要**\n\nImageNet-1K 是用于计算机视觉任务深度学习模型预训练的主要数据集。而包含更多图片和类别的 ImageNet-21K 数据集，由于其复杂性以及人们对其相较于标准 ImageNet-1K 预训练所带来价值的低估，较少被用于预训练。\n\n本文旨在填补这一空白，使高质量、高效的 ImageNet-21K 预训练能够惠及所有人。通过专门的预处理阶段、利用 WordNet 层次结构，以及一种称为语义 softmax 的新颖训练方案，我们证明了包括小型移动端模型在内的多种模型，在众多数据集和任务上都能显著受益于 ImageNet-21K 预训练。\n\n此外，我们还表明，对于 ViT 等新兴的前沿模型，我们的方法优于以往的 ImageNet-21K 预训练方案。我们提出的预训练流程高效且易于使用，并能基于公开可用的数据集获得可复现的最先进结果。\n\n\u003C!--\u003Cbr>-->\n\u003C!--\u003Cbr>-->\n\u003C!--\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-MIIL_ImageNet21K_readme_f2c622f3cbf8.png\" align=\"center\" width=\"450\" height=\"350\">\u003C\u002Ftd>-->\n\n## 2023年10月1日更新 \n新增由 [CodiumAI](https:\u002F\u002Fwww.codium.ai\u002F) 自动生成的测试用例 [tests](https:\u002F\u002Fgithub.com\u002FAlibaba-MIIL\u002FImageNet21K\u002Fblob\u002Fmain\u002Ftests\u002Ftest_semantic_softmax_loss)\n\n## 2021年11月29日更新 - 新文章发布，提供具有最先进性能的新分类头\n请查看我们的新项目 [Ml-Decoder](https:\u002F\u002Fgithub.com\u002FAlibaba-MIIL\u002FML_Decoder)，它为多标签、单标签及零样本任务提供统一的分类头。搭载 ML-Decoder 的骨干网络不仅达到了 SOTA 水平，还改善了速度与精度之间的权衡。\n\n\u003Cp align=\"center\">\n \u003Ctable class=\"tg\">\n  \u003Ctr>\n    \u003Ctd class=\"tg-c3ow\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-MIIL_ImageNet21K_readme_fa41000a40e8.png\" align=\"center\" width=\"300\"\">\u003C\u002Ftd>\n    \u003Ctd class=\"tg-c3ow\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-MIIL_ImageNet21K_readme_f5f75a3a091a.png\" align=\"center\" width=\"300\" >\u003C\u002Ftd>\n\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\u003C\u002Fp>\n\n\u003C!--## 2021年8月5日更新 - 从随机初始化开始训练的脚本发布-->\n\u003C!--我们发布了以下 [script](.\u002Ftrain_single_label_from_scratch.py)，该脚本通过随机初始化而非从 ImageNet-1K 初始化来复现文章中的结果。唯一的区别是需要进行 140 个 epoch 的训练，而不是 80 个，并且我们使用了学习率更高的 SGD 优化器。-->\n\u003C!--尽管如此，我们仍然建议从标准 ImageNet-1K 预训练开始，以缩短训练时间并保护雨林。-->\n\n\u003C!--请注意，我们在 arXiv 上也发布了文章的新版本，其中包含了更多有趣的消融实验，例如与 Open Images 预训练的对比，以及在非分类任务上的更多比较。感谢 Matan Karklinsky 在 Inria-holidays 数据集方面提供的帮助。-->\n\n\n## 2021年8月1日更新 - “面向大众的 ImageNet-21K 预训练”已被 NeurIPS 2021 接受！\n我们非常高兴地宣布，“面向大众的 ImageNet-21K 预训练”一文已被 NeurIPS 2021 接受（数据集与基准测试 [赛道](https:\u002F\u002Fnips.cc\u002FConferences\u002F2021\u002FCallForDatasetsBenchmarks)）。OpenReview 页面可在 [这里](https:\u002F\u002Fopenreview.net\u002Fforum?id=Zkj_VcZ6ol&noteId=1oUacUMpIbg) 查看。\n\n\u003C!--## 2021年5月17日更新 - ImageNet-21K-P 现已可在官方 ImageNet 网站下载-->\n\u003C!--基于 ImageNet-21K 冬季发布的 ImageNet-21K-P 处理后数据集，现已可通过官方 [ImageNet 网站](https:\u002F\u002Fimage-net.org\u002Fdownload-images.php) 轻松下载。-->\n\u003C!--有关 ImageNet-21K-P 不同版本的更多详情，请参阅 [此处](.\u002Fdataset_preprocessing\u002Fprocessing_instructions.md)。-->\n\n\n## 入门指南\n\n### (0) 可视化与推理脚本\n首先，您可以使用以下 [script](.\u002Fvisualize_detector.py) 对特定图像进行玩耍和推理。示例如下：\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-MIIL_ImageNet21K_readme_a499f76b6310.png\" align=\"center\" width=\"500\" >\n\n### (1) ImageNet-21K-P 数据集上的预训练模型\n| 主干网络 | ImageNet-21K-P 语义\u003Cbr> top-1 准确率 \u003Cbr>[%] | ImageNet-1K\u003Cbr> top-1 准确率 \u003Cbr>[%] | 最大\u003Cbr> 批量大小 | 最大\u003Cbr> 训练速度 \u003Cbr>(img\u002Fsec) | 最大\u003Cbr> 推理速度 \u003Cbr>(img\u002Fsec) |\n| :------------: | :--------------: | :--------------: | :--------------: | :--------------: | :--------------: |\n[MobilenetV3_large_100](https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fmodels\u002Fmobilenetv3_large_100_miil_21k.pth) | 73.1 | 78.0 | 488 | 1210 | 5980 |\n[OFA_flops_595m_s](https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fmodels\u002Fofa_flops_595m_s_miil_21k.pth) | 75.0 | 81.0 | 288 | 500 | 3240 |\n[ResNet50](https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fmodels\u002Fresnet50_miil_21k.pth) | 75.6 | 82.0 | 320 | 720 | 2760 |\n[TResNet-M](https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fmodels\u002Ftresnet_m_miil_21k.pth) | 76.4 | 83.1 | 520 | 670 | 2970 |\n[TResNet-L (V2)](https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fmodels\u002Ftresnet_l_v2_miil_21k.pth) | 76.7 | 83.9 | 240 | 300 | 1460 |\n[ViT-B-16](https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fmodels\u002Fvit_base_patch16_224_miil_21k.pth) | 77.6 | 84.4 | 160 | 340 | 1140 |\n\n更多详情请参见 [这里](MODEL_ZOO.md)。\n\u003Cbr>\n我们强烈建议从测试这些权重与标准 ImageNet-1K 预训练的对比开始，并在您相关的下游任务上比较结果。当您看到显著提升后，再继续进行新模型的预训练。\n\n请注意，我们的一些同时具备 21K 和 1K 预训练的模型也可以通过优秀的 [timm](https:\u002F\u002Fgithub.com\u002Frwightman\u002Fpytorch-image-models) 包获得：\n```\n21K:\nmodel = timm.create_model('mobilenetv3_large_100_miil_in21k', pretrained=True)\nmodel = timm.create_model('tresnet_m_miil_in21k', pretrained=True)\nmodel = timm.create_model('vit_base_patch16_224_miil_in21k', pretrained=True)\nmodel = timm.create_model('mixer_b16_224_miil_in21k', pretrained=True)\n\n\n1K:\nmodel = timm.create_model('mobilenetv3_large_100_miil', pretrained=True)\nmodel = timm.create_model('tresnet_m', pretrained=True)\nmodel = timm.create_model('vit_base_patch16_224_miil', pretrained=True)\nmodel = timm.create_model('mixer_b16_224_miil', pretrained=True)\n```\n您可以使用此 [链接](https:\u002F\u002Fgithub.com\u002Frwightman\u002Fpytorch-image-models\u002Fblob\u002Fmaster\u002Fresults\u002Fresults-imagenet.csv) 来确认我们确实达到了文章中报告的准确率。\n\n### (2) 数据集的获取与处理\n有关数据集的获取和处理说明，请参阅 [这里](.\u002Fdataset_preprocessing\u002Fprocessing_instructions.md)。\n\n\n### (3) 训练代码\n要使用训练代码，首先将相关的 ImageNet-21K-P 语义树文件下载到本地 .\u002Fresources\u002F 文件夹中：\n- fall11 [语义树](https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fresources\u002Ffall11\u002Fimagenet21k_miil_tree.pth)\n- winter21 [语义树](https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fresources\u002Fwinter21\u002Fimagenet21k_miil_tree.pth)\n\n\n\n语义 softmax 训练示例：\n```\npython train_semantic_softmax.py \\\n--batch_size=4 \\\n--data_path=\u002Fmnt\u002Fdatasets\u002F21k \\\n--model_name=mobilenetv3_large_100 \\\n--model_path=\u002Fmnt\u002Fmodels\u002Fmobilenetv3_large_100.pth \\\n--epochs=80\n```\n为了缩短训练时间，我们从标准 ImageNet-1K 的权重进行初始化。建议使用 timm [仓库](https:\u002F\u002Fgithub.com\u002Frwightman\u002Fpytorch-image-models) 中的 ImageNet-1K 权重。\n\n### (4) 迁移学习代码\n有关复现代码，请参阅 [这里](Transfer_learning.md)，其中展示了 miil 预训练不仅能够提升迁移学习的效果，还能使 MLP 模型在超参数选择方面更加稳定和鲁棒。\n\n## 其他 SoTA 结果\n文章中的结果是在固定超参数下的对比结果。此外，借助我们的预训练模型以及针对不同数据集（分辨率、优化器、学习率）调整超参数的专用训练方案，我们在多个计算机视觉数据集上——MS-COCO、Pascal-VOC、Stanford Cars 和 CIFAR-100——都取得了 SoTA 水平的结果。\n\n我们将分享模型的检查点以验证我们的成绩。\n\n\u003C!--## 待添加-->\n\u003C!--- KD 训练代码-->\n\u003C!--- 推理代码-->\n\u003C!--- 转移到 ImageNet-1K 后的模型权重-->\n\u003C!--- 下游训练代码。-->\n\u003C!--- 更多-->\n\n## 引用\n```\n@misc{ridnik2021imagenet21k,\n      title={ImageNet-21K Pretraining for the Masses}, \n      author={Tal Ridnik and Emanuel Ben-Baruch and Asaf Noy and Lihi Zelnik-Manor},\n      year={2021},\n      eprint={2104.10972},\n      archivePrefix={arXiv},\n      primaryClass={cs.CV}\n}\n```","# ImageNet-21K 快速上手指南\n\nImageNet-21K 是一个包含 21,000 个类别的大规模图像数据集，旨在为计算机视觉任务提供高质量的预训练模型。本项目提供了基于 PyTorch 的官方实现，通过语义 Softmax（Semantic Softmax）等创新技术，显著提升了模型在多种下游任务中的表现。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux (推荐 Ubuntu 18.04+)\n- **Python**: 3.7 或更高版本\n- **GPU**: 支持 CUDA 的 NVIDIA 显卡（建议显存 16GB+ 以运行大模型）\n\n### 前置依赖\n确保已安装以下核心库：\n- PyTorch (1.7+)\n- torchvision\n- timm (用于加载预训练模型)\n\n安装基础依赖命令：\n```bash\npip install torch torchvision timm\n```\n\n## 安装步骤\n\n本项目主要作为代码库和权重资源使用，无需复杂的编译安装。只需克隆仓库并准备数据即可。\n\n1. **克隆项目代码**\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FAlibaba-MIIL\u002FImageNet21K.git\ncd ImageNet21K\n```\n\n2. **下载预训练权重（可选）**\n   如果仅需使用预训练模型进行推理或迁移学习，可直接通过 `timm` 库自动下载，或手动从提供的链接下载权重文件至本地。\n\n## 基本使用\n\n### 方式一：直接使用预训练模型（推荐）\n\n最快捷的方式是通过 `timm` 库直接加载已在 ImageNet-21K 上预训练好的模型。支持 MobileNetV3, ResNet50, ViT 等主流骨干网络。\n\n```python\nimport timm\n\n# 加载 ImageNet-21K 预训练模型 (示例：MobileNetV3)\nmodel = timm.create_model('mobilenetv3_large_100_miil_in21k', pretrained=True)\n\n# 加载 ImageNet-1K 预训练模型 (对比用)\n# model = timm.create_model('mobilenetv3_large_100_miil', pretrained=True)\n\nmodel.eval()\n# 接下来可进行推理或微调\n```\n\n支持的模型列表包括：\n- `mobilenetv3_large_100_miil_in21k`\n- `tresnet_m_miil_in21k`\n- `vit_base_patch16_224_miil_in21k`\n- `mixer_b16_224_miil_in21k`\n\n### 方式二：运行推理与可视化\n\n使用项目自带的脚本对图片进行推理测试：\n\n```bash\npython visualize_detector.py\n```\n\n### 方式三：从头开始训练（语义 Softmax）\n\n若需使用 ImageNet-21K 数据集重新训练模型，需先完成以下步骤：\n\n1. **准备数据集**\n   参考 [dataset_preprocessing\u002Fprocessing_instructions.md](.\u002Fdataset_preprocessing\u002Fprocessing_instructions.md) 获取并处理 ImageNet-21K-P 数据集。\n\n2. **下载语义树文件**\n   将对应的语义树文件下载到本地 `.\u002Fresources\u002F` 文件夹：\n   - fall11 版本: [imagenet21k_miil_tree.pth](https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fresources\u002Ffall11\u002Fimagenet21k_miil_tree.pth)\n   - winter21 版本: [imagenet21k_miil_tree.pth](https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fresources\u002Fwinter21\u002Fimagenet21k_miil_tree.pth)\n\n3. **执行训练**\n   以下示例展示如何使用语义 Softmax 进行训练（基于 ImageNet-1K 权重初始化以加速收敛）：\n\n```bash\npython train_semantic_softmax.py \\\n--batch_size=4 \\\n--data_path=\u002Fmnt\u002Fdatasets\u002F21k \\\n--model_name=mobilenetv3_large_100 \\\n--model_path=\u002Fmnt\u002Fmodels\u002Fmobilenetv3_large_100.pth \\\n--epochs=80\n```\n\n> **提示**：建议先在您的下游任务上对比测试预训练权重与标准 ImageNet-1K 权重的效果，确认提升后再进行大规模预训练。","某电商初创公司的算法团队正致力于开发一款能精准识别长尾商品（如特定品种的多肉植物或稀有手工艺品）的移动端图像分类应用，但面临标注数据稀缺的挑战。\n\n### 没有 ImageNet21K 时\n- **泛化能力不足**：仅使用标准的 ImageNet-1K 预训练模型，因类别覆盖有限，模型难以理解小众商品的视觉特征，导致对新品类识别率极低。\n- **小模型性能瓶颈**：为了适配手机端的算力限制，团队被迫使用轻量级网络，但在小数据集上微调时极易过拟合，准确率无法达到上线标准。\n- **研发成本高昂**：为了弥补预训练知识的缺失，团队不得不花费数周时间人工收集并标注数万张特定领域的图片，严重拖慢了产品迭代进度。\n- **冷启动困难**：面对零样本或少样本的新增商品类别，传统方案几乎无法进行有效推理，必须重新训练整个模型。\n\n### 使用 ImageNet21K 后\n- **语义理解增强**：借助 ImageNet21K 涵盖的 2.1 万个类别及 WordNet 层级结构，模型学会了更通用的视觉语义，即使未见过的稀有商品也能通过相似特征被准确归类。\n- **小模型效能释放**：利用其提出的 Semantic Softmax 训练方案，轻量级移动端模型在迁移学习中表现出惊人的鲁棒性，在极少标注数据下即可达到高精度。\n- **开发效率飞跃**：团队直接加载官方提供的高质量预训练权重，省去了繁琐的数据清洗和大规模预训练过程，将新功能的研发周期从数周缩短至几天。\n- **灵活适应场景**：得益于更丰富的预训练知识，模型在面对多标签分类（如商品同时属于“装饰”和“礼品”）及零样本任务时，无需额外调整架构即可表现优异。\n\nImageNet21K 通过提供大规模、高多样性的预训练权重，彻底打破了小数据场景下的模型性能天花板，让资源有限的团队也能轻松构建工业级的视觉应用。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-MIIL_ImageNet21K_f2c622f3.png","Alibaba-MIIL","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FAlibaba-MIIL_34ffdd9c.png",null,"https:\u002F\u002Fgithub.com\u002FAlibaba-MIIL",[77,81],{"name":78,"color":79,"percentage":80},"Python","#3572A5",96.6,{"name":82,"color":83,"percentage":84},"Shell","#89e051",3.4,780,72,"2026-03-09T06:37:17","MIT","未说明","需要 NVIDIA GPU（基于 PyTorch 实现及大规模训练场景推断），具体型号和显存需求取决于所选模型（如 ViT-B-16 最大批处理量为 160，MobileNetV3 为 488），CUDA 版本未说明","未说明（建议根据模型大小和批处理量配置充足内存）",{"notes":93,"python":89,"dependencies":94},"该项目是 ImageNet-21K 预训练的官方 PyTorch 实现。核心依赖包括 PyTorch 和 timm 库。训练前需下载特定的语义树文件（semantic tree）和处理后的数据集（ImageNet-21K-P）。支持从 ImageNet-1K 权重初始化以加速收敛。提供了多种预训练模型（如 ResNet50, ViT-B-16, MobileNetV3 等）的下载链接。",[95,96],"torch","timm",[15,14,35],[99,100,101,102,103,104,105,106],"imagenet21k","pretraining","downstream","semantic-softmax","single-label","multi-label-classification","vision-transformer","mixer","2026-03-27T02:49:30.150509","2026-04-09T20:51:45.559126",[110,115,120,125,130,135,140,145],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},26534,"如何在 ImageNet-21K-P 验证集上复现论文中声称的准确率（例如 ResNet50 达到 75.6%）？","如果您直接使用 Fall11 预训练的模型在 Winter21 分割数据上测试，准确率可能会较低（约 69%）。建议的基线方案是：使用 Fall11 预训练的 ResNet50 模型初始化权重，然后在 Winter21 数据集上进行 5-10 个 epoch 的微调（finetune）。这样可以复现或接近预期的性能提升。","https:\u002F\u002Fgithub.com\u002FAlibaba-MIIL\u002FImageNet21K\u002Fissues\u002F13",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},26535,"运行 visualize_detector.py 时遇到 HTTP 403 Forbidden 错误无法下载元数据，如何解决？","这通常是因为脚本中的下载链接已过时。维护者已更新 README 文件中的链接，但可能未同步更新到脚本代码中。请检查并手动将脚本中的元数据下载 URL 替换为 README 中提供的最新链接，或者拉取最新的代码版本后重试。","https:\u002F\u002Fgithub.com\u002FAlibaba-MIIL\u002FImageNet21K\u002Fissues\u002F8",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},26536,"如何获取图像的标签（labeling）和类别信息以构建语义树？","您需要下载元数据文件（imagenet21k_miil_tree.pth）并使用提供的脚本来处理。参考 visualize_detector.py 中的代码逻辑：首先下载 .pth 文件，然后实例化 ImageNet21kSemanticSoftmax 类。确保脚本中包含 `import os` 以避免文件名未定义的错误。具体代码片段如下：\n```python\nurl, filename = (\"https:\u002F\u002Fmiil-public-eu.oss-eu-central-1.aliyuncs.com\u002Fmodel-zoo\u002FImageNet_21K_P\u002Fresources\u002Ffall11\u002Fimagenet21k_miil_tree.pth\", \"imagenet21k_miil_tree.pth\")\nif not os.path.isfile(filename):\n    urllib.request.urlretrieve(url, filename)\nargs.tree_path = filename\nsemantic_softmax_processor = ImageNet21kSemanticSoftmax(args)\n```","https:\u002F\u002Fgithub.com\u002FAlibaba-MIIL\u002FImageNet21K\u002Fissues\u002F42",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},26537,"在使用多卡（DDP）训练 train_single_label.py 时遇到学习率调度器警告或保存问题，该如何处理？","关于警告 `UserWarning: Detected call of lr_scheduler.step() before optimizer.step()`，这不会影响最终的训练结果，可以忽略。但在 PyTorch 1.1.0 及更高版本中，最佳实践是将调用顺序改为先执行 `optimizer.step()` 再执行 `lr_scheduler.step()`。对于 DDP 模式下的模型保存，请确保遵循标准的 DDP 保存逻辑（通常只保存主进程的模型状态）。","https:\u002F\u002Fgithub.com\u002FAlibaba-MIIL\u002FImageNet21K\u002Fissues\u002F3",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},26538,"预处理 winter21_whole.tar.gz 数据集时出现大量“general fail”报错，这正常吗？会影响训练吗？","这是正常现象。这些报错信息通常是针对旧的 Fall11 数据集的，而您正在处理的是 Winter21 数据集，因此这些特定的失败信息对您没有影响，也不会影响最终的训练结果。您可以放心继续处理。","https:\u002F\u002Fgithub.com\u002FAlibaba-MIIL\u002FImageNet21K\u002Fissues\u002F25",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},26539,"如何将 ImageNet-21K 预训练的 ViT 模型迁移到 CIFAR-100 等下游任务以获得最佳效果？","确保数据集目录结构正确（包含 train 和 test 文件夹，每个类别一个子文件夹）。在微调时，建议使用以下关键参数配置：使用 AdamW 优化器，初始学习率设为 2e-4 或 4e-4，权重衰减（weight-decay）设为 1e-2 以获得更高精度（如 93%+），开启混合精度训练（--amp），使用余弦退火调度器（--sched='cosine'），并设置适当的预热步数（--warmup-epochs=3）和数据增强（如 --reprob=0.5, --smoothing=0.1）。","https:\u002F\u002Fgithub.com\u002FAlibaba-MIIL\u002FImageNet21K\u002Fissues\u002F40",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},26540,"为什么在基于 ImageNet-21K 预训练时还需要加载 ImageNet-1K 的预训练模型？","这主要是为了确保训练集和验证集的数据不重叠（disjoint）。虽然 ImageNet-1K 的训练数据和验证集是分开的，但这并不意味着整个大数据库中不存在重复数据。加载已知划分的模型有助于更好地管理数据泄露风险，并确保评估的公正性。","https:\u002F\u002Fgithub.com\u002FAlibaba-MIIL\u002FImageNet21K\u002Fissues\u002F26",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},26541,"运行 visualize_detector.py 时报错 Unknown model (vit_base_patch16_224_miil_in21k)，如何使用自己的权重？","该错误可能是因为模型维度不匹配或初始化方式不对。请检查 logits 的形状（print(logits.shape)），并确保在推理前正确对齐维度（例如使用 `softmax(logits[0])`）。一旦您在迁移学习任务中正确初始化了模型，它就是一个标准的 timm 模型，可以参考 timm 官方文档进行通用推理。","https:\u002F\u002Fgithub.com\u002FAlibaba-MIIL\u002FImageNet21K\u002Fissues\u002F6",[]]