mmpretrain
mmpretrain 是 OpenMMLab 推出的开源预训练工具箱与基准测试平台,专为深度学习领域的模型预训练环节打造。在人工智能研发中,获取高质量的预训练模型往往面临流程复杂、算法复现困难以及评估标准不统一等挑战,mmpretrain 正是为了解决这些痛点而生。它提供了一套标准化的框架,支持从数据加载、模型构建、训练策略配置到性能评估的全流程管理,让研究人员能够轻松复现前沿论文算法,并公平地对比不同模型的表现。
这款工具非常适合 AI 研究人员、算法工程师以及希望深入探索大模型技术的开发者使用。无论是学术界需要验证新想法,还是工业界希望快速落地高性能模型,mmpretrain 都能提供强有力的支持。其核心亮点在于拥有庞大的“模型库”(Model Zoo),内置了多种主流架构和经过严格验证的预训练权重,覆盖视觉、多模态等多个领域。同时,它采用模块化设计,代码结构清晰,用户只需通过简单的配置文件即可灵活调整实验参数,极大地降低了预训练任务的技术门槛。借助 mmpretrain,用户可以更高效地打磨基础模型,为下游具体应用奠定坚实基础。
使用场景
某医疗影像初创公司的算法团队正急需利用自研的十万张标注眼底照片,训练一个高精度的疾病筛查模型以通过临床验证。
没有 mmpretrain 时
- 代码重复造轮子:团队成员需手动从零编写数据加载、增强及主流骨干网络(如 ResNet, ViT)的代码,耗费数周时间且容易引入隐蔽 Bug。
- 复现基准困难:想要对比最新论文中的预训练权重效果时,因缺乏统一的模型库和标准评估脚本,复现过程繁琐且结果难以对齐。
- 训练流程割裂:预处理、预训练微调、推理部署各环节使用不同框架或脚本拼接,配置管理混乱,实验记录难以追溯。
- 资源利用率低:由于缺乏针对分布式训练的优化封装,多卡训练时常出现显存溢出或通信瓶颈,导致昂贵的 GPU 资源闲置等待调试。
使用 mmpretrain 后
- 开箱即用模型:直接调用 mmpretrain 内置的数百种标准化骨干网络和预训练权重,将环境搭建与基础代码编写时间从数周缩短至几小时。
- 统一基准评测:利用其自带的 Benchmark 工具一键运行多种算法对比,快速锁定最适合医疗小样本场景的基线模型,确保结果可复现。
- 全流程标准化:通过统一的配置文件管理数据、训练策略及评估指标,实现了从预训练到微调的无缝衔接,实验迭代效率提升三倍。
- 高效分布式支持:依托其优化的分布式训练引擎,轻松实现多机多卡线性加速,大幅缩短了大规模眼底数据的模型收敛时间。
mmpretrain 通过提供标准化的预训练工具箱与基准测试,让算法团队从繁琐的基础设施构建中解放出来,专注于核心业务逻辑的创新与落地。
运行环境要求
- 未说明
需要 NVIDIA GPU (基于 PyTorch 和 cudatoolkit 依赖),示例环境使用 CUDA 11.3
未说明

快速开始
简介
MMPreTrain 是一个基于 PyTorch 的开源预训练工具箱,隶属于 OpenMMLab 项目。
main 分支支持 PyTorch 1.8 及以上版本。
主要特性
- 多种骨干网络和预训练模型
- 丰富的训练策略(监督学习、自监督学习、多模态学习等)
- 训练技巧包
- 大规模训练配置
- 高效且可扩展
- 强大的模型分析与实验工具集
- 多种开箱即用的推理任务。
- 图像分类
- 图像字幕生成
- 视觉问答
- 视觉定位
- 检索(图像到图像、文本到图像、图像到文本)
https://github.com/open-mmlab/mmpretrain/assets/26739999/e4dcd3a2-f895-4d1b-a351-fbc74a04e904
最新动态
🌟 v1.2.0 于 2023年04月01日发布
- 支持 LLaVA 1.5。
- 实现了 RAM,并提供了 Gradio 界面。
🌟 v1.1.0 于 2023年12月10日发布
- 支持 Mini-GPT4 训练,并提供中文模型(基于 Baichuan-7B)
- 支持基于 CLIP 的零样本分类。
🌟 v1.0.0 于 2023年04月07日发布
- 支持更多 多模态 算法的推理,例如 LLaVA、MiniGPT-4、Otter 等。
- 支持约 10 种多模态 数据集!
- 新增 iTPN 和 SparK 自监督学习算法。
- 提供 新配置 和 DeepSpeed/FSDP 结合 FlexibleRunner 的示例。以下是相关文档链接:新配置 和 DeepSpeed/FSDP 结合 FlexibleRunner。
🌟 从 MMClassification 升级至 MMPreTrain
- 整合了来自 MMSelfSup 的自监督学习算法,如 MAE、BEiT 等。
- 支持 RIFormer,一种通过移除 token mixer 而实现的简单但有效的视觉骨干网络。
- 重构了数据集流水线可视化。
- 支持 LeViT、XCiT、ViG、ConvNeXt-V2、EVA、RevViT、EfficientnetV2、CLIP、TinyViT 和 MixMIM 等骨干网络。
此次发布引入了一个全新且灵活的训练与测试引擎,但仍处于开发中。欢迎根据 文档 进行尝试。
同时,存在一些破坏性变更。请查阅 迁移教程。
更多详情及其他版本历史,请参阅 changelog。
安装
以下是快速安装步骤:
conda create -n open-mmlab python=3.8 pytorch==1.10.1 torchvision==0.11.2 cudatoolkit=11.3 -c pytorch -y
conda activate open-mmlab
pip install openmim
git clone https://github.com/open-mmlab/mmpretrain.git
cd mmpretrain
mim install -e .
更多详细的安装和数据集准备信息,请参阅安装文档。
若需支持多模态模型,请通过以下命令安装额外依赖:
mim install -e ".[multimodal]"
用户指南
我们为新用户提供了一系列关于 MMPreTrain 基本使用的教程:
如需更多信息,请参阅我们的文档。
模型动物园
结果和模型可在模型动物园中找到。
贡献
我们感谢所有为改进 MMPreTrain 所做的贡献。请参阅CONTRIBUTING以获取贡献指南。
致谢
MMPreTrain 是一个开源项目,由来自不同院校和公司的研究人员及工程师共同贡献而成。我们感谢所有实现其方法或添加新功能的贡献者,以及提供宝贵反馈的用户。我们希望这个工具箱和基准能够服务于不断壮大的研究社区,为重现实验室现有方法并支持他们自身的学术研究提供灵活的工具包。
引用
如果您在研究中使用了本项目,请考虑引用:
@misc{2023mmpretrain,
title={OpenMMLab预训练工具箱与基准},
author={MMPreTrain贡献者},
howpublished = {\url{https://github.com/open-mmlab/mmpretrain}},
year={2023}
}
许可证
本项目采用Apache 2.0许可证发布。
OpenMMLab中的项目
- MMEngine:OpenMMLab用于训练深度学习模型的基础库。
- MMCV:OpenMMLab用于计算机视觉的基础库。
- MIM:MIM用于安装OpenMMLab的相关软件包。
- MMEval:一个面向多种机器学习框架的统一评估库。
- MMPreTrain:OpenMMLab预训练工具箱及基准。
- MMDetection:OpenMMLab目标检测工具箱及基准。
- MMDetection3D:OpenMMLab新一代通用3D目标检测平台。
- MMRotate:OpenMMLab旋转目标检测工具箱及基准。
- MMyolo:OpenMMLab YOLO系列工具箱及基准。
- MMSegmentation:OpenMMLab语义分割工具箱及基准。
- MMOCR:OpenMMLab文本检测、识别与理解工具箱。
- MMPose:OpenMMLab人体姿态估计工具箱及基准。
- MMHuman3D:OpenMMLab 3D人体参数化模型工具箱及基准。
- MMSelfSup:OpenMMLab自监督学习工具箱及基准。
- MMRazor:OpenMMLab模型压缩工具箱及基准。
- MMFewShot:OpenMMLab小样本学习工具箱及基准。
- MMAction2:OpenMMLab新一代动作理解工具箱及基准。
- MMTracking:OpenMMLab视频感知工具箱及基准。
- MMFlow:OpenMMLab光流计算工具箱及基准。
- MMagic:OpenMMLab Advanced, Generative and Intelligent Creation工具箱。
- MMGeneration:OpenMMLab图像和视频生成模型工具箱。
- MMDeploy:OpenMMLab模型部署框架。
- Playground:一个汇集并展示基于OpenMMLab构建的优秀项目的中心平台。
版本历史
v1.0.12023/07/311.0.02023/07/05v1.0.0rc82023/05/23v1.0.0rc72023/04/07v1.0.0rc52022/12/30v0.25.02022/12/06v1.0.0rc42022/12/06v1.0.0rc32022/11/21v0.24.12022/11/01v1.0.0rc22022/10/12v0.24.02022/09/30v1.0.0rc12022/09/30v1.0.0rc02022/08/31v0.23.22022/07/28v0.23.12022/06/02v0.23.02022/05/01v0.22.12022/04/15v0.22.02022/03/30v0.21.02022/03/04v0.20.12022/02/07常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。





