MiniMax-M2.1
MiniMax-M2.1 是一款面向真实世界开发与智能体应用的最先进开源模型。它致力于打破高性能智能体只能封闭使用的刻板印象,将顶尖的自主任务执行能力开放给社区。
该模型重点解决了复杂场景下的落地难题,显著提升了代码编写的鲁棒性、工具调用能力、指令遵循度以及长程规划水平。无论是自动化多语言软件开发,还是执行繁琐的多步骤办公流程,MiniMax-M2.1 都能提供稳定可靠的支持,帮助开发者构建下一代自主应用程序。
MiniMax-M2.1 特别适合软件开发者、AI 研究人员以及希望集成高级智能体功能的企业用户。其独特的技术亮点在于卓越的多语言处理能力,在相关基准测试中不仅超越了前代版本,更在多语言编程任务上优于 Claude Sonnet 4.5,并逼近 Claude Opus 4.5 的水平。此外,它在多种智能体框架中均表现出极强的泛化能力和稳定性。
目前,MiniMax-M2.1 已通过 Modified-MIT 协议开源,支持本地部署,同时也提供了便捷的 API 服务和在线智能体产品,让顶尖人工智能技术真正触手可及,成为用户手中透明、可控的强大工具。
使用场景
某跨国电商团队急需将核心订单系统从 Python 重构为 Go 语言,以应对高并发场景,同时需保留多语言注释并适配内部复杂的 CLI 部署流程。
没有 MiniMax-M2.1 时
- 跨语言逻辑丢失:通用模型在转换代码时常遗漏边缘情况处理,导致重构后的 Go 代码在高负载下频繁报错,需人工逐行排查。
- 多语言支持薄弱:原代码库中包含大量中文业务注释和文档,旧模型常将其误译为英文或直接丢弃,导致后续维护者无法理解业务背景。
- 长链路执行断裂:面对“代码转换 + 单元测试生成 + 容器脚本编写”这一长流程,传统 Agent 往往在执行到第二步时迷失指令,无法独立完成闭环。
- 工具调用不稳定:在自动调用内部终端工具进行部署验证时,模型常因参数格式错误而失败,开发人员不得不手动介入修正每一步操作。
使用 MiniMax-M2.1 后
- 工程级代码鲁棒性:MiniMax-M2.1 凭借 SWE-bench 验证的顶尖能力,精准还原了复杂的并发锁逻辑,重构代码一次性通过压力测试。
- 原生多语言理解:模型完美保留了所有中文业务注释,并能根据上下文自动生成符合团队规范的多语言开发文档,知识传承零损耗。
- 长程规划不掉线:依托强大的长视界规划能力,MiniMax-M2.1 自主串联起从代码迁移、测试覆盖到 Docker 镜像构建的全流程,无需人工干预。
- 精准的终端控制:在 Terminal-bench 表现优异的加持下,它能准确解析并执行复杂的内部 CLI 命令,自动修复部署脚本报错,实现真正的自动化交付。
MiniMax-M2.1 将原本需要三人协作一周的重构任务,压缩为单人监督下的半天自动作业,真正实现了高质量自主开发的落地。
运行环境要求
- 未说明
未说明(推荐使用 SGLang、vLLM、MLX-LM 等推理框架,暗示需要 GPU 加速,具体显存需求取决于模型参数量及量化方式,文中未明确给出)
未说明

快速开始
认识 MiniMax-M2.1
今天,我们正式将 MiniMax-M2.1 交到开源社区手中。这次发布不仅仅是一次参数更新,更是朝着让顶尖的智能体能力普惠大众迈出的重要一步。
M2.1 的设计初衷,就是打破高性能智能体必须封闭运行的刻板印象。我们针对代码编写、工具使用、指令遵循以及长周期规划等场景进行了深度优化。无论是自动化多语言软件开发,还是执行复杂的多步骤办公流程,MiniMax-M2.1 都能帮助开发者构建下一代自主应用——同时保持完全透明、可控且易于获取。
我们坚信,真正的智能应当触手可及。M2.1 是我们对未来的承诺,也是您手中的一件强大工具。
使用方法
- MiniMax-M2.1 的 API 已在 MiniMax 开放平台上线:https://platform.minimax.io/docs/guides/text-generation
- 基于 MiniMax-M2.1 构建的产品 MiniMax Agent 现已公开可用:https://agent.minimax.io/
- MiniMax-M2.1 的模型权重现已开源,支持本地部署和使用:https://huggingface.co/MiniMaxAI/MiniMax-M2.1
基准测试结果
MiniMax-M2.1 在核心软件工程榜单上较 M2 实现了显著提升。尤其在多语言场景中表现突出,超越了 Claude Sonnet 4.5,并接近 Claude Opus 4.5 的水平。
| 基准测试 | MiniMax-M2.1 | MiniMax-M2 | Claude Sonnet 4.5 | Claude Opus 4.5 | Gemini 3 Pro | GPT-5.2(思考) | DeepSeek V3.2 |
|---|---|---|---|---|---|---|---|
| SWE-bench Verified | 74.0 | 69.4 | 77.2 | 80.9 | 78.0 | 80.0 | 73.1 |
| Multi-SWE-bench | 49.4 | 36.2 | 44.3 | 50.0 | 42.7 | x | 37.4 |
| SWE-bench Multilingual | 72.5 | 56.5 | 68 | 77.5 | 65.0 | 72.0 | 70.2 |
| Terminal-bench 2.0 | 47.9 | 30.0 | 50.0 | 57.8 | 54.2 | 54.0 | 46.4 |
我们还在多种代码智能体框架下对 MiniMax-M2.1 进行了 SWE-bench Verified 测试。结果表明,该模型具有出色的框架泛化能力和稳健的稳定性。
此外,在特定任务基准测试中——包括测试用例生成、代码性能优化、代码审查以及指令遵循等——MiniMax-M2.1 相较于 M2 均有全面改进。在这些专业领域,其表现持续媲美或超越 Claude Sonnet 4.5。
| 基准测试 | MiniMax-M2.1 | MiniMax-M2 | Claude Sonnet 4.5 | Claude Opus 4.5 | Gemini 3 Pro | GPT-5.2(思考) | DeepSeek V3.2 |
|---|---|---|---|---|---|---|---|
| SWE-bench Verified (Droid) | 71.3 | 68.1 | 72.3 | 75.2 | x | x | 67.0 |
| SWE-bench Verified (mini-swe-agent) | 67.0 | 61.0 | 70.6 | 74.4 | 71.8 | 74.2 | 60.0 |
| SWT-bench | 69.3 | 32.8 | 69.5 | 80.2 | 79.7 | 80.7 | 62.0 |
| SWE-Perf | 3.1 | 1.4 | 3.0 | 4.7 | 6.5 | 3.6 | 0.9 |
| SWE-Review | 8.9 | 3.4 | 10.5 | 16.2 | x | x | 6.4 |
| OctoCodingbench | 26.1 | 13.3 | 22.8 | 36.2 | 22.9 | x | 26.0 |
为评估模型从零开始构建完整功能性应用的全栈能力,我们设立了一项全新基准测试:VIBE(面向应用开发执行的视觉与交互式基准测试)。该测试包含五个核心子集:Web、仿真、Android、iOS 和后端。与传统基准不同,VIBE 采用创新的“代理即验证者”(AaaV)模式,能够在真实运行环境中自动评估生成的应用程序的交互逻辑和视觉美感。
MiniMax-M2.1 在 VIBE 总体基准测试中表现出色,平均得分达到 88.6,充分展示了其强大的全栈开发能力。尤其在 VIBE-Web(91.5)和 VIBE-Android(89.7)子集中,表现尤为突出。
| 基准测试 | MiniMax-M2.1 | MiniMax-M2 | Claude Sonnet 4.5 | Claude Opus 4.5 | Gemini 3 Pro |
|---|---|---|---|---|---|
| VIBE(平均) | 88.6 | 67.5 | 85.2 | 90.7 | 82.4 |
| VIBE-Web | 91.5 | 80.4 | 87.3 | 89.1 | 89.5 |
| VIBE-仿真 | 87.1 | 77.0 | 79.1 | 84.0 | 89.2 |
| VIBE-Android | 89.7 | 69.2 | 87.5 | 92.2 | 78.7 |
| VIBE-iOS | 88.0 | 39.5 | 81.2 | 90.0 | 75.8 |
| VIBE-后端 | 86.7 | 67.8 | 90.8 | 98.0 | 78.7 |
MiniMax-M2.1 在长周期工具使用和综合智能指标方面也较 M2 有了稳步提升。
| 基准测试 | MiniMax-M2.1 | MiniMax-M2 | Claude Sonnet 4.5 | Claude Opus 4.5 | Gemini 3 Pro | GPT-5.2(思考) | DeepSeek V3.2 |
|---|---|---|---|---|---|---|---|
| Toolathlon | 43.5 | 16.7 | 38.9 | 43.5 | 36.4 | 41.7 | 35.2 |
| BrowseComp | 47.4 | 44.0 | 19.6 | 37.0 | 37.8 | 65.8 | 51.4 |
| BrowseComp(上下文管理) | 62.0 | 56.9 | 26.1 | 57.8 | 59.2 | 70.0 | 67.6 |
| AIME25 | 83.0 | 78.0 | 88.0 | 91.0 | 96.0 | 98.0 | 92.0 |
| MMLU-Pro | 88.0 | 82.0 | 88.0 | 90.0 | 90.0 | 87.0 | 86.0 |
| GPQA-D | 83.0 | 78.0 | 83.0 | 87.0 | 91.0 | 90.0 | 84.0 |
| HLE 无工具 | 22.2 | 12.5 | 17.3 | 28.4 | 37.2 | 31.4 | 22.2 |
| LCB | 81.0 | 83.0 | 71.0 | 87.0 | 92.0 | 89.0 | 86.0 |
| SciCode | 41.0 | 36.0 | 45.0 | 50.0 | 56.0 | 52.0 | 39.0 |
| IFBench | 70.0 | 72.0 | 57.0 | 58.0 | 70.0 | 75.0 | 61.0 |
| AA-LCR | 62.0 | 61.0 | 66.0 | 74.0 | 71.0 | 73.0 | 65.0 |
| 𝜏²-Bench Telecom | 87.0 | 87.0 | 78.0 | 90.0 | 87.0 | 85.0 | 91.0 |
评估方法说明:
- SWE-bench 已验证:在内部基础设施上使用 Claude Code、Droid 或 mini-swe-agent 作为脚手架进行测试。默认情况下,我们使用了 Claude Code 的指标。当使用 Claude Code 时,会覆盖默认的系统提示词。结果为 4 次运行的平均值。
- Multi-SWE-Bench、SWE-bench 多语言版、SWT-bench 和 SWE-Perf:在内部基础设施上使用 Claude Code 作为脚手架进行测试,并覆盖了默认的系统提示词。结果为 4 次运行的平均值。
- Terminal-bench 2.0:在我们的内部评估框架上使用 Claude Code 进行测试。我们验证了完整数据集并修复了环境问题。去除了超时限制,其他配置与官方设置保持一致。结果为 4 次运行的平均值。
- SWE 审查:基于 SWE 框架构建的内部代码缺陷审查基准测试,涵盖多种语言和场景,评估缺陷召回率和幻觉率。只有当模型准确识别目标缺陷,并确保所有其他报告的发现均有效且无幻觉时,才会被视为“正确”。所有评估均使用 Claude Code 执行,最终结果为每个测试用例四次独立运行的平均值。我们计划很快将此基准测试开源。
- OctoCodingbench:一项专注于复杂开发场景中代码代理长期指令遵循的内部基准测试。它在一个跨越不同技术栈和脚手架框架的动态环境中进行端到端的行为监督。核心目标是评估模型整合并执行“复合指令约束”的能力——包括系统提示词(SP)、用户查询、记忆、工具模式以及
Agents.md、Claude.md和Skill.md等规范。采用严格的“单次违规即失败”评分机制,最终结果为 4 次运行的平均通过率,量化了模型将静态约束转化为精确行为的鲁棒性。我们计划很快将此基准测试开源。- VIBE:一项内部基准测试,利用 Claude Code 作为脚手架自动验证程序的交互逻辑和视觉效果。分数通过包含需求集、容器化部署和动态交互环境的统一流程计算得出。最终结果为 3 次运行的平均值。我们已将此基准测试开源至 VIBE。
- Toolathlon:评估协议与原始论文保持一致。
- BrowseComp:所有分数均使用与 WebExplorer(Liu 等,2025 年)相同的代理框架获得,仅对工具描述进行了微调。我们使用了与 WebExplorer 相同的 103 样本 GAIA 纯文本验证子集。
- BrowseComp(上下文管理):当令牌使用量超过最大上下文窗口的 30% 时,我们会保留首次 AI 回答、最后五次 AI 回答以及工具输出,丢弃其余内容。
- AIME25 ~ 𝜏²-Bench Telecom:源自内部测试,基于 Artificial Analysis Intelligence Index 中引用的评估数据集和方法论。
本地部署指南
从 HuggingFace 仓库下载模型:https://huggingface.co/MiniMaxAI/MiniMax-M2.1
我们建议使用以下推理框架(按字母顺序排列)来部署该模型:
SGLang
我们推荐使用 SGLang 来部署 MiniMax-M2.1。请参阅我们的 SGLang 部署指南。
vLLM
我们推荐使用 vLLM 来部署 MiniMax-M2.1。请参阅我们的 vLLM 部署指南。
Transformers
我们推荐使用 Transformers 来部署 MiniMax-M2.1。请参阅我们的 Transformers 部署指南。
其他推理引擎
推理参数
我们建议使用以下参数以获得最佳性能:temperature=1.0、top_p = 0.95、top_k = 40。默认系统提示词如下:
你是一位乐于助人的助手。你的名字是 MiniMax-M2.1,由 MiniMax 公司打造。
工具调用指南
请参阅我们的 工具调用指南。
联系我们
欢迎通过 model@minimax.io 与我们联系。
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器