[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-MiniMax-AI--MiniMax-M2":3,"tool-MiniMax-AI--MiniMax-M2":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":79,"stars":84,"forks":85,"last_commit_at":86,"license":87,"difficulty_score":10,"env_os":88,"env_gpu":88,"env_ram":88,"env_deps":89,"category_tags":95,"github_topics":96,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":99,"updated_at":100,"faqs":101,"releases":132},515,"MiniMax-AI\u002FMiniMax-M2","MiniMax-M2","MiniMax-M2, a model built for Max coding & agentic workflows.","MiniMax-M2 是一款专为高效代码开发与智能体工作流打造的开源模型。它旨在解决传统大模型在部署成本与响应速度上的瓶颈，同时不牺牲核心能力。MiniMax-M2 采用先进的混合专家（MoE）架构，拥有 2300 亿总参数但仅激活 100 亿，实现了速度与性能的完美平衡。\n\n在功能上，MiniMax-M2 表现出色。它不仅支持多文件编辑、代码运行修复等端到端开发流程，还能在终端、IDE 及 CI 环境中稳定工作。作为智能体，它能够规划并执行跨 Shell、浏览器和代码运行器的复杂任务链，具备优秀的长程规划和错误恢复能力。根据权威基准测试，MiniMax-M2 的综合得分在全球开源模型中排名第一。\n\nMiniMax-M2 特别适合需要构建自动化编程助手、AI 智能体或追求高性价比推理服务的开发者与研究团队。无论是进行日常编码辅助还是搭建复杂的代理系统，MiniMax-M2 都能提供低延迟、低成本且高效的解决方案，让智能应用落地变得更加轻松。","\u003Cdiv align=\"center\">\n  \u003Cpicture>\n    \u003Csource srcset=\"figures\u002FMiniMaxLogo-Dark.png\" media=\"(prefers-color-scheme: dark)\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMiniMax-AI_MiniMax-M2_readme_b01673e3edf8.png\" width=\"60%\" alt=\"MiniMax\">\n    \u003C\u002Fsource>\n  \u003C\u002Fpicture>\n\u003C\u002Fdiv>\n\u003Chr>\n\n\u003Cdiv align=\"center\" style=\"line-height: 1.4; font-size:16px; margin-top: 30px;\">\n  Join Our \n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-AI.github.io\u002Fblob\u002Fmain\u002Fimages\u002Fwechat-qrcode.jpeg\" target=\"_blank\" style=\"font-size:17px; margin: 2px;\">\n    💬 WeChat\n  \u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Fdiscord.com\u002Finvite\u002Fhvvt8hAye6\" target=\"_blank\" style=\"font-size:17px; margin: 2px;\">\n    🧩 Discord\n  \u003C\u002Fa> \n  community.\n\u003C\u002Fdiv>\n\u003Cdiv align=\"center\" style=\"line-height: 1.2; font-size:16px;\">\n  \u003Ca href=\"https:\u002F\u002Fagent.minimax.io\u002F\" target=\"_blank\" style=\"display: inline-block; margin: 4px;\">\n    MiniMax Agent\n  \u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Fplatform.minimax.io\u002Fdocs\u002Fguides\u002Ftext-generation\" target=\"_blank\" style=\"display: inline-block; margin: 4px;\">\n    ⚡️ API (Now Free for a limited time!)\n  \u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-MCP\" style=\"display: inline-block; margin: 4px;\">\n    MCP\n  \u003C\u002Fa> |\n  \u003Ca href=\"https:\u002F\u002Fwww.minimax.io\" target=\"_blank\" style=\"display: inline-block; margin: 4px;\">\n    MiniMax Website\n  \u003C\u002Fa> \n\u003C\u002Fdiv>\n\u003Cdiv align=\"center\" style=\"lline-height: 1.2; font-size:16px; margin-bottom: 30px;\">\n  \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\" target=\"_blank\" style=\"margin: 2px;\">\n    🤗 Hugging Face \n  \u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-M2\" target=\"_blank\" style=\"margin: 2px;\">\n    🐙 GitHub\n  \u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Fwww.modelscope.cn\u002Forganization\u002FMiniMax\" target=\"_blank\" style=\"margin: 2px;\">\n    🤖️ ModelScope\n  \u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-M2\u002Fblob\u002Fmain\u002FLICENSE\" style=\"margin: 2px;\">\n    📄 License: MIT\n  \u003C\u002Fa>\n\u003C\u002Fdiv>\n\n# Meet MiniMax-M2\n\nToday, we release and open source MiniMax-M2, a **Mini** model built for **Max** coding & agentic workflows.\n\n**MiniMax-M2** redefines efficiency for agents. It's a compact, fast, and cost-effective MoE model (230 billion total parameters with 10 billion active parameters) built for elite performance in coding and agentic tasks, all while maintaining powerful general intelligence. With just 10 billion activated parameters, MiniMax-M2 provides the sophisticated, end-to-end tool use performance expected from today's leading models, but in a streamlined form factor that makes deployment and scaling easier than ever.\n\n\u003Cp align=\"center\">\n  \u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMiniMax-AI_MiniMax-M2_readme_bfefb20ae40c.png\">\n\u003C\u002Fp>\n\n---\n\n## Highlights\n\n**Superior Intelligence**. According to benchmarks from Artificial Analysis, MiniMax-M2 demonstrates highly competitive general intelligence across mathematics, science, instruction following, coding, and agentic tool use. **Its composite score ranks #1 among open-source models globally**.\n\n**Advanced Coding**. Engineered for end-to-end developer workflows, MiniMax-M2 excels at multi-file edits, coding-run-fix loops, and test-validated repairs. Strong performance on Terminal-Bench and (Multi-)SWE-Bench–style tasks demonstrates practical effectiveness in terminals, IDEs, and CI across languages.\n\n**Agent Performance**. MiniMax-M2 plans and executes complex, long-horizon toolchains across shell, browser, retrieval, and code runners. In BrowseComp-style evaluations, it consistently locates hard-to-surface sources, maintains evidence traceable, and gracefully recovers from flaky steps.\n\n**Efficient Design**. With 10 billion activated parameters (230 billion in total), MiniMax-M2 delivers lower latency, lower cost, and higher throughput for interactive agents and batched sampling—perfectly aligned with the shift toward highly deployable models that still shine on coding and agentic tasks.\n\n---\n\n## Coding & Agentic Benchmarks\n\nThese comprehensive evaluations test real-world end-to-end coding and agentic tool use: editing real repos, executing commands, browsing the web, and delivering functional solutions. Performance on this suite correlates with day-to-day developer experience in terminals, IDEs, and CI.\n\n| **Benchmark** | **MiniMax-M2** | **Claude Sonnet 4** | **Claude Sonnet 4.5** | **Gemini 2.5 Pro** | **GPT-5 (thinking)** | **GLM-4.6** | **Kimi K2 0905** | **DeepSeek-V3.2** |\n|-----------|------------|-----------------|-------------------|-----------------|------------------|---------|---------------|----------------|\n| **SWE-bench Verified** | 69.4 | 72.7 * | 77.2 * | 63.8 * | 74.9 * | 68 * | 69.2 * | 67.8 * |\n| **Multi-SWE-Bench** | 36.2 | 35.7 * | 44.3 | \u002F | \u002F | 30 | 33.5 | 30.6 |\n| **SWE-bench Multilingual** | 56.5 | 56.9 * | 68 | \u002F | \u002F | 53.8 | 55.9 * | 57.9 * |\n| **Terminal-Bench** | 46.3 | 36.4 * | 50 * | 25.3 * | 43.8 * | 40.5 * | 44.5 * | 37.7 * |\n| **ArtifactsBench** | 66.8 | 57.3* | 61.5 | 57.7* | 73* | 59.8 | 54.2 | 55.8 |\n| **BrowseComp** | 44 | 12.2 | 19.6 | 9.9 | 54.9* | 45.1* | 14.1 | 40.1* |\n| **BrowseComp-zh** | 48.5 | 29.1 | 40.8 | 32.2 | 65 | 49.5 | 28.8 | 47.9* |\n| **GAIA (text only)** | 75.7 | 68.3 | 71.2 | 60.2 | 76.4 | 71.9 | 60.2 | 63.5 |\n| **xbench-DeepSearch** | 72 | 64.6 | 66 | 56 | 77.8 | 70 | 61 | 71 |\n| **HLE (w\u002F tools)** | 31.8 | 20.3 | 24.5 | 28.4 * | 35.2 * | 30.4 * | 26.9 * | 27.2 * |\n| **τ²-Bench** | 77.2 | 65.5* | 84.7* | 59.2 | 80.1* | 75.9* | 70.3 | 66.7 |\n| **FinSearchComp-global** | 65.5 | 42 | 60.8 | 42.6* | 63.9* | 29.2 | 29.5* | 26.2 |\n| **AgentCompany** | 36 | 37 | 41 | 39.3* | \u002F | 35 | 30 | 34 |\n\n>Notes: Data points marked with an asterisk (*) are taken directly from the model's official tech report or blog. All other metrics were obtained using the evaluation methods described below.\n>- SWE-bench Verified:  We use the same scaffold as [R2E-Gym](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2504.07164) (Jain et al. 2025) on top of OpenHands to test with agents on SWE tasks. All scores are validated on our internal infrastructure with 128k context length, 100 max steps, and no test-time scaling. All git-related content is removed to ensure agent sees only the code at the issue point. \n>- Multi-SWE-Bench & SWE-bench Multilingual: All scores are averaged across 8 runs using the [claude-code](https:\u002F\u002Fgithub.com\u002Fanthropics\u002Fclaude-code) CLI (300 max steps) as the evaluation scaffold.\n>- Terminal-Bench: All scores are evaluated with the official claude-code from the original [Terminal-Bench](https:\u002F\u002Fwww.tbench.ai\u002F) repository(commit `94bf692`), averaged over 8 runs to report the mean pass rate.\n>- ArtifactsBench: All Scores are computed by averaging three runs with the official implementation of [ArtifactsBench](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FArtifactsBenchmark), using the stable Gemini-2.5-Pro as the judge model.\n>- BrowseComp & BrowseComp-zh & GAIA (text only) & xbench-DeepSearch: All scores reported use the same agent framework as [WebExplorer](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.06501) (Liu et al. 2025), with minor tools description adjustment. We use the 103-sample text-only GAIA validation subset following [WebExplorer](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.06501) (Liu et al. 2025).\n>- HLE (w\u002F tools): All reported scores are obtained using search tools and a Python tool. The search tools employ the same agent framework as [WebExplorer](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.06501) (Liu et al. 2025), and the Python tool runs in a Jupyter environment. We use the text-only HLE subset.\n>- τ²-Bench: All scores reported use \"extended thinking with tool use\", and employ GPT-4.1 as the user simulator.\n>- FinSearchComp-global: Official results are reported for GPT-5-Thinking, Gemini 2.5 Pro, and Kimi-K2. Other models are evaluated using the open-source [FinSearchComp](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.13160) (Hu et al. 2025) framework using both  search and Python tools, launched simultaneously for consistency.\n>- AgentCompany: All scores reported use OpenHands 0.42 agent framework.\n\n---\n\n## Intelligence Benchmarks\n\nWe align with **Artificial Analysis**, which aggregates challenging benchmarks using a consistent methodology to reflect a model’s broader **intelligence profile** across math, science, instruction following, coding, and agentic tool use.\n\n| **Metric (AA)** | **MiniMax-M2** | **Claude Sonnet 4** | **Claude Sonnet 4.5** | **Gemini 2.5 Pro** | **GPT-5 (thinking)** | **GLM-4.6** | **Kimi K2 0905** | **DeepSeek-V3.2** |\n|-----------------|----------------|---------------------|------------------------|---------------------|----------------------|-------------|------------------|-------------------|\n| AIME25 | 78 | 74 | 88 | 88 | 94 | 86 | 57 | 88 |\n| MMLU-Pro | 82 | 84 | 88 | 86 | 87 | 83 | 82 | 85 |\n| GPQA-Diamond | 78 | 78 | 83 | 84 | 85 | 78 | 77 | 80 |\n| HLE (w\u002Fo tools) | 12.5 | 9.6 | 17.3 | 21.1 | 26.5 | 13.3 | 6.3 | 13.8 |\n| LiveCodeBench (LCB) | 83 | 66 | 71 | 80 | 85 | 70 | 61 | 79 |\n| SciCode | 36 | 40 | 45 | 43 | 43 | 38 | 31 | 38 |\n| IFBench | 72 | 55 | 57 | 49 | 73 | 43 | 42 | 54 |\n| AA-LCR | 61 | 65 | 66 | 66 | 76 | 54 | 52 | 69 |\n| τ²-Bench-Telecom | 87 | 65 | 78 | 54 | 85 | 71 | 73 | 34 |\n| Terminal-Bench-Hard | 24 | 30 | 33 | 25 | 31 | 23 | 23 | 29 |\n| **AA Intelligence** | 61 | 57 | 63 | 60 | 69 | 56 | 50 | 57 |\n\n>AA: All scores of MiniMax-M2 aligned with Artificial Analysis Intelligence Benchmarking Methodology (https:\u002F\u002Fartificialanalysis.ai\u002Fmethodology\u002Fintelligence-benchmarking). All scores of other models reported from https:\u002F\u002Fartificialanalysis.ai\u002F.\n\n---\n\n## Why activation size matters\n\nBy maintaining activations around **10B** , the plan → act → verify loop in the agentic workflow is streamlined, improving responsiveness and reducing compute overhead:\n\n- **Faster feedback cycles** in compile-run-test and browse-retrieve-cite chains.\n\n- **More concurrent runs** on the same budget for regression suites and multi-seed explorations.\n\n- **Simpler capacity planning** with smaller per-request memory and steadier tail latency.\n\nIn short: **10B activations = responsive agent loops + better unit economics**.\n\n## At a glance\n\nIf you need frontier-style coding and agents without frontier-scale costs, **MiniMax-M2** hits the sweet spot: fast inference speeds, robust tool-use capabilities, and a deployment-friendly footprint.\n\nWe look forward to your feedback and to collaborating with developers and researchers to bring the future of intelligent collaboration one step closer.\n\n## How to Use\n\n- Our product **MiniMax Agent**, built on MiniMax-M2, is now **publicly available and free** for a limited time: https:\u002F\u002Fagent.minimax.io\u002F\n\n- The MiniMax-M2 API is now live on the **MiniMax Open Platform** and is **free** for a limited time: https:\u002F\u002Fplatform.minimax.io\u002Fdocs\u002Fguides\u002Ftext-generation\n\n- The MiniMax-M2 model weights are now **open-source**, allowing for local deployment and use: https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2. \n\n## Local Deployment Guide\n\nDownload the model from HuggingFace repository: https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2. We recommend using the following inference frameworks (listed alphabetically) to serve the model:\n\n### SGLang\n\nWe recommend using [SGLang](https:\u002F\u002Fdocs.sglang.ai\u002F) to serve MiniMax-M2. SGLang provides solid day-0 support for MiniMax-M2 model. Please refer to our [SGLang Deployment Guide](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2\u002Fblob\u002Fmain\u002Fdocs\u002Fsglang_deploy_guide.md) for more details, and thanks so much for our collaboration with the SGLang team.\n\n### vLLM\n\nWe recommend using [vLLM](https:\u002F\u002Fdocs.vllm.ai\u002Fen\u002Fstable\u002F) to serve MiniMax-M2. vLLM provides efficient day-0 support of MiniMax-M2 model, check https:\u002F\u002Fdocs.vllm.ai\u002Fprojects\u002Frecipes\u002Fen\u002Flatest\u002FMiniMax\u002FMiniMax-M2.html for latest deployment guide. We also provide our [vLLM Deployment Guide](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2\u002Fblob\u002Fmain\u002Fdocs\u002Fvllm_deploy_guide.md).\n\n### MLX\n\nWe recommend using [MLX-LM](https:\u002F\u002Fgithub.com\u002Fml-explore\u002Fmlx-lm) to serve MiniMax-M2.  Please refer to our [MLX Deployment Guide](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2\u002Fblob\u002Fmain\u002Fdocs\u002Fmlx_deploy_guide.md) for more details.\n\n### Inference Parameters\nWe recommend using the following parameters for best performance: `temperature=1.0`, `top_p = 0.95`, `top_k = 40`.\n\nIMPORTANT: MiniMax-M2 is an interleaved thinking model. Therefore, when using it, it is important to retain the thinking content from the assistant's turns within the historical messages. In the model's output content, we use the `\u003Cthink>...\u003C\u002Fthink>` format to wrap the assistant's thinking content. When using the model, you must ensure that the historical content is passed back in its original format. Do not remove the `\u003Cthink>...\u003C\u002Fthink>` part, otherwise, the model's performance will be negatively affected.\n\n## Tool Calling Guide\n\nPlease refer to our [Tool Calling Guide](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2\u002Fblob\u002Fmain\u002Fdocs\u002Ftool_calling_guide.md).\n\n\n\n# Community Showcases\n\n> The projects below are built and maintained by the community\u002Fpartners. They are not official MiniMax products, and results may vary.\n\n- **AnyCoder** — a web IDE–style coding assistant Space on Hugging Face, **uses MiniMax-M2 as the default model**: https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fakhaliq\u002Fanycoder  \n  *Maintainer:* @akhaliq (Hugging Face)\n\n\n# Contact Us\n\nContact us at [model@minimax.io](mailto:model@minimax.io) | [WeChat](https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-AI.github.io\u002Fblob\u002Fmain\u002Fimages\u002Fwechat-qrcode.jpeg).","\u003Cdiv align=\"center\">\n  \u003Cpicture>\n    \u003Csource srcset=\"figures\u002FMiniMaxLogo-Dark.png\" media=\"(prefers-color-scheme: dark)\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMiniMax-AI_MiniMax-M2_readme_b01673e3edf8.png\" width=\"60%\" alt=\"MiniMax\">\n    \u003C\u002Fsource>\n  \u003C\u002Fpicture>\n\u003C\u002Fdiv>\n\u003Chr>\n\n\u003Cdiv align=\"center\" style=\"line-height: 1.4; font-size:16px; margin-top: 30px;\">\n  Join Our \n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-AI.github.io\u002Fblob\u002Fmain\u002Fimages\u002Fwechat-qrcode.jpeg\" target=\"_blank\" style=\"font-size:17px; margin: 2px;\">\n    💬 微信\n  \u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Fdiscord.com\u002Finvite\u002Fhvvt8hAye6\" target=\"_blank\" style=\"font-size:17px; margin: 2px;\">\n    🧩 Discord\n  \u003C\u002Fa> \n  社区。\n\u003C\u002Fdiv>\n\u003Cdiv align=\"center\" style=\"line-height: 1.2; font-size:16px;\">\n  \u003Ca href=\"https:\u002F\u002Fagent.minimax.io\u002F\" target=\"_blank\" style=\"display: inline-block; margin: 4px;\">\n    MiniMax Agent\n  \u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Fplatform.minimax.io\u002Fdocs\u002Fguides\u002Ftext-generation\" target=\"_blank\" style=\"display: inline-block; margin: 4px;\">\n    ⚡️ API（限时免费！）\n  \u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-MCP\" style=\"display: inline-block; margin: 4px;\">\n    MCP\n  \u003C\u002Fa> |\n  \u003Ca href=\"https:\u002F\u002Fwww.minimax.io\" target=\"_blank\" style=\"display: inline-block; margin: 4px;\">\n    MiniMax 官网\n  \u003C\u002Fa> \n\u003C\u002Fdiv>\n\u003Cdiv align=\"center\" style=\"lline-height: 1.2; font-size:16px; margin-bottom: 30px;\">\n  \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\" target=\"_blank\" style=\"margin: 2px;\">\n    🤗 Hugging Face \n  \u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-M2\" target=\"_blank\" style=\"margin: 2px;\">\n    🐙 GitHub\n  \u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Fwww.modelscope.cn\u002Forganization\u002FMiniMax\" target=\"_blank\" style=\"margin: 2px;\">\n    🤖️ ModelScope\n  \u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-M2\u002Fblob\u002Fmain\u002FLICENSE\" style=\"margin: 2px;\">\n    📄 许可证：MIT\n  \u003C\u002Fa>\n\u003C\u002Fdiv>\n\n# 认识 MiniMax-M2\n\n今天，我们发布并开源了 MiniMax-M2，这是一款专为**最大化**代码与智能体（Agent）工作流而打造的**微型**模型。\n\n**MiniMax-M2** 重新定义了智能体的效率。它是一个紧凑、快速且高性价比的 **MoE 模型（Mixture of Experts，混合专家模型）**（总共 2300 亿参数，激活 100 亿参数），专为在代码和智能体任务中实现精英级性能而打造，同时保持强大的通用智能。仅通过 100 亿激活参数，MiniMax-M2 提供了当今领先模型所期望的复杂端到端工具使用性能，但采用了更精简的形态，使得部署和扩展比以往任何时候都更容易。\n\n\u003Cp align=\"center\">\n  \u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMiniMax-AI_MiniMax-M2_readme_bfefb20ae40c.png\">\n\u003C\u002Fp>\n\n---\n\n## 亮点\n\n**卓越的智能**。根据 Artificial Analysis 的基准测试，MiniMax-M2 在数学、科学、指令遵循、编码和智能体工具使用方面展示了极具竞争力的通用智能。**其综合得分在全球开源模型中排名第一**。\n\n**先进的编码能力**。专为端到端开发者工作流而设计，MiniMax-M2 在多文件编辑、编码 - 运行 - 修复循环以及测试验证修复方面表现出色。在 Terminal-Bench 和 (Multi-)SWE-Bench 风格任务上的强劲表现，证明了其在跨语言的终端、IDE 和 CI 中的实际有效性。\n\n**智能体性能**。MiniMax-M2 能够在 Shell、浏览器、检索和代码执行器上规划和执行复杂的长周期工具链。在 BrowseComp 风格评估中，它能持续定位难以发现的源，保持证据可追溯，并能优雅地从不稳定步骤中恢复。\n\n**高效设计**。拥有 100 亿激活参数（总计 2300 亿），MiniMax-M2 为交互式智能体和批量采样提供了更低的延迟、更低的成本和更高的吞吐量——完美契合向高度可部署模型的转变，同时仍能在代码和智能体任务中脱颖而出。\n\n## 编码与智能体基准测试\n\n这些全面的评估测试了现实世界中的端到端编码和智能体工具使用：编辑真实仓库、执行命令、浏览网页以及交付功能性解决方案。该套件的绩效表现与开发者在终端、IDE 和 CI 中的日常体验密切相关。\n\n| **基准测试** | **MiniMax-M2** | **Claude Sonnet 4** | **Claude Sonnet 4.5** | **Gemini 2.5 Pro** | **GPT-5 (thinking)** | **GLM-4.6** | **Kimi K2 0905** | **DeepSeek-V3.2** |\n|-----------|------------|-----------------|-------------------|-----------------|------------------|---------|---------------|----------------|\n| **SWE-bench Verified** | 69.4 | 72.7 * | 77.2 * | 63.8 * | 74.9 * | 68 * | 69.2 * | 67.8 * |\n| **Multi-SWE-Bench** | 36.2 | 35.7 * | 44.3 | \u002F | \u002F | 30 | 33.5 | 30.6 |\n| **SWE-bench Multilingual** | 56.5 | 56.9 * | 68 | \u002F | \u002F | 53.8 | 55.9 * | 57.9 * |\n| **Terminal-Bench** | 46.3 | 36.4 * | 50 * | 25.3 * | 43.8 * | 40.5 * | 44.5 * | 37.7 * |\n| **ArtifactsBench** | 66.8 | 57.3* | 61.5 | 57.7* | 73* | 59.8 | 54.2 | 55.8 |\n| **BrowseComp** | 44 | 12.2 | 19.6 | 9.9 | 54.9* | 45.1* | 14.1 | 40.1* |\n| **BrowseComp-zh** | 48.5 | 29.1 | 40.8 | 32.2 | 65 | 49.5 | 28.8 | 47.9* |\n| **GAIA (text only)** | 75.7 | 68.3 | 71.2 | 60.2 | 76.4 | 71.9 | 60.2 | 63.5 |\n| **xbench-DeepSearch** | 72 | 64.6 | 66 | 56 | 77.8 | 70 | 61 | 71 |\n| **HLE (w\u002F tools)** | 31.8 | 20.3 | 24.5 | 28.4 * | 35.2 * | 30.4 * | 26.9 * | 27.2 * |\n| **τ²-Bench** | 77.2 | 65.5* | 84.7* | 59.2 | 80.1* | 75.9* | 70.3 | 66.7 |\n| **FinSearchComp-global** | 65.5 | 42 | 60.8 | 42.6* | 63.9* | 29.2 | 29.5* | 26.2 |\n| **AgentCompany** | 36 | 37 | 41 | 39.3* | \u002F | 35 | 30 | 34 |\n\n> 注：带星号 (*) 的数据点直接取自模型的官方技术报告或博客。所有其他指标均使用下文描述的评估方法获得。\n> - SWE-bench Verified：我们在 OpenHands 之上使用与 [R2E-Gym](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2504.07164) (Jain et al. 2025) 相同的框架，针对 SWE 任务测试智能体。所有分数均在内部基础设施上验证，上下文长度为 128k，最大步数为 100，且无测试时扩展。所有与 git 相关的内容均被移除，以确保智能体仅看到问题点的代码。 \n> - Multi-SWE-Bench & SWE-bench Multilingual：所有分数是使用 [claude-code](https:\u002F\u002Fgithub.com\u002Fanthropics\u002Fclaude-code) CLI（最大 300 步）作为评估框架，在 8 次运行中取平均值获得的。\n> - Terminal-Bench：所有分数均使用来自原始 [Terminal-Bench](https:\u002F\u002Fwww.tbench.ai\u002F) 仓库（commit `94bf692`）的官方 claude-code 进行评估，并在 8 次运行中取平均值以报告平均通过率。\n> - ArtifactsBench：所有分数是使用 [ArtifactsBench](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FArtifactsBenchmark) 的官方实现，通过三次运行取平均值计算得出，并使用稳定的 Gemini-2.5-Pro 作为裁判模型。\n> - BrowseComp & BrowseComp-zh & GAIA (text only) & xbench-DeepSearch：所有报告的分数均使用与 [WebExplorer](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.06501) (Liu et al. 2025) 相同的智能体框架，并进行了轻微的工具描述调整。我们使用了 [WebExplorer](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.06501) (Liu et al. 2025) 的 103 样本纯文本 GAIA 验证子集。\n> - HLE (w\u002F tools)：所有报告的分数均使用搜索工具和 Python 工具获得。搜索工具采用与 [WebExplorer](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.06501) (Liu et al. 2025) 相同的智能体框架，Python 工具在 Jupyter 环境中运行。我们使用了纯文本 HLE 子集。\n> - τ²-Bench：所有报告的分数均采用“带有工具使用的扩展思维”，并使用 GPT-4.1 作为用户模拟器。\n> - FinSearchComp-global：GPT-5-Thinking、Gemini 2.5 Pro 和 Kimi-K2 的报告了官方结果。其他模型使用开源 [FinSearchComp](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.13160) (Hu et al. 2025) 框架进行评估，同时使用搜索和 Python 工具，启动时间保持一致。\n> - AgentCompany：所有报告的分数均使用 OpenHands 0.42 智能体框架。\n\n---\n\n## 智能基准测试\n\n我们与 **Artificial Analysis** 保持一致，后者聚合了具有挑战性的基准测试，采用一致的方法论来反映模型在数学、科学、指令遵循、编码和智能体工具使用方面的更广泛 **智能概况**。\n\n| **指标 (AA)** | **MiniMax-M2** | **Claude Sonnet 4** | **Claude Sonnet 4.5** | **Gemini 2.5 Pro** | **GPT-5 (thinking)** | **GLM-4.6** | **Kimi K2 0905** | **DeepSeek-V3.2** |\n|-----------------|----------------|---------------------|------------------------|---------------------|----------------------|-------------|------------------|-------------------|\n| AIME25 | 78 | 74 | 88 | 88 | 94 | 86 | 57 | 88 |\n| MMLU-Pro | 82 | 84 | 88 | 86 | 87 | 83 | 82 | 85 |\n| GPQA-Diamond | 78 | 78 | 83 | 84 | 85 | 78 | 77 | 80 |\n| HLE (w\u002Fo tools) | 12.5 | 9.6 | 17.3 | 21.1 | 26.5 | 13.3 | 6.3 | 13.8 |\n| LiveCodeBench (LCB) | 83 | 66 | 71 | 80 | 85 | 70 | 61 | 79 |\n| SciCode | 36 | 40 | 45 | 43 | 43 | 38 | 31 | 38 |\n| IFBench | 72 | 55 | 57 | 49 | 73 | 43 | 42 | 54 |\n| AA-LCR | 61 | 65 | 66 | 66 | 76 | 54 | 52 | 69 |\n| τ²-Bench-Telecom | 87 | 65 | 78 | 54 | 85 | 71 | 73 | 34 |\n| Terminal-Bench-Hard | 24 | 30 | 33 | 25 | 31 | 23 | 23 | 29 |\n| **AA Intelligence** | 61 | 57 | 63 | 60 | 69 | 56 | 50 | 57 |\n\n> AA：MiniMax-M2 的所有分数均与 Artificial Analysis 智能基准测试方法论对齐 (https:\u002F\u002Fartificialanalysis.ai\u002Fmethodology\u002Fintelligence-benchmarking)。其他模型的所有分数均来自 https:\u002F\u002Fartificialanalysis.ai\u002F。\n\n---\n\n## 为什么激活大小很重要\n\n通过将激活值保持在 **10B** 左右，智能体工作流中的计划 → 执行 → 验证循环得以简化，提高了响应速度并降低了计算开销：\n\n- **更快的反馈周期**，适用于编译 - 运行 - 测试和浏览 - 检索 - 引用链。\n\n- **更多的并发运行**，在相同预算下支持回归套件和多种子探索。\n\n- **更简单的容量规划**，具有更小的每请求内存和更稳定的尾部延迟。\n\n简而言之：**10B 激活值 = 响应式智能体循环 + 更优的单位经济模型**。\n\n## 概览\n\n如果您需要前沿风格的编码和智能体，但无需前沿规模的成本，**MiniMax-M2** 正好处于最佳平衡点：快速的推理速度、强大的工具使用能力以及易于部署的占用空间。\n\n我们期待您的反馈，并期待与开发者和研究人员合作，将智能协作的未来再推进一步。\n\n## 如何使用\n\n- 我们的基于 MiniMax-M2 构建的产品 **MiniMax Agent** 现已 **公开可用且限时免费**：https:\u002F\u002Fagent.minimax.io\u002F\n\n- MiniMax-M2 API 现已在 **MiniMax 开放平台** 上线，并 **限时免费**：https:\u002F\u002Fplatform.minimax.io\u002Fdocs\u002Fguides\u002Ftext-generation\n\n- MiniMax-M2 模型权重现已 **开源**，支持本地部署和使用：https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2.\n\n## 本地部署指南\n\n从 HuggingFace 仓库下载模型：https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2。我们建议使用以下推理框架（按字母顺序排列）来部署该模型：\n\n### SGLang\n\n我们建议使用 [SGLang](https:\u002F\u002Fdocs.sglang.ai\u002F) 来部署 MiniMax-M2。SGLang 为 MiniMax-M2 模型提供了坚实的 Day-0 支持。有关更多详细信息，请参阅我们的 [SGLang 部署指南](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2\u002Fblob\u002Fmain\u002Fdocs\u002Fsglang_deploy_guide.md)，非常感谢我们与 SGLang 团队的协作。\n\n### vLLM\n\n我们建议使用 [vLLM](https:\u002F\u002Fdocs.vllm.ai\u002Fen\u002Fstable\u002F) 来部署 MiniMax-M2。vLLM 为 MiniMax-M2 模型提供高效的 Day-0 支持，请查看 https:\u002F\u002Fdocs.vllm.ai\u002Fprojects\u002Frecipes\u002Fen\u002Flatest\u002FMiniMax\u002FMiniMax-M2.html 获取最新部署指南。我们也提供了我们的 [vLLM 部署指南](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2\u002Fblob\u002Fmain\u002Fdocs\u002Fvllm_deploy_guide.md)。\n\n### MLX\n\n我们建议使用 [MLX-LM](https:\u002F\u002Fgithub.com\u002Fml-explore\u002Fmlx-lm) 来部署 MiniMax-M2。有关更多详细信息，请参阅我们的 [MLX 部署指南](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2\u002Fblob\u002Fmain\u002Fdocs\u002Fmlx_deploy_guide.md)。\n\n### 推理参数\n为了获得最佳性能，我们建议使用以下参数：`temperature=1.0`, `top_p = 0.95`, `top_k = 40`。\n\n重要提示：MiniMax-M2 是一个交错思考模型。因此，在使用时，重要的是在历史消息中保留助手回合的思考内容。在模型的输出内容中，我们使用 `ynchroneg>...ost switching>` 格式来包裹助手的思考内容。使用模型时，您必须确保历史内容以其原始格式传回。请勿移除 `ynchroneg>...ost switching>` 部分，否则模型的性能将受到负面影响。\n\n## 工具调用指南\n\n请参阅我们的 [工具调用指南](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2\u002Fblob\u002Fmain\u002Fdocs\u002Ftool_calling_guide.md)。\n\n\n\n# 社区展示\n\n> 以下项目由社区\u002F合作伙伴构建和维护。它们不是官方的 MiniMax 产品，结果可能有所不同。\n\n- **AnyCoder** — Hugging Face 上的一个 Web IDE 风格编码助手 Space，**默认使用 MiniMax-M2 作为模型**: https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fakhaliq\u002Fanycoder  \n  *维护者:* @akhaliq (Hugging Face)\n\n\n# 联系我们\n\n请通过 [model@minimax.io](mailto:model@minimax.io) | [微信](https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-AI.github.io\u002Fblob\u002Fmain\u002Fimages\u002Fwechat-qrcode.jpeg) 与我们联系。","# MiniMax-M2 快速上手指南\n\nMiniMax-M2 是一款专为编码和智能体（Agentic）工作流设计的 MoE 模型（230B 总参数，10B 激活参数），在代码生成、工具调用及通用智能方面表现卓越。本指南将帮助您快速完成本地部署或 API 调用。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux \u002F macOS \u002F Windows (WSL)\n*   **Python**: 版本 >= 3.9\n*   **硬件**: 建议配备 NVIDIA GPU (显存根据量化方案而定，FP8 或 FP16 需较大显存)\n*   **网络**: 访问 HuggingFace 或 ModelScope 下载模型\n\n## 安装步骤\n\n### 1. 获取模型权重\n\n您可以从 HuggingFace 或国内加速平台 ModelScope 下载模型。\n\n**方式 A：使用 ModelScope (推荐国内用户)**\n```bash\n# 安装 modelscope 库\npip install modelscope\n\n# 下载模型到本地目录\nfrom modelscope import snapshot_download\nsnapshot_download('MiniMaxAI\u002FMiniMax-M2', cache_dir='.\u002Fmodels')\n```\n\n**方式 B：使用 HuggingFace**\n```bash\n# 安装 huggingface_hub\npip install huggingface-hub\n\n# 下载模型\nhuggingface-cli download MiniMaxAI\u002FMiniMax-M2 --local-dir .\u002Fmodels\n```\n\n### 2. 安装推理框架\n\nMiniMax-M2 支持多种主流推理引擎，推荐使用 **vLLM** 或 **SGLang**。\n\n**安装 vLLM**\n```bash\npip install vllm\n```\n\n**安装 SGLang**\n```bash\npip install sglang\n```\n\n## 基本使用\n\n### 方案一：本地部署推理服务\n\n以 vLLM 为例，启动 API 服务器：\n\n```bash\npython -m vllm.entrypoints.api_server \\\n    --model .\u002Fmodels\u002FMiniMax-M2 \\\n    --port 8000\n```\n\n启动后，即可通过 HTTP 请求与模型交互。\n\n### 方案二：使用官方 API (免费限时)\n\n如果您希望零配置立即体验，可直接使用 MiniMax 开放平台的 API：\n\n1.  访问 [MiniMax Open Platform](https:\u002F\u002Fplatform.minimax.io\u002Fdocs\u002Fguides\u002Ftext-generation) 获取 API Key。\n2.  参考文档中的代码示例进行调用。\n\n### 方案三：使用 MiniMax Agent\n\nMiniMax 官方推出的基于 M2 的 Agent 产品已上线：\n\n*   访问地址：[MiniMax Agent](https:\u002F\u002Fagent.minimax.io\u002F)\n*   当前处于免费公测阶段，适合快速验证智能体工作流。\n\n> **注意**: 具体推理参数（如温度、Top-P 等）建议参考各推理框架的官方文档以获得最佳性能。","某电商后端工程师需要紧急修复订单服务中因第三方依赖库升级导致的兼容性问题，涉及跨模块代码修改、终端命令执行及自动化测试验证。\n\n### 没有 MiniMax-M2 时\n- 手动梳理跨模块代码依赖关系耗时费力，极易遗漏关键关联文件的修改。\n- 终端报错信息晦涩，需频繁切换浏览器查文档与本地 IDE，上下文中断严重。\n- 缺乏自动化闭环，每次修复后需人工编写测试用例并手动部署验证环境。\n- 面对复杂的历史遗留代码，难以快速理解整体架构逻辑，试错成本高。\n\n### 使用 MiniMax-M2 后\n- MiniMax-M2 能精准定位多文件间的逻辑冲突，一次性完成跨模块的代码重构与修复。\n- 内置智能代理可直接在终端执行命令并解读报错，自动规划下一步调试策略。\n- 自主联网检索最新技术社区方案，结合项目上下文生成针对性的兼容性补丁。\n- 支持端到端代码运行与测试验证，自动发现潜在回归问题，确保修复安全可靠。\n\nMiniMax-M2 通过高效的编码与代理能力，将原本数小时的故障排查工作压缩至分钟级，极大释放了开发生产力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMiniMax-AI_MiniMax-M2_bfefb20a.png","MiniMax-AI","MiniMax","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FMiniMax-AI_89eac755.jpg","Intelligence with Everyone",null,"model@minimax.io","MiniMax_AI","https:\u002F\u002Fwww.minimax.io","https:\u002F\u002Fgithub.com\u002FMiniMax-AI",2540,201,"2026-04-05T07:17:24","NOASSERTION","未说明",{"notes":90,"python":88,"dependencies":91},"模型采用 MoE 架构（230B 总参数，10B 激活参数），旨在降低延迟与成本。支持本地部署，需从 HuggingFace 获取权重。推荐通过 SGLang、vLLM 或 MLX-LM 框架进行推理服务，具体部署指南请查阅相关链接。",[92,93,94],"SGLang","vLLM","MLX-LM",[26,13],[97,98],"large-language-models","llm","2026-03-27T02:49:30.150509","2026-04-06T05:15:35.756862",[102,107,112,117,122,127],{"id":103,"question_zh":104,"answer_zh":105,"source_url":106},2067,"如何复现 BrowseComp 和 HLE 的评测结果？搜索代理框架是否开源？","目前并没有一个完整的开源框架，核心在于使用那两个关键工具。建议使用标准的多轮工具调用格式（参考官方 Function Call 文档）。WebExplorer 的具体实现可参考 https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002Fminimax_search 仓库。","https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-M2\u002Fissues\u002F4",{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},2068,"evalscope 评估 live_code_bench 精度偏低，如何配置修复？","需要修改代码和配置：1. vllm 启动时设置 --max-model-len 191999；2. 修改 extract_utils.py 中的代码提取逻辑（使用正则匹配代码块）；3. 确保 evalscope 代码执行 patch 与官方 LiveCodeBench 一致（参考 testing_util.py）。","https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-M2\u002Fissues\u002F23",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},2069,"账户余额充足但仍提示“Provider minimax is in cooldown”怎么办？","首先检查是否使用了正确的 API Key 类型（如区分 sk-api 和 sk-cp）。如果是 model_not_found 或所有 profiles 不可用，可能是服务端限流或模型状态问题，建议查看详细日志确认具体错误原因。","https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-M2\u002Fissues\u002F75",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},2070,"如何禁用 MiniMax 模型的思考（Thinking）过程？","目前版本暂时不支持关闭思考模式。官方表示现阶段更关注最终输出结果，因此对非思考模式的优化较少，暂无法通过参数完全禁用。","https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-M2\u002Fissues\u002F68",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},2071,"遇到 429 错误或 API 请求失败，如何排查环境配置问题？","常见原因是环境变量冲突。如果同时设置了 ANTHROPIC_AUTH_TOKEN 和 ANTHROPIC_API_KEY，会导致认证冲突。建议 unset 其中一个变量，或设置 export ANTHROPIC_LOG=debug 查看详细日志确认配置。","https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-M2\u002Fissues\u002F6",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},2072,"客户端工具（如 Claude Code）频繁报错且服务不稳定是什么原因？","这通常是由于流量突增导致的服务不稳定造成的，官方团队正在尽力扩容。建议等待服务恢复或加入官方微信群获取更多支持信息。","https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-M2\u002Fissues\u002F9",[]]