MathModelAgent
MathModelAgent 是一款专为数学建模竞赛打造的智能助手,旨在将原本需要数天完成的建模任务压缩至一小时内自动完成。它不仅能自动分析问题、构建数学模型、编写并调试代码,还能最终生成一篇格式规范、内容完整且可直接提交的获奖级别论文,极大提升了备赛效率。
这款工具特别适合参加数学建模大赛的学生团队、相关领域的研究人员以及希望自动化科研流程的开发者使用。其核心亮点在于采用了多智能体(Multi-Agents)协作架构,内部细分出“建模手”、“代码手”和“论文手”等角色,各司其职又紧密配合。同时,它支持灵活配置不同的底层大语言模型,内置本地与云端双模式代码解释器(基于 Jupyter),并允许用户通过自定义提示词模板精准控制每个环节的输出需求。
目前 MathModelAgent 处于快速迭代的实验阶段,提供了 Docker 一键部署和本地安装等多种方式,方便用户快速上手体验。虽然项目仍在完善中,但其低成本、高自动化的工作流已展现出巨大的应用潜力,是辅助数学建模工作的强力工具。
使用场景
某高校研究生团队正备战全国大学生数学建模竞赛,需要在 72 小时内针对“城市交通拥堵优化”这一复杂课题,完成从问题分析、模型构建、代码求解到论文撰写的全流程工作。
没有 MathModelAgent 时
- 时间分配失衡:队员需花费大量时间手动查阅文献和构思框架,导致留给核心算法编写和调试的时间被严重压缩,往往在最后几小时通宵赶工。
- 协作磨合成本高:建模手、编程手和写作手之间沟通存在壁垒,模型假设与代码实现常出现偏差,论文撰写时还需反复确认数据口径,效率低下。
- 容错率极低:一旦代码运行报错或模型结果不理想,人工排查和重新调整逻辑耗时巨大,极易因一个小错误导致整篇论文逻辑链条断裂。
- 格式规范繁琐:最后阶段需人工排版公式、图表和参考文献,容易因格式不规范被扣分,且难以保证论文整体的学术严谨性。
使用 MathModelAgent 后
- 全流程自动化加速:MathModelAgent 自动拆解问题并调用多智能体协同,将原本 3 天的工作量压缩至 1 小时内完成初稿,让团队有充足时间进行深度优化。
- 无缝角色协同:内置的“建模手”、“代码手”和“论文手”智能体自动对齐上下文,确保模型假设直接转化为可执行代码,并即时生成对应的论文段落,消除沟通误差。
- 智能纠错与迭代:集成的 Code Interpreter 能自动运行代码、捕捉报错并自我修正,快速验证多种模型方案,显著提升了结果的准确性和鲁棒性。
- 一键生成获奖级论文:自动输出包含规范公式、图表及参考文献的完整 Markdown 或 LaTeX 格式论文,直接达到提交标准,让队员专注于策略创新而非格式调整。
MathModelAgent 通过将重复性劳动转化为自动化工作流,让参赛团队从繁琐的执行细节中解放出来,真正专注于数学思维的创新与突破。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
🤖 MathModelAgent 📐
专为数学建模设计的 Agent
自动完成数学建模,生成一份完整的可以直接提交的论文。
简体中文 | English
🌟 愿景:
3 天的比赛时间变为 1 小时
自动完整一份可以获奖级别的建模论文
✨ 功能特性
- 🔍 自动分析问题,数学建模,编写代码,纠正错误,撰写论文
- 💻 Code Interpreter
- 📝 生成一份编排好格式的论文
- 🤝 multi-agents: 建模手,代码手,论文手等
- 🔄 multi-llms: 每个 agent 设置不同的、合适的模型
- 🤖 支持所有模型: litellm
- 💰 成本低:workflow agentless,不依赖 agent 框架
- 🧩 自定义模板:prompt inject 为每个 subtask 单独设置需求
🚀 后期计划
- 添加并完成 webui、cli
- 完善的教程、文档
- 提供 web 服务
- 英文支持(美赛)
- 集成 latex 模板
- 接入视觉模型
- 添加正确文献引用
- 更多测试案例
- docker 部署
- human in loop ( HIL ): 引入用户的交互(选择模型,@agent重写,等等)
- feedback: evaluate the result and modify
- codeinterpreter 接入云端 如 e2b 等供应商..
- 多语言: R 语言, matlab
- 绘图 napki,draw.io,plantuml,svg, mermaid.js
- 添加 benchmark
- web search tool
- RAG 知识库
- A2A hand off: 代码手多次反思错误,hand off 更聪明模型 agent
- chat / agent mode
视频demo
[!CAUTION] 项目处于实验探索迭代demo阶段,有许多需要改进优化改进地方,我(项目作者)很忙,有时间会优化更新 欢迎贡献
📖 使用教程
提供三种部署方式,请选择最适合你的方案:
下载项目
git clone https://github.com/jihe520/MathModelAgent.git # 克隆项目
如果你想运行 命令行版本 cli 切换到 master 分支,部署更简单,但未来不会更新
🐳 方案一:Docker 部署(推荐:安全简单)
确保电脑安装了 docker 环境
- 启动服务
在项目文件夹下运行:
docker-compose up
- 访问
现在你可以访问:
- 前端界面:http://localhost:5173
- 后端API:http://localhost:8000
- 配置
侧边栏 -> 头像 -> API Key
💻 方案二: 本地部署
确保电脑中安装好 Python, Nodejs, Redis 环境
- 安装依赖
启动后端
[!CAUTION] 启动 Redis, 下载和运行问 AI
cd backend # 切换到 backend 目录下
pip install uv # 推荐使用 uv 管理 python 项目
uv sync # 安装依赖
# 启动后端
# 激活 python 虚拟环境
source .venv/bin/activate # MacOS or Linux
venv\Scripts\activate.bat # Windows
# MacOS or Linux 运行这条命令
ENV=DEV uvicorn app.main:app --host 0.0.0.0 --port 8000 --ws-ping-interval 60 --ws-ping-timeout 120 --reload
# Windows 运行这条命令
set ENV=DEV ; uvicorn app.main:app --host 0.0.0.0 --port 8000 --ws-ping-interval 60 --ws-ping-timeout 120
启动前端
cd frontend # 切换到 frontend 目录下
npm install -g pnpm
pnpm i #确保电脑安装了 pnpm
pnpm run dev
修改 backend/.env.dev 的环境变量 REDIS_URL
- 配置
侧边栏 -> 头像 -> API Key
🚀 方案三:自动脚本部署(来自社区)
有没有自动部署的脚本 ? mmaAutoSetupRun
运行的结果和产生在backend/project/work_dir/xxx/*目录下
- notebook.ipynb: 保存运行过程中产生的代码
- res.md: 保存最后运行产生的结果为 markdown 格式
需要自定义自定义提示词模板 template ? Prompt Inject : prompt
网络状况太差难以配置Docker等设置? 网络不畅时的配置过程示例:网络环境极差时的MathModelAgent配置过程
🤝 贡献和开发
[!TIP] 如果你有跑出来好的案例可以提交 PR 在该仓库下: MathModelAgent-Example
- 项目处于开发实验阶段(我有时间就会更新),变更较多,还存在许多 Bug,我正着手修复。
- 希望大家一起参与,让这个项目变得更好
- 非常欢迎使用和提交 PRs 和 issues
- 需求参考 后期计划
clone 项目后,下载 Todo Tree 插件,可以查看代码中所有具体位置的 todo
.cursor/* 有项目整体架构、rules、mcp 可以方便开发使用
📄 版权License
个人免费使用,请勿商业用途,商业用途联系我(作者)
🙏 Reference
Thanks to the following projects:
其他
💖 Sponsor
感谢赞助
企业
302.AI 是一个按用量付费的企业级AI资源平台,提供市场上最新、最全面的AI模型和API,以及多种开箱即用的在线AI应用
用户
👥 GROUP
有问题可以进群问
点击链接加入腾讯频道【MathModelAgent】:https://pd.qq.com/s/7rfbai3au
点击链接加入群聊 779159301【MathModelAgent】:https://qm.qq.com/q/Fw2cCJPoki
[!CAUTION] 免责声明: 注意,AI 生成仅供参考,目前水平直接参加国赛获奖是不可能的,但我相信 AI 和 该项目未来的成长。
版本历史
v0.0.12025/05/05常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
