mmb
mmb 是一款基于 Rust 语言开发的开源交易引擎,专为自动化做市和策略交易而设计。它旨在解决量化交易中常见的痛点:如何在一个统一的框架下,安全、高效地连接并管理多个不同的交易所或区块链网络。通过 mmb,用户无需为每个平台单独编写适配代码,即可轻松部署复杂的交易策略。
这款工具特别适合具备一定编程基础的开发者、量化研究员以及希望构建自定义高频交易系统的技术团队。普通投资者若缺乏代码能力,可能需要借助社区支持或进行二次开发才能充分利用其功能。
mmb 的核心亮点在于其高性能与安全性。Rust 语言的内存安全特性确保了交易引擎在高速运行时的稳定性,极大降低了因程序错误导致资金损失的风险。目前,mmb 已原生支持币安现货与合约、Serum 去中心化交易所等多个主流平台,并根据连接器的成熟度提供了清晰的状态标识(如绿色代表稳定可用),方便用户按需选择。用户只需简单配置 TOML 文件并填入 API 密钥,即可通过标准的构建命令快速启动自己的交易机器人。作为一个开放项目,mmb 欢迎社区共同贡献代码或反馈问题,持续完善生态。
使用场景
某量化交易团队需要在币安现货与合约市场同时部署高频做市策略,以捕捉微小价差并管理库存风险。
没有 mmb 时
- 团队需分别用 Python 或 Node.js 为不同交易所编写重复的连接代码,维护成本极高且容易因 API 变更导致中断。
- 由于解释型语言的性能瓶颈,在处理高并发订单簿数据时经常出现延迟,导致挂单被撤或成交滑点过大。
- 缺乏统一的风险控制模块,一旦某个交易所连接异常,极易引发重复下单或资金暴露等严重事故。
- 策略逻辑与底层交易接口强耦合,每次调整做市参数或切换交易对都需要重新编译和长时间测试。
使用 mmb 后
- 利用 mmb 内置的币安现货及合约成熟连接器(状态均为绿色),团队直接通过
config.toml配置即可多市场并行运行,无需重复造轮子。 - 基于 Rust 语言的高性能引擎显著降低了系统延迟,确保在剧烈波动中也能毫秒级响应,精准执行做市挂单。
- 依托框架自带的健壮性机制,自动处理网络抖动与订单状态同步,有效避免了因连接问题导致的资金风险。
- 策略配置与核心引擎完全解耦,开发人员只需修改配置文件并运行
cargo run,即可实现策略的快速迭代与热部署。
mmb 让团队从繁琐的底层基建中解放出来,专注于策略逻辑本身,实现了安全、高效且低延迟的自动化做市交易。
运行环境要求
- 未说明
无需求
未说明

快速开始
欢迎使用 mmb
mmb 是一个用 Rust 实现的开源交易引擎。
连接器
GREEN - 连接器运行正常,可安全使用
YELLOW - 连接器要么是新添加的,要么存在一个或多个问题
RED - 连接器已损坏,无法使用
| logo | id | name | ver | doc | status |
|---|---|---|---|---|---|
![]() |
Binance | 币安现货 | 3 | API | ![]() |
![]() |
Binance | 币安USDⓈ-M永续合约 | 3 | API | ![]() |
![]() |
Bitmex | Bitmex | 1 | API | ![]() |
![]() |
Serum | Serum | 1 | API | ![]() |
![]() |
IBKR | 盈透证券 | 1 | API | ![]() |
快速入门
- 进入
example/src目录 - 在
config.toml中配置您的策略 - 在
credentials.toml中提供 API 密钥和密钥
[Binance_0]
api_key = "..."
secret_key = "..."
- 执行
cargo build - 执行
cargo run
贡献
我们欢迎社区的贡献:
- 通过 pull requests 提交 代码和文档
- 通过 Github issues 提交 Bug 报告和功能请求
常见问题
相似工具推荐
AutoGPT
AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台,核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点,让用户只需设定目标,AI 即可自主规划步骤、调用工具并持续运行直至完成任务。 无论是开发者、研究人员,还是希望提升工作效率的普通用户,都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体;研究人员能基于开源架构探索多智能体协作机制;而非技术背景用户也可直接选用预置的智能体模板,立即投入实际工作场景。 AutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑,每个块负责单一动作,灵活且易于调试。同时,平台支持本地自托管与云端部署两种模式,兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本,即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛,让人人都能成为 AI 的创造者与受益者。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
DeepSeek-V3
DeepSeek-V3 是一款由深度求索推出的开源混合专家(MoE)大语言模型,旨在以极高的效率提供媲美顶尖闭源模型的智能服务。它拥有 6710 亿总参数,但在处理每个 token 时仅激活 370 亿参数,这种设计巧妙解决了大规模模型推理成本高、速度慢的难题,让高性能 AI 更易于部署和应用。 这款模型特别适合开发者、研究人员以及需要构建复杂 AI 应用的企业团队使用。无论是进行代码生成、逻辑推理还是多轮对话开发,DeepSeek-V3 都能提供强大的支持。其独特之处在于采用了无辅助损失的负载均衡策略和多令牌预测训练目标,前者在提升计算效率的同时避免了性能损耗,后者则显著增强了模型表现并加速了推理过程。此外,模型在 14.8 万亿高质量令牌上完成预训练,且整个训练过程异常稳定,未出现不可恢复的损失尖峰。凭借仅需 278.8 万 H800 GPU 小时即可完成训练的高效特性,DeepSeek-V3 为开源社区树立了一个兼顾性能与成本效益的新标杆。
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
spec-kit
Spec Kit 是一款专为提升软件开发效率而设计的开源工具包,旨在帮助团队快速落地“规格驱动开发”(Spec-Driven Development)模式。传统开发中,需求文档往往与代码实现脱节,导致沟通成本高且结果不可控;而 Spec Kit 通过将规格说明书转化为可执行的指令,让 AI 直接依据明确的业务场景生成高质量代码,从而减少从零开始的随意编码,确保产出结果的可预测性。 该工具特别适合希望利用 AI 辅助编程的开发者、技术负责人及初创团队。无论是启动全新项目还是在现有工程中引入规范化流程,用户只需通过简单的命令行操作,即可初始化项目并集成主流的 AI 编程助手。其核心技术亮点在于“规格即代码”的理念,支持社区扩展与预设模板,允许用户根据特定技术栈定制开发流程。此外,Spec Kit 强调官方维护的安全性,提供稳定的版本管理,帮助开发者在享受 AI 红利的同时,依然牢牢掌握架构设计的主动权,真正实现从“凭感觉写代码”到“按规格建系统”的转变。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。



