axonhub
AxonHub 是一款开源的一站式 AI 开发网关,旨在让开发者无需修改任何代码即可灵活调用全球 100 多种大语言模型。无论您习惯使用 OpenAI、Anthropic 还是其他主流 SDK,AxonHub 都能透明地将请求路由至任意支持的模型提供商,真正实现“一次接入,随处运行”。
它主要解决了 AI 应用开发中的几大痛点:首先是打破厂商锁定,让您能在 GPT-4、Claude 或 Gemini 之间瞬间切换;其次是统一接口标准,将十多家供应商的复杂集成简化为一种 API 格式;此外,它还提供了企业级的可观测性与成本管控能力,填补了原生 SDK 在链路追踪和预算管理上的空白。
AxonHub 特别适合后端工程师、AI 应用开发者及技术团队使用。其核心技术亮点包括智能负载均衡与自动故障转移(可在 100 毫秒内完成切换),确保服务高可用;内置细粒度的权限控制(RBAC)以保障数据安全;以及实时的费用追踪功能,能精确统计每次请求的输入、输出及缓存 Token 消耗。作为一个由 Go 语言构建并支持 Docker 部署的轻量级工具,AxonHub 帮助团队以更低的成本和更高的效率构建稳健的 AI 应用。
使用场景
某跨境电商团队正在开发一款智能客服系统,需要同时调用 GPT-4 处理复杂投诉、Claude 生成温情回复以及 Gemini 进行多语言翻译,以应对全球不同地区的用户需求。
没有 axonhub 时
- 代码耦合严重:开发人员不得不在代码中硬编码多家厂商的 SDK(如 OpenAI、Anthropic),切换模型或新增供应商时需要重构大量业务逻辑。
- 故障恢复缓慢:当某个模型服务商出现网络波动或宕机时,系统缺乏自动熔断机制,导致用户请求直接报错,客服响应中断。
- 成本黑盒难控:无法实时追踪各业务线对不同模型的调用量和具体花费,月底结算时常发现预算超支却找不到原因。
- 调试效率低下:缺乏统一的链路追踪视图,排查“为什么这条回复生成慢了”的问题时,需要在多个服务商的控制台间反复跳转比对日志。
使用 axonhub 后
- 零代码切换模型:团队只需在 axonhub 配置文件中修改路由策略,即可让原本调用 GPT-4 的业务无缝切换至 Claude,无需改动任何一行后端代码。
- 毫秒级自动容灾:axionhub 内置的智能负载均衡能在主通道故障的 100ms 内自动将流量切换至备用模型,确保客服系统 7x24 小时稳定在线。
- 精细化成本管理:通过 axonhub 的实时监控面板,团队能清晰看到每个 API 请求的 Token 消耗与费用明细,轻松实现按部门分摊成本并设置预算预警。
- 全链路可观测性:axonhub 提供端到端的请求追踪功能,开发人员可在一个界面完整查看请求耗时、缓存命中情况及各环节状态,故障定位时间缩短 80%。
axonhub 让企业彻底摆脱了对单一模型厂商的依赖,以最低的开发成本构建了高可用、可观测且成本可控的 AI 基础设施。
运行环境要求
- Linux
- macOS
- Windows
未说明 (作为 API 网关运行,通常无需专用 GPU)
未说明

快速开始
注意
- 本项目由个人维护。作者不提供任何担保,也不对因使用本项目而产生的风险承担任何责任。请谨慎评估。
- 本项目的核心范围不包括2api(订阅转API)。如果您需要该功能,请考虑其他专注于2api的开源项目。
📖 项目介绍
一体化AI开发平台
AxonHub是AI网关,让您无需更改一行代码即可在不同模型提供商之间切换。
无论您使用的是OpenAI SDK、Anthropic SDK,还是任何其他AI SDK,AxonHub都能透明地将您的请求转换为与任何受支持的模型提供商兼容的格式。无需重构代码,无需更换SDK——只需更改配置即可完成切换。
它解决了以下问题:
- 🔒 供应商锁定 - 可以立即从GPT-4切换到Claude或Gemini
- 🔧 集成复杂性 - 一种API格式即可对接10多家提供商
- 📊 可观测性缺失 - 开箱即用的完整请求追踪
- 💸 成本控制 - 实时使用情况跟踪和预算管理
核心功能
| 功能 | 您将获得 |
|---|---|
| 🔄 任意SDK → 任意模型 | 使用OpenAI SDK调用Claude,或使用Anthropic SDK调用GPT。无需更改代码。 |
| 🔍 完整请求追踪 | 具备线程感知能力的完整请求时间线。更快地进行调试。 |
| 🔐 企业级RBAC | 细粒度的访问控制、使用配额和数据隔离。 |
| ⚡ 智能负载均衡 | 自动故障转移,耗时不到100毫秒。始终路由到最健康的通道。 |
| 💰 实时成本跟踪 | 每个请求的成本明细。输入、输出、缓存Token等全部记录在案。 |
📚 文档
有关详细的技术文档、API参考、架构设计等内容,请访问:
- [。如果您需要该功能,请考虑其他专注于2api的开源项目。
📖 项目介绍
多合一AI开发平台
AxonHub是AI网关,让您无需修改一行代码即可在不同模型提供商之间切换。
无论您使用的是OpenAI SDK、Anthropic SDK,还是任何其他AI SDK,AxonHub都能透明地将您的请求转换为与任何受支持的模型提供商兼容的格式。无需重构代码,也无需更换SDK——只需更改配置即可完成切换。
它解决了以下问题:
- 🔒 供应商锁定 - 可以立即从GPT-4切换到Claude或Gemini
- 🔧 集成复杂性 - 一种API格式适用于10多家提供商
- 📊 可观测性缺失 - 开箱即用的完整请求追踪
- 💸 成本控制 - 实时使用情况跟踪和预算管理
核心功能
功能 您将获得 🔄 任意SDK → 任意模型 使用OpenAI SDK调用Claude,或使用Anthropic SDK调用GPT。无需更改代码。 🔍 完整请求追踪 具有线程感知的完整请求时间线。更快地进行调试。 🔐 企业级RBAC 细粒度的访问控制、使用配额和数据隔离。 ⚡ 智能负载均衡 自动故障转移,耗时不到100毫秒。始终路由到最健康的通道。 💰 实时成本跟踪 每个请求的成本明细。输入、输出、缓存令牌——全部被跟踪。
📚 文档
有关详细的技术文档、API参考、架构设计等信息,请访问:
- [ ✅ 完成 kimi-k2, 等. OpenAI, Anthropic, Gemini DeepSeek ✅ 完成 DeepSeek-V3.1, 等. OpenAI, Anthropic, Gemini ByteDance Doubao ✅ 完成 doubao-1.6, 等. OpenAI, Anthropic, Gemini, Image Generation Gemini ✅ 完成 Gemini 2.5, 等. OpenAI, Anthropic, Gemini, Image Generation Fireworks ✅ 完成 MiniMax-M2.5, GLM-5, Kimi K2.5, 等. OpenAI Jina AI ✅ 完成 嵌入、重排序等 Jina Embedding, Jina Rerank OpenRouter ✅ 完成 各种模型 OpenAI, Anthropic, Gemini, Image Generation ZAI ✅ 完成 - Image Generation AWS Bedrock 🔄 测试 Claude 在 AWS 上 OpenAI, Anthropic, Gemini Google Cloud 🔄 测试 Claude 在 GCP 上 OpenAI, Anthropic, Gemini NanoGPT ✅ 完成 各种模型、图像生成 OpenAI, Anthropic, Gemini, Image Generation
🚀 快速入门
30 秒本地启动
# 下载并解压(macOS ARM64 示例) curl -sSL https://github.com/looplj/axonhub/releases/latest/download/axonhub_darwin_arm64.tar.gz | tar xz cd axonhub_* # 使用 SQLite 运行(默认) ./axonhub # 打开 http://localhost:8090 # 首次运行:按照设置向导初始化系统(创建管理员账号,密码至少 6 位)就是这样!现在配置你的第一个 AI 频道,并通过 AxonHub 调用模型吧。
无代码迁移示例
你现有的代码无需任何更改即可使用。 只需将 SDK 指向 AxonHub 即可:
from openai import OpenAI client = OpenAI( base_url="http://localhost:8090/v1", # 指向 AxonHub api_key="your-axonhub-api-key" # 使用 AxonHub 的 API 密钥 ) # 使用 OpenAI SDK 调用 Claude! response = client.chat.completions.create( model="claude-3-5-sonnet", # 或 gpt-4、gemini-pro、deepseek-chat... messages=[{"role": "user", "content": "你好!"}] )只需更改一行代码即可切换模型:
model="gpt-4"→model="claude-3-5-sonnet"。无需修改 SDK。一键部署到 Render
在 Render 上一键免费部署 AxonHub。
🚀 部署指南
💻 个人电脑部署
非常适合个人开发者和小型团队。无需复杂的配置。
快速下载与运行
从 GitHub Releases 下载最新版本:
- 选择适合您操作系统的版本:
解压并运行
# 解压下载的文件 unzip axonhub_*.zip cd axonhub_* # 添加执行权限(仅限 Linux/macOS) chmod +x axonhub # 直接运行——默认使用 SQLite 数据库 # 将 AxonHub 安装到系统 sudo ./install.sh # 启动 AxonHub 服务 ./start.sh # 停止 AxonHub 服务 ./stop.sh访问应用
http://localhost:8090
🖥️ 服务器部署
适用于生产环境、高可用性和企业级部署。
数据库支持
AxonHub 支持多种数据库,以满足不同规模的部署需求:
数据库 支持版本 推荐场景 自动迁移 链接 TiDB Cloud Starter 无服务器、免费层级、自动扩展 ✅ 支持 TiDB Cloud TiDB Cloud Dedicated 分布式部署、大规模 ✅ 支持 TiDB Cloud TiDB V8.0+ 分布式部署、大规模 ✅ 支持 TiDB Neon DB - 无服务器、免费层级、自动扩展 ✅ 支持 Neon DB PostgreSQL 15+ 生产环境、中大型部署 ✅ 支持 PostgreSQL MySQL 8.0+ 生产环境、中大型部署 ✅ 支持 MySQL SQLite 3.0+ 开发环境、小型部署 ✅ 支持 SQLite 配置
AxonHub 使用 YAML 配置文件,并支持通过环境变量进行覆盖:
# config.yml server: port: 8090 name: "AxonHub" debug: false db: dialect: "tidb" dsn: "<USER>.root:<PASSWORD>@tcp(gateway01.us-west-2.prod.aws.tidbcloud.com:4000)/axonhub?tls=true&parseTime=true&multiStatements=true&charset=utf8mb4" log: level: "info" encoding: "json"环境变量:
AXONHUB_SERVER_PORT=8090 AXONHUB_DB_DIALECT="tidb" AXONHUB_DB_DSN="<USER>.root:<PASSWORD>@tcp(gateway01.us-west-2.prod.aws.tidbcloud.com:4000)/axonhub?tls=true&parseTime=true&multiStatements=true&charset=utf8mb4" AXONHUB_LOG_LEVEL=info有关详细配置说明,请参阅配置文档。
Docker Compose 部署
# 克隆项目 git clone https://github.com/looplj/axonhub.git cd axonhub # 设置环境变量 export AXONHUB_DB_DIALECT="tidb" export AXONHUB_DB_DSN="<USER>.root:<PASSWORD>@tcp(gateway01.us-west-2.prod.aws.tidbcloud.com:4000)/axonhub?tls=true&parseTime=true&multiStatements=true&charset=utf8mb4" # 启动服务 docker-compose up -d # 检查状态 docker-compose psHelm Kubernetes 部署
使用官方 Helm Chart 将 AxonHub 部署到 Kubernetes 上:
# 快速安装 git clone https://github.com/looplj/axonhub.git cd axonhub helm install axonhub ./deploy/helm # 生产环境部署 helm install axonhub ./deploy/helm -f ./deploy/helm/values-production.yaml # 访问 AxonHub kubectl port-forward svc/axonhub 8090:8090 # 访问 http://localhost:8090关键配置选项:
参数 描述 默认值 axonhub.replicaCount副本数 1axonhub.dbPassword数据库密码 axonhub_passwordpostgresql.enabled内嵌 PostgreSQL trueingress.enabled启用 Ingress falsepersistence.enabled数据持久化 false有关详细配置和故障排除,请参阅Helm Chart 文档。
虚拟机部署
从 GitHub Releases 下载最新版本:
# 解压并运行 unzip axonhub_*.zip cd axonhub_* # 设置环境变量 export AXONHUB_DB_DIALECT="tidb" export AXONHUB_DB_DSN="<USER>.root:<PASSWORD>@tcp(gateway01.us-west-2.prod.aws.tidbcloud.com:4000)/axonhub?tls=true&parseTime=true&multiStatements=true&charset=utf8mb4" sudo ./install.sh # 检查配置文件 axonhub config check # 启动服务 # 为简便起见,建议使用辅助脚本管理 AxonHub: # 启动 ./start.sh # 停止 ./stop.sh
📖 使用指南
统一 API 概览
AxonHub 提供了一个统一的 API 网关,同时支持 OpenAI Chat Completions 和 Anthropic Messages API。这意味着您可以:
- 使用 OpenAI API 调用 Anthropic 模型 - 在继续使用 OpenAI SDK 的同时访问 Claude 模型
- 使用 Anthropic API 调用 OpenAI 模型 - 使用 Anthropic 的原生 API 格式调用 GPT 模型
- 使用 Gemini API 调用 OpenAI 模型 - 使用 Gemini 的原生 API 格式调用 GPT 模型
- 自动 API 转换 - AxonHub 会自动处理格式转换
- 无需更改代码 - 您现有的 OpenAI 或 Anthropic 客户端代码可以继续正常工作
1. 初始设置
访问管理界面
http://localhost:8090配置 AI 提供商
- 在管理界面中添加 API 密钥
- 测试连接以确保配置正确
创建用户和角色
- 设置权限管理
- 分配适当的访问权限
2. 通道配置
在管理界面中配置 AI 提供商通道。有关通道配置的详细信息,包括模型映射、参数覆盖和故障排除,请参阅通道配置指南。
3. 模型管理
AxonHub 提供了一个灵活的模型管理系统,支持通过模型关联将抽象模型映射到特定的通道和模型实现。这使得:
- 统一的模型接口 - 可以使用抽象模型 ID(如
gpt-4、claude-3-opus)代替通道特定的名称 - 智能通道选择 - 根据关联规则和负载均衡自动将请求路由到最佳通道
- 灵活的映射策略 - 支持精确的通道-模型匹配、正则表达式模式和基于标签的选择
- 优先级回退 - 可以配置多个具有优先级的关联,以便在出现故障时自动切换
有关模型管理的全面信息,包括关联类型、配置示例和最佳实践,请参阅模型管理指南。
4. 创建 API 密钥
创建 API 密钥以对您的应用程序进行 AxonHub 身份验证。每个 API 密钥都可以配置多个配置文件,用于定义:
- 模型映射 - 使用精确匹配或正则表达式模式将用户请求的模型转换为实际可用的模型
- 渠道限制 - 通过渠道 ID 或标签限制 API 密钥可以使用的渠道
- 模型访问控制 - 控制特定配置文件可访问的模型
- 配置文件切换 - 通过激活不同的配置文件实现实时行为切换
有关 API 密钥配置文件的详细信息,包括配置示例、验证规则和最佳实践,请参阅 API 密钥配置文件指南。
5. AI 编码工具集成
请参阅专用指南,了解详细的设置步骤、故障排除以及如何将这些工具与 AxonHub 模型配置文件结合使用的技巧:
6. SDK 使用
有关 SDK 的详细使用示例和代码片段,请参阅 API 文档:
🛠️ 开发指南
有关详细的开发说明、架构设计和贡献指南,请参阅 docs/en/development/development.md。
🤝 致谢
- 🙏 musistudio/llms - LLM 转换框架,灵感来源
- 🎨 satnaing/shadcn-admin - 管理界面模板
- 🔧 99designs/gqlgen - GraphQL 代码生成
- 🌐 gin-gonic/gin - HTTP 框架
- 🗄️ ent/ent - ORM 框架
- 🔧 air-verse/air - Go 服务自动重载
- ☁️ Render - 免费云部署平台,用于托管我们的演示
- 🗃️ TiDB Cloud - 用于演示部署的无服务器数据库平台
📄 许可证
本项目采用多重许可证(Apache-2.0 和 LGPL-3.0)授权。有关详细的许可概述和条款,请参阅 LICENSE 文件。
版本历史
v0.9.332026/04/16v0.9.322026/04/13v0.9.312026/04/07v0.9.302026/04/07v0.9.292026/04/06v0.9.282026/04/05v0.9.272026/04/03v0.9.262026/04/03v0.9.252026/04/02v0.9.242026/03/31v0.9.232026/03/28v0.9.222026/03/24v0.9.212026/03/23v0.9.202026/03/21v0.9.192026/03/19v0.9.182026/03/17v0.9.172026/03/15v0.9.162026/03/13v0.9.152026/03/12v0.9.142026/03/09常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
