AI-Gateway
AI-Gateway 是一个由 Azure API Management 和 Microsoft Foundry 驱动的企业级开源网关,旨在帮助开发者高效管理 AI 模型、工具(MCP 服务器)及智能体(Agents)。在构建生产级 AI 应用时,单纯调用模型接口往往难以兼顾安全、稳定性与成本控制,而 AI-Gateway 正是为了解决这一痛点而生。
它通过提供 OAuth 2.0 认证、内容安全过滤等机制保障系统安全;利用负载均衡、语义缓存和智能路由技术提升响应性能并降低延迟;同时内置详细的 Token 指标监控与配额管理功能,帮助团队有效掌控 AI 支出。此外,它还原生支持模型上下文协议(MCP),让外部工具接入更加灵活便捷。
该项目特别适合需要构建高可用、可观测且成本可控的 AI 应用的开发者和架构师使用。其最大的亮点在于提供了 30 多个实操实验室(Labs),每个实验室都包含完整的 Jupyter 笔记本教程、基础设施模板及策略配置,让用户能一步步亲手部署并掌握从流量治理到智能体编排的各项高级能力。无论是希望优化现有 AI 服务的企业团队,还是想要深入探索大模型落地最佳实践的技术人员,都能从中获得切实可行的解决方案。
使用场景
某金融科技公司正在开发一款面向高净值客户的智能投顾助手,需同时调用多个大模型并集成实时行情查询工具。
没有 AI-Gateway 时
- 成本失控风险:缺乏统一的令牌(Token)配额管理,个别异常请求或测试流量极易耗尽月度预算,导致核心服务中断。
- 响应延迟严重:面对突发的高并发咨询,单一模型端点容易过载,且无法缓存常见的市场解读请求,造成用户等待时间过长。
- 安全合规隐患:直接暴露模型 API 密钥给前端应用,难以实施细粒度的身份验证,且缺少内容安全过滤机制,存在输出违规建议的风险。
- 运维黑盒状态:无法清晰追踪每个业务线或具体用户的 Token 消耗明细,财务分摊(FinOps)和故障排查全靠人工估算。
使用 AI-Gateway 后
- 精准成本控制:通过内置的 FinOps 框架和令牌限流策略,自动为不同部门设定预算上限,超额请求被优雅拦截,确保核心业务资金充足。
- 性能显著提升:利用语义缓存技术,对相似的市场分析请求直接返回向量匹配结果,结合后端负载均衡,将平均响应速度提升 40%。
- 企业级安全防护:基于 OAuth 2.0 统一接管身份认证,并在网关层自动过滤敏感金融数据与不当内容,无需修改业务代码即可满足合规要求。
- 全链路可观测:提供详细的 Token 度量日志与追踪视图,实时监控各模型调用成本与延迟,让每一分算力支出都清晰可查。
AI-Gateway 将原本分散脆弱的 AI 调用架构升级为安全、可控且高效的企业级中枢,让团队能专注于业务创新而非底层运维。
运行环境要求
- 未说明
未说明
未说明

快速开始
为什么选择 AI 网关?
构建生产就绪的 AI 应用程序不仅仅需要调用模型 API。您还需要安全性、可靠性、可观测性和成本控制——同时不拖慢创新步伐。
由 Azure API Management 提供支持的 AI 网关 提供:
- 🔐 安全性 — OAuth 2.0、托管标识、内容安全过滤
- ⚡ 性能 — 负载均衡、语义缓存、请求路由
- 📊 可观测性 — 令牌指标、内置日志记录、追踪
- 💰 成本控制 — 速率限制、配额管理、FinOps 框架
- 🔌 可扩展性 — 支持 MCP 协议、函数调用、多模型路由
📚 探索实验室
🔗 浏览所有 30 多个实验室,请访问 aka.ms/ai-gateway/labs
每个实验室都是一个动手实践的 Jupyter 笔记本,包含分步说明、Bicep 基础架构模板以及可部署到您的 Azure 订阅中的 APIM 策略。
🧠 AI 网关与模型
使用企业级策略管理和控制对大型语言模型的访问。
| 实验室 | 描述 |
|---|---|
| 后端池负载均衡 | 将请求分发到多个模型端点 |
| 令牌速率限制 | 使用速率限制策略控制令牌消耗 |
| 语义缓存 | 使用向量相似度缓存响应,以实现更快、更经济的完成 |
| 模型路由 | 根据模型和版本将请求路由到不同的后端 |
| FinOps 框架 | 使用自动配额控制管理 AI 预算 |
🔧 AI 网关与工具
通过 MCP 协议和函数调用功能,实现安全的工具访问。
| 实验室 | 描述 |
|---|---|
| 模型上下文协议 (MCP) | 即插即用工具,配备 OAuth 凭证管理 |
| MCP 客户端授权 | 使用客户端授权流程实现 MCP |
| 函数调用 | 使用 OpenAI 函数调用功能,并结合 Azure Functions 后端 |
| 实时音频 + MCP | 将实时语音 API 与 MCP 工具相结合 |
🤖 AI 网关与代理
借助编排框架构建和控制代理应用程序。
| 实验室 | 描述 |
|---|---|
| AI 代理服务 | 探索具有多服务控制能力的 Foundry 代理服务 |
| OpenAI 代理 SDK | 将 OpenAI 代理与 Azure OpenAI 和 APIM 管理的工具结合使用 |
| Gemini MCP 代理 | 将 Google Gemini 模型与 MCP 工具集成 |
| A2A 启用的代理 | 具备 A2A 功能的代理,配备模型和 MCP 即插即用工具 |
🚀 快速入门
先决条件
- Python 3.12+
Python 环境需安装 requirements.txt 文件,或在终端运行
pip install -r requirements.txt - Python 环境 配置好 requirements.txt 文件,或在终端运行
pip install -r requirements.txt - VS Code 并安装 Jupyter 扩展
- Azure 订阅 并具备贡献者及 RBAC 管理员角色
- Azure CLI 并已认证登录到您的订阅
开始使用
# 克隆仓库
git clone https://github.com/Azure-Samples/AI-Gateway.git
cd AI-Gateway
# 打开 VS Code 并从一个实验室开始
code .
或者直接使用 GitHub Codespaces 一键启动 ☁️
🔨 开发者工具
tools/ 文件夹提供了用于测试和开发的实用工具:
| 工具 | 描述 |
|---|---|
| 追踪 | 在启用追踪的情况下调用 AI Foundry API |
| 流式传输 | 测试来自 AI 模型的流式响应 |
| 速率限制测试器 | 验证速率限制配置 |
| 模拟服务器 | 用于本地开发和测试的 OpenAI API 模拟服务器 |
| OAuth 客户端 | 测试 OAuth 认证流程 |
👩💻 使用 AI 构建您自己的实验室
此仓库包含 Copilot Agent Skills,可帮助您在 VS Code 中利用 AI 辅助开发创建新实验室。
可用技能
| 技能 | 描述 |
|---|---|
lab-creator |
为新实验室搭建笔记本、Bicep 和策略的框架 |
apim-bicep |
生成用于 APIM 资源的 Azure Bicep 模板 |
apim-terraform |
生成用于 APIM 的 Terraform 配置 |
apim-policies |
创建适用于 AI 网关场景的 APIM XML 策略 |
apim-kql |
生成 KQL 查询,以控制模型、工具和代理 |
mcp-builder |
构建用于工具集成的 MCP 服务器 |
示例:创建一个新的实验室
在 VS Code 中使用 GitHub Copilot 打开此仓库,并使用以下提示:
创建一个名为“multi-model-failover”的新实验室,演示当主模型不可用或被限流时,如何在不同 AI 模型之间实现自动故障转移。包含:
- 带有优先级路由的后端池
- 具有指数退避机制的重试策略
- 用于检测不健康后端的断路器模式
- 内置的 LLM 日志记录功能,以跟踪所有后端的使用情况
- 使用 LangChain 代理测试该模型:https://docs.langchain.com/oss/python/langchain/agents
以 gpt-4.1-mini 作为主模型,gpt-4.1-nano 作为备用模型,并部署到瑞典中部。
Copilot 将生成完整的实验室结构,包括:
- 📓 带有分步说明的 Jupyter 笔记本
- 🦾 Bicep 基础设施模板
- ⚙️ APIM 策略 XML
- 📖 README 文档
- 🧹 清理笔记本
🏛️ 良好架构框架
实验室的设计遵循 Azure 良好架构框架 的原则:
| 支柱 | 实验室 |
|---|---|
| 安全性 | 访问控制、内容安全、私有连接 |
| 可靠性 | 后端池负载均衡、令牌速率限制 |
| 性能 | 语义缓存、模型路由 |
| 运营 | 内置日志记录、令牌指标输出 |
| 成本 | FinOps 框架、语义缓存 |
📕 企业 AI 网关电子书
下载 企业 AI 网关电子书,全面介绍企业 AI 网关模式的端到端视图,解释为什么集中式治理层对于大规模采用 AI 的组织至关重要,以及如何利用 Azure API 管理和 Microsoft Foundry 实际实施这一模式。
书中将 AI 网关描述为一个控制平面,介导所有 AI 应用程序和代理与底层模型、数据和工具之间的交互,从而实现对安全性、可靠性、成本控制、弹性、可扩展性、可观测性和治理的一致性执行。总体而言,该电子书将企业 AI 网关定位为一项基础性的架构组件,使企业能够在保持信任、合规、可见性和控制的同时,快速进行 AI 创新。
🎬 会议与网络直播
通过这些涵盖 AI 网关概念和实施的视频,向专家学习。
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
📖 资源
🤝 贡献
欢迎贡献!请阅读 CONTRIBUTING.md 以获取相关指南。
⚠️ 免责声明
本软件仅用于演示目的。它不应用于任何实际用途。创作者不对本软件的完整性、准确性、可靠性或适用性作出任何陈述或保证。
常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
OpenHands
OpenHands 是一个专注于 AI 驱动开发的开源平台,旨在让智能体(Agent)像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点,通过自动化流程显著提升开发速度。 无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员,还是需要快速原型验证的技术团队,都能从中受益。OpenHands 提供了灵活多样的使用方式:既可以通过命令行(CLI)或本地图形界面在个人电脑上轻松上手,体验类似 Devin 的流畅交互;也能利用其强大的 Python SDK 自定义智能体逻辑,甚至在云端大规模部署上千个智能体并行工作。 其核心技术亮点在于模块化的软件智能体 SDK,这不仅构成了平台的引擎,还支持高度可组合的开发模式。此外,OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩,证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能,支持与 Slack、Jira 等工具集成,并提供细粒度的权限管理,适合从个人开发者到大型企业的各类用户场景。
















