higress

GitHub
8.2k 1.1k 中等 1 次阅读 今天Apache-2.0插件
AI 解读 由 AI 自动生成,仅供参考

Higress 是一款云原生 AI 网关,基于 Istio 和 Envoy 构建,旨在为人工智能应用提供统一的 API 管理与流量治理。它主要解决了企业在接入国内外主流大模型时面临的接口分散、协议不统一以及 AI Agent 难以高效调用外部工具等痛点。通过内置的 AI 代理能力,Higress 能够无缝对接各类大模型服务商,并创新性地支持托管 MCP(模型上下文协议)服务器,让开发者能轻松将现有的 OpenAPI 服务转化为 AI 可调用的工具,实现大模型与业务系统的深度集成。

这款工具特别适合后端开发者、AI 工程师及架构师使用。无论是需要构建稳定的大模型应用入口,还是希望快速搭建 AI Agent 工具链的团队,都能从中获益。Higress 的独特亮点在于其强大的扩展性:支持使用 Go、Rust 或 JavaScript 编写 Wasm 插件来定制业务逻辑,同时提供开箱即用的管理控制台。作为源自阿里巴巴内部的核心组件,它历经了双 11 等高并发场景的考验,具备企业级的高可用性与负载均衡能力,是连接大模型能力与真实业务场景的可靠桥梁。

使用场景

某电商公司正在构建一个智能客服系统,需要同时接入通义千问、Llama 3 等多个大模型,并让 AI Agent 调用内部订单查询和物流追踪接口。

没有 higress 时

  • 多模型适配困难:开发团队需为每个大模型厂商编写独立的适配代码,处理不同的 API 格式、鉴权方式和流式响应,维护成本极高。
  • 工具调用复杂:AI Agent 调用内部业务接口时,缺乏统一的标准协议,每次新增功能都需修改后端代码并重新部署,响应缓慢。
  • 流量管理缺失:无法对不同部门或用户的 API 调用进行细粒度的限流和配额管理,容易因突发流量导致核心服务不可用。
  • 监控盲区:缺少统一的网关层监控,难以追踪请求延迟、错误率及 Token 消耗,故障排查如同“盲人摸象”。

使用 higress 后

  • 统一模型接入:higress 内置了主流大模型提供商的插件,通过简单配置即可屏蔽底层差异,实现“一次接入,多模型通用”。
  • 标准化工具服务:利用 higress 的 MCP(Model Context Protocol)支持,将内部 OpenAPI 快速转换为标准 MCP 服务,AI Agent 可无缝调用各类业务工具。
  • 精细化流量治理:基于 Istio 内核,higress 提供了强大的限流、熔断和路由规则,轻松保障高并发下的服务稳定性。
  • 全链路可观测:内置控制台实时展示 QPS、延迟分布及 Token 用量,帮助团队快速定位瓶颈并优化成本。

higress 通过屏蔽底层异构差异并提供原生 AI 协议支持,让企业能以最低成本构建稳定、可扩展的 AI 应用网关。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明

内存

未说明

依赖
notesHigress 是一个基于 Istio 和 Envoy 的云原生 API 网关,主要通过 Docker 容器运行。最低启动方式仅需安装 Docker,无需特定 GPU 或 Python 环境。支持在 Kubernetes 集群中通过 Helm 部署。镜像仓库提供中国、北美和东南亚多个区域源以加速拉取。
python未说明
Docker
Kubernetes (可选)
Helm (可选)
higress hero image

快速开始

Higress
AI 网关

原生 AI API 网关

构建状态 许可证 Discord

alibaba%2Fhigress | Trendshift Higress - 全球 APIs as MCP powered by AI Gateway | Product Hunt

官方网站   |   文档   |   博客   |   MCP 服务器快速入门   |   开发者指南   |   Wasm 插件中心   |

英文 | 中文 | 日本語

Higress 是什么?

Higress 是一款基于 Istio 和 Envoy 的云原生 API 网关,可通过使用 Go/Rust/JS 编写的 Wasm 插件进行扩展。它提供了数十个开箱即用的通用插件,并配备了一个即开即用的控制台(可在此处试用 演示)。

核心应用场景

Higress 的 AI 网关功能支持国内外所有 主流模型提供商。同时,它还通过插件机制支持托管 MCP(Model Context Protocol)服务器,使 AI 代理能够轻松调用各种工具和服务。借助 openapi-to-mcp 工具,您可以快速将 OpenAPI 规范转换为用于托管的远程 MCP 服务器。Higress 可对 LLM API 和 MCP API 进行统一管理。

🌟 立即访问 https://mcp.higress.ai/,亲身体验由 Higress 托管的远程 MCP 服务器:

Higress MCP 服务器平台

企业级应用

Higress 最初诞生于阿里巴巴内部,旨在解决 Tengine 重载影响长连接服务以及 gRPC/Dubbo 负载均衡能力不足的问题。在阿里云内部,Higress 的 AI 网关功能支持通义百炼模型工作室、机器学习 PAI 平台等核心 AI 应用及其他关键 AI 服务。阿里云已基于 Higress 构建了其云原生 API 网关产品,为大量企业客户提供 99.99% 的网关高可用性保障服务能力。

您可以通过下方按钮安装企业版 Higress:

部署在阿里云

如果您使用的是开源 Higress,并希望获得企业级支持,可以联系项目维护者 johnlanni 的邮箱:zty98751@alibaba-inc.com 或社交媒体账号(微信 ID:nomadao,钉钉 ID:chengtanzty)。添加好友时请注明 Higress :)

总结

快速入门

只需 Docker 即可启动 Higress,方便个人开发者在本地搭建以进行学习或构建简单站点:

# 创建工作目录
mkdir higress; cd higress
# 启动 Higress,配置文件将被写入工作目录
docker run -d --rm --name higress-ai -v ${PWD}:/data \
        -p 8001:8001 -p 8080:8080 -p 8443:8443  \
        higress-registry.cn-hangzhou.cr.aliyuncs.com/higress/all-in-one:latest

端口说明:

  • 8001 端口:Higress UI 控制台入口
  • 8080 端口:网关 HTTP 协议入口
  • 8443 端口:网关 HTTPS 协议入口

所有 Higress Docker 镜像均使用 Higress 自有的镜像仓库,不受 Docker Hub 速率限制的影响。 此外,镜像的提交和更新均受到安全扫描机制的保护(由阿里云 ACR 提供支持),因此在生产环境中使用非常安全。

如果您从 higress-registry.cn-hangzhou.cr.aliyuncs.com 拉取镜像时遇到超时问题,可以尝试更换为以下 Docker 镜像源:

北美地区higress-registry.us-west-1.cr.aliyuncs.com

东南亚地区higress-registry.ap-southeast-7.cr.aliyuncs.com

对于 Kubernetes 部署,您可以在 Helm values 中配置 global.hub 参数,以使用更靠近您所在地区的镜像仓库。这适用于 Higress 组件镜像以及内置 Wasm 插件镜像:

# 示例:使用北美镜像
helm install higress -n higress-system higress.io/higress --set global.hub=higress-registry.us-west-1.cr.aliyuncs.com --create-namespace

可用的镜像仓库:

  • 中国(杭州)higress-registry.cn-hangzhou.cr.aliyuncs.com(默认)
  • 北美地区higress-registry.us-west-1.cr.aliyuncs.com
  • 东南亚地区higress-registry.ap-southeast-7.cr.aliyuncs.com

有关其他安装方式,例如在 K8s 下使用 Helm 部署,请参阅官方 快速入门文档

如果您是在云端部署,建议使用 企业版

使用场景

  • MCP 服务器托管

    Higress 通过其插件机制托管 MCP 服务器,使 AI 代理能够轻松调用各种工具和服务。借助 openapi-to-mcp 工具,您可以快速将 OpenAPI 规范转换为远程 MCP 服务器。

    使用 Higress 托管 MCP 服务器的主要优势:

    • 统一的身份验证和授权机制

    • 细粒度的限流功能,防止滥用

    • 全面的审计日志,记录所有工具调用

    • 丰富的可观测性,便于监控性能

    • 通过 Higress 的插件机制简化部署

    • 动态更新,无需中断或断开连接

      了解更多...

  • AI 网关

    Higress 使用统一协议连接所有 LLM 模型提供商,具备 AI 可观测性、多模型负载均衡、令牌限流和缓存功能:

  • Kubernetes 入口控制器

    Higress 可以作为功能丰富的入口控制器,兼容 Kubernetes 的 Nginx 入口控制器的许多注解。

    目前已支持 Gateway API,并支持从 Ingress API 到 Gateway API 的平滑迁移。

    与 ingress-nginx 相比,资源开销显著降低,路由变更生效速度提升了十倍。

    以下资源开销对比来自 sealos

    有关详细信息,请阅读这篇 文章,了解 sealos 如何将对 数万个入口 资源的监控从 nginx 入口迁移到 higress。

  • 微服务网关

    Higress 可以作为微服务网关,从多种服务注册中心发现微服务,例如 Nacos、ZooKeeper、Consul、Eureka 等。

    它与 DubboNacosSentinel 等微服务技术栈深度集成。

  • 安全网关

    Higress 可用作安全网关,支持 WAF 和多种身份验证策略,如 key-auth、hmac-auth、jwt-auth、basic-auth、oidc 等。

核心优势

  • 生产级

    出自阿里巴巴内部产品,经过两年以上的生产环境验证,支持每秒数十万请求的大规模场景。

    彻底消除 Nginx 重载带来的流量抖动,配置变更可在毫秒级生效,且对业务透明。尤其适用于 AI 业务等长连接场景。

  • 流式处理

    支持请求/响应体的真正完整流式处理,Wasm 插件可轻松定制处理 SSE(服务器发送事件)等流式协议。

    在 AI 业务等高带宽场景下,可显著降低内存开销。

  • 易于扩展

    提供丰富的官方插件库,涵盖 AI、流量管理、安全防护等常用功能,满足超过 90% 的业务场景需求。

    专注于 Wasm 插件扩展,通过沙箱隔离确保内存安全,支持多种编程语言,允许插件版本独立升级,实现网关逻辑无损热更新。

  • 安全易用

    基于 Ingress API 和 Gateway API 标准,提供开箱即用的 UI 控制台、WAF 防护插件以及 IP/Cookie CC 防护插件,即装即用。

    支持连接 Let's Encrypt 自动签发和续订免费证书,也可部署在 K8s 外部,只需一条 Docker 命令即可启动,方便个人开发者使用。

社区

加入我们的 Discord 社区!在这里您可以与开发者和其他热情的 Higress 用户交流互动。

discord

致谢

Higress 的诞生离不开社区中各开源项目的重要贡献。我们特别感谢 Envoy 和 Istio。

相关仓库

贡献者

contributors

星标历史

星标历史图

↑ 回到顶部 ↑

版本历史

v2.2.12026/04/09
v2.1.112026/02/22
v2.2.02026/02/11
v2.1.102026/02/03
v2.1.92025/11/13
v2.1.9-rc.12025/10/09
v2.1.82025/09/21
v2.1.72025/09/01
v2.1.62025/07/30
v2.1.52025/07/02
v2.1.5-rc.12025/06/18
v2.1.42025/06/10
v2.1.32025/05/09
v2.1.22025/04/29
v2.1.2-rc.12025/04/28
v2.1.12025/04/18
v2.1.1-rc.12025/04/14
v2.1.02025/04/02
v2.1.0-rc.22025/04/01
v2.1.0-rc.12025/03/27

常见问题

相似工具推荐

opencode

OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信

144.3k|★☆☆☆☆|3天前
Agent插件

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|1周前
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|1周前
插件开发框架

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85.3k|★★☆☆☆|昨天
图像数据工具视频

gstack

gstack 是 Y Combinator CEO Garry Tan 亲自开源的一套 AI 工程化配置,旨在将 Claude Code 升级为你的虚拟工程团队。面对单人开发难以兼顾产品战略、架构设计、代码审查及质量测试的挑战,gstack 提供了一套标准化解决方案,帮助开发者实现堪比二十人团队的高效产出。 这套配置特别适合希望提升交付效率的创始人、技术负责人,以及初次尝试 Claude Code 的开发者。gstack 的核心亮点在于内置了 15 个具有明确职责的 AI 角色工具,涵盖 CEO、设计师、工程经理、QA 等职能。用户只需通过简单的斜杠命令(如 `/review` 进行代码审查、`/qa` 执行测试、`/plan-ceo-review` 规划功能),即可自动化处理从需求分析到部署上线的全链路任务。 所有操作基于 Markdown 和斜杠命令,无需复杂配置,完全免费且遵循 MIT 协议。gstack 不仅是一套工具集,更是一种现代化的软件工厂实践,让单人开发者也能拥有严谨的工程流程。

76.3k|★★☆☆☆|今天
Agent插件

codex

Codex 是 OpenAI 推出的一款轻量级编程智能体,专为在终端环境中高效运行而设计。它允许开发者直接在命令行界面与 AI 交互,完成代码生成、调试、重构及项目维护等任务,无需频繁切换至浏览器或集成开发环境,从而显著提升了编码流程的连贯性与专注度。 这款工具主要解决了传统 AI 辅助编程中上下文割裂的问题。通过将智能体本地化运行,Codex 能够更紧密地结合当前工作目录的文件结构,提供更具针对性的代码建议,同时支持以自然语言指令驱动复杂的开发操作,让“对话即编码”成为现实。 Codex 非常适合习惯使用命令行的软件工程师、全栈开发者以及技术研究人员。对于追求极致效率、偏好键盘操作胜过图形界面的极客用户而言,它更是理想的结对编程伙伴。 其独特亮点在于灵活的部署方式:既可作为全局命令行工具通过 npm 或 Homebrew 一键安装,也能无缝对接现有的 ChatGPT 订阅计划(如 Plus 或 Pro),直接复用账户权益。此外,它还提供了从纯文本终端到桌面应用的多形态体验,并支持基于 API 密钥的深度定制,充分满足不同场景下的开发需求。

75.2k|★☆☆☆☆|5天前
语言模型Agent插件