hyper-mcp
hyper-mcp 是一个高性能且安全的 MCP(模型上下文协议)服务器,旨在通过 WebAssembly 插件轻松为各类应用扩展 AI 能力。它能无缝对接 Claude Desktop、Cursor IDE 等主流工具,帮助开发者解决传统插件开发中面临的语言限制、部署复杂及安全隐患等痛点。
该工具特别适合后端开发者、AI 应用构建者及 DevOps 工程师使用。其核心亮点在于“语言无关性”与“沙箱安全”:开发者可以使用任何能编译为 WebAssembly 的语言编写插件,并通过标准的 OCI 容器注册表(如 Docker Hub)进行分发,实现从云端到边缘设备的全场景部署。在安全性方面,hyper-mcp 基于 Extism 构建,默认对插件实施严格的沙箱隔离,精细控制网络、文件系统及内存访问权限,并支持插件签名验证,确保代码在可信环境中运行。此外,它还支持动态加载卸载插件及工具名前缀功能,有效避免命名冲突,让 AI 应用的扩展变得更加灵活、轻量且可靠。
使用场景
某物联网边缘计算团队需要在资源受限的网关设备上,让 AI 助手安全地执行获取设备状态、生成访问二维码及查询公网 IP 等多样化任务。
没有 hyper-mcp 时
- 开发效率低下:每新增一个功能(如哈希计算或时间同步),开发者必须用 Rust 重写服务器端代码并重新编译部署,无法复用现有的 Python 或 Go 脚本。
- 安全隐患巨大:直接赋予 AI 助手系统级权限以执行外部命令,一旦提示词被注入攻击,整个网关设备面临被完全控制的风险。
- 分发维护困难:更新功能需手动登录每台边缘设备替换二进制文件,缺乏统一的版本管理和完整性校验机制。
- 资源占用过高:传统插件架构依赖重型运行时,导致内存紧张的 IoT 设备运行缓慢甚至崩溃。
使用 hyper-mcp 后
- 语言无关的快速扩展:团队直接将现有的 Go 和 Python 工具编译为 WebAssembly 插件,通过 OCI 镜像仓库一键分发,无需修改 hyper-mcp 核心代码。
- 细粒度沙箱隔离:利用 WASM 沙箱技术,严格限制"查询 IP"插件仅能访问特定网络接口,"生成二维码"插件无法读取文件系统,彻底阻断越权操作。
- 可信供应链保障:所有插件镜像在发布时自动签名,hyper-mcp 在加载前通过 sigstore 验证签名,确保边缘设备只运行受信任的代码。
- 轻量级边缘适配:得益于极低的内存占用,hyper-mcp 能在配置简陋的网关上流畅运行,支持动态热加载插件而无需重启服务。
hyper-mcp 通过 WebAssembly 沙箱与 OCI 生态的结合,让边缘侧 AI 应用在享受无限扩展能力的同时,拥有了企业级的安全边界与运维效率。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明(文档提及适用于资源受限环境,但未给出具体数值)

快速开始
hyper-mcp
一个快速、安全的MCP服务器,可通过WebAssembly插件扩展其功能。
它是什么?
hyper-mcp 让为你的应用添加AI功能变得简单。它与Claude Desktop、Cursor IDE以及其他兼容MCP的应用程序协同工作。你可以用自己喜欢的语言编写插件,通过容器注册表分发,并在任何地方运行——从云端到边缘设备。
特性
- 可以使用任何编译成WebAssembly的语言编写插件
- 通过标准OCI注册表(如Docker Hub)分发插件
- 基于 Extism 构建,提供稳固可靠的插件支持
- 使用WASM进行沙箱隔离:可限制网络、文件系统和内存访问
- 轻量级设计,适合资源受限的环境
- 支持
stdio传输协议 - 部署灵活:无服务器、边缘计算、移动端、物联网设备等
- 开箱即用地支持跨平台
- 提供工具名称前缀,防止工具名称冲突
- 动态加载和卸载插件(可配置)
安全性
以安全为先的设计理念:
- 沙箱化的插件无法在未经许可的情况下访问你的系统
- 内存安全执行并设置资源限制
- 通过容器注册表安全地分发插件
- 对宿主函数进行细粒度的访问控制
- OCI插件镜像在发布时签名,在加载时通过 sigstore 进行验证。
快速开始
- 创建配置文件:
- Linux:
$HOME/.config/hyper-mcp/config.json - Windows:
{FOLDERID_RoamingAppData}\hyper-mcp\config.json。例如:C:\Users\Alice\AppData\Roaming\hyper-mcp\config.json - macOS:
$HOME/Library/Application Support/hyper-mcp/config.json
- Linux:
{
"plugins": {
"time": {
"url": "oci://ghcr.io/hyper-mcp-rs/time-plugin:latest",
"description": "获取当前时间并进行时间计算"
},
"qr_code": {
"url": "oci://ghcr.io/hyper-mcp-rs/qrcode-plugin:latest",
"description": "根据文本生成二维码"
},
"hash": {
"url": "oci://ghcr.io/hyper-mcp-rs/hash-plugin:latest"
},
"myip": {
"url": "oci://ghcr.io/hyper-mcp-rs/myip-plugin:latest",
"description": "获取你当前的公网IP地址",
"runtime_config": {
"allowed_hosts": ["1.1.1.1"]
}
},
"fetch": {
"url": "oci://ghcr.io/hyper-mcp-rs/fetch-plugin:latest",
"runtime_config": {
"allowed_hosts": ["*"],
"memory_limit": "100 MB",
}
}
}
}
📖 有关详细的配置选项,包括身份验证设置、运行时配置及高级功能,请参阅 RUNTIME_CONFIG.md
支持的URL方案:
oci://- 用于符合OCI标准的注册表(如Docker Hub、GitHub Container Registry等)需要COSIGNfile://- 用于本地文件http://或https://- 用于远程文件s3://- 用于Amazon S3对象(需要在环境中配置AWS凭据)
- 启动服务器:
$ hyper-mcp
- 使用
stdio传输协议。 - 如果需要调试,可以设置
RUST_LOG=debug。 - 如果加载未签名的OCI插件,需要将
insecure_skip_signature标志或环境变量HYPER_MCP_INSECURE_SKIP_SIGNATURE设置为true。
以SSE/流式HTTP运行:为此,可以将
hyper-mcp包裹在支持相应网络传输方式且为每个客户端连接创建hyper-mcp实例的代理中。
输出日志
hyper-mcp会自动将所有输出记录到每日滚动的日志文件中,以便进行调试和监控。
日志位置:
- Linux:
$HOME/.config/hyper-mcp/logs/mcp-server.log - Windows:
{FOLDERID_RoamingAppData}\hyper-mcp\logs\mcp-server.log - macOS:
$HOME/Library/Application Support/hyper-mcp/logs/mcp-server.log
自定义日志路径:
可以通过设置HYPER_MCP_LOG_PATH环境变量来覆盖默认的日志目录:
export HYPER_MCP_LOG_PATH=/path/to/your/logs
hyper-mcp
日志级别:
使用RUST_LOG环境变量控制日志的详细程度:
# 信息级别(默认)
RUST_LOG=info hyper-mcp
# 调试级别(详细,适用于故障排除)
RUST_LOG=debug hyper-mcp
# 警告级别(仅显示警告和错误)
RUST_LOG=warn hyper-mcp
特点:
- 每日日志轮转(每天创建新文件)
- 非阻塞写入,避免影响性能
- 包含时间戳、行号和目标信息
- 适用于stdio传输(日志不会干扰MCP通信)
与Cursor IDE配合使用
你可以为所有项目全局配置hyper-mcp,也可以针对单个项目进行特定配置。
- 对于项目范围的配置,在项目根目录下创建
.cursor/mcp.json:
{
"mcpServers": {
"hyper-mcp": {
"command": "/path/to/hyper-mcp"
}
}
}
在Cursor的设置中配置hyper-mcp:

通过聊天开始使用工具:

可用插件
我们维护了几款插件供你快速上手:
V1 插件
这些插件使用 v1 插件接口。虽然目前仍受支持,但新插件应使用 v2 接口。
- time:获取当前时间并进行时间计算(Rust)
- qr_code:生成二维码(Rust)
- hash:生成多种类型的哈希值(Rust)
- myip:获取当前 IP 地址(Rust)
- crypto_price:获取加密货币价格(Go)
- fs:文件系统操作(Rust)
- github:GitHub 插件(Go)
- eval_py:使用 RustPython 评估 Python 代码(Rust)
- arxiv:搜索并下载 arXiv 论文(Rust)
- memory:基于 SQLite 的内存存储与检索工具(Rust)
- sqlite:与 SQLite 数据库交互(Rust)
- crates-io:获取 crate 的基本信息及最新版本(Rust)
- gomodule:获取 Go 模块信息及版本号(Rust)
- qdrant:将记忆保存并检索至 Qdrant 向量搜索引擎(Rust)
- gitlab:GitLab 插件(Rust)
- meme_generator:表情包生成器(Rust)
- think:思考工具(Rust)
- maven:Maven 插件(Rust)
- serper:Serper 网页搜索插件(Rust)
V2 插件
这些插件使用 v2 插件接口。新插件应使用此接口。
- context7:查找库文档(Rust)
- defuddle:以 Markdown 格式提取任意页面的主要内容(Rust)
- fetch:基础网页抓取功能(Rust)
- monty:用 Rust 编写的极简且安全的 Python 解释器,专为 AI 使用(Rust)
- rstime:获取当前时间并进行时间计算(Rust)
社区构建的插件
- hackernews:该插件连接到 Hacker News API,获取当前热门新闻,并显示其标题、评分、作者和 URL。
- release-monitor-id:该插件从 release-monitoring.org 获取项目 ID,帮助跟踪已发布软件的版本。
- yahoo-finance:该插件连接到 Yahoo Finance API,根据公司名称或股票代码提供股票价格(OHLCV)。
- rand16:该插件生成随机 16 字节缓冲区,并以 base64uri 格式提供,非常适合在线对称加密。
文档
- 内置工具参考 — 包含以下
hyper_mcp-*工具的文档:hyper_mcp-list_plugins— 列出所有已加载的插件hyper_mcp-load_plugin— 在运行时动态加载插件hyper_mcp-unload_plugin— 在运行时动态卸载插件
- 运行时配置指南 — 关于配置选项的全面指南,包括:
- 身份验证设置(Basic、Token 和 Keyring)
- 插件运行时配置
- 安全注意事项及最佳实践
- 针对 macOS、Linux 和 Windows 的特定平台 Keyring 设置
- 身份验证问题的故障排除
- 跳过工具模式指南 — 使用正则表达式模式过滤工具的全面指南:
- 模式语法及示例
- 常见用法及最佳实践
- 针对不同环境的过滤策略
- 高级正则表达式技术
- 迁移与故障排除
创建插件
有关创建插件的完整说明,请参阅 CREATING_PLUGINS.md。
如需现成的 Rust 和 Go 插件模板,请参阅 TEMPLATES.md。
许可证
星标历史
版本历史
v0.5.42026/04/06nightly2026/04/18v0.5.32026/03/27v0.5.22026/03/24v0.5.12026/03/17v0.5.02026/03/12v0.4.72026/03/10v0.4.62026/03/05v0.4.52026/03/04v0.4.42026/03/04v0.4.32026/02/26v0.4.22026/02/20v0.4.02026/02/20v0.3.12026/02/16v0.3.02026/02/16v0.2.32026/02/03v0.2.22026/01/26v0.2.12026/01/21v0.2.02026/01/12v0.1.82025/10/07常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

