mcp
mcp 是 AWS 官方推出的一套开源模型上下文协议(MCP)服务器集合,旨在让开发者在使用各类 AI 助手时,能够更安全、高效地连接和操作 AWS 云服务。它解决了大语言模型在缺乏实时上下文时难以准确执行云资源管理、代码部署或数据查询的痛点,通过标准化的接口让 AI 直接“读懂”并调用 AWS 能力。
这套工具特别适合云原生开发者、DevOps 工程师以及希望构建智能自动化工作流的技术团队。无论是进行基础设施即代码(IaC)管理、容器化应用部署,还是处理复杂的数据库查询与机器学习任务,mcp 都能提供针对性的支持。其核心亮点在于丰富的场景覆盖:从实时访问官方文档到自动执行后台运维任务,甚至支持在无服务器架构中直接运行。此外,mcp 提供了灵活的部署方式,既支持本地运行以保障敏感数据安全,也支持远程部署以适应分布式协作需求。通过模块化设计,用户可以按需组合功能,轻松将 AWS 的强大能力融入日常开发与对话式助手中,显著提升云端工作效率。
使用场景
某初创公司的后端工程师正在紧急重构其电商平台的订单系统,需要快速将本地代码部署到 AWS 并集成实时日志监控。
没有 mcp 时
- 文档检索低效:面对 AWS 繁杂的服务文档,工程师需频繁切换浏览器标签页搜索最新 API 用法,极易因版本过时而写出错误代码。
- 上下文割裂严重:在 IDE 编写基础设施即代码(IaC)脚本时,无法直接获取云端资源状态,必须手动运行 CLI 命令复制粘贴结果回编辑器。
- 调试周期漫长:排查 Lambda 函数报错时,需在控制台、CloudWatch 和本地日志间反复横跳,难以快速定位是权限配置还是代码逻辑问题。
- 环境一致性差:本地模拟环境与真实 AWS 环境存在差异,导致“本地运行正常,上云就报错”的常见问题频发。
使用 mcp 后
- 文档实时直达:mcp 直接在编辑器内提供官方 AWS 文档的实时访问能力,工程师可随时调用最新参数说明,确保代码一次写对。
- 工作流无缝闭环:通过 mcp 的 Infrastructure & Deployment 服务,开发者能在 IDE 中直接查询、创建和更新 AWS 资源,无需离开编码界面。
- 智能诊断加速:借助 mcp 的 Operations & Monitoring 能力,AI 助手可自动拉取 CloudWatch 日志并结合代码上下文分析根因,秒级定位故障。
- 环境高度同步:mcp 让本地开发代理直接操作真实云资源,消除了环境差异带来的不确定性,大幅减少部署后的意外报错。
mcp 通过将 AWS 原生能力深度嵌入开发工作流,把原本割裂的“查文档、写代码、查状态、修 Bug"过程整合为流畅的自然语言交互体验。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
适用于 AWS 的开源 MCP 服务器
一套专门的 MCP 服务器,可帮助您在任何使用 MCP 的场景下充分利用 AWS。
目录
- 适用于 AWS 的开源 MCP 服务器
什么是模型上下文协议 (MCP),它如何与 AWS 的 MCP 服务器协同工作?
模型上下文协议 (MCP) 是一种开放协议,可在 LLM 应用程序与外部数据源和工具之间实现无缝集成。无论您是在构建 AI 驱动的 IDE、增强聊天界面,还是一些自定义的 AI 工作流,MCP 都提供了一种标准化的方式来连接 LLM 与它们所需的上下文。
MCP 服务器是一个轻量级程序,通过标准化的模型上下文协议公开特定功能。宿主应用程序(如聊天机器人、IDE 和其他 AI 工具)拥有 MCP 客户端,这些客户端与 MCP 服务器保持一对一的连接。常见的 MCP 客户端包括智能 AI 编码助手(如 Kiro、Cline、Cursor、Windsurf),以及 Claude Desktop 等聊天应用,未来还将有更多客户端加入。MCP 服务器可以访问本地数据源和远程服务,以提供额外的上下文信息,从而提升模型生成结果的质量。
AWS 的 MCP 服务器利用这一协议,为 AI 应用程序提供对 AWS 文档、上下文指导和最佳实践的访问权限。通过标准化的 MCP 客户端-服务器架构,AWS 功能成为您开发环境或 AI 应用程序的智能扩展。
AWS 的 MCP 服务器能够增强云原生开发、基础设施管理和开发工作流,使 AI 辅助的云计算更加便捷高效。
模型上下文协议是由 Anthropic, PBC 运营的开源项目,并向整个社区开放贡献。有关 MCP 的更多信息,请参阅此处的文档 这里
适用于 AWS 的开源 MCP 服务器传输机制
支持的传输机制
MCP 协议目前定义了两种用于客户端-服务器通信的标准传输机制:
- stdio,通过标准输入和标准输出进行通信
- 可流式 HTTP
本仓库中的 MCP 服务器仅支持 stdio。
您有责任确保对这些服务器的使用符合其管理条款,以及适用于您的任何法律、规则、法规、政策或标准。
移除 Server Sent Events 支持
重要通知: 2025年5月26日,所有 MCP 服务器在其最新主要版本中移除了对 Server Sent Events (SSE) 的支持。这一变更符合 Model Context Protocol 规范中的向后兼容性指南。
我们正积极致力于支持可流式 HTTP,这将为未来版本提供更强大的传输能力。
对于仍需要 SSE 支持的应用程序,请继续使用相应 MCP 服务器的上一主要版本,直到您可以迁移到替代传输方法为止。
为何选择 AWS 的 MCP 服务器?
MCP 服务器在多个关键方面增强了基础模型(FM)的能力:
提升输出质量:通过直接在模型上下文中提供相关信息,MCP 服务器显著改善了模型在 AWS 服务等专业领域中的响应质量。这种方法减少了幻觉现象,提供了更准确的技术细节,实现了更精确的代码生成,并确保建议与当前的 AWS 最佳实践和服务能力保持一致。
访问最新文档:基础模型可能不具备对最新发布内容、API 或 SDK 的了解。MCP 服务器通过引入最新的文档来弥补这一差距,确保您的 AI 助手始终基于 AWS 的最新功能进行工作。
工作流自动化:MCP 服务器将常见工作流转换为基础模型可以直接使用的工具。无论是 CDK、Terraform 还是其他 AWS 特定工作流,这些工具都能使 AI 助手以更高的准确性和效率完成复杂任务。
专业领域知识:MCP 服务器提供了关于 AWS 服务的深入上下文知识,而这些知识可能并未完全体现在基础模型的训练数据中,从而能够为云开发任务提供更准确、更有帮助的响应。
可用的 MCP 服务器:快速安装
通过一键安装按钮,您可以快速开始使用流行的 MCP 客户端。点击下方按钮,即可在 Cursor 或 VS Code 中直接安装服务器:
🚀 开始使用 AWS
对于 AWS 相关操作,我们建议从以下服务器入手:
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| AWS MCP 服务器(预览版) | 从此处开始,实现安全且可审计的 AWS 交互!该远程托管的 MCP 服务器由 AWS 托管,结合了全面的 AWS API 支持、最新 AWS 文档、API 参考、新功能公告及入门信息。内置遵循 AWS 最佳实践的 Agent SOP,帮助代理可靠地完成复杂的多步骤 AWS 任务。设计时充分考虑了安全性和可控性:语法验证的 API 调用、基于 IAM 的权限控制且零凭证暴露,以及完整的 CloudTrail 审计日志记录。您可以访问所有 AWS 服务,以透明和可追溯的方式管理基础设施、探索资源并执行 AWS 操作。了解更多 |
按照您正在构建的内容浏览
📚 实时访问 AWS 官方文档
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| AWS Knowledge MCP 服务器 | 由 AWS 托管的远程、完全托管的 MCP 服务器,提供对最新 AWS 文档、API 参考、新功能发布文章、入门信息、构建者中心、博客文章、架构参考以及良好架构指南的访问。 | |
| AWS 文档 MCP 服务器 | 获取最新的 AWS 文档和 API 参考 |
🏗️ 基础设施与部署
使用基础设施即代码的最佳实践来构建、部署和管理云基础设施。
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| AWS IaC MCP 服务器 | 全面的基础设施即代码工具套件,提供 CloudFormation 文档访问、CDK 最佳实践指南、组件示例、安全验证和部署故障排除功能 | |
| AWS Cloud Control API MCP 服务器 ⚠️ 已弃用 | 直接管理 AWS 资源,附带安全扫描和最佳实践(请改用 AWS IaC MCP 服务器) | |
| AWS CDK MCP 服务器 ⚠️ 已弃用 | AWS CDK 开发,支持安全合规和最佳实践(请改用 AWS IaC MCP 服务器) | |
| AWS Terraform MCP 服务器 ⚠️ 已弃用 | 集成安全扫描的 Terraform 工作流(请改用 HashiCorp 官方 Terraform MCP 服务器) | |
| AWS CloudFormation MCP 服务器 | 通过 Cloud Control API 直接管理 CloudFormation 资源 |
容器平台
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| Amazon EKS MCP 服务器 | Kubernetes 集群管理和应用部署 | |
| Amazon ECS MCP 服务器 | 容器编排和 ECS 应用部署 | |
| Finch MCP 服务器 | 带有 ECR 集成的本地容器构建 |
无服务器与函数
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| AWS 无服务器 MCP 服务器 | 使用 SAM CLI 实现完整的无服务器应用生命周期 | |
| AWS Lambda 工具 MCP 服务器 | 将 Lambda 函数作为 AI 工具执行,以访问私有资源 |
支持
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| AWS 支持 MCP 服务器 | 帮助用户创建和管理 AWS 支持案例 |
🤖 AI与机器学习
通过知识检索、内容生成和机器学习能力增强 AI 应用
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| Amazon Bedrock 知识库检索 MCP 服务器 | 支持引用的企业知识库查询 | [ |
| Amazon Kendra 索引 MCP 服务器 | 企业搜索与 RAG 增强 | [ |
| Amazon Q Business MCP 服务器 | 基于您导入内容的 AI 助手,支持匿名访问 | [ |
| Amazon Q 索引 MCP 服务器 | 用于搜索企业 Q 索引的数据访问工具 | [ |
| Nova Canvas MCP 服务器 ⚠️ 已弃用 | 使用 Amazon Nova Canvas 进行 AI 图像生成(请改用 bedrock-image-mcp-server) | [ |
| AWS Bedrock 数据自动化 MCP 服务器 ⚠️ 已弃用 | 分析文档、图像、视频和音频文件(请改用 boto3 API 或 aws-api-mcp-server) | [ |
| AWS Bedrock 自定义模型导入 MCP 服务器 | 在 Bedrock 中管理自定义模型以进行按需推理 | [ |
| AWS Bedrock AgentCore MCP 服务器 | 提供关于 AgentCore 平台服务、API 和最佳实践的全面文档访问 | [ |
| Amazon SageMaker AI MCP 服务器 | SageMaker AI 资源管理和模型开发 | [ |
📊 数据与分析
使用数据库、缓存系统和数据处理工作流。
SQL 与 NoSQL 数据库
| Server Name | Description | Install |
|---|---|---|
| Amazon DynamoDB MCP Server | DynamoDB expert design guidance and data modeling assistance | |
| Amazon Aurora PostgreSQL MCP Server | PostgreSQL database operations via RDS Data API | |
| Amazon Aurora MySQL MCP Server | MySQL database operations via RDS Data API | |
| Amazon Aurora DSQL MCP Server | Distributed SQL with PostgreSQL compatibility | |
| Amazon DocumentDB MCP Server | MongoDB-compatible document database operations | |
| Amazon Neptune MCP Server | Graph database queries with openCypher and Gremlin | |
| Amazon Keyspaces MCP Server | Apache Cassandra-compatible operations | |
| Amazon Timestream for InfluxDB MCP Server | Time-series database operations and InfluxDB compatibility | |
| Amazon MSK MCP Server ⚠️ DEPRECATED | Managed Kafka cluster operations and streaming (Use aws-api-mcp-server or MSK boto3 APIs directly instead) | |
| AWS S3 Tables MCP Server | Manage S3 Tables for optimized analytics | |
| Amazon Redshift MCP Server | Data warehouse operations and analytics queries | |
| AWS IoT SiteWise MCP Server | Industrial IoT asset management, data ingestion, and analytics |
搜索与分析
- Amazon OpenSearch MCP 服务器 - 基于 OpenSearch 的搜索、分析和可观测性
后端 API 提供者
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| AWS AppSync MCP 服务器 | 管理并交互由 AWS AppSync 驱动的应用程序后端 |
缓存与性能
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| Amazon ElastiCache MCP 服务器 | 完整的 ElastiCache 控制平面操作 | |
| Amazon ElastiCache / MemoryDB for Valkey MCP 服务器 | 使用 Valkey 实现高级数据结构和缓存 | |
| Amazon ElastiCache for Memcached MCP 服务器 | 使用 Memcached 协议实现高速缓存 |
🛠️ 开发工具与支持
通过代码分析、文档和测试工具加速开发。
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| AWS IAM MCP 服务器 | 基于安全最佳实践的全面 IAM 用户、角色、组和策略管理 | |
| Git 仓库研究 MCP 服务器 ⚠️ 已弃用 | 语义代码搜索和仓库分析(请改用 Context7) | |
| 代码文档生成器 MCP 服务器 | ⚠️ 已弃用 - 通过代码分析自动生成文档 | |
| AWS 架构图 MCP 服务器 ⚠️ 已弃用 | 生成架构图和技术插图(请改用 diagram agent skill) | |
| 前端 MCP 服务器 ⚠️ 已弃用 | React 和现代 Web 开发指导(请改用项目级文档或 Kiro 规范) | |
| 合成数据 MCP 服务器 ⚠️ 已弃用 | 为开发和机器学习生成逼真的测试数据(此功能可通过 AI 助手原生实现;上传请使用 S3 MCP 服务器) | |
| OpenAPI MCP 服务器 | 通过 OpenAPI 规范实现动态 API 集成 |
📡 集成与消息传递
通过消息传递、工作流和位置服务连接各个系统。
💰 成本与运营
监控、优化并管理您的 AWS 基础设施和成本。
🧬 医疗健康与生命科学
与 AWS HealthAI 服务互动。
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| AWS HealthOmics MCP 服务器 | 生成、运行、调试和优化生命科学工作流 | |
| AWS HealthImaging MCP 服务器 | 全面的医学影像数据生命周期管理,包含 21 种用于 DICOM 操作、数据存储管理和自动化发现的工具 | |
| AWS HealthLake MCP 服务器 | 使用全面的 AWS HealthLake 集成创建、管理、搜索和优化 FHIR 医疗健康数据工作流,具备自动化资源发现、高级搜索功能、患者记录管理和无缝导入导出操作。 |
按工作方式浏览
👨💻 轻松编码与开发
像 Kiro、Cline、Cursor 和 Claude Code 这样的 AI 编码助手帮助您更快地构建
研讨会: 查看 使用 AWS MCP 服务器进行轻松编码 研讨会,获取实践指导和示例。
核心开发工作流
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| AWS IaC MCP 服务器 | 全面的基础设施即代码工具套件,提供 CloudFormation 文档访问、CDK 最佳实践指南、构造示例、安全验证和部署故障排除功能 | |
| AWS CDK MCP 服务器 ⚠️ 已弃用 | 基于 CDK 的开发,包含安全最佳实践和合规性检查(请改用 AWS IaC MCP 服务器) | |
| AWS Terraform MCP 服务器 ⚠️ 已弃用 | 集成安全扫描和最佳实践的 Terraform(请改用 HashiCorp 官方 Terraform MCP 服务器) | |
| AWS CloudFormation MCP 服务器 ⚠️ 已弃用 | 通过 Cloud Control API 直接管理 AWS 资源(请改用 AWS IaC MCP 服务器) | |
| AWS Cloud Control API MCP 服务器 ⚠️ 已弃用 | 提供安全扫描和最佳实践的直接 AWS 资源管理(请改用 AWS IaC MCP 服务器) |
应用开发
测试与数据
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| 合成数据 MCP 服务器 ⚠️ 已弃用 | 为开发和机器学习生成逼真的测试数据(此功能现可由 AI 助手原生实现;上传请使用 S3 MCP 服务器) |
生命科学工作流开发
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| AWS HealthOmics MCP 服务器 | 生成、运行、调试和优化生命科学工作流 |
医疗保健数据管理
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| AWS HealthLake MCP 服务器 | 创建、管理、搜索和优化 FHIR 医疗保健数据工作流,全面集成 AWS HealthLake,具备自动化资源发现、高级搜索功能、患者记录管理以及无缝的导入导出操作。 |
💬 对话式助手
面向客户的聊天机器人、业务代理和交互式问答系统
知识与搜索
内容处理与生成
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| 文档加载器 MCP 服务器 | 解析并从 PDF、DOCX、XLSX、PPTX 和图像文件中提取内容 | |
| Amazon Nova Canvas MCP 服务器 ⚠️ 已弃用 | 根据文本描述和调色板生成图像(请改用 bedrock-image-mcp-server) | |
| Amazon Bedrock 数据自动化 MCP 服务器 ⚠️ 已弃用 | 分析上传的文档、图像和媒体(请改用 boto3 API 或 aws-api-mcp-server) |
商业服务
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| 亚马逊位置服务 MCP 服务器 | 位置搜索、地理编码和营业时间 | |
| AWS 定价 MCP 服务器 | AWS 服务定价和成本估算 | |
| AWS 成本探索 MCP 服务器 ⚠️ 已弃用 | 详细的成本分析和支出报告(请改用 账单与成本管理 MCP 服务器) |
🤖 自动化后台代理
无头自动化、ETL 流水线和运营系统
数据操作与 ETL
| Server Name | Description | Install |
|---|---|---|
| AWS Data Processing MCP Server | Comprehensive data processing tools and real-time pipeline visibility across AWS Glue and Amazon EMR-EC2 | |
| Amazon DynamoDB MCP Server | Complete DynamoDB operations and table management | |
| Amazon Aurora PostgreSQL MCP Server | PostgreSQL database operations via RDS Data API | |
| Amazon Aurora MySQL MCP Server | MySQL database operations via RDS Data API | |
| Amazon Aurora DSQL MCP Server | Distributed SQL with PostgreSQL compatibility | |
| Amazon DocumentDB MCP Server | MongoDB-compatible document database operations | |
| Amazon Neptune MCP Server | Graph database queries with openCypher and Gremlin | |
| Amazon Keyspaces MCP Server | Apache Cassandra-compatible operations | |
| Amazon Timestream for InfluxDB MCP Server | Time-series database operations and InfluxDB compatibility | |
| Amazon MSK MCP Server ⚠️ DEPRECATED | Managed Kafka cluster operations and streaming (Use aws-api-mcp-server or MSK boto3 APIs directly instead) |
缓存与性能
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| 亚马逊 ElastiCache / MemoryDB for Valkey MCP 服务器 | 使用 Valkey 提供高级数据结构和缓存功能 | |
| 亚马逊 ElastiCache for Memcached MCP 服务器 | 使用 Memcached 协议实现高速缓存 |
工作流与集成
| 服务器名称 | 描述 | 安装 |
|---|---|---|
| AWS Lambda 工具 MCP 服务器 | 将 Lambda 函数作为 AI 工具执行,用于私有资源访问 | |
| AWS Step Functions 工具 MCP 服务器 | 执行复杂的工作流和业务流程 | |
| Amazon SNS/SQS MCP 服务器 | 事件驱动的消息传递和队列管理 | |
| Amazon MQ MCP 服务器 | RabbitMQ 和 ActiveMQ 的消息代理管理 | |
| AWS MSK MCP 服务器 | 托管 Kafka 集群操作和流式处理 |
运营与监控
MCP AWS Lambda 处理器模块
一个用于使用 AWS Lambda 创建模型上下文协议 (MCP) 无服务器 HTTP 处理器的 Python 库。该模块提供了一个灵活的框架,用于构建具有可插拔会话管理功能的 MCP HTTP 端点,包括内置的 DynamoDB 支持。
特性:
- 使用 AWS Lambda 轻松创建无服务器 MCP HTTP 处理器
- 可插拔的会话管理系统
- 内置 DynamoDB 会话后端支持
- 可自定义的身份验证和授权
- 示例实现和测试
有关完整的使用、安装和开发说明,请参阅 src/mcp-lambda-handler/README.md。
何时使用本地与远程 MCP 服务器?
MCP 服务器可以在您的开发机器上本地运行,也可以在云端远程运行。以下是选择每种方式的场景:
本地 MCP 服务器
- 开发与测试:非常适合本地开发、测试和调试
- 离线工作:在互联网连接受限时继续工作
- 数据隐私:将敏感数据和凭据保留在本地机器上
- 低延迟:网络开销极小,响应时间更快
- 资源控制:直接控制服务器资源和配置
远程 MCP 服务器
- 团队协作:在团队中共享一致的服务器配置
- 资源密集型任务:将繁重的处理任务卸载到专用的云资源上
- 随时可用:可以从任何地方、任何设备访问您的 MCP 服务器
- 自动更新:自动获取最新功能和安全补丁
- 可扩展性:轻松应对不同的工作负载,不受本地资源限制
- 安全性:通过基于 IAM 的权限和零凭据暴露实现集中式安全控制
- 治理:全面的审计日志记录和合规性监控,满足企业级治理要求
注意:某些 MCP 服务器,例如 官方 AWS MCP 服务器(预览版)和 AWS Knowledge MCP,由 AWS 提供完全托管的服务。这些 AWS 托管的远程服务器无需您进行任何设置或基础设施管理——只需连接并开始使用即可。
服务器的应用场景
例如,您可以使用 AWS 文档 MCP 服务器 来帮助您的 AI 助手研究并生成适用于任何 AWS 服务的最新代码,比如 Amazon Bedrock Inline 代理。或者,您也可以使用 CDK MCP 服务器 或 Terraform MCP 服务器,让您的 AI 助手创建使用最新 API 并遵循 AWS 最佳实践的基础设施即代码实现。借助 AWS 定价 MCP 服务器,您可以询问:“在我部署这个 CDK 项目之前,预计每月的成本是多少?”或“您能帮我了解这个基础设施设计可能产生的 AWS 服务费用吗?”从而获得详细的成本估算和预算规划建议。而 Valkey MCP 服务器 则允许通过自然语言与 Valkey 数据存储进行交互,使 AI 助手能够通过简单的对话界面高效地管理数据操作。
安装与设置
每个服务器都有特定的安装说明,并为 Kiro、Cursor 和 VSCode 提供了一键安装选项。通常,您可以按照以下步骤操作:
- 从 Astral 安装
uv - 使用
uv python install 3.10安装 Python - 配置具有所需服务访问权限的 AWS 凭证
- 将服务器添加到您的 MCP 客户端配置中
Kiro MCP 设置的示例配置文件 (~/.kiro/settings/mcp.json):
对于 macOS/Linux
{
"mcpServers": {
"awslabs-core-mcp-server": {
"command": "uvx",
"args": [
"awslabs.core-mcp-server@latest"
],
"env": {
"FASTMCP_LOG_LEVEL": "ERROR"
}
}
}
}
具体要求和配置选项请参阅各个服务器的 README 文件。
对于 Windows
在 Windows 上配置 MCP 服务器时,需要使用略有不同的配置格式:
{
"mcpServers": {
"awslabs-core-mcp-server": {
"disabled": false,
"timeout": 60,
"type": "stdio",
"command": "uv",
"args": [
"tool",
"run",
"--from",
"awslabs.core-mcp-server@latest",
"awslabs.core-mcp-server.exe"
],
"env": {
"FASTMCP_LOG_LEVEL": "ERROR"
}
}
}
}
如果您在 MCP 配置方面遇到问题,或想检查是否已正确设置相关参数,可以尝试以下命令:
# 手动运行 MCP 服务器,超时时间为 15 秒
$ timeout 15s uv tool run <MCP 名称> <参数> 2>&1 || echo "命令已完成或已超时"
# 示例(Aurora MySQL MCP 服务器)
$ timeout 15s uv tool run awslabs.mysql-mcp-server --resource_arn <您的资源 ARN> --secret_arn <您的秘密 ARN> ... 2>&1 || echo "命令已完成或已超时"
# 如果参数未正确设置,您可能会看到如下提示:
usage: awslabs.mysql-mcp-server [-h] --resource_arn RESOURCE_ARN --secret_arn SECRET_ARN --database DATABASE
--region REGION --readonly READONLY
awslabs.mysql-mcp-server: error: 必须提供以下参数:--resource_arn, --secret_arn, --database, --region, --readonly
关于使用 uvx 和 "@latest" 后缀性能的注意事项:
使用 "@latest" 后缀会在每次启动 MCP 客户端时检查并从 PyPI 下载最新的 MCP 服务器包,但这会导致初始加载时间增加。如果您希望尽量缩短初始加载时间,可以移除 "@latest",并通过以下方法自行管理 uv 缓存:
uv cache clean <工具>:其中 {工具} 是您希望从缓存中删除并重新安装的 MCP 服务器(例如:“awslabs.lambda-tool-mcp-server”)(请注意去掉< >)。uvx <工具>@latest:这将刷新该工具至最新版本,并将其添加到uv缓存中。
在容器中运行 MCP 服务器
每个 MCP 服务器的 Docker 镜像都已发布到 公共 AWS ECR 注册表。
本示例使用 awslabs.nova-canvas-mcp-server 的 Docker 镜像,可针对每个 MCP 服务器重复此操作。
您可以选择将敏感的环境变量保存在一个文件中:
# .env 文件内容,包含虚构的 AWS 临时凭证 AWS_ACCESS_KEY_ID=ASIAIOSFODNN7EXAMPLE AWS_SECRET_ACCESS_KEY=wJalrXUtnFEMI/K7MDENG/bPxRfiCYEXAMPLEKEY AWS_SESSION_TOKEN=AQoEXAMPLEH4aoAH0gNCAPy...截断...zrkuWJOgQs8IZZaIv2BXIa2R4Olgk根据需要使用 Docker 的
--env、--env-file和--volume选项,因为容器内部无法直接使用"env": {}配置。{ "mcpServers": { "awslabs.nova-canvas-mcp-server": { "command": "docker", "args": [ "run", "--rm", "--interactive", "--env", "FASTMCP_LOG_LEVEL=ERROR", "--env", "AWS_REGION=us-east-1", "--env-file", "/full/path/to/.env", "--volume", "/full/path/to/.aws:/app/.aws", "public.ecr.aws/awslabs-mcp/awslabs/nova-canvas-mcp-server:latest" ], "env": {} } } }如果要测试本地更改,您可以构建并标记镜像。随后需要更新 MCP 配置,以使用该自定义标签而非 ECR 镜像。
cd src/nova-canvas-mcp-server docker build -t awslabs/nova-canvas-mcp-server .
开始使用 Kiro
在 Kiro 中安装
有关详细信息,请参阅 Kiro IDE 文档 或 Kiro CLI 文档。
在 Kiro IDE 中:
- 导航至
Kiro>MCP 服务器。 - 单击
+ 添加按钮以添加新的 MCP 服务器。 - 粘贴下方提供的配置。
对于全局配置,请编辑 ~/.kiro/settings/mcp.json;对于项目特定配置,请编辑您项目目录中的 .kiro/settings/mcp.json。
~/.kiro/settings/mcp.json
适用于 macOS/Linux:
{
"mcpServers": {
"awslabs-core-mcp-server": {
"command": "uvx",
"args": ["awslabs.core-mcp-server@latest"],
"env": {
"FASTMCP_LOG_LEVEL": "ERROR"
}
}
}
}
适用于 Windows:
{
"mcpServers": {
"awslabs-core-mcp-server": {
"disabled": false,
"timeout": 60,
"type": "stdio",
"command": "uv",
"args": [
"tool",
"run",
"--from",
"awslabs.core-mcp-server@latest",
"awslabs.core-mcp-server.exe"
],
"env": {
"FASTMCP_LOG_LEVEL": "ERROR"
}
}
}
}
Cline 与 Amazon Bedrock 入门
Cline 与 Amazon Bedrock 入门
重要提示: 按照这些说明操作可能会产生费用,并受 Amazon Bedrock 定价 的约束。您需自行承担相关费用。除了在 Cline 设置中选择所需的模型外,请确保已在 Amazon Bedrock 中启用您所选的模型(例如 anthropic.claude-3-7-sonnet)。有关更多信息,请参阅 AWS 文档,了解如何为 Amazon Bedrock 基础模型 (FM) 启用访问权限。
按照上方“安装与设置”部分中的步骤,从 Astral 安装
uv,安装 Python,并配置具有所需服务的 AWS 凭证。如果使用 Visual Studio Code,请安装 Cline VS Code 扩展(或您首选 IDE 的等效扩展)。安装完成后,单击该扩展以打开它。出现提示时,选择您希望使用的层级。在本例中,我们将使用 Amazon Bedrock,因此 Cline 的免费层级即可,因为我们将会通过 Amazon Bedrock API 而不是 Cline API 发送请求。
- 选择 MCP 服务器 按钮。
- 选择 已安装 选项卡,然后单击 配置 MCP 服务器 以打开
cline_mcp_settings.json文件。
- 在
cline_mcp_settings.json文件中,在mcpServers对象中添加您所需的 MCP 服务器。请参阅以下示例,其中将使用此仓库中当前可用的一些 MCP 服务器。请务必保存文件以安装 MCP 服务器。
cline_mcp_settings.json
适用于 macOS/Linux:
{
"mcpServers": {
"awslabs-core-mcp-server": {
"command": "uvx",
"args": ["awslabs.core-mcp-server@latest"],
"env": {
"FASTMCP_LOG_LEVEL": "ERROR",
"MCP_SETTINGS_PATH": "您的 MCP 设置文件路径"
}
}
}
}
适用于 Windows:
{
"mcpServers": {
"awslabs-core-mcp-server": {
"disabled": false,
"timeout": 60,
"type": "stdio",
"command": "uv",
"args": [
"tool",
"run",
"--from",
"awslabs.core-mcp-server@latest",
"awslabs.core-mcp-server.exe"
],
"env": {
"FASTMCP_LOG_LEVEL": "ERROR",
"MCP_SETTINGS_PATH": "您的 MCP 设置文件路径"
}
}
}
}
- 安装完成后,您应在“MCP 服务器已安装”选项卡下看到您的 MCP 服务器列表,并且它们应带有绿色滑块,表示已启用。以下是一个使用 AWS 可能的两个 MCP 服务器的示例。完成后单击 完成。此时您应该会看到 Cline 聊天界面。
默认情况下,Cline 将被设置为 API 提供者,而其免费层级存在限制。接下来,让我们将 API 提供者更新为 AWS Bedrock,以便我们可以通过 Bedrock 使用 LLM,从而将账单计入您关联的 AWS 账户。
单击设置齿轮图标以打开 Cline 设置。然后在 API 提供者 下,将设置从
Cline切换到AWS Bedrock,并将身份验证类型选择为AWS 配置文件。请注意,AWS 凭证选项同样适用,但它使用的是静态凭证(访问密钥 ID 和秘密访问密钥),而不是在令牌过期时自动重新分配的临时凭证。因此,使用 AWS 配置文件的临时凭证更为安全,也更推荐。
- 根据您希望使用的现有 AWS 配置文件填写配置信息,选择所需的 AWS 区域,并启用跨区域推理。
- 接下来,在设置页面向下滚动,直到找到名为“自定义指令”的文本框。粘贴以下代码片段,以确保每次提示都以
mcp-core服务器作为起点:
对于每个新项目,始终查看您的 MCP 服务器,并每次都以 mcp-core 作为起点。此外,在任务完成后,请包含本次操作中使用的 MCP 服务器列表。
粘贴完自定义提示后,单击 完成 返回聊天界面。
现在您可以开始提问并测试已安装的 MCP 服务器的功能了。聊天界面的默认选项是
计划,它会为您提供输出,供您手动执行操作(例如提供一个您可以复制并粘贴到文件中的示例配置)。不过,您也可以选择切换到行动,这样 Cline 就可以代表您采取行动(例如使用网页浏览器搜索内容、克隆仓库、执行代码等)。您还可以选择开启“自动批准”功能,以避免每次都需要点击确认建议,但我们建议在测试期间保持关闭状态,尤其是在您选择了“行动”模式时。
注意: 为了获得最佳效果,请明确指示 Cline 使用您希望使用的 MCP 服务器。例如:“使用 Terraform MCP 服务器,执行……”
使用 Cursor 入门
使用 Cursor 入门
按照上方“安装与设置”部分的步骤,从 Astral 安装
uv、安装 Python,并配置具有所需权限的 AWS 凭证。根据您的使用场景,MCP 配置可以放置在两个位置:
A. 项目配置
- 对于特定于项目的工具,在您的项目目录中创建 .cursor/mcp.json 文件。
- 这样可以定义仅在该特定项目中可用的 MCP 服务器。
B. 全局配置
- 对于希望在所有项目中使用的工具,在您的主目录下创建 ~/.cursor/mcp.json 文件。
- 这将使 MCP 服务器在您所有的 Cursor 工作区中可用。
.cursor/mcp.json
适用于 macOS/Linux:
{
"mcpServers": {
"awslabs-core-mcp-server": {
"command": "uvx",
"args": ["awslabs.core-mcp-server@latest"],
"env": {
"FASTMCP_LOG_LEVEL": "ERROR"
}
}
}
}
适用于 Windows:
{
"mcpServers": {
"awslabs-core-mcp-server": {
"disabled": false,
"timeout": 60,
"type": "stdio",
"command": "uv",
"args": [
"tool",
"run",
"--from",
"awslabs.core-mcp-server@latest",
"awslabs.core-mcp-server.exe"
],
"env": {
"FASTMCP_LOG_LEVEL": "ERROR"
}
}
}
}
在聊天中使用 MCP 如果 Composer Agent 认为相关,它会自动使用 MCP 设置页面上“可用工具”下方列出的任何 MCP 工具。要主动触发工具使用,请提示 Cursor 使用您希望使用的 MCP 服务器。例如:“使用 Terraform MCP 服务器,执行……”
工具批准 默认情况下,当 Agent 想要使用某个 MCP 工具时,它会显示一条消息请求您的批准。您可以使用工具名称旁边的箭头展开消息,查看 Agent 正在调用该工具时传递的参数。
使用 Windsurf 入门
使用 Windsurf 入门
按照上方“安装与设置”部分的步骤,从 Astral 安装
uv、安装 Python,并配置具有所需权限的 AWS 凭证。访问 MCP 设置
- 导航至 Windsurf - 设置 > 高级设置,或使用命令面板 > 打开 Windsurf 设置页面。
- 查找“模型上下文协议 (MCP) 服务器”部分。
添加 MCP 服务器
- 单击“添加服务器”以添加新的 MCP 服务器。
- 您可以从 GitHub、Puppeteer、PostgreSQL 等可用模板中选择。
- 或者,单击“添加自定义服务器”以配置您自己的服务器。
手动配置
- 您也可以手动编辑位于
~/.codeium/windsurf/mcp_config.json的 MCP 配置文件。
- 您也可以手动编辑位于
~/.codeium/windsurf/mcp_config.json
适用于 macOS/Linux:
{
"mcpServers": {
"awslabs-core-mcp-server": {
"command": "uvx",
"args": ["awslabs.core-mcp-server@latest"],
"env": {
"FASTMCP_LOG_LEVEL": "ERROR",
"MCP_SETTINGS_PATH": "您的 MCP 设置文件路径"
}
}
}
}
适用于 Windows:
{
"mcpServers": {
"awslabs-core-mcp-server": {
"disabled": false,
"timeout": 60,
"type": "stdio",
"command": "uv",
"args": [
"tool",
"run",
"--from",
"awslabs.core-mcp-server@latest",
"awslabs.core-mcp-server.exe"
],
"env": {
"FASTMCP_LOG_LEVEL": "ERROR",
"MCP_SETTINGS_PATH": "您的 MCP 设置文件路径"
}
}
}
}
在 VS Code 中使用
在 VS Code 中安装
在 VS Code 设置或 .vscode/mcp.json 中配置 MCP 服务器(更多信息请参阅 VS Code MCP 文档):
.vscode/mcp.json
适用于 macOS/Linux:
{
"mcpServers": {
"awslabs-core-mcp-server": {
"command": "uvx",
"args": ["awslabs.core-mcp-server@latest"],
"env": {
"FASTMCP_LOG_LEVEL": "ERROR"
}
}
}
}
适用于 Windows:
{
"mcpServers": {
"awslabs-core-mcp-server": {
"disabled": false,
"timeout": 60,
"type": "stdio",
"command": "uv",
"args": [
"tool",
"run",
"--from",
"awslabs.core-mcp-server@latest",
"awslabs.core-mcp-server.exe"
],
"env": {
"FASTMCP_LOG_LEVEL": "ERROR"
}
}
}
}
使用 Claude Code 入门
在 Claude Code 中安装
通过 CLI 或 .mcp.json 文件在 Claude Code 中配置 MCP 服务器。
按照上方“安装与设置”部分的步骤,从 Astral 安装
uv、安装 Python,并配置具有所需权限的 AWS 凭证。使用 Claude Code CLI 命令
Claude Code CLI 命令用于添加 MCP 服务器:
# 添加核心 AWS 服务
claude mcp add aws-api uvx awslabs.aws-api-mcp-server@latest
claude mcp add aws-cdk uvx awslabs.cdk-mcp-server@latest
claude mcp add aws-docs uvx awslabs.aws-documentation-mcp-server@latest
claude mcp add aws-support uvx awslabs.aws-support-mcp-server@latest
claude mcp add aws-pricing uvx awslabs.aws-pricing-mcp-server@latest
# 添加 AI/ML 和 Bedrock 服务
claude mcp add bedrock-kb uvx awslabs.bedrock-kb-retrieval-mcp-server@latest
claude mcp add nova-canvas uvx awslabs.nova-canvas-mcp-server@latest
claude mcp add synthetic-data uvx awslabs.syntheticdata-mcp-server@latest
# 添加数据和分析服务
claude mcp add aws-dataprocessing uvx awslabs.aws-dataprocessing-mcp-server@latest
claude mcp add aurora-dsql uvx awslabs.aurora-dsql-mcp-server@latest
claude mcp add valkey uvx awslabs.valkey-mcp-server@latest
# 列出已安装的服务器
claude mcp list
- 手动配置(替代方案)
您也可以通过在项目根目录下创建 .mcp.json 文件来手动配置 MCP 服务器:
.mcp.json
适用于 macOS/Linux:
{
"mcpServers": {
"awslabs.cdk-mcp-server": {
"command": "uvx",
"args": ["awslabs.cdk-mcp-server@latest"],
"env": {
"FASTMCP_LOG_LEVEL": "ERROR"
}
},
"awslabs.aws-documentation-mcp-server": {
"command": "uvx",
"args": ["awslabs.aws-documentation-mcp-server@latest"],
"env": {
"FASTMCP_LOG_LEVEL": "ERROR",
"AWS_DOCUMENTATION_PARTITION": "aws"
}
}
}
}
示例
在 samples 目录中,提供了可在 AWS 上运行的开源 MCP 服务器的即用型示例。这些示例包含可运行的代码和分步指南,可帮助您快速上手每个 MCP 服务器。
Vibe 编码
您可以将这些 MCP 服务器与您的 AI 编码助手结合使用,进行 vibe 编码。有关如何提升 vibe 编码体验的技巧和窍门,请参阅我们的指南。
其他资源
- 介绍适用于代码助手的 AWS MCP 服务器
- 使用 AWS MCP 服务器进行 vibe 编码 | AWS Show & Tell
- 借助 AWS MCP 服务器加速 AWS 数据库开发
- 使用 Amazon Q CLI 和 AWS 定价 MCP 服务器估算 AWS 成本
- 推出无服务器 MCP 服务器:面向现代应用的 AI 驱动开发
- 宣布适用于 AWS 无服务器和容器的新 Model Context Protocol (MCP) 服务器
- 借助 Amazon EKS MCP 服务器加速应用开发
- Amazon Neptune 宣布推出 MCP(Model Context Protocol)服务器
- Terraform MCP 服务器 Vibe 编码
- 如何使用 Amazon Q CLI 和 MCP 生成 AWS 架构图
- 利用 Amazon Bedrock Agents 发挥 MCP 服务器的强大功能
- 释放 AWS 上 Model Context Protocol (MCP) 的强大潜力
- AWS 价格清单迎来自然语言升级:推出 AWS 定价 MCP 服务器
- AWS SheBuilds:AWS 团队从内部工具到开源 AI 基础设施的历程
- 使用 AWS MCP 服务器进行 Vibe 编码的指导
- 使用 AWS MCP 服务器进行 Vibe 编码 | 实践工作坊
安全性
更多信息请参阅 CONTRIBUTING。
贡献
向我们出色的贡献者致以诚挚的感谢!感谢你们让这个项目变得更好!
欢迎任何形式的贡献!更多详情请参阅我们的贡献者指南。
开发者指南
如果您希望向库中添加新的 MCP 服务器,请查阅我们的开发指南,并务必遵循我们的设计指南。
许可证
本项目采用 Apache-2.0 许可证授权。
免责声明
在使用 MCP 服务器之前,您应考虑进行独立评估,以确保您的使用符合您自身的安全和质量控制实践与标准,以及适用于您及您内容的相关法律、规则和法规。
版本历史
2026.04.202604100614242026/04/102026.04.202604091121222026/04/092026.04.202604080853482026/04/082026.04.202604020814082026/04/022026.03.202603311858312026/03/312026.03.202603271705592026/03/272026.03.202603252007332026/03/252026.03.202603241832112026/03/242026.03.202603172047362026/03/172026.03.202603131940412026/03/132026.03.202603092149302026/03/092026.03.202603091707402026/03/092026.03.202603060907512026/03/062026.03.202603051331042026/03/052026.03.202603041833562026/03/042026.02.202602241857112026/02/242026.02.202602230826102026/02/232026.02.202602191041552026/02/192026.02.202602170930302026/02/172026.02.202602131856272026/02/13常见问题
相似工具推荐
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
openai-cookbook
openai-cookbook 是 OpenAI 官方提供的一套实用代码示例与指南合集,旨在帮助开发者快速上手并掌握 OpenAI API 的核心用法。面对大模型应用中常见的提示词工程、函数调用、数据嵌入及复杂任务编排等挑战,新手往往难以找到标准化的实现路径。openai-cookbook 通过提供经过验证的代码片段和详细教程,有效解决了“如何从零开始构建应用”以及“如何最佳实践特定功能”的痛点。 这套资源主要面向软件开发者和 AI 技术研究人员,同时也适合希望深入理解大模型能力的技术爱好者。虽然示例代码主要以 Python 编写,但其背后的设计思路和技术逻辑具有通用性,可轻松迁移至其他编程语言。其独特亮点在于内容紧跟官方最新特性更新,覆盖了从基础文本生成到高级代理(Agent)构建的全场景需求,且所有示例均支持在本地环境直接运行调试。作为开源项目,它采用宽松的 MIT 许可证,鼓励社区贡献与二次开发,是学习大模型应用开发不可或缺的实战手册。
OpenHands
OpenHands 是一个专注于 AI 驱动开发的开源平台,旨在让智能体(Agent)像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点,通过自动化流程显著提升开发速度。 无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员,还是需要快速原型验证的技术团队,都能从中受益。OpenHands 提供了灵活多样的使用方式:既可以通过命令行(CLI)或本地图形界面在个人电脑上轻松上手,体验类似 Devin 的流畅交互;也能利用其强大的 Python SDK 自定义智能体逻辑,甚至在云端大规模部署上千个智能体并行工作。 其核心技术亮点在于模块化的软件智能体 SDK,这不仅构成了平台的引擎,还支持高度可组合的开发模式。此外,OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩,证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能,支持与 Slack、Jira 等工具集成,并提供细粒度的权限管理,适合从个人开发者到大型企业的各类用户场景。
gstack
gstack 是 Y Combinator CEO Garry Tan 亲自开源的一套 AI 工程化配置,旨在将 Claude Code 升级为你的虚拟工程团队。面对单人开发难以兼顾产品战略、架构设计、代码审查及质量测试的挑战,gstack 提供了一套标准化解决方案,帮助开发者实现堪比二十人团队的高效产出。 这套配置特别适合希望提升交付效率的创始人、技术负责人,以及初次尝试 Claude Code 的开发者。gstack 的核心亮点在于内置了 15 个具有明确职责的 AI 角色工具,涵盖 CEO、设计师、工程经理、QA 等职能。用户只需通过简单的斜杠命令(如 `/review` 进行代码审查、`/qa` 执行测试、`/plan-ceo-review` 规划功能),即可自动化处理从需求分析到部署上线的全链路任务。 所有操作基于 Markdown 和斜杠命令,无需复杂配置,完全免费且遵循 MIT 协议。gstack 不仅是一套工具集,更是一种现代化的软件工厂实践,让单人开发者也能拥有严谨的工程流程。
