context7
Context7 是一个专为大语言模型(LLM)和 AI 代码编辑器设计的实时文档增强平台。它致力于解决 AI 编程中常见的痛点:由于训练数据滞后,AI 往往会提供过时的代码示例、虚构不存在的 API,或给出针对旧版本库的通用建议。
通过直接连接官方源,Context7 能够抓取特定版本的最新文档和代码范例,并将其无缝注入到用户的提示词上下文中。这意味着开发者在请求生成 Next.js 中间件或配置 Cloudflare Worker 时,AI 能立即基于当前最新的库版本输出准确代码,无需人工切换标签页查证,也杜绝了“幻觉”代码的产生。
该工具主要面向软件开发者和技术团队,特别是那些深度依赖 Cursor、Claude 等 AI 辅助编程工具的用户。其独特亮点在于提供了灵活的集成模式:既支持通过 CLI 命令引导 Agent 主动获取文档,也支持标准的 MCP(模型上下文协议)服务器模式,让 AI 代理能原生调用文档工具。只需一条命令即可完成安装与认证,Context7 让 AI 编程助手真正具备了“与时俱进”的能力,显著提升了代码生成的准确性与开发效率。
使用场景
一位全栈开发者正在为电商项目集成最新版的 Stripe 支付接口,需要快速实现复杂的订阅管理逻辑。
没有 context7 时
- 代码过时失效:LLM 基于旧训练数据生成的代码使用了已废弃的 Stripe API 参数,导致运行时直接报错。
- 幻觉函数频发:模型“发明”了不存在的辅助方法,开发者不得不花费大量时间查阅官方文档去伪存真。
- 版本匹配困难:无法自动识别项目当前安装的 Stripe 具体版本号,给出的示例往往与现有依赖冲突。
- 上下文切换频繁:为了验证代码准确性,开发者需在 IDE、浏览器文档和 StackOverflow 之间反复横跳,打断心流。
使用 context7 后
- 实时精准同步:context7 直接从源头拉取最新版 Stripe 文档,生成的代码立即包含当前有效的参数和结构。
- 杜绝虚假 API:所有推荐的函数和方法均经过实时文档校验,彻底消除了模型幻觉带来的无效代码。
- 版本感知生成:自动检测项目环境,输出完全匹配当前依赖版本的代码片段,无需手动调整兼容性。
- 无缝嵌入工作流:文档内容直接注入提示词上下文,开发者在编辑器内即可获得可信答案,无需离开当前界面。
context7 通过将实时、版本特定的官方文档无缝接入 AI 上下文,让代码生成从“猜谜游戏”变成了“精准执行”。
运行环境要求
- 未说明
无需求
未说明

快速开始

Context7 平台 - 针对任何提示的最新代码文档
❌ 没有 Context7
LLM 依赖于你所使用库的过时或通用信息。你会遇到:
- ❌ 代码示例过时,基于多年前的训练数据
- ❌ 幻觉出根本不存在的 API
- ❌ 针对旧版本包的通用答案
✅ 使用 Context7
Context7 直接从源中提取最新、特定版本的文档和代码示例,并将其直接放入你的提示中。
创建一个 Next.js 中间件,检查 Cookie 中的有效 JWT,
并将未认证用户重定向到 `/login`。使用 context7
配置 Cloudflare Worker 脚本,将 JSON API 响应缓存五分钟。使用 context7
向我展示 Supabase 的电子邮件/密码注册认证 API。
Context7 会将最新的代码示例和文档直接获取到你的 LLM 上下文中。无需切换标签页,没有不存在的幻觉 API,也不会生成过时的代码。
支持两种模式:
- CLI + 技能 — 安装一个技能,引导你的代理使用
ctx7CLI 命令来获取文档(无需 MCP) - MCP — 注册一个 Context7 MCP 服务器,以便你的代理可以原生调用文档工具
安装
[!NOTE] 推荐 API 密钥:在 context7.com/dashboard 获取免费 API 密钥,以获得更高的速率限制。
只需一条命令即可为你的编码代理设置 Context7:
npx ctx7 setup
通过 OAuth 进行身份验证,生成 API 密钥,并安装相应的技能。你可以选择 CLI + 技能或 MCP 模式。使用 --cursor、--claude 或 --opencode 来指定特定的代理。
要手动配置,请使用 Context7 服务器 URL https://mcp.context7.com/mcp 与你的 MCP 客户端配合,并通过 CONTEXT7_API_KEY 头传递你的 API 密钥。有关特定客户端的设置说明,请参阅下方链接。
重要提示
使用库 ID
如果你已经确切知道要使用哪个库,可以在提示中添加其 Context7 ID。这样,Context7 就可以跳过库匹配步骤,直接检索文档。
使用 Supabase 实现基本认证。使用库 /supabase/supabase 获取 API 和文档。
斜杠语法告诉 Context7 精确加载哪个库的文档。
指定版本
要获取特定库版本的文档,只需在提示中提及版本:
如何设置 Next.js 14 的中间件?使用 context7
Context7 会自动匹配相应的版本。
添加规则
如果你通过 ctx7 setup 安装,系统会自动配置一个技能,该技能会在涉及库相关问题时触发 Context7。如果你想手动设置规则,可以将其添加到你的编码代理中:
- Cursor:
Cursor 设置 > 规则 - Claude Code:
CLAUDE.md - 或者在你的编码代理中找到等效选项
示例规则:
当我需要库/API 文档、代码生成、设置或配置步骤时,始终使用 Context7,而无需我明确请求。
可用工具
CLI 命令
ctx7 library <name> <query>:按库名搜索 Context7 索引,返回匹配的库及其 ID。ctx7 docs <libraryId> <query>:使用 Context7 兼容的库 ID 获取库的文档(例如/mongodb/docs、/vercel/next.js)。
MCP 工具
resolve-library-id:将通用库名解析为 Context7 兼容的库 ID。query(必填):用户的提问或任务(用于按相关性对结果排序)libraryName(必填):要搜索的库名
query-docs:使用 Context7 兼容的库 ID 获取库的文档。libraryId(必填):精确的 Context7 兼容库 ID(例如/mongodb/docs、/vercel/next.js)query(必填):需要获取相关文档的问题或任务
更多文档
- CLI 参考 — 完整的 CLI 文档
- MCP 客户端 — 适用于 30 多种客户端的手动 MCP 安装
- 添加库 — 提交你的库到 Context7
- 故障排除 — 常见问题及解决方案
- API 参考 — REST API 文档
- 开发者指南 — 在本地运行 Context7 MCP
免责声明
1- Context7 上的项目均由社区贡献,尽管我们致力于保持高质量,但我们无法保证所有库文档的准确性、完整性或安全性。Context7 中列出的项目由其各自的维护者开发和维护,而非由 Context7 维护。如果您遇到任何可疑、不当或可能有害的内容,请使用项目页面上的“举报”按钮立即通知我们。我们会认真对待每一条举报,并及时审查被标记的内容,以维护平台的完整性和安全性。使用 Context7 即表示您确认这是基于您的自主判断并自担风险。
2- 本仓库托管 MCP 服务器的源代码。配套组件——API 后端、解析引擎和爬虫引擎——均为私有,不属于本仓库的一部分。
🤝 与我们联系
保持更新,加入我们的社区:
- 📢 关注我们在 X 的账号,获取最新消息和更新
- 🌐 访问我们的 官网
- 💬 加入我们的 Discord 社区
📺 Context7 媒体报道
- Better Stack: “免费工具让光标智能提升10倍”
- Cole Medin: “这无疑是 AI 编码助手的最佳 MCP 服务器”
- Income Stream Surfers: “Context7 + SequentialThinking MCP:这就是 AGI 吗?”
- Julian Goldie SEO: “Context7:新的 MCP AI 助手更新”
- JeredBlu: “Context 7 MCP:即时获取文档 + VS Code 设置”
- Income Stream Surfers: “Context7:将改变 AI 编码的新 MCP 服务器”
- AICodeKing: “Context7 + Cline & RooCode:这款 MCP 服务器让 CLINE 效率提升100倍!”
- Sean Kochel: “5 款用于氛围编码的 MCP 服务器(即插即用)”
⭐ 星标历史
📄 许可证
MIT
版本历史
ctx7@0.3.112026/04/09@upstash/context7-tools-ai-sdk@0.2.32026/04/06ctx7@0.3.102026/04/06@upstash/context7-mcp@2.1.72026/04/06ctx7@0.3.92026/03/27@upstash/context7-mcp@2.1.62026/03/27ctx7@0.3.82026/03/27ctx7@0.3.62026/03/16ctx7@0.3.52026/03/11ctx7@0.3.42026/03/11ctx7@0.3.32026/03/10@upstash/context7-mcp@2.1.42026/03/10ctx7@0.3.22026/03/06@upstash/context7-mcp@2.1.32026/03/04@upstash/context7-mcp@2.1.22026/02/23ctx7@0.3.12026/02/18ctx7@0.3.02026/02/16ctx7@0.2.42026/02/10ctx7@0.2.32026/02/03ctx7@0.2.22026/02/02常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

