notebooklm-mcp
notebooklm-mcp 是一个连接本地AI代理与NotebookLM知识库的服务器工具,让开发者能直接通过命令行与Gemini生成的零幻觉答案交互。它解决了传统文档检索的痛点:避免反复读取文档导致的高token消耗、关键词搜索的不准确性、以及代理自行编造信息的幻觉问题。用户通过本地代理(如Claude Code、Codex)直接向NotebookLM提问,系统会自动关联多份文档并引用来源,确保答案精准且有依据。
适合需要高效处理技术文档的开发者和研究人员,尤其在编写代码、调试问题时,可快速获取基于知识库的深度解答。其核心优势在于:利用Gemini预处理文档生成专家级知识、支持自然语言多轮对话、自动关联多源信息,并通过引用标注增强可信度。无需搭建复杂基础设施,简化了本地RAG方案的实现流程。
使用场景
某电商平台开发团队在集成第三方支付API时,需频繁查阅多份技术文档。开发者小李负责实现支付接口的异步通知处理功能,需同时参考支付网关、风控系统和日志框架的文档。
没有 notebooklm-mcp 时
- 高频调用AI代理搜索本地文档,导致每次查询消耗数百tokens
- 关键接口参数常因跨文档关联被遗漏,需手动交叉验证
- AI代理多次生成不存在的回调方法签名,引发调试延误
- 每次需求变更需重新加载文档库,构建知识索引耗时10分钟以上
使用 notebooklm-mcp 后
- 通过CLI直接调用NotebookLM知识库,单次查询token消耗降低80%
- 系统自动关联支付协议与风控规则,精准定位异步处理的异常场景
- 所有返回接口文档均带源码引用标记,避免生成虚构方法
- 文档更新后知识库即时同步,无需重建索引即可获取最新信息
核心价值:通过零幻觉知识库实现开发效率跃迁,让AI代理直接调用结构化文档知识,而非依赖粗放的文本检索。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
NotebookLM MCP 服务器
让你的 CLI 代理(Claude、Cursor、Codex 等)直接与 NotebookLM 聊天,基于你的笔记获得零幻觉答案
安装 • 快速开始 • 为何选择 NotebookLM • 示例 • Claude Code 技能 • 文档
问题
当你让 Claude Code 或 Cursor "搜索我的本地文档"时,会发生以下情况:
- 大量 token 消耗:搜索文档意味着反复读取多个文件
- 检索不准确:仅基于关键词搜索,忽略上下文和文档间的关联
- 幻觉问题:找不到信息时会编造看似合理的 API
- 成本高且缓慢:每个问题都需要重新读取多个文件
解决方案
让你的本地代理直接与 NotebookLM(谷歌基于 Gemini 2.5 的零幻觉知识库)聊天,从你的文档中获取智能合成答案。
你的任务 → 本地代理询问 NotebookLM → Gemini 合成答案 → 代理编写正确代码
真正优势:无需在 NotebookLM 和编辑器之间手动复制粘贴。你的代理可直接向 NotebookLM 提问并从 CLI 获取答案。通过自动追问建立深度理解——Claude 会连续提出多个问题,逐步获取具体实现细节、边界情况和最佳实践。你可以将 NotebookLM 链接保存到本地库并添加标签描述,Claude 会根据当前任务自动选择相关笔记本。
为何选择 NotebookLM 而非本地 RAG?
| 方法 | token 成本 | 部署时间 | 幻觉问题 | 答案质量 |
|---|---|---|---|---|
| 直接喂文档给 Claude | 🔴 很高(多文件读取) | 立即可用 | 有 - 会填补空白 | 检索结果波动大 |
| 网络搜索 | 🟡 中等 | 立即可用 | 高 - 来源不可靠 | 随机性大 |
| 本地 RAG | 🟡 中等-高 | 数小时(需要嵌入、分块) | 中等 - 检索空白 | 依赖配置 |
| NotebookLM MCP | 🟢 极低 | 5 分钟 | 零幻觉 - 未知时会拒绝回答 | 专家级合成 |
NotebookLM 的优势
- Gemini 预处理:文档只需上传一次,即可获得即时专家知识
- 自然语言问答:不仅是检索,更是真正的理解和合成
- 多源关联:可关联 50+ 文档中的信息
- 引用支持:每个答案都包含来源引用
- 无需基础设施:无需向量数据库、嵌入或分块策略
安装
Claude Code
claude mcp add notebooklm npx notebooklm-mcp@latest
Codex
codex mcp add notebooklm -- npx notebooklm-mcp@latest
Gemini
gemini mcp add notebooklm npx notebooklm-mcp@latest
Cursor
添加到 ~/.cursor/mcp.json:
{
"mcpServers": {
"notebooklm": {
"command": "npx",
"args": ["-y", "notebooklm-mcp@latest"]
}
}
}
amp
amp mcp add notebooklm -- npx notebooklm-mcp@latest
VS Code
code --add-mcp '{"name":"notebooklm","command":"npx","args":["notebooklm-mcp@latest"]}'
其他 MCP 客户端
通用 MCP 配置:
{
"mcpServers": {
"notebooklm": {
"command": "npx",
"args": ["notebooklm-mcp@latest"]
}
}
}
替代方案:Claude Code 技能
偏好 Claude Code 技能而非 MCP? 本服务器现也提供原生 Claude Code 技能版本,配置更简单:
NotebookLM Claude Code 技能 - 克隆到 ~/.claude/skills 即可使用
主要区别:
- MCP 服务器(本仓库):持久会话,支持 Claude Code、Codex、Cursor 和其他 MCP 客户端
- Claude Code 技能:配置简单,基于 Python,无状态查询,仅支持本地 Claude Code
两者均使用相同的浏览器自动化技术,从你的 NotebookLM 笔记中提供零幻觉答案。
快速开始
1. 安装 MCP 服务器(见上方安装说明)
2. 认证(一次性操作)
在聊天窗口(Claude/Codex)中输入:
"登录 NotebookLM"
会打开 Chrome 窗口 → 使用谷歌账号登录
3. 创建知识库
访问 notebooklm.google.com → 创建笔记本 → 上传你的文档:
- 📄 PDF、Google 文档、markdown 文件
- 🔗 网站、GitHub 仓库
- 🎥 YouTube 视频
- 📚 每个笔记本可包含多个来源
分享:⚙️ 分享 → 任何有链接者 → 复制链接
4. 让 Claude 使用它
"我正在使用[库名]开发。这是我的 NotebookLM:[链接]"
完成。Claude 现在会向 NotebookLM 提问所需信息,在编写代码前建立专业知识。
真实示例
无幻觉构建 n8n 工作流
挑战:n8n 的 API 是新的 —— Claude 会编造节点名称和函数
解决方案:
- 下载完整 n8n 文档 → 合并为可管理的块
- 上传到 NotebookLM
- 告诉 Claude:"为我构建 Gmail 垃圾过滤工作流。使用这个 NotebookLM:[链接]"
观看 AI 对话:
Claude → "n8n 中 Gmail 集成如何工作?"
NotebookLM → "使用 Gmail Trigger 的轮询,或 Gmail 节点的 Get Many..."
Claude → "如何解码 base64 邮件正文?"
NotebookLM → "正文在 payload.parts 中为 base64url 编码,使用 Function 节点..."
Claude → "如何将 OpenAI 响应解析为 JSON?"
NotebookLM → "设置 responseFormat 为 json,在 IF 节点中使用 {{ $json.spam }}..."
Claude → "API 失败时如何处理错误?"
NotebookLM → "使用 Error Trigger 节点并启用 Continue On Fail..."
Claude → ✅ "这是你的完整工作流 JSON..."
结果:首次尝试即获得完美工作流。无需调试编造的 API。
核心功能
零幻觉
NotebookLM 若在你的文档中找不到信息,会拒绝回答。不会编造 API。
自主研究
Claude 会自动提出后续问题,在编码前构建完整理解。
智能库管理
保存带标签和描述的 NotebookLM 链接。Claude 会根据任务自动选择合适的笔记本。
"Add [link] to library tagged 'frontend, react, components'"
深度迭代研究
- Claude 自动提出后续问题以构建完整理解
- 每个答案会触发更深入的问题,直到 Claude 掌握所有细节
- 示例:针对 n8n 工作流,Claude 会连续提问 Gmail 集成、错误处理和数据转换等问题
跨工具共享
一次配置,多处使用。Claude Code、Codex、Cursor 均共享同一库。
深度清理工具
随时重置系统。扫描整个系统中的 NotebookLM 数据并提供分类预览。
工具配置
通过仅加载所需工具减少 token 使用量。每个工具都会消耗上下文 token —— 工具越少,响应越快成本越低。
可用配置
| 配置 | 工具数 | 使用场景 |
|---|---|---|
| minimal | 5 | 仅查询: ask_question, get_health, list_notebooks, select_notebook, get_notebook |
| standard | 10 | + 库管理: setup_auth, list_sessions, add_notebook, update_notebook, search_notebooks |
| full | 16 | 所有工具包括 cleanup_data, re_auth, remove_notebook, reset_session, close_session, get_library_stats |
通过 CLI 配置
# 查看当前设置
npx notebooklm-mcp config get
# 设置配置
npx notebooklm-mcp config set profile minimal
npx notebooklm-mcp config set profile standard
npx notebooklm-mcp config set profile full
# 禁用特定工具(逗号分隔)
npx notebooklm-mcp config set disabled-tools "cleanup_data,re_auth"
# 重置为默认值
npx notebooklm-mcp config reset
通过环境变量配置
# 设置配置
export NOTEBOOKLM_PROFILE=minimal
# 禁用特定工具
export NOTEBOOKLM_DISABLED_TOOLS="cleanup_data,re_auth,remove_notebook"
设置保存在 ~/.config/notebooklm-mcp/settings.json 中并跨会话保留。环境变量会覆盖文件设置。
架构
graph LR
A[Your Task] --> B[Claude/Codex]
B --> C[MCP Server]
C --> D[Chrome Automation]
D --> E[NotebookLM]
E --> F[Gemini 2.5]
F --> G[Your Docs]
G --> F
F --> E
E --> D
D --> C
C --> B
B --> H[Accurate Code]
常用命令
| 意图 | 说 | 结果 |
|---|---|---|
| 认证 | "打开 NotebookLM 认证设置" 或 "登录 NotebookLM" | 打开 Chrome 登录页面 |
| 添加笔记本 | "添加 [link] 到库" | 保存带元数据的笔记本 |
| 列出笔记本 | "显示我们的笔记本" | 列出所有已保存笔记本 |
| 研究优先 | "在编码前用 NotebookLM 研究这个" | 多问题会话 |
| 选择笔记本 | "使用 React 笔记本" | 设置活动笔记本 |
| 更新笔记本 | "更新笔记本标签" | 修改元数据 |
| 移除笔记本 | "从库中移除 [notebook]" | 从库中删除 |
| 查看浏览器 | "显示浏览器" | 实时观看 NotebookLM 聊天 |
| 修复认证 | "修复 NotebookLM 认证" | 清除并重新认证 |
| 切换账号 | "用其他 Google 账号重新认证" | 更换账号 |
| 清理重启 | "运行 NotebookLM 清理" | 移除所有数据重置 |
| 保留库 | "清理但保留我的库" | 保留笔记本 |
| 删除所有数据 | "删除所有 NotebookLM 数据" | 完全移除 |
与替代方案对比
与本地下载文档对比
- 你: 下载文档 → Claude: "搜索这些文件"
- 问题: Claude 阅读数千文件 → 巨大 token 消耗,常遗漏关联
- NotebookLM: 由 Gemini 预索引,跨所有文档语义理解
与网络搜索对比
- 你: "在线研究 X"
- 问题: 过时信息、幻觉示例、不可靠来源
- NotebookLM: 仅使用你的可信文档,始终最新且带引用
与本地 RAG 设置对比
- 你: 设置嵌入、向量数据库、分块策略、检索流水线
- 问题: 数小时配置,调优检索,仍会在空白处"创造"
- NotebookLM: 上传文档 → 完成。Google 处理一切。
常见问题
真的完全不会幻觉吗? 是的。NotebookLM 仅回答来自上传源的内容。如果不知道答案,会明确说明。
有速率限制吗? 免费版每个 Google 账号有每日查询限制。支持快速切换账号以持续研究。
安全性如何? Chrome 本地运行。你的凭证不会离开本机。如有顾虑,可使用专用 Google 账号。
能查看操作过程吗? 当然!说 "显示浏览器" 即可观看实时 NotebookLM 对话。
相比 Claude 内置知识有何优势? 你的文档始终最新。无训练截止日期。无幻觉。特别适合新库、内部 API 或快速迭代项目。
高级用法
核心价值
没有 NotebookLM MCP: 写代码 → 发现错误 → 调试幻觉 API → 重复
使用 NotebookLM MCP: Claude 先研究 → 编写正确代码 → 更快交付
停止调试幻觉,开始交付准确代码。
# 30 秒内开始使用
claude mcp add notebooklm npx notebooklm-mcp@latest
免责声明
本工具通过自动化浏览器与NotebookLM的交互,提升您的工作效率。但请注意以下事项:
关于浏览器自动化:
虽然我已集成人性化功能(humanization features)(如真实打字速度、自然延迟、鼠标移动),使自动化行为更接近真人操作,但无法保证Google不会检测或标记自动化使用。建议使用专用Google账号进行自动化操作而非主账号——可类比网络爬虫:虽无明确风险,但安全第一!
关于命令行工具与AI代理:
Claude Code、Codex等AI驱动的命令行工具(CLI tools)功能强大,但可能产生错误。请谨慎使用并保持警觉:
- 提交或部署前务必审查变更内容
- 优先在安全环境中测试
- 定期备份重要工作
- 牢记:AI代理是助手,而非绝对可靠的预言家
我开发此工具源于对NotebookLM与编辑器间重复复制粘贴操作的厌倦。分享此工具是希望帮助他人,但对可能出现的问题、数据丢失或账号异常不承担任何责任。请自行判断风险使用。
若您遇到问题或有疑问,请随时在GitHub提交问题。我乐意协助排查!
贡献指南
发现缺陷?有功能建议?提交问题或发送PR!
许可协议
MIT协议——可在您的项目中自由使用。
因幻觉API而生,由Google NotebookLM驱动
⭐ GitHub点赞 支持本项目!节省调试时间就靠它了!
版本历史
v1.2.12025/12/27v1.2.02025/11/21v1.1.22025/10/19常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。