insights-lm-public
InsightsLM 是一款开源且支持私有化部署的 AI 研究助手,旨在为用户提供 Google NotebookLM 的自由替代方案。它允许用户上传专属文档,基于这些资料进行智能对话、生成带出处的可信回答,甚至将内容转化为播客形式的音频摘要。
这一工具主要解决了闭源 AI 服务在数据隐私、定制化能力及本地部署方面的局限。通过完全掌控数据存储与处理流程,InsightsLM 确保企业或个人的敏感知识不会泄露给第三方,同时让 AI 的回答严格“扎根”于用户提供的源文件,有效减少幻觉现象。
InsightsLM 特别适合关注数据安全的企业管理员、需要深度分析内部资料的研究人员,以及希望构建定制化 RAG(检索增强生成)应用的开发者。其独特的技术亮点在于采用了现代化的低代码架构:前端由 Loveable 快速构建,后端则巧妙结合了 Supabase 数据库与 N8N 自动化工作流。这种设计不仅降低了部署门槛,让用户无需编写大量代码即可搭建专属知识库,还提供了极高的扩展性。此外,项目还提供了完全本地化的版本选项,支持对接 Ollama 等本地模型,进一步满足了对离线运行和极致隐私有严格要求的使用场景。
使用场景
某中型咨询公司的研究团队需要快速消化数百页的行业报告和客户访谈记录,以准备紧急的战略分析会议。
没有 insights-lm-public 时
- 信息检索低效:分析师需在多个 PDF 和文档中手动翻阅查找数据,耗时数小时且容易遗漏关键细节。
- 幻觉风险高:使用通用大模型总结时,常出现编造数据或脱离原文的情况,导致结论不可信,必须人工逐字核对。
- 数据隐私担忧:敏感的客户资料无法上传至公有云 AI 服务(如 NotebookLM),担心泄露商业机密,只能放弃智能化辅助。
- 协作形式单一:团队仅能阅读文字摘要,缺乏类似播客的音频讨论功能,难以利用通勤时间进行知识同步。
- 定制成本高昂:若想构建私有化知识库,通常需要专业开发团队编写代码,周期长且维护费用巨大。
使用 insights-lm-public 后
- 即时精准问答:团队成员将文档上传至自托管的 insights-lm-public,直接提问即可获取基于原文的即时答案,定位效率提升十倍。
- 来源可追溯验证:系统提供的每个回答都附带确切引用出处,点击即可跳转原文段落,彻底消除 AI 幻觉带来的信任危机。
- 数据完全自主可控:依托 Supabase 和 N8N 搭建的私有环境,确保所有敏感数据留存在公司内部服务器,满足严格的合规要求。
- 自动生成音频简报:一键将复杂的研究报告转化为双人对话形式的播客,方便成员在移动场景中高效吸收核心观点。
- 零代码灵活部署:无需编写代码,团队即可根据业务需求自定义界面和功能,快速落地专属的 AI 研究助手。
insights-lm-public 让企业在保障数据绝对安全的前提下,以零代码成本拥有了可深度定制、具备可信引用能力的私有化 AI 研究中枢。
运行环境要求
- 未说明 (基于 Web 的云端/自托管架构,依赖浏览器访问)
- 非必需 (默认使用 OpenAI/Gemini 等云 API
- 若部署完全本地版需参考其他仓库,通常需支持 Ollama/Qwen3 的 GPU)
未说明 (取决于自托管 n8n 和 Supabase 的具体负载,若运行本地模型则建议 16GB+)

快速开始
InsightsLM:开源的 NotebookLM 替代方案
如果像 NotebookLM 这样的强大工具不再被封闭在专有系统中,而是可以构建一个私有的、可自托管的替代方案,并且能够根据您的业务需求进行定制,而且完全无需编写任何代码,那会怎样呢?
这正是我们通过 InsightsLM 实现的。该项目是一个开源、可自托管的 NotebookLM 替代品。它旨在成为一个强大的 AI 研究工具,其回答完全基于您提供的资料来源,从而成为通往贵公司知识库的可靠窗口。
关于本项目
NotebookLM 是当今功能最强大的 AI 研究工具之一。然而,由于其闭源特性,限制了它的定制化能力和私有化部署的可能性。InsightsLM 的诞生正是为了填补这一空白。
这不仅仅是一个简单的原型,而是一款功能强大的应用,具备多项出色特性。前端采用 Loveable 框架,后端则结合了 Supabase 和 N8N,以“直觉式开发”的方式构建而成。
我们决定将 InsightsLM 开源,以便您可以轻松安装、定制、改进,甚至将其商业化。能够部署基于企业特定知识的 AI 代理(即检索增强生成,RAG),是当前生成式 AI 领域最具潜力的商业机会之一。
完全本地版本
此版本的 InsightsLM 依赖于 OpenAI 和 Gemini 等云端 AI 服务。
如果您希望搭建一个完全本地化的版本,使用 Ollama 和 Qwen3,以及 Whisper 和 CoquiTTS,则请查看我们的另一个仓库:
加入我们的社区
如果您有兴趣学习如何定制 InsightsLM 或构建类似的应用程序,请加入我们的社区——The AI Automators。
https://www.theaiautomators.com/
核心功能
- 与文档对话: 上传您的文档,即可获得即时且上下文相关的回答。
- 可验证的引用: 直接跳转到信息来源,确保 AI 不会产生幻觉。
- 播客生成: 像 NotebookLM 一样,从您的原始资料中创建音频摘要和讨论内容。
- 私密且可自托管: 通过自行托管,您可以完全掌控自己的数据。如果需要,也可以使用本地模型。
- 可定制且可扩展: 基于现代、易用的工具构建,便于根据您的具体需求进行调整。
演示与操作指南
要全面了解 InsightsLM 的演示、架构概览以及详细的部署步骤,请观看我们的 YouTube 视频:
原始视频
更新版操作指南(2026年1月)
技术栈
本项目采用了现代化的强大技术栈:
- 前端:
- 后端:
重要提示:近期变更
⚠️ 本指南为何更新
Supabase 推出了新的身份验证系统,并逐步过渡到使用公开密钥和秘密密钥,取代原有的 anon 和 service role 秘密密钥,旧密钥已被标记为“遗留”。因此,本仓库中的边缘函数已更新,以在函数代码内部处理安全性、身份验证和授权问题。这样我们可以关闭函数上的“验证 JWT”标志。请务必从本仓库获取最新的边缘函数代码。
入门指南:无代码开发者测试与自定义指南
本指南提供了让 InsightsLM 快速启动并运行的最简单方法,以便您可以进行测试、自定义和实验。
我建议您观看此处的视频以获取完整的分步指南——https://youtu.be/Nla35It-xfc。
您需要打开一个记事本文件,用于复制和粘贴各种凭据及详细信息。
- 创建 Supabase 账户和项目
- 访问 Supabase.com 并注册一个免费账户。
- 创建一个新的项目。将您的
数据库密码粘贴到打开的记事本文件中,因为稍后会用到。
- 创建 GitHub 账户并基于模板创建仓库
- 如果您还没有 GitHub 账户,请在 GitHub 上注册一个免费账户。
- 导航至 InsightsLM 模板仓库:github.com/theaiautomators/insights-lm-public
- 单击“使用此模板”按钮,在您自己的 GitHub 账户中创建该仓库的副本。填写表单。
- 导入到 Bolt.new 并连接 Supabase
- 在 Bolt.new 上注册一个账户,因为它支持 Supabase 集成。(虽然该项目最初是基于 Loveable 构建的,但目前将现有 GitHub 项目导入 Loveable 的难度较大)
- 将您新创建的 GitHub 仓库导入到您的 Bolt 项目中。您需要将 GitHub 账户与 Bolt 关联。选择仓库并导入。
- 请等待 Bolt 完成整个代码库的导入后再继续下一步。
- 要连接 Supabase,转到 齿轮图标 > 数据库 > 高级 > 连接到现有数据库
- 您应该会看到一条消息:“Supabase 项目已成功连接”
- 屏幕上会出现“缺少密钥”的提示框——您可以安全地忽略它。
- 现在在 Bolt 聊天中输入:
执行 supabase/migrations 文件夹中的脚本 20250606152423_v0.1.sql 中的数据库迁移 - (注:此步骤可能需要付费的 Bolt 账户才能成功)
- 迁移成功后,输入:
现在部署 supabase/functions 文件夹中的边缘函数,并将“使用旧版密钥验证 JWT”选项设置为 false,因为我们已在边缘函数代码中处理了身份验证
- 验证边缘函数配置
- 边缘函数现在将在 Supabase 控制面板中可用。
- **重要提示:**进入 Supabase 控制面板中的 每个边缘函数,确保“使用旧版密钥验证 JWT”选项已设置为 False。如果该选项已启用,请将其禁用。更新后的边缘函数现已在内部处理身份验证。
- 导入并配置 N8N 工作流
- 此仓库中的
/n8n目录包含所需 N8N 工作流的 JSON 文件。这里有两种方法:- 最简单的方法是将 “Import_Insights_LM_Workflows.json” 文件导入到 n8n 中的新工作流中,并按照视频中的步骤操作。这包括配置一个 n8n API 密钥,该密钥将用于自动创建系统所需的所有工作流。您还需要设置各种凭据。
- 除了使用上述工作流导入器外,您也可以下载并导入此目录中的 6 个 JSON 工作流。您需要逐节点地配置每个工作流,以适应您的服务(例如 Supabase、OpenAI、Gemini、子工作流等)。请遵循每个工作流中的待办事项。
- 此仓库中的
- 将 N8N Webhook 添加到 Supabase 密钥中
- 您的 N8N 工作流由 Supabase 边缘函数触发的 Webhook 触发。如果您使用了工作流导入器,您将获得需要创建的 N8N 密钥列表。否则,您需要从各个工作流中收集这些密钥。
- 在您的 Supabase 项目控制面板中,导航到
边缘函数->密钥,并添加以下密钥。这使 Supabase 边缘函数能够安全地调用您的 N8N 工作流。 - 需要创建的密钥如下:
- NOTEBOOK_CHAT_URL
- NOTEBOOK_GENERATION_URL
- AUDIO_GENERATION_WEBHOOK_URL
- DOCUMENT_PROCESSING_WEBHOOK_URL
- ADDITIONAL_SOURCES_WEBHOOK_URL
- NOTEBOOK_GENERATION_AUTH(这是每个 n8n Webhook 自定义 Header Auth 的密码)
- OPENAI_API_KEY(用于生成笔记标题的边缘函数)
- 测试与自定义
- 好了!您的 InsightsLM 实例现在应该已经上线。
- 您可以开始测试应用程序,上传文档,并开始聊天。
- 在 Bolt.new 中,您还可以将此应用部署到 Netlify。
凭据配置注意事项
Supabase 凭据(用于 n8n)
⚠️ 请勿使用 Supabase 控制面板中的“可公开 API 密钥”。
- 转到 项目设置 > API 密钥 > 旧版服务角色 API 密钥
- 对于 n8n 中的所有凭据,其 ID 同时显示在 URL 中(如视频所示)以及凭据的 详情选项卡 中。
Webhook 身份验证(用于 n8n)
- 请勿在密码前添加“Bearer”或其他前缀——只需直接输入密码值即可。
Postgres 连接(用于 n8n)
- 在连接弹出窗口中,选择 方法:事务池——这将显示您所需的值(视频中也有演示)。
n8n 版本 2 注意事项
⚠️ 对于 n8n v2 用户的重要提示
发布工作流
在 n8n 版本 2 中,您需要 发布 您的工作流(而不仅仅是激活)。前端应用程序会调用已发布的版本,因此如果您未发布,即使编辑器中显示了更改,应用程序仍会使用旧版本。
发布顺序(重要!):
- **首先:**发布
提取文本子工作流 - **其次:**发布
插入或更新向量存储工作流 - **然后:**发布其余工作流
进行更改
每当您对 n8n 工作流进行更改时,都必须在 n8n 中 发布 这些更改。否则,前端应用程序将继续调用旧的已发布版本,您将看到与编辑器中显示的行为不同的结果。
播客生成(自托管 n8n)
如果您运行的是自托管的 n8n,播客生成工作流使用 CLI 节点,这些节点需要启用特定的环境变量:
NODES_EXCLUDE=[]
此设置允许 CLI 节点可用。如果没有此设置,CLI 节点将被隐藏,工作流将无法正常运行。
安装 FFMPEG(仅限自托管 n8n)
播客生成工作流需要在您的 n8n 服务器上安装 FFMPEG。有关官方下载选项和文档,请参阅 FFmpeg 下载页面。
⚠️ **n8n Cloud 用户:**在 n8n Cloud 上 无法实现 此操作,因为您需要 SSH 访问您的 n8n 服务器。FFMPEG 的安装需要直接访问服务器,而这仅适用于自托管的 n8n。
Docker Compose 安装(推荐)
⚠️ 注意: 以下说明仅为大致指南。具体步骤会因您的安装方式、环境、服务器配置以及现有设置而有所不同。
如果您通过 Docker Compose 运行 n8n,请创建一个自定义 Dockerfile,以扩展 n8n 的基础镜像:
1. 在项目目录中创建一个 Dockerfile:
FROM n8nio/n8n:latest
USER root
RUN apk add --no-cache ffmpeg
USER node
2. 更新您的 docker-compose.yml 文件,使其基于此 Dockerfile 构建:
services:
n8n:
build:
context: .
dockerfile: Dockerfile
# 其他现有的 n8n 配置(端口、卷、环境变量等)
而不是:
services:
n8n:
image: n8nio/n8n:latest
3. 构建并运行:
docker compose build
docker compose up -d
4. 当更新 n8n 时,请使用以下命令重新构建:
docker compose build --pull
docker compose up -d
--pull 标志可确保在构建之前获取最新的基础镜像。
直接操作系统安装
如果 n8n 是直接安装在您的服务器操作系统上(而非在 Docker 中),请通过 SSH 登录到您的服务器,并运行相应的命令:
Ubuntu/Debian:
sudo apt update
sudo apt install ffmpeg
RHEL 8/9/10、Rocky Linux、AlmaLinux、CentOS Stream:
首先安装 EPEL,然后添加 RPMFusion 仓库(参见 官方 RPMFusion 配置):
# 先安装 EPEL(RPMFusion 所需)
sudo dnf install --nogpgcheck https://dl.fedoraproject.org/pub/epel/epel-release-latest-$(rpm -E %rhel).noarch.rpm
# 安装 RPMFusion free 仓库
sudo dnf install --nogpgcheck https://mirrors.rpmfusion.org/free/el/rpmfusion-free-release-$(rpm -E %rhel).noarch.rpm
# 安装 ffmpeg
sudo dnf install ffmpeg
Amazon Linux 2023:
sudo dnf install ffmpeg-free
Alpine(常见于 Docker):
apk add ffmpeg
替代方案:Linux 静态编译版本
如果您的系统无法安装软件包,您可以从 FFmpeg 下载页面 下载预编译的静态版本。这些版本无需安装——只需下载、解压并将其添加到您的 PATH 中即可。
验证安装
安装完成后,请验证 FFMPEG 是否可用:
ffmpeg -version
贡献
贡献使开源社区成为一个学习、启发和创造的绝佳场所。您所做的任何贡献都将不胜感激。
- 分支项目
- 创建您的功能分支(git checkout -b feature/AmazingFeature)
- 提交更改(git commit -m '添加一些 AmazingFeature')
- 推送到分支(git push origin feature/AmazingFeature)
- 打开拉取请求
许可证
本代码库根据 MIT 许可证发布。
关于 n8n 可持续使用许可证的一点说明
尽管 InsightsLM 完全开源,Supabase 也是开源的,但需要注意的是,作为后端自动化核心的 n8n 并非传统意义上的开源软件。
n8n 根据 可持续使用许可证 发布。该许可证允许出于内部业务目的免费使用,包括在贵公司或组织内部托管工作流。
然而,如果您计划将 InsightsLM 用作商业 SaaS 服务的一部分——例如转售访问权限或为多个客户托管公共版本——则可能需要获得 n8n 企业许可证。我们并非律师,因此建议您仔细阅读 n8n 的许可证,并在您的使用场景属于商业范畴时联系他们的团队。
替代方案:如果您的使用场景受到 n8n 许可证的限制,一种可行的选择是将关键工作流转换为 Supabase Edge Functions。这样您就可以完全避免在生产环境中使用 n8n。
版本历史
v0.2.02026/01/15v0.1.02025/06/16常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

