ebook-to-mindmap
ebook-to-mindmap 是一款基于 AI 技术的智能电子书解析工具,旨在帮助用户高效消化 EPUB 和 PDF 格式的书籍内容。它能够将厚重的电子书自动转化为结构清晰的文字总结或直观的思维导图,解决了传统阅读中信息提取耗时、重点难以把握的痛点,让知识吸收变得更加轻松系统。
这款工具非常适合学生、研究人员、终身学习者以及需要快速浏览技术文档或专业书籍的职场人士使用。无论您是想快速掌握一本书的核心观点,还是希望梳理复杂教材的知识脉络,它都能提供得力辅助。
其独特的技术亮点在于极致的隐私保护与灵活的本地化处理:采用 BYOK(自带密钥)模式,所有 AI 请求均由浏览器直接连接 Google Gemini 或 OpenAI 服务,不经过任何第三方中转服务器,确保数据绝对安全。此外,它还支持智能章节检测、断点续传缓存机制以及自定义提示词功能,用户可根据书籍类型(如小说或非虚构类)灵活调整处理策略,生成更符合需求的深度分析结果。界面现代友好,支持交互式查看与导出,是提升阅读效率的理想助手。
使用场景
一位产品经理需要在两天内读完一本 300 页的英文技术专著《分布式系统架构》,以便为下周的技术选型会议提炼核心观点并绘制知识图谱。
没有 ebook-to-mindmap 时
- 阅读效率极低:面对密集的英文长难句和复杂概念,人工逐章精读耗时巨大,难以在短时间内把握全书脉络。
- 结构梳理困难:手动整理章节逻辑关系容易遗漏关键细节,且难以直观呈现知识点之间的层级与关联。
- 总结主观性强:人工笔记容易受个人理解偏差影响,可能忽略作者强调的核心论证链条,导致汇报重点偏离。
- 复用性差:生成的纸质或纯文本笔记难以直接转化为演示用的思维导图,二次加工成本高。
使用 ebook-to-mindmap 后
- 极速提取核心:上传 PDF 后,利用 AI 自动识别章节并生成“全书总结”与“章节关联”,10 分钟内即可掌握核心论点。
- 可视化知识图谱:一键切换至“整书思维导图模式”,自动生成包含层级结构的交互式导图,清晰展示技术架构的逻辑全貌。
- 客观深度解析:基于 Google Gemini 模型的分析消除了人为偏见,精准捕捉书中关于一致性协议等关键技术细节的论述。
- 即拿即用交付:导出的思维导图可直接用于会议演示,支持节点展开查看详情,大幅提升了技术分享的准备效率。
ebook-to-mindmap 将原本需要数天的深度阅读与整理工作压缩至分钟级,让知识吸收从“线性苦读”转变为“结构化洞察”。
运行环境要求
- 未说明
不需要 GPU
未说明

快速开始
电子书转思维导图
English | 中文

一个基于 AI 技术的智能电子书解析工具,支持将 EPUB 和 PDF 格式的电子书转换为结构化的思维导图和文字总结。
立即试用:https://ebook2me-next.mind-elixir.com/
✨ 功能特性
📚 多格式支持
- EPUB 文件:完整支持 EPUB 格式电子书的解析和处理
- PDF 文件:智能解析 PDF 文档,支持基于目录和智能检测的章节提取
🤖 AI 驱动的内容处理
- 多种 AI 服务:支持 Google Gemini 和 OpenAI GPT 模型
- BYOK 模式:需要使用您自己的 API Key(Bring Your Own Key),保证数据安全和隐私
- 本地直连:所有 AI 请求均由浏览器本地直接连接 AI 供应商,绝不经过任何第三方代理或中转服务器
- 三种处理模式:
- 📝 文字总结模式:生成章节总结、分析章节关联、输出全书总结
- 🧠 章节思维导图模式:为每个章节生成独立的思维导图
- 🌐 整书思维导图模式:将整本书内容整合为一个完整的思维导图
💾 高效缓存机制
- 智能缓存:自动缓存 AI 处理结果,处理中断后可从上次位置继续
- 缓存管理:支持按模式清除缓存,节省存储空间
- 离线查看:已处理的内容可离线查看
🎨 现代化界面
- 响应式设计:适配各种屏幕尺寸
- 实时进度:处理过程可视化,实时显示当前步骤
- 交互式思维导图:支持缩放、拖拽、节点展开/折叠
- 内容预览:支持查看原始章节内容
📖 使用指南
1. 配置 AI 服务
首次使用需要配置 AI 服务:
🔒 隐私保护说明:本工具采用 BYOK(Bring Your Own Key)模式,您需要使用自己的 API Key。所有 AI 请求均由您的浏览器本地直接连接 AI 供应商(Google 或 OpenAI),绝不经过任何第三方代理或中转服务器,确保您的数据安全和隐私。
- 点击「配置」按钮
- 选择 AI 服务提供商,推荐试用 Google Gemini
- 输入相应的 API Key
- 填写模型
获取 API Key
以 Google Gemini 为例:
- 访问 Google AI Studio
- 登录 Google 账号
- 创建新的 API Key
- 复制 API Key 到配置中
获取更多 AI 运营商选择资讯,可以参考:免费和付费 AI API 选择指南
2. 上传电子书文件
- 点击「选择 EPUB 或 PDF 文件」按钮
- 选择要处理的电子书文件
- 支持的格式:
.epub、.pdf
你可以在 Project Gutenberg、standard ebooks 等网站获取到免费电子书。
3. 配置处理选项
在配置对话框中设置处理参数:
处理模式
- 文字总结模式:适合需要文字总结的场景
- 章节思维导图模式:为每个章节生成独立思维导图
- 整书思维导图模式:生成整本书的统一思维导图(如果书的内容太长会因为模型上下文不足生成失败)
书籍类型
- 小说类:适用于小说、故事类书籍
- 非小说类:适用于教材、工具书、技术书籍等
高级选项
- 智能章节检测:启用后会使用 AI 智能识别章节边界
- 跳过无关章节:自动跳过前言、目录、致谢等内容
- 子章节深度:设置提取子章节的层级深度(0-3)
4. 提取章节
- 点击「提取章节」按钮
- 系统会自动解析文件并提取章节结构
- 提取完成后会显示章节列表
- 可以选择需要处理的章节
章节分组(可选)
对于内容较多的书籍,你可以将多个小章节合并为一个分组进行处理,这样可以生成更加结构化的结果。通过分组,AI 会将这些章节的内容合并分析。
- 选择章节:点击章节列表项(非复选框区域)可以选中该章节,支持多选。选中后章节会有高亮边框。
- 添加标签:
- 点击列表顶部的「添加标签」按钮
- 或使用快捷键
Ctrl + G
- 输入分组名称:在弹出的对话框中输入分组名称(例如:"第一部分"、"第一章"等),确认后选中的章节会被标记为同一组。
- 移除分组:点击章节列表上已有的标签后的 "X" 图标即可移除该章节的分组。
4.5. 自定义提示词(高级功能)
你可以在「自定义提示词」页面管理你的专用提示词,并在处理书籍时使用它们来获得更符合需求的输出结果。
管理提示词:
- 点击导航栏的「自定义提示词」进入管理页面
- 点击「添加提示词」创建新的提示词模板
- 填写名称、描述和具体的提示词内容
- 支持编辑、复制和删除已有提示词
使用提示词:
- 在提取章节后的配置界面底部,找到「自定义提示词」选项
- 在下拉菜单中选择你预先创建的提示词
- 仅使用自定义提示词:勾选此选项后,将完全使用你的提示词替代系统默认提示词(此选项仅适用于文字总结模式)。如果不勾选,你的提示词将作为补充指令发送给 AI。
5. 开始处理
- 确认选择的章节
- 点击「开始处理」按钮
- 系统会显示处理进度和当前步骤
- 处理完成后会显示结果
6. 查看结果
根据选择的处理模式,可以查看不同类型的结果:
文字总结模式
- 章节总结:每个章节的详细总结
- 章节关联:分析章节之间的逻辑关系
- 全书总结:整本书的核心内容总结
思维导图模式
- 交互式思维导图:可缩放、拖拽的思维导图
- 节点详情:点击节点查看详细内容
- 导出功能:支持导出为图片或其他格式
🛠️ 技术架构
核心技术栈
- 前端框架:React 19 + TypeScript
- 构建工具:Vite
- 样式方案:Tailwind CSS + shadcn/ui
- 状态管理:Zustand
- 文件解析:
- EPUB:@smoores/epub + epubjs
- PDF:pdfjs-dist
- 思维导图:mind-elixir
- AI 服务:
- Google Gemini:@google/generative-ai
- OpenAI:自定义实现
📄 许可证
本项目采用 MIT 许可证。详见 LICENSE 文件。
🙏 致谢
感谢以下开源项目:
如有问题或建议,欢迎提交 Issue 或联系开发者(微信 👇)

常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备