ebook-GPT-translator
ebook-GPT-translator 是一款现代化的电子书翻译工具,旨在让用户用自己喜爱的风格流畅阅读外文书籍。它支持 TXT、EPUB、DOCX、PDF 等多种常见格式输入,并能输出翻译后的文本或 EPUB 文件,有效解决了传统机器翻译生硬、长文档处理易中断以及难以保持术语一致性的痛点。
这款工具不仅适合希望无障碍阅读外文书籍的普通读者,也因其灵活的配置选项而受到开发者和研究人员的青睐。其核心亮点在于强大的模型兼容性:除了支持标准的 OpenAI 和 Azure API,它还创新性地集成了本地 Codex、Claude Code 和 Gemini CLI,允许用户直接利用现有的 ChatGPT、Anthropic 或 Google 账户订阅进行翻译,无需额外购买昂贵的 API 额度。
此外,ebook-GPT-translator 具备断点续传功能,通过 SQLite 缓存机制确保长篇书籍在翻译意外中断后可无缝继续,同时支持自定义术语表(Glossary)和风格提示词(如“用红楼梦风格翻译”),让译文更贴合个人需求。无论是通过简洁的桌面图形界面一键操作,还是使用命令行进行批量自动化处理,它都能提供稳定且高效的翻译体验。
使用场景
一位独立开发者希望将自己收藏的英文技术专著《分布式系统原理》翻译成符合中文阅读习惯的译本,以便在社区分享。
没有 ebook-GPT-translator 时
- 格式处理繁琐:需要手动提取 EPUB 或 PDF 中的文本,翻译后再重新排版,极易丢失原有的章节结构和样式。
- 术语翻译不一致:长篇书籍分多次翻译,导致核心专业术语(如"Consensus")前后译法不统一,需人工反复校对。
- 中断无法续传:网络波动或 API 超时常导致翻译中途失败,必须从头开始,浪费大量 Token 和时间。
- 风格难以控制:通用翻译工具输出的文字生硬,无法指定“信达雅”或特定文学风格,阅读体验差。
- 多模型切换困难:想对比不同大模型(如 Claude 与 Gemini)的翻译效果,需编写复杂的脚本适配不同 API。
使用 ebook-GPT-translator 后
- 一键保留格式:直接输入 EPUB/PDF 文件,工具自动解析并输出格式完美的译文电子书,无需手动重排。
- 术语精准统一:通过加载 Excel 术语表(Glossary),确保全书专业词汇翻译高度一致,大幅减少校对成本。
- 断点智能续传:内置 SQLite 缓存机制,任务意外中断后可直接从上次完成的章节继续,省时省钱。
- 风格自由定制:在图形界面中输入“请用《红楼梦》笔触翻译”等自定义提示词,轻松获得符合预期的文风。
- 多provider 无缝切换:支持 Codex、Claude Code、Gemini CLI 等多种本地及云端模型,仅需修改配置即可灵活切换对比。
ebook-GPT-translator 将复杂的电子书翻译工程简化为一次点击,让个人也能高效产出高质量、风格化的专业译著。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
ebook-GPT-翻译器
现代化的电子书翻译工具包,支持 TXT、EPUB、DOCX、PDF 以及可选的 MOBI 格式输入。除了 OpenAI 和 Azure API 外,还支持 Codex、Claude Code 和 Gemini CLI 作为本地翻译服务提供商。此版本将原有的单文件项目升级为一个包含真正命令行界面的软件包,新增了对现代 OpenAI SDK 的支持、多提供商支持、断点续传缓存、术语表处理、测试用例以及适合发布的打包功能。
演示

直接链接:ebook.gif
v2 版本的更新内容
- 将旧版全局式的 OpenAI API 使用方式替换为基于客户端的现代 SDK 集成
- 增加了针对
openai、azure、compatible以及离线mock提供商的抽象层 - 添加了支持断点续传的 SQLite 翻译缓存和清单文件
- 为长篇书籍增加了可配置的分块和令牌限制
- 引入了
settings.toml、.env文件,并完全兼容旧版settings.cfg - 在
src/目录下采用了更易于维护的包结构 - 添加了单元测试和 GitHub Actions CI 流水线
- 保留了旧版的
text_translation.py入口作为兼容性封装
支持的提供商
codex: 使用您的 ChatGPT 订阅登录信息的本地 Codex CLIclaude: 使用您的 Anthropic 账户的 Claude Code CLI(模型:claude-sonnet-4-6、claude-opus-4-6、claude-haiku-4-5-20251001)gemini: 使用您的 Google 账户的 Gemini CLI(模型:gemini-3-pro-preview、gemini-3-flash-preview、gemini-2.5-pro、gemini-2.5-flash、gemini-2.5-flash-lite)openai: 官方 OpenAI APIazure: Azure OpenAI 部署compatible: 任何与 OpenAI 兼容的端点,包括 Venice.ai 风格的 APImock: 不需任何 API 密钥的离线烟雾测试
支持的格式
- 输入:
txt、md、epub、docx、pdf - 可选输入:
mobi(需运行pip install mobi) - 输出:翻译后的
txt和epub
安装步骤
git clone https://github.com/jesselau76/ebook-GPT-translator.git
cd ebook-GPT-translator
python3 -m pip install -r requirements.txt
可选的 MOBI 支持:
python3 -m pip install mobi
可选的 XLSX 术语表支持:
python3 -m pip install openpyxl
快速入门
创建配置文件:
python3 -m ebook_gpt_translator init-config
启动桌面 GUI:
PYTHONPATH=src python3 -m ebook_gpt_translator.gui
或者,在安装完成后:
ebook-gpt-translator-gui
GUI 注意事项:
- “配置文件”是可选的。留空则使用当前 GUI 中选择的值。
- 当您希望保存可重复使用的提供商、语言、上下文窗口及输出选项预设时,请使用配置文件。
- GUI 中的“模型”下拉菜单会根据您切换的提供商自动更新(Codex、Claude Code 或 Gemini 模型)。
- GUI 中的“目标语言”字段是一个通用语言下拉菜单,但您也可以手动输入自定义语言。
- GUI 包含一个“自定义提示”框,用于提供风格指示,例如“以《红楼梦》的风格翻译成中文”。
- GUI 现在会实时显示整体进度以及分块子步骤的进展,因此长文件在翻译过程中不会再出现卡顿现象。
- GUI 包含“检查续传”和“继续上次任务”操作。如果翻译被中断,只需重新运行相同的文件和设置,即可从缓存的分块中继续,并恢复一致的状态。
- GUI 还包含一个“CLI 工具”面板,显示 Codex、Claude Code 和 Gemini CLI 的安装和认证状态,并提供一键登录功能。
进行实际翻译:
PYTHONPATH=src python3 -m ebook_gpt_translator translate book.epub \
--config settings.toml \
--provider codex \
--model gpt-5.2-codex \
--reasoning-effort medium \
--target-language "简体中文"
使用 Codex 订阅登录:
PYTHONPATH=src python3 -m ebook_gpt_translator auth login --provider codex
PYTHONPATH=src python3 -m ebook_gpt_translator translate book.epub \
--provider codex \
--model gpt-5.2-codex \
--reasoning-effort medium \
--target-language "简体中文"
使用 Claude Code:
PYTHONPATH=src python3 -m ebook_gpt_translator auth login --provider claude
PYTHONPATH=src python3 -m ebook_gpt_translator translate book.epub \
--provider claude \
--model claude-sonnet-4-6 \
--target-language "简体中文"
使用 Gemini CLI:
PYTHONPATH=src python3 -m ebook_gpt_translator auth login --provider gemini
PYTHONPATH=src python3 -m ebook_gpt_translator translate book.epub \
--provider gemini \
--model gemini-2.5-pro \
--target-language "简体中文"
进行离线烟雾测试:
PYTHONPATH=src python3 -m ebook_gpt_translator translate sample.txt \
--provider mock \
--target-language 德语
将 OpenAI 凭证本地保存:
PYTHONPATH=src python3 -m ebook_gpt_translator auth login --provider openai
默认提供商注意事项:
- 默认提供商现为
codex - 默认模型为
gpt-5.2-codex - 默认推理力度为
medium - 默认启用长文本一致性机制,
context_window_blocks = 6 - 默认开启章节记忆、滚动翻译上下文和自动术语记忆功能。
- 跨章节记忆会被持久化到一个辅助内存文件中,并在后续运行中复用。
- 您可以通过设置
--reasoning-effort low来选择更经济或更快的 Codex 运行。 - 您可以使用
--model参数切换不同的模型,例如gpt-5.2-codex、gpt-5.1-codex或gpt-5-codex-mini。 - 您可以通过
--context-window参数覆盖默认的滚动上下文大小。 - GUI 提供了与命令行相同的提供商、模型和上下文设置选项,无需复杂的 CLI 命令。
查看 Codex 登录状态:
PYTHONPATH=src python3 -m ebook_gpt_translator auth status
列出可用模型:
PYTHONPATH=src python3 -m ebook_gpt_translator list-models --source codex
PYTHONPATH=src python3 -m ebook_gpt_translator list-models --source claude
PYTHONPATH=src python3 -m ebook_gpt_translator list-models --source gemini
使用旧版入口:
PYTHONPATH=src python3 text_translation.py translate sample.txt --provider mock
Azure OpenAI 示例
[provider]
kind = "azure"
model = "your-deployment-name"
api_key = "..."
api_base_url = "https://your-resource.openai.azure.com/"
api_version = "2024-02-01"
api_mode = "chat"
OpenAI 兼容端点示例
[provider]
kind = "compatible"
model = "llama-3.1-405b"
api_key = "..."
api_base_url = "https://api.example.com/v1"
api_mode = "chat"
核心功能
--skip-existing:当已存在翻译输出时,跳过相应文件。- SQLite 缓存可避免重复的 API 调用,并作为主要的断点续传机制。
--test:仅翻译前几个段落以进行快速验证。- 术语表 CSV 和 XLSX 文件允许您在将文本发送到模型之前固定术语。
- 默认包含章节记忆、滚动翻译上下文和自动术语记忆功能,以提升长篇小说的一致性。
- 翻译记忆会持久化保存在
.cache/jobs/*.memory.json中,以便跨章节复用和重启时继续使用。 - 所有 CLI 提供商(Codex、Claude Code、Gemini)均请求结构化的 JSON 输出,并解析
translation字段;若响应为空,则会自动重试。 --txt-only和--epub-only支持更轻量的工作流。- 生成的清单文件会记录输出、配置和使用统计信息。
配置文件
settings.toml.example:推荐格式。settings.cfg.example:原始项目中兼容旧版的[option]格式。.env.example:环境变量覆盖参考。examples.glossary.csv:示例术语表文件。transliteration-list-example.xlsx:原始示例术语表工作簿。
开发
运行测试:
PYTHONPATH=src python3 -m unittest discover -s tests -v
打包构建:
python3 -m pip install -e .
星标历史
常见问题
相似工具推荐
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
spec-kit
Spec Kit 是一款专为提升软件开发效率而设计的开源工具包,旨在帮助团队快速落地“规格驱动开发”(Spec-Driven Development)模式。传统开发中,需求文档往往与代码实现脱节,导致沟通成本高且结果不可控;而 Spec Kit 通过将规格说明书转化为可执行的指令,让 AI 直接依据明确的业务场景生成高质量代码,从而减少从零开始的随意编码,确保产出结果的可预测性。 该工具特别适合希望利用 AI 辅助编程的开发者、技术负责人及初创团队。无论是启动全新项目还是在现有工程中引入规范化流程,用户只需通过简单的命令行操作,即可初始化项目并集成主流的 AI 编程助手。其核心技术亮点在于“规格即代码”的理念,支持社区扩展与预设模板,允许用户根据特定技术栈定制开发流程。此外,Spec Kit 强调官方维护的安全性,提供稳定的版本管理,帮助开发者在享受 AI 红利的同时,依然牢牢掌握架构设计的主动权,真正实现从“凭感觉写代码”到“按规格建系统”的转变。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
funNLP
funNLP 是一个专为中文自然语言处理(NLP)打造的超级资源库,被誉为"NLP 民工的乐园”。它并非单一的软件工具,而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。 面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点,funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具,还独特地收录了丰富的垂直领域资源,如法律、医疗、金融行业的专用词库与数据集,甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性,从基础的字典词典到前沿的 BERT、GPT-2 模型代码,再到高质量的标注数据和竞赛方案,应有尽有。 无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师,还是从事人工智能研究的学者,都能在这里找到急需的“武器弹药”。对于开发者而言,它能大幅减少寻找数据和复现模型的时间;对于研究者,它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神,极大地降低了中文自然语言处理的开发与研究成本,是中文 AI 社区不可或缺的宝藏仓库。
