[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-jesselau76--ebook-GPT-translator":3,"tool-jesselau76--ebook-GPT-translator":65},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},8553,"spec-kit","github\u002Fspec-kit","Spec Kit 是一款专为提升软件开发效率而设计的开源工具包，旨在帮助团队快速落地“规格驱动开发”（Spec-Driven Development）模式。传统开发中，需求文档往往与代码实现脱节，导致沟通成本高且结果不可控；而 Spec Kit 通过将规格说明书转化为可执行的指令，让 AI 直接依据明确的业务场景生成高质量代码，从而减少从零开始的随意编码，确保产出结果的可预测性。\n\n该工具特别适合希望利用 AI 辅助编程的开发者、技术负责人及初创团队。无论是启动全新项目还是在现有工程中引入规范化流程，用户只需通过简单的命令行操作，即可初始化项目并集成主流的 AI 编程助手。其核心技术亮点在于“规格即代码”的理念，支持社区扩展与预设模板，允许用户根据特定技术栈定制开发流程。此外，Spec Kit 强调官方维护的安全性，提供稳定的版本管理，帮助开发者在享受 AI 红利的同时，依然牢牢掌握架构设计的主动权，真正实现从“凭感觉写代码”到“按规格建系统”的转变。",88749,"2026-04-17T09:48:14",[15,26,14,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":10,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[26,51,52,53,14,54,15,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":62,"last_commit_at":63,"category_tags":64,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,51,54],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":78,"owner_location":81,"owner_email":78,"owner_twitter":78,"owner_website":82,"owner_url":83,"languages":84,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":10,"env_os":93,"env_gpu":94,"env_ram":94,"env_deps":95,"category_tags":104,"github_topics":105,"view_count":10,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":113,"updated_at":114,"faqs":115,"releases":161},8883,"jesselau76\u002Febook-GPT-translator","ebook-GPT-translator","Enjoy reading with your favorite style.","ebook-GPT-translator 是一款现代化的电子书翻译工具，旨在让用户用自己喜爱的风格流畅阅读外文书籍。它支持 TXT、EPUB、DOCX、PDF 等多种常见格式输入，并能输出翻译后的文本或 EPUB 文件，有效解决了传统机器翻译生硬、长文档处理易中断以及难以保持术语一致性的痛点。\n\n这款工具不仅适合希望无障碍阅读外文书籍的普通读者，也因其灵活的配置选项而受到开发者和研究人员的青睐。其核心亮点在于强大的模型兼容性：除了支持标准的 OpenAI 和 Azure API，它还创新性地集成了本地 Codex、Claude Code 和 Gemini CLI，允许用户直接利用现有的 ChatGPT、Anthropic 或 Google 账户订阅进行翻译，无需额外购买昂贵的 API 额度。\n\n此外，ebook-GPT-translator 具备断点续传功能，通过 SQLite 缓存机制确保长篇书籍在翻译意外中断后可无缝继续，同时支持自定义术语表（Glossary）和风格提示词（如“用红楼梦风格翻译”），让译文更贴合个人需求。无论是通过简洁的桌面图形界面一键操作，还是使用命令行进行批量","ebook-GPT-translator 是一款现代化的电子书翻译工具，旨在让用户用自己喜爱的风格流畅阅读外文书籍。它支持 TXT、EPUB、DOCX、PDF 等多种常见格式输入，并能输出翻译后的文本或 EPUB 文件，有效解决了传统机器翻译生硬、长文档处理易中断以及难以保持术语一致性的痛点。\n\n这款工具不仅适合希望无障碍阅读外文书籍的普通读者，也因其灵活的配置选项而受到开发者和研究人员的青睐。其核心亮点在于强大的模型兼容性：除了支持标准的 OpenAI 和 Azure API，它还创新性地集成了本地 Codex、Claude Code 和 Gemini CLI，允许用户直接利用现有的 ChatGPT、Anthropic 或 Google 账户订阅进行翻译，无需额外购买昂贵的 API 额度。\n\n此外，ebook-GPT-translator 具备断点续传功能，通过 SQLite 缓存机制确保长篇书籍在翻译意外中断后可无缝继续，同时支持自定义术语表（Glossary）和风格提示词（如“用红楼梦风格翻译”），让译文更贴合个人需求。无论是通过简洁的桌面图形界面一键操作，还是使用命令行进行批量自动化处理，它都能提供稳定且高效的翻译体验。","# ebook-GPT-translator\n\nModernized ebook translation toolkit for TXT, EPUB, DOCX, PDF, and optional MOBI input. Supports Codex, Claude Code, and Gemini CLI as local translation providers alongside OpenAI\u002FAzure APIs. This version upgrades the original single-file project into a package with a real CLI, modern OpenAI SDK support, multi-provider support, resume cache, glossary handling, tests, and release-ready packaging.\n\n[中文说明](README-zh.md)\n\n## Demo\n\n![ebook-GPT-translator demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjesselau76_ebook-GPT-translator_readme_d7b15e43c83c.gif)\n\nDirect link: [ebook.gif](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjesselau76_ebook-GPT-translator_readme_d7b15e43c83c.gif)\n\n## What changed in v2\n\n- Replaced the legacy global OpenAI API usage with client-based modern SDK integration\n- Added provider abstraction for `openai`, `azure`, `compatible`, and offline `mock`\n- Added resume-safe SQLite translation cache and manifest files\n- Added configurable chunk and token limits for long books\n- Added `settings.toml`, `.env`, and full legacy `settings.cfg` compatibility\n- Added maintainable package layout under `src\u002F`\n- Added unit tests and GitHub Actions CI\n- Preserved the old `text_translation.py` entrypoint as a compatibility wrapper\n\n## Supported providers\n\n- `codex`: local Codex CLI using your ChatGPT subscription login\n- `claude`: Claude Code CLI using your Anthropic account (models: `claude-sonnet-4-6`, `claude-opus-4-6`, `claude-haiku-4-5-20251001`)\n- `gemini`: Gemini CLI using your Google account (models: `gemini-3-pro-preview`, `gemini-3-flash-preview`, `gemini-2.5-pro`, `gemini-2.5-flash`, `gemini-2.5-flash-lite`)\n- `openai`: official OpenAI API\n- `azure`: Azure OpenAI deployment\n- `compatible`: any OpenAI-compatible endpoint, including Venice.ai-style APIs\n- `mock`: offline smoke testing without any API key\n\n## Supported formats\n\n- Input: `txt`, `md`, `epub`, `docx`, `pdf`\n- Optional input: `mobi` with `pip install mobi`\n- Output: translated `txt` and `epub`\n\n## Installation\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fjesselau76\u002Febook-GPT-translator.git\ncd ebook-GPT-translator\npython3 -m pip install -r requirements.txt\n```\n\nOptional MOBI support:\n\n```bash\npython3 -m pip install mobi\n```\n\nOptional XLSX glossary support:\n\n```bash\npython3 -m pip install openpyxl\n```\n\n## Quick start\n\nCreate config:\n\n```bash\npython3 -m ebook_gpt_translator init-config\n```\n\nLaunch the desktop GUI:\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator.gui\n```\n\nOr, after installation:\n\n```bash\nebook-gpt-translator-gui\n```\n\nGUI notes:\n\n- `Config file` is optional. Leave it empty to use the values currently selected in the GUI.\n- Use a config file when you want to save a repeatable preset for provider, language, context window, and output options.\n- The `Model` field in the GUI is a dropdown that updates automatically when you switch providers (Codex, Claude Code, or Gemini models).\n- The `Target language` field in the GUI is a common-language dropdown, but you can still type a custom language.\n- The GUI includes a `Custom prompt` box for style instructions such as `Translate into Chinese in a Dream of the Red Chamber style.`\n- The GUI now shows live progress for both blocks and chunked sub-steps, so long files no longer appear frozen during translation.\n- The GUI includes `Check resume` and `Resume previous job` actions. If translation is interrupted, rerun the same file and settings to continue from cached chunks while rebuilding the same consistency state.\n- The GUI includes a `CLI Tools` panel showing install\u002Fauth status for Codex, Claude Code, and Gemini CLI with one-click login for each.\n\nRun a real translation:\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator translate book.epub \\\n  --config settings.toml \\\n  --provider codex \\\n  --model gpt-5.2-codex \\\n  --reasoning-effort medium \\\n  --target-language \"Simplified Chinese\"\n```\n\nRun with Codex subscription login:\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator auth login --provider codex\nPYTHONPATH=src python3 -m ebook_gpt_translator translate book.epub \\\n  --provider codex \\\n  --model gpt-5.2-codex \\\n  --reasoning-effort medium \\\n  --target-language \"Simplified Chinese\"\n```\n\nRun with Claude Code:\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator auth login --provider claude\nPYTHONPATH=src python3 -m ebook_gpt_translator translate book.epub \\\n  --provider claude \\\n  --model claude-sonnet-4-6 \\\n  --target-language \"Simplified Chinese\"\n```\n\nRun with Gemini CLI:\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator auth login --provider gemini\nPYTHONPATH=src python3 -m ebook_gpt_translator translate book.epub \\\n  --provider gemini \\\n  --model gemini-2.5-pro \\\n  --target-language \"Simplified Chinese\"\n```\n\nRun an offline smoke test:\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator translate sample.txt \\\n  --provider mock \\\n  --target-language German\n```\n\nSave OpenAI credentials locally:\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator auth login --provider openai\n```\n\nDefault provider notes:\n\n- The default provider is now `codex`\n- The default model is `gpt-5.2-codex`\n- The default reasoning effort is `medium`\n- Long-form consistency is enabled by default with `context_window_blocks = 6`\n- Chapter memory, rolling translated context, and automatic term memory are enabled by default\n- Cross-chapter memory is persisted to a sidecar memory file and reused on reruns\n- You can choose cheaper\u002Ffaster Codex runs with `--reasoning-effort low`\n- You can switch models with `--model`, for example `gpt-5.2-codex`, `gpt-5.1-codex`, or `gpt-5-codex-mini`\n- You can override the rolling context size with `--context-window`\n- The GUI exposes the same provider\u002Fmodel\u002Fcontext settings without requiring long CLI commands\n\nUse Codex login status:\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator auth status\n```\n\nList available models:\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator list-models --source codex\nPYTHONPATH=src python3 -m ebook_gpt_translator list-models --source claude\nPYTHONPATH=src python3 -m ebook_gpt_translator list-models --source gemini\n```\n\nUse the legacy entrypoint:\n\n```bash\nPYTHONPATH=src python3 text_translation.py translate sample.txt --provider mock\n```\n\n## Azure OpenAI example\n\n```toml\n[provider]\nkind = \"azure\"\nmodel = \"your-deployment-name\"\napi_key = \"...\"\napi_base_url = \"https:\u002F\u002Fyour-resource.openai.azure.com\u002F\"\napi_version = \"2024-02-01\"\napi_mode = \"chat\"\n```\n\n## OpenAI-compatible endpoint example\n\n```toml\n[provider]\nkind = \"compatible\"\nmodel = \"llama-3.1-405b\"\napi_key = \"...\"\napi_base_url = \"https:\u002F\u002Fapi.example.com\u002Fv1\"\napi_mode = \"chat\"\n```\n\n## Key features\n\n- `--skip-existing` skips files when translated outputs already exist\n- The SQLite cache avoids repeated API calls and acts as the primary resume mechanism\n- `--test` translates only the first few blocks for prompt validation\n- Glossary CSV and XLSX files let you pin terminology before sending text to the model\n- Chapter memory, rolling translated context, and automatic term memory are included by default to improve long-novel consistency\n- Translation memory is persisted in `.cache\u002Fjobs\u002F*.memory.json` for cross-chapter reuse and restarts\n- All CLI providers (Codex, Claude Code, Gemini) request structured JSON output and parse the `translation` field, with automatic retry on empty responses\n- `--txt-only` and `--epub-only` support lighter workflows\n- Generated manifest files record outputs, config, and usage stats\n\n## Configuration files\n\n- `settings.toml.example`: recommended format\n- `settings.cfg.example`: legacy-compatible `[option]` format from the original project\n- `.env.example`: environment variable override reference\n- `examples.glossary.csv`: sample glossary file\n- `transliteration-list-example.xlsx`: original sample glossary workbook\n\n## Development\n\nRun tests:\n\n```bash\nPYTHONPATH=src python3 -m unittest discover -s tests -v\n```\n\nPackage build:\n\n```bash\npython3 -m pip install -e .\n```\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjesselau76_ebook-GPT-translator_readme_ddf530855585.png)](https:\u002F\u002Fstar-history.com\u002F#jesselau76\u002Febook-GPT-translator&Date)\n","# ebook-GPT-翻译器\n\n现代化的电子书翻译工具包，支持 TXT、EPUB、DOCX、PDF 以及可选的 MOBI 格式输入。除了 OpenAI 和 Azure API 外，还支持 Codex、Claude Code 和 Gemini CLI 作为本地翻译服务提供商。此版本将原有的单文件项目升级为一个包含真正命令行界面的软件包，新增了对现代 OpenAI SDK 的支持、多提供商支持、断点续传缓存、术语表处理、测试用例以及适合发布的打包功能。\n\n[中文说明](README-zh.md)\n\n## 演示\n\n![ebook-GPT-翻译器演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjesselau76_ebook-GPT-translator_readme_d7b15e43c83c.gif)\n\n直接链接：[ebook.gif](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjesselau76_ebook-GPT-translator_readme_d7b15e43c83c.gif)\n\n## v2 版本的更新内容\n\n- 将旧版全局式的 OpenAI API 使用方式替换为基于客户端的现代 SDK 集成\n- 增加了针对 `openai`、`azure`、`compatible` 以及离线 `mock` 提供商的抽象层\n- 添加了支持断点续传的 SQLite 翻译缓存和清单文件\n- 为长篇书籍增加了可配置的分块和令牌限制\n- 引入了 `settings.toml`、`.env` 文件，并完全兼容旧版 `settings.cfg`\n- 在 `src\u002F` 目录下采用了更易于维护的包结构\n- 添加了单元测试和 GitHub Actions CI 流水线\n- 保留了旧版的 `text_translation.py` 入口作为兼容性封装\n\n## 支持的提供商\n\n- `codex`: 使用您的 ChatGPT 订阅登录信息的本地 Codex CLI\n- `claude`: 使用您的 Anthropic 账户的 Claude Code CLI（模型：`claude-sonnet-4-6`、`claude-opus-4-6`、`claude-haiku-4-5-20251001`）\n- `gemini`: 使用您的 Google 账户的 Gemini CLI（模型：`gemini-3-pro-preview`、`gemini-3-flash-preview`、`gemini-2.5-pro`、`gemini-2.5-flash`、`gemini-2.5-flash-lite`）\n- `openai`: 官方 OpenAI API\n- `azure`: Azure OpenAI 部署\n- `compatible`: 任何与 OpenAI 兼容的端点，包括 Venice.ai 风格的 API\n- `mock`: 不需任何 API 密钥的离线烟雾测试\n\n## 支持的格式\n\n- 输入：`txt`、`md`、`epub`、`docx`、`pdf`\n- 可选输入：`mobi`（需运行 `pip install mobi`）\n- 输出：翻译后的 `txt` 和 `epub`\n\n## 安装步骤\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fjesselau76\u002Febook-GPT-translator.git\ncd ebook-GPT-translator\npython3 -m pip install -r requirements.txt\n```\n\n可选的 MOBI 支持：\n\n```bash\npython3 -m pip install mobi\n```\n\n可选的 XLSX 术语表支持：\n\n```bash\npython3 -m pip install openpyxl\n```\n\n## 快速入门\n\n创建配置文件：\n\n```bash\npython3 -m ebook_gpt_translator init-config\n```\n\n启动桌面 GUI：\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator.gui\n```\n\n或者，在安装完成后：\n\n```bash\nebook-gpt-translator-gui\n```\n\nGUI 注意事项：\n\n- “配置文件”是可选的。留空则使用当前 GUI 中选择的值。\n- 当您希望保存可重复使用的提供商、语言、上下文窗口及输出选项预设时，请使用配置文件。\n- GUI 中的“模型”下拉菜单会根据您切换的提供商自动更新（Codex、Claude Code 或 Gemini 模型）。\n- GUI 中的“目标语言”字段是一个通用语言下拉菜单，但您也可以手动输入自定义语言。\n- GUI 包含一个“自定义提示”框，用于提供风格指示，例如“以《红楼梦》的风格翻译成中文”。\n- GUI 现在会实时显示整体进度以及分块子步骤的进展，因此长文件在翻译过程中不会再出现卡顿现象。\n- GUI 包含“检查续传”和“继续上次任务”操作。如果翻译被中断，只需重新运行相同的文件和设置，即可从缓存的分块中继续，并恢复一致的状态。\n- GUI 还包含一个“CLI 工具”面板，显示 Codex、Claude Code 和 Gemini CLI 的安装和认证状态，并提供一键登录功能。\n\n进行实际翻译：\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator translate book.epub \\\n  --config settings.toml \\\n  --provider codex \\\n  --model gpt-5.2-codex \\\n  --reasoning-effort medium \\\n  --target-language \"简体中文\"\n```\n\n使用 Codex 订阅登录：\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator auth login --provider codex\nPYTHONPATH=src python3 -m ebook_gpt_translator translate book.epub \\\n  --provider codex \\\n  --model gpt-5.2-codex \\\n  --reasoning-effort medium \\\n  --target-language \"简体中文\"\n```\n\n使用 Claude Code：\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator auth login --provider claude\nPYTHONPATH=src python3 -m ebook_gpt_translator translate book.epub \\\n  --provider claude \\\n  --model claude-sonnet-4-6 \\\n  --target-language \"简体中文\"\n```\n\n使用 Gemini CLI：\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator auth login --provider gemini\nPYTHONPATH=src python3 -m ebook_gpt_translator translate book.epub \\\n  --provider gemini \\\n  --model gemini-2.5-pro \\\n  --target-language \"简体中文\"\n```\n\n进行离线烟雾测试：\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator translate sample.txt \\\n  --provider mock \\\n  --target-language 德语\n```\n\n将 OpenAI 凭证本地保存：\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator auth login --provider openai\n```\n\n默认提供商注意事项：\n\n- 默认提供商现为 `codex`\n- 默认模型为 `gpt-5.2-codex`\n- 默认推理力度为 `medium`\n- 默认启用长文本一致性机制，`context_window_blocks = 6`\n- 默认开启章节记忆、滚动翻译上下文和自动术语记忆功能。\n- 跨章节记忆会被持久化到一个辅助内存文件中，并在后续运行中复用。\n- 您可以通过设置 `--reasoning-effort low` 来选择更经济或更快的 Codex 运行。\n- 您可以使用 `--model` 参数切换不同的模型，例如 `gpt-5.2-codex`、`gpt-5.1-codex` 或 `gpt-5-codex-mini`。\n- 您可以通过 `--context-window` 参数覆盖默认的滚动上下文大小。\n- GUI 提供了与命令行相同的提供商、模型和上下文设置选项，无需复杂的 CLI 命令。\n\n查看 Codex 登录状态：\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator auth status\n```\n\n列出可用模型：\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator list-models --source codex\nPYTHONPATH=src python3 -m ebook_gpt_translator list-models --source claude\nPYTHONPATH=src python3 -m ebook_gpt_translator list-models --source gemini\n```\n\n使用旧版入口：\n\n```bash\nPYTHONPATH=src python3 text_translation.py translate sample.txt --provider mock\n```\n\n## Azure OpenAI 示例\n\n```toml\n[provider]\nkind = \"azure\"\nmodel = \"your-deployment-name\"\napi_key = \"...\"\napi_base_url = \"https:\u002F\u002Fyour-resource.openai.azure.com\u002F\"\napi_version = \"2024-02-01\"\napi_mode = \"chat\"\n```\n\n## OpenAI 兼容端点示例\n\n```toml\n[provider]\nkind = \"compatible\"\nmodel = \"llama-3.1-405b\"\napi_key = \"...\"\napi_base_url = \"https:\u002F\u002Fapi.example.com\u002Fv1\"\napi_mode = \"chat\"\n```\n\n## 核心功能\n\n- `--skip-existing`：当已存在翻译输出时，跳过相应文件。\n- SQLite 缓存可避免重复的 API 调用，并作为主要的断点续传机制。\n- `--test`：仅翻译前几个段落以进行快速验证。\n- 术语表 CSV 和 XLSX 文件允许您在将文本发送到模型之前固定术语。\n- 默认包含章节记忆、滚动翻译上下文和自动术语记忆功能，以提升长篇小说的一致性。\n- 翻译记忆会持久化保存在 `.cache\u002Fjobs\u002F*.memory.json` 中，以便跨章节复用和重启时继续使用。\n- 所有 CLI 提供商（Codex、Claude Code、Gemini）均请求结构化的 JSON 输出，并解析 `translation` 字段；若响应为空，则会自动重试。\n- `--txt-only` 和 `--epub-only` 支持更轻量的工作流。\n- 生成的清单文件会记录输出、配置和使用统计信息。\n\n## 配置文件\n\n- `settings.toml.example`：推荐格式。\n- `settings.cfg.example`：原始项目中兼容旧版的 `[option]` 格式。\n- `.env.example`：环境变量覆盖参考。\n- `examples.glossary.csv`：示例术语表文件。\n- `transliteration-list-example.xlsx`：原始示例术语表工作簿。\n\n## 开发\n\n运行测试：\n\n```bash\nPYTHONPATH=src python3 -m unittest discover -s tests -v\n```\n\n打包构建：\n\n```bash\npython3 -m pip install -e .\n```\n\n## 星标历史\n\n[![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjesselau76_ebook-GPT-translator_readme_ddf530855585.png)](https:\u002F\u002Fstar-history.com\u002F#jesselau76\u002Febook-GPT-translator&Date)","# ebook-GPT-translator 快速上手指南\n\n`ebook-GPT-translator` 是一款现代化的电子书翻译工具包，支持 TXT、EPUB、DOCX、PDF 等格式。它不仅能调用 OpenAI\u002FAzure API，还支持本地运行 Codex、Claude Code 和 Gemini CLI 进行翻译，具备断点续传、术语表管理和长文一致性保持等高级功能。\n\n## 环境准备\n\n*   **操作系统**：Linux, macOS, 或 Windows (需安装 Python 3)\n*   **Python 版本**：建议 Python 3.8 及以上\n*   **前置依赖**：\n    *   `git`：用于克隆代码仓库\n    *   **模型访问权限**：根据选择的提供商，需具备以下任一条件：\n        *   ChatGPT Plus 订阅（用于 Codex）\n        *   Anthropic 账号及 Claude Code CLI（用于 Claude）\n        *   Google 账号及 Gemini CLI（用于 Gemini）\n        *   OpenAI API Key 或 Azure OpenAI 密钥\n\n## 安装步骤\n\n1.  **克隆项目仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fjesselau76\u002Febook-GPT-translator.git\n    cd ebook-GPT-translator\n    ```\n\n2.  **安装核心依赖**\n    ```bash\n    python3 -m pip install -r requirements.txt\n    ```\n    > **提示**：国内用户若下载缓慢，可添加清华源加速：\n    > `python3 -m pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n3.  **可选依赖安装**\n    *   如需支持 **MOBI** 格式输入：\n        ```bash\n        python3 -m pip install mobi\n        ```\n    *   如需支持 **Excel (.xlsx)** 格式的术语表：\n        ```bash\n        python3 -m pip install openpyxl\n        ```\n\n4.  **初始化配置**\n    生成默认配置文件：\n    ```bash\n    python3 -m ebook_gpt_translator init-config\n    ```\n\n## 基本使用\n\n本工具提供图形界面 (GUI) 和命令行 (CLI) 两种使用方式。\n\n### 方式一：启动图形界面 (推荐新手)\n\n启动桌面 GUI，通过可视化界面配置模型、语言和文件：\n\n```bash\nPYTHONPATH=src python3 -m ebook_gpt_translator.gui\n```\n*如果已执行 `pip install -e .` 进行开发模式安装，也可直接运行：*\n```bash\nebook-gpt-translator-gui\n```\n\n**GUI 主要功能：**\n*   **自动适配**：切换提供商（Codex\u002FClaude\u002FGemini）时，模型列表会自动更新。\n*   **自定义提示词**：可输入风格指令，例如 `\"Translate into Chinese in a Dream of the Red Chamber style.\"`\n*   **断点续传**：包含 \"Check resume\" 和 \"Resume previous job\" 按钮，任务中断后可从缓存处继续。\n*   **实时进度**：显示分块翻译的详细进度，避免长时间无响应假象。\n*   **一键登录**：内置 CLI Tools 面板，可一键完成各平台的登录认证。\n\n### 方式二：命令行快速翻译\n\n以下以使用 **Codex** (ChatGPT 订阅) 将 `book.epub` 翻译为简体中文为例：\n\n1.  **登录认证** (首次使用需执行)\n    ```bash\n    PYTHONPATH=src python3 -m ebook_gpt_translator auth login --provider codex\n    ```\n\n2.  **执行翻译**\n    ```bash\n    PYTHONPATH=src python3 -m ebook_gpt_translator translate book.epub \\\n      --provider codex \\\n      --model gpt-5.2-codex \\\n      --reasoning-effort medium \\\n      --target-language \"Simplified Chinese\"\n    ```\n\n**其他常用命令示例：**\n\n*   **使用 Claude Code:**\n    ```bash\n    PYTHONPATH=src python3 -m ebook_gpt_translator auth login --provider claude\n    PYTHONPATH=src python3 -m ebook_gpt_translator translate book.epub \\\n      --provider claude \\\n      --model claude-sonnet-4-6 \\\n      --target-language \"Simplified Chinese\"\n    ```\n\n*   **使用 Gemini CLI:**\n    ```bash\n    PYTHONPATH=src python3 -m ebook_gpt_translator auth login --provider gemini\n    PYTHONPATH=src python3 -m ebook_gpt_translator translate book.epub \\\n      --provider gemini \\\n      --model gemini-2.5-pro \\\n      --target-language \"Simplified Chinese\"\n    ```\n\n*   **离线测试 (Mock 模式，不消耗额度):**\n    ```bash\n    PYTHONPATH=src python3 -m ebook_gpt_translator translate sample.txt \\\n      --provider mock \\\n      --target-language German\n    ```\n\n**核心参数说明：**\n*   `--provider`: 选择提供商 (`codex`, `claude`, `gemini`, `openai`, `azure`, `compatible`, `mock`)\n*   `--model`: 指定具体模型版本\n*   `--target-language`: 目标语言\n*   `--config`: 加载配置文件 (如 `settings.toml`)\n*   `--skip-existing`: 跳过已存在的输出文件\n*   `--test`: 仅翻译前几个区块以验证提示词效果","一位独立开发者希望将自己收藏的英文技术专著《分布式系统原理》翻译成符合中文阅读习惯的译本，以便在社区分享。\n\n### 没有 ebook-GPT-translator 时\n- **格式处理繁琐**：需要手动提取 EPUB 或 PDF 中的文本，翻译后再重新排版，极易丢失原有的章节结构和样式。\n- **术语翻译不一致**：长篇书籍分多次翻译，导致核心专业术语（如\"Consensus\"）前后译法不统一，需人工反复校对。\n- **中断无法续传**：网络波动或 API 超时常导致翻译中途失败，必须从头开始，浪费大量 Token 和时间。\n- **风格难以控制**：通用翻译工具输出的文字生硬，无法指定“信达雅”或特定文学风格，阅读体验差。\n- **多模型切换困难**：想对比不同大模型（如 Claude 与 Gemini）的翻译效果，需编写复杂的脚本适配不同 API。\n\n### 使用 ebook-GPT-translator 后\n- **一键保留格式**：直接输入 EPUB\u002FPDF 文件，工具自动解析并输出格式完美的译文电子书，无需手动重排。\n- **术语精准统一**：通过加载 Excel 术语表（Glossary），确保全书专业词汇翻译高度一致，大幅减少校对成本。\n- **断点智能续传**：内置 SQLite 缓存机制，任务意外中断后可直接从上次完成的章节继续，省时省钱。\n- **风格自由定制**：在图形界面中输入“请用《红楼梦》笔触翻译”等自定义提示词，轻松获得符合预期的文风。\n- **多provider 无缝切换**：支持 Codex、Claude Code、Gemini CLI 等多种本地及云端模型，仅需修改配置即可灵活切换对比。\n\nebook-GPT-translator 将复杂的电子书翻译工程简化为一次点击，让个人也能高效产出高质量、风格化的专业译著。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjesselau76_ebook-GPT-translator_d7b15e43.gif","jesselau76",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjesselau76_e2588bd8.jpg","A freelancer living in New Zealand, engaged in website development and program trading. Ever won 1st ranking twice in the Dukascopy Strategy Contest.","New Zealand","https:\u002F\u002Fjesselau.com","https:\u002F\u002Fgithub.com\u002Fjesselau76",[85],{"name":86,"color":87,"percentage":88},"Python","#3572A5",100,1703,206,"2026-04-17T06:48:47","MIT","Linux, macOS, Windows","未说明",{"notes":96,"python":97,"dependencies":98},"该工具主要作为 API 客户端运行（支持 OpenAI、Azure、Codex CLI、Claude Code CLI、Gemini CLI），不依赖本地大型模型，因此无特定 GPU 或高内存需求。需安装对应提供商的命令行工具（如 Codex、Claude Code、Gemini CLI）并登录账号。支持断点续传和 SQLite 缓存机制。可选安装 mobi 库以支持 MOBI 格式，安装 openpyxl 以支持 XLSX 术语表。","3.x (通过 python3 命令调用)",[99,100,101,102,103],"openai (modern SDK)","sqlite3 (built-in)","toml","mobi (optional)","openpyxl (optional)",[15],[106,107,108,109,110,111,112],"epub","pdf","python","translation","translator","docx","mobi","2026-03-27T02:49:30.150509","2026-04-18T14:30:59.146997",[116,121,126,131,136,141,146,151,156],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},39838,"程序运行正常但没有输出任何文件或报错，该怎么办？","这通常是 Python 命令或环境问题。尝试将运行命令中的 `python3` 改为 `python`。确保使用的是 Python 3.x 版本（如 3.10.9），其他版本通常也可以正常工作。","https:\u002F\u002Fgithub.com\u002Fjesselau76\u002Febook-GPT-translator\u002Fissues\u002F8",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},39839,"遇到 ImportError: cannot import name 'HOCRConverter' from 'pdfminer.converter' 错误如何解决？","这是 pdfminer.six 库的版本问题。请卸载当前版本并重新安装最新版的 pdfminer.six，命令如下：\npip uninstall pdfminer.six\npip install -U pdfminer.six","https:\u002F\u002Fgithub.com\u002Fjesselau76\u002Febook-GPT-translator\u002Fissues\u002F7",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},39840,"如何在国内使用 OpenAI API（设置代理或替换 API 地址）？","主项目暂不直接集成代理功能，但可以通过替换 API 基础 URL 来实现。你可以参考开源项目 openai-scf-proxy (https:\u002F\u002Fgithub.com\u002FIce-Hazymoon\u002Fopenai-scf-proxy)，将默认的 `https:\u002F\u002Fapi.openai.com\u002F` 替换为你自己的代理地址。","https:\u002F\u002Fgithub.com\u002Fjesselau76\u002Febook-GPT-translator\u002Fissues\u002F20",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},39841,"如何将默认模型从 gpt-3.5 切换为 gpt-4？","首先确保你的 API 账号已有 GPT-4 访问权限。然后在代码中找到 `create_chat_completion` 函数，将参数 `model=\"gpt-3.5-turbo\"` 修改为 `model=\"gpt-4\"` 即可。","https:\u002F\u002Fgithub.com\u002Fjesselau76\u002Febook-GPT-translator\u002Fissues\u002F50",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},39842,"遇到编码错误（如 UnicodeEncodeError 或 gb k 相关报错）怎么办？","这通常是因为缺少字符编码检测库。请安装 chardet 库来解决：\npip install chardet\n安装后重新运行程序即可自动识别文件编码。","https:\u002F\u002Fgithub.com\u002Fjesselau76\u002Febook-GPT-translator\u002Fissues\u002F16",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},39843,"翻译过程中出现 API 错误（如 HTTP 502）导致中断，如何从中断处继续翻译而不从头开始？","如果你使用的是最新版本，程序会在目录下生成一个进度 JSON 文件。当遇到 API 错误中断后，只需直接再次运行翻译命令，程序会自动读取进度文件并从上次中断的位置继续翻译。","https:\u002F\u002Fgithub.com\u002Fjesselau76\u002Febook-GPT-translator\u002Fissues\u002F3",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},39844,"运行时报错 AttributeError: module 'openai' has no attribute 'api_base' 如何解决？","这是因为 openai 库版本更新导致属性名称变化。解决方法有两种：\n1. 在代码中将 `api_base` 修改为 `api_type`（视具体上下文而定，通常需检查代码逻辑）；\n2. 或者在 `settings.cfg` 配置文件中，确保设置 `openai-proxy = 0` 以禁用代理相关配置，避免触发该属性调用。","https:\u002F\u002Fgithub.com\u002Fjesselau76\u002Febook-GPT-translator\u002Fissues\u002F66",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},39845,"如何自定义翻译风格（例如翻译成文言文或特定语气）？","无需复杂的 Prompt 工程。只需在源码的 Prompt 模板中，将目标语言描述（如 \"Chinese\"）直接改为你想要的风格描述即可。例如：\n\"Please behave like GPT-4 model, translate the following text into 文言文.\"\nChatGPT 能够自行理解并执行该风格要求。","https:\u002F\u002Fgithub.com\u002Fjesselau76\u002Febook-GPT-translator\u002Fissues\u002F55",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},39846,"新手运行时提示“找不到命令”或无法执行 python3 怎么办？","在某些系统（特别是 Windows）上，`python3` 命令可能不可用。请尝试直接使用 `python` 命令运行脚本。例如：\npython text_translation.py example.pdf","https:\u002F\u002Fgithub.com\u002Fjesselau76\u002Febook-GPT-translator\u002Fissues\u002F30",[]]