[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-hydropix--TranslateBooksWithLLMs":3,"tool-hydropix--TranslateBooksWithLLMs":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150720,2,"2026-04-11T11:33:10",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":73,"owner_location":76,"owner_email":77,"owner_twitter":73,"owner_website":78,"owner_url":79,"languages":80,"stars":113,"forks":114,"last_commit_at":115,"license":116,"difficulty_score":32,"env_os":117,"env_gpu":118,"env_ram":119,"env_deps":120,"category_tags":125,"github_topics":126,"view_count":32,"oss_zip_url":73,"oss_zip_packed_at":73,"status":17,"created_at":143,"updated_at":144,"faqs":145,"releases":181},6589,"hydropix\u002FTranslateBooksWithLLMs","TranslateBooksWithLLMs","Translate full-length books and documents with Ollama, OpenAI (comptatible), Gemini, Mistral, Poe or OpenRouter. Preserves formatting. Resumes where you left off. No file size limits.","TranslateBooksWithLLMs 是一款专为长篇内容翻译设计的开源工具，能利用大语言模型（LLM）将整本书籍、字幕文件或文档翻译成目标语言。它有效解决了传统翻译工具在处理超长文本时容易丢失上下文、破坏原有排版格式以及无法断点续传的痛点。\n\n无论是本地运行的 Ollama，还是云端的 OpenAI、Gemini、Poe 等主流模型，该工具都能灵活接入。其核心亮点在于智能分块技术，能在处理数千页小说或复杂文档时保持语境连贯；同时完美保留 EPUB 的样式结构、SRT 的时间轴同步以及 DOCX 的格式细节，确保译文与原文版式一致。此外，内置的自动检查点机制允许用户随时中断任务，并在下次启动时无缝从进度处继续，无需担心数据丢失。\n\n这款工具非常适合需要翻译电子书的普通读者、制作多语言字幕的视频创作者，以及希望低成本部署本地翻译方案的研究人员。无需深厚的编程背景，用户可直接下载预编译版本使用，也支持开发者通过源码进行个性化定制。如果你正在寻找一款既能保证翻译质量，又能完美还原文档格式的智能化解决方案，TranslateBooksWithLLMs 值得尝试。","\u003Cdiv align=\"center\">\n  \u003Ch1>Translate Books with LLMs\u003C\u002Fh1>\n\u003C\u002Fdiv>\n\nTranslate **books**, **subtitles**, and **documents** using AI - locally or in the cloud.\n\n**No size limit.** Process documents of any length - from a single page to thousand-page novels. The intelligent chunking system handles unlimited content while preserving context between segments.\n\n**Perfect preservation.** Your documents come out exactly as they went in: EPUB formatting, styles, and structure remain intact. SRT timecodes stay perfectly synchronized. Every tag, every timestamp, every formatting detail is preserved.\n\n**Resume anytime.** Interrupted translation? Pick up exactly where you left off. The checkpoint system saves progress automatically.\n\nFormats: **EPUB**, **SRT**, **DOCX**, **TXT**\n\n\u003Cimg width=\"1240\" height=\"1945\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhydropix_TranslateBooksWithLLMs_readme_cf5925e41801.png\" \u002F>\n\nProviders:\n\n\u003Cp align=\"left\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhydropix_TranslateBooksWithLLMs_readme_833cd1315238.png\" alt=\"Ollama\" height=\"32\">&nbsp;&nbsp;\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhydropix_TranslateBooksWithLLMs_readme_c9509460ddd2.png\" alt=\"Poe\" height=\"32\">&nbsp;&nbsp;\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhydropix_TranslateBooksWithLLMs_readme_34fc924ff3e9.png\" alt=\"OpenRouter\" height=\"32\">&nbsp;&nbsp;\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhydropix_TranslateBooksWithLLMs_readme_ff46c20a2965.png\" alt=\"OpenAI\" height=\"32\">&nbsp;&nbsp;\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhydropix_TranslateBooksWithLLMs_readme_2ee5f516695a.png\" alt=\"Mistral\" height=\"32\">&nbsp;&nbsp;\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhydropix_TranslateBooksWithLLMs_readme_8098b8cf8e90.png\" alt=\"DeepSeek\" height=\"32\">&nbsp;&nbsp;\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhydropix_TranslateBooksWithLLMs_readme_8bd42e21280d.png\" alt=\"Gemini\" height=\"32\">\n\u003C\u002Fp>\n\n- [**Ollama**](https:\u002F\u002Follama.com\u002Fdownload) (local \u002F cloud)\n- [**Poe**](https:\u002F\u002Fpoe.com\u002Fapi_key) ⭐ Recommended - Easy setup, multiple AI models\n- [**OpenRouter**](https:\u002F\u002Fopenrouter.ai\u002Fkeys) (200+ models)\n- [**OpenAI**](https:\u002F\u002Fplatform.openai.com\u002Fapi-keys) (**compatible like LM Studio**)\n- [**Mistral**](https:\u002F\u002Fconsole.mistral.ai\u002Fapi-keys)\n- [**DeepSeek**](https:\u002F\u002Fplatform.deepseek.com\u002Fapi_keys)\n- [**Gemini**](https:\u002F\u002Faistudio.google.com\u002Fapikey)\n\n> **[Translation Quality Benchmarks](https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Fwiki)** — Find the best model for your target language.\n\n---\n\n## Quick Start\n\n### Download Executable (No Python Required!)\n\n[![Download Windows](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDownload-Windows-blue?style=for-the-badge&logo=windows)](https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Freleases\u002Flatest\u002Fdownload\u002FTranslateBook-Windows.zip) [![Download macOS Intel](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDownload-macOS%20Intel-black?style=for-the-badge&logo=apple)](https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Freleases\u002Flatest\u002Fdownload\u002FTranslateBook-macOS-Intel.zip) [![Download macOS Apple Silicon](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDownload-macOS%20M1%2FM2%2FM3%2FM4-black?style=for-the-badge&logo=apple)](https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Freleases\u002Flatest\u002Fdownload\u002FTranslateBook-macOS-AppleSilicon.zip)\n\n1. Download and extract the archive for your platform\n2. Install [Ollama](https:\u002F\u002Follama.com\u002F) (for local AI models)\n3. Run `TranslateBook.exe` (Windows) or `.\u002FTranslateBook` (macOS)\n4. Open http:\u002F\u002Flocalhost:5000 in your browser\n\n> **Note:** First run creates a `TranslateBook_Data` folder with configuration files.\n>\n> **macOS:** On first launch, go to System Settings > Privacy & Security and click \"Open Anyway\".\n\n---\n\n### For the Bearded Ones - Install from Source\n\n**Prerequisites:** [Python 3.8+](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F), [Ollama](https:\u002F\u002Follama.com\u002F), [Git](https:\u002F\u002Fgit-scm.com\u002F)\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs.git\ncd TranslateBookWithLLM\nollama pull qwen3:14b    # Download a model\n\n# Windows\nstart.bat\n\n# Mac\u002FLinux\nchmod +x start.sh && .\u002Fstart.sh\n```\n\nThe web interface opens at **http:\u002F\u002Flocalhost:5000**\n\n---\n\n## LLM Providers\n\n| Provider | Type | Setup |\n|----------|------|-------|\n| **Ollama** | Local | [ollama.com](https:\u002F\u002Follama.com\u002F) |\n| **Poe** ⭐ | Cloud (Recommended) | [poe.com\u002Fapi_key](https:\u002F\u002Fpoe.com\u002Fapi_key) |\n| **OpenAI-Compatible** | Local | llama.cpp, LM Studio, vLLM, LocalAI... |\n| **OpenRouter** | Cloud (200+ models) | [openrouter.ai\u002Fkeys](https:\u002F\u002Fopenrouter.ai\u002Fkeys) |\n| **OpenAI** | Cloud | [platform.openai.com](https:\u002F\u002Fplatform.openai.com\u002Fapi-keys) |\n| **Mistral** | Cloud | [console.mistral.ai](https:\u002F\u002Fconsole.mistral.ai\u002Fapi-keys) |\n| **DeepSeek** | Cloud | [platform.deepseek.com](https:\u002F\u002Fplatform.deepseek.com\u002Fapi_keys) |\n| **Gemini** | Cloud | [Google AI Studio](https:\u002F\u002Fmakersuite.google.com\u002Fapp\u002Fapikey) |\n\n> **OpenAI-Compatible servers:** Use `--provider openai` with your server's endpoint (e.g., llama.cpp: `http:\u002F\u002Flocalhost:8080\u002Fv1\u002Fchat\u002Fcompletions`, LM Studio: `http:\u002F\u002Flocalhost:1234\u002Fv1\u002Fchat\u002Fcompletions`)\n\nSee [docs\u002FPROVIDERS.md](docs\u002FPROVIDERS.md) for detailed setup instructions.\n\n---\n\n## Command Line\n\n```bash\n# Basic (auto-generates \"book (Chinese).epub\")\npython translate.py -i book.epub -sl English -tl Chinese\n\n# With OpenRouter\npython translate.py -i book.txt --provider openrouter \\\n    --openrouter_api_key YOUR_KEY -m anthropic\u002Fclaude-sonnet-4 -tl French\n\n# With OpenAI\npython translate.py -i book.txt --provider openai \\\n    --openai_api_key YOUR_KEY -m gpt-4o -tl French\n\n# With Gemini\npython translate.py -i book.txt --provider gemini \\\n    --gemini_api_key YOUR_KEY -m gemini-2.0-flash -tl French\n\n# With local OpenAI-compatible server (llama.cpp, LM Studio, vLLM, etc.)\npython translate.py -i book.txt --provider openai \\\n    --api_endpoint http:\u002F\u002Flocalhost:8080\u002Fv1\u002Fchat\u002Fcompletions -m your-model -tl French\n```\n\n### Main Options\n\n| Option | Description | Default |\n|--------|-------------|---------|\n| `-i, --input` | Input file | Required |\n| `-o, --output` | Output file | Auto: `{name} ({lang}).{ext}` |\n| `-sl, --source_lang` | Source language | English |\n| `-tl, --target_lang` | Target language | Chinese |\n| `-m, --model` | Model name | mistral-small:24b |\n| `--provider` | ollama\u002Fopenrouter\u002Fopenai\u002Fgemini | ollama |\n| `--text-cleanup` | OCR\u002Ftypographic cleanup | disabled |\n| `--refine` | Second pass for literary polish | disabled |\n| `--tts` | Generate audio (Edge-TTS) | disabled |\n\nSee [docs\u002FCLI.md](docs\u002FCLI.md) for all options (TTS voices, rates, formats, etc.).\n\n---\n\n## Configuration (.env)\n\nCopy `.env.example` to `.env` and edit:\n\n```bash\n# Provider\nLLM_PROVIDER=ollama\n\n# Ollama\nAPI_ENDPOINT=http:\u002F\u002Flocalhost:11434\u002Fapi\u002Fgenerate\nDEFAULT_MODEL=mistral-small:24b\n\n# API Keys (if using cloud providers)\nOPENROUTER_API_KEY=sk-or-v1-...\nOPENAI_API_KEY=sk-...\nGEMINI_API_KEY=...\n\n# Performance\nREQUEST_TIMEOUT=900\nMAX_TOKENS_PER_CHUNK=400  # Token-based chunking (default: 400 tokens)\n```\n\n---\n\n## Docker\n\n```bash\ndocker build -t translatebook .\ndocker run -p 5000:5000 -v $(pwd)\u002Ftranslated_files:\u002Fapp\u002Ftranslated_files translatebook\n```\n\nSee [DOCKER.md](DOCKER.md) for more options.\n\n---\n\n## Troubleshooting\n\n| Problem | Solution |\n|---------|----------|\n| Ollama won't connect | Check Ollama is running, test `curl http:\u002F\u002Flocalhost:11434\u002Fapi\u002Ftags` |\n| Model not found | Run `ollama list`, then `ollama pull model-name` |\n\nSee [docs\u002FTROUBLESHOOTING.md](docs\u002FTROUBLESHOOTING.md) for more solutions.\n\n---\n\n## Documentation\n\n| Guide | Description |\n|-------|-------------|\n| [docs\u002FPROVIDERS.md](docs\u002FPROVIDERS.md) | Detailed provider setup (Ollama, LM Studio, OpenRouter, OpenAI, Gemini) |\n| [docs\u002FCLI.md](docs\u002FCLI.md) | Complete CLI reference |\n| [docs\u002FTROUBLESHOOTING.md](docs\u002FTROUBLESHOOTING.md) | Problem solutions |\n| [DOCKER.md](DOCKER.md) | Docker deployment guide |\n\n---\n\n## Links\n\n- [Report Issues](https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Fissues)\n- [OpenRouter Models](https:\u002F\u002Fopenrouter.ai\u002Fmodels)\n\n---\n\n**License:** AGPL-3.0\n","\u003Cdiv align=\"center\">\n  \u003Ch1>用大语言模型翻译书籍\u003C\u002Fh1>\n\u003C\u002Fdiv>\n\n使用 AI 翻译**书籍**、**字幕**和**文档**——本地或云端均可。\n\n**无大小限制。** 可处理任意长度的文档，从单页到千页长篇小说皆可。智能分块系统能够处理无限内容，同时保持各段落之间的上下文连贯性。\n\n**完美保留原貌。** 您的文档输出与输入完全一致：EPUB 格式、样式和结构均保持原样。SRT 时间码也始终保持同步。每一个标签、每一处时间戳、每一条格式细节都会被完整保留。\n\n**随时恢复进度。** 翻译过程中断了？您可以从上次停止的地方继续。检查点系统会自动保存您的进度。\n\n支持格式：**EPUB**、**SRT**、**DOCX**、**TXT**\n\n\u003Cimg width=\"1240\" height=\"1945\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhydropix_TranslateBooksWithLLMs_readme_cf5925e41801.png\" \u002F>\n\n服务提供商：\n\n\u003Cp align=\"left\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhydropix_TranslateBooksWithLLMs_readme_833cd1315238.png\" alt=\"Ollama\" height=\"32\">&nbsp;&nbsp;\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhydropix_TranslateBooksWithLLMs_readme_c9509460ddd2.png\" alt=\"Poe\" height=\"32\">&nbsp;&nbsp;\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhydropix_TranslateBooksWithLLMs_readme_34fc924ff3e9.png\" alt=\"OpenRouter\" height=\"32\">&nbsp;&nbsp;\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhydropix_TranslateBooksWithLLMs_readme_ff46c20a2965.png\" alt=\"OpenAI\" height=\"32\">&nbsp;&nbsp;\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhydropix_TranslateBooksWithLLMs_readme_2ee5f516695a.png\" alt=\"Mistral\" height=\"32\">&nbsp;&nbsp;\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhydropix_TranslateBooksWithLLMs_readme_8098b8cf8e90.png\" alt=\"DeepSeek\" height=\"32\">&nbsp;&nbsp;\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhydropix_TranslateBooksWithLLMs_readme_8bd42e21280d.png\" alt=\"Gemini\" height=\"32\">\n\u003C\u002Fp>\n\n- [**Ollama**](https:\u002F\u002Follama.com\u002Fdownload)（本地 \u002F 云端）\n- [**Poe**](https:\u002F\u002Fpoe.com\u002Fapi_key) ⭐ 推荐——设置简单，支持多种 AI 模型\n- [**OpenRouter**](https:\u002F\u002Fopenrouter.ai\u002Fkeys)（200+ 模型）\n- [**OpenAI**](https:\u002F\u002Fplatform.openai.com\u002Fapi-keys)（**兼容 LM Studio**）\n- [**Mistral**](https:\u002F\u002Fconsole.mistral.ai\u002Fapi-keys)\n- [**DeepSeek**](https:\u002F\u002Fplatform.deepseek.com\u002Fapi_keys)\n- [**Gemini**](https:\u002F\u002Faistudio.google.com\u002Fapikey)\n\n> **[翻译质量基准测试](https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Fwiki)** —— 为您的目标语言找到最佳模型。\n\n---\n\n## 快速入门\n\n### 下载可执行文件（无需 Python！）\n\n[![下载 Windows](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDownload-Windows-blue?style=for-the-badge&logo=windows)](https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Freleases\u002Flatest\u002Fdownload\u002FTranslateBook-Windows.zip) [![下载 macOS Intel](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDownload-macOS%20Intel-black?style=for-the-badge&logo=apple)](https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Freleases\u002Flatest\u002Fdownload\u002FTranslateBook-macOS-Intel.zip) [![下载 macOS Apple Silicon](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDownload-macOS%20M1%2FM2%2FM3%2FM4-black?style=for-the-badge&logo=apple)](https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Freleases\u002Flatest\u002Fdownload\u002FTranslateBook-macOS-AppleSilicon.zip)\n\n1. 下载并解压适合您平台的压缩包\n2. 安装 [Ollama](https:\u002F\u002Follama.com\u002F)（用于本地 AI 模型）\n3. 运行 `TranslateBook.exe`（Windows）或 `.\u002FTranslateBook`（macOS）\n4. 在浏览器中打开 http:\u002F\u002Flocalhost:5000\n\n> **注意：** 首次运行时会创建一个包含配置文件的 `TranslateBook_Data` 文件夹。\n>\n> **macOS：** 首次启动时，请前往“系统设置” > “隐私与安全性”，然后点击“仍要打开”。\n\n---\n\n### 给技术宅们——从源码安装\n\n**先决条件：** [Python 3.8+](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F)、[Ollama](https:\u002F\u002Follama.com\u002F)、[Git](https:\u002F\u002Fgit-scm.com\u002F)\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs.git\ncd TranslateBookWithLLM\nollama pull qwen3:14b    # 下载一个模型\n\n# Windows\nstart.bat\n\n# Mac\u002FLinux\nchmod +x start.sh && .\u002Fstart.sh\n```\n\nWeb 界面将在 **http:\u002F\u002Flocalhost:5000** 打开。\n\n---\n\n## LLM 服务提供商\n\n| 服务提供商 | 类型 | 设置 |\n|----------|------|-------|\n| **Ollama** | 本地 | [ollama.com](https:\u002F\u002Follama.com\u002F) |\n| **Poe** ⭐ | 云端（推荐） | [poe.com\u002Fapi_key](https:\u002F\u002Fpoe.com\u002Fapi_key) |\n| **OpenAI 兼容** | 本地 | llama.cpp、LM Studio、vLLM、LocalAI... |\n| **OpenRouter** | 云端（200+ 模型） | [openrouter.ai\u002Fkeys](https:\u002F\u002Fopenrouter.ai\u002Fkeys) |\n| **OpenAI** | 云端 | [platform.openai.com](https:\u002F\u002Fplatform.openai.com\u002Fapi-keys) |\n| **Mistral** | 云端 | [console.mistral.ai](https:\u002F\u002Fconsole.mistral.ai\u002Fapi-keys) |\n| **DeepSeek** | 云端 | [platform.deepseek.com](https:\u002F\u002Fplatform.deepseek.com\u002Fapi_keys) |\n| **Gemini** | 云端 | [Google AI Studio](https:\u002F\u002Fmakersuite.google.com\u002Fapp\u002Fapikey) |\n\n> **OpenAI 兼容服务器：** 使用 `--provider openai` 并指定您的服务器端点（例如，llama.cpp：`http:\u002F\u002Flocalhost:8080\u002Fv1\u002Fchat\u002Fcompletions`，LM Studio：`http:\u002F\u002Flocalhost:1234\u002Fv1\u002Fchat\u002Fcompletions`）。\n\n详细设置说明请参阅 [docs\u002FPROVIDERS.md](docs\u002FPROVIDERS.md)。\n\n---\n\n## 命令行工具\n\n```bash\n# 基本用法（自动生成“book (Chinese).epub”）\npython translate.py -i book.epub -sl English -tl Chinese\n\n# 使用 OpenRouter\npython translate.py -i book.txt --provider openrouter \\\n    --openrouter_api_key YOUR_KEY -m anthropic\u002Fclaude-sonnet-4 -tl French\n\n# 使用 OpenAI\npython translate.py -i book.txt --provider openai \\\n    --openai_api_key YOUR_KEY -m gpt-4o -tl French\n\n# 使用 Gemini\npython translate.py -i book.txt --provider gemini \\\n    --gemini_api_key YOUR_KEY -m gemini-2.0-flash -tl French\n\n# 使用本地 OpenAI 兼容服务器（llama.cpp、LM Studio、vLLM 等）\npython translate.py -i book.txt --provider openai \\\n    --api_endpoint http:\u002F\u002Flocalhost:8080\u002Fv1\u002Fchat\u002Fcompletions -m your-model -tl French\n```\n\n### 主要选项\n\n| 选项 | 描述 | 默认值 |\n|--------|-------------|---------|\n| `-i, --input` | 输入文件 | 必填 |\n| `-o, --output` | 输出文件 | 自动：`{name} ({lang}).{ext}` |\n| `-sl, --source_lang` | 源语言 | 英语 |\n| `-tl, --target_lang` | 目标语言 | 中文 |\n| `-m, --model` | 模型名称 | mistral-small:24b |\n| `--provider` | ollama\u002Fopenrouter\u002Fopenai\u002Fgemini | ollama |\n| `--text-cleanup` | OCR\u002F排版清理 | 关闭 |\n| `--refine` | 第二次润色以提升文学性 | 关闭 |\n| `--tts` | 生成音频（Edge-TTS） | 关闭 |\n\n更多选项（TTS 音色、语速、格式等）请参阅 [docs\u002FCLI.md](docs\u002FCLI.md)。\n\n---\n\n## 配置文件 (.env)\n\n将 `.env.example` 复制到 `.env` 并进行编辑：\n\n```bash\n# 服务提供商\nLLM_PROVIDER=ollama\n\n# Ollama\nAPI_ENDPOINT=http:\u002F\u002Flocalhost:11434\u002Fapi\u002Fgenerate\nDEFAULT_MODEL=mistral-small:24b\n\n# API 密钥（如果使用云端服务）\nOPENROUTER_API_KEY=sk-or-v1-...\nOPENAI_API_KEY=sk-...\nGEMINI_API_KEY=...\n\n# 性能\nREQUEST_TIMEOUT=900\nMAX_TOKENS_PER_CHUNK=400  # 基于 token 的分块（默认：400 tokens）\n```\n\n---\n\n## Docker\n\n```bash\ndocker build -t translatebook .\ndocker run -p 5000:5000 -v $(pwd)\u002Ftranslated_files:\u002Fapp\u002Ftranslated_files translatebook\n```\n\n更多选项请参阅 [DOCKER.md](DOCKER.md)。\n\n---\n\n## 故障排除\n\n| 问题 | 解决方案 |\n|---------|----------|\n| Ollama 无法连接 | 检查 Ollama 是否正在运行，测试 `curl http:\u002F\u002Flocalhost:11434\u002Fapi\u002Ftags` |\n| 未找到模型 | 运行 `ollama list`，然后 `ollama pull 模型名` |\n\n更多解决方案请参阅 [docs\u002FTROUBLESHOOTING.md](docs\u002FTROUBLESHOOTING.md)。\n\n---\n\n## 文档\n\n| 指南 | 描述 |\n|-------|-------------|\n| [docs\u002FPROVIDERS.md](docs\u002FPROVIDERS.md) | 详细的提供商设置（Ollama、LM Studio、OpenRouter、OpenAI、Gemini）|\n| [docs\u002FCLI.md](docs\u002FCLI.md) | 完整的命令行界面参考 |\n| [docs\u002FTROUBLESHOOTING.md](docs\u002FTROUBLESHOOTING.md) | 问题解决方案 |\n| [DOCKER.md](DOCKER.md) | Docker 部署指南 |\n\n---\n\n## 链接\n\n- [报告问题](https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Fissues)\n- [OpenRouter 模型](https:\u002F\u002Fopenrouter.ai\u002Fmodels)\n\n---\n\n**许可证:** AGPL-3.0","# TranslateBooksWithLLMs 快速上手指南\n\nTranslateBooksWithLLMs 是一款利用大语言模型（LLM）翻译书籍、字幕和文档的开源工具。它支持本地部署或云端调用，无文件大小限制，并能完美保留 EPUB、SRT 等文件的原始格式与结构。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Windows, macOS (Intel\u002FApple Silicon), Linux\n- **Python**: 3.8+ (仅源码安装需要)\n- **Git**: 用于克隆代码仓库 (仅源码安装需要)\n\n### 前置依赖\n1. **Ollama** (推荐本地运行):\n   - 下载地址：[https:\u002F\u002Follama.com\u002Fdownload](https:\u002F\u002Follama.com\u002Fdownload)\n   - 安装后拉取一个模型（例如 Qwen3 或 Mistral）：\n     ```bash\n     ollama pull qwen3:14b\n     ```\n2. **API Key** (若使用云端服务):\n   - 如需使用 Poe, OpenRouter, DeepSeek, Gemini 等云服务，请提前在对应官网获取 API Key。\n   - **国内开发者提示**: 推荐使用 **DeepSeek** 或 **OpenRouter** (聚合了多种模型)，网络连通性相对较好。\n\n---\n\n## 安装步骤\n\n你可以选择下载预编译包（无需 Python 环境）或从源码安装。\n\n### 方式一：下载预编译包（推荐新手）\n\n1. 根据你的操作系统下载最新 release 版本：\n   - **Windows**: [Download Windows](https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Freleases\u002Flatest\u002Fdownload\u002FTranslateBook-Windows.zip)\n   - **macOS Intel**: [Download macOS Intel](https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Freleases\u002Flatest\u002Fdownload\u002FTranslateBook-macOS-Intel.zip)\n   - **macOS Apple Silicon (M1\u002FM2\u002FM3\u002FM4)**: [Download macOS AppleSilicon](https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Freleases\u002Flatest\u002Fdownload\u002FTranslateBook-macOS-AppleSilicon.zip)\n\n2. 解压下载的压缩包。\n3. 确保已安装并运行 **Ollama** (如果使用本地模型)。\n4. 运行程序：\n   - **Windows**: 双击 `TranslateBook.exe`\n   - **macOS\u002FLinux**: 终端执行 `.\u002FTranslateBook`\n   > *macOS 用户注意*: 首次运行若被拦截，请前往 `系统设置 > 隐私与安全性` 点击“仍要打开”。\n\n5. 在浏览器中访问：`http:\u002F\u002Flocalhost:5000`\n\n### 方式二：从源码安装（适合开发者）\n\n```bash\n# 1. 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs.git\ncd TranslateBookWithLLM\n\n# 2. 拉取本地模型 (以 qwen3:14b 为例)\nollama pull qwen3:14b\n\n# 3. 启动服务\n# Windows\nstart.bat\n\n# Mac\u002FLinux\nchmod +x start.sh && .\u002Fstart.sh\n```\n\n启动成功后，访问 `http:\u002F\u002Flocalhost:5000` 使用 Web 界面。\n\n---\n\n## 基本使用\n\n### 方法 A：Web 界面操作 (最直观)\n\n1. 打开浏览器访问 `http:\u002F\u002Flocalhost:5000`。\n2. 在设置中选择提供商（如 `Ollama` 或 `DeepSeek`）并填入对应的 API Key（如需）。\n3. 上传文件（支持 `.epub`, `.srt`, `.docx`, `.txt`）。\n4. 设置源语言和目标语言（例如：English -> Chinese）。\n5. 点击开始翻译，进度会自动保存，支持中断后继续。\n\n### 方法 B：命令行操作 (CLI)\n\n如果你更喜欢命令行，可以使用以下命令进行快速翻译。\n\n**基础用法 (使用默认本地 Ollama 模型):**\n```bash\npython translate.py -i book.epub -sl English -tl Chinese\n```\n*说明：自动读取 `book.epub`，将其从英文翻译为中文，输出文件名为 `book (Chinese).epub`。*\n\n**使用云端模型 (以 DeepSeek 为例):**\n```bash\npython translate.py -i book.txt --provider openai \\\n    --api_endpoint https:\u002F\u002Fapi.deepseek.com\u002Fv1\u002Fchat\u002Fcompletions \\\n    --openai_api_key YOUR_DEEPSEEK_KEY \\\n    -m deepseek-chat -tl Chinese\n```\n*注意：DeepSeek 接口兼容 OpenAI 协议，故 provider 设为 `openai` 并指定 endpoint。*\n\n**使用 OpenRouter (访问多种模型):**\n```bash\npython translate.py -i novel.epub --provider openrouter \\\n    --openrouter_api_key YOUR_OPENROUTER_KEY \\\n    -m anthropic\u002Fclaude-sonnet-4 -tl French\n```\n\n### 常用参数说明\n\n| 参数 | 说明 | 示例 |\n| :--- | :--- | :--- |\n| `-i` | 输入文件路径 | `-i my_book.epub` |\n| `-sl` | 源语言 | `-sl English` |\n| `-tl` | 目标语言 | `-tl Chinese` |\n| `--provider` | 服务提供商 | `ollama`, `openrouter`, `openai`, `gemini` |\n| `-m` | 模型名称 | `-m qwen3:14b` |\n| `--refine` | 开启二次润色 (提升文学性) | `--refine` |\n| `--tts` | 生成有声书音频 | `--tts` |\n\n> 更多高级配置可参考项目根目录下的 `.env.example` 文件，复制为 `.env` 后修改默认模型或超时设置。","一位独立开发者急需将一本 800 页的英文技术专著《分布式系统架构》本地化，以便向中文社区分享前沿知识。\n\n### 没有 TranslateBooksWithLLMs 时\n- **格式灾难**：手动复制粘贴文本导致 EPUB 原有的章节结构、代码块高亮和超链接全部丢失，后期修复排版比翻译本身更耗时。\n- **长度限制**：主流在线翻译工具对文件大小有严格限制，不得不将书籍强行拆分为几十个小文件，严重破坏上下文连贯性。\n- **进度风险**：翻译过程一旦因网络波动或超时中断，之前数小时的工作成果往往付诸东流，无法从断点继续。\n- **成本高昂**：聘请专业人工翻译整本技术书费用极高，而普通机器翻译又难以准确理解“共识算法”等专业术语。\n\n### 使用 TranslateBooksWithLLMs 后\n- **完美还原**：直接导入原始 EPUB 文件，输出文件完整保留了所有样式、目录结构和代码格式，无需任何后期排版调整。\n- **无限篇幅**：利用智能分块技术一次性处理整本 800 页巨著，自动维护段落间的语境关联，确保专业术语前后一致。\n- **断点续传**：即使在翻译中途关闭电脑或网络断开，下次启动时能自动读取检查点，从上一页中断处无缝继续。\n- **灵活选型**：可自由切换 Ollama 本地部署的大模型或 Poe 云端服务，以极低成本获得接近专家水平的技术术语翻译质量。\n\nTranslateBooksWithLLMs 让个人开发者也能以零门槛、低成本实现专业级长篇技术文档的无损本地化。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhydropix_TranslateBooksWithLLMs_cf5925e4.png","hydropix",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhydropix_c603f4a1.png"," Co-founder and Technical Art Director at Magic Design Studios","Montpellier","bruno.gentile@gmail.com","https:\u002F\u002Fwww.artstation.com\u002Fhydropix","https:\u002F\u002Fgithub.com\u002Fhydropix",[81,85,89,93,97,101,105,109],{"name":82,"color":83,"percentage":84},"Python","#3572A5",76.5,{"name":86,"color":87,"percentage":88},"JavaScript","#f1e05a",17.6,{"name":90,"color":91,"percentage":92},"CSS","#663399",1.9,{"name":94,"color":95,"percentage":96},"HTML","#e34c26",1.8,{"name":98,"color":99,"percentage":100},"Batchfile","#C1F12E",1.3,{"name":102,"color":103,"percentage":104},"Shell","#89e051",0.5,{"name":106,"color":107,"percentage":108},"Jinja","#a52a22",0.4,{"name":110,"color":111,"percentage":112},"Dockerfile","#384d54",0,580,74,"2026-04-11T08:12:39","AGPL-3.0","Windows, macOS, Linux","非必需。若使用本地模型（如通过 Ollama、LM Studio），需根据所选模型大小配置相应 GPU 和显存；若使用云端 API 则无本地 GPU 需求。","未说明（取决于是否运行本地大模型及模型大小）",{"notes":121,"python":122,"dependencies":123},"该工具支持直接下载预编译的可执行文件（无需安装 Python）。若从源码运行，需预先安装 Git、Python 3.8+ 和 Ollama。支持多种后端：本地部署（Ollama, llama.cpp, LM Studio 等）或云端 API（Poe, OpenRouter, OpenAI, Gemini 等）。使用本地模型时，硬件需求完全取决于用户选择的具体模型（例如 README 示例中拉取了 qwen3:14b 或 mistral-small:24b）。首次运行会自动创建配置文件夹。","3.8+",[124],"未明确列出具体库版本，需安装 Python 环境及 Ollama",[35,14,52],[127,128,129,130,131,132,133,134,135,136,137,138,139,140,141,142],"llm","ollama","translation","local-llm","localization-tool","translation-tool","epub","srt-subtitles","gemini","gemini-api","openai-api","openrouter","lmstudio","docx","poe","mistral","2026-03-27T02:49:30.150509","2026-04-11T20:33:01.657815",[146,151,156,161,166,171,176],{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},29764,"为什么配置了 DEFAULT_TARGET_LANGUAGE 但界面仍显示浏览器语言？","这通常是因为 .env 配置文件中的值被双引号包裹导致的。请检查 .env 文件，确保变量值没有使用双引号。例如，将 `DEFAULT_MODEL=\"translategemma:27b-it-q8_0\"` 修改为 `DEFAULT_MODEL=translategemma:27b-it-q8_0`（去掉双引号）。此外，请确认您使用的是最新版本的镜像或代码，因为维护者最近修复了相关逻辑。","https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Fissues\u002F108",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},29765,"如何在反向代理（HTTPS）后解决 CORS 跨域错误导致模型列表无法加载的问题？","如果您在 Kubernetes 或反向代理后运行该项目并遇到 CORS 错误，可以通过修改端口配置来解决。请在 `.env.example` 文件中找到端口设置变量，将其复制并重命名为 `.env` 文件，然后修改其中的端口值以匹配您的代理设置。修改后重启服务即可生效。","https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Fissues\u002F31",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},29766,"如何使用支持“推理\u002F思考”（如 \u003Cthink> 标签）的模型进行翻译而不输出混乱内容？","对于带有推理过程的新模型（如 Qwen3），程序可能无法正确处理 `\u003Cthink>` 标签。目前的解决方案是在配置中禁用模型的“思考”功能。虽然具体参数可能因模型而异，但建议尝试设置 `think=false` 或在调用模型时明确指示不要输出思维链，以确保只获取最终的翻译结果。","https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Fissues\u002F10",{"id":162,"question_zh":163,"answer_zh":164,"source_url":165},29767,"Web 界面是否支持自定义 OpenAI 兼容的本地端点（如 LM Studio）？","是的，项目已合并了对 OpenAI 协议的支持，允许连接除官方 OpenAI 以外的本地服务（如 LM Studio 或 llama-server）。虽然底层代码已支持，但 Web UI 可能在显示上仍有混淆（例如日志提示 LM Studio 即使未安装）。您可以直接在配置中指定本地 OpenAI 兼容的 API 端点 URL 来使用这些本地模型。","https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Fissues\u002F88",{"id":167,"question_zh":168,"answer_zh":169,"source_url":170},29768,"翻译 EPUB 章节结束时程序崩溃且未生成文件怎么办？","这是一个已知问题，特别是在处理包含 HTML 文件的 EPUB 章节时。维护者已在最新版本中添加了详细的日志记录并修复了该崩溃问题。如果您遇到此问题，请更新到最新的代码版本或 Docker 镜像。如果问题复现，请查看控制台新增的日志信息以定位具体原因。","https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Fissues\u002F94",{"id":172,"question_zh":173,"answer_zh":174,"source_url":175},29769,"本地运行时为什么检测不到已下载的 Ollama 模型或语言设置错误？","如果 Ollama 正在运行（可通过 `ollama list` 确认）但程序未检测到模型，可能是连接或调试模式未开启。维护者已添加调试日志来帮助诊断此类问题。请确保 Flask 服务器正确启动，并检查 Ollama 是否监听在默认的 11434 端口。建议在配置中开启 DEBUG 模式以查看详细连接日志，确认程序是否正确识别了本地模型路径和语言代码。","https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Fissues\u002F84",{"id":177,"question_zh":178,"answer_zh":179,"source_url":180},29770,"如何优化包含图片的小说翻译质量并保持图片位置？","对于图片较少且 CSS 简单的小说，建议使用“快速模式”并在分块时保留图片原样，避免将每行文本单独作为类处理（这会降低翻译质量）。此外，有用户推荐尝试使用未量化的 Qwen VL 32B 模型（如 `huihui_ai\u002Fqwen3-vl-abliterated:32b-instruct-fp16`）进行翻译，特别是中英翻译场景，该模型在处理图文混合内容时表现更佳。","https:\u002F\u002Fgithub.com\u002Fhydropix\u002FTranslateBooksWithLLMs\u002Fissues\u002F87",[182,187,192,197,202,207,211,216,221,225,230,235,239,243,248,253,257,261,265,269],{"id":183,"version":184,"summary_zh":185,"released_at":186},206290,"v1.0.19","## macOS 可执行文件发布\n\n### 下载\n- **TranslateBook-macOS-AppleSilicon.zip** - 适用于 Apple Silicon 架构的 Mac（M1\u002FM2\u002FM3\u002FM4）\n- **TranslateBook-macOS-Intel.zip** - 适用于 Intel 架构的 Mac\n\n### 安装\n1. 下载适合您 Mac 的版本\n2. 解压 ZIP 文件\n3. 安装 [Ollama](https:\u002F\u002Follama.ai)（本地 LLM 所需）\n4. 打开终端并运行 `.\u002FTranslateBook`\n5. 在浏览器中打开 http:\u002F\u002Flocalhost:5000\n\n### 首次启动 - 安全授权\n首次启动时，macOS 会阻止应用运行：\n1. 双击 TranslateBook - macOS 会显示警告\n2. 打开 **系统设置 > 隐私与安全性**\n3. 点击 TranslateBook 提示旁边的 **“仍要打开”**\n\n此操作只需进行一次。\n\n### 包含内容\n- 单文件 macOS 可执行程序（无需安装 Python）\n- 首次运行时自动生成配置\n- 支持 .txt、.epub、.srt 格式的翻译\n\n### 系统要求\n- macOS 11+（Big Sur 或更高版本）\n- 已安装 Ollama 以支持本地 LLM\n- 或者拥有云服务提供商的 API 密钥（OpenAI、Gemini、OpenRouter）","2026-03-28T09:08:58",{"id":188,"version":189,"summary_zh":190,"released_at":191},206291,"v1.0.18","## macOS 可执行文件发布\n\n### 下载\n- **TranslateBook-macOS-AppleSilicon.zip** - 适用于 Apple Silicon 架构的 Mac（M1\u002FM2\u002FM3\u002FM4）\n- **TranslateBook-macOS-Intel.zip** - 适用于 Intel 架构的 Mac\n\n### 安装\n1. 下载适合您 Mac 的版本\n2. 解压 ZIP 文件\n3. 安装 [Ollama](https:\u002F\u002Follama.ai)（本地 LLM 所需）\n4. 打开终端并运行 `.\u002FTranslateBook`\n5. 在浏览器中打开 http:\u002F\u002Flocalhost:5000\n\n### 首次启动 - 安全授权\n首次启动时，macOS 会阻止该应用运行：\n1. 双击 TranslateBook，macOS 会显示警告\n2. 打开 **系统设置 > 隐私与安全性**\n3. 点击 TranslateBook 提示旁边的 **“仍要打开”**\n\n此操作只需进行一次。\n\n### 包含内容\n- 单文件 macOS 可执行程序（无需安装 Python）\n- 首次运行时自动生成配置\n- 支持 .txt、.epub、.srt 格式的翻译\n\n### 系统要求\n- macOS 11+（Big Sur 或更高版本）\n- 已安装 Ollama 以支持本地 LLM\n- 或者拥有云服务提供商的 API 密钥（OpenAI、Gemini、OpenRouter）","2026-03-27T09:48:51",{"id":193,"version":194,"summary_zh":195,"released_at":196},206292,"v1.0.17","## Windows 可执行文件发布\n\n### 安装\n1. 下载并解压 TranslateBook-Windows.zip\n2. 安装 [Ollama](https:\u002F\u002Follama.ai)（本地大模型所需）\n3. 运行 TranslateBook.exe\n4. 在浏览器中打开 http:\u002F\u002Flocalhost:5000\n\n### 包含内容\n- 单文件 Windows 可执行程序（无需安装 Python）\n- 首次运行时自动生成配置\n- 支持 .txt、.epub、.srt 文件的翻译\n\n### 系统要求\n- Windows 10\u002F11（64 位）\n- 已安装 Ollama 以支持本地大模型\n- 或者拥有云服务商的 API 密钥（OpenAI、Gemini、OpenRouter）\n\n**大小：** 27.53 MB","2026-03-18T21:20:38",{"id":198,"version":199,"summary_zh":200,"released_at":201},206293,"v1.0.16","## macOS 可执行文件发布\n\n### 下载\n- **TranslateBook-macOS-AppleSilicon.zip** - 适用于 Apple Silicon 架构的 Mac（M1\u002FM2\u002FM3\u002FM4）\n- **TranslateBook-macOS-Intel.zip** - 适用于 Intel 架构的 Mac\n\n### 安装\n1. 下载适合您 Mac 的版本\n2. 解压 ZIP 文件\n3. 安装 [Ollama](https:\u002F\u002Follama.ai)（本地 LLM 所需）\n4. 打开终端并运行 `.\u002FTranslateBook`\n5. 在浏览器中打开 http:\u002F\u002Flocalhost:5000\n\n### 首次启动——安全授权\n首次启动时，macOS 会阻止应用运行：\n1. 双击 TranslateBook，macOS 会显示警告\n2. 打开 **系统设置 > 隐私与安全性**\n3. 点击 TranslateBook 提示旁边的 **“仍要打开”**\n\n此操作只需进行一次。\n\n### 包含内容\n- 单文件 macOS 可执行程序（无需安装 Python）\n- 首次运行时自动生成配置\n- 支持 .txt、.epub、.srt 格式的翻译\n\n### 系统要求\n- macOS 11+（Big Sur 或更高版本）\n- 已安装 Ollama 以支持本地 LLM\n- 或者拥有云服务提供商的 API 密钥（OpenAI、Gemini、OpenRouter）","2026-03-10T21:28:02",{"id":203,"version":204,"summary_zh":205,"released_at":206},206294,"v1.0.15","## Windows 可执行文件发布\n\n### 安装\n1. 下载并解压 TranslateBook-Windows.zip\n2. 安装 [Ollama](https:\u002F\u002Follama.ai)（本地 LLM 所需）\n3. 运行 TranslateBook.exe\n4. 在浏览器中打开 http:\u002F\u002Flocalhost:5000\n\n### 包含内容\n- 单文件 Windows 可执行程序（无需安装 Python）\n- 首次运行时自动生成配置\n- 支持 .txt、.epub、.srt 文件的翻译\n\n### 系统要求\n- Windows 10\u002F11（64 位）\n- 已安装 Ollama 以支持本地 LLM\n- 或者拥有云服务商的 API 密钥（OpenAI、Gemini、OpenRouter）\n\n**大小：** 27.45 MB","2026-03-07T19:28:02",{"id":208,"version":209,"summary_zh":200,"released_at":210},206295,"v1.0.14","2026-02-26T20:49:27",{"id":212,"version":213,"summary_zh":214,"released_at":215},206296,"v1.0.13","## macOS 可执行文件发布\n\n### 下载\n- **TranslateBook-macOS-AppleSilicon.zip** - 适用于 Apple Silicon 架构的 Mac（M1\u002FM2\u002FM3\u002FM4）\n- **TranslateBook-macOS-Intel.zip** - 适用于 Intel 架构的 Mac\n\n### 安装\n1. 下载适合您 Mac 的版本\n2. 解压 ZIP 文件\n3. 安装 [Ollama](https:\u002F\u002Follama.ai)（本地 LLM 所需）\n4. 打开终端并运行 `.\u002FTranslateBook`\n5. 在浏览器中打开 http:\u002F\u002Flocalhost:5000\n\n### 首次启动——安全授权\n首次启动时，macOS 会阻止应用程序运行：\n1. 双击 TranslateBook，macOS 会显示警告。\n2. 打开 **系统设置 > 隐私与安全性**。\n3. 点击 TranslateBook 提示旁边的 **“仍要打开”**。\n\n此操作只需进行一次。\n\n### 包含内容\n- 单文件 macOS 可执行程序（无需安装 Python）\n- 首次运行时自动生成配置\n- 支持 .txt、.epub、.srt 格式的翻译\n\n### 系统要求\n- macOS 11+（Big Sur 或更高版本）\n- 已安装 Ollama 以支持本地 LLM\n- 或者拥有云服务提供商的 API 密钥（OpenAI、Gemini、OpenRouter）","2026-02-26T19:53:57",{"id":217,"version":218,"summary_zh":219,"released_at":220},206297,"v1.0.12","## Windows 可执行文件发布\n\n### 安装\n1. 下载并解压 TranslateBook-Windows.zip\n2. 安装 [Ollama](https:\u002F\u002Follama.ai)（本地 LLM 所需）\n3. 运行 TranslateBook.exe\n4. 在浏览器中打开 http:\u002F\u002Flocalhost:5000\n\n### 包含内容\n- 单文件 Windows 可执行程序（无需安装 Python）\n- 首次运行时自动生成配置\n- 支持 .txt、.epub、.srt 文件的翻译\n\n### 系统要求\n- Windows 10\u002F11（64 位）\n- 已安装 Ollama 以支持本地 LLM\n- 或者拥有云服务商的 API 密钥（OpenAI、Gemini、OpenRouter）\n\n**大小：** 27.48 MB","2026-02-25T23:19:25",{"id":222,"version":223,"summary_zh":219,"released_at":224},206298,"v1.0.11","2026-02-25T22:15:50",{"id":226,"version":227,"summary_zh":228,"released_at":229},206299,"v1.0.10","## Windows 可执行文件发布\n\n### 安装\n1. 下载并解压 TranslateBook-Windows.zip\n2. 安装 [Ollama](https:\u002F\u002Follama.ai)（本地 LLM 所需）\n3. 运行 TranslateBook.exe\n4. 在浏览器中打开 http:\u002F\u002Flocalhost:5000\n\n### 包含内容\n- 单文件 Windows 可执行程序（无需安装 Python）\n- 首次运行时自动生成配置\n- 支持 .txt、.epub、.srt 文件的翻译\n\n### 系统要求\n- Windows 10\u002F11（64 位）\n- 已安装 Ollama 以支持本地 LLM\n- 或者提供云服务商的 API 密钥（OpenAI、Gemini、OpenRouter）\n\n**大小：** 27.48 MB","2026-02-13T22:26:53",{"id":231,"version":232,"summary_zh":233,"released_at":234},206300,"v1.0.9","## macOS Executable Release\n\n### Downloads\n- **TranslateBook-macOS-AppleSilicon.zip** - For Apple Silicon Macs (M1\u002FM2\u002FM3\u002FM4)\n- **TranslateBook-macOS-Intel.zip** - For Intel-based Macs\n\n### Installation\n1. Download the appropriate version for your Mac\n2. Extract the zip file\n3. Install [Ollama](https:\u002F\u002Follama.ai) (required for local LLM)\n4. Open Terminal and run `.\u002FTranslateBook`\n5. Open http:\u002F\u002Flocalhost:5000 in your browser\n\n### First Launch - Security Authorization\nmacOS will block the app on first launch:\n1. Double-click TranslateBook - macOS shows a warning\n2. Open **System Settings > Privacy & Security**\n3. Click **\"Open Anyway\"** next to the TranslateBook message\n\nThis only needs to be done once.\n\n### What's Included\n- Single-file macOS executable (no Python installation required)\n- Auto-generated configuration on first run\n- Support for .txt, .epub, .srt translation\n\n### System Requirements\n- macOS 11+ (Big Sur or later)\n- Ollama installed for local LLM support\n- Or API keys for cloud providers (OpenAI, Gemini, OpenRouter)\n","2026-02-13T21:55:26",{"id":236,"version":237,"summary_zh":233,"released_at":238},206301,"v1.0.8","2026-02-10T22:29:02",{"id":240,"version":241,"summary_zh":233,"released_at":242},206302,"v1.0.7","2026-02-02T22:58:40",{"id":244,"version":245,"summary_zh":246,"released_at":247},206303,"v1.0.6","## Windows Executable Release\n\n### Installation\n1. Download and extract TranslateBook-Windows.zip\n2. Install [Ollama](https:\u002F\u002Follama.ai) (required for local LLM)\n3. Run TranslateBook.exe\n4. Open http:\u002F\u002Flocalhost:5000 in your browser\n\n### What's Included\n- Single-file Windows executable (no Python installation required)\n- Auto-generated configuration on first run\n- Support for .txt, .epub, .srt translation\n\n### System Requirements\n- Windows 10\u002F11 (64-bit)\n- Ollama installed for local LLM support\n- Or API keys for cloud providers (OpenAI, Gemini, OpenRouter)\n\n**Size:** 27.44 MB\n","2026-01-30T19:31:26",{"id":249,"version":250,"summary_zh":251,"released_at":252},206304,"v1.0.5","## Windows Executable Release\n\n### Installation\n1. Download and extract TranslateBook-Windows.zip\n2. Install [Ollama](https:\u002F\u002Follama.ai) (required for local LLM)\n3. Run TranslateBook.exe\n4. Open http:\u002F\u002Flocalhost:5000 in your browser\n\n### What's Included\n- Single-file Windows executable (no Python installation required)\n- Auto-generated configuration on first run\n- Support for .txt, .epub, .srt translation\n\n### System Requirements\n- Windows 10\u002F11 (64-bit)\n- Ollama installed for local LLM support\n- Or API keys for cloud providers (OpenAI, Gemini, OpenRouter)\n\n**Size:** 27.43 MB\n","2026-01-28T21:15:35",{"id":254,"version":255,"summary_zh":233,"released_at":256},206305,"v1.0.4","2026-01-25T12:23:22",{"id":258,"version":259,"summary_zh":233,"released_at":260},206306,"v1.0.3","2026-01-20T13:30:38",{"id":262,"version":263,"summary_zh":233,"released_at":264},206307,"v1.0.2","2026-01-18T10:16:48",{"id":266,"version":267,"summary_zh":233,"released_at":268},206308,"v1.0.1","2026-01-17T14:21:38",{"id":270,"version":271,"summary_zh":272,"released_at":273},206309,"v1.0.0","## Windows Executable Release\n\n### Installation\n1. Download and extract TranslateBook-Windows.zip\n2. Install [Ollama](https:\u002F\u002Follama.ai) (required for local LLM)\n3. Run TranslateBook.exe\n4. Open http:\u002F\u002Flocalhost:5000 in your browser\n\n### What's Included\n- Single-file Windows executable (no Python installation required)\n- Auto-generated configuration on first run\n- Support for .txt, .epub, .srt translation\n\n### System Requirements\n- Windows 10\u002F11 (64-bit)\n- Ollama installed for local LLM support\n- Or API keys for cloud providers (OpenAI, Gemini, OpenRouter)\n\n**Size:** 26.71 MB\n","2026-01-16T22:56:55"]