[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-kha-white--mokuro":3,"tool-kha-white--mokuro":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":10,"env_os":106,"env_gpu":107,"env_ram":108,"env_deps":109,"category_tags":117,"github_topics":118,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":125,"updated_at":126,"faqs":127,"releases":157},2582,"kha-white\u002Fmokuro","mokuro","Read Japanese manga inside browser with selectable text.","mokuro 是一款专为日语学习者设计的开源工具，让你能在浏览器中阅读带有“可选中文字”功能的日文漫画。它巧妙解决了传统漫画图片无法直接复制、查询单词的痛点，让用户在阅读时能像使用电子文档一样，轻松划词并配合 Yomitan 等弹窗词典即时查阅释义，极大提升了语言学习效率。\n\n该工具的工作流程简单高效：首先利用 comic-text-detector 精准定位漫画中的文本框，再通过专为漫画优化的 manga-ocr 模型进行高精度文字识别；处理完成后，它会生成包含识别结果与元数据的.mokuro 文件（或兼容旧版的 HTML 文件），用户只需将其与漫画图片一同加载到专用的 Web 阅读器中即可开始沉浸式阅读。所有处理均在本地离线完成，充分保护隐私且无需联网。\n\nmokuro 特别适合希望借助漫画趣味性地提升日语能力的学习者，同时也欢迎对 OCR 技术感兴趣的开发者体验。其核心亮点在于结合了针对漫画排版特性的文本检测与识别算法，有效克服了气泡框、竖排文字及手写字体带来的识别难题。安装简便，支持命令行批量处理整卷或多卷漫画，并提供 Google Colab 在线试用入口，让技术门槛降至最低","mokuro 是一款专为日语学习者设计的开源工具，让你能在浏览器中阅读带有“可选中文字”功能的日文漫画。它巧妙解决了传统漫画图片无法直接复制、查询单词的痛点，让用户在阅读时能像使用电子文档一样，轻松划词并配合 Yomitan 等弹窗词典即时查阅释义，极大提升了语言学习效率。\n\n该工具的工作流程简单高效：首先利用 comic-text-detector 精准定位漫画中的文本框，再通过专为漫画优化的 manga-ocr 模型进行高精度文字识别；处理完成后，它会生成包含识别结果与元数据的.mokuro 文件（或兼容旧版的 HTML 文件），用户只需将其与漫画图片一同加载到专用的 Web 阅读器中即可开始沉浸式阅读。所有处理均在本地离线完成，充分保护隐私且无需联网。\n\nmokuro 特别适合希望借助漫画趣味性地提升日语能力的学习者，同时也欢迎对 OCR 技术感兴趣的开发者体验。其核心亮点在于结合了针对漫画排版特性的文本检测与识别算法，有效克服了气泡框、竖排文字及手写字体带来的识别难题。安装简便，支持命令行批量处理整卷或多卷漫画，并提供 Google Colab 在线试用入口，让技术门槛降至最低，助你轻松开启无障碍日文漫画阅读之旅。","# mokuro\n\nRead Japanese manga with selectable text inside a browser.\n\n**See demo: https:\u002F\u002Fkha-white.github.io\u002Fmanga-demo**\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F22717958\u002F164993274-3e8d1650-9be3-457d-84cb-f92f9598cd5a.mp4\n\n\u003Csup>Demo contains excerpt from [Manga109-s dataset](http:\u002F\u002Fwww.manga109.org\u002Fen\u002Fdownload_s.html). うちの猫’ず日記 © がぁさん\u003C\u002Fsup>\n\nmokuro is aimed towards Japanese learners, who want to read manga in Japanese with a pop-up dictionary like [Yomitan](https:\u002F\u002Fgithub.com\u002Fthemoeway\u002Fyomitan).\nIt works like this:\n1. Perform text detection and OCR for each page.\n2. After processing a whole volume, generate a .mokuro file, which contains OCR results and metadata. All processing is done offline (before reading).\n3. Load the .mokuro file together with manga images in [web reader](https:\u002F\u002Freader.mokuro.app\u002F), which serves both as a manga reader and a catalog for processed series and volumes.\n\nAlternatively, you can still use the old method from mokuro 0.1.*:\nInstead of a .mokuro file, generate an HTML file, which you can open in a browser.\nYou can transfer the resulting HTML file together with manga images to another device (e.g. your mobile phone) and read there.\nThis method is still supported for backward compatibility, but it is recommended to use the new .mokuro format and the web reader.\nFor details, see [Legacy HTML vs. new .mokuro format](#legacy-html-vs-new-mokuro-format).\n\nmokuro uses [comic-text-detector](https:\u002F\u002Fgithub.com\u002FdmMaze\u002Fcomic-text-detector) for text detection\nand [manga-ocr](https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmanga-ocr) for OCR.\n\nTry running on your manga in Colab: [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fkha-white\u002Fmokuro\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fmokuro_demo.ipynb)\n\nSee also:\n- [mokuro-reader](https:\u002F\u002Fgithub.com\u002FGnathonic\u002Fmokuro-reader), a web reader for mokuro, developed now by Gnathonic and formerly by ZXY101\n- [Mokuro2Pdf](https:\u002F\u002Fgithub.com\u002FKartoffel0\u002FMokuro2Pdf), cli Ruby script to generate pdf files with selectable text from Mokuro's html overlay\n- [Xelieu's guide](https:\u002F\u002Flazyguidejp.github.io\u002Fjp-lazy-guide\u002FsetupMangaOnPC\u002F), a comprehensive guide on setting up a reading and mining workflow with manga-ocr\u002Fmokuro (and many other useful tips)\n\n# Installation\n\nYou need Python 3.10 or newer. Please note, that the newest Python release might not be supported due to a PyTorch dependency, \nwhich often breaks with new Python releases and needs some time to catch up.\nRefer to [PyTorch website](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F) for a list of supported Python versions.\n\nSome users have reported problems with Python installed from Microsoft Store. If you see an error:\n`ImportError: DLL load failed while importing fugashi: The specified module could not be found.`,\ntry installing Python from the [official site](https:\u002F\u002Fwww.python.org\u002Fdownloads).\n\nIf you want to run with GPU, install PyTorch as described [here](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F#start-locally),\notherwise this step can be skipped.\n\nRun in command line:\n\n```commandline\npip3 install mokuro\n```\n\n# Usage\n\n## Run on one volume\n\n```bash\nmokuro \u002Fpath\u002Fto\u002Fmanga\u002Fvol1\n```\n\nThis will generate `\u002Fpath\u002Fto\u002Fmanga\u002Fvol1.html` file, which you can open in a browser.\n\nIf your path contains spaces, enclose it in double quotes, like this:\n\n```bash\nmokuro \"\u002Fpath\u002Fto\u002Fmanga\u002Fvolume 1\"\n```\n\n## Run on multiple volumes\n\n```bash\nmokuro \u002Fpath\u002Fto\u002Fmanga\u002Fvol1 \u002Fpath\u002Fto\u002Fmanga\u002Fvol2 \u002Fpath\u002Fto\u002Fmanga\u002Fvol3\n```\n\nFor each volume, a separate HTML file will be generated.\n\n## Run on a directory containing multiple volumes\n\nIf your directory structure looks somewhat like this:\n```\nmanga_title\u002F\n├─vol1\u002F\n├─vol2\u002F\n├─vol3\u002F\n└─vol4\u002F\n```\n\nYou can process all volumes by running:\n\n```bash\nmokuro --parent_dir manga_title\u002F\n```\n\n## Other options\n\n```\n--pretrained_model_name_or_path: Name or path of the manga-ocr model.\n--force_cpu: Force the use of CPU even if CUDA is available.\n--disable_confirmation: Disable confirmation prompt. If False, the user will be prompted to confirm the list of volumes to be processed.\n--disable_ocr: Disable OCR processing. Generate mokuro\u002FHTML files without OCR results.\n--ignore_errors: Continue processing volumes even if an error occurs.\n--no_cache: Do not use cached OCR results from previous runs (_ocr directories).\n--unzip: Extract volumes in zip\u002Fcbz format in their original location.\n--disable_html: Disable legacy HTML output. If True, acts as if --unzip is True.\n--as_one_file: Applies only to legacy HTML. If False, generate separate CSS and JS files instead of embedding them in the HTML file.\n--version: Print the version of mokuro and exit.\n```\n\n## Legacy HTML vs. new .mokuro format\n\nBefore version 0.2.0, mokuro generated a separate HTML file for each processed volume, which caused some usability issues:\n- HTML files contained both the OCR results and the whole web reader GUI, so in order to update the GUI, all volumes needed to be updated with a new mokuro version\n- images were stored separately and linked in HTML files, so any change in the directory structure could break the links\n- transferring the manga to another device required transferring both the HTML files and the images\n- there was no unified GUI for a whole catalog containing multiple volumes\n- on some mobile devices, some workarounds were needed to open HTML files\n\nStarting from version 0.2.0, a new .mokuro format is introduced, which is generated for each volume and contains only the OCR results and metadata necessary for the web reader GUI.\nWeb reader is now a separate web app, which can open manga volumes with their associated .mokuro files.\n\nThe old HTML format is still generated for backward compatibility, but it will not be developed further, and it is recommended to use the new .mokuro format and the web reader.\n\n# Contact\nFor any inquiries, please feel free to contact me at kha-white@mail.com\n\n# Acknowledgments\n\n- https:\u002F\u002Fgithub.com\u002FdmMaze\u002Fcomic-text-detector\n- https:\u002F\u002Fgithub.com\u002Fjuvian\u002FManga-Text-Segmentation\n","# 目录\n\n在浏览器中阅读带有可选文本的日语漫画。\n\n**查看演示：https:\u002F\u002Fkha-white.github.io\u002Fmanga-demo**\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F22717958\u002F164993274-3e8d1650-9be3-457d-84cb-f92f9598cd5a.mp4\n\n\u003Csup>演示包含来自[Manga109-s数据集](http:\u002F\u002Fwww.manga109.org\u002Fen\u002Fdownload_s.html)的节选。うちの猫’ず日記 © がぁさん\u003C\u002Fsup>\n\nmokuro旨在为希望使用类似[Yomitan](https:\u002F\u002Fgithub.com\u002Fthemoeway\u002Fyomitan)的弹出式词典以日语阅读漫画的日语学习者提供便利。其工作原理如下：\n1. 对每一页进行文本检测和OCR识别。\n2. 处理完整个系列后，生成一个.mokuro文件，其中包含OCR结果和元数据。所有处理均在离线状态下完成（即阅读前）。\n3. 将.mokuro文件与漫画图像一起加载到[网络阅读器](https:\u002F\u002Freader.mokuro.app\u002F)中，该阅读器既可用作漫画阅读器，也可作为已处理系列和卷册的目录。\n\n此外，您仍可使用mokuro 0.1.*版本中的旧方法：\n无需生成.mokuro文件，而是生成一个HTML文件，您可以在浏览器中打开它。\n您可以将生成的HTML文件连同漫画图像传输到另一台设备（例如您的手机）上，并在那里阅读。\n此方法目前仍被支持以保持向后兼容性，但建议使用新的.mokuro格式和网络阅读器。\n有关详细信息，请参阅[旧版HTML与新版.mokuro格式](#legacy-html-vs-new-mokuro-format)。\n\nmokuro使用[comic-text-detector](https:\u002F\u002Fgithub.com\u002FdmMaze\u002Fcomic-text-detector)进行文本检测，\n并使用[manga-ocr](https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmanga-ocr)进行OCR识别。\n\n尝试在Colab中运行您自己的漫画：[![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fkha-white\u002Fmokuro\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fmokuro_demo.ipynb)\n\n另请参阅：\n- [mokuro-reader](https:\u002F\u002Fgithub.com\u002FGnathonic\u002Fmokuro-reader)，由Gnathonic开发、此前由ZXY101开发的mokuro网络阅读器\n- [Mokuro2Pdf](https:\u002F\u002Fgithub.com\u002FKartoffel0\u002FMokuro2Pdf)，一款用于从Mokuro的HTML叠加层生成带可选文本PDF文件的Ruby命令行脚本\n- [Xelieu指南](https:\u002F\u002Flazyguidejp.github.io\u002Fjp-lazy-guide\u002FsetupMangaOnPC\u002F)，一份关于使用manga-ocr\u002Fmokuro设置阅读和挖掘工作流的全面指南（以及许多其他实用技巧）\n\n# 安装\n\n您需要Python 3.10或更高版本。请注意，由于PyTorch依赖项的原因，最新的Python版本可能不受支持，\n因为PyTorch经常会在新版本的Python发布时出现问题，需要一段时间才能适配。\n有关受支持的Python版本列表，请参阅[PyTorch官网](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F)。\n\n一些用户报告称，从Microsoft Store安装的Python会出现问题。如果您遇到以下错误：\n`ImportError: DLL load failed while importing fugashi: The specified module could not be found.`，\n请尝试从[官方站点](https:\u002F\u002Fwww.python.org\u002Fdownloads)安装Python。\n\n如果您希望使用GPU运行，请按照[此处](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F#start-locally)所述安装PyTorch，\n否则可以跳过此步骤。\n\n在命令行中运行：\n\n```commandline\npip3 install mokuro\n```\n\n# 使用\n\n## 对单个卷进行处理\n\n```bash\nmokuro \u002Fpath\u002Fto\u002Fmanga\u002Fvol1\n```\n\n这将生成`\u002Fpath\u002Fto\u002Fmanga\u002Fvol1.html`文件，您可以在浏览器中打开它。\n\n如果您的路径中包含空格，请用双引号将其括起来，如下所示：\n\n```bash\nmokuro \"\u002Fpath\u002Fto\u002Fmanga\u002Fvolume 1\"\n```\n\n## 对多个卷进行处理\n\n```bash\nmokuro \u002Fpath\u002Fto\u002Fmanga\u002Fvol1 \u002Fpath\u002Fto\u002Fmanga\u002Fvol2 \u002Fpath\u002Fto\u002Fmanga\u002Fvol3\n```\n\n对于每个卷，都会生成一个单独的HTML文件。\n\n## 对包含多个卷的目录进行处理\n\n如果您的目录结构大致如下：\n```\nmanga_title\u002F\n├─vol1\u002F\n├─vol2\u002F\n├─vol3\u002F\n└─vol4\u002F\n```\n\n您可以通过运行以下命令来处理所有卷：\n\n```bash\nmokuro --parent_dir manga_title\u002F\n```\n\n## 其他选项\n\n```\n--pretrained_model_name_or_path：manga-ocr模型的名称或路径。\n--force_cpu：即使CUDA可用，也强制使用CPU。\n--disable_confirmation：禁用确认提示。如果设置为False，系统将提示用户确认要处理的卷列表。\n--disable_ocr：禁用OCR处理。生成不含OCR结果的mokuro\u002FHTML文件。\n--ignore_errors：即使发生错误，也继续处理卷。\n--no_cache：不使用先前运行中缓存的OCR结果（_ocr目录）。\n--unzip：将zip\u002Fcbz格式的卷解压到其原始位置。\n--disable_html：禁用旧版HTML输出。如果设置为True，则相当于设置了--unzip。\n--as_one_file：仅适用于旧版HTML。如果设置为False，则会生成单独的CSS和JS文件，而不是将其嵌入HTML文件中。\n--version：打印mokuro版本并退出。\n```\n\n## 旧版HTML与新版.mokuro格式\n\n在0.2.0版本之前，mokuro会为每个处理过的卷生成一个单独的HTML文件，这导致了一些使用上的问题：\n- HTML文件同时包含OCR结果和整个网络阅读器界面，因此要更新界面，必须用新版本的mokuro重新处理所有卷。\n- 图像被单独存储并在HTML文件中链接，因此目录结构的任何变化都可能导致链接失效。\n- 将漫画传输到另一台设备时，需要同时传输HTML文件和图像。\n- 没有统一的界面来管理包含多个卷的整个目录。\n- 在某些移动设备上，打开HTML文件还需要一些变通方法。\n\n自0.2.0版本起，引入了新的.mokuro格式，该格式为每个卷生成，仅包含OCR结果和网络阅读器界面所需的元数据。\n网络阅读器现在是一个独立的Web应用，可以打开带有相应.mokuro文件的漫画卷。\n\n旧版HTML格式目前仍为保持向后兼容性而生成，但不会再进一步开发，建议使用新的.mokuro格式和网络阅读器。\n\n# 联系方式\n如有任何疑问，请随时通过kha-white@mail.com与我联系。\n\n# 致谢\n\n- https:\u002F\u002Fgithub.com\u002FdmMaze\u002Fcomic-text-detector\n- https:\u002F\u002Fgithub.com\u002Fjuvian\u002FManga-Text-Segmentation","# mokuro 快速上手指南\n\nmokuro 是一款专为日语学习者设计的开源工具，能够为日文漫画生成可选中文本（OCR），并支持在浏览器中配合弹窗词典（如 Yomitan）进行阅读。\n\n## 环境准备\n\n*   **操作系统**：Windows \u002F macOS \u002F Linux\n*   **Python 版本**：Python 3.10 或更高版本\n    *   *注意*：由于 PyTorch 依赖限制，不建议使用最新的 Python 版本（如刚发布的最新版）。若遇到兼容性问题，请参考 [PyTorch 官网](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F) 确认支持的 Python 版本列表。\n    *   *Windows 用户提示*：避免使用 Microsoft Store 安装的 Python，若出现 `ImportError: DLL load failed while importing fugashi` 错误，请从 [Python 官网](https:\u002F\u002Fwww.python.org\u002Fdownloads) 下载并安装。\n*   **GPU 加速（可选）**：如需使用 GPU 加速 OCR 处理，请先根据 [PyTorch 指南](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F#start-locally) 安装对应的 PyTorch CUDA 版本；若仅使用 CPU 可跳过此步。\n\n## 安装步骤\n\n推荐使用国内镜像源（如清华源）以加快安装速度。在终端或命令行中执行：\n\n```bash\npip3 install mokuro -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n若需启用 GPU 支持，请确保已预先安装好对应的 `torch` 和 `torchvision`，然后再运行上述命令。\n\n## 基本使用\n\n### 1. 处理单卷漫画\n\n对指定文件夹下的漫画图片进行文本检测和 OCR 处理，生成包含可选文本的 HTML 文件（旧版格式）或 `.mokuro` 数据文件。\n\n```bash\nmokuro \u002Fpath\u002Fto\u002Fmanga\u002Fvol1\n```\n\n*   如果路径中包含空格，请使用双引号包裹路径：\n    ```bash\n    mokuro \"\u002Fpath\u002Fto\u002Fmanga\u002Fvolume 1\"\n    ```\n*   运行完成后，目录中将生成对应的 `.html` 文件，直接用浏览器打开即可阅读；或配合新版 Web Reader 加载生成的 `.mokuro` 文件。\n\n### 2. 处理多卷漫画（批量处理）\n\n若你的漫画目录结构如下：\n```\nmanga_title\u002F\n├─vol1\u002F\n├─vol2\u002F\n├─vol3\u002F\n└─vol4\u002F\n```\n\n可以使用 `--parent_dir` 参数一次性处理该目录下所有子文件夹（卷）：\n\n```bash\nmokuro --parent_dir manga_title\u002F\n```\n\n### 3. 进阶选项示例\n\n*   **强制使用 CPU**（即使有 GPU）：\n    ```bash\n    mokuro --force_cpu \u002Fpath\u002Fto\u002Fmanga\u002Fvol1\n    ```\n*   **解压 zip\u002Fcbz 格式的漫画包**：\n    ```bash\n    mokuro --unzip \u002Fpath\u002Fto\u002Fmanga.zip\n    ```\n*   **禁用 OCR**（仅生成元数据结构）：\n    ```bash\n    mokuro --disable_ocr \u002Fpath\u002Fto\u002Fmanga\u002Fvol1\n    ```\n\n> **提示**：自 v0.2.0 起，推荐将生成的 `.mokuro` 文件与漫画图片一起导入到在线阅读器 [https:\u002F\u002Freader.mokuro.app\u002F](https:\u002F\u002Freader.mokuro.app\u002F) 中获得最佳体验（支持目录管理、统一界面及移动端适配）。旧版 HTML 模式仍保留以兼容旧工作流。","日语学习者小林想通过阅读原版漫画提升词汇量，但面对图片格式的漫画文件，查词过程异常艰难。\n\n### 没有 mokuro 时\n- **无法直接选词**：漫画页面是纯图片，鼠标无法选中日文文字，只能手动输入或截图识别，效率极低。\n- **查词打断沉浸感**：每遇到生词就要切换窗口打开词典软件查询，阅读节奏频繁被打断，难以进入心流状态。\n- **生词整理繁琐**：想要记录生词制作单词卡，需要手动复制粘贴释义和例句，耗时耗力且容易出错。\n- **设备同步困难**：在电脑上处理好的笔记难以无缝同步到手机或平板，无法利用碎片时间随时复习。\n\n### 使用 mokuro 后\n- **文本可交互选择**：mokuro 利用 OCR 技术为漫画生成可选中文本层，鼠标悬停即可高亮日文，像浏览网页一样自然。\n- **插件联动即时翻译**：配合 Yomitan 等浏览器插件，点击单词即刻弹出释义和读音，实现“零延迟”查词，保持阅读连贯性。\n- **自动化生词挖掘**：结合挖词工作流，能一键提取当前页面的生词并导出至 Anki，大幅缩短制卡时间。\n- **跨端无缝阅读**：生成的 .mokuro 文件或 HTML 可直接在手机浏览器打开，保留所有交互功能，随时随地高效学习。\n\nmokuro 将静态的漫画图片转化为可交互的语言学习材料，让“通过看漫画学日语”真正变得高效可行。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkha-white_mokuro_23363609.png","kha-white","Maciej Budyś","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fkha-white_bea03550.png",null,"https:\u002F\u002Fgithub.com\u002Fkha-white",[82,86,90,94,98],{"name":83,"color":84,"percentage":85},"HTML","#e34c26",81.8,{"name":87,"color":88,"percentage":89},"Python","#3572A5",11.5,{"name":91,"color":92,"percentage":93},"JavaScript","#f1e05a",5,{"name":95,"color":96,"percentage":97},"CSS","#663399",1.5,{"name":99,"color":100,"percentage":101},"Jupyter Notebook","#DA5B0B",0.3,1565,105,"2026-04-02T17:54:31","GPL-3.0","Windows, macOS, Linux","非必需。支持 NVIDIA GPU (需手动安装对应版本的 PyTorch CUDA)，若无 GPU 则自动使用 CPU (--force_cpu 可强制使用 CPU)。未指定具体显存大小和 CUDA 版本要求。","未说明",{"notes":110,"python":111,"dependencies":112},"1. 避免使用微软应用商店 (Microsoft Store) 安装的 Python，否则可能导致 'fugashi' 模块导入错误，建议从官网下载安装。\n2. GPU 支持需参考 PyTorch 官网手动安装适配的 PyTorch 版本，否则默认仅使用 CPU。\n3. 主要功能为离线处理漫画生成 .mokuro 文件或 HTML，随后通过浏览器或专用 Web Reader 阅读。\n4. 支持直接处理 zip\u002Fcbz 格式的压缩包 (--unzip 参数)。","3.10+",[113,114,115,116],"torch","comic-text-detector","manga-ocr","fugashi",[14],[119,120,121,122,123,124],"japanese","manga","ocr","comics","comics-reader","manga-reader","2026-03-27T02:49:30.150509","2026-04-06T10:24:50.377331",[128,133,138,143,148,152],{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},11951,"在 Google Colab 中运行时出现目录设置错误或确认提示导致失败，如何解决？","需要在命令中添加 `--disable_confirmation` 参数以跳过交互确认，并确保路径格式正确。图片文件必须是 JPG 格式，且存放在同一个父文件夹下的子文件夹中（例如：\u002Fcontent\u002Fdrive\u002FMyDrive\u002FMangas\u002FJapanese，其中 Japanese 文件夹内包含多个漫画子文件夹）。\n\n完整命令示例：\n`!mokuro --parent_dir \"\u002Fcontent\u002Fdrive\u002FMyDrive\u002Fbook\" --disable_confirmation`\n\n如果需要生成单个文件，可加上 `--as_one_file` 参数。","https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fissues\u002F89",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},11952,"生成的 HTML 文件中鼠标悬停只能显示单词翻译而非整句翻译，或者 Yomichan 插件无法在本地文件中工作怎么办？","这通常是因为浏览器安全策略阻止了扩展程序访问本地文件（file:\u002F\u002F 协议）。\n\n如果您使用的是 Chrome 或基于 Chromium 的浏览器，请执行以下步骤：\n1. 打开浏览器的扩展程序管理页面。\n2. 找到 Yomichan 插件。\n3. 点击“详细信息”。\n4. 开启“允许访问文件网址” (Allow access to file URLs) 选项。\n\n开启后刷新生成的 HTML 页面即可正常使用整句翻译功能。","https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fissues\u002F40",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},11953,"运行时报错 \"RuntimeError: PytorchStreamReader failed reading zip archive\" 该如何解决？","该问题通常由 transformers 库的更新与 PyTorch 版本不兼容引起。您可以尝试以下两种解决方法：\n\n方法一：在运行 mokuro 命令前，在终端设置环境变量以启用 MPS 回退（适用于 Mac 或特定 GPU 环境）：\n`export PYTORCH_ENABLE_MPS_FALLBACK=1`\n然后再次运行 mokuro 命令。\n\n方法二：尝试安装 PyTorch 的 nightly 构建版本以获取最新修复。\n\n注意：旧版本的 mokuro 可能无法解决此问题，因为根源在于底层依赖库的变化。","https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fissues\u002F107",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},11954,"已安装 CUDA 但 Mokuro 仍然只使用 CPU 而不使用 GPU 加速，如何排查？","首先确保您安装的 mokuro 版本 >= 0.2.1，该版本后文本检测器已支持自动调用 CUDA。\n\n其次，检查任务管理器中的 GPU 监控图表：默认可能显示的是 3D 或视频编码负载，您需要点击任务管理器中 GPU 图表的标题，将其切换为 \"CUDA\" 视图，这样才能看到实际的 CUDA 使用情况。\n\n如果仍无效，请确认 PyTorch 是否正确识别了 GPU（运行 `import torch; print(torch.cuda.is_available())` 应返回 True），并检查环境变量路径配置是否正确。","https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fissues\u002F101",{"id":149,"question_zh":150,"answer_zh":151,"source_url":132},11955,"处理完成后生成的文件在哪里？如何查看阅读？","处理完成后，程序会在您指定的输入目录（即存放漫画图片的文件夹所在的路径）下生成输出文件。\n\n1. 寻找与您的输入文件夹同名的文件，但后缀名为 `.html`（如果是旧版输出）或 `.mokuro`。\n2. 直接使用浏览器打开该 `.html` 文件即可像演示中一样阅读带有翻译的漫画。\n3. 如果使用的是新版 `.mokuro` 格式，建议配合官方推荐的 Web Reader 进行查看。",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},11956,"对于不熟悉 GitHub、Python 和命令行安装的用户，有没有简化的安装或使用指南？","对于新手用户，核心步骤如下：\n1. **文件格式**：确保所有漫画图片都是 JPG 格式。\n2. **文件夹结构**：将所有漫画图片整理好，例如创建一个总文件夹（如 \"Japanese\"），里面放入各个漫画的子文件夹（每个子文件夹包含一部漫画的所有图片）。\n3. **运行命令**：在 Google Colab 或已安装环境的终端中，使用以下命令（根据实际路径修改）：\n   `!mokuro --as_one_file --disable_confirmation --parent_dir '\u002Fcontent\u002Fdrive\u002FMyDrive\u002FMangas\u002FJapanese'`\n   \n   其中 `--as_one_file` 表示将结果合并为一个文件，`--disable_confirmation` 用于跳过询问直接运行。","https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fissues\u002F12",[158,162,167,172,177,182,187,192,197,202,207,212,217,222,227,232],{"id":159,"version":160,"summary_zh":79,"released_at":161},62366,"v0.2.4","2026-02-22T14:57:45",{"id":163,"version":164,"summary_zh":165,"released_at":166},62367,"v0.2.3","## 变更内容\n* 更新 README.md - 更新 @oscarwong67 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F130 中提供的 Xelieu 懒人指南链接\n* 更新 mokuro-reader 的链接，指向 @7hosi 的 Gnathonic 仓库，详见 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F155\n* 将 setuptools 锁定到最新兼容版本，由 @fd63 完成，详见 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F154\n* 按照 XDG 基本目录规范设置缓存位置，由 @ank426 完成，详见 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F152\n\n## 新贡献者\n* @oscarwong67 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F130 中完成了首次贡献\n* @7hosi 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F155 中完成了首次贡献\n* @fd63 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F154 中完成了首次贡献\n* @ank426 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F152 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fcompare\u002Fv0.2.2...v0.2.3","2026-02-22T14:44:20",{"id":168,"version":169,"summary_zh":170,"released_at":171},62368,"v0.2.2","## 变更内容\n* 由 @kha-white 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F124 中修复与 numpy>=2.0 的兼容性问题\n* 由 @kha-white 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F125 中修复数值路径的解析问题\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fcompare\u002Fv0.2.1...v0.2.2","2025-01-28T08:33:36",{"id":173,"version":174,"summary_zh":175,"released_at":176},62369,"v0.2.1","## 变更内容\n* 如果可用，使用 CUDA 进行文本检测，由 @kenrick95 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F104 中实现\n* 修复 ruff 工作流，由 @kha-white 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F105 中完成\n\n## 新贡献者\n* @kenrick95 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F104 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fcompare\u002Fv0.2.0...v0.2.1","2024-07-09T15:13:09",{"id":178,"version":179,"summary_zh":180,"released_at":181},62370,"v0.2.0","mokuro 0.2.0\n* 引入 .mokuro 格式\n* 支持将网页阅读器作为 mokuro 的主要 GUI\n* 废弃旧版 HTML 格式\n* 其他多项改进\n\n## 变更内容\n* Mokuro 0.2.0，由 @kha-white 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F91 中提交\n* 在 PyPI 工作流中启用子模块检出功能，由 @kha-white 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F103 中提交\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fcompare\u002Fv0.1.8...v0.2.0","2024-07-07T12:39:38",{"id":183,"version":184,"summary_zh":185,"released_at":186},62371,"v0.2.0-beta.9","**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fcompare\u002Fv0.2.0-beta.8...v0.2.0-beta.9","2024-07-07T12:19:08",{"id":188,"version":189,"summary_zh":190,"released_at":191},62372,"v0.2.0-beta.8","## 变更内容\n* Mokuro 0.2.0，由 @kha-white 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F91 中提交\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fcompare\u002Fv0.1.8...v0.2.0-beta.8","2024-07-07T11:44:12",{"id":193,"version":194,"summary_zh":195,"released_at":196},62373,"v0.1.8","## 变更内容\n* @liwll 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F65 中更新了 README.md 的链接\n* @imsamuka 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F74 中为 OverlayGenerator 添加了 InvalidImage 异常处理及 try-except 语句\n* @imsamuka 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F70 中将 webp 格式添加到支持的图片类型中\n* @CFKaligula 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F73 中添加了 `--no-ocr` 选项，用于跳过 OCR 处理\n* @kha-white 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F80 中更新了测试用例\n\n## 新贡献者\n* @liwll 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F65 中完成了首次贡献\n* @imsamuka 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F74 中完成了首次贡献\n* @CFKaligula 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F73 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fcompare\u002Fv0.1.7...v0.1.8","2024-07-09T17:38:03",{"id":198,"version":199,"summary_zh":200,"released_at":201},62374,"v0.1.7","## 变更内容\n* 由 @ElnuDev 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F54 中更新了 README 文件中的 Python 版本说明\n* 由 @ZXY101 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F53 中添加了背景颜色菜单项\n\n## 新贡献者\n* @ElnuDev 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F54 中完成了首次贡献\n* @ZXY101 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F53 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fcompare\u002Fv0.1.6...v0.1.7","2024-07-09T17:42:16",{"id":203,"version":204,"summary_zh":205,"released_at":206},62375,"v0.1.6","**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fcompare\u002Fv0.1.5...v0.1.6","2024-07-09T17:41:46",{"id":208,"version":209,"summary_zh":210,"released_at":211},62376,"v0.1.5","## 变更内容\n* 在 https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F31 中添加了启用或禁用单个 OCR 文本框的选项。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fcompare\u002Fv0.1.4...v0.1.5","2024-07-09T17:41:26",{"id":213,"version":214,"summary_zh":215,"released_at":216},62377,"v0.1.4","## What's Changed\r\n* make image file extension not case-sensitive by @Neggedah in https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F11\r\n* Add mokuro2pdf to readme by @justremember in https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F14\r\n\r\n## New Contributors\r\n* @Neggedah made their first contribution in https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F11\r\n* @justremember made their first contribution in https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fpull\u002F14\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fcompare\u002Fv0.1.3...v0.1.4","2024-07-09T17:40:46",{"id":218,"version":219,"summary_zh":220,"released_at":221},62378,"v0.1.3","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fcompare\u002Fv0.1.2...v0.1.3","2024-07-09T17:40:15",{"id":223,"version":224,"summary_zh":225,"released_at":226},62379,"v0.1.2","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fcompare\u002Fv0.1.1...v0.1.2","2024-07-09T17:39:20",{"id":228,"version":229,"summary_zh":230,"released_at":231},62380,"v0.1.0","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fcommits\u002Fv0.1.0","2024-07-09T17:38:44",{"id":233,"version":234,"summary_zh":235,"released_at":236},62381,"v0.1.1","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fkha-white\u002Fmokuro\u002Fcompare\u002Fv0.1.0...v0.1.1","2024-07-09T17:39:02"]