[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-frotms--PaddleOCR2Pytorch":3,"tool-frotms--PaddleOCR2Pytorch":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":77,"owner_company":77,"owner_location":79,"owner_email":80,"owner_twitter":77,"owner_website":81,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":10,"env_os":96,"env_gpu":97,"env_ram":96,"env_deps":98,"category_tags":106,"github_topics":107,"view_count":23,"oss_zip_url":77,"oss_zip_packed_at":77,"status":16,"created_at":116,"updated_at":117,"faqs":118,"releases":159},3509,"frotms\u002FPaddleOCR2Pytorch","PaddleOCR2Pytorch","PaddleOCR inference in PyTorch. Converted from [PaddleOCR](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR)","PaddleOCR2Pytorch 是一个将百度飞桨（PaddlePaddle）生态下强大的 PaddleOCR 模型迁移至 PyTorch 框架的开源项目。它成功打破了深度学习框架间的壁垒，让原本基于 PaddlePaddle 训练的高精度 OCR 模型能够直接在 PyTorch 环境中进行推理和部署。\n\n这一工具主要解决了开发者因框架限制而无法在纯 PyTorch 项目中复用 PaddleOCR 优质预训练模型的痛点。通过它，用户无需重新训练即可享受 PP-OCRv5 等最新系列的卓越性能，包括对简繁体中文、英文、日文及复杂手写体的超高精度识别，以及在多语言场景下的 SOTA 表现。\n\nPaddleOCR2Pytorch 特别适合熟悉 PyTorch 生态的 AI 开发者、算法研究人员以及需要快速集成文字识别功能的技术团队。对于希望深入理解 PaddleOCR 模型结构或进行跨框架模型转换研究的人员，该项目也提供了极具价值的参考代码。其核心亮点在于完整保留了原模型“超轻量”与“高精度”并存的特性，支持从移动端到服务器端的全场景应用，并涵盖了文本检测、方向分类及识别的完整流水线，让用","PaddleOCR2Pytorch 是一个将百度飞桨（PaddlePaddle）生态下强大的 PaddleOCR 模型迁移至 PyTorch 框架的开源项目。它成功打破了深度学习框架间的壁垒，让原本基于 PaddlePaddle 训练的高精度 OCR 模型能够直接在 PyTorch 环境中进行推理和部署。\n\n这一工具主要解决了开发者因框架限制而无法在纯 PyTorch 项目中复用 PaddleOCR 优质预训练模型的痛点。通过它，用户无需重新训练即可享受 PP-OCRv5 等最新系列的卓越性能，包括对简繁体中文、英文、日文及复杂手写体的超高精度识别，以及在多语言场景下的 SOTA 表现。\n\nPaddleOCR2Pytorch 特别适合熟悉 PyTorch 生态的 AI 开发者、算法研究人员以及需要快速集成文字识别功能的技术团队。对于希望深入理解 PaddleOCR 模型结构或进行跨框架模型转换研究的人员，该项目也提供了极具价值的参考代码。其核心亮点在于完整保留了原模型“超轻量”与“高精度”并存的特性，支持从移动端到服务器端的全场景应用，并涵盖了文本检测、方向分类及识别的完整流水线，让用户能轻松在 PyTorch 中实现高效的文字提取任务。","# [PaddleOCR2Pytorch](https:\u002F\u002Fgithub.com\u002Ffrotms\u002FPaddleOCR2Pytorch)\n\n简体中文 | [English](README_en.md)\n\n## 简介\n**”白嫖“**[PaddleOCR](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR)。\n\n本项目旨在：\n\n- 学习PaddleOCR\n- 让PaddleOCR训练的模型在pytorch上使用\n- 为paddle转pytorch提供参考\n\n## 注意\n\n`PytorchOCR`由`>= PaddleOCRv2.0+`动态图版本移植。\n\n**近期更新**\n\n- 2025.05.25 **[PP-OCRv5](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Fmain\u002Fdocs\u002Fversion3.x\u002Falgorithm\u002FPP-OCRv5\u002FPP-OCRv5.md)**: 全场景高精度文字识别\n  1. 🌐 单模型支持**五种**文字类型(**简体中文**、**繁体中文**、**中文拼音**、**英文**和**日文**)。\n  2. ✍️ 支持复杂**手写体**识别：复杂连笔、非规范字迹识别性能显著提升。\n  3. 🎯 整体识别精度提升 - 多种应用场景达到 SOTA 精度, 相比上一版本PP-OCRv4，识别精度**提升13个百分点**！\n\n- 2024.02.20 [PP-OCRv4](.\u002Fdoc\u002Fdoc_ch\u002FPP-OCRv4_introduction.md)，提供mobile和server两种模型\n  - PP-OCRv4-mobile：速度可比情况下，中文场景效果相比于PP-OCRv3再提升4.5%，英文场景提升10%，80语种多语言模型平均识别准确率提升8%以上\n  - PP-OCRv4-server：发布了目前精度最高的OCR模型，中英文场景上检测模型精度提升4.9%， 识别模型精度提升2%\n- 2023.04.16 公式识别[CAN](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_rec_can.md)\n- 2023.04.07 文本超分[Text Telescope](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_sr_telescope.md)\n- 2022.10.17 文本识别：[ViTSTR](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_rec_vitstr.md)\n- 2022.10.07 文本检测：[DB++](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_det_db.md)\n- 2022.07.24 文本检测算法(FCENET)\n- 2022.07.16 文本识别算法(SVTR)\n- 2022.06.19 文本识别算法(SAR)\n- 2022.05.29 [PP-OCRv3](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.5\u002Fdoc\u002Fdoc_ch\u002Fppocr_introduction.md#pp-ocrv3)，速度可比情况下，中文场景效果相比于PP-OCRv2再提升5%，英文场景提升11%，80语种多语言模型平均识别准确率提升5%以上\n- 2022.05.14 PP-OCRv3文本检测模型\n- 2022.04.17 1种文本识别算法(NRTR)\n- 2022.03.20 1种文本检测算法(PSENet)\n- 2021.09.11 PP-OCRv2，CPU推理速度相比于PP-OCR server提升220%；效果相比于PP-OCR mobile 提升7%\n- 2021.06.01 更新SRN\n- 2021.04.25 更新AAAI 2021论文端到端识别算法PGNet\n- 2021.04.24 更新RARE\n- 2021.04.12 更新STARNET\n- 2021.04.08 更新DB, SAST, EAST, ROSETTA, CRNN\n- 2021.04.03 更新多语言识别模型，目前支持语种超过27种，[多语言模型下载](.\u002Fdoc\u002Fdoc_ch\u002Fmodels_list.md)，包括中文简体、中文繁体、英文、法文、德文、韩文、日文、意大利文、西班牙文、葡萄牙文、俄罗斯文、阿拉伯文等，后续计划可以参考[多语言研发计划](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fissues\u002F1048)\n- 2021.01.10 白嫖中英文通用OCR模型\n\n## 特性\n\n高质量推理模型，准确的识别效果\n\n- 超轻量PP-OCR系列：检测+ 方向分类器+ 识别\n- 超轻量ptocr_mobile移动端系列\n- 通用ptocr_server系列\n- 支持中英文数字组合识别、竖排文本识别、长文本识别\n- 支持多语言识别：韩语、日语、德语、法语等\n\n\u003Ca name=\"模型下载\">\u003C\u002Fa>\n\n## [模型列表](.\u002Fdoc\u002Fdoc_ch\u002Fmodels_list.md)（更新中）\n\nPyTorch模型下载链接：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1r1DELT8BlgxeOP2RqREJEg 提取码：6clx\n\nPaddleOCR模型百度网盘链接：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1getAprT2l_JqwhjwML0g9g 提取码：lmv7 \n\n更多模型下载（包括多语言），可以参考[PT-OCR系列模型下载](.\u002Fdoc\u002Fdoc_ch\u002Fmodels_list.md)\n\n## 文档教程\n- [快速安装](.\u002Fdoc\u002Fdoc_ch\u002Finstallation.md)\n- [模型预测](.\u002Fdoc\u002Fdoc_ch\u002Finference.md)\n- [Pipline](#Pipline)\n- [效果展示](#效果展示)\n- [参考文献](.\u002Fdoc\u002Fdoc_ch\u002Freference.md)\n- [FAQ](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.0\u002Fdoc\u002Fdoc_en\u002FFAQ_en.md)\n- [参考](#参考)\n\n## TODO\n\n- [ ] PP-OCRv5：[文档图像方向分类模块PP-LCNet_x1_0_doc_ori](https:\u002F\u002Fpaddlepaddle.github.io\u002FPaddleOCR\u002Flatest\u002Fversion3.x\u002Fmodule_usage\u002Fdoc_img_orientation_classification.html)，[文本图像矫正模块UVDoc](https:\u002F\u002Fpaddlepaddle.github.io\u002FPaddleOCR\u002Flatest\u002Fversion3.x\u002Fmodule_usage\u002Ftext_image_unwarping.html)，[文本行方向分类模块PP-LCNet_x0_25_textline_ori](https:\u002F\u002Fpaddlepaddle.github.io\u002FPaddleOCR\u002Flatest\u002Fversion3.x\u002Fmodule_usage\u002Ftext_line_orientation_classification.html)\n- [ ] [通用文档解析方案](https:\u002F\u002Fpaddlepaddle.github.io\u002FPaddleOCR\u002Flatest\u002Fversion3.x\u002Fpipeline_usage\u002FPP-StructureV3.html)-[PP-StructureV3](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Fmain\u002Fdocs\u002Fversion3.x\u002Falgorithm\u002FPP-StructureV3\u002FPP-StructureV3.md)：支持多场景、多版式 PDF 高精度解析，在公开评测集中**领先众多开源和闭源方案**。\n- [ ] [智能文档理解方案](https:\u002F\u002Fpaddlepaddle.github.io\u002FPaddleOCR\u002Flatest\u002Fversion3.x\u002Fpipeline_usage\u002FPP-ChatOCRv4.html)-[PP-ChatOCRv4](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Fmain\u002Fdocs\u002Fversion3.x\u002Falgorithm\u002FPP-ChatOCRv4\u002FPP-ChatOCRv4.md)：原生支持文心大模型4.5 Turbo，精度相比上一代**提升15个百分点**。\n- [ ] 前沿算法：文本检测 [DRRG](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_det_drrg.md)，文本识别 [RFL](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_rec_rfl.md)\n- [ ] 文本识别：[ABINet](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_rec_abinet.md), [VisionLAN](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_rec_visionlan.md), [SPIN](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_rec_spin.md), [RobustScanner](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_rec_robustscanner.md)\n- [ ] 表格识别：[TableMaster](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_table_master.md)\n- [ ] [PP-Structurev2](.\u002Fppstructure\u002FREADME_ch.md)，系统功能性能全面升级，适配中文场景，新增支持[版面复原](.\u002Fppstructure\u002Frecovery\u002FREADME_ch.md)，支持**一行命令完成PDF转Word**\n- [ ] [版面分析](.\u002Fppstructure\u002Flayout\u002FREADME_ch.md)模型优化：模型存储减少95%，速度提升11倍，平均CPU耗时仅需41ms\n- [ ] [表格识别](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fppstructure\u002Ftable\u002FREADME_ch.md)模型优化：设计3大优化策略，预测耗时不变情况下，模型精度提升6%\n- [ ] [关键信息抽取](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fppstructure\u002Fkie\u002FREADME_ch.md)模型优化：设计视觉无关模型结构，语义实体识别精度提升2.8%，关系抽取精度提升9.1%\n- [ ] 文本识别算法([SEED](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_rec_seed.md))\n- [ ] 文档结构化算法[关键信息提取](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.4\u002Fppstructure\u002Fdocs\u002Fkie.md)算法(SDMGR)\n- [ ] 3种[DocVQA](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Ftree\u002Frelease\u002F2.4\u002Fppstructure\u002Fvqa)算法(LayoutLM、LayoutLMv2，LayoutXLM)\n- [ ] 文档结构分析[PP-Structure](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.2\u002Fppstructure\u002FREADME_ch.md)工具包，支持版面分析与表格识别（含Excel导出）\n\n\u003Ca name=\"Pipline\">\u003C\u002Fa>\n\n## PP-OCRv2 Pipline\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffrotms_PaddleOCR2Pytorch_readme_a30b62f29d07.jpg\" width=\"800\">\n\u003C\u002Fdiv>\n\n\n\n[1] PP-OCR是一个实用的超轻量OCR系统。主要由DB文本检测、检测框矫正和CRNN文本识别三部分组成。该系统从骨干网络选择和调整、预测头部的设计、数据增强、学习率变换策略、正则化参数选择、预训练模型使用以及模型自动裁剪量化8个方面，采用19个有效策略，对各个模块的模型进行效果调优和瘦身(如绿框所示)，最终得到整体大小为3.5M的超轻量中英文OCR和2.8M的英文数字OCR。更多细节请参考PP-OCR技术方案 \u003Chttps:\u002F\u002Farxiv.org\u002Fabs\u002F2009.09941>\n\n[2] PP-OCRv2在PP-OCR的基础上，进一步在5个方面重点优化，检测模型采用CML协同互学习知识蒸馏策略和CopyPaste数据增广策略；识别模型采用LCNet轻量级骨干网络、UDML 改进知识蒸馏策略和Enhanced CTC loss损失函数改进（如上图红框所示），进一步在推理速度和预测效果上取得明显提升。更多细节请参考PP-OCRv2[技术报告](https:\u002F\u002Farxiv.org\u002Fabs\u002F2109.03144)。\n\n\u003Ca name=\"效果展示\">\u003C\u002Fa>\n\n## 效果展示\n- 中文模型\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffrotms_PaddleOCR2Pytorch_readme_cd3b4b0d5579.jpg\" width=\"800\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffrotms_PaddleOCR2Pytorch_readme_db8ab52db975.jpg\" width=\"800\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffrotms_PaddleOCR2Pytorch_readme_523d0a6bbba4.jpg\" width=\"800\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffrotms_PaddleOCR2Pytorch_readme_821d8d20191b.jpg\" width=\"800\">\n\u003C\u002Fdiv>\n\n\n- 英文模型\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffrotms_PaddleOCR2Pytorch_readme_34a872721de4.jpg\" width=\"800\">\n\u003C\u002Fdiv>\n\n\n- 其他语言模型\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffrotms_PaddleOCR2Pytorch_readme_439f167043db.jpg\" width=\"800\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffrotms_PaddleOCR2Pytorch_readme_61b8591791cd.jpg\" width=\"800\">\n\u003C\u002Fdiv>\n\u003Ca name=\"参考\">\u003C\u002Fa>\n\n## 参考\n\n- [https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR)\n- [https:\u002F\u002Fgithub.com\u002FWenmuZhou\u002FPytorchOCR](https:\u002F\u002Fgithub.com\u002FWenmuZhou\u002FPytorchOCR)\n- [Paddle](https:\u002F\u002Fgithub.com\u002FPaddlePaddle)\n- [Pytorch](https:\u002F\u002Fpytorch.org\u002F)\n- [https:\u002F\u002Fgithub.com\u002Ffrotms\u002Fimage_classification_pytorch](https:\u002F\u002Fgithub.com\u002Ffrotms\u002Fimage_classification_pytorch)\n- [https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.7\u002Fdoc\u002Fdoc_ch\u002Fmodels_list.md](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.7\u002Fdoc\u002Fdoc_ch\u002Fmodels_list.md)\n","# [PaddleOCR2Pytorch](https:\u002F\u002Fgithub.com\u002Ffrotms\u002FPaddleOCR2Pytorch)\n\n简体中文 | [English](README_en.md)\n\n## 简介\n**”白嫖“**[PaddleOCR](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR)。\n\n本项目旨在：\n\n- 学习PaddleOCR\n- 让PaddleOCR训练的模型在pytorch上使用\n- 为paddle转pytorch提供参考\n\n## 注意\n\n`PytorchOCR`由`>= PaddleOCRv2.0+`动态图版本移植。\n\n**近期更新**\n\n- 2025.05.25 **[PP-OCRv5](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Fmain\u002Fdocs\u002Fversion3.x\u002Falgorithm\u002FPP-OCRv5\u002FPP-OCRv5.md)**: 全场景高精度文字识别\n  1. 🌐 单模型支持**五种**文字类型(**简体中文**、**繁体中文**、**中文拼音**、**英文**和**日文**)。\n  2. ✍️ 支持复杂**手写体**识别：复杂连笔、非规范字迹识别性能显著提升。\n  3. 🎯 整体识别精度提升 - 多种应用场景达到 SOTA 精度, 相比上一版本PP-OCRv4，识别精度**提升13个百分点**！\n\n- 2024.02.20 [PP-OCRv4](.\u002Fdoc\u002Fdoc_ch\u002FPP-OCRv4_introduction.md)，提供mobile和server两种模型\n  - PP-OCRv4-mobile：速度可比情况下，中文场景效果相比于PP-OCRv3再提升4.5%，英文场景提升10%，80语种多语言模型平均识别准确率提升8%以上\n  - PP-OCRv4-server：发布了目前精度最高的OCR模型，中英文场景上检测模型精度提升4.9%， 识别模型精度提升2%\n- 2023.04.16 公式识别[CAN](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_rec_can.md)\n- 2023.04.07 文本超分[Text Telescope](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_sr_telescope.md)\n- 2022.10.17 文本识别：[ViTSTR](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_rec_vitstr.md)\n- 2022.10.07 文本检测：[DB++](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_det_db.md)\n- 2022.07.24 文本检测算法(FCENET)\n- 2022.07.16 文本识别算法(SVTR)\n- 2022.06.19 文本识别算法(SAR)\n- 2022.05.29 [PP-OCRv3](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.5\u002Fdoc\u002Fdoc_ch\u002Fppocr_introduction.md#pp-ocrv3)，速度可比情况下，中文场景效果相比于PP-OCRv2再提升5%，英文场景提升11%，80语种多语言模型平均识别准确率提升5%以上\n- 2022.05.14 PP-OCRv3文本检测模型\n- 2022.04.17 1种文本识别算法(NRTR)\n- 2022.03.20 1种文本检测算法(PSENet)\n- 2021.09.11 PP-OCRv2，CPU推理速度相比于PP-OCR server提升220%；效果相比于PP-OCR mobile 提升7%\n- 2021.06.01 更新SRN\n- 2021.04.25 更新AAAI 2021论文端到端识别算法PGNet\n- 2021.04.24 更新RARE\n- 2021.04.12 更新STARNET\n- 2021.04.08 更新DB, SAST, EAST, ROSETTA, CRNN\n- 2021.04.03 更新多语言识别模型，目前支持语种超过27种，[多语言模型下载](.\u002Fdoc\u002Fdoc_ch\u002Fmodels_list.md)，包括中文简体、中文繁体、英文、法文、德文、韩文、日文、意大利文、西班牙文、葡萄牙文、俄罗斯文、阿拉伯文等，后续计划可以参考[多语言研发计划](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fissues\u002F1048)\n- 2021.01.10 白嫖中英文通用OCR模型\n\n## 特性\n\n高质量推理模型，准确的识别效果\n\n- 超轻量PP-OCR系列：检测+ 方向分类器+ 识别\n- 超轻量ptocr_mobile移动端系列\n- 通用ptocr_server系列\n- 支持中英文数字组合识别、竖排文本识别、长文本识别\n- 支持多语言识别：韩语、日语、德语、法语等\n\n\u003Ca name=\"模型下载\">\u003C\u002Fa>\n\n## [模型列表](.\u002Fdoc\u002Fdoc_ch\u002Fmodels_list.md)（更新中）\n\nPyTorch模型下载链接：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1r1DELT8BlgxeOP2RqREJEg 提取码：6clx\n\nPaddleOCR模型百度网盘链接：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1getAprT2l_JqwhjwML0g9g 提取码：lmv7 \n\n更多模型下载（包括多语言），可以参考[PT-OCR系列模型下载](.\u002Fdoc\u002Fdoc_ch\u002Fmodels_list.md)\n\n## 文档教程\n- [快速安装](.\u002Fdoc\u002Fdoc_ch\u002Finstallation.md)\n- [模型预测](.\u002Fdoc\u002Fdoc_ch\u002Finference.md)\n- [Pipline](#Pipline)\n- [效果展示](#效果展示)\n- [参考文献](.\u002Fdoc\u002Fdoc_ch\u002Freference.md)\n- [FAQ](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.0\u002Fdoc\u002Fdoc_en\u002FFAQ_en.md)\n- [参考](#参考)\n\n## TODO\n\n- [ ] PP-OCRv5：[文档图像方向分类模块PP-LCNet_x1_0_doc_ori](https:\u002F\u002Fpaddlepaddle.github.io\u002FPaddleOCR\u002Flatest\u002Fversion3.x\u002Fmodule_usage\u002Fdoc_img_orientation_classification.html)，[文本图像矫正模块UVDoc](https:\u002F\u002Fpaddlepaddle.github.io\u002FPaddleOCR\u002Flatest\u002Fversion3.x\u002Fmodule_usage\u002Ftext_image_unwarping.html)，[文本行方向分类模块PP-LCNet_x0_25_textline_ori](https:\u002F\u002Fpaddlepaddle.github.io\u002FPaddleOCR\u002Flatest\u002Fversion3.x\u002Fmodule_usage\u002Ftext_line_orientation_classification.html)\n- [ ] [通用文档解析方案](https:\u002F\u002Fpaddlepaddle.github.io\u002FPaddleOCR\u002Flatest\u002Fversion3.x\u002Fpipeline_usage\u002FPP-StructureV3.html)-[PP-StructureV3](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Fmain\u002Fdocs\u002Fversion3.x\u002Falgorithm\u002FPP-StructureV3\u002FPP-StructureV3.md)：支持多场景、多版式 PDF 高精度解析，在公开评测集中**领先众多开源和闭源方案**。\n- [ ] [智能文档理解方案](https:\u002F\u002Fpaddlepaddle.github.io\u002FPaddleOCR\u002Flatest\u002Fversion3.x\u002Fpipeline_usage\u002FPP-ChatOCRv4.html)-[PP-ChatOCRv4](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Fmain\u002Fdocs\u002Fversion3.x\u002Falgorithm\u002FPP-ChatOCRv4\u002FPP-ChatOCRv4.md)：原生支持文心大模型4.5 Turbo，精度相比上一代**提升15个百分点**。\n- [ ] 前沿算法：文本检测 [DRRG](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_det_drrg.md)，文本识别 [RFL](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_rec_rfl.md)\n- [ ] 文本识别：[ABINet](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_rec_abinet.md), [VisionLAN](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_rec_visionlan.md), [SPIN](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_rec_spin.md), [RobustScanner](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_rec_robustscanner.md)\n- [ ] 表格识别：[TableMaster](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_table_master.md)\n- [ ] [PP-Structurev2](.\u002Fppstructure\u002FREADME_ch.md)，系统功能性能全面升级，适配中文场景，新增支持[版面复原](.\u002Fppstructure\u002Frecovery\u002FREADME_ch.md)，支持**一行命令完成PDF转Word**\n- [ ] [版面分析](.\u002Fppstructure\u002Flayout\u002FREADME_ch.md)模型优化：模型存储减少95%，速度提升11倍，平均CPU耗时仅需41ms\n- [ ] [表格识别](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fppstructure\u002Ftable\u002FREADME_ch.md)模型优化：设计3大优化策略，预测耗时不变情况下，模型精度提升6%\n- [ ] [关键信息抽取](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fppstructure\u002Fkie\u002FREADME_ch.md)模型优化：设计视觉无关模型结构，语义实体识别精度提升2.8%，关系抽取精度提升9.1%\n- [ ] 文本识别算法([SEED](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.6\u002Fdoc\u002Fdoc_ch\u002Falgorithm_rec_seed.md))\n- [ ] 文档结构化算法[关键信息提取](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.4\u002Fppstructure\u002Fdocs\u002Fkie.md)算法(SDMGR)\n- [ ] 3种[DocVQA](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Ftree\u002Frelease\u002F2.4\u002Fppstructure\u002Fvqa)算法(LayoutLM、LayoutLMv2，LayoutXLM)\n- [ ] 文档结构分析[PP-Structure](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.2\u002Fppstructure\u002FREADME_ch.md)工具包，支持版面分析与表格识别（含Excel导出）\n\n\u003Ca name=\"Pipline\">\u003C\u002Fa>\n\n## PP-OCRv2 Pipline\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffrotms_PaddleOCR2Pytorch_readme_a30b62f29d07.jpg\" width=\"800\">\n\u003C\u002Fdiv>\n\n\n\n[1] PP-OCR是一个实用的超轻量OCR系统。主要由DB文本检测、检测框矫正和CRNN文本识别三部分组成。该系统从骨干网络选择和调整、预测头部的设计、数据增强、学习率变换策略、正则化参数选择、预训练模型使用以及模型自动裁剪量化8个方面，采用19个有效策略，对各个模块的模型进行效果调优和瘦身(如绿框所示)，最终得到整体大小为3.5M的超轻量中英文OCR和2.8M的英文数字OCR。更多细节请参考PP-OCR技术方案 \u003Chttps:\u002F\u002Farxiv.org\u002Fabs\u002F2009.09941>\n\n[2] PP-OCRv2在PP-OCR的基础上，进一步在5个方面重点优化，检测模型采用CML协同互学习知识蒸馏策略和CopyPaste数据增广策略；识别模型采用LCNet轻量级骨干网络、UDML 改进知识蒸馏策略和Enhanced CTC loss损失函数改进（如上图红框所示），进一步在推理速度和预测效果上取得明显提升。更多细节请参考PP-OCRv2[技术报告](https:\u002F\u002Farxiv.org\u002Fabs\u002F2109.03144)。\n\n\u003Ca name=\"效果展示\">\u003C\u002Fa>\n\n## 效果展示\n- 中文模型\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffrotms_PaddleOCR2Pytorch_readme_cd3b4b0d5579.jpg\" width=\"800\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffrotms_PaddleOCR2Pytorch_readme_db8ab52db975.jpg\" width=\"800\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffrotms_PaddleOCR2Pytorch_readme_523d0a6bbba4.jpg\" width=\"800\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffrotms_PaddleOCR2Pytorch_readme_821d8d20191b.jpg\" width=\"800\">\n\u003C\u002Fdiv>\n\n\n- 英文模型\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffrotms_PaddleOCR2Pytorch_readme_34a872721de4.jpg\" width=\"800\">\n\u003C\u002Fdiv>\n\n\n- 其他语言模型\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffrotms_PaddleOCR2Pytorch_readme_439f167043db.jpg\" width=\"800\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffrotms_PaddleOCR2Pytorch_readme_61b8591791cd.jpg\" width=\"800\">\n\u003C\u002Fdiv>\n\u003Ca name=\"参考\">\u003C\u002Fa>\n\n## 参考\n\n- [https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR)\n- [https:\u002F\u002Fgithub.com\u002FWenmuZhou\u002FPytorchOCR](https:\u002F\u002Fgithub.com\u002FWenmuZhou\u002FPytorchOCR)\n- [Paddle](https:\u002F\u002Fgithub.com\u002FPaddlePaddle)\n- [Pytorch](https:\u002F\u002Fpytorch.org\u002F)\n- [https:\u002F\u002Fgithub.com\u002Ffrotms\u002Fimage_classification_pytorch](https:\u002F\u002Fgithub.com\u002Ffrotms\u002Fimage_classification_pytorch)\n- [https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.7\u002Fdoc\u002Fdoc_ch\u002Fmodels_list.md](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR\u002Fblob\u002Frelease\u002F2.7\u002Fdoc\u002Fdoc_ch\u002Fmodels_list.md)","# PaddleOCR2Pytorch 快速上手指南\n\nPaddleOCR2Pytorch 是一个将百度 PaddleOCR 的高精度模型移植到 PyTorch 框架的开源项目。它允许开发者在 PyTorch 生态中使用 PP-OCR 系列（包括最新的 PP-OCRv4\u002Fv5 特性）超轻量及通用模型，支持中英文、多语言及复杂场景的文字识别。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux, macOS 或 Windows\n*   **Python 版本**: >= 3.7 (推荐 3.8+)\n*   **深度学习框架**: PyTorch >= 1.7 (建议安装与 CUDA 版本匹配的 GPU 版本，若仅 CPU 推理可安装 CPU 版本)\n*   **依赖库**: `opencv-python`, `numpy`, `Pillow`, `scipy` 等\n\n**前置依赖安装命令：**\n\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\npip install opencv-python numpy Pillow scipy\n```\n\n> **提示**：国内用户推荐使用清华源加速安装：\n> `pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple \u003Cpackage_name>`\n\n## 2. 安装步骤\n\n本项目主要通过克隆源码并配置依赖的方式使用。\n\n### 第一步：克隆项目代码\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Ffrotms\u002FPaddleOCR2Pytorch.git\ncd PaddleOCR2Pytorch\n```\n\n### 第二步：安装项目依赖\n\n进入项目目录后，安装所需的 Python 包：\n\n```bash\npip install -r requirements.txt\n```\n\n*(注：如果项目中没有 `requirements.txt`，请手动安装上述“环境准备”中列出的依赖库)*\n\n### 第三步：下载预训练模型\n\n项目提供了百度网盘的模型下载链接。您需要根据需求下载对应的 PyTorch 模型文件（`.pth`）。\n\n*   **PyTorch 模型下载**: [百度网盘链接](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1r1DELT8BlgxeOP2RqREJEg) (提取码：`6clx`)\n*   **模型说明**: 包含 `ptocr_mobile` (超轻量移动端) 和 `ptocr_server` (高精度服务器端) 系列，支持检测、方向分类和识别模型。\n\n下载完成后，将模型文件放置在项目指定的目录下（通常为 `weights\u002F` 或根据代码示例调整路径）。\n\n## 3. 基本使用\n\n以下是最简单的命令行推理示例，展示如何使用下载的模型对单张图片进行文字识别。\n\n### 命令行快速推理\n\n假设您已下载了检测模型 (`det.pth`) 和识别模型 (`rec.pth`)，并存放于 `weights\u002F` 文件夹下。\n\n```bash\npython tools\u002Finfer\u002Fpredict_system.py \\\n    --image_dir=\".\u002Fdoc\u002Fimgs_results\u002Fch_ptocr_mobile_v2.0\u002F11.jpg\" \\\n    --det_model_dir=\".\u002Fweights\u002Fch_PP-OCRv4_det_infer.pth\" \\\n    --rec_model_dir=\".\u002Fweights\u002Fch_PP-OCRv4_rec_infer.pth\" \\\n    --use_angle_cls=true \\\n    --cls_model_dir=\".\u002Fweights\u002Fch_ppocr_mobile_v2.0_cls_infer.pth\"\n```\n\n**参数说明：**\n*   `--image_dir`: 待识别的图片路径。\n*   `--det_model_dir`: 文本检测模型路径。\n*   `--rec_model_dir`: 文本识别模型路径。\n*   `--use_angle_cls`: 是否使用方向分类器（处理倒置文本），设为 `true` 可提升鲁棒性。\n*   `--cls_model_dir`: 方向分类模型路径。\n\n### Python 代码调用示例\n\n您也可以在 Python 脚本中直接调用：\n\n```python\nfrom tools.infer.predict_system import TextSystem\n\n# 初始化系统\nargs = {\n    'image_dir': '.\u002Fdoc\u002Fimgs_results\u002Fch_ptocr_mobile_v2.0\u002F11.jpg',\n    'det_model_dir': '.\u002Fweights\u002Fch_PP-OCRv4_det_infer.pth',\n    'rec_model_dir': '.\u002Fweights\u002Fch_PP-OCRv4_rec_infer.pth',\n    'use_angle_cls': True,\n    'cls_model_dir': '.\u002Fweights\u002Fch_ppocr_mobile_v2.0_cls_infer.pth'\n}\n\nocr_engine = TextSystem(args)\n\n# 执行预测\nresult = ocr_engine.predict()\n\n# 打印结果\nfor line in result:\n    print(f\"坐标：{line[0]}, 文本：{line[1][0]}, 置信度：{line[1][1]}\")\n```\n\n运行上述命令或代码后，系统将输出图片中的文字内容、位置坐标及置信度。更多高级用法（如批量处理、多语言切换）请参考项目根目录下的 `doc\u002Fdoc_ch\u002Finference.md` 文档。","某跨国电商公司的算法团队需要将最新的 PP-OCRv5 高精度识别模型集成到现有的 PyTorch 推荐系统中，以自动提取多语言商品评论中的关键信息。\n\n### 没有 PaddleOCR2Pytorch 时\n- **框架隔离导致无法复用**：团队核心架构基于 PyTorch，而百度最强的 PP-OCRv5 模型原生仅支持 PaddlePaddle 框架，导致无法直接加载这些 SOTA 权重。\n- **重复训练成本高昂**：为了适配现有系统，工程师不得不收集海量数据重新训练同等精度的 PyTorch 模型，且难以复现官方在复杂手写体和五语种混合场景下的顶尖效果。\n- **多语言支持受限**：自研模型往往难以同时覆盖简体中文、繁体、拼音、英文及日文五种类型，处理跨境商品评论时频繁出现漏识或错识。\n- **维护两套推理引擎**：若强行保留 Paddle 环境进行联合调用，会导致服务依赖复杂、显存占用翻倍，增加线上运维难度。\n\n### 使用 PaddleOCR2Pytorch 后\n- **无缝迁移顶尖模型**：直接加载转换好的 PP-OCRv5 PyTorch 权重，无需重新训练即可在纯 PyTorch 环境中享受比上一版本提升 13% 的识别精度。\n- **复杂场景识别突破**：轻松应对商品评论中常见的连笔手写、非规范字迹及竖排文本，显著提升了多语言混合内容的提取准确率。\n- **架构统一与简化**：整个 OCR 流水线完全融入现有 PyTorch 生态，消除了跨框架调用的性能损耗，降低了服务器资源成本和部署复杂度。\n- **快速迭代验证**：团队可基于熟悉的 PyTorch 工具链对模型进行微调或二次开发，大幅缩短了从算法验证到上线的周期。\n\nPaddleOCR2Pytorch 打破了框架壁垒，让开发者能以零成本将业界最强的 OCR 能力直接注入现有的 PyTorch 生产流中。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffrotms_PaddleOCR2Pytorch_244db126.png","frotms",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ffrotms_415e145c.jpg","Amoy","42894130@qq.com","Wechat：mat_tra","https:\u002F\u002Fgithub.com\u002Ffrotms",[84,88],{"name":85,"color":86,"percentage":87},"Python","#3572A5",99.8,{"name":89,"color":90,"percentage":91},"Cython","#fedf5b",0.2,1155,215,"2026-04-02T19:26:02","Apache-2.0","未说明","未说明 (项目基于 PyTorch，通常支持 CPU 和 GPU 推理，具体取决于所选模型大小)",{"notes":99,"python":96,"dependencies":100},"README 中未明确列出具体的版本号和硬件配置要求。该项目旨在将 PaddleOCR 模型移植到 PyTorch 框架，因此运行环境需满足 PyTorch 的基本要求。模型文件需通过提供的百度网盘链接单独下载。项目支持 PP-OCRv2 至 PP-OCRv4 等版本的模型移植，部分最新特性（如 PP-OCRv5）列为待办事项 (TODO)。",[101,102,103,104,105],"PyTorch","PaddlePaddle (用于模型转换参考)","opencv-python (推测，OCR 通用依赖)","numpy (推测)","Pillow (推测)",[13,14],[108,109,110,111,112,113,114,115],"paddleocr","pytorch","ocr","paddlepaddle","multilingual-models","db","crnn","pytorchocr","2026-03-27T02:49:30.150509","2026-04-06T08:09:11.749921",[119,124,129,134,139,144,149,154],{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},16093,"转换模型时遇到 KeyError: 'backbone.conv.conv.weight' 报错如何处理？","这是转换器代码中的推断阶段逻辑导致的冲突。解决方法是注释掉转换器脚本（converter\u002Fch_ppocr_mobile_v2.0_det_converter.py）中第 65 行附近的推断阶段相关代码，然后重新运行转换脚本即可。","https:\u002F\u002Fgithub.com\u002Ffrotms\u002FPaddleOCR2Pytorch\u002Fissues\u002F1",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},16090,"模型转换后出现精度损失或小文字检测不到怎么办？","如果转换后的模型出现精度下降或小文字漏检，建议直接使用作者提供的已转换好的 PyTorch 模型进行测试，以排除转换操作失误。官方网盘链接：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1r1DELT8BlgxeOP2RqREJEg（提取码：6clx）。","https:\u002F\u002Fgithub.com\u002Ffrotms\u002FPaddleOCR2Pytorch\u002Fissues\u002F69",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},16091,"运行推理脚本时报错“系统错误找不到指定模块”或 DLL 缺失如何解决？","该问题通常与 `shapely` 包有关。请重点检查并重新安装 `shapely` 库。如果是 Windows 环境，可能需要删除现有的 shapely 包及相关 DLL 文件后重新下载安装，确保版本兼容。","https:\u002F\u002Fgithub.com\u002Ffrotms\u002FPaddleOCR2Pytorch\u002Fissues\u002F8",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},16092,"CPU 推理速度过慢（如单张需十几秒）是什么原因？","在常规 GPU 上推理速度是正常的。如果遇到极慢的 CPU 推理速度，可能是使用了不兼容的虚拟 GPU 加速服务（如亚马逊 Elastic Inference），EI 可能不支持当前的 ONNX 或 PyTorch 模型结构。建议直接在标准 GPU 或纯 CPU 环境下测试，避免使用 EI 等虚拟加速层。","https:\u002F\u002Fgithub.com\u002Ffrotms\u002FPaddleOCR2Pytorch\u002Fissues\u002F7",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},16094,"PP-OCRv3 识别模型的配置文件算法名称（SVTR vs SVTR_LCNet）与官方不一致，能否正常转换？","可以正常转换。虽然配置文件中的算法名称标记不同（本项目标记为 SVTR，官方为 SVTR_LCNet），但底层算法逻辑是一致的。请使用以下命令进行转换和推理测试：\n1. 转换：`python .\u002Fconverter\u002Fch_ppocr_v3_rec_converter.py --src_model_path ch_PP-OCRv3_rec_train`\n2. 推理：`python .\u002Ftools\u002Finfer\u002Fpredict_rec.py --rec_model_path .\u002Fch_ptocr_v3_rec_infer.pth --rec_image_shape 3,48,320 --image_dir .\u002Fdoc\u002Fimgs_words\u002Fch\u002Fword_1.jpg`","https:\u002F\u002Fgithub.com\u002Ffrotms\u002FPaddleOCR2Pytorch\u002Fissues\u002F86",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},16095,"使用预训练模型转换时出现 KeyError: 'neck.in2_conv.weight' 怎么办？","不能直接使用 PaddleOCR 官方提供的通用预训练模型（如 ResNet50_vd_ssld_pretrained.pdparams）进行转换，因为结构节点名称不匹配。必须先在 PaddleOCR 中使用该预训练权重进行至少一轮训练（生成包含完整网络结构的训练输出目录），然后使用训练生成的模型目录作为源路径进行转换。","https:\u002F\u002Fgithub.com\u002Ffrotms\u002FPaddleOCR2Pytorch\u002Fissues\u002F34",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},16096,"TPS 基于模型的转换失败或推理出错如何解决？","TPS 模型转换存在已知 Bug，主要原因是 PaddleOCR 训练模型与推理模型的配置不一致（例如训练时使用了 TPS，但配置文件未正确对齐）。目前转换代码可能无法正确处理 TPS 权重，导致加载时缺失权重或推理异常。建议暂时避免使用 TPS 模型，或等待作者修复转换代码中对 TPS 结构的支持。","https:\u002F\u002Fgithub.com\u002Ffrotms\u002FPaddleOCR2Pytorch\u002Fissues\u002F3",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},16097,"转换后的 PyTorch 模型在 ICDAR2015 数据集上性能远低于原版 PaddleOCR 模型？","性能差距通常由预处理或后处理参数不一致导致。请确保：\n1. 推理时的 `image_shape` 参数与训练配置文件完全一致；\n2. 数据预处理流程（归一化、Resize 等）与 PaddleOCR 严格对齐；\n3. 后处理过滤逻辑（如移除标签为 `###` 的框）保持一致。\n如果仍存在问题，需检查 DetMetric 计算逻辑是否完全复现。","https:\u002F\u002Fgithub.com\u002Ffrotms\u002FPaddleOCR2Pytorch\u002Fissues\u002F28",[]]