[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-jingsongliujing--OnnxOCR":3,"tool-jingsongliujing--OnnxOCR":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":76,"owner_twitter":76,"owner_website":78,"owner_url":79,"languages":80,"stars":97,"forks":98,"last_commit_at":99,"license":100,"difficulty_score":32,"env_os":101,"env_gpu":102,"env_ram":103,"env_deps":104,"category_tags":112,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":113,"updated_at":114,"faqs":115,"releases":161},4713,"jingsongliujing\u002FOnnxOCR","OnnxOCR","基于PaddleOCR重构，并且脱离PaddlePaddle深度学习训练框架的轻量级OCR，推理速度超快   ——  A lightweight OCR system based on PaddleOCR, decoupled from the PaddlePaddle deep learning training framework, with ultra-fast inference speed.","OnnxOCR 是一款基于 PaddleOCR 重构的高性能多语言文字识别引擎，旨在提供脱离 PaddlePaddle 深度学习框架的轻量级解决方案。它成功解决了传统 OCR 部署依赖重、环境配置复杂以及在资源受限设备上推理速度慢的痛点，让用户无需安装庞大的训练框架即可直接部署使用。\n\n这款工具特别适合需要快速集成 OCR 功能的开发者、追求高效部署的算法工程师，以及希望在国产硬件或 ARM\u002Fx86 架构设备上运行识别服务的系统架构师。其核心亮点在于“去框架化”设计，通过 ONNX 格式实现跨平台通用部署，在保持与原生 PaddleOCR 同等识别精度的同时，显著提升了推理速度。最新升级的 PP-OCRv5 模型更是实现了单模型支持简繁体中文、拼音、英文及日文五种语言，识别准确率较前代提升 13%。此外，OnnxOCR 还针对国产 GPU 进行了架构优化，只需修改推理引擎即可轻松适配，并提供了便捷的 API 服务和 Docker 容器化方案，帮助团队以最低成本构建稳定的文字识别应用。","\nEnglish | [简体中文](.\u002FReadme_cn.md) |\n\n### **OnnxOCR**  \n### ![onnx_logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_3f7ea2b409fd.png)  \n\n**A High-Performance Multilingual OCR Engine Based on ONNX**  \n\n[![GitHub Stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fjingsongliujing\u002FOnnxOCR?style=social&label=Star&maxAge=3600)](https:\u002F\u002Fgithub.com\u002Fjingsongliujing\u002FOnnxOCR\u002Fstargazers)  \n[![GitHub Forks](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002Fjingsongliujing\u002FOnnxOCR?style=social&label=Fork&maxAge=3600)](https:\u002F\u002Fgithub.com\u002Fjingsongliujing\u002FOnnxOCR\u002Fnetwork\u002Fmembers)  \n[![GitHub License](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fjingsongliujing\u002FOnnxOCR)](https:\u002F\u002Fgithub.com\u002Fjingsongliujing\u002FOnnxOCR\u002Fblob\u002Fmain\u002FLICENSE)  \n[![Python Version](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-%E2%89%A53.6-blue.svg)](https:\u002F\u002Fwww.python.org\u002F)  \n\n\n## 🚀 Version Updates  \n- **2025.05.21**  \n  1. Added PP-OCRv5 model, supporting 5 language types in a single model: Simplified Chinese, Traditional Chinese, Chinese Pinyin, English, and Japanese.  \n  2. Overall recognition accuracy improved by 13% compared to PP-OCRv4.  \n  3. Accuracy is consistent with PaddleOCR 3.0.  \n\n\n## 🌟 Core Advantages  \n1. **Deep Learning Framework-Free**: A universal OCR engine ready for direct deployment.  \n2. **Cross-Architecture Support**: Uses PaddleOCR-converted ONNX models, rebuilt for deployment on both ARM and x86 architecture computers with unchanged accuracy under limited computing power.  \n3. **High-Performance Inference**: Faster inference speed on computers with the same performance.  \n4. **Multilingual Support**: Single model supports 5 language types: Simplified Chinese, Traditional Chinese, Chinese Pinyin, English, and Japanese.  \n5. **Model Accuracy**: Consistent with PaddleOCR models.  \n6. **Domestic Hardware Adaptation**: Restructured code architecture for easy adaptation to more domestic GPUs by modifying only the inference engine.  \n\n\n## 🛠️ Environment Setup  \n```bash  \npython>=3.6  \n\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple -r requirements.txt  \n```  \n\n**Note**:  \n- The Mobile version model is used by default; the PP-OCRv5_Server-ONNX model offers better performance.  \n- The Mobile model is already in `onnxocr\u002Fmodels\u002Fppocrv5` and requires no download;  \n- The PP-OCRv5_Server-ONNX model is large and uploaded to [Baidu Netdisk](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1hpENH_SkLDdwXkmlsX0GUQ?pwd=wu8t) (extraction code: wu8t). After downloading, place the `det` and `rec` models in `.\u002Fmodels\u002Fppocrv5\u002F` to replace the existing ones.  \n\n\n## 🚀 One-Click Run  \n```bash  \npython test_ocr.py  \n```  \n\n\n## 📡 API Service (CPU Example)  \n### Start Service  \n```bash  \npython app-service.py  \n```  \n\n### Test Example  \n#### Request  \n```bash  \ncurl -X POST http:\u002F\u002Flocalhost:5005\u002Focr \\  \n-H \"Content-Type: application\u002Fjson\" \\  \n-d '{\"image\": \"base64_encoded_image_data\"}'  \n```  \n\n#### Response  \n```json  \n{  \n  \"processing_time\": 0.456,  \n  \"results\": [  \n    {  \n      \"text\": \"Name\",  \n      \"confidence\": 0.9999361634254456,  \n      \"bounding_box\": [[4.0, 8.0], [31.0, 8.0], [31.0, 24.0], [4.0, 24.0]]  \n    },  \n    {  \n      \"text\": \"Header\",  \n      \"confidence\": 0.9998759031295776,  \n      \"bounding_box\": [[233.0, 7.0], [258.0, 7.0], [258.0, 23.0], [233.0, 23.0]]  \n    }  \n  ]  \n}  \n```  \n\n\n## 🐳 Docker Image Environment (CPU)  \n### Build Image  \n```bash  \ndocker build -t ocr-service .  \n```  \n\n### Run Image  \n```bash  \ndocker run -itd --name onnxocr-service-v3 -p 5006:5005 onnxocr-service:v3  \n```  \n\n### POST Request  \n```  \nurl: ip:5006\u002Focr  \n```  \n\n### Response Example  \n```json  \n{  \n  \"processing_time\": 0.456,  \n  \"results\": [  \n    {  \n      \"text\": \"Name\",  \n      \"confidence\": 0.9999361634254456,  \n      \"bounding_box\": [[4.0, 8.0], [31.0, 8.0], [31.0, 24.0], [4.0, 24.0]]  \n    },  \n    {  \n      \"text\": \"Header\",  \n      \"confidence\": 0.9998759031295776,  \n      \"bounding_box\": [[233.0, 7.0], [258.0, 7.0], [258.0, 23.0], [233.0, 23.0]]  \n    }  \n  ]  \n}  \n```  \n\n\n## 🌟 Effect Demonstration  \n| Example 1 | Example 2 |  \n|-----------|-----------|  \n| ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_7beff9075590.png) | ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_73b9c423fca6.png) |  \n\n| Example 3 | Example 4 |  \n|-----------|-----------|  \n| ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_550b66ac4954.png) | ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_e151dad6ef62.jpg) |  \n\n| Example 5 | Example 6 |  \n|-----------|-----------|  \n| ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_9902cfc9a1fd.jpg) | ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_304b9756b093.png) |  \n\n\n## 👨💻 Contact & Communication  \n### Career Opportunities  \nI am currently seeking job opportunities. Welcome to connect!  \n![WeChat QR Code](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_9e2961ee9d66.jpg)  \n\n### OnnxOCR Community  \n#### WeChat Group  \n![WeChat Group](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_d493ac54a119.jpg)  \n\n#### QQ Group  \n![QQ Group](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_45a4dd309557.jpg)  \n\n\n## 🎉 Acknowledgments  \nThanks to [PaddleOCR](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR) for technical support!  \n\n\n## 🌍 Open Source & Donations  \nI am passionate about open source and AI technology, believing they can bring convenience and help to those in need, making the world a better place. If you recognize this project, you can support it via Alipay or WeChat Pay (please note \"Support OnnxOCR\" in the remarks).  \n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_d35b99d15944.jpg\" alt=\"WeChat Pay\" width=\"200\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_ebc0032738a8.jpg\" alt=\"Alipay\" width=\"200\">\n\n\n## 📈 Star History  \n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_5303e6ceff15.png)](https:\u002F\u002Fstar-history.com\u002F#jingsongliujing\u002FOnnxOCR&Date)  \n\n\n## 🤝 Contribution Guidelines  \nWelcome to submit Issues and Pull Requests to improve the project together!  \n","英语 | [简体中文](.\u002FReadme_cn.md) |\n\n### **OnnxOCR**  \n### ![onnx_logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_3f7ea2b409fd.png)  \n\n**基于ONNX的高性能多语言OCR引擎**  \n\n[![GitHub Star数](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fjingsongliujing\u002FOnnxOCR?style=social&label=Star&maxAge=3600)](https:\u002F\u002Fgithub.com\u002Fjingsongliujing\u002FOnnxOCR\u002Fstargazers)  \n[![GitHub Fork数](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002Fjingsongliujing\u002FOnnxOCR?style=social&label=Fork&maxAge=3600)](https:\u002F\u002Fgithub.com\u002Fjingsongliujing\u002FOnnxOCR\u002Fnetwork\u002Fmembers)  \n[![GitHub许可证](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fjingsongliujing\u002FOnnxOCR)](https:\u002F\u002Fgithub.com\u002Fjingsongliujing\u002FOnnxOCR\u002Fblob\u002Fmain\u002FLICENSE)  \n[![Python版本](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-%E2%89%A53.6-blue.svg)](https:\u002F\u002Fwww.python.org\u002F)  \n\n\n## 🚀 版本更新  \n- **2025.05.21**  \n  1. 新增PP-OCRv5模型，单模型支持简体中文、繁体中文、汉语拼音、英语和日语五种语言。  \n  2. 整体识别准确率相比PP-OCRv4提升13%。  \n  3. 准确率与PaddleOCR 3.0保持一致。  \n\n\n## 🌟 核心优势  \n1. **无需深度学习框架**：开箱即用的通用OCR引擎，可直接部署。  \n2. **跨架构支持**：采用PaddleOCR转换的ONNX模型，在有限算力下重新构建，可在ARM和x86架构的计算机上部署且精度不变。  \n3. **高性能推理**：在同等性能的计算机上推理速度更快。  \n4. **多语言支持**：单模型支持简体中文、繁体中文、汉语拼音、英语和日语五种语言。  \n5. **模型精度**：与PaddleOCR模型精度一致。  \n6. **国产硬件适配**：重构代码架构，只需修改推理引擎即可轻松适配更多国产GPU。  \n\n\n## 🛠️ 环境搭建  \n```bash  \npython>=3.6  \n\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple -r requirements.txt  \n```  \n\n**注意**：  \n- 默认使用Mobile版本模型；PP-OCRv5_Server-ONNX模型性能更优。  \n- Mobile模型已位于`onnxocr\u002Fmodels\u002Fppocrv5`，无需下载；  \n- PP-OCRv5_Server-ONNX模型体积较大，已上传至[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1hpENH_SkLDdwXkmlsX0GUQ?pwd=wu8t)（提取码：wu8t）。下载后，请将`det`和`rec`两个模型放入`.\u002Fmodels\u002Fppocrv5\u002F`目录，替换原有文件。  \n\n\n## 🚀 一键运行  \n```bash  \npython test_ocr.py  \n```  \n\n\n## 📡 API服务（CPU示例）  \n### 启动服务  \n```bash  \npython app-service.py  \n```  \n\n### 测试示例  \n#### 请求  \n```bash  \ncurl -X POST http:\u002F\u002Flocalhost:5005\u002Focr \\  \n-H \"Content-Type: application\u002Fjson\" \\  \n-d '{\"image\": \"base64_encoded_image_data\"}'  \n```  \n\n#### 响应  \n```json  \n{  \n  \"processing_time\": 0.456,  \n  \"results\": [  \n    {  \n      \"text\": \"姓名\",  \n      \"confidence\": 0.9999361634254456,  \n      \"bounding_box\": [[4.0, 8.0], [31.0, 8.0], [31.0, 24.0], [4.0, 24.0]]  \n    },  \n    {  \n      \"text\": \"标题\",  \n      \"confidence\": 0.9998759031295776,  \n      \"bounding_box\": [[233.0, 7.0], [258.0, 7.0], [258.0, 23.0], [233.0, 23.0]]  \n    }  \n  ]  \n}  \n```  \n\n\n## 🐳 Docker镜像环境（CPU）  \n### 构建镜像  \n```bash  \ndocker build -t ocr-service .  \n```  \n\n### 运行镜像  \n```bash  \ndocker run -itd --name onnxocr-service-v3 -p 5006:5005 onnxocr-service:v3  \n```  \n\n### POST请求  \n```  \nurl: ip:5006\u002Focr  \n```  \n\n### 响应示例  \n```json  \n{  \n  \"processing_time\": 0.456,  \n  \"results\": [  \n    {  \n      \"text\": \"姓名\",  \n      \"confidence\": 0.9999361634254456,  \n      \"bounding_box\": [[4.0, 8.0], [31.0, 8.0], [31.0, 24.0], [4.0, 24.0]]  \n    },  \n    {  \n      \"text\": \"标题\",  \n      \"confidence\": 0.9998759031295776,  \n      \"bounding_box\": [[233.0, 7.0], [258.0, 7.0], [258.0, 23.0], [233.0, 23.0]]  \n    }  \n  ]  \n}  \n```  \n\n\n## 🌟 效果展示  \n| 示例1 | 示例2 |  \n|-----------|-----------|  \n| ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_7beff9075590.png) | ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_73b9c423fca6.png) |  \n\n| 示例3 | 示例4 |  \n|-----------|-----------|  \n| ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_550b66ac4954.png) | ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_e151dad6ef62.jpg) |  \n\n| 示例5 | 示例6 |  \n|-----------|-----------|  \n| ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_9902cfc9a1fd.jpg) | ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_304b9756b093.png) |  \n\n\n## 👨💻 联系与交流  \n### 求职机会  \n本人目前正在寻求工作机会，欢迎联系！  \n![微信二维码](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_9e2961ee9d66.jpg)  \n\n### OnnxOCR社区  \n#### 微信群  \n![微信群](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_d493ac54a119.jpg)  \n\n#### QQ群  \n![QQ群](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_45a4dd309557.jpg)  \n\n\n## 🎉 致谢  \n感谢[PaddleOCR](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleOCR)的技术支持！  \n\n\n## 🌍 开源与捐赠  \n我热衷于开源和AI技术，相信它们能够为有需要的人带来便利与帮助，让世界变得更美好。如果您认可本项目，可通过支付宝或微信支付支持我们（请备注“支持OnnxOCR”）。  \n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_d35b99d15944.jpg\" alt=\"微信支付\" width=\"200\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_ebc0032738a8.jpg\" alt=\"支付宝\" width=\"200\">\n\n\n## 📈 Star历史  \n[![Star历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_readme_5303e6ceff15.png)](https:\u002F\u002Fstar-history.com\u002F#jingsongliujing\u002FOnnxOCR&Date)  \n\n\n## 🤝 贡献指南  \n欢迎提交Issue和Pull Request，共同完善本项目！","# OnnxOCR 快速上手指南\n\nOnnxOCR 是一个基于 ONNX 的高性能多语言 OCR 引擎，无需依赖深度学习框架即可直接部署。它支持简中、繁中、拼音、英文和日文五种语言，且在 ARM 和 x86 架构下均能保持高精度与高性能。\n\n## 1. 环境准备\n\n- **操作系统**：Linux \u002F Windows \u002F macOS (支持 ARM 及 x86 架构)\n- **Python 版本**：≥ 3.6\n- **前置依赖**：无特殊系统级依赖，仅需安装 Python 包\n\n## 2. 安装步骤\n\n推荐使用国内镜像源加速依赖安装：\n\n```bash\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple -r requirements.txt\n```\n\n**关于模型文件的说明：**\n- **默认模型**：安装包已内置 Mobile 版模型 (`onnxocr\u002Fmodels\u002Fppocrv5`)，安装后可直接使用。\n- **高性能模型（可选）**：若需更高精度，可下载 PP-OCRv5_Server-ONNX 模型。\n  - 下载地址：[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1hpENH_SkLDdwXkmlsX0GUQ?pwd=wu8t) (提取码：`wu8t`)\n  - 使用方法：下载后解压，将 `det` 和 `rec` 文件夹覆盖至 `.\u002Fmodels\u002Fppocrv5\u002F` 目录。\n\n## 3. 基本使用\n\n### 方式一：本地脚本测试（最简单）\n\n运行官方提供的测试脚本，即可对预设图片进行识别：\n\n```bash\npython test_ocr.py\n```\n\n### 方式二：启动 API 服务\n\n若需作为后端服务调用，可启动 HTTP 服务（默认端口 5005）：\n\n**启动服务：**\n```bash\npython app-service.py\n```\n\n**发送请求测试：**\n```bash\ncurl -X POST http:\u002F\u002Flocalhost:5005\u002Focr \\\n-H \"Content-Type: application\u002Fjson\" \\\n-d '{\"image\": \"base64_encoded_image_data\"}'\n```\n\n**响应示例：**\n服务将返回识别出的文本、置信度及边界框坐标：\n```json\n{\n  \"processing_time\": 0.456,\n  \"results\": [\n    {\n      \"text\": \"Name\",\n      \"confidence\": 0.9999361634254456,\n      \"bounding_box\": [[4.0, 8.0], [31.0, 8.0], [31.0, 24.0], [4.0, 24.0]]\n    }\n  ]\n}\n```\n\n### 方式三：Docker 部署（可选）\n\n**构建镜像：**\n```bash\ndocker build -t ocr-service .\n```\n\n**运行容器：**\n```bash\ndocker run -itd --name onnxocr-service-v3 -p 5006:5005 onnxocr-service:v3\n```\n*注：Docker 模式下默认访问端口为 5006。*","某物流科技公司需要在边缘计算网关上部署一套多语言运单识别系统，以实时处理来自全球仓库的包裹图像。\n\n### 没有 OnnxOCR 时\n- **部署包袱重**：必须安装庞大的 PaddlePaddle 深度学习框架，导致镜像体积过大，难以在资源受限的 ARM 架构边缘设备上运行。\n- **推理延迟高**：原有方案在低算力环境下响应缓慢，单张图片处理耗时超过 1.5 秒，无法满足流水线高速分拣的实时性要求。\n- **多模型维护难**：面对中、英、日等多国运单，需加载多个独立模型或频繁切换配置，增加了系统复杂度和内存占用。\n- **硬件适配差**：代码强依赖特定训练环境，难以灵活迁移至国产 GPU 或其他异构计算平台，定制化改造成本高。\n\n### 使用 OnnxOCR 后\n- **轻量级部署**：OnnxOCR 彻底解耦了训练框架，直接基于 ONNX 运行，使服务镜像体积缩小 60% 以上，轻松嵌入各类边缘网关。\n- **超快推理速度**：得益于重构后的高性能引擎，单图识别时间压缩至 0.45 秒以内，完美匹配高速传送带的节拍需求。\n- **单模型多语言**：利用最新的 PP-OCRv5 模型，单个文件即可同时高精度识别简繁中文、拼音、英文及日文，简化了运维逻辑。\n- **广泛硬件兼容**：统一的推理架构支持 x86 与 ARM 无缝切换，并能快速适配国产显卡，大幅降低了硬件选型与迁移门槛。\n\nOnnxOCR 通过“去框架化”和“高性能重构”，让复杂的多语言 OCR 能力得以在低成本边缘设备上实现毫秒级实时落地。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjingsongliujing_OnnxOCR_3f7ea2b4.png","jingsongliujing","jingsongliu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjingsongliujing_eef733e4.jpg","AI Engineer",null,"云南省昆明市","weixin: liujingsongweixin","https:\u002F\u002Fgithub.com\u002Fjingsongliujing",[81,85,89,93],{"name":82,"color":83,"percentage":84},"Python","#3572A5",82.1,{"name":86,"color":87,"percentage":88},"HTML","#e34c26",12.7,{"name":90,"color":91,"percentage":92},"CSS","#663399",4.7,{"name":94,"color":95,"percentage":96},"Dockerfile","#384d54",0.5,1732,191,"2026-04-04T00:19:25","Apache-2.0","Linux, macOS, Windows","非必需。默认使用 CPU 运行；支持通过修改推理引擎适配国产 GPU，但未指定具体型号、显存或 CUDA 版本要求。","未说明",{"notes":105,"python":106,"dependencies":107},"1. 核心优势为无需深度学习框架（如 PaddlePaddle\u002FPyTorch），直接基于 ONNX 部署。\n2. 默认使用移动端模型（已内置）；若需更高精度，需手动下载 PP-OCRv5_Server-ONNX 服务端模型（较大）并替换至 .\u002Fmodels\u002Fppocrv5\u002F 目录。\n3. 支持 ARM 和 x86 架构。\n4. 提供 Docker 镜像支持（CPU 版本）。",">=3.6",[108,109,110,111],"onnxruntime","opencv-python","numpy","Pillow",[15,14],"2026-03-27T02:49:30.150509","2026-04-07T09:52:20.314643",[116,121,126,131,136,141,146,151,156],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},21427,"ch_ppocr_server_v2.0 模型是否还推荐使用？相比 v4 有什么优势？","ch_ppocr_server_v2.0 在艺术字或大小不一的字体识别上仍具有优势。v4 及后续版本更偏向于快速适配第三方 AI 硬件推理。项目架构已将推理引擎与前后处理逻辑分离，方便开发者修改模型或推理引擎。","https:\u002F\u002Fgithub.com\u002Fjingsongliujing\u002FOnnxOCR\u002Fissues\u002F39",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},21428,"代码是否可以商用？有什么限制吗？","可以商用。该项目目前采用 Apache 协议，没有任何商用限制。","https:\u002F\u002Fgithub.com\u002Fjingsongliujing\u002FOnnxOCR\u002Fissues\u002F23",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},21426,"识别英文段落时单词之间没有空格怎么办？","建议切换到 ppocrv5 分支，该版本在英文单词间距识别上有很大改善。分支地址：https:\u002F\u002Fgithub.com\u002Fjingsongliujing\u002FOnnxOCR\u002Ftree\u002Fppocrv5","https:\u002F\u002Fgithub.com\u002Fjingsongliujing\u002FOnnxOCR\u002Fissues\u002F45",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},21425,"项目支持 PaddleOCR v3 和 v4 模型吗？预处理和后处理有区别吗？","支持。作者已更新到 PP-OCR v4 版本的推理，速度比直接使用 PaddlePaddle 框架快五倍。同时也已更新支持 v5 分支。预处理、前端处理和后处理逻辑已与官方推理保持一致。","https:\u002F\u002Fgithub.com\u002Fjingsongliujing\u002FOnnxOCR\u002Fissues\u002F3",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},21429,"使用 GPU 推理时速度反而比 CPU 慢，或者显存持续上涨怎么办？","1. 关于速度慢：PP-OCR v4 目前主要在 CPU 上测试过，ONNX Runtime 可能对某些 CUDA 算子支持不佳。如果是 v4 版本，建议暂时仅使用 CPU 推理。\n2. 关于显存泄漏：直接使用 Paddle 框架推理存在内存泄漏问题，转换为 ONNX 可解决。若封装为 API 后显存仍上涨，需检查 CUDA 驱动、cudnn 与 onnxruntime-gpu 版本是否严格对应（参考官方版本匹配表），并确保卸载了 cpu 版的 onnxruntime，只保留 gpu 版。","https:\u002F\u002Fgithub.com\u002Fjingsongliujing\u002FOnnxOCR\u002Fissues\u002F14",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},21430,"Server 模型识别小尺寸图片中的数字效果很差怎么办？","建议使用 OpenCV 将输入图片 resize（缩放）至固定尺寸，例如 640×480 或 800×600，然后再进行识别，这样可以显著提高小尺寸数字的识别率。","https:\u002F\u002Fgithub.com\u002Fjingsongliujing\u002FOnnxOCR\u002Fissues\u002F58",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},21431,"如何配置 ONNX Runtime 以正确使用 GPU 并避免性能问题？","在初始化 Session 时，可以通过指定 providers 参数来优化 GPU 执行。推荐配置如下：\nproviders=[('CUDAExecutionProvider', {\"cudnn_conv_algo_search\": \"DEFAULT\"}), 'CPUExecutionProvider']\n同时请确保环境中没有同时安装 onnxruntime 和 onnxruntime-gpu，必须卸载前者。","https:\u002F\u002Fgithub.com\u002Fjingsongliujing\u002FOnnxOCR\u002Fissues\u002F38",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},21432,"为什么我的 onnxruntime-gpu 在不同 CUDA\u002FcuDNN 版本下效果不好？","这通常是因为本地 CUDA 驱动版本、cudnn 版本与安装的 onnxruntime-gpu 版本不匹配。请务必查看 onnxruntime 官方的版本对应表，确保三者一一对应。另外，使用前必须执行 `pip uninstall onnxruntime` 卸载 CPU 版本，因为两个包不能同时存在。","https:\u002F\u002Fgithub.com\u002Fjingsongliujing\u002FOnnxOCR\u002Fissues\u002F9",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},21433,"未来会将模型上传到 Hugging Face 或发布 pip 安装包吗？","作者表示后续会考虑将模型上传到 Hugging Face 以方便持续集成脚本执行，同时也计划推出 pip 安装包以便用户更方便地使用。","https:\u002F\u002Fgithub.com\u002Fjingsongliujing\u002FOnnxOCR\u002Fissues\u002F33",[]]