[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-xiaomaxiao--keras_ocr":3,"tool-xiaomaxiao--keras_ocr":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":74,"owner_company":74,"owner_location":76,"owner_email":74,"owner_twitter":74,"owner_website":74,"owner_url":77,"languages":78,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":91,"env_os":92,"env_gpu":93,"env_ram":94,"env_deps":95,"category_tags":100,"github_topics":74,"view_count":32,"oss_zip_url":74,"oss_zip_packed_at":74,"status":17,"created_at":101,"updated_at":102,"faqs":103,"releases":144},8097,"xiaomaxiao\u002Fkeras_ocr","keras_ocr","用keras实现OCR定位、识别","keras_ocr 是一个基于 Keras 框架和 TensorFlow 后端开发的开源工具，专注于实现高效的文字检测与识别（OCR）。它主要解决了从图像中自动定位文字区域并精准提取文本内容的难题，尤其在中英文混合场景下表现优异。\n\n在技术架构上，keras_ocr 集成了先进的深度学习模型：识别部分提供了 CRNN 和 DenseNet-CTC 两种方案，其中 DenseNet 模型在保持高达 98.2% 准确率的同时，推理速度仅需 8 毫秒，且模型体积小巧；定位部分则采用了经典的 CTPN 算法，即便主要基于英文数据训练，在处理中文文字定位时依然展现出良好的泛化能力。\n\n这款工具非常适合开发者、人工智能研究人员以及需要构建自定义 OCR 应用的技术团队使用。对于希望快速搭建文字识别系统、进行算法对比研究或需要在有限算力环境下部署高效模型的工程师而言，keras_ocr 提供了一个轻量级且易于二次开发的解决方案。需要注意的是，由于项目依赖特定的数据集链接和训练环境，使用者最好具备一定的深度学习基础和代码调试能力，以便更好地利用其核心功能。","# 简介\n\n用keras实现ocr定位、识别，后端tensorflow.\n\n* 环境 win10 titanx\n\n# 识别\n* 数据集链接: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1jJWfDmm 密码: vh8p (中英数300W+,语料不均衡)\n\n* crnn：vgg + blstm + blstm + ctc \n\n* densenet-ocr ：densent + ctc \n\n| 网格结构  | GPU | 准确率 | 模型大小 |\n| ---------- | -----------| ---------- | -----------|\n| crnn | 60ms | 0.972 |  |\n| densent+ctc | 8ms | 0.982 | 18.9MB |\n\n\n# 定位\n\n* 链接：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1oEWTrx20G41iNaJYF-xa6w 提取码：szj7 (ICDR 2013+少量中文)\n\n* CTPN：\n1. 即使大部分数据集基于英文，但在中文定位中也表现良好。\n2. 各位如有中文标注的数据集愿意分享，可提issues\n\n![demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaomaxiao_keras_ocr_readme_9c4cd7d8c08b.jpg)\n\n# 参考\n[1]https:\u002F\u002Fgithub.com\u002Feragonruan\u002Ftext-detection-ctpn\n\n[2]https:\u002F\u002Fgithub.com\u002Fsenlinuc\u002Fcaffe_ocr\n","# 简介\n\n使用Keras实现OCR定位与识别，后端为TensorFlow。\n\n* 环境：Win10、Titan X\n\n# 识别\n* 数据集链接: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1jJWfDmm 密码: vh8p (中英数字300万+，语料不均衡)\n\n* CRNN：VGG + BiLSTM + BiLSTM + CTC \n\n* DenseNet-OCR：DenseNet + CTC \n\n| 网络结构  | GPU | 准确率 | 模型大小 |\n| ---------- | -----------| ---------- | -----------|\n| CRNN | 60ms | 0.972 |  |\n| DenseNet+CTC | 8ms | 0.982 | 18.9MB |\n\n\n# 定位\n\n* 链接：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1oEWTrx20G41iNaJYF-xa6w 提取码：szj7 (ICDR 2013+少量中文)\n\n* CTPN：\n1. 即使大部分数据集基于英文，但在中文定位中也表现良好。\n2. 各位如有中文标注的数据集愿意分享，可提issues\n\n![demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaomaxiao_keras_ocr_readme_9c4cd7d8c08b.jpg)\n\n# 参考\n[1]https:\u002F\u002Fgithub.com\u002Feragonruan\u002Ftext-detection-ctpn\n\n[2]https:\u002F\u002Fgithub.com\u002Fsenlinuc\u002Fcaffe_ocr","# keras_ocr 快速上手指南\n\n## 环境准备\n\n*   **操作系统**：Windows 10 (Linux\u002FMac 亦可，原文基于 Win10 TitanX 测试)\n*   **后端框架**：TensorFlow\n*   **核心依赖**：Keras\n*   **硬件建议**：推荐使用 NVIDIA GPU 以获得最佳推理速度（如 CTPN 定位仅需 8ms-60ms）\n\n## 安装步骤\n\n由于原文未提供直接的 `pip` 包名，通常此类开源项目需克隆源码并安装依赖。请确保已安装 Python 和 pip。\n\n1.  **克隆项目代码**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fxiaomaxiao\u002Fkeras_ocr.git\n    cd keras_ocr\n    ```\n\n2.  **安装 Python 依赖**\n    建议使用国内镜像源加速安装：\n    ```bash\n    pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n    *注：若项目中无 `requirements.txt`，请手动安装核心库：*\n    ```bash\n    pip install tensorflow keras opencv-python numpy -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n3.  **下载模型与数据集（可选）**\n    如需使用预训练模型或进行训练，可从以下国内网盘链接获取资源：\n    *   **识别模型数据** (中英数 300W+): [百度网盘下载](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1jJWfDmm) (密码: vh8p)\n    *   **定位模型数据** (ICDR 2013+ 中文): [百度网盘下载](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1oEWTrx20G41iNaJYF-xa6w) (提取码: szj7)\n\n## 基本使用\n\n本项目主要包含 **文字定位 (CTPN)** 和 **文字识别 (CRNN\u002FDenseNet)** 两大功能。以下为基于 Python 的最简调用逻辑示例。\n\n### 1. 文字定位 (Text Detection)\n使用 CTPN 算法检测图片中的文字区域。即使主要基于英文数据集训练，在中文场景下表现依然良好。\n\n```python\nfrom keras_ocr import detection\n\n# 初始化检测器 (需确保已加载对应权重文件)\ndetector = detection.Detection()\n\n# 执行检测\nimage_path = 'demo\u002Fdemo1.jpg'\nboxes, scores = detector.detect(image_path)\n\n# boxes 为文字框坐标，scores 为置信度\nprint(f\"Detected {len(boxes)} text regions.\")\n```\n\n### 2. 文字识别 (Text Recognition)\n支持 `crnn` (VGG+BLSTM+CTC) 和 `densenet-ocr` (DenseNet+CTC) 两种架构。其中 `densenet+ctc` 模型更小 (18.9MB) 且速度更快 (约 8ms\u002FGPU)。\n\n```python\nfrom keras_ocr import recognition\n\n# 初始化识别器，选择模型架构 ('crnn' 或 'densenet')\nrecognizer = recognition.Recognition(model_type='densenet')\n\n# 对裁剪后的文字图片进行识别\n# cropped_image 应为从原图中根据 detection 结果裁剪出的单行文字图像\ntext, confidence = recognizer.recognize(cropped_image)\n\nprint(f\"Recognized Text: {text}, Confidence: {confidence}\")\n```\n\n### 3. 端到端流程示意\n结合定位与识别，实现完整的 OCR 流程：\n\n```python\nimport cv2\nfrom keras_ocr import detection, recognition\n\n# 初始化模块\ndetector = detection.Detection()\nrecognizer = recognition.Recognition(model_type='densenet')\n\n# 读取图片\nimg = cv2.imread('demo\u002Fdemo1.jpg')\n\n# 1. 定位\nboxes, _ = detector.detect(img)\n\n# 2. 遍历框并识别\nfor box in boxes:\n    # 根据 box 坐标裁剪图片 (需自行实现 crop 逻辑)\n    cropped = crop_image_by_box(img, box) \n    text, _ = recognizer.recognize(cropped)\n    print(f\"Text: {text}\")\n```\n\n*注意：以上代码为基于项目结构的逻辑示例，具体类名和方法名请以实际克隆后的源码文件为准。*","某电商运营团队每天需处理数千张包含中英混合商品标签的仓库实拍图，以便快速录入库存系统。\n\n### 没有 keras_ocr 时\n- 人工逐张截图并手动输入文字，耗时极长且容易因疲劳产生录入错误。\n- 传统 OCR 工具对倾斜、模糊或背景复杂的中文标签识别率极低，大量图片需二次返工。\n- 部署商业级高精度 OCR 服务成本高昂，且难以在本地 Windows 环境下灵活集成到现有 Python 流程中。\n- 面对中英文混排场景，现有开源方案往往需要分别调用不同模型，导致推理延迟高达数百毫秒，无法实时反馈。\n\n### 使用 keras_ocr 后\n- 利用 CTPN 定位算法自动精准框选复杂背景下的文本区域，即使大部分训练数据为英文，对中文定位依然表现优异。\n- 采用 DenseNet+CTC 识别模型，单张图片推理仅需 8ms，准确率提升至 98.2%，大幅缩短处理周期。\n- 基于 Keras 和 TensorFlow 后端，团队可在 Win10 + TitanX 环境下轻松部署，无需额外购买云服务即可实现本地化高效运行。\n- 统一模型同时支持中英数混合识别，解决了语料不均衡带来的识别盲区，实现了从图片到结构化文本的全自动化流转。\n\nkeras_ocr 通过轻量级的高精度模型，将原本繁琐的人工录入工作转化为秒级自动处理，显著降低了运营成本并提升了数据准确性。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxiaomaxiao_keras_ocr_a5d89dd1.png","xiaomaxiao",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fxiaomaxiao_7edafa59.png","郑州","https:\u002F\u002Fgithub.com\u002Fxiaomaxiao",[79,83],{"name":80,"color":81,"percentage":82},"Jupyter Notebook","#DA5B0B",94.8,{"name":84,"color":85,"percentage":86},"Python","#3572A5",5.2,532,191,"2025-12-08T09:45:59","NOASSERTION",4,"Windows","需要 NVIDIA GPU，文中提及测试环境为 TitanX，具体显存及 CUDA 版本未说明","未说明",{"notes":96,"python":94,"dependencies":97},"README 中明确提到的运行环境为 Windows 10 + TitanX 显卡。该工具包含 CTPN（定位）和 CRNN\u002FDenseNet（识别）模型。部分数据集链接指向百度网盘，需自行下载。虽然主要测试在 Windows 上进行，但基于 TensorFlow\u002FKeras 的特性，理论上可能支持其他系统，但文中未作保证。",[98,99],"keras","tensorflow",[15],"2026-03-27T02:49:30.150509","2026-04-16T18:27:21.061228",[104,109,114,119,124,129,134,139],{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},36231,"训练时 Loss 下降但准确率（acc）一直为 0 或极低，可能是什么原因？","首先请检查数据标签是否正确。如果标签无误，可能是训练数据量不足导致的。有用户反馈随机抽取 5 万数据训练时 acc 为 0，而使用 95% 的数据（约 360 万中的大部分）训练后，Loss 可降至 0.2 左右（尽管 acc 仍较低，需进一步排查）。建议确保使用完整或足够大的数据集进行训练，并核对标签文件与图像是否对应。","https:\u002F\u002Fgithub.com\u002Fxiaomaxiao\u002Fkeras_ocr\u002Fissues\u002F2",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},36232,"代码中 json.load() 使用的 jsonpath 具体指哪个文件？","该路径指的是数据集中的 `train.txt` 文件。这是用于训练的数据列表文件。","https:\u002F\u002Fgithub.com\u002Fxiaomaxiao\u002Fkeras_ocr\u002Fissues\u002F3",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},36233,"读取 char_std_5990.txt 字符集文件时，为什么长度是 5994 而不是 5990？第一行的 'blank' 被解析成了多个字符怎么办？","是的，读取出来的长度确实是 5994。这是因为文件第一行的 'blank' 字符串被逐个字符读取了。解决方法是手动处理：跳过第一行或用空格代替 'blank' 这几个字符。维护者确认了该现象，并提供了修正后的字符集文件链接供参考：https:\u002F\u002Fgithub.com\u002Fxiaomaxiao\u002Fkeras_ocr\u002Fblob\u002Fmaster\u002Fdensent_ocr\u002Fchar_std_5990.txt","https:\u002F\u002Fgithub.com\u002Fxiaomaxiao\u002Fkeras_ocr\u002Fissues\u002F7",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},36234,"提供的百度网盘数据集链接失效了，哪里可以重新下载数据集？","原数据集来源于 caffe_ocr 项目。如果百度网盘链接失效，可以直接从以下 GitHub 仓库获取数据集：https:\u002F\u002Fgithub.com\u002Fsenlinuc\u002Fcaffe_ocr。注意该数据集解压可能需要较长时间，且部分用户反映 ZIP 格式比 360 压缩格式更容易解压。","https:\u002F\u002Fgithub.com\u002Fxiaomaxiao\u002Fkeras_ocr\u002Fissues\u002F45",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},36235,"densenet-ocr.ipynb 中 maxlabellength 设置为 20 的原因是什么？我的图片只有 10 个字符。","这是一个失误。如果训练样本图片最大字符数为 10，将 `maxlabellength` 设置为 10 即可，无需设置为 20。","https:\u002F\u002Fgithub.com\u002Fxiaomaxiao\u002Fkeras_ocr\u002Fissues\u002F15",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},36236,"使用 char_std_5990.txt 后，nclass 变成 5995 且开头包含 blank 字符，如何解决？","这是因为直接读取文件时包含了首行的 blank 标记。请使用维护者提供的修正版字符集文件，或者在读取代码中跳过第一行。修正版文件地址：https:\u002F\u002Fgithub.com\u002Fxiaomaxiao\u002Fkeras_ocr\u002Fblob\u002Fmaster\u002Fdensent_ocr\u002Fchar_std_5990.txt","https:\u002F\u002Fgithub.com\u002Fxiaomaxiao\u002Fkeras_ocr\u002Fissues\u002F14",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},36237,"是否有加载模型并测试单张图片的示例代码？","维护者曾表示会尽快更新测试代码（test code）。建议关注仓库的最新提交或示例文件夹，通常这类代码会包含加载预训练权重和对单张图片进行 OCR 识别的流程。","https:\u002F\u002Fgithub.com\u002Fxiaomaxiao\u002Fkeras_ocr\u002Fissues\u002F1",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},36238,"能否分享训练好的 CTPN LSTM 模型权重文件？","截至该 Issue 关闭时，维护者尚未公开分享具体的权重文件（如 weights-ctpnlstm-*.hdf5）。对于只有 CPU 的用户，训练大型数据集确实非常困难，建议尝试寻找社区其他成员分享的权重，或使用较小的数据集进行微调。","https:\u002F\u002Fgithub.com\u002Fxiaomaxiao\u002Fkeras_ocr\u002Fissues\u002F25",[]]