[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ayumiymk--aster.pytorch":3,"tool-ayumiymk--aster.pytorch":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",156033,2,"2026-04-14T23:32:00",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":10,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":104,"github_topics":105,"view_count":32,"oss_zip_url":80,"oss_zip_packed_at":80,"status":17,"created_at":112,"updated_at":113,"faqs":114,"releases":145},7669,"ayumiymk\u002Faster.pytorch","aster.pytorch","ASTER in Pytorch","aster.pytorch 是一个基于 PyTorch 框架实现的场景文本识别工具，旨在精准读取自然场景中弯曲、倾斜或模糊的文字图像。它核心解决了传统识别模型难以处理不规则文本排列的痛点，通过引入灵活的“矫正机制”，能够自动将扭曲的文本区域校正为规整形态，从而大幅提升识别准确率。\n\n该工具特别适合计算机视觉领域的研究人员和开发者使用，尤其是那些正在从事 OCR（光学字符识别）算法研究、需要复现经典论文结果或构建自定义文本识别项目的团队。虽然普通用户也可借助其预训练模型进行测试，但其主要价值在于为学术探索和工程开发提供坚实的代码基座。\n\naster.pytorch 的技术亮点在于其独特的注意力机制与空间变换网络（STN）的结合。这种架构允许模型在识别过程中动态关注关键特征，并对输入图像进行可微分的几何矫正。值得注意的是，当前版本主要实现了从左到右的单向注意力解码器，虽未包含原论文中的双向注意力模块，但在 IIIT5k、SVT 等多个主流基准测试集上仍表现优异，部分指标甚至超越了原始实现。项目提供了完整的训练、测试脚本及预训练模型，支持用户快速上手并在此基础上进行二次开发，是进入高精度场景","aster.pytorch 是一个基于 PyTorch 框架实现的场景文本识别工具，旨在精准读取自然场景中弯曲、倾斜或模糊的文字图像。它核心解决了传统识别模型难以处理不规则文本排列的痛点，通过引入灵活的“矫正机制”，能够自动将扭曲的文本区域校正为规整形态，从而大幅提升识别准确率。\n\n该工具特别适合计算机视觉领域的研究人员和开发者使用，尤其是那些正在从事 OCR（光学字符识别）算法研究、需要复现经典论文结果或构建自定义文本识别项目的团队。虽然普通用户也可借助其预训练模型进行测试，但其主要价值在于为学术探索和工程开发提供坚实的代码基座。\n\naster.pytorch 的技术亮点在于其独特的注意力机制与空间变换网络（STN）的结合。这种架构允许模型在识别过程中动态关注关键特征，并对输入图像进行可微分的几何矫正。值得注意的是，当前版本主要实现了从左到右的单向注意力解码器，虽未包含原论文中的双向注意力模块，但在 IIIT5k、SVT 等多个主流基准测试集上仍表现优异，部分指标甚至超越了原始实现。项目提供了完整的训练、测试脚本及预训练模型，支持用户快速上手并在此基础上进行二次开发，是进入高精度场景文本识别领域的理想起点。","# ASTER: Attentional Scene Text Recognizer with Flexible Rectification\n\nThis repository implements the ASTER in pytorch. Origin software could be found in [here](https:\u002F\u002Fgithub.com\u002Fbgshih\u002Faster).\n\nASTER is an accurate scene text recognizer with flexible rectification mechanism. The research paper can be found [here](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8395027\u002F).\n\n![ASTER Overview](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fayumiymk_aster.pytorch_readme_1d392a44c1af.png)\n\n## Installation\n\n```\nconda env create -f environment.yml\n```\n\n## Train\n\n[**NOTE**] Some users say that they can't reproduce the reported performance with minor modification, like [1](https:\u002F\u002Fgithub.com\u002Fayumiymk\u002Faster.pytorch\u002Fissues\u002F17#issuecomment-527380815) and [2](https:\u002F\u002Fgithub.com\u002Fayumiymk\u002Faster.pytorch\u002Fissues\u002F17#issuecomment-528718596). I haven't try other settings, so I can't guarantee the same performance with different settings. The users should just run the following script without any modification to reproduce the results.\n```\nbash scripts\u002Fstn_att_rec.sh\n```\n\n## Test\n\nYou can test with .lmdb files by\n```\nbash scripts\u002Fmain_test_all.sh\n```\nOr test with single image by\n```\nbash scripts\u002Fmain_test_image.sh\n```\n\n## Pretrained model\nThe pretrained model is available on our [release page](https:\u002F\u002Fgithub.com\u002Fayumiymk\u002Faster.pytorch\u002Freleases\u002Fdownload\u002Fv1.0\u002Fdemo.pth.tar). Download `demo.pth.tar` and put it to somewhere. Before running, modify the `--resume` to the location of this file.\n\n## Reproduced results\n\n|               | IIIT5k |  SVT |  IC03 |  IC13 |  IC15 | SVTP  |  CUTE |\n|:-------------:|:------:|:----:|:-----:|:-----:|:-----:|:-----:|:-----:|\n|  ASTER (L2R)  |  92.67 |   -  | 93.72 | 90.74 |    -  | 78.76 | 76.39 |\n| ASTER.Pytorch |  93.2  | 89.2 | 92.2  |   91  |  78.0 |  81.2 |  81.9 |\n\nAt present, the bidirectional attention decoder proposed in ASTER is not included in my implementation. \n\nYou can use the codes to bootstrap for your next text recognition research project.\n\n\n## Data preparation\n\nWe give an example to construct your own datasets. Details please refer to `tools\u002Fcreate_svtp_lmdb.py`.\n\nWe also provide datasets for [training](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1BMYb93u4gW_3GJdjBWSCSw&shfl=sharepset) (password: wi05) and [testing](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1U4mGLlsm9Ade1-gQOyd6He5R0yiaafYJ).\n\n## Citation\n\nIf you find this project helpful for your research, please cite the following papers:\n\n```\n@article{bshi2018aster,\n  author    = {Baoguang Shi and\n               Mingkun Yang and\n               Xinggang Wang and\n               Pengyuan Lyu and\n               Cong Yao and\n               Xiang Bai},\n  title     = {ASTER: An Attentional Scene Text Recognizer with Flexible Rectification},\n  journal   = {IEEE Transactions on Pattern Analysis and Machine Intelligence}, \n  volume    = {41},\n  number    = {9},\n  pages     = {2035--2048},\n  year      = {2019},\n}\n\n@inproceedings{ShiWLYB16,\n  author    = {Baoguang Shi and\n               Xinggang Wang and\n               Pengyuan Lyu and\n               Cong Yao and\n               Xiang Bai},\n  title     = {Robust Scene Text Recognition with Automatic Rectification},\n  booktitle = {2016 {IEEE} Conference on Computer Vision and Pattern Recognition,\n               {CVPR} 2016, Las Vegas, NV, USA, June 27-30, 2016},\n  pages     = {4168--4176},\n  year      = {2016}\n}\n```\n\nIMPORTANT NOTICE: Although this software is licensed under MIT, our intention is to make it free for academic research purposes. If you are going to use it in a product, we suggest you [contact us](xbai@hust.edu.cn) regarding possible patent issues.\n","# ASTER：具有灵活校正机制的注意力场景文本识别器\n\n本仓库使用 PyTorch 实现了 ASTER。原始代码可在 [这里](https:\u002F\u002Fgithub.com\u002Fbgshih\u002Faster)找到。\n\nASTER 是一种准确的场景文本识别器，具备灵活的校正机制。相关研究论文可参见 [这里](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F8395027\u002F)。\n\n![ASTER 概览](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fayumiymk_aster.pytorch_readme_1d392a44c1af.png)\n\n## 安装\n\n```\nconda env create -f environment.yml\n```\n\n## 训练\n\n**注意**：有用户反映，在进行少量修改后无法复现报告中的性能，例如 [1](https:\u002F\u002Fgithub.com\u002Fayumiymk\u002Faster.pytorch\u002Fissues\u002F17#issuecomment-527380815) 和 [2](https:\u002F\u002Fgithub.com\u002Fayumiymk\u002Faster.pytorch\u002Fissues\u002F17#issuecomment-528718596)。由于我没有尝试过其他设置，因此无法保证在不同配置下获得相同的结果。为复现结果，请直接运行以下脚本，无需任何修改：\n\n```\nbash scripts\u002Fstn_att_rec.sh\n```\n\n## 测试\n\n您可以使用 .lmdb 文件进行测试：\n\n```\nbash scripts\u002Fmain_test_all.sh\n```\n\n或者使用单张图片进行测试：\n\n```\nbash scripts\u002Fmain_test_image.sh\n```\n\n## 预训练模型\n\n预训练模型已发布在我们的 [release 页面](https:\u002F\u002Fgithub.com\u002Fayumiymk\u002Faster.pytorch\u002Freleases\u002Fdownload\u002Fv1.0\u002Fdemo.pth.tar)。请下载 `demo.pth.tar` 并将其放置到指定位置。在运行前，请将 `--resume` 参数修改为该文件的路径。\n\n## 复现结果\n\n|               | IIIT5k |  SVT |  IC03 |  IC13 |  IC15 | SVTP  |  CUTE |\n|:-------------:|:------:|:----:|:-----:|:-----:|:-----:|:-----:|:-----:|\n|  ASTER (L2R)  |  92.67 |   -  | 93.72 | 90.74 |    -  | 78.76 | 76.39 |\n| ASTER.Pytorch |  93.2  | 89.2 | 92.2  |   91  |  78.0 |  81.2 |  81.9 |\n\n目前，我的实现中尚未包含 ASTER 中提出的双向注意力解码器。\n\n您可以使用这些代码作为起点，开展自己的文本识别研究项目。\n\n## 数据准备\n\n我们提供了一个构建自定义数据集的示例。详细信息请参阅 `tools\u002Fcreate_svtp_lmdb.py`。\n\n此外，我们还提供了用于 [训练](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1BMYb93u4gW_3GJdjBWSCSw&shfl=sharepset)（密码：wi05）和 [测试](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1U4mGLlsm9Ade1-gQOyd6He5R0yiaafYJ) 的数据集。\n\n## 引用\n\n如果您认为该项目对您的研究有所帮助，请引用以下论文：\n\n```\n@article{bshi2018aster,\n  author    = {Baoguang Shi and\n               Mingkun Yang and\n               Xinggang Wang and\n               Pengyuan Lyu and\n               Cong Yao and\n               Xiang Bai},\n  title     = {ASTER: An Attentional Scene Text Recognizer with Flexible Rectification},\n  journal   = {IEEE Transactions on Pattern Analysis and Machine Intelligence}, \n  volume    = {41},\n  number    = {9},\n  pages     = {2035--2048},\n  year      = {2019},\n}\n\n@inproceedings{ShiWLYB16,\n  author    = {Baoguang Shi and\n               Xinggang Wang and\n               Pengyuan Lyu and\n               Cong Yao and\n               Xiang Bai},\n  title     = {Robust Scene Text Recognition with Automatic Rectification},\n  booktitle = {2016 {IEEE} Conference on Computer Vision and Pattern Recognition,\n               {CVPR} 2016, Las Vegas, NV, USA, June 27-30, 2016},\n  pages     = {4168--4176},\n  year      = {2016}\n}\n```\n\n重要提示：尽管本软件采用 MIT 许可证，但我们的初衷是使其仅用于学术研究目的。如果您计划将其应用于商业产品中，建议您就可能的专利问题与我们联系：xbai@hust.edu.cn。","# ASTER.pytorch 快速上手指南\n\nASTER (Attentional Scene Text Recognizer) 是一个具有灵活校正机制的高精度场景文本识别工具。本指南基于 PyTorch 实现版本，帮助开发者快速部署和测试。\n\n## 环境准备\n\n*   **系统要求**：Linux 操作系统（推荐 Ubuntu）。\n*   **前置依赖**：需安装 [Conda](https:\u002F\u002Fdocs.conda.io\u002F) 包管理工具。\n*   **硬件建议**：建议使用支持 CUDA 的 NVIDIA GPU 以获得最佳训练和推理速度。\n\n## 安装步骤\n\n本项目通过 Conda 环境文件自动配置所有依赖。请在项目根目录下执行以下命令创建虚拟环境：\n\n```bash\nconda env create -f environment.yml\n```\n\n创建完成后，激活环境：\n\n```bash\nconda activate aster\n```\n*(注：具体环境名称请以 `environment.yml` 中定义的 `name` 字段为准)*\n\n## 基本使用\n\n### 1. 准备预训练模型\n下载官方提供的预训练模型 `demo.pth.tar`：\n*   **下载地址**：[GitHub Release](https:\u002F\u002Fgithub.com\u002Fayumiymk\u002Faster.pytorch\u002Freleases\u002Fdownload\u002Fv1.0\u002Fdemo.pth.tar)\n*   **国内加速**：如果下载缓慢，可尝试使用迅雷或代理加速，或将文件下载后上传至服务器。\n\n将下载的文件放置在任意目录（例如 `.\u002Fpretrained\u002F`），并记住该路径。\n\n### 2. 单张图片测试\n这是最简单的使用方式，用于对单张场景图片进行文字识别。\n\n修改脚本 `scripts\u002Fmain_test_image.sh`，将 `--resume` 参数指向你下载的模型路径，然后运行：\n\n```bash\nbash scripts\u002Fmain_test_image.sh\n```\n\n### 3. 批量数据集测试\n如果你已准备好 `.lmdb` 格式的测试数据集，可以使用以下命令进行批量评估：\n\n```bash\nbash scripts\u002Fmain_test_all.sh\n```\n\n### 4. 开始训练（可选）\n若需复现论文结果或训练自己的模型，请直接运行以下脚本。**注意**：为保证性能复现，请勿随意修改脚本内的默认参数。\n\n```bash\nbash scripts\u002Fstn_att_rec.sh\n```\n\n---\n**数据准备提示**：\n如需构建自定义数据集，可参考 `tools\u002Fcreate_svtp_lmdb.py` 脚本。作者提供了部分训练和测试数据的下载链接（包含百度网盘源），详见原文 README 的 \"Data preparation\" 章节。","某智慧物流团队正在开发一套自动分拣系统，需要从高速传送带上拍摄的视频流中实时识别包裹面单上的文字，以完成自动路由分发。\n\n### 没有 aster.pytorch 时\n- 面对传送带上因快速移动导致的面单倾斜、弯曲或模糊图像，传统 OCR 引擎识别率极低，大量包裹需人工二次复核。\n- 缺乏灵活的图像矫正机制，无法自适应处理各种角度的文本行，导致后续字符识别阶段输入质量差，错误频发。\n- 在复杂背景（如花纹纸箱）干扰下，模型难以聚焦关键文本区域，误识率高，严重影响分拣系统的整体吞吐量。\n- 复现学术界先进的注意力机制模型成本高，团队需从零搭建训练框架，研发周期长且难以达到论文宣称的精度。\n\n### 使用 aster.pytorch 后\n- 利用其内置的灵活矫正机制（STN），系统能自动将倾斜或弯曲的面单文本“拉直”，显著提升了后续识别模块的输入质量。\n- 基于注意力机制的场景文本识别能力，即使在高速运动模糊或复杂背景干扰下，也能精准锁定并识别字符，大幅降低误识率。\n- 直接复用预训练模型和成熟的训练脚本，团队无需重复造轮子，快速在自有数据集上微调并达到了接近 SOTA 的识别精度。\n- 系统对非常规文本排列的鲁棒性增强，减少了人工干预环节，使得自动化分拣线的运行效率提升了 30% 以上。\n\naster.pytorch 通过其独特的注意力机制与图像矫正能力，解决了复杂工业场景下非规范文本的高精度识别难题，让自动化分拣真正落地。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fayumiymk_aster.pytorch_a9e229c8.png","ayumiymk","Mingkun Yang","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fayumiymk_2a1249bb.png","Hi, I am a Ph.D. student at Huazhong University of Science and Technology. My work focuses on computer vision, especially scene text recognition and text vqa.","Huazhong University of Science and Technology","Luoyu Road 1037, Wuhan, China","yangmingkun@hust.edu.cn",null,"https:\u002F\u002Fscholar.google.com\u002Fcitations?user=3EfF1qgAAAAJ&hl=en","https:\u002F\u002Fgithub.com\u002Fayumiymk",[84,88],{"name":85,"color":86,"percentage":87},"Python","#3572A5",98,{"name":89,"color":90,"percentage":32},"Shell","#89e051",684,172,"2026-03-03T01:18:07","MIT","Linux","未说明（基于 PyTorch 实现，通常建议配备支持 CUDA 的 NVIDIA GPU 以加速训练和推理）","未说明",{"notes":99,"python":100,"dependencies":101},"1. 必须使用 conda 创建环境（命令：conda env create -f environment.yml），具体依赖版本需查看项目中的 environment.yml 文件。\n2. 训练时若要复现论文结果，请勿修改脚本参数。\n3. 当前实现未包含 ASTER 论文中提出的双向注意力解码器。\n4. 商业使用可能涉及专利问题，建议联系作者。","未说明（需通过 conda 环境安装）",[102,103],"pytorch","conda",[15,14],[106,107,108,109,110,111,102],"ocr","text-recognition","scene-text","computer-vision","text-rectification","aster","2026-03-27T02:49:30.150509","2026-04-15T12:56:18.251194",[115,120,125,130,135,140],{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},34326,"为什么无法复现论文中的准确率或预训练模型的性能？","如果您使用 TensorFlow 和 PyTorch 版本都无法获得相同的结果，很可能是训练数据存在问题。建议仔细检查您的数据集（如 Synth800K 和 Synth90K）是否正确。由于训练数据体积较大（约 50GB），作者无法直接提供 lmdb 格式的数据包，请务必自行核对数据路径和内容完整性。","https:\u002F\u002Fgithub.com\u002Fayumiymk\u002Faster.pytorch\u002Fissues\u002F17",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},34327,"训练时遇到 'CUDA out of memory'（显存溢出）错误怎么办？","该问题通常是因为代码中有一个列表存储了所有图像导致显存持续增加。解决方法是仔细阅读代码，找到存储所有图像的列表部分，并将其注释掉。此外，也可以尝试减小 batch_size 来缓解显存压力。","https:\u002F\u002Fgithub.com\u002Fayumiymk\u002Faster.pytorch\u002Fissues\u002F2",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},34328,"运行时报错 'lmdb.Error: ... No such file or directory' 如何解决？","这个错误表明程序找不到指定的数据集路径。请检查代码中配置的数据集根目录路径是否正确，确保该路径下确实存在对应的 lmdb 数据库文件。如果是克隆项目后直接运行，通常需要修改配置文件或启动脚本中的数据路径指向您本地实际的数据集位置。","https:\u002F\u002Fgithub.com\u002Fayumiymk\u002Faster.pytorch\u002Fissues\u002F27",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},34329,"评估（Evaluation）过程比训练慢很多，如何加速？","评估速度慢通常是因为解码时的 beam search 宽度（beam_width）设置过大。默认设置可能较高，导致计算量增加。建议将 `beam_width` 参数调整为 1，这样评估速度会有显著提升，且与训练时间的差距会缩小。","https:\u002F\u002Fgithub.com\u002Fayumiymk\u002Faster.pytorch\u002Fissues\u002F3",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},34330,"如何在中文数据集上获得更好的识别效果？","对于中文数据集，强烈建议使用“不定长训练”策略。如果使用定长训练，当测试数据的文字长度与训练数据差异较大时，识别效果会显著下降。虽然不定长训练在实现上可能稍复杂，但能更好地适应中文文本长度变化大的特点，从而提升鲁棒性。","https:\u002F\u002Fgithub.com\u002Fayumiymk\u002Faster.pytorch\u002Fissues\u002F5",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},34331,"使用自制汉字数据集进行训练和识别，需要修改哪些代码？","训练中文数据集需要进行以下关键修改：\n1. **Labelmap 配置**：在 labelmaps 中加入数据集中的所有汉字字符。\n2. **数据读取解码**：在 `datasets.py` 第 98 行左右，将 `word = self.txn.get(label_key)` 修改为 `word = self.txn.get(label_key).decode()`，因为 lmdb 制作时汉字经过了 encode，读取时必须 decode。\n3. **评价指标修正**：在 `metrics.py` 中，找到限制字符类型的判断（通常涉及 `_normalize_text`），将相关约束条件（如 `if True:`）修改为 `if False:` 或调整逻辑，防止代码自动过滤掉汉字，确保中文被纳入准确率计算。","https:\u002F\u002Fgithub.com\u002Fayumiymk\u002Faster.pytorch\u002Fissues\u002F46",[146],{"id":147,"version":148,"summary_zh":149,"released_at":150},271636,"v1.0","这个预训练模型可以加载以复现给定的性能。将其放置到任意位置，并将 `--resume` 参数修改为该文件的路径。","2019-08-17T08:15:29"]