[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-AstarLight--Lets_OCR":3,"tool-AstarLight--Lets_OCR":64},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,2,"2026-04-06T11:32:50",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[43,15,13,14],"语言模型",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,52],"视频",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,"2026-04-06T11:09:19",[15,16,52,61,13,62,43,14,63],"插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":78,"owner_location":79,"owner_email":78,"owner_twitter":78,"owner_website":78,"owner_url":80,"languages":81,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":102,"env_os":103,"env_gpu":104,"env_ram":104,"env_deps":105,"category_tags":108,"github_topics":78,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":109,"updated_at":110,"faqs":111,"releases":147},5283,"AstarLight\u002FLets_OCR","Lets_OCR","A repository for OCR, which inlcudes some classical OCR algorithms Pytorch implementation such as CTPN, EAST and CRNN.","Lets_OCR 是一个专注于光学字符识别（OCR）技术的开源项目，旨在为开发者提供经典 OCR 算法的 PyTorch 实现参考。在图像文字处理领域，如何精准地从复杂背景中定位文字并准确识别内容一直是个技术难点，Lets_OCR 通过集成成熟的深度学习模型，有效解决了这一从“检测”到“识别”的全流程问题。\n\n该项目核心包含了三大经典算法：CTPN 用于高精度的文本行检测，特别擅长处理弯曲或密集排列的文字；CRNN 则负责将检测到的图像区域转化为可读文本，兼顾了速度与准确率；此外，项目还在持续开发更先进的 EAST 检测算法。这些模块化的代码实现，让使用者无需从零开始复现论文公式，即可快速搭建或调试自己的 OCR 系统。\n\nLets_OCR 非常适合人工智能领域的研究人员、算法工程师以及计算机视觉学习者使用。对于希望深入理解 OCR 底层原理、进行模型对比实验，或是需要在项目中快速部署基础文字识别功能的开发者而言，这是一个极具价值的学习库和工具箱。它不仅提供了可运行的代码范例，更展示了如何将学术界的经典理论转化为实际的工程应用，帮助用户轻松迈出文字识别技术实践的第一步。","# Lets_OCR\n\nA repository for OCR, which inlcudes some classical OCR algorithms implementation such as CTPN, EAST and CRNN. \n\n- [CTPN](https:\u002F\u002Fgithub.com\u002FAstarLight\u002FLets_OCR\u002Ftree\u002Fmaster\u002Fdetector\u002Fctpn)\n- [CRNN](https:\u002F\u002Fgithub.com\u002FAstarLight\u002FLets_OCR\u002Ftree\u002Fmaster\u002Frecognizer\u002Fcrnn)\n- [EAST](https:\u002F\u002Fgithub.com\u002FAstarLight\u002FLets_OCR\u002Ftree\u002Fmaster\u002Fdetector\u002Feast) （under developing）\n","# Lets_OCR\n\n一个用于光学字符识别（OCR）的仓库，包含一些经典的OCR算法实现，如CTPN、EAST和CRNN。\n\n- [CTPN](https:\u002F\u002Fgithub.com\u002FAstarLight\u002FLets_OCR\u002Ftree\u002Fmaster\u002Fdetector\u002Fctpn)\n- [CRNN](https:\u002F\u002Fgithub.com\u002FAstarLight\u002FLets_OCR\u002Ftree\u002Fmaster\u002Frecognizer\u002Fcrnn)\n- [EAST](https:\u002F\u002Fgithub.com\u002FAstarLight\u002FLets_OCR\u002Ftree\u002Fmaster\u002Fdetector\u002Feast) （开发中）","# Lets_OCR 快速上手指南\n\nLets_OCR 是一个开源 OCR 工具库，集成了 CTPN、CRNN 和 EAST 等经典光学字符识别算法的实现。本指南将帮助您快速搭建环境并运行基础示例。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux (推荐 Ubuntu 18.04+) 或 macOS\n*   **Python 版本**：Python 3.6 - 3.9\n*   **深度学习框架**：PyTorch (建议版本 1.7+)\n*   **前置依赖**：\n    *   `opencv-python`\n    *   `numpy`\n    *   `Pillow`\n    *   `torchvision`\n\n> **国内加速建议**：\n> 安装 Python 依赖时，推荐使用清华或阿里镜像源以提升下载速度：\n> ```bash\n> pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n1.  **克隆项目代码**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FAstarLight\u002FLets_OCR.git\n    cd Lets_OCR\n    ```\n\n2.  **安装依赖包**\n    进入项目根目录，安装所需依赖：\n    ```bash\n    pip install -r requirements.txt\n    ```\n    *(若未找到 requirements.txt，请手动安装核心依赖：`pip install opencv-python numpy torch torchvision`)*\n\n3.  **下载预训练模型**\n    根据您需要的算法（如 CTPN 检测器或 CRNN 识别器），前往对应的子目录链接下载预训练权重文件，并放置在相应文件夹内（具体路径请参考各算法子目录下的说明）。\n\n## 基本使用\n\n以下以 **CTPN + CRNN** 组合为例，展示最简单的文字检测与识别流程。\n\n假设您已准备好一张测试图片 `test.jpg`。\n\n### 1. 文本检测 (CTPN)\n\n进入检测器目录并运行脚本：\n\n```bash\ncd detector\u002Fctpn\npython detect.py --image_path ..\u002F..\u002Fimages\u002Ftest.jpg --weights_path .\u002Fweights\u002Fctpn_weights.pth\n```\n\n*   `--image_path`: 输入图片的路径。\n*   `--weights_path`: 预训练模型文件的路径。\n\n### 2. 文本识别 (CRNN)\n\n获取检测到的文本区域后，进入识别器目录进行文字识别：\n\n```bash\ncd ..\u002F..\u002Frecognizer\u002Fcrnn\npython recognize.py --image_path ..\u002F..\u002Fimages\u002Ftest_crop.jpg --weights_path .\u002Fweights\u002Fcrnn_weights.pth\n```\n\n*   `--image_path`: 裁剪后的单行文本图片路径（通常由检测步骤输出）。\n*   `--weights_path`: CRNN 预训练模型文件的路径。\n\n> **注意**：EAST 算法目前处于开发中（under developing），功能可能尚不稳定，建议优先使用 CTPN 和 CRNN 进行生产测试。","某物流初创公司的技术团队正急需从每日数万张手写快递面单图片中自动提取收件人地址和电话，以替代低效的人工录入流程。\n\n### 没有 Lets_OCR 时\n- 团队需从零复现 CTPN、EAST 等经典检测算法，耗费数周调试 PyTorch 环境且极易遭遇版本兼容坑。\n- 面对倾斜、模糊或背景复杂的面单图片，自研的简单模型识别率不足 60%，导致大量数据需人工二次复核。\n- 缺乏成熟的 CRNN 识别模块集成，文字检测与内容识别割裂，开发端到端流水线耗时漫长。\n- 算法迭代周期长，无法快速验证不同场景下的效果，严重拖慢产品上线进度。\n\n### 使用 Lets_OCR 后\n- 直接调用仓库中已封装好的 CTPN 和 CRNN PyTorch 实现，半天内即可搭建起高精度的基础 OCR 流水线。\n- 利用成熟的检测算法有效应对面单折叠、光照不均等干扰，关键字段提取准确率迅速提升至 92% 以上。\n- 检测与识别模块无缝衔接，团队可专注于业务逻辑优化，将原本一个月的开发周期压缩至三天。\n- 基于开源代码轻松进行微调训练，快速适配手写体特征，显著降低了定制化开发门槛。\n\nLets_OCR 通过提供开箱即用的经典算法实现，让团队从繁琐的底层基建中解放出来，实现了物流单据自动化处理的高效落地。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAstarLight_Lets_OCR_10e5ffc1.png","AstarLight","lijunshi","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FAstarLight_997f4534.png",null,"Guangzhou","https:\u002F\u002Fgithub.com\u002FAstarLight",[82,86,90,94],{"name":83,"color":84,"percentage":85},"C++","#f34b7d",76.1,{"name":87,"color":88,"percentage":89},"Python","#3572A5",23.8,{"name":91,"color":92,"percentage":93},"Makefile","#427819",0.1,{"name":95,"color":96,"percentage":97},"Shell","#89e051",0,656,323,"2026-03-08T05:29:40","MIT",4,"","未说明",{"notes":106,"python":104,"dependencies":107},"README 仅列出了支持的算法（CTPN, CRNN, EAST），未提供具体的运行环境配置、依赖库版本或安装指南。EAST 检测器目前处于开发中。",[],[15],"2026-03-27T02:49:30.150509","2026-04-08T09:16:38.038733",[112,117,122,127,132,137,142],{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},23943,"运行时报错 ModuleNotFoundError: No module named 'lib.nms' 怎么办？","这是因为 NMS 模块是 Cython 编写的，需要先编译生成 .so 文件。请按照以下步骤操作：\n1. 确保已安装 Python 开发包（如 `python3-dev` 或 `python3.6-dev`），否则编译会报 `Python.h: No such file or directory`。\n2. 修改项目根目录或 lib 目录下的 `Makefile`，将 include 路径指向你当前的 Python 版本头文件路径（例如 `-I\u002Fusr\u002Finclude\u002Fpython3.6`）。\n3. 在 `nms.c` 文件头部添加宏定义以解决 NumPy API 警告：`#define NPY_NO_DEPRECATED_API NPY_API_VERSION`。\n4. 执行 `make` 命令进行编译。\n5. 编译成功后，目录下应生成 `nms.so` 文件，即可正常运行。","https:\u002F\u002Fgithub.com\u002FAstarLight\u002FLets_OCR\u002Fissues\u002F18",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},23944,"训练时出现 'Corrupted image' 和 'DataLoader worker exited unexpectedly' 错误如何解决？","该错误通常由数据集中存在损坏的图片文件引起。DataLoader 的多进程加载机制遇到无法读取的图片时会崩溃。解决方法：\n1. 检查报错日志中提到的图片索引或路径，找到对应的损坏图片并删除或替换。\n2. 如果无法定位具体图片，可以尝试将 DataLoader 的 `num_workers` 参数设置为 0，改为单进程加载数据，虽然速度会变慢但能避免进程意外退出，并打印出具体是哪张图片出错。","https:\u002F\u002Fgithub.com\u002FAstarLight\u002FLets_OCR\u002Fissues\u002F73",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},23945,"运行 generate_gt_anchor.py 时报错 ModuleNotFoundError: No module named 'draw_image' 是什么原因？","`draw_image` 不是第三方库，而是项目本地 `lib` 目录下的自定义模块（`lib\u002Fdraw_image.py`）。报错是因为 Python 找不到该模块。解决方法：\n1. 确保你在项目的根目录下运行脚本。\n2. 检查 `lib` 目录下是否存在 `draw_image.py` 文件。\n3. 如果文件存在，可能是导入路径问题，尝试在代码开头添加 `import sys; sys.path.append('lib')` 或者直接在 `lib` 目录下运行相关脚本（视具体项目结构而定，通常需确保当前路径包含模块所在目录）。","https:\u002F\u002Fgithub.com\u002FAstarLight\u002FLets_OCR\u002Fissues\u002F63",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},23946,"EAST 检测器训练时报错 'cannot import name gen_geo_map' 怎么处理？","这是因为 `gen_geo_map` 是一个 Cython 扩展模块，源代码是 `.pyx` 文件，需要先编译成 `.so` (Linux\u002FMac) 或 `.pyd` (Windows) 文件才能被 Python 导入。项目中虽然有 `.c` 或 `.pyx` 文件，但没有编译后的二进制文件。解决方法：\n1. 找到包含 `gen_geo_map.pyx` 的目录。\n2. 运行编译命令（通常是 `python setup.py build_ext --inplace` 或者该项目特定的 make 命令）来生成 `gen_geo_map.so`。\n3. 确保生成的 `.so` 文件与 `.py` 导入代码在同一目录下。","https:\u002F\u002Fgithub.com\u002FAstarLight\u002FLets_OCR\u002Fissues\u002F92",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},23947,"坐标排序逻辑存在 Bug，当点坐标有重合时导致索引越界或坐标丢失，如何修复？","原代码在分割左右坐标点时逻辑不严谨。可以使用以下重写的 `sortCoords` 函数来修复，该函数能稳健地将四个点排序为左下、左上、右上、右下：\n```python\ndef sortCoords(box):\n    coords = [(box[i * 2], box[i*2+1]) for i in range(4)]\n    # 先按 x 坐标排序\n    coords.sort(key=lambda x: x[0])\n    coords_left = coords[:2]\n    coords_right = coords[2:]\n    # 左侧按 y 从小到大（下到上），右侧按 y 从大到小（上到下）\n    coords_left.sort(key=lambda y: y[1])\n    coords_right.sort(key=lambda y: y[1], reverse=True)\n    # 合并\n    new_box = []\n    new_box += [list(x) for x in coords_left]\n    new_box += [list(x) for x in coords_right]\n    # 展平为一维列表\n    return [i for item in new_box for i in item]\n```","https:\u002F\u002Fgithub.com\u002FAstarLight\u002FLets_OCR\u002Fissues\u002F101",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},23948,"PyTorch 训练时报错 'RuntimeError: set_sizes_contiguous is not allowed on Tensor created from .data' 怎么办？","这是 PyTorch 版本兼容性问题（常见于 PyTorch 1.1.0+）。旧代码中使用 `.data` 直接修改 Tensor 大小在新版本中被禁止。解决方法是修改 `lib\u002Fdataset.py` 中的 `loadData` 函数，使用 `torch.no_grad()` 上下文管理器替代直接操作 `.data`：\n原代码：\n```python\nv.data.resize_(data.size()).copy_(data)\n```\n修改为：\n```python\nwith torch.no_grad():\n    v.resize_(data.size()).copy_(data)\n```","https:\u002F\u002Fgithub.com\u002FAstarLight\u002FLets_OCR\u002Fissues\u002F57",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},23949,"CTPN 推理结果中文本框的上下坐标（top\u002Fbottom）顺序似乎反了，这是为什么？","这通常是由于坐标系定义或计算逻辑导致的。在 CTPN 中，anchor 的高度计算假设 bottom > top。如果在推理代码中发现计算出的 y1, y2, y3, y4 顺序不符合预期（例如左上角 y 值大于左下角），可能是因为：\n1. 图像坐标系原点定义不同（有的库原点在左上，y 轴向下；有的数学定义原点在左下，y 轴向上）。\n2. 代码中 `b1` (top) 和 `b2` (bottom) 的计算逻辑与后续构建四边形顶点的顺序不匹配。\n建议检查 `infer.py` 中构建四边形的代码，确保 `y1, y2` 对应上方边缘，`y3, y4` 对应下方边缘。如果显示异常，可能需要交换 `b1` 和 `b2` 的赋值或调整顶点连接顺序。","https:\u002F\u002Fgithub.com\u002FAstarLight\u002FLets_OCR\u002Fissues\u002F60",[]]