[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ses4255--Versatile-OCR-Program":3,"tool-ses4255--Versatile-OCR-Program":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":80,"owner_twitter":80,"owner_website":80,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":96,"env_os":97,"env_gpu":98,"env_ram":97,"env_deps":99,"category_tags":106,"github_topics":107,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":118,"updated_at":119,"faqs":120,"releases":121},3028,"ses4255\u002FVersatile-OCR-Program","Versatile-OCR-Program","Multi-modal OCR pipeline optimized for ML training (text, figure, math, tables, diagrams)","Versatile-OCR-Program 是一款专为机器学习训练打造的多模态光学字符识别（OCR）系统。它不仅能精准提取文本，更能深度解析复杂的数学公式、表格、图表及科学示意图，特别适用于处理试卷、学术论文等排版密集的教育资料。\n\n传统 OCR 往往难以兼顾图文混合内容的结构化输出，而 Versatile-OCR-Program 有效解决了这一痛点。它能将视觉元素转化为带有语义标注的 JSON 或 Markdown 格式，自动为图片和公式生成自然的语言描述（例如解释几何图形的空间关系），从而直接生成高质量、机器可读的训练数据集。在真实学术场景测试中，其对多语言（英、日、韩）及复杂版面的识别准确率高达 90% 以上。\n\n该工具非常适合需要构建垂直领域 AI 模型的研究人员、开发者以及教育科技从业者使用。其核心技术亮点在于融合了 DocLayout-YOLO、Google Vision、Gemini Pro Vision 及 MathPix 等多种先进模型，实现了对复杂布局的精准拆解与上下文理解。此外，项目规划未来将推出具备“记忆”功能的可定制 AI 流水线，让用户无需深厚的算法背景也能","Versatile-OCR-Program 是一款专为机器学习训练打造的多模态光学字符识别（OCR）系统。它不仅能精准提取文本，更能深度解析复杂的数学公式、表格、图表及科学示意图，特别适用于处理试卷、学术论文等排版密集的教育资料。\n\n传统 OCR 往往难以兼顾图文混合内容的结构化输出，而 Versatile-OCR-Program 有效解决了这一痛点。它能将视觉元素转化为带有语义标注的 JSON 或 Markdown 格式，自动为图片和公式生成自然的语言描述（例如解释几何图形的空间关系），从而直接生成高质量、机器可读的训练数据集。在真实学术场景测试中，其对多语言（英、日、韩）及复杂版面的识别准确率高达 90% 以上。\n\n该工具非常适合需要构建垂直领域 AI 模型的研究人员、开发者以及教育科技从业者使用。其核心技术亮点在于融合了 DocLayout-YOLO、Google Vision、Gemini Pro Vision 及 MathPix 等多种先进模型，实现了对复杂布局的精准拆解与上下文理解。此外，项目规划未来将推出具备“记忆”功能的可定制 AI 流水线，让用户无需深厚的算法背景也能轻松构建专属的智能应用，目前虽因追求稳定性略有延期，但值得持续期待。","# OCR System Optimized for Machine Learning: Figures, Diagrams, Tables, Math & Multilingual Text\n---\n\n### 🚀 **COMING SOON: Next-Level AI Pipeline Integration**\n\n**This OCR project is just the beginning.**  \nIn less than **1 month**, a powerful new system will be released:\n\n> **A customizable AI pipeline with memory — tailored to *your* field.**\n\nWhether you're a **student**, **researcher**, or **developer**,  \nyou’ll be able to build your own smart, memory-enhanced AI —  \nwithout needing deep AI knowledge.\n\n### UPDATE: Release Slightly Delayed\n\nFirst of all, thank you so much for your interest in this project.\n\nI had originally planned to release the first version of the AI pipeline before June.  \nBut to be honest, I've been juggling a major academic commitment (a critical exam on June 15) and development at the same time — and it's been tougher than I expected.\n\nRather than rushing out something incomplete, I’ve decided to take a bit more time to ensure the release is genuinely useful, stable, and worth your time.\n\nThis whole system — including the multi-modal OCR — actually started as a tool to help with my own studies.  \nI didn't expect it to get this much attention, so thanks.  \nSince I'm the first user, I want to make sure it's something I’d actually want to use before releasing it.\n\nDevelopment will resume after the exam, and the public release will follow once the system is truly ready.  \nThanks again for your patience — I really appreciate it.\n\n---\n\n## Overview\n\nThis OCR system is specifically designed to extract structured data from complex educational materials—such as exam papers—in a format optimized for machine learning (ML) training.\nIt supports multilingual text, mathematical formulas, tables, diagrams, and charts, making it ideal for creating high-quality training datasets.\n\n## Key Features\n\n– Optimized for ML Training: Extracted elements such as diagrams, tables, and figures are semantically annotated with contextual explanations.\nThis includes automatic generation of natural language descriptions for visual content (e.g., “This figure shows the process of mitosis in four stages”) to enhance downstream model training.\n\n– Multilingual Support: Works with Japanese, Korean, and English, and can be easily customized for additional languages.\n\n– Structured Output: Generates AI-ready outputs in JSON or Markdown, including human-readable descriptions of mathematical expressions, table summaries, and figure captions.\n\n– High Accuracy: Achieves over 90–95% accuracy on real-world academic datasets such as EJU Biology and UTokyo Math.\n\n– Complex Layout Support: Accurately processes exam-style PDFs with dense scientific content, formula-heavy paragraphs, and rich visual elements.\n\n– Built With: DocLayout-YOLO, Google Vision API, Gemini Pro Vision, MathPix OCR, OpenAI API, OpenCV, and more.\n\n# Sample Outputs\n\nBelow are actual examples of outputs generated by this system using real-world materials (2017 EJU Biology & 2014 University of Tokyo Math), including English-translated semantic context and extracted data.\n\n**Math Input**\n![Math Original](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fses4255_Versatile-OCR-Program_readme_429836386a61.jpeg)\n**Output**\n![Math Converted](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fses4255_Versatile-OCR-Program_readme_764198a2990b.jpeg)\n\n**English-translated outputs**\n\nQuestion 1. Consider the rectangular prism OABC–DEFG with a square base of side length 1. Points P, Q, R are on the segments AE, BF, and CG, respectively, and four points O, P, Q, and R lie on the same plane. Let S be the area of quadrilateral OPQR. Also, let ∠AOP be α and ∠COR be β. (2) If α + β = 1 and S = S, find the value of tan α + tan β. Also, if α ≤ β, find the value of tan α. \n\n[Image Start] \n\nImage description:\nThis image shows the rectangular prism OAB–CDEFGQ. Each vertex is labeled with alphabets. The angle α is marked on face OAB. The plane ORPQ intersects the prism and is highlighted. Line RC lies on face ODCG, and line PB lies on face ABFQ. \n\nEducational value:\nThis image enhances spatial reasoning by visualizing 3D geometry and cross-sections. It helps learners understand concepts such as plane geometry, solid shapes, spatial visualization, and angles. \n\nRelated topics:\nSolid geometry, cross-sections, prism faces, triangle, spatial reasoning\n\nExam relevance:\nThis type of question appears in entrance exams like:\n1. Calculate the area of ORPQ using angle α\n2. Find the lengths of OR, RP, PQ, QO\n3. Determine the angle between ORPQ and the prism's face\n4. Locate points P, Q, R in coordinate space\n5. Calculate volume\u002Farea of the prism parts\n6. Predict shapes based on constraints\n7. Sketch the shape of the prism\n\n[Image End]\n\n**Biology Input**\n![Biology Original](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fses4255_Versatile-OCR-Program_readme_cec1d7a7b671.jpeg)\n**Output**\n![Biology Converted](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fses4255_Versatile-OCR-Program_readme_1ae61db72352.jpeg)\n\n**English-translated outputs**\n\nQuestion 39. The photo shows the mitotic cell division process (somatic cell division) of an onion root tip. Cells A–D are in different stages of division. Match the stages (prophase, metaphase, anaphase, telophase) to each cell and select the correct combination from options ①–⑧.\n\n[Image Start]\n\nImage description:\nThis image shows the process of plant cell division observed under a microscope. Various cells are in different mitotic phases, including chromosomes aligned at the center (metaphase), separating to poles (anaphase), or forming daughter nuclei (telophase). \n\nA – appears to be in anaphase  \nB – possibly telophase  \nC – prophase or prometaphase  \nD – metaphase\n\nEducational value:\nThis helps students visually understand the process of mitosis, reinforcing knowledge of cell division phases and their characteristics. It connects to biology concepts like DNA replication, cancer biology, and genetics.\n\nRelated topics:\nMitosis, Cell cycle, Prophase, Metaphase, Anaphase, Telophase, DNA replication\n\nExam relevance:\nThis image is used in questions such as:\n1. Match A, B, C, D to appropriate mitotic phases\n2. Describe characteristics of each phase\n3. Explain the significance of mitosis\n4. Discuss how errors in mitosis lead to genetic diseases\n\n[Image End]\n\n[Table Start]\n| 前期 | 中期 | 後期 |\n|------|------|------|\n| A    | C    | D    |\n| A    | D    | B    |\n| B    | C    | C    |\n| B    | D    | C    |\n| C    | A    | D    |\n| C    | D    | A    |\n| D    | A    | B    |\n| D    | C    | A    |\n\nSummary:\nEach option (①–⑧) corresponds to a specific mapping of A, B, C, D to prophase, metaphase, and anaphase.\n\nEducational value:\nUnderstanding time-based transition in mitosis and data organization in tables. Enhances data interpretation, pattern recognition, and analysis skills.\n\nRelated topics:\nData analysis, table interpretation, biological data classification\n\n[Table End]\n\n\n## Usage Workflow\n1.\tStep 1 – Initial OCR Extraction\nRun ocr_stage1.py to extract raw elements (text, tables, figures, etc.) from input PDFs.\nThis step performs layout detection and stores intermediate results (e.g., coordinates, cropped images, raw content).\n\t\n2.\tStep 2 – Semantic Interpretation & Final Output\nRun ocr_stage2.py to process the intermediate data and convert it into structured, human-readable output.\nThis includes generating natural-language explanations, summaries, and organizing content into AI-ready formats (JSON\u002FMarkdown).\n\n\n\n## Technical Implementation\n\n– Table Processing OptimizationTable regions are detected using DocLayout-YOLO\n\n– Google Vision OCR is used for table processing instead of MathPix for better accuracy with Japanese text\n\n– Table structures are preserved in structured JSON format (maintaining row\u002Fcolumn structure)\n\n– Y-coordinate information is maintained to ensure contextual continuity\n\n– Original layout information is preserved alongside structured data for ML training\n\n– Image and Special Region ProcessingImage regions are processed using Google Vision API's image analysis features (imageProperties, labelDetection, textDetection)\n\n– Image descriptions are generated using Google Cloud Vision API\n\n– Graphs\u002Fcharts are processed using Google Cloud Vision API's document analysis features with data point extraction\n\n– Special region processing results are stored in structured JSON format for ML training\n\n– Original coordinate information and region type metadata are added to maintain contextual continuity\n\n## Purpose and Contact\n\nThis OCR system is an open project, and I’d love to see others improve or build upon it. Continuous updates and community-driven enhancements are the goal.\n\nIf you’re interested in custom AI tools or would like to collaborate on an AI-related project, feel free to reach out via email:\n\n**Email**: [ses425500000@gmail.com](mailto:ses425500000@gmail.com)\n\n## License\n\nThis project is now licensed under the GNU Affero General Public License v3.0 (AGPL-3.0),  \nin compliance with the original license of the DocLayout-YOLO model used in this repository.\n\nPlease note that any derivative or deployed version (including as a web service)  \nmust also publicly share its complete source code.\n\nMore details: https:\u002F\u002Fwww.gnu.org\u002Flicenses\u002Fagpl-3.0.html\n\nSee the [LICENSE](.\u002FLICENSE) file for full terms.\n⸻\n_Note: The English translations in the examples were manually reformatted for clarity and consistency. Please treat them as reference only, as structure and layout may differ slightly from the original._\n_Keywords: OCR, exam OCR, table recognition, diagram OCR, AI education tools, OpenAI, Gemini Pro Vision, multilingual OCR, DocLayout-YOLO, Machine Learning, educational ML dataset, research OCR, paper OCR, document AI\n","# 面向机器学习优化的OCR系统：图表、表格、数学公式及多语言文本\n---\n\n### 🚀 **即将推出：下一代AI流水线集成**\n\n**这个OCR项目仅仅是个开始。**  \n不到**1个月**后，一个强大的新系统将发布：\n\n> **可定制的带记忆功能的AI流水线——专为*您的*领域量身打造。**\n\n无论您是**学生**、**研究人员**还是**开发者**，  \n您都可以构建属于自己的智能、具备记忆增强功能的AI——  \n而无需深厚的AI专业知识。\n\n### 更新：发布略有延迟\n\n首先，非常感谢您对该项目的关注。\n\n我原本计划在6月前发布第一版AI流水线。  \n但说实话，我一直在同时兼顾一项重要的学术任务（6月15日的关键考试）和开发工作——这比我预想的要困难得多。\n\n与其匆忙推出不完整的产品，我决定再花些时间，确保这次发布的系统真正实用、稳定，并且值得大家期待。\n\n整个系统——包括多模态OCR——最初其实是为帮助我自己的学习而开发的工具。  \n没想到会受到如此多的关注，真的非常感谢。  \n既然我是第一个用户，我希望在正式发布之前，先确保它确实是我自己也愿意使用的工具。\n\n考试结束后，开发工作将重新启动，待系统真正准备就当时，便会面向公众发布。  \n再次感谢您的耐心等待——我由衷地感激。\n\n---\n\n## 概述\n\n该OCR系统专门用于从复杂的教育材料（如试卷）中提取结构化数据，并以适合机器学习（ML）训练的格式输出。  \n它支持多语言文本、数学公式、表格、图表和示意图，非常适合用于创建高质量的训练数据集。\n\n## 主要特性\n\n– 针对机器学习训练优化：提取的图表、表格和示意图等元素均附有语义标注及上下文说明。  \n其中包括自动生成视觉内容的自然语言描述（例如：“该图展示了有丝分裂的四个阶段”），以提升下游模型的训练效果。\n\n– 多语言支持：支持日语、韩语和英语，并可轻松扩展至其他语言。\n\n– 结构化输出：生成适用于AI的JSON或Markdown格式输出，包含数学表达式的可读性描述、表格摘要以及图表说明。\n\n– 高精度：在EJU生物和东京大学数学等真实学术数据集上，准确率可达90%–95%以上。\n\n– 复杂版面处理能力：能够准确处理含有密集科学内容、大量公式和丰富视觉元素的考试型PDF文件。\n\n– 使用技术：DocLayout-YOLO、Google Vision API、Gemini Pro Vision、MathPix OCR、OpenAI API、OpenCV等。\n\n# 示例输出\n\n以下是使用真实材料（2017年EJU生物和2014年东京大学数学）生成的实际输出示例，包括英文翻译的语义上下文和提取的数据。\n\n**数学输入**\n![数学原图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fses4255_Versatile-OCR-Program_readme_429836386a61.jpeg)\n**输出**\n![数学转换后](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fses4255_Versatile-OCR-Program_readme_764198a2990b.jpeg)\n\n**英文翻译输出**\n\n第1题：考虑底面为边长1的正方形的长方体OABC–DEFG。点P、Q、R分别位于线段AE、BF和CG上，且四点O、P、Q、R共面。设四边形OPQR的面积为S。又设∠AOP为α，∠COR为β。（2）若α + β = 1且S = S，求tan α + tan β的值；若α ≤ β，则求tan α的值。\n\n[图片开始]\n\n图片说明：\n此图显示了长方体OAB–CDEFGQ。每个顶点都标有字母。角α标记在面OAB上。平面ORPQ与长方体相交并被高亮显示。线RC位于面ODCG上，线PB位于面ABFQ上。\n\n教育价值：\n这张图通过可视化三维几何和截面，增强了空间推理能力。它有助于学习者理解平面几何、立体图形、空间可视化和角度等相关概念。\n\n相关主题：\n立体几何、截面、长方体各面、三角形、空间推理\n\n考试相关性：\n这类题目常见于入学考试中，例如：\n1. 利用角α计算ORPQ的面积\n2. 求OR、RP、PQ、QO的长度\n3. 确定ORPQ与长方体各面之间的夹角\n4. 在坐标空间中确定P、Q、R的位置\n5. 计算长方体各部分的体积或面积\n6. 根据约束条件预测形状\n7. 绘制长方体的形状\n\n[图片结束]\n\n**生物输入**\n![生物原图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fses4255_Versatile-OCR-Program_readme_cec1d7a7b671.jpeg)\n**输出**\n![生物转换后](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fses4255_Versatile-OCR-Program_readme_1ae61db72352.jpeg)\n\n**英文翻译输出**\n\n第39题：照片展示了洋葱根尖的有丝分裂过程（体细胞分裂）。细胞A–D处于不同的分裂阶段。请将各个阶段（前期、中期、后期、末期）与每种细胞对应起来，并从选项①–⑧中选出正确组合。\n\n[图片开始]\n\n图片说明：\n这张图是在显微镜下观察到的植物细胞分裂过程。不同细胞处于不同的有丝分裂阶段，包括染色体排列在中央（中期）、向两极分离（后期）或形成子核（末期）。\n\nA – 似乎处于后期  \nB – 可能处于末期  \nC – 前期或前中期  \nD – 中期\n\n教育价值：\n这有助于学生直观地理解有丝分裂的过程，强化对细胞分裂各阶段及其特征的认识。它与DNA复制、癌症生物学和遗传学等生物学概念密切相关。\n\n相关主题：\n有丝分裂、细胞周期、前期、中期、后期、DNA复制\n\n考试相关性：\n这张图常用于以下问题：\n1. 将A、B、C、D与相应的有丝分裂阶段匹配\n2. 描述各阶段的特征\n3. 解释有丝分裂的重要性\n4. 讨论有丝分裂错误如何导致遗传疾病\n\n[图片结束]\n\n[表格开始]\n| 前期 | 中期 | 后期 |\n|------|------|------|\n| A    | C    | D    |\n| A    | D    | B    |\n| B    | C    | C    |\n| B    | D    | C    |\n| C    | A    | D    |\n| C    | D    | A    |\n| D    | A    | B    |\n| D    | C    | A    |\n\n总结：\n每个选项（①–⑧）都对应着A、B、C、D与前期、中期和后期的不同映射关系。\n\n教育价值：\n理解有丝分裂的时间顺序变化以及表格中的数据组织方式。有助于提升数据解读、模式识别和分析能力。\n\n相关主题：\n数据分析、表格解读、生物数据分类\n\n[表格结束]\n\n## 使用流程\n1. 第一步 – 初步 OCR 提取  \n   运行 ocr_stage1.py，从输入的 PDF 文件中提取原始元素（文本、表格、图表等）。  \n   此步骤会进行版面检测，并存储中间结果（例如坐标、裁剪后的图像、原始内容）。\n\n2. 第二步 – 语义解析与最终输出  \n   运行 ocr_stage2.py，处理中间数据并将其转换为结构化、易于理解的输出。  \n   包括生成自然语言解释、摘要，并将内容整理成适合 AI 处理的格式（JSON\u002FMarkdown）。\n\n\n\n## 技术实现\n\n– 表格处理优化：  \n   使用 DocLayout-YOLO 检测表格区域。  \n\n– 在表格处理中采用 Google Vision OCR，而非 MathPix，以提升日文文本的识别准确率。  \n\n– 表格结构以结构化的 JSON 格式保留（保持行和列的结构）。  \n\n– 维护 Y 轴坐标信息，确保上下文连续性。  \n\n– 原始版面信息与结构化数据一同保存，用于机器学习训练。  \n\n– 图像及特殊区域处理：  \n   图像区域使用 Google Vision API 的图像分析功能（imageProperties、labelDetection、textDetection）进行处理。  \n\n– 利用 Google Cloud Vision API 生成图像描述。  \n\n– 对图表使用 Google Cloud Vision API 的文档分析功能，提取数据点。  \n\n– 特殊区域的处理结果以结构化的 JSON 格式存储，供机器学习训练使用。  \n\n– 添加原始坐标信息和区域类型元数据，以保持上下文连续性。  \n\n## 项目目的与联系方式\n\n本 OCR 系统是一个开源项目，我们非常欢迎其他人对其进行改进或在此基础上进一步开发。持续更新和社区驱动的优化是我们追求的目标。\n\n如果您对定制化 AI 工具感兴趣，或希望在 AI 相关项目上开展合作，请随时通过电子邮件与我们联系：\n\n**邮箱**: [ses425500000@gmail.com](mailto:ses425500000@gmail.com)\n\n## 许可协议\n\n本项目现采用 GNU Affero 通用公共许可证 v3.0（AGPL-3.0）进行授权，  \n该许可符合本仓库所使用的 DocLayout-YOLO 模型的原始许可要求。\n\n请注意，任何衍生版本或部署版本（包括作为 Web 服务提供）  \n都必须公开其完整的源代码。\n\n更多详情请参阅：https:\u002F\u002Fwww.gnu.org\u002Flicenses\u002Fagpl-3.0.html\n\n完整条款请查看 [LICENSE](.\u002FLICENSE) 文件。\n⸻\n_注：示例中的英文翻译已手动重新排版，以提高清晰度和一致性。请仅将其作为参考，实际结构和布局可能与原文略有不同。_\n_关键词：OCR，考试 OCR，表格识别，图表 OCR，AI 教育工具，OpenAI，Gemini Pro Vision，多语言 OCR，DocLayout-YOLO，机器学习，教育 ML 数据集，研究 OCR，论文 OCR，文档 AI_","# Versatile-OCR-Program 快速上手指南\n\nVersatile-OCR-Program 是一款专为机器学习训练优化的 OCR 系统，擅长从复杂的学术材料（如试卷、论文）中提取结构化数据。它支持多语言（中\u002F日\u002F韩\u002F英）、数学公式、表格及图表，并能自动生成带有语义解释的自然语言描述，输出格式为 JSON 或 Markdown。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux (推荐 Ubuntu 20.04+) 或 macOS。Windows 用户建议使用 WSL2。\n*   **Python 版本**：Python 3.8 或更高版本。\n*   **GPU 支持**（可选但推荐）：若需加速布局检测（DocLayout-YOLO），建议配备 NVIDIA GPU 并安装对应的 CUDA 驱动。\n*   **API 密钥**：本项目依赖多个外部 API，使用前需准备好以下密钥：\n    *   Google Cloud Vision API Key\n    *   OpenAI API Key (用于 GPT 系列模型)\n    *   Google Gemini Pro Vision API Key\n    *   MathPix API Key (可选，主要用于非日文表格)\n\n### 前置依赖安装\n\n建议创建独立的虚拟环境以避免依赖冲突：\n\n```bash\npython -m venv venv\nsource venv\u002Fbin\u002Factivate  # Windows 用户使用: venv\\Scripts\\activate\n```\n\n安装基础依赖（假设项目根目录下有 `requirements.txt`）：\n\n```bash\npip install -r requirements.txt\n```\n\n> **国内加速提示**：如果遇到下载缓慢问题，推荐使用清华或阿里镜像源：\n> ```bash\n> pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002F[作者用户名]\u002FVersatile-OCR-Program.git\n    cd Versatile-OCR-Program\n    ```\n\n2.  **配置 API 密钥**\n    在项目根目录下创建 `.env` 文件（或根据项目实际配置方式修改 `config.py`），填入您的 API 密钥：\n    ```bash\n    export GOOGLE_APPLICATION_CREDENTIALS=\"path\u002Fto\u002Fyour\u002Fgoogle-key.json\"\n    export OPENAI_API_KEY=\"your-openai-key\"\n    export GEMINI_API_KEY=\"your-gemini-key\"\n    # 其他所需密钥...\n    ```\n\n3.  **验证安装**\n    确保所有依赖包已正确安装，且环境变量已生效。\n\n## 基本使用\n\n该工具的工作流分为两个阶段：**原始提取** 和 **语义解析**。\n\n### 第一步：初始 OCR 提取\n运行 `ocr_stage1.py` 从输入 PDF 中提取原始元素（文本、表格、图片等）。此步骤会执行布局检测并保存中间结果（坐标、裁剪图像、原始内容）。\n\n```bash\npython ocr_stage1.py --input_path .\u002Fsample_inputs\u002Fexam_paper.pdf --output_dir .\u002Fintermediate_results\n```\n\n*   `--input_path`: 输入 PDF 文件的路径。\n*   `--output_dir`: 存储中间处理结果的目录。\n\n### 第二步：语义解释与最终输出\n运行 `ocr_stage2.py` 处理上一步生成的中间数据，将其转换为包含自然语言解释、摘要的结构化输出（JSON\u002FMarkdown），使其适合 AI 模型训练。\n\n```bash\npython ocr_stage2.py --input_dir .\u002Fintermediate_results --output_file .\u002Ffinal_output\u002Fresult.json\n```\n\n*   `--input_dir`: 指向第一步生成的中间结果目录。\n*   `--output_file`: 最终生成的结构化数据文件路径。\n\n### 查看结果\n执行完成后，您可以在指定的输出文件中查看包含以下内容的结构化数据：\n*   **数学公式**：LaTeX 格式及自然语言描述。\n*   **图表\u002F图片**：自动生成的详细场景描述（如“此图展示了有丝分裂的四个阶段”）及教育价值分析。\n*   **表格**：保留行列结构的 JSON 数据及内容摘要。\n*   **多语言文本**：高精度的识别结果及上下文关联。\n\n---\n*注：本项目基于 AGPL-3.0 协议开源。如果您将修改后的版本部署为网络服务，必须公开完整的源代码。*","某教育科技公司的算法工程师正在构建一个专攻理科题目的多模态大模型，急需将海量的纸质试卷和教材转化为机器可训练的高质量数据。\n\n### 没有 Versatile-OCR-Program 时\n- **复杂内容识别困难**：传统 OCR 无法准确提取数学公式、几何图形和化学结构图，导致大量包含关键逻辑的视觉信息丢失或变成乱码。\n- **缺乏语义关联**：提取出的图片仅是二进制文件，缺少对图表含义的自然语言描述（如“此图展示了有丝分裂的四个阶段”），模型难以理解图文之间的逻辑关系。\n- **数据清洗成本极高**：工程师需人工编写脚本或雇佣团队手动标注多语言文本和表格结构，将非结构化 PDF 转为 JSON\u002FMarkdown 格式耗时数周。\n- **布局解析混乱**：面对排版密集的试卷，普通工具常错乱段落顺序，混淆题目与选项，导致训练数据噪声过大，严重影响模型收敛效果。\n\n### 使用 Versatile-OCR-Program 后\n- **全要素高精度提取**：Versatile-OCR-Program 能精准识别并分离公式、图表及多语言文本，对东大数学卷等复杂学术资料的识别准确率高达 95% 以上。\n- **自动生成语义注解**：工具自动为每张插图生成详细的英文场景描述和教育价值分析，直接赋予视觉数据语义上下文，大幅提升模型推理能力。\n- **一键输出训练格式**：直接生成带有结构化摘要的 JSON 或 Markdown 文件，无需额外清洗即可投入微调流程，将数据准备周期从数周缩短至数小时。\n- **完美还原复杂版面**：基于 DocLayout-YOLO 等技术，精准还原创考卷的密集排版逻辑，确保题目、条件与选项的对应关系零误差。\n\nVersatile-OCR-Program 通过将非结构化的复杂学术资料瞬间转化为富含语义的机器可读数据，彻底解决了多模态教育大模型训练中“数据荒”的核心瓶颈。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fraphael-seo_Versatile-OCR-Program_65e27a8e.png","raphael-seo","Raphael Seo","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fraphael-seo_facbbffd.jpg","What I truly need often turns out to help others too.\r\n\r\nraphael.es.seo@gmail.com",null,"Seoul","https:\u002F\u002Fgithub.com\u002Fraphael-seo",[84,88],{"name":85,"color":86,"percentage":87},"Python","#3572A5",96,{"name":89,"color":90,"percentage":91},"Dockerfile","#384d54",4,682,49,"2026-04-02T07:02:46","NOASSERTION",5,"未说明","未说明 (依赖 Google Vision API, Gemini Pro Vision, MathPix OCR, OpenAI API 等云端服务，本地主要运行 DocLayout-YOLO 和 OpenCV，具体 GPU 需求取决于本地模型部署情况)",{"notes":100,"python":97,"dependencies":101},"该项目严重依赖多个外部商业 API（Google Vision, Gemini, MathPix, OpenAI），使用前需配置相应的 API 密钥并可能产生费用。项目采用两阶段处理流程：第一阶段使用 DocLayout-YOLO 进行布局检测和元素提取，第二阶段调用多模态大模型生成语义描述。许可证为 AGPL-3.0，若部署为网络服务需公开源代码。README 中未提供具体的本地安装脚本或详细的硬件最低配置，仅提及使用了上述开源库和云服务。",[102,103,104,105],"DocLayout-YOLO","opencv-python","google-cloud-vision","未说明 (其他依赖涉及付费 API: Gemini Pro Vision, MathPix OCR, OpenAI API)",[51,14,13],[108,109,110,111,112,113,114,115,116,117],"educational-data","machine-learning","ml-datasets","multi-modal","ocr","openai","table-parsing","doclayout","exam-ocr","paper-ocr","2026-03-27T02:49:30.150509","2026-04-06T05:16:44.043150",[],[]]