[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-NanoNets--docext":3,"tool-NanoNets--docext":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":96,"forks":97,"last_commit_at":98,"license":99,"difficulty_score":10,"env_os":100,"env_gpu":101,"env_ram":102,"env_deps":103,"category_tags":106,"github_topics":107,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":128,"updated_at":129,"faqs":130,"releases":161},3885,"NanoNets\u002Fdocext","docext","An on-premises, OCR-free unstructured data extraction, markdown conversion and benchmarking toolkit. (https:\u002F\u002Fidp-leaderboard.org\u002F)","docext 是一款专为本地部署设计的文档智能处理工具，旨在无需传统 OCR 技术即可高效提取非结构化数据并转换为 Markdown 格式。它主要解决了复杂文档（如发票、护照、含公式的论文）中信息提取难、格式转换丢失语义以及隐私数据无法上云处理的痛点。\n\n该工具特别适合开发者、数据科学家及需要处理敏感文档的企业用户。无论是希望将 PDF 批量转为结构化 Markdown 的工程师，还是致力于评估视觉语言模型性能的研究人员，都能从中受益。docext 基于先进的视觉语言模型（VLM），具备多项独特技术亮点：它能精准识别并转换 LaTeX 数学公式，自动检测并标记签名、水印和页码，甚至能将复杂的表格还原为 HTML，同时智能描述图片内容。此外，它还集成了智能文档处理排行榜，帮助用户横向对比不同模型在关键信息提取、文档分类等任务上的表现。通过提供开箱即用的本地化方案，docext 让高质量的文档解析变得简单、安全且可控。","\u003Ch1 align=\"center\">docext\u003C\u002Fh1>\n\n\n\u003Cp align=\"center\">\u003Cem>An on-premises document information extraction and benchmarking toolkit.\u003C\u002Fem>\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fpepy.tech\u002Fprojects\u002Fdocext\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNanoNets_docext_readme_0a351f725a09.png\" alt=\"PyPI Downloads\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicenses\u002FApache-2.0\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache_2.0-blue.svg\" alt=\"License\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1r1asxGeezfWnJvw8jimfFAB2sGjk1HdM?usp=sharing\">\n    \u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002Fdocext\u002F\">\n    \u003Cimg alt=\"PyPI - Version\" src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fdocext\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003C!-- ![Demo Docext](https:\u002F\u002Fraw.githubusercontent.com\u002FNanoNets\u002Fdocext\u002Fmain\u002Fassets\u002Fpdf2markdown.jpg) -->\n![Demo Docext](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNanoNets_docext_readme_dcc67e31ee6d.png)\n\n\n## New Model Release: Nanonets-OCR-s\n\n**We're excited to announce the release of Nanonets-OCR-s, a compact 3B parameter model specifically trained for efficient image to markdown conversion with semantic understanding for images, signatures, watermarks, etc.!**\n\n  📢 [Read the full announcement](https:\u002F\u002Fnanonets.com\u002Fresearch\u002Fnanonets-ocr-s) | 🤗 [Hugging Face model](https:\u002F\u002Fhuggingface.co\u002Fnanonets\u002FNanonets-OCR-s)\n\n## Overview\n\ndocext is a comprehensive on-premises document intelligence toolkit powered by vision-language models (VLMs). It provides three core capabilities:\n\n**📄 PDF & Image to Markdown Conversion**: Transform documents into structured markdown with intelligent content recognition, including LaTeX equations, signatures, watermarks, tables, and semantic tagging.\n\n**🔍 Document Information Extraction**: OCR-free extraction of structured information (fields, tables, etc.) from documents such as invoices, passports, and other document types, with confidence scoring.\n\n**📊 Intelligent Document Processing Leaderboard**: A comprehensive benchmarking platform that tracks and evaluates vision-language model performance across OCR, Key Information Extraction (KIE), document classification, table extraction, and other intelligent document processing tasks.\n\n\n## Features\n### PDF and Image to Markdown\nConvert both PDF and images to markdown with content recognition and semantic tagging.\n- **LaTeX Equation Recognition**: Convert both inline and block LaTeX equations in images to markdown.\n- **Intelligent Image Description**: Generate a detailed description for all images in the document within `\u003Cimg>\u003C\u002Fimg>` tags.\n- **Signature Detection**: Detect and mark signatures and watermarks in the document. Signatures text are extracted within `\u003Csignature>\u003C\u002Fsignature>` tags.\n- **Watermark Detection**: Detect and mark watermarks in the document. Watermarks text are extracted within `\u003Cwatermark>\u003C\u002Fwatermark>` tags.\n- **Page Number Detection**: Detect and mark page numbers in the document. Page numbers are extracted within `\u003Cpage_number>\u003C\u002Fpage_number>` tags.\n- **Checkboxes and Radio Buttons**: Converts form checkboxes and radio buttons into standardized Unicode symbols (☐, ☑, ☒).\n- **Table Detection**: Convert complex tables into html tables.\n\n🔍 For in-depth information, see the [release blog](https:\u002F\u002Fnanonets.com\u002Fresearch\u002Fnanonets-ocr-s\u002F).\n\nFor setup instructions and additional details, check out the full feature guide for the [pdf to markdown](https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fblob\u002Fmain\u002FPDF2MD_README.md).\n\n### Intelligent Document Processing Leaderboard\nThis benchmark evaluates performance across seven key document intelligence challenges:\n\n- **Key Information Extraction (KIE)**: Extract structured fields from unstructured document text.\n- **Visual Question Answering (VQA)**: Assess understanding of document content via question-answering.\n- **Optical Character Recognition (OCR)**: Measure accuracy in recognizing printed and handwritten text.\n- **Document Classification**: Evaluate how accurately models categorize various document types.\n- **Long Document Processing**: Test models' reasoning over lengthy, context-rich documents.\n- **Table Extraction**: Benchmark structured data extraction from complex tabular formats.\n- **Confidence Score Calibration**: Evaluate the reliability and confidence of model predictions.\n\n🔍 For in-depth information, see the [release blog](https:\u002F\u002Fidp-leaderboard.org\u002Fdetails\u002F).\n\n📊 **Live leaderboard:** [https:\u002F\u002Fidp-leaderboard.org](https:\u002F\u002Fidp-leaderboard.org)\n\nFor setup instructions and additional details, check out the full feature guide for the [Intelligent Document Processing Leaderboard](https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Ftree\u002Fmain\u002Fdocext\u002Fbenchmark).\n\n### Docext\n- **Flexible extraction**: Define custom fields or use pre-built templates\n- **Table extraction**: Extract structured tabular data from documents\n- **Confidence scoring**: Get confidence levels for extracted information\n- **On-premises deployment**: Run entirely on your own infrastructure (Linux, MacOS)\n- **Multi-page support**: Process documents with multiple pages\n- **REST API**: Programmatic access for integration with your applications\n- **Pre-built templates**: Ready-to-use templates for common document types:\n  - Invoices\n  - Passports\n  - Add\u002Fdelete new fields\u002Fcolumns for other templates.\n\nFor more details (Installation, Usage, and so on), please check out the [feature guide](https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fblob\u002Fmain\u002FEXT_README.md).\n\n## Change Log\n\n### Latest Updates\n- **12-06-2025** - Added pdf and image to markdown support.\n- **06-06-2025** - Added `gemini-2.5-pro-preview-06-05` evaluation metrics to the leaderboard.\n- **04-06-2025** - Added support for PDF and multiple documents in `docext` extraction.\n\n\u003Cdetails>\n\u003Csummary>Older Changes\u003C\u002Fsummary>\n\n- **23-05-2025** – Added `gemini-2.5-pro-preview-03-25`, `claude-sonnet-4` evaluation metrics to the leaderboard.\n- **17-05-2025** – Added `InternVL3-38B-Instruct`, `qwen2.5-vl-32b-instruct` evaluation metrics to the leaderboard.\n- **16-05-2025** – Added `gemma-3-27b-it` evaluation metrics to the leaderboard.\n- **12-05-2025** – Added `Claude 3.7 sonnet`, `mistral-medium-3` evaluation metrics to the leaderboard.\n\u003C\u002Fdetails>\n\n## About\n\ndocext is developed by [Nanonets](https:\u002F\u002Fnanonets.com\u002Fdocument-parsing-and-extraction), a leader in document AI and intelligent document processing solutions. Nanonets is committed to advancing the field of document understanding through open-source contributions and innovative AI technologies. If you are looking for information extraction solutions for your business, please visit [our website](https:\u002F\u002Fnanonets.com\u002Fdocument-parsing-and-extraction) to learn more.\n\n## Contributing\n\nWe welcome contributions! Please see [contribution.md](https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fblob\u002Fmain\u002Fcontribution.md) for guidelines.\nIf you have a feature request or need support for a new model, feel free to open an issue—we'd love to discuss it further!\n\n## Troubleshooting\n\nIf you encounter any issues while using `docext`, please refer to our [Troubleshooting guide](https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fblob\u002Fmain\u002FTroubleshooting.md) for common problems and solutions.\n\n\n## License\n\nThis project is licensed under the Apache License 2.0 - see the LICENSE file for details.\n","\u003Ch1 align=\"center\">docext\u003C\u002Fh1>\n\n\n\u003Cp align=\"center\">\u003Cem>一款本地部署的文档信息提取与基准测试工具包。\u003C\u002Fem>\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fpepy.tech\u002Fprojects\u002Fdocext\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNanoNets_docext_readme_0a351f725a09.png\" alt=\"PyPI 下载量\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicenses\u002FApache-2.0\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache_2.0-blue.svg\" alt=\"许可证\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1r1asxGeezfWnJvw8jimfFAB2sGjk1HdM?usp=sharing\">\n    \u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"在 Colab 中打开\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002Fdocext\u002F\">\n    \u003Cimg alt=\"PyPI - 版本\" src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fdocext\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003C!-- ![Demo Docext](https:\u002F\u002Fraw.githubusercontent.com\u002FNanoNets\u002Fdocext\u002Fmain\u002Fassets\u002Fpdf2markdown.jpg) -->\n![Demo Docext](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNanoNets_docext_readme_dcc67e31ee6d.png)\n\n\n## 新模型发布：Nanonets-OCR-s\n\n**我们很高兴地宣布推出 Nanonets-OCR-s，这是一款专为高效图像转 Markdown 而训练的紧凑型 3B 参数模型，具备对图像、签名、水印等内容的语义理解能力！**\n\n  📢 [阅读完整公告](https:\u002F\u002Fnanonets.com\u002Fresearch\u002Fnanonets-ocr-s) | 🤗 [Hugging Face 模型](https:\u002F\u002Fhuggingface.co\u002Fnanonets\u002FNanonets-OCR-s)\n\n## 概述\n\ndocext 是一个由视觉语言模型（VLM）驱动的综合性本地文档智能工具包。它提供三大核心功能：\n\n**📄 PDF 和图像转 Markdown**：将文档转换为结构化 Markdown 格式，具备智能内容识别能力，包括 LaTeX 公式、签名、水印、表格以及语义标记。\n\n**🔍 文档信息提取**：无需 OCR 即可从发票、护照等各类文档中提取结构化信息（字段、表格等），并提供置信度评分。\n\n**📊 智能文档处理排行榜**：一个全面的基准测试平台，用于跟踪和评估视觉语言模型在 OCR、关键信息提取（KIE）、文档分类、表格提取等智能文档处理任务中的表现。\n\n\n## 功能\n### PDF 和图像转 Markdown\n支持将 PDF 和图像转换为带有内容识别和语义标记的 Markdown。\n- **LaTeX 公式识别**：将图像中的行内和块级 LaTeX 公式转换为 Markdown。\n- **智能图像描述**：为文档中的所有图像生成详细描述，并将其嵌入 `\u003Cimg>\u003C\u002Fimg>` 标签中。\n- **签名检测**：检测并标记文档中的签名和水印。签名文本会被提取到 `\u003Csignature>\u003C\u002Fsignature>` 标签中。\n- **水印检测**：检测并标记文档中的水印。水印文本会被提取到 `\u003Cwatermark>\u003C\u002Fwatermark>` 标签中。\n- **页码检测**：检测并标记文档中的页码。页码会被提取到 `\u003Cpage_number>\u003C\u002Fpage_number>` 标签中。\n- **复选框和单选按钮**：将表单中的复选框和单选按钮转换为标准化的 Unicode 符号（☐、☑、☒）。\n- **表格检测**：将复杂表格转换为 HTML 表格。\n\n🔍 更多详细信息，请参阅[发布博客](https:\u002F\u002Fnanonets.com\u002Fresearch\u002Fnanonets-ocr-s\u002F)。\n\n有关设置说明和其他细节，请查看完整的[PDF 转 Markdown](https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fblob\u002Fmain\u002FPDF2MD_README.md)功能指南。\n\n### 智能文档处理排行榜\n该基准测试评估了七大关键文档智能挑战的表现：\n\n- **关键信息提取（KIE）**：从非结构化文档文本中提取结构化字段。\n- **视觉问答（VQA）**：通过问答方式评估对文档内容的理解能力。\n- **光学字符识别（OCR）**：衡量对印刷体和手写文字的识别准确度。\n- **文档分类**：评估模型对各类文档类型的准确分类能力。\n- **长文档处理**：测试模型对冗长且上下文丰富的文档的推理能力。\n- **表格提取**：对比模型从复杂表格格式中提取结构化数据的能力。\n- **置信度校准**：评估模型预测结果的可靠性和置信度。\n\n🔍 更多详细信息，请参阅[发布博客](https:\u002F\u002Fidp-leaderboard.org\u002Fdetails\u002F)。\n\n📊 **实时排行榜：** [https:\u002F\u002Fidp-leaderboard.org](https:\u002F\u002Fidp-leaderboard.org)\n\n有关设置说明和其他细节，请查看完整的[智能文档处理排行榜](https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Ftree\u002Fmain\u002Fdocext\u002Fbenchmark)功能指南。\n\n### Docext\n- **灵活提取**：可自定义字段或使用预建模板\n- **表格提取**：从文档中提取结构化表格数据\n- **置信度评分**：获取提取信息的置信度水平\n- **本地部署**：完全在您自己的基础设施上运行（Linux、MacOS）\n- **多页支持**：可处理多页文档\n- **REST API**：提供程序化接口，便于与您的应用程序集成\n- **预建模板**：适用于常见文档类型的即用型模板：\n  - 发票\n  - 护照\n  - 可为其他模板添加或删除字段\u002F列。\n\n更多详情（安装、使用等），请参阅[功能指南](https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fblob\u002Fmain\u002FEXT_README.md)。\n\n## 更新日志\n\n### 最新更新\n- **2025年6月12日** - 增加了 PDF 和图像转 Markdown 的支持。\n- **2025年6月6日** - 在排行榜中新增了 `gemini-2.5-pro-preview-06-05` 的评估指标。\n- **2025年6月4日** - 在 `docext` 提取功能中增加了对 PDF 和多文档的支持。\n\n\u003Cdetails>\n\u003Csummary>旧版变更\u003C\u002Fsummary>\n\n- **2025年5月23日** – 在排行榜中新增了 `gemini-2.5-pro-preview-03-25` 和 `claude-sonnet-4` 的评估指标。\n- **2025年5月17日** – 在排行榜中新增了 `InternVL3-38B-Instruct` 和 `qwen2.5-vl-32b-instruct` 的评估指标。\n- **2025年5月16日** – 在排行榜中新增了 `gemma-3-27b-it` 的评估指标。\n- **2025年5月12日** – 在排行榜中新增了 `Claude 3.7 sonnet` 和 `mistral-medium-3` 的评估指标。\n\u003C\u002Fdetails>\n\n## 关于我们\n\ndocext 由 [Nanonets](https:\u002F\u002Fnanonets.com\u002Fdocument-parsing-and-extraction) 开发，Nanonets 是文档 AI 和智能文档处理解决方案领域的领导者。Nanonets 致力于通过开源贡献和创新的 AI 技术推动文档理解领域的发展。如果您正在为您的企业寻找信息提取解决方案，请访问我们的[官网](https:\u002F\u002Fnanonets.com\u002Fdocument-parsing-and-extraction)，了解更多详情。\n\n## 贡献\n\n我们欢迎各位的贡献！请参阅[contribution.md](https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fblob\u002Fmain\u002Fcontribution.md)以获取相关指南。如果您有功能请求或需要支持新的模型，请随时提交问题——我们非常乐意进一步讨论！\n\n## 故障排除\n\n如果您在使用 `docext` 时遇到任何问题，请参阅我们的[故障排除指南](https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fblob\u002Fmain\u002FTroubleshooting.md)，其中列出了常见问题及解决方案。\n\n\n## 许可证\n\n本项目采用 Apache License 2.0 许可证授权——详情请参阅 LICENSE 文件。","# docext 快速上手指南\n\ndocext 是一个本地部署的文档智能工具包，基于视觉语言模型（VLM），支持将 PDF\u002F图片转换为 Markdown、提取结构化信息以及评估文档处理模型性能。\n\n## 环境准备\n\n**系统要求：**\n- 操作系统：Linux 或 macOS\n- Python 版本：3.8 及以上\n\n**前置依赖：**\n- 确保已安装 `pip` 和 `git`\n- 若需使用 GPU 加速，请预先安装对应的 CUDA 驱动及 PyTorch GPU 版本\n\n## 安装步骤\n\n通过 PyPI 直接安装最新稳定版：\n\n```bash\npip install docext\n```\n\n如需从源码安装（获取最新功能）：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext.git\ncd docext\npip install -e .\n```\n\n> 💡 **国内加速建议**：如遇下载缓慢，可使用清华或阿里云镜像源：\n> ```bash\n> pip install docext -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 基本使用\n\n### 1. PDF\u002F图片转 Markdown\n\n将单个 PDF 或图片文件转换为包含语义标签（如公式、签名、表格等）的 Markdown：\n\n```python\nfrom docext import pdf_to_markdown\n\nmarkdown_content = pdf_to_markdown(\"example.pdf\")\nprint(markdown_content)\n```\n\n支持图片输入：\n\n```python\nfrom docext import image_to_markdown\n\nmarkdown_content = image_to_markdown(\"invoice.jpg\")\nprint(markdown_content)\n```\n\n### 2. 结构化信息提取\n\n使用内置模板（如发票、护照）提取关键字段：\n\n```python\nfrom docext import extract_info\n\nresult = extract_info(\n    document_path=\"invoice.pdf\",\n    template=\"invoice\"  # 可选：\"passport\", \"custom\"\n)\n\nprint(result[\"fields\"])        # 提取的字段\nprint(result[\"confidence\"])    # 置信度评分\n```\n\n自定义字段提取：\n\n```python\ncustom_schema = {\n    \"vendor_name\": {\"type\": \"text\"},\n    \"total_amount\": {\"type\": \"currency\"},\n    \"issue_date\": {\"type\": \"date\"}\n}\n\nresult = extract_info(\n    document_path=\"custom_doc.pdf\",\n    schema=custom_schema\n)\n```\n\n### 3. 启动本地 REST API（可选）\n\n以服务模式运行，供其他应用调用：\n\n```bash\ndocext serve --host 0.0.0.0 --port 8000\n```\n\n访问 `http:\u002F\u002Flocalhost:8000\u002Fdocs` 查看 Swagger API 文档。\n\n---\n\n更多高级用法（如多页处理、表格导出、基准测试等），请参考官方功能指南：\n- [PDF 转 Markdown 详解](https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fblob\u002Fmain\u002FPDF2MD_README.md)\n- [信息提取指南](https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fblob\u002Fmain\u002FEXT_README.md)\n- [基准测试平台](https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Ftree\u002Fmain\u002Fdocext\u002Fbenchmark)","某金融科技公司风控团队需每日处理数千份扫描版发票与合同，从中提取关键字段并归档为结构化数据以支持自动化审计。\n\n### 没有 docext 时\n- 依赖传统 OCR 引擎，面对手写签名、倾斜文本或复杂表格时识别率极低，需人工二次校对，耗时费力。\n- 无法区分文档中的水印干扰与真实内容，导致提取的数据包含大量噪声，影响下游分析准确性。\n- 数学公式和特殊符号（如复选框）被识别为乱码，必须手动重写，严重阻碍了非文本内容的数字化进程。\n- 缺乏统一的评估标准，团队难以判断不同模型在特定票据类型上的表现优劣，选型全靠试错。\n- 敏感财务数据必须上传至云端处理，存在合规风险，且网络延迟导致批量处理效率低下。\n\n### 使用 docext 后\n- 利用其免 OCR 的视觉语言模型能力，直接精准提取手写签名、模糊字迹及复杂表格字段，置信度评分让高风险数据自动标记，人工复核工作量减少 80%。\n- 智能识别并隔离 `\u003Cwatermark>` 标签内的干扰信息，同时保留 `\u003Csignature>` 标签内的有效签署内容，确保清洗后的数据纯净可用。\n- 自动将文档内的 LaTeX 公式转为标准 Markdown，复选框转换为 Unicode 符号（☑\u002F☒），完美还原原始文档语义结构。\n- 借助内置的智能文档处理排行榜（Leaderboard），团队可快速基准测试并选定最适合发票场景的模型版本，决策有据可依。\n- 支持本地化部署（On-premises），所有敏感票据数据无需出内网即可完成从 PDF 到结构化 Markdown 的转换，兼顾安全与速度。\n\ndocext 通过本地化的免 OCR 智能解析，将原本碎片化、高噪音的文档处理流程转变为高效、合规且结构清晰的自动化流水线。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNanoNets_docext_743e417c.png","NanoNets","Nanonets","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FNanoNets_063a620d.jpg","",null,"nanonets_","https:\u002F\u002Fnanonets.com","https:\u002F\u002Fgithub.com\u002FNanoNets",[84,88,92],{"name":85,"color":86,"percentage":87},"Python","#3572A5",96.7,{"name":89,"color":90,"percentage":91},"Jupyter Notebook","#DA5B0B",2.6,{"name":93,"color":94,"percentage":95},"Dockerfile","#384d54",0.7,1952,141,"2026-04-03T14:02:57","Apache-2.0","Linux, macOS","未说明（工具基于视觉 - 语言模型，通常建议配备 NVIDIA GPU 以加速推理，但 README 未明确具体型号或显存要求）","未说明",{"notes":104,"python":102,"dependencies":105},"该工具支持完全本地化部署（On-premises），包含 PDF\u002F图片转 Markdown、文档信息提取及基准测试功能。新发布的 Nanonets-OCR-s 模型参数量为 3B。具体安装步骤、依赖库列表及详细硬件需求需参考项目提供的功能指南链接（如 PDF2MD_README.md 或 EXT_README.md），README 主文件中未直接列出。",[102],[14,54,26,13,51],[108,109,110,111,112,113,114,115,116,117,118,119,120,121,122,123,124,125,126,127],"document","document-analysis","extraction","llms","machine-learning","nlp","ocr","rag","unstructured-data","vlms","onprem","document-data-extraction","ocr-onpremise","llm-ocr","onprem-ocr","onprem-vision","onpremise","table-extraction","document-information-extraction","ocr-benchmark","2026-03-27T02:49:30.150509","2026-04-06T09:45:33.995492",[131,136,141,146,151,156],{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},17774,"加载 nanonets\u002FNanonets-OCR-s 模型时遇到 'dict' object has no attribute 'to_dict' 错误怎么办？","这是一个配置加载问题。需要在加载模型前手动处理配置文件，将字典类型的子配置转换为 PretrainedConfig 对象。具体代码如下：\n\nfrom transformers import AutoConfig, PretrainedConfig\n\ndef load_and_process_config(model_name):\n    config = AutoConfig.from_pretrained(model_name, trust_remote_code=True)\n    for attr in [\"text_config\", \"vision_config\"]:\n        if isinstance(getattr(config, attr, None), dict):\n            setattr(config, attr, PretrainedConfig.from_dict(getattr(config, attr)))\n    return config\n\n# 使用处理后的 config 加载模型\nconfig = load_and_process_config(\"nanonets\u002FNanonets-OCR-s\")\nmodel = AutoModelForImageTextToText.from_pretrained(\"nanonets\u002FNanonets-OCR-s\", config=config)","https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fissues\u002F27",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},17775,"如何连接本地的 Ollama 服务器运行模型？","项目已支持 Ollama。你可以直接指定现有的 Ollama 服务器地址。如果遇到问题（如连接错误），可能需要显式指定主机为 localhost。示例命令如下：\n\npython -m docext.app.app --model_name ollama\u002Fllama3.2-vision --max_img_size 1024 --vlm_server_host localhost\n\n确保你的 Ollama 服务正在运行，并且模型已拉取到本地。","https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fissues\u002F6",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},17776,"在将 PDF 转换为 Markdown 时，能否提取图片并让 LLM 生成描述？","可以。该功能已添加。项目不仅支持提取图片和表格，还开源了专门用于此任务的模型 Nanonets-OCR-s。你可以在 Hugging Face 上找到该模型：https:\u002F\u002Fhuggingface.co\u002Fnanonets\u002FNanonets-OCR-s。使用该模型即可实现通过 LLM 查看图片并在 Markdown 中生成上下文描述的功能。","https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fissues\u002F19",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},17777,"RTX 4060 (8GB 显存) 等小显存显卡是否支持运行？","支持。对于显存较小的显卡（如 RTX 4060 8GB），可以通过调整参数来运行。建议使用默认设置，或者限制图像大小以降低显存占用。例如：\n\npython -m docext.app.app --model_name ollama\u002Fllama3.2-vision --max_img_size 1024 --vlm_server_host localhost\n\n如果仍有问题，请检查是否使用了适合小显存的量化模型或通过 Ollama 运行较小的本地模型。","https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fissues\u002F5",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},17778,"运行基准测试代码时报错找不到 'tabeval' 包怎么办？","这是一个已知问题，`tabeval` 原本是内部包。维护者已修复此问题并将所需代码添加到了主分支中。请拉取最新的代码库（git pull）即可解决该导入错误。","https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fissues\u002F14",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},17779,"使用 Docker 运行 hosted_vllm 模型时出现 'got multiple values for argument image_processor' 初始化错误？","这通常是由于 Transformers 库版本与 vLLM 或模型处理器不兼容导致的。建议尝试升级 transformers 库到最新版本：\n\npip install -U transformers\n\n如果问题依旧，请检查 Docker 镜像版本是否为最新，因为维护者可能已在后续版本中修复了针对 Qwen2.5-VL 等模型的处理器初始化冲突问题。","https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fissues\u002F46",[162,167,172],{"id":163,"version":164,"summary_zh":165,"released_at":166},108070,"v0.1.14","## 变更内容\n* 由 @mandalsouvik3333 在 https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fpull\u002F7 中集成 ollama\n* 由 @mandalsouvik3333 在 https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fpull\u002F8 中进行开发\u002F基准测试\n* 由 @mandalsouvik3333 在 https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fpull\u002F11 中进行开发\u002F基准测试\n* 由 @mandalsouvik3333 在 https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fpull\u002F15 中添加用于表格评估的 grits，并修复 #14 问题\n* 由 @mandalsouvik3333 在 https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fpull\u002F20 中添加对本地托管模型评估的支持\n* 由 @sirius116 在 https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fpull\u002F23 中实现 PDF 支持、多文件支持及一些修复\n* 由 @mandalsouvik3333 在 https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fpull\u002F24 中添加图片和 PDF 转 Markdown 的支持\n* 由 @mrexodia 在 https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fpull\u002F34 中修复 Windows 上的 UTF-8 解码错误\n* 由 @Bae-ChangHyun 在 https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fpull\u002F32 中修复：更新 check_vllm_healthcheck 函数中的健康检查端点\n* 由 @28ananthaprakash 在 https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fpull\u002F47 中修复：更新 transformers 版本约束以解决 TypeError\n* 由 @kira-offgrid 在 https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fpull\u002F45 中修复：在 Dockerfile 中避免容器以危险的 root 用户权限运行\n\n## 新贡献者\n* @sirius116 在 https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fpull\u002F23 中完成了首次贡献\n* @mrexodia 在 https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fpull\u002F34 中完成了首次贡献\n* @Bae-ChangHyun 在 https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fpull\u002F32 中完成了首次贡献\n* @28ananthaprakash 在 https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fpull\u002F47 中完成了首次贡献\n* @kira-offgrid 在 https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fpull\u002F45 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fcompare\u002Fv0.1.7...v0.1.14","2025-06-30T06:28:52",{"id":168,"version":169,"summary_zh":170,"released_at":171},108071,"v0.1.7","## 变更内容\n- 添加供应商托管模型（OpenAI、Anthropic、OpenRouter）\n- 修复 WebP 图像文件问题\n\n## 新贡献者\n* @mandalsouvik3333 在 https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fpull\u002F4 中完成了首次贡献\n* @eltociear 在 https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fpull\u002F3 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FNanoNets\u002Fdocext\u002Fcompare\u002Fv0.1.2...v0.1.7","2025-04-08T10:56:35",{"id":173,"version":174,"summary_zh":175,"released_at":176},108072,"v0.1.2","基础版本，包含以下功能：\n:wrench: 自定义与预构建的提取模板\n:bar_chart: 表格与字段数据提取\n:computer: 基于 Gradio 的 Web 界面\n:closed_lock_with_key: 支持本地部署及 REST API\n:page_facing_up: 多页文档支持\n:chart_with_upwards_trend: 提取字段的置信度分数","2025-04-05T03:26:32"]