[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-opencv--opencv_zoo":3,"tool-opencv--opencv_zoo":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,2,"2026-04-06T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":76,"owner_website":78,"owner_url":79,"languages":80,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":32,"env_os":97,"env_gpu":98,"env_ram":99,"env_deps":100,"category_tags":106,"github_topics":108,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":112,"updated_at":113,"faqs":114,"releases":145},4676,"opencv\u002Fopencv_zoo","opencv_zoo","Model Zoo For OpenCV DNN and Benchmarks.","opencv_zoo 是一个专为 OpenCV 深度学习模块（DNN）打造的模型库与性能基准测试平台。它收录了经过专门优化、可直接在 OpenCV 中高效运行的各类预训练模型，并提供了在不同硬件平台上的详细速度对比数据。\n\n在 AI 模型落地过程中，开发者常面临模型兼容性差或在特定设备上运行效率低的难题。opencv_zoo 通过提供“开箱即用”的调优模型和直观的基准测试结果，帮助用户快速筛选出最适合自己硬件环境的模型方案，从而大幅降低部署门槛和调试成本。\n\n这套工具非常适合计算机视觉开发者、嵌入式工程师以及算法研究人员使用。无论是想在树莓派、NVIDIA Jetson 等边缘设备上部署应用，还是需要在 Intel x86 服务器上进行推理加速，都能从中找到参考依据。\n\n其独特亮点在于覆盖范围极广，不仅支持主流的 x86 和 ARM 架构，还深入适配了华为昇腾、地平线、算能等多种国产 NPU 芯片，甚至包含了 RISC-V 架构的最新测试数据。此外，项目已迁移至 Hugging Face 平台，方便用户直接获取模型并体验在线演示，让跨平台的 AI 开发变得更加简单透明。","# ***This Project is now hosted in Hugging Face. Check https:\u002F\u002Fhuggingface.co\u002Fopencv to get models and online demos!***\n\n# OpenCV Zoo and Benchmark\n\nA zoo for models tuned for OpenCV DNN with benchmarks on different platforms.\n\nGuidelines:\n\n- Install latest `opencv-python`:\n  ```shell\n  python3 -m pip install opencv-python\n  # Or upgrade to latest version\n  python3 -m pip install --upgrade opencv-python\n  ```\n- Clone this repo to download all models and demo scripts:\n  ```shell\n  # Install git-lfs from https:\u002F\u002Fgit-lfs.github.com\u002F\n  git clone https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo && cd opencv_zoo\n  git lfs install\n  git lfs pull\n  ```\n- To run benchmarks on your hardware settings, please refer to [benchmark\u002FREADME](.\u002Fbenchmark\u002FREADME.md).\n\n## Models & Benchmark Results\n\n![](benchmark\u002Fcolor_table.svg?raw=true)\n\nHardware Setup:\n\nx86-64:\n- [Intel Core i7-12700K](https:\u002F\u002Fwww.intel.com\u002Fcontent\u002Fwww\u002Fus\u002Fen\u002Fproducts\u002Fsku\u002F134594\u002Fintel-core-i712700k-processor-25m-cache-up-to-5-00-ghz\u002Fspecifications.html): 8 Performance-cores (3.60 GHz, turbo up to 4.90 GHz), 4 Efficient-cores (2.70 GHz, turbo up to 3.80 GHz), 20 threads.\n\nARM:\n- [Khadas VIM3](https:\u002F\u002Fwww.khadas.com\u002Fvim3): Amlogic A311D SoC with a 2.2GHz Quad core ARM Cortex-A73 + 1.8GHz dual core Cortex-A53 ARM CPU, and a 5 TOPS NPU. Benchmarks are done using **per-tensor quantized** models. Follow [this guide](https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv\u002Fwiki\u002FTIM-VX-Backend-For-Running-OpenCV-On-NPU) to build OpenCV with TIM-VX backend enabled.\n- [Khadas VIM4](https:\u002F\u002Fwww.khadas.com\u002Fvim4): Amlogic A311D2 SoC with 2.2GHz Quad core ARM Cortex-A73 and 2.0GHz Quad core Cortex-A53 CPU, and 3.2 TOPS Build-in NPU.\n- [Khadas Edge 2](https:\u002F\u002Fwww.khadas.com\u002Fedge2): Rockchip RK3588S SoC with a CPU of 2.25 GHz Quad Core ARM Cortex-A76 + 1.8 GHz Quad Core Cortex-A55, and a 6 TOPS NPU.\n- [Atlas 200 DK](https:\u002F\u002Fe.huawei.com\u002Fen\u002Fproducts\u002Fcomputing\u002Fascend\u002Fatlas-200): Ascend 310 NPU with 22 TOPS @ INT8. Follow [this guide](https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv\u002Fwiki\u002FHuawei-CANN-Backend) to build OpenCV with CANN backend enabled.\n- [Atlas 200I DK A2](https:\u002F\u002Fwww.hiascend.com\u002Fhardware\u002Fdeveloper-kit-a2): SoC with 1.0GHz Quad-core CPU and Ascend 310B NPU with 8 TOPS @ INT8.\n- [NVIDIA Jetson Nano B01](https:\u002F\u002Fdeveloper.nvidia.com\u002Fembedded\u002Fjetson-nano-developer-kit): a Quad-core ARM A57 @ 1.43 GHz CPU, and a 128-core NVIDIA Maxwell GPU.\n- [NVIDIA Jetson Nano Orin](https:\u002F\u002Fwww.nvidia.com\u002Fen-us\u002Fautonomous-machines\u002Fembedded-systems\u002Fjetson-orin\u002F): a 6-core Arm® Cortex®-A78AE v8.2 64-bit CPU, and a 1024-core NVIDIA Ampere architecture GPU with 32 Tensor Cores (max freq 625MHz).\n- [Raspberry Pi 4B](https:\u002F\u002Fwww.raspberrypi.com\u002Fproducts\u002Fraspberry-pi-4-model-b\u002Fspecifications\u002F): Broadcom BCM2711 SoC with a Quad core Cortex-A72 (ARM v8) 64-bit @ 1.5 GHz.\n- [Horizon Sunrise X3](https:\u002F\u002Fdeveloper.horizon.ai\u002Fsunrise): an SoC from Horizon Robotics with a quad-core ARM Cortex-A53 1.2 GHz CPU and a 5 TOPS BPU (a.k.a NPU).\n- [MAIX-III AXera-Pi](https:\u002F\u002Fwiki.sipeed.com\u002Fhardware\u002Fen\u002FmaixIII\u002Fax-pi\u002Faxpi.html#Hardware): Axera AX620A SoC with a quad-core ARM Cortex-A7 CPU and a 3.6 TOPS @ int8 NPU.\n- [Toybrick RV1126](https:\u002F\u002Ft.rock-chips.com\u002Fen\u002Fportal.php?mod=view&aid=26): Rockchip RV1126 SoC with a quard-core ARM Cortex-A7 CPU and a 2.0 TOPs NPU.\n\nRISC-V:\n- [StarFive VisionFive 2](https:\u002F\u002Fdoc-en.rvspace.org\u002FVisionFive2\u002FProduct_Brief\u002FVisionFive_2\u002Fspecification_pb.html): `StarFive JH7110` SoC with a RISC-V quad-core CPU, which can turbo up to 1.5GHz, and an GPU of model `IMG BXE-4-32 MC1` from Imagination, which has a work freq up to 600MHz.\n- [Allwinner Nezha D1](https:\u002F\u002Fd1.docs.aw-ol.com\u002Fen): Allwinner D1 SoC with a 1.0 GHz single-core RISC-V [Xuantie C906 CPU](https:\u002F\u002Fwww.t-head.cn\u002Fproduct\u002FC906?spm=a2ouz.12986968.0.0.7bfc1384auGNPZ) with RVV 0.7.1 support. YuNet is tested for now. Visit [here](https:\u002F\u002Fgithub.com\u002Ffengyuentau\u002Fopencv_zoo_cpp) for more details.\n\n***Important Notes***:\n\n- The data under each column of hardware setups on the above table represents the elapsed time of an inference (preprocess, forward and postprocess).\n- The time data is the mean of 10 runs after some warmup runs. Different metrics may be applied to some specific models.\n- Batch size is 1 for all benchmark results.\n- `---` represents the model is not availble to run on the device.\n- View [benchmark\u002Fconfig](.\u002Fbenchmark\u002Fconfig) for more details on benchmarking different models.\n\n## Some Examples\n\nSome examples are listed below. You can find more in the directory of each model!\n\n### Face Detection with [YuNet](.\u002Fmodels\u002Fface_detection_yunet\u002F)\n\n![largest selfie](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_632f4e02e01e.jpg)\n\n### Face Recognition with [SFace](.\u002Fmodels\u002Fface_recognition_sface\u002F)\n\n![sface demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_3de73b793306.jpg)\n\n### Facial Expression Recognition with [Progressive Teacher](.\u002Fmodels\u002Ffacial_expression_recognition\u002F)\n\n![fer demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_d5ced89de4a5.jpg)\n\n### Human Segmentation with [PP-HumanSeg](.\u002Fmodels\u002Fhuman_segmentation_pphumanseg\u002F)\n\n![messi](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_bb65d673740f.jpg)\n\n### Image Segmentation with [EfficientSAM](.\u002Fmodels\u002Fimage_segmentation_efficientsam\u002F)\n\n![sam_present](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_3f1fc6aa5a5d.gif)\n\n### License Plate Detection with [LPD_YuNet](.\u002Fmodels\u002Flicense_plate_detection_yunet\u002F)\n\n![license plate detection](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_243ef531be07.gif)\n\n### Object Detection with [NanoDet](.\u002Fmodels\u002Fobject_detection_nanodet\u002F) & [YOLOX](.\u002Fmodels\u002Fobject_detection_yolox\u002F)\n\n![nanodet demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_eab618f168d4.jpg)\n\n![yolox demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_dddc270f6330.jpg)\n\n### Object Tracking with [VitTrack](.\u002Fmodels\u002Fobject_tracking_vittrack\u002F)\n\n![webcam demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_c33eaadf5c5c.gif)\n\n### Palm Detection with [MP-PalmDet](.\u002Fmodels\u002Fpalm_detection_mediapipe\u002F)\n\n![palm det](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_7612ba887af8.gif)\n\n### Hand Pose Estimation with [MP-HandPose](models\u002Fhandpose_estimation_mediapipe\u002F)\n\n![handpose estimation](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_3f6f765ddfc5.webp)\n\n### Person Detection with [MP-PersonDet](.\u002Fmodels\u002Fperson_detection_mediapipe)\n\n![person det](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_9410e3df264c.webp)\n\n### Pose Estimation with [MP-Pose](models\u002Fpose_estimation_mediapipe)\n\n![pose_estimation](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_23e5917f0155.webp)\n\n### QR Code Detection and Parsing with [WeChatQRCode](.\u002Fmodels\u002Fqrcode_wechatqrcode\u002F)\n\n![qrcode](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_0877a3be9f19.gif)\n\n### Chinese Text detection [PPOCR-Det](.\u002Fmodels\u002Ftext_detection_ppocr\u002F)\n\n![mask](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_976473d96fd9.jpg)\n\n### English Text detection [PPOCR-Det](.\u002Fmodels\u002Ftext_detection_ppocr\u002F)\n\n![gsoc](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_bc1ebb434334.jpg)\n\n### Text Detection with [CRNN](.\u002Fmodels\u002Ftext_recognition_crnn\u002F)\n\n![crnn_demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_a0c84ecd8e68.gif)\n\n## License\n\nOpenCV Zoo is licensed under the [Apache 2.0 license](.\u002FLICENSE). Please refer to licenses of different models.\n","# ***该项目现已托管在 Hugging Face 上。请访问 https:\u002F\u002Fhuggingface.co\u002Fopencv 获取模型和在线演示！***\n\n# OpenCV Zoo 与基准测试\n\n一个为 OpenCV DNN 调优的模型动物园，并在不同平台上提供基准测试。\n\n使用指南：\n\n- 安装最新版 `opencv-python`：\n  ```shell\n  python3 -m pip install opencv-python\n  # 或升级到最新版本\n  python3 -m pip install --upgrade opencv-python\n  ```\n- 克隆本仓库以下载所有模型和示例脚本：\n  ```shell\n  # 从 https:\u002F\u002Fgit-lfs.github.com\u002F 安装 git-lfs\n  git clone https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo && cd opencv_zoo\n  git lfs install\n  git lfs pull\n  ```\n- 如需在您的硬件环境下运行基准测试，请参阅 [benchmark\u002FREADME](.\u002Fbenchmark\u002FREADME.md)。\n\n## 模型与基准测试结果\n\n![](benchmark\u002Fcolor_table.svg?raw=true)\n\n硬件配置：\n\nx86-64：\n- [Intel Core i7-12700K](https:\u002F\u002Fwww.intel.com\u002Fcontent\u002Fwww\u002Fus\u002Fen\u002Fproducts\u002Fsku\u002F134594\u002Fintel-core-i712700k-processor-25m-cache-up-to-5-00-ghz\u002Fspecifications.html)：8 个性能核心（3.60 GHz，睿频最高 4.90 GHz），4 个能效核心（2.70 GHz，睿频最高 3.80 GHz），20 线程。\n\nARM：\n- [Khadas VIM3](https:\u002F\u002Fwww.khadas.com\u002Fvim3)：Amlogic A311D SoC，包含 2.2GHz 四核 ARM Cortex-A73 + 1.8GHz 双核 Cortex-A53 CPU，以及 5 TOPS 的 NPU。基准测试采用 **逐张量量化** 模型进行。请按照 [此指南](https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv\u002Fwiki\u002FTIM-VX-Backend-For-Running-OpenCV-On-NPU) 构建启用 TIM-VX 后端的 OpenCV。\n- [Khadas VIM4](https:\u002F\u002Fwww.khadas.com\u002Fvim4)：Amlogic A311D2 SoC，配备 2.2GHz 四核 ARM Cortex-A73 和 2.0GHz 四核 Cortex-A53 CPU，内置 3.2 TOPS 的 NPU。\n- [Khadas Edge 2](https:\u002F\u002Fwww.khadas.com\u002Fedge2)：Rockchip RK3588S SoC，包含 2.25 GHz 四核 ARM Cortex-A76 + 1.8 GHz 四核 Cortex-A55，以及 6 TOPS 的 NPU。\n- [Atlas 200 DK](https:\u002F\u002Fe.huawei.com\u002Fen\u002Fproducts\u002Fcomputing\u002Fascend\u002Fatlas-200)：Ascend 310 NPU，INT8 下可达 22 TOPS。请按照 [此指南](https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv\u002Fwiki\u002FHuawei-CANN-Backend) 构建启用 CANN 后端的 OpenCV。\n- [Atlas 200I DK A2](https:\u002F\u002Fwww.hiascend.com\u002Fhardware\u002Fdeveloper-kit-a2)：SoC 配备 1.0GHz 四核 CPU 和 Ascend 310B NPU，INT8 下可达 8 TOPS。\n- [NVIDIA Jetson Nano B01](https:\u002F\u002Fdeveloper.nvidia.com\u002Fembedded\u002Fjetson-nano-developer-kit)：四核 ARM A57 处理器，主频 1.43 GHz，以及 128 核 NVIDIA Maxwell GPU。\n- [NVIDIA Jetson Nano Orin](https:\u002F\u002Fwww.nvidia.com\u002Fen-us\u002Fautonomous-machines\u002Fembedded-systems\u002Fjetson-orin\u002F)：六核 Arm® Cortex®-A78AE v8.2 64 位处理器，以及 1024 核 NVIDIA Ampere 架构 GPU，配备 32 个 Tensor Core（最高频率 625MHz）。\n- [Raspberry Pi 4B](https:\u002F\u002Fwww.raspberrypi.com\u002Fproducts\u002Fraspberry-pi-4-model-b\u002Fspecifications\u002F)：Broadcom BCM2711 SoC，四核 Cortex-A72（ARM v8）64 位处理器，主频 1.5 GHz。\n- [Horizon Sunrise X3](https:\u002F\u002Fdeveloper.horizon.ai\u002Fsunrise)：来自 Horizon Robotics 的 SoC，配备四核 ARM Cortex-A53 1.2 GHz CPU 和 5 TOPS 的 BPU（即 NPU）。\n- [MAIX-III AXera-Pi](https:\u002F\u002Fwiki.sipeed.com\u002Fhardware\u002Fen\u002FmaixIII\u002Fax-pi\u002Faxpi.html#Hardware)：Axera AX620A SoC，包含四核 ARM Cortex-A7 CPU 和 3.6 TOPS @ int8 的 NPU。\n- [Toybrick RV1126](https:\u002F\u002Ft.rock-chips.com\u002Fen\u002Fportal.php?mod=view&aid=26)：Rockchip RV1126 SoC，配备四核 ARM Cortex-A7 CPU 和 2.0 TOPS 的 NPU。\n\nRISC-V：\n- [StarFive VisionFive 2](https:\u002F\u002Fdoc-en.rvspace.org\u002FVisionFive2\u002FProduct_Brief\u002FVisionFive_2\u002Fspecification_pb.html)：`StarFive JH7110` SoC，搭载 RISC-V 四核处理器，可睿频至 1.5GHz，以及 Imagination 公司的 `IMG BXE-4-32 MC1` GPU，工作频率最高可达 600MHz。\n- [Allwinner Nezha D1](https:\u002F\u002Fd1.docs.aw-ol.com\u002Fen)：Allwinner D1 SoC，配备 1.0 GHz 单核 RISC-V [Xuantie C906 CPU](https:\u002F\u002Fwww.t-head.cn\u002Fproduct\u002FC906?spm=a2ouz.12986968.0.0.7bfc1384auGNPZ)，支持 RVV 0.7.1。目前仅对 YuNet 进行了测试。更多详情请访问 [此处](https:\u002F\u002Fgithub.com\u002Ffengyuentau\u002Fopencv_zoo_cpp)。\n\n***重要提示***：\n\n- 上表中各硬件配置列下的数据表示一次推理（预处理、前向传播和后处理）所用的时间。\n- 时间数据为经过若干次预热后 10 次运行的平均值。针对某些特定模型可能会采用不同的度量标准。\n- 所有基准测试结果的批大小均为 1。\n- `---` 表示该模型无法在该设备上运行。\n- 更多关于不同模型基准测试的详细信息，请查看 [benchmark\u002Fconfig](.\u002Fbenchmark\u002Fconfig)。\n\n## 示例展示\n\n以下列出部分示例。更多内容可在各模型目录中找到！\n\n### 人脸检测：[YuNet](.\u002Fmodels\u002Fface_detection_yunet\u002F)\n\n![最大自拍](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_632f4e02e01e.jpg)\n\n### 人脸识别：[SFace](.\u002Fmodels\u002Fface_recognition_sface\u002F)\n\n![SFace 演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_3de73b793306.jpg)\n\n### 面部表情识别：[Progressive Teacher](.\u002Fmodels\u002Ffacial_expression_recognition\u002F)\n\n![FER 演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_d5ced89de4a5.jpg)\n\n### 人体分割：[PP-HumanSeg](.\u002Fmodels\u002Fhuman_segmentation_pphumanseg\u002F)\n\n![梅西](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_bb65d673740f.jpg)\n\n### 图像分割：[EfficientSAM](.\u002Fmodels\u002Fimage_segmentation_efficientsam\u002F)\n\n![SAM 展示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_3f1fc6aa5a5d.gif)\n\n### 车牌检测：[LPD_YuNet](.\u002Fmodels\u002Flicense_plate_detection_yunet\u002F)\n\n![车牌检测](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_243ef531be07.gif)\n\n### 物体检测：[NanoDet](.\u002Fmodels\u002Fobject_detection_nanodet\u002F) 和 [YOLOX](.\u002Fmodels\u002Fobject_detection_yolox\u002F)\n\n![NanoDet 演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_eab618f168d4.jpg)\n\n![YOLOX 演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_dddc270f6330.jpg)\n\n### 物体跟踪：[VitTrack](.\u002Fmodels\u002Fobject_tracking_vittrack\u002F)\n\n![摄像头演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_c33eaadf5c5c.gif)\n\n### 手掌检测：[MP-PalmDet](.\u002Fmodels\u002Fpalm_detection_mediapipe\u002F)\n\n![手掌检测](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_7612ba887af8.gif)\n\n### 手部姿态估计：[MP-HandPose](models\u002Fhandpose_estimation_mediapipe\u002F)\n\n![手部姿态估计](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_3f6f765ddfc5.webp)\n\n### 人员检测：[MP-PersonDet](.\u002Fmodels\u002Fperson_detection_mediapipe)\n\n![人员检测](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_9410e3df264c.webp)\n\n### 姿态估计：[MP-Pose](models\u002Fpose_estimation_mediapipe)\n\n![姿态估计](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_23e5917f0155.webp)\n\n### QR码检测与解析：[WeChatQRCode](.\u002Fmodels\u002Fqrcode_wechatqrcode\u002F)\n\n![QR码](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_0877a3be9f19.gif)\n\n### 中文文本检测：[PPOCR-Det](.\u002Fmodels\u002Ftext_detection_ppocr\u002F)\n\n![口罩](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_976473d96fd9.jpg)\n\n### 英文文本检测 [PPOCR-Det](.\u002Fmodels\u002Ftext_detection_ppocr\u002F)\n\n![gsoc](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_bc1ebb434334.jpg)\n\n### 使用 [CRNN](.\u002Fmodels\u002Ftext_recognition_crnn\u002F) 进行文本检测\n\n![crnn_demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_readme_a0c84ecd8e68.gif)\n\n## 许可证\n\nOpenCV Zoo 采用 [Apache 2.0 许可证](.\u002FLICENSE) 许可。请参阅各模型的许可证信息。","# OpenCV Zoo 快速上手指南\n\nOpenCV Zoo 是一个专为 OpenCV DNN 模块优化的模型库，提供了多种计算机视觉任务（如人脸检测、物体识别、图像分割等）的预训练模型及多平台性能基准测试。\n\n## 1. 环境准备\n\n*   **操作系统**：支持 Linux, Windows, macOS (x86-64, ARM, RISC-V 架构均经过测试)。\n*   **Python 版本**：建议 Python 3.6 及以上。\n*   **前置依赖**：\n    *   `git` 和 `git-lfs` (用于下载大文件模型)。\n    *   `pip` (Python 包管理工具)。\n\n> **注意**：部分高性能硬件（如华为 Ascend NPU、Amlogic NPU 等）需要编译开启特定后端（CANN 或 TIM-VX）的 OpenCV 版本，普通用户直接使用 CPU\u002FGPU 后端即可。\n\n## 2. 安装步骤\n\n### 第一步：安装\u002F升级 OpenCV Python 包\n建议使用国内镜像源加速安装：\n\n```shell\npython3 -m pip install opencv-python -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n# 若已安装，请升级至最新版\npython3 -m pip install --upgrade opencv-python -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 第二步：克隆项目并下载模型\n本项目使用 Git LFS 存储模型文件，需确保已安装 `git-lfs`。\n\n```shell\n# 1. 安装 git-lfs (Ubuntu\u002FDebian 示例)\nsudo apt-get install git-lfs\n\n# 2. 初始化 git-lfs\ngit lfs install\n\n# 3. 克隆仓库 (推荐使用国内镜像或代理加速，若网络通畅可直接使用官方地址)\ngit clone https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo && cd opencv_zoo\n\n# 4. 拉取模型文件\ngit lfs pull\n```\n\n## 3. 基本使用\n\n每个模型目录下都包含独立的演示脚本。以下以 **YuNet 人脸检测** 为例展示最简使用流程。\n\n### 运行示例脚本\n进入对应模型目录并运行演示代码：\n\n```shell\ncd models\u002Fface_detection_yunet\npython3 demo.py --input ..\u002F..\u002Fimages\u002Fselfie.jpg\n```\n\n### 代码调用示例\n你也可以在自己的 Python 项目中直接调用模型。以下是加载 YuNet 并进行推理的最小化代码示例：\n\n```python\nimport cv2 as cv\nimport cv2.dnn as dnn\n\n# 1. 加载模型文件路径\nmodel_path = \"models\u002Fface_detection_yunet\u002Fface_detection_yunet_2023mar.onnx\"\nconfig_path = \"models\u002Fface_detection_yunet\u002Fface_detection_yunet_2023mar.py\"\n\n# 2. 创建检测器对象 (OpenCV Zoo 提供的辅助类通常在模型目录的 python 文件夹中，或直接使用 DNN 接口)\n# 这里展示通用的 DNN 加载方式\nnet = cv.dnn.readNetFromONNX(model_path)\n\n# 3. 读取图像\nimg = cv.imread(\"images\u002Fselfie.jpg\")\nh, w = img.shape[:2]\n\n# 4. 预处理 (具体参数需参考各模型的文档，此处为 YuNet 典型配置)\nblob = cv.dnn.blobFromImage(img, 1.0, (w, h), (104, 117, 123), swapRB=False)\n\n# 5. 推理\nnet.setInput(blob)\noutputs = net.forward()\n\n# 6. 后处理与结果解析\n# (具体解码逻辑请参考 models\u002Fface_detection_yunet\u002Fdemo.py 中的实现)\nprint(\"Inference completed. Check demo.py for full post-processing logic.\")\n```\n\n> **提示**：为了获得最佳体验，建议直接阅读各模型文件夹下的 `demo.py` 脚本，其中包含了完整的预处理、推理和后处理逻辑。所有支持的模型列表及详细用法请参阅项目根目录下的 `models` 文件夹。","某嵌入式视觉团队正在为一款基于瑞芯微 RK3588 芯片的智能安防摄像头开发实时人脸检测功能，需在资源受限的边缘端实现高帧率运行。\n\n### 没有 opencv_zoo 时\n- **模型适配困难**：开发者需手动将通用深度学习模型转换为 OpenCV DNN 支持的格式，常因算子不兼容导致推理失败或精度大幅下降。\n- **性能基准缺失**：缺乏针对 ARM NPU 等特定硬件的权威测试数据，团队只能盲目尝试不同量化策略，耗时数周仍无法确定最优配置。\n- **部署门槛极高**：为了启用 NPU 加速，工程师需自行查阅繁杂的后端编译指南（如 TIM-VX 或 CANN），环境搭建过程极易出错且难以复现。\n- **调试周期漫长**：在没有预置 Demo 脚本的情况下，从模型加载到结果可视化的每一步都需要从头编写代码，严重拖慢原型验证进度。\n\n### 使用 opencv_zoo 后\n- **开箱即用模型**：直接下载经官方针对 OpenCV DNN 深度调优的模型文件，完美适配 RK3588 的 NPU 架构，无需任何格式转换即可加载。\n- **明确性能预期**：参考项目中提供的详细基准测试表，团队迅速锁定适合该芯片的量化模型版本，确认在 6 TOPS 算力下可稳定达到 30+ FPS。\n- **简化后端配置**：依据项目文档中的构建指南，快速完成支持 NPU 后端的 OpenCV 编译，避免了底层驱动与框架对接的“踩坑”过程。\n- **极速原型验证**：复用仓库中现成的 Python 演示脚本，仅需修改摄像头输入源，半天内即完成了从算法集成到实地效果演示的全流程。\n\nopencv_zoo 通过提供经过严格硬件基准测试的预训练模型与标准化部署路径，将边缘侧 AI 功能的落地周期从数周缩短至数天。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopencv_opencv_zoo_81ae220d.png","opencv","OpenCV","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fopencv_e5516b63.png","",null,"admin@opencv.org","https:\u002F\u002Fopencv.org","https:\u002F\u002Fgithub.com\u002Fopencv",[81,85,89],{"name":82,"color":83,"percentage":84},"Python","#3572A5",51.5,{"name":86,"color":87,"percentage":88},"C++","#f34b7d",47.2,{"name":90,"color":91,"percentage":92},"CMake","#DA3434",1.3,922,281,"2026-04-06T12:14:56","Apache-2.0","Linux, macOS, Windows","非必需。支持多种硬件后端：1. NVIDIA GPU (Jetson Nano\u002FOrin, 需 Maxwell\u002FAmpere 架构); 2. NPU (华为 Ascend 310\u002F310B, Rockchip, Amlogic, Horizon BPU 等，需特定后端如 CANN\u002FTIM-VX); 3. CPU (x86-64, ARM, RISC-V)。未指定具体显存大小或 CUDA 版本，取决于具体设备和模型量化方式（如 INT8）。","未说明",{"notes":101,"python":102,"dependencies":103},"1. 项目已迁移至 Hugging Face，可在线获取模型和演示。2. 必须安装 git-lfs 以拉取模型文件。3. 针对特定 NPU 设备（如华为 Ascend、Amlogic、Rockchip 等），需要按照官方指南重新编译开启对应后端（CANN 或 TIM-VX）的 OpenCV 版本。4. 部分 ARM\u002FRISC-V 设备测试使用了 per-tensor 量化模型。5. 基准测试数据基于 Batch size=1，时间为预处理、推理和后处理的总耗时平均值。","未说明 (需支持 python3)",[104,105],"opencv-python","git-lfs",[107,15,14],"其他",[72,109,110,111],"deep-learning","model-zoo","benchmark","2026-03-27T02:49:30.150509","2026-04-07T07:13:01.356369",[115,120,125,130,135,140],{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},21263,"使用 face_detection_yunet 模型时，为什么大尺寸人脸无法被检测到或报错？","该模型对输入图像中人脸的尺寸敏感。如果人脸过大，模型可能无法检测。解决方案是将输入图像缩小至原始尺寸的 1\u002F4 后再进行检测。此外，如果未检测到人脸，程序会返回 None，这属于正常现象而非错误。","https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fissues\u002F31",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},21264,"在 Java 中使用 FaceRecognizerSF.feature() 时遇到 'shape[i] == 1' 断言失败错误怎么办？","此错误通常发生在处理特征矩阵时。在使用 faceRecognizer.feature() 获取特征后，必须将结果克隆（clone）到一个新的 Mat 对象中，以避免内存共享导致的形状冲突。示例代码：\nMat featureA = new Mat();\nfaceRecognizer.feature(alignFaceA, featureA);\nfeatureA = featureA.clone(); \u002F\u002F 关键步骤","https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fissues\u002F187",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},21265,"pose_estimation_mediapipe 模型的输出结果为何与预期不符或存在偏差？","输出差异通常源于预处理步骤。该模型要求输入图像进行特定的旋转或调整。为了获得准确结果，需要参考模型卡片（model card）中的定义，并修改代码中的缩放因子（factor）。具体可参考 mp_pose.py 文件中第 12-13 行的定义进行调整。","https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fissues\u002F188",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},21266,"VitTracker 在处理包含大量黑色像素的视频帧时为何会因内存不足崩溃？","这是一个已知的 Bug，当输入视频包含特定数量的黑色像素时，模型推理（model.infer()）会尝试分配过量内存导致崩溃。维护者已提交修复补丁（PR #25760），建议升级到包含该修复的最新版本 OpenCV 或应用相关补丁来解决此问题。","https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fissues\u002F261",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},21267,"object_tracking_vittrack 模型是基于什么论文训练的？是否支持 TensorRT？","VitTracker 是基于论文《Joint Feature Learning and Relation Modeling for Tracking: A One-Stream Framework》实现的。目前 OpenCV DNN 模块尚不支持直接运行 TensorRT 模型，因此需使用提供的 ONNX 模型。若需在 GPU 上运行，可尝试使用 OpenCV DNN 的 CUDA 后端。","https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fissues\u002F219",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},21268,"FaceDetectorYN 和 FaceRecognizerSF 在较大尺寸的人像图片上表现不佳怎么办？","模型在训练集常见的图像尺寸（约 600 像素宽\u002F高）下表现最佳。当输入为超大尺寸的人像图片时，检测效果可能会变差甚至误检（如将耳朵或手识别为脸）。建议将输入图像调整至合理尺寸（如 600 像素左右）后再进行检测和识别。","https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fissues\u002F195",[146,151],{"id":147,"version":148,"summary_zh":149,"released_at":150},127282,"4.10.0","## 变更内容\n* @fengyuentau 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F231 中添加了 SFace 可视化演示及示例输出\n* @DaniAffCH 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F233 中提供了 C++ 演示——面部表情识别\n* @Tim-Siu 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F238 中为 `quantize-ort.py` 引入了用于优化量化处理的预处理功能\n* @ryan1288 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F234 中修复了 ViTTrack 和 RAFT 中的 OpenCV 版本断言以及文本偏移问题\n* @ryan1288 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F232 中提供了 C++ 演示——目标检测（NanoDet）\n* @ryan1288 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F235 中为 YOLOX C++ 演示增加了保存功能\n* @ryan1288 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F237 中修复了文本检测 PP-OCR 的可视化及默认模型问题\n* @ryan1288 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F236 中修正了拼写、空格及未使用的变量\n* @ryan1288 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F240 中提供了 C++ 演示——目标跟踪（VitTrack）\n* @ryan1288 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F241 中提供了 C++ 演示——图像分类（PPResNet）\n* @DaniAffCH 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F243 中提供了 C++ 演示——人体分割\n* @fengyuentau 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F247 中修复了 CRNN 的旧版文档\n* @keanep 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F259 中提供了 C++ 演示——SFace 人脸识别器\n* @Zhang-Yang-Sustech 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F258 中将 EfficientSAM 模型迁移到 OpenCV 模型库\n* @fengyuentau 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F260 中将 OpenCV 版本升级至 4.10.0\n\n## 新贡献者\n* @DaniAffCH 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F233 中完成了首次贡献\n* @Tim-Siu 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F238 中完成了首次贡献\n* @ryan1288 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F234 中完成了首次贡献\n* @keanep 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F259 中完成了首次贡献\n* @Zhang-Yang-Sustech 在 https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fpull\u002F258 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Fcompare\u002F4.9.0...4.10.0","2024-06-04T08:24:49",{"id":152,"version":153,"summary_zh":154,"released_at":155},127283,"4.9.0","我们发布了 OpenCV Model Zoo 的首个版本🎉\n\n请查看我们的总结报告：https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopencv_zoo\u002Ftree\u002Fmain\u002Freports\u002F2023-4.9.0。\n\n注意：\n版本号设置为 4.9.0，与 OpenCV 的发布版本一致，以便用户清楚地知道它兼容 OpenCV 4.9.0。","2023-12-28T15:23:00"]