[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-OlafenwaMoses--ImageAI":3,"tool-OlafenwaMoses--ImageAI":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":72,"owner_website":79,"owner_url":80,"languages":81,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":32,"env_os":94,"env_gpu":95,"env_ram":96,"env_deps":97,"category_tags":110,"github_topics":112,"view_count":132,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":133,"updated_at":134,"faqs":135,"releases":164},4978,"OlafenwaMoses\u002FImageAI","ImageAI","A python library built to empower developers to build applications and systems  with self-contained Computer Vision capabilities","ImageAI 是一个专为 Python 开发者打造的开源库，旨在让构建具备独立计算机视觉与深度学习能力的智能应用变得简单高效。它解决了传统视觉技术门槛高、代码复杂的痛点，让用户仅需寥寥数行代码，即可轻松实现图像预测、物体检测、视频分析及目标追踪等核心功能。\n\n这款工具特别适合软件工程师、数据科学家及人工智能研究者使用，尤其是那些希望快速将视觉能力集成到现有系统中，或需要训练自定义模型以识别特定新对象的团队。ImageAI 内置了多种业界领先的算法，支持基于 ImageNet 数据集的图像分类，以及利用 RetinaNet、YOLOv3 等模型进行高精度的物体检测。其最新升级版更引入了 PyTorch 后端，并新增了对 TinyYOLOv3 模型的训练支持，进一步提升了灵活性与性能。凭借简洁的设计理念和强大的功能覆盖，ImageAI 成为了连接复杂深度学习技术与实际应用场景的便捷桥梁，帮助开发者专注于业务创新而非底层算法实现。","# ImageAI (v3.0.3)\n\n\n\n[![Build Status](https:\u002F\u002Ftravis-ci.com\u002FOlafenwaMoses\u002FImageAI.svg?branch=master)](https:\u002F\u002Ftravis-ci.com\u002FOlafenwaMoses\u002FImageAI)  [![License: MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-yellow.svg)](https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FImageAI\u002Fblob\u002Fmaster\u002FLICENSE) [![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fimageai.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fimageai)   [![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_7878541d54b6.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fimageai) [![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_d3ee3eb59b78.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fimageai)\n\nAn open-source python library built to empower developers to build applications and systems with self-contained Deep Learning and Computer Vision capabilities using simple and few lines of code.\n \n If you will like to sponsor this project, kindly visit the \u003Cstrong>[Github sponsor page](https:\u002F\u002Fgithub.com\u002Fsponsors\u002FOlafenwaMoses)\u003C\u002Fstrong>.\n \n \n## ---------------------------------------------------\n## Introducing Jarvis and TheiaEngine.\n\nWe the creators of ImageAI are glad to announce 2 new AI projects to provide state-of-the-art Generative AI, LLM and Image Understanding on your personal computer and servers. \n\n\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_9ccad090d889.png)](https:\u002F\u002Fjarvis.genxr.co)\n\nInstall Jarvis on PC\u002FMac to setup limitless access to LLM powered AI Chats for your every day work, research and generative AI needs with 100% privacy and full offline capability.\n\n\nVisit [https:\u002F\u002Fjarvis.genxr.co](https:\u002F\u002Fjarvis.genxr.co\u002F) to get started.\n\n\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_2dac82624ac2.png)](https:\u002F\u002Fwww.genxr.co\u002Ftheia-engine)\n\n\n[TheiaEngine](https:\u002F\u002Fwww.genxr.co\u002Ftheia-engine), the next-generation computer Vision AI API capable of all Generative and Understanding computer vision tasks in a single API call and available via REST API to all programming languages. Features include\n- **Detect 300+ objects** ( 220 more objects than ImageAI)\n- **Provide answers to any content or context questions** asked on an image\n  - very useful to get information on any object, action or information without needing to train a new custom model for every tasks\n-  **Generate scene description and summary**\n-  **Convert 2D image to 3D pointcloud and triangular mesh**\n-  **Semantic Scene mapping of objects, walls, floors, etc**\n-  **Stateless Face recognition and emotion detection**\n-  **Image generation and augmentation from prompt**\n-  etc.\n\nVisit [https:\u002F\u002Fwww.genxr.co\u002Ftheia-engine](https:\u002F\u002Fwww.genxr.co\u002Ftheia-engine) to try the demo and join in the beta testing today.\n## ---------------------------------------------------\n \n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_fcac9331e33c.png)\n\nDeveloped and maintained by [Moses Olafenwa](https:\u002F\u002Ftwitter.com\u002FOlafenwaMoses)\n\n---\n\nBuilt with simplicity in mind, **ImageAI** \n    supports a list of state-of-the-art Machine Learning algorithms for image prediction, custom image prediction, object detection, video detection, video object tracking\n    and image predictions trainings. **ImageAI** currently supports image prediction and training using 4 different Machine Learning algorithms \n    trained on the ImageNet-1000 dataset. **ImageAI** also supports object detection, video detection and object tracking  using RetinaNet, YOLOv3 and TinyYOLOv3 trained on COCO dataset. Finally, **ImageAI** allows you to train custom models for performing detection and recognition of new objects. \n   \nEventually, **ImageAI** will provide support for a wider and more specialized aspects of Computer Vision\n\n\n**New Release : ImageAI 3.0.2**\n\nWhat's new:\n- PyTorch backend\n- TinyYOLOv3 model training\n\n\n### TABLE OF CONTENTS\n- \u003Ca href=\"#installation\" > :white_square_button: Installation\u003C\u002Fa>\n- \u003Ca href=\"#features\" > :white_square_button: Features\u003C\u002Fa>\n- \u003Ca href=\"#documentation\" > :white_square_button: Documentation\u003C\u002Fa>\n- \u003Ca href=\"#sponsors\" > :white_square_button: Sponsors\u003C\u002Fa>\n- \u003Ca href=\"#sample\" > :white_square_button: Projects Built on ImageAI\u003C\u002Fa>\n- \u003Ca href=\"#real-time-and-high-performance-implementation\" > :white_square_button: High Performance Implementation\u003C\u002Fa>\n- \u003Ca href=\"#recommendation\" > :white_square_button: AI Practice Recommendations\u003C\u002Fa>\n- \u003Ca href=\"#contact\" > :white_square_button: Contact Developers\u003C\u002Fa>\n- \u003Ca href=\"#citation\" > :white_square_button: Citation\u003C\u002Fa>\n- \u003Ca href=\"#ref\" > :white_square_button: References\u003C\u002Fa>\n\n\n\n## Installation\n\u003Cdiv id=\"installation\">\u003C\u002Fdiv>\n \nTo install ImageAI, run the python installation instruction below in the command line:\n\n- [Download and Install](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F) **Python 3.7**, **Python 3.8**, **Python 3.9** or **Python 3.10**\n- Install dependencies\n  - **CPU**: Download [requirements.txt](https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FImageAI\u002Fblob\u002Fmaster\u002Frequirements.txt) file and install via the command\n    ```\n    pip install -r requirements.txt\n    ```\n    or simply copy and run the command below\n\n    ```\n    pip install cython pillow>=7.0.0 numpy>=1.18.1 opencv-python>=4.1.2 torch>=1.9.0 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcpu torchvision>=0.10.0 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcpu pytest==7.1.3 tqdm==4.64.1 scipy>=1.7.3 matplotlib>=3.4.3 mock==4.0.3\n    ```\n\n  - **GPU\u002FCUDA**: Download [requirements_gpu.txt](https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FImageAI\u002Fblob\u002Fmaster\u002Frequirements_gpu.txt) file and install via the command\n    ```\n    pip install -r requirements_gpu.txt\n    ```\n    or smiply copy and run the command below\n    ```\n    pip install cython pillow>=7.0.0 numpy>=1.18.1 opencv-python>=4.1.2 torch>=1.9.0 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu102 torchvision>=0.10.0 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu102 pytest==7.1.3 tqdm==4.64.1 scipy>=1.7.3 matplotlib>=3.4.3 mock==4.0.3\n    ```\n- If you plan to train custom AI models, download [requirements_extra.txt](https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FImageAI\u002Fblob\u002Fmaster\u002Frequirements_extra.txt) file and install via the command\n  \n  ```\n  pip install -r requirements_extra.txt\n  ```\n  or simply copy and run the command below\n  ```\n  pip install pycocotools@git+https:\u002F\u002Fgithub.com\u002Fgautamchitnis\u002Fcocoapi.git@cocodataset-master#subdirectory=PythonAPI\n  ```\n- Then run the command below to install ImageAI\n  ```\n  pip install imageai --upgrade\n  ```\n\n## Features\n\u003Cdiv id=\"features\">\u003C\u002Fdiv>\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd>\u003Ch2> Image Classification\u003C\u002Fh2> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_12ebb4b94f6a.jpg\" >\n    \u003Ch4>ImageAI provides 4 different algorithms and model types to perform image prediction, trained on the ImageNet-1000 dataset. The 4 algorithms provided for image prediction include MobileNetV2, ResNet50, InceptionV3 and DenseNet121.\n    Click the link below to see the full sample codes, explanations and best practices guide.\u003C\u002Fh4>\n    \u003Ca href=\"imageai\u002FClassification\"> >>> Get Started\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \n \u003C\u002Ftable>\n\n \u003Cdiv id=\"features\">\u003C\u002Fdiv>\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd>\u003Ch2> Object Detection \u003C\u002Fh2> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_79ca9aae088f.jpg\">\n        \u003Ch4>ImageAI provides very convenient and powerful methods to perform object detection on images and extract each object from the image. The object detection class provides support for RetinaNet, YOLOv3 and TinyYOLOv3, with options to adjust for state of the art performance or real time processing. Click the link below to see the full sample codes, explanations and best practices guide.\u003C\u002Fh4>\n    \u003Ca href=\"imageai\u002FDetection\"> >>> Get Started\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \n \u003C\u002Ftable>\n\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd>\u003Ch2> Video Object Detection & Analysis\u003C\u002Fh2> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_4467c90dfc27.jpg\">\n    \u003Ch4>ImageAI provides very convenient and powerful methods to perform object detection in videos. The video object detection class provided only supports the current state-of-the-art RetinaNet. Click the link to see the full videos, sample codes, explanations and best practices guide.\u003C\u002Fh4>\n    \u003Ca href=\"imageai\u002FDetection\u002FVIDEO.md\"> >>> Get Started\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \n \u003C\u002Ftable>\n\n\n \u003Ctable>\n  \u003Ctr>\n    \u003Ctd>\u003Ch2> Custom Classification model training \u003C\u002Fh2> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_04e1462bbeb5.jpg\">\n        \u003Ch4>ImageAI provides classes and methods for you to train a new model that can be used to perform prediction on your own custom objects. You can train your custom models using MobileNetV2, ResNet50, InceptionV3 and DenseNet in 5 lines of code. Click the link below to see the guide to preparing training images, sample training codes, explanations and best practices.\u003C\u002Fh4>\n    \u003Ca href=\"imageai\u002FClassification\u002FCUSTOMTRAINING.md\"> >>> Get Started\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \n \u003C\u002Ftable>\n\n \u003Ctable>\n  \u003Ctr>\n    \u003Ctd>\u003Ch2> Custom Model Classification\u003C\u002Fh2> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_9f01fcf02c39.jpg\">\n    \u003Ch4>ImageAI provides classes and methods for you to run image prediction your own custom objects using your own model trained with ImageAI Model Training class. You can use your custom models trained with MobileNetV2, ResNet50, InceptionV3 and DenseNet and the JSON file containing the mapping of the custom object names. Click the link below to see the guide to sample training codes, explanations, and best practices guide.\u003C\u002Fh4>\n    \u003Ca href=\"imageai\u002FClassification\u002FCUSTOMCLASSIFICATION.md\"> >>> Get Started\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \n \u003C\u002Ftable>\n\n \u003Ctable>\n  \u003Ctr>\n    \u003Ctd>\u003Ch2> Custom Detection Model Training \u003C\u002Fh2> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_edbb3eba6b4a.jpg\">\n        \u003Ch4>ImageAI provides classes and methods for you to train new YOLOv3 or TinyYOLOv3 object detection models on your custom dataset. This means you can train a model to detect literally any object of interest by providing the images, the annotations and training with ImageAI. Click the link below to see the guide to sample training codes, explanations, and best practices guide.\u003C\u002Fh4>\n    \u003Ca href=\"imageai\u002FDetection\u002FCustom\u002FCUSTOMDETECTIONTRAINING.md\"> >>> Get Started\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \n \u003C\u002Ftable>\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd>\u003Ch2> Custom Object Detection\u003C\u002Fh2> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_3d4df8d87aae.jpg\">\n    \u003Ch4>ImageAI now provides classes and methods for you detect and recognize your own custom objects in images using your own model trained with the DetectionModelTrainer class. You can use your custom trained YOLOv3 or TinyYOLOv3 model and the **.json** file generated during the training. Click the link below to see the guide to sample training codes, explanations, and best practices guide.\u003C\u002Fh4>\n    \u003Ca href=\"imageai\u002FDetection\u002FCustom\u002FCUSTOMDETECTION.md\"> >>> Get Started\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n \u003C\u002Ftable>\n\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd>\u003Ch2> Custom Video Object Detection & Analysis \u003C\u002Fh2> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_cfd8a2dfa704.gif\">\n        \u003Ch4>ImageAI now provides classes and methods for you detect and recognize your own custom objects in images using your own model trained with the DetectionModelTrainer class. You can use your custom trained YOLOv3 or TinyYOLOv3 model and the **.json** file generated during the training. Click the link below to see the guide to sample training codes, explanations, and best practices guide.\u003C\u002Fh4>\n    \u003Ca href=\"imageai\u002FDetection\u002FCustom\u002FCUSTOMVIDEODETECTION.md\"> >>> Get Started\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n \u003C\u002Ftable>\n\n## Documentation\n\u003Cdiv id=\"documentation\">\u003C\u002Fdiv>\n\nWe have provided full documentation for all **ImageAI** classes and functions. Visit the link below:\n\n- Documentation - **English Version**  [https:\u002F\u002Fimageai.readthedocs.io](https:\u002F\u002Fimageai.readthedocs.io)\n\n\n## Sponsors\n\u003Cdiv id=\"sponsors\">\u003C\u002Fdiv>\n\n\n## Real-Time and High Performance Implementation\n\u003Cdiv id=\"performance\">\u003C\u002Fdiv>\n\n**ImageAI** provides abstracted and convenient implementations of state-of-the-art Computer Vision technologies. All of **ImageAI** implementations and code can work on any computer system with moderate CPU capacity. However, the speed of processing for operations like image prediction, object detection and others on CPU is slow and not suitable for real-time applications. To perform real-time Computer Vision operations with high performance, you need to use GPU enabled technologies.\n\n**ImageAI** uses the PyTorch backbone for it's Computer Vision operations. PyTorch supports both CPUs and GPUs ( Specifically NVIDIA GPUs.  You can get one for your PC or get a PC that has one) for machine learning and artificial intelligence algorithms' implementations.\n\n\n\n## Projects Built on ImageAI\n\u003Cdiv id=\"sample\">\u003C\u002Fdiv>\n\n\n\n## AI Practice Recommendations\n\u003Cdiv id=\"recommendation\">\u003C\u002Fdiv>\n\nFor anyone interested in building AI systems and using them for business, economic,  social and research purposes, it is critical that the person knows the likely positive, negative and unprecedented impacts the use of such technologies will have.\nThey must also be aware of approaches and practices recommended by experienced industry experts to ensure every use of AI brings overall benefit to mankind.\nWe therefore recommend to everyone that wishes to use ImageAI and other AI tools and resources to read Microsoft's January 2018 publication on AI titled \"The Future Computed : Artificial Intelligence and its role in society\".\nKindly follow the link below to download the publication.\n\n[https:\u002F\u002Fblogs.microsoft.com\u002Fblog\u002F2018\u002F01\u002F17\u002Ffuture-computed-artificial-intelligence-role-society](https:\u002F\u002Fblogs.microsoft.com\u002Fblog\u002F2018\u002F01\u002F17\u002Ffuture-computed-artificial-intelligence-role-society\u002F)\n\n### Contact Developer\n\u003Cdiv id=\"contact\">\u003C\u002Fdiv>\n\n- **Moses Olafenwa**\n    * _Email:_ guymodscientist@gmail.com\n    * _Twitter:_ [@OlafenwaMoses](https:\u002F\u002Ftwitter.com\u002FOlafenwaMoses)\n    * _Medium:_ [@guymodscientist](https:\u002F\u002Fmedium.com\u002F@guymodscientist)\n    * _Facebook:_ [moses.olafenwa](https:\u002F\u002Ffacebook.com\u002Fmoses.olafenwa)\n- **John Olafenwa**\n    * _Email:_ johnolafenwa@gmail.com\n    * _Website:_ [https:\u002F\u002Fjohn.aicommons.science](https:\u002F\u002Fjohn.aicommons.science)\n    * _Twitter:_ [@johnolafenwa](https:\u002F\u002Ftwitter.com\u002Fjohnolafenwa)\n    * _Medium:_ [@johnolafenwa](https:\u002F\u002Fmedium.com\u002F@johnolafenwa)\n    * _Facebook:_ [olafenwajohn](https:\u002F\u002Ffacebook.com\u002Folafenwajohn)\n\n\n### Citation\n\u003Cdiv id=\"citation\">\u003C\u002Fdiv>\n\nYou can cite **ImageAI** in your projects and research papers via the **BibTeX** entry below.  \n  \n```\n@misc {ImageAI,\n    author = \"Moses\",\n    title  = \"ImageAI, an open source python library built to empower developers to build applications and systems  with self-contained Computer Vision capabilities\",\n    url    = \"https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FImageAI\",\n    month  = \"mar\",\n    year   = \"2018--\"\n}\n```\n\n\n\n ### References\n \u003Cdiv id=\"ref\">\u003C\u002Fdiv>\n\n 1. Somshubra Majumdar, DenseNet Implementation of the paper, Densely Connected Convolutional Networks in Keras\n[https:\u002F\u002Fgithub.com\u002Ftitu1994\u002FDenseNet](https:\u002F\u002Fgithub.com\u002Ftitu1994\u002FDenseNet)\n 2. Broad Institute of MIT and Harvard, Keras package for deep residual networks\n[https:\u002F\u002Fgithub.com\u002Fbroadinstitute\u002Fkeras-resnet](https:\u002F\u002Fgithub.com\u002Fbroadinstitute\u002Fkeras-resnet)\n 3. Fizyr, Keras implementation of RetinaNet object detection\n[https:\u002F\u002Fgithub.com\u002Ffizyr\u002Fkeras-retinanet](https:\u002F\u002Fgithub.com\u002Ffizyr\u002Fkeras-retinanet)\n 4. Francois Chollet, Keras code and weights files for popular deeplearning models\n[https:\u002F\u002Fgithub.com\u002Ffchollet\u002Fdeep-learning-models](https:\u002F\u002Fgithub.com\u002Ffchollet\u002Fdeep-learning-models)\n 5. Forrest N. et al, SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and \u003C0.5MB model size\n[https:\u002F\u002Farxiv.org\u002Fabs\u002F1602.07360](https:\u002F\u002Farxiv.org\u002Fabs\u002F1602.07360)\n 6. Kaiming H. et al, Deep Residual Learning for Image Recognition\n[https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.03385](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.03385)\n 7. Szegedy. et al, Rethinking the Inception Architecture for Computer Vision\n[https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.00567](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.00567)\n 8. Gao. et al, Densely Connected Convolutional Networks\n[https:\u002F\u002Farxiv.org\u002Fabs\u002F1608.06993](https:\u002F\u002Farxiv.org\u002Fabs\u002F1608.06993)\n 9. Tsung-Yi. et al, Focal Loss for Dense Object Detection\n[https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.02002](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.02002)\n 10. O Russakovsky et al, ImageNet Large Scale Visual Recognition Challenge\n[https:\u002F\u002Farxiv.org\u002Fabs\u002F1409.0575](https:\u002F\u002Farxiv.org\u002Fabs\u002F1409.0575)\n 11. TY Lin et al, Microsoft COCO: Common Objects in Context\n[https:\u002F\u002Farxiv.org\u002Fabs\u002F1405.0312](https:\u002F\u002Farxiv.org\u002Fabs\u002F1405.0312)\n 12. Moses & John Olafenwa, A collection of images of identifiable professionals.\n[https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FIdenProf](https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FIdenProf)\n 13. Joseph Redmon and Ali Farhadi, YOLOv3: An Incremental Improvement.\n[https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.02767](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.02767)\n 14. Experiencor, Training and Detecting Objects with YOLO3\n[https:\u002F\u002Fgithub.com\u002Fexperiencor\u002Fkeras-yolo3](https:\u002F\u002Fgithub.com\u002Fexperiencor\u002Fkeras-yolo3)\n 15. MobileNetV2: Inverted Residuals and Linear Bottlenecks\n[https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.04381](https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.04381)\n 16. YOLOv3 in PyTorch > ONNX > CoreML > TFLite [https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3)\n","# ImageAI（v3.0.3）\n\n\n\n[![构建状态](https:\u002F\u002Ftravis-ci.com\u002FOlafenwaMoses\u002FImageAI.svg?branch=master)](https:\u002F\u002Ftravis-ci.com\u002FOlafenwaMoses\u002FImageAI)  [![许可证：MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-yellow.svg)](https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FImageAI\u002Fblob\u002Fmaster\u002FLICENSE) [![PyPI版本](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fimageai.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fimageai)   [![下载量](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_7878541d54b6.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fimageai) [![下载量](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_d3ee3eb59b78.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fimageai)\n\n一个开源的 Python 库，旨在使开发者能够仅用简单且少量的代码，构建具备独立深度学习和计算机视觉功能的应用程序和系统。\n\n如果您希望赞助本项目，请访问 \u003Cstrong>[GitHub 赞助页面](https:\u002F\u002Fgithub.com\u002Fsponsors\u002FOlafenwaMoses)\u003C\u002Fstrong>。\n\n## ---------------------------------------------------\n## 介绍 Jarvis 和 TheiaEngine。\n\n我们，ImageAI 的创建者，很高兴宣布两项新的 AI 项目，它们将在您的个人电脑和服务器上提供最先进的生成式 AI、LLM 和图像理解能力。\n\n\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_9ccad090d889.png)](https:\u002F\u002Fjarvis.genxr.co)\n\n在 PC\u002FMac 上安装 Jarvis，即可为您的日常工作、研究以及生成式 AI 需求设置无限访问权限的 LLM 驱动 AI 聊天功能，同时保证 100% 的隐私性和完全离线运行能力。\n\n\n请访问 [https:\u002F\u002Fjarvis.genxr.co](https:\u002F\u002Fjarvis.genxr.co\u002F) 开始使用。\n\n\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_2dac82624ac2.png)](https:\u002F\u002Fwww.genxr.co\u002Ftheia-engine)\n\n\n[TheiaEngine](https:\u002F\u002Fwww.genxr.co\u002Ftheia-engine)，是下一代计算机视觉 AI API，能够在一次 API 调用中完成所有生成式和理解类计算机视觉任务，并通过 REST API 对所有编程语言开放。其特点包括：\n- **检测 300 多种物体**（比 ImageAI 多 220 种）\n- **回答关于图像内容或上下文的任何问题**\n  - 这对于获取任何物体、动作或信息的相关资料非常有用，而无需为每个任务训练新的自定义模型\n-  **生成场景描述和摘要**\n-  **将 2D 图像转换为 3D 点云和三角网格**\n-  **对物体、墙壁、地板等进行语义场景映射**\n-  **无状态的人脸识别和情绪检测**\n-  **根据提示生成和增强图像**\n-  等等。\n\n请访问 [https:\u002F\u002Fwww.genxr.co\u002Ftheia-engine](https:\u002F\u002Fwww.genxr.co\u002Ftheia-engine) 体验演示并立即加入测试版计划。\n## ---------------------------------------------------\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_fcac9331e33c.png)\n\n由 [Moses Olafenwa](https:\u002F\u002Ftwitter.com\u002FOlafenwaMoses) 开发并维护。\n\n---\n\n以简洁为核心设计，**ImageAI** \n    支持一系列最先进的机器学习算法，用于图像预测、自定义图像预测、目标检测、视频目标检测、视频目标跟踪\n    以及图像预测训练。目前，**ImageAI** 支持使用 4 种不同的机器学习算法进行图像预测和训练，\n    这些算法均基于 ImageNet-1000 数据集进行训练。此外，**ImageAI** 还支持使用 RetinaNet、YOLOv3 和 TinyYOLOv3 进行目标检测、视频目标检测和目标跟踪，这些模型则基于 COCO 数据集进行训练。最后，**ImageAI** 允许您训练自定义模型，以执行新物体的检测和识别。 \n   \n未来，**ImageAI** 将提供更多更专业的计算机视觉功能。\n\n\n**新版本：ImageAI 3.0.2**\n\n新增内容：\n- PyTorch 后端\n- TinyYOLOv3 模型训练\n\n\n### 目录\n- \u003Ca href=\"#installation\" > :white_square_button: 安装\u003C\u002Fa>\n- \u003Ca href=\"#features\" > :white_square_button: 特性\u003C\u002Fa>\n- \u003Ca href=\"#documentation\" > :white_square_button: 文档\u003C\u002Fa>\n- \u003Ca href=\"#sponsors\" > :white_square_button: 赞助商\u003C\u002Fa>\n- \u003Ca href=\"#sample\" > :white_square_button: 基于 ImageAI 构建的项目\u003C\u002Fa>\n- \u003Ca href=\"#real-time-and-high-performance-implementation\" > :white_square_button: 高性能实现\u003C\u002Fa>\n- \u003Ca href=\"#recommendation\" > :white_square_button: AI 实践建议\u003C\u002Fa>\n- \u003Ca href=\"#contact\" > :white_square_button: 联系开发者\u003C\u002Fa>\n- \u003Ca href=\"#citation\" > :white_square_button: 引用\u003C\u002Fa>\n- \u003Ca href=\"#ref\" > :white_square_button: 参考文献\u003C\u002Fa>\n\n\n\n## 安装\n\u003Cdiv id=\"installation\">\u003C\u002Fdiv>\n\n要安装 ImageAI，请在命令行中运行以下 Python 安装说明：\n\n- 下载并安装 **Python 3.7**、**Python 3.8**、**Python 3.9** 或 **Python 3.10**\n- 安装依赖项\n  - **CPU**：下载 [requirements.txt](https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FImageAI\u002Fblob\u002Fmaster\u002Frequirements.txt) 文件，并通过以下命令安装：\n    ```\n    pip install -r requirements.txt\n    ```\n    或直接复制并运行以下命令：\n\n    ```\n    pip install cython pillow>=7.0.0 numpy>=1.18.1 opencv-python>=4.1.2 torch>=1.9.0 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcpu torchvision>=0.10.0 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcpu pytest==7.1.3 tqdm==4.64.1 scipy>=1.7.3 matplotlib>=3.4.3 mock==4.0.3\n    ```\n\n  - **GPU\u002FCUDA**：下载 [requirements_gpu.txt](https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FImageAI\u002Fblob\u002Fmaster\u002Frequirements_gpu.txt) 文件，并通过以下命令安装：\n    ```\n    pip install -r requirements_gpu.txt\n    ```\n    或直接复制并运行以下命令：\n    ```\n    pip install cython pillow>=7.0.0 numpy>=1.18.1 opencv-python>=4.1.2 torch>=1.9.0 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu102 torchvision>=0.10.0 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu102 pytest==7.1.3 tqdm==4.64.1 scipy>=1.7.3 matplotlib>=3.4.3 mock==4.0.3\n    ```\n- 如果您计划训练自定义 AI 模型，请下载 [requirements_extra.txt](https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FImageAI\u002Fblob\u002Fmaster\u002Frequirements_extra.txt) 文件，并通过以下命令安装：\n\n  ```\n  pip install -r requirements_extra.txt\n  ```\n  或直接复制并运行以下命令：\n  ```\n  pip install pycocotools@git+https:\u002F\u002Fgithub.com\u002Fgautamchitnis\u002Fcocoapi.git@cocodataset-master#subdirectory=PythonAPI\n  ```\n- 最后，运行以下命令安装 ImageAI：\n  ```\n  pip install imageai --upgrade\n  ```\n\n## 功能\n\u003Cdiv id=\"features\">\u003C\u002Fdiv>\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd>\u003Ch2> 图像分类\u003C\u002Fh2> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_12ebb4b94f6a.jpg\" >\n    \u003Ch4>ImageAI 提供了四种不同的算法和模型类型来进行图像预测，这些模型均基于 ImageNet-1000 数据集进行训练。这四种用于图像预测的算法包括 MobileNetV2、ResNet50、InceptionV3 和 DenseNet121。\n    点击下方链接查看完整的示例代码、详细说明以及最佳实践指南。\u003C\u002Fh4>\n    \u003Ca href=\"imageai\u002FClassification\"> >>> 开始使用\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \n \u003C\u002Ftable>\n\n \u003Cdiv id=\"features\">\u003C\u002Fdiv>\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd>\u003Ch2> 物体检测 \u003C\u002Fh2> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_79ca9aae088f.jpg\">\n        \u003Ch4>ImageAI 提供了非常便捷且强大的方法，用于在图像中执行物体检测，并从图像中提取每个物体。物体检测类支持 RetinaNet、YOLOv3 和 TinyYOLOv3，并提供选项以调整至最先进的性能或实现实时处理。点击下方链接查看完整的示例代码、详细说明以及最佳实践指南。\u003C\u002Fh4>\n    \u003Ca href=\"imageai\u002FDetection\"> >>> 开始使用\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \n \u003C\u002Ftable>\n\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd>\u003Ch2> 视频物体检测与分析\u003C\u002Fh2> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_4467c90dfc27.jpg\">\n    \u003Ch4>ImageAI 提供了非常便捷且强大的方法，用于在视频中执行物体检测。提供的视频物体检测类目前仅支持最先进的 RetinaNet。点击链接查看完整视频、示例代码、详细说明以及最佳实践指南。\u003C\u002Fh4>\n    \u003Ca href=\"imageai\u002FDetection\u002FVIDEO.md\"> >>> 开始使用\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \n \u003C\u002Ftable>\n\n\n \u003Ctable>\n  \u003Ctr>\n    \u003Ctd>\u003Ch2> 自定义分类模型训练 \u003C\u002Fh2> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_04e1462bbeb5.jpg\">\n        \u003Ch4>ImageAI 提供了类和方法，使您能够训练一个新的模型，该模型可用于对您自定义的对象进行预测。您只需五行代码，即可使用 MobileNetV2、ResNet50、InceptionV3 和 DenseNet 训练自定义模型。点击下方链接查看准备训练图像的指南、示例训练代码、详细说明以及最佳实践建议。\u003C\u002Fh4>\n    \u003Ca href=\"imageai\u002FClassification\u002FCUSTOMTRAINING.md\"> >>> 开始使用\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \n \u003C\u002Ftable>\n\n \u003Ctable>\n  \u003Ctr>\n    \u003Ctd>\u003Ch2> 自定义模型分类\u003C\u002Fh2> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_9f01fcf02c39.jpg\">\n    \u003Ch4>ImageAI 提供了类和方法，使您能够使用通过 ImageAI 模型训练类训练的自定义模型，对自己的自定义对象进行图像预测。您可以使用通过 MobileNetV2、ResNet50、InceptionV3 和 DenseNet 训练的自定义模型，以及包含自定义对象名称映射的 JSON 文件。点击下方链接查看示例训练代码、详细说明以及最佳实践指南。\u003C\u002Fh4>\n    \u003Ca href=\"imageai\u002FClassification\u002FCUSTOMCLASSIFICATION.md\"> >>> 开始使用\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \n \u003C\u002Ftable>\n\n \u003Ctable>\n  \u003Ctr>\n    \u003Ctd>\u003Ch2> 自定义检测模型训练 \u003C\u002Fh2> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_edbb3eba6b4a.jpg\">\n        \u003Ch4>ImageAI 提供了类和方法，使您能够基于自定义数据集训练新的 YOLOv3 或 TinyYOLOv3 物体检测模型。这意味着您可以通过提供图像、标注并借助 ImageAI 进行训练，来训练一个能够检测任何感兴趣对象的模型。点击下方链接查看示例训练代码、详细说明以及最佳实践指南。\u003C\u002Fh4>\n    \u003Ca href=\"imageai\u002FDetection\u002FCustom\u002FCUSTOMDETECTIONTRAINING.md\"> >>> 开始使用\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \n \u003C\u002Ftable>\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd>\u003Ch2> 自定义物体检测\u003C\u002Fh2> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_3d4df8d87aae.jpg\">\n    \u003Ch4>ImageAI 现在提供了类和方法，使您能够使用通过 DetectionModelTrainer 类训练的自定义模型，在图像中检测和识别您自己的自定义对象。您可以使用自己训练的 YOLOv3 或 TinyYOLOv3 模型，以及训练过程中生成的 **.json** 文件。点击下方链接查看示例训练代码、详细说明以及最佳实践指南。\u003C\u002Fh4>\n    \u003Ca href=\"imageai\u002FDetection\u002FCustom\u002FCUSTOMDETECTION.md\"> >>> 开始使用\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n \u003C\u002Ftable>\n\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd>\u003Ch2> 自定义视频物体检测与分析 \u003C\u002Fh2> \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_readme_cfd8a2dfa704.gif\">\n        \u003Ch4>ImageAI 现在提供了类和方法，使您能够使用通过 DetectionModelTrainer 类训练的自定义模型，在图像中检测和识别您自己的自定义对象。您可以使用自己训练的 YOLOv3 或 TinyYOLOv3 模型，以及训练过程中生成的 **.json** 文件。点击下方链接查看示例训练代码、详细说明以及最佳实践指南。\u003C\u002Fh4>\n    \u003Ca href=\"imageai\u002FDetection\u002FCustom\u002FCUSTOMVIDEODETECTION.md\"> >>> 开始使用\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n \u003C\u002Ftable>\n\n## 文档\n\u003Cdiv id=\"documentation\">\u003C\u002Fdiv>\n\n我们为所有 **ImageAI** 类和函数提供了完整的文档。请访问以下链接：\n\n- 文档 - 英文版  [https:\u002F\u002Fimageai.readthedocs.io](https:\u002F\u002Fimageai.readthedocs.io)\n\n\n## 赞助商\n\u003Cdiv id=\"sponsors\">\u003C\u002Fdiv>\n\n\n## 实时与高性能实现\n\u003Cdiv id=\"performance\">\u003C\u002Fdiv>\n\n**ImageAI** 提供了对最先进计算机视觉技术的抽象化和便捷实现。所有 **ImageAI** 的实现和代码都可以在具有中等 CPU 性能的任何计算机系统上运行。然而，在 CPU 上执行图像预测、物体检测等操作的速度较慢，不适合实时应用。若要以高性能执行实时计算机视觉任务，您需要使用支持 GPU 的技术。\n\n**ImageAI** 在其计算机视觉操作中使用 PyTorch 作为后端框架。PyTorch 同时支持 CPU 和 GPU（尤其是 NVIDIA GPU。您可以为自己的电脑配备 GPU，或者直接购买已配备 GPU 的电脑）来实现机器学习和人工智能算法。\n\n\n\n## 基于 ImageAI 构建的项目\n\u003Cdiv id=\"sample\">\u003C\u002Fdiv>\n\n## AI 实践建议\n\u003Cdiv id=\"recommendation\">\u003C\u002Fdiv>\n\n对于任何有兴趣构建人工智能系统并将其应用于商业、经济、社会和研究领域的人来说，至关重要的是要了解使用这些技术可能带来的积极、消极以及前所未有的影响。\n他们还必须熟悉经验丰富的行业专家推荐的方法和实践，以确保人工智能的每一次应用都能为人类带来整体利益。\n因此，我们建议所有希望使用 ImageAI 及其他人工智能工具和资源的人阅读微软于 2018 年 1 月发布的关于人工智能的报告《未来已来：人工智能及其在社会中的角色》。\n请通过以下链接下载该报告：\n\n[https:\u002F\u002Fblogs.microsoft.com\u002Fblog\u002F2018\u002F01\u002F17\u002Ffuture-computed-artificial-intelligence-role-society](https:\u002F\u002Fblogs.microsoft.com\u002Fblog\u002F2018\u002F01\u002F17\u002Ffuture-computed-artificial-intelligence-role-society\u002F)\n\n### 联系开发者\n\u003Cdiv id=\"contact\">\u003C\u002Fdiv>\n\n- **摩西·奥拉芬瓦**\n    * _邮箱:_ guymodscientist@gmail.com\n    * _Twitter:_ [@OlafenwaMoses](https:\u002F\u002Ftwitter.com\u002FOlafenwaMoses)\n    * _Medium:_ [@guymodscientist](https:\u002F\u002Fmedium.com\u002F@guymodscientist)\n    * _Facebook:_ [moses.olafenwa](https:\u002F\u002Ffacebook.com\u002Fmoses.olafenwa)\n- **约翰·奥拉芬瓦**\n    * _邮箱:_ johnolafenwa@gmail.com\n    * _网站:_ [https:\u002F\u002Fjohn.aicommons.science](https:\u002F\u002Fjohn.aicommons.science)\n    * _Twitter:_ [@johnolafenwa](https:\u002F\u002Ftwitter.com\u002Fjohnolafenwa)\n    * _Medium:_ [@johnolafenwa](https:\u002F\u002Fmedium.com\u002F@johnolafenwa)\n    * _Facebook:_ [olafenwajohn](https:\u002F\u002Ffacebook.com\u002Folafenwajohn)\n\n\n### 引用\n\u003Cdiv id=\"citation\">\u003C\u002Fdiv>\n\n您可以通过以下 BibTeX 条目在您的项目和研究论文中引用 **ImageAI**。  \n  \n```\n@misc {ImageAI,\n    author = \"Moses\",\n    title  = \"ImageAI，一个开源的 Python 库，旨在帮助开发者构建具有自包含计算机视觉功能的应用程序和系统\",\n    url    = \"https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FImageAI\",\n    month  = \"mar\",\n    year   = \"2018--\"\n}\n```\n\n\n\n ### 参考文献\n \u003Cdiv id=\"ref\">\u003C\u002Fdiv>\n\n 1. Somshubra Majumdar，论文《密集连接卷积网络》的 Keras 实现——DenseNet\n[https:\u002F\u002Fgithub.com\u002Ftitu1994\u002FDenseNet](https:\u002F\u002Fgithub.com\u002Ftitu1994\u002FDenseNet)\n 2. 麻省理工学院和哈佛大学布罗德研究所，深度残差网络的 Keras 包\n[https:\u002F\u002Fgithub.com\u002Fbroadinstitute\u002Fkeras-resnet](https:\u002F\u002Fgithub.com\u002Fbroadinstitute\u002Fkeras-resnet)\n 3. Fizyr，RetinaNet 目标检测的 Keras 实现\n[https:\u002F\u002Fgithub.com\u002Ffizyr\u002Fkeras-retinanet](https:\u002F\u002Fgithub.com\u002Ffizyr\u002Fkeras-retinanet)\n 4. Francois Chollet，流行深度学习模型的 Keras 代码和权重文件\n[https:\u002F\u002Fgithub.com\u002Ffchollet\u002Fdeep-learning-models](https:\u002F\u002Fgithub.com\u002Ffchollet\u002Fdeep-learning-models)\n 5. Forrest N. 等人，SqueezeNet：参数量减少 50 倍、模型大小小于 0.5MB 却达到 AlexNet 级别的准确率\n[https:\u002F\u002Farxiv.org\u002Fabs\u002F1602.07360](https:\u002F\u002Farxiv.org\u002Fabs\u002F1602.07360)\n 6. Kaiming H. 等人，用于图像识别的深度残差学习\n[https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.03385](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.03385)\n 7. Szegedy 等人，重新思考计算机视觉中的 Inception 架构\n[https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.00567](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.00567)\n 8. Gao 等人，密集连接卷积网络\n[https:\u002F\u002Farxiv.org\u002Fabs\u002F1608.06993](https:\u002F\u002Farxiv.org\u002Fabs\u002F1608.06993)\n 9. Tsung-Yi 等人，用于密集目标检测的焦点损失\n[https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.02002](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.02002)\n 10. O Russakovsky 等人，ImageNet 大规模视觉识别挑战赛\n[https:\u002F\u002Farxiv.org\u002Fabs\u002F1409.0575](https:\u002F\u002Farxiv.org\u002Fabs\u002F1409.0575)\n 11. TY Lin 等人，Microsoft COCO：上下文中的常见物体\n[https:\u002F\u002Farxiv.org\u002Fabs\u002F1405.0312](https:\u002F\u002Farxiv.org\u002Fabs\u002F1405.0312)\n 12. 摩西与约翰·奥拉芬瓦，可识别专业人士的图片集\n[https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FIdenProf](https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FIdenProf)\n 13. Joseph Redmon 和 Ali Farhadi，YOLOv3：一项渐进式改进\n[https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.02767](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.02767)\n 14. Experiencor，使用 YOLO3 进行训练和目标检测\n[https:\u002F\u002Fgithub.com\u002Fexperiencor\u002Fkeras-yolo3](https:\u002F\u002Fgithub.com\u002Fexperiencor\u002Fkeras-yolo3)\n 15. MobileNetV2：倒置残差与线性瓶颈\n[https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.04381](https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.04381)\n 16. PyTorch > ONNX > CoreML > TFLite 中的 YOLOv3 [https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3)","# ImageAI 快速上手指南\n\nImageAI 是一个开源 Python 库，旨在让开发者仅需几行代码即可构建具备深度学习和计算机视觉能力的应用。它支持图像分类、物体检测、视频分析及自定义模型训练等功能。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Windows, Linux, macOS\n*   **Python 版本**：推荐安装 **Python 3.7**, **3.8**, **3.9** 或 **3.10**。\n    *   下载地址：[https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F)\n*   **硬件建议**：\n    *   **CPU**：适用于学习和轻量级任务。\n    *   **GPU (CUDA)**：如需进行实时处理或模型训练，建议配备 NVIDIA 显卡并安装对应的 CUDA 驱动。\n\n## 2. 安装步骤\n\n打开终端（Terminal）或命令提示符（CMD），按顺序执行以下命令。\n\n### 第一步：安装基础依赖\n\n根据您的硬件环境选择以下其中一条命令执行：\n\n**选项 A：仅使用 CPU**\n```bash\npip install cython pillow>=7.0.0 numpy>=1.18.1 opencv-python>=4.1.2 torch>=1.9.0 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcpu torchvision>=0.10.0 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcpu pytest==7.1.3 tqdm==4.64.1 scipy>=1.7.3 matplotlib>=3.4.3 mock==4.0.3\n```\n\n**选项 B：使用 GPU (CUDA 10.2)**\n```bash\npip install cython pillow>=7.0.0 numpy>=1.18.1 opencv-python>=4.1.2 torch>=1.9.0 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu102 torchvision>=0.10.0 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu102 pytest==7.1.3 tqdm==4.64.1 scipy>=1.7.3 matplotlib>=3.4.3 mock==4.0.3\n```\n\n> **国内加速提示**：如果下载速度较慢，可在上述命令的 `pip install` 后添加 `-i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple` 使用清华镜像源加速基础包下载（注意：PyTorch 的特殊索引 URL 需保留原样）。\n\n### 第二步：安装自定义训练依赖（可选）\n如果您计划训练自己的 AI 模型，请额外运行：\n```bash\npip install pycocotools@git+https:\u002F\u002Fgithub.com\u002Fgautamchitnis\u002Fcocoapi.git@cocodataset-master#subdirectory=PythonAPI\n```\n\n### 第三步：安装 ImageAI\n最后，安装或升级 ImageAI 库：\n```bash\npip install imageai --upgrade\n```\n\n## 3. 基本使用\n\n以下是最简单的**图像分类**示例。该代码将使用预训练的 ResNet50 模型识别图片内容。\n\n### 示例代码：图像分类预测\n\n请确保当前目录下有一张名为 `input.jpg` 的图片，然后创建 `predict.py` 文件并写入以下代码：\n\n```python\nfrom imageai.Classification import ImageClassification\nimport os\n\n# 初始化分类器\nexecution_path = os.getcwd()\npredictor = ImageClassification()\npredictor.setModelTypeAsResNet()\npredictor.setModelPath(os.path.join(execution_path, \"resnet50_weights_tf_dim_224_tf_1.0.0.h5\"))\npredictor.loadModel()\n\n# 执行预测\npredictions, probabilities = predictor.classifyImage(\n    os.path.join(execution_path, \"input.jpg\"), \n    result_count=5\n)\n\n# 输出结果\nfor eachPrediction, eachProbability in zip(predictions, probabilities):\n    print(f\"{eachPrediction} : {eachProbability}%\")\n```\n\n### 运行说明\n1.  **下载模型**：首次运行时，ImageAI 会自动下载 `resnet50_weights_tf_dim_224_tf_1.0.0.h5` 模型文件（约 98MB）。如果自动下载失败，可手动从官方文档提供的链接下载并放在脚本同一目录下。\n2.  **准备图片**：将任意图片重命名为 `input.jpg` 并放在脚本同一目录。\n3.  **运行脚本**：\n    ```bash\n    python predict.py\n    ```\n\n程序将输出图片中概率最高的前 5 个物体类别及其置信度。\n\n---\n*更多功能（如物体检测、视频分析、自定义模型训练）请参考官方文档：[https:\u002F\u002Fimageai.readthedocs.io](https:\u002F\u002Fimageai.readthedocs.io)*","某中小型电商平台的开发团队需要为二手商品上架流程构建自动化的图像审核与分类系统，以识别违规物品并自动填写商品标签。\n\n### 没有 ImageAI 时\n- 开发人员需从零搭建复杂的深度学习环境，手动配置 TensorFlow 或 PyTorch 底层依赖，耗时数周且极易出错。\n- 实现物体检测功能需要收集海量数据并训练自定义模型，对于缺乏算法专家的小团队而言门槛过高。\n- 处理用户上传的视频验货内容时，无法低成本实现逐帧对象追踪，导致只能依赖昂贵且延迟高的第三方云服务。\n- 代码耦合度高，每增加一种新的识别需求（如从识别“手机”扩展到识别“破损屏幕”），都需要重构大量底层逻辑。\n\n### 使用 ImageAI 后\n- 仅需几行 Python 代码即可调用预训练的 RetinaNet 或 YOLOv3 模型，半天内便完成了核心检测功能的部署。\n- 利用 ImageAI 内置的自定义训练模块，团队用少量样本快速微调了模型，精准识别出平台特有的违禁品类别。\n- 直接启用视频检测与对象追踪 API，轻松实现了对验货视频中商品移动轨迹的分析，且完全在本地服务器运行，保障了数据隐私。\n- 统一的库结构让图像预测、物体检测和视频监控功能无缝集成，后续迭代新功能时无需改动原有架构，开发效率提升显著。\n\nImageAI 将高深的计算机视觉技术封装为简洁的接口，让普通开发者也能以极低的成本构建具备独立感知能力的智能应用。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlafenwaMoses_ImageAI_fcac9331.png","OlafenwaMoses","MOSES OLAFENWA","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FOlafenwaMoses_e6c30d0c.jpg","Software Engineer, Self-taught computer programmer, Deep Learning, Computer Vision Engineer.\r\nCreator of ImageAI.\r\nPreviously @Microsoft and @Babylonhealth",null,"London","guymodscientist@gmail.com","http:\u002F\u002Ftwitter.com\u002FOlafenwaMoses","https:\u002F\u002Fgithub.com\u002FOlafenwaMoses",[82,86],{"name":83,"color":84,"percentage":85},"Python","#3572A5",99.8,{"name":87,"color":88,"percentage":89},"Cython","#fedf5b",0.2,8867,2201,"2026-04-07T04:01:09","MIT","Linux, macOS, Windows","非必需（支持 CPU 模式）。若使用 GPU，需 NVIDIA 显卡且支持 CUDA 10.2 (cu102)，具体显存大小未说明。","未说明",{"notes":98,"python":99,"dependencies":100},"该库支持纯 CPU 运行，但官方指出在 CPU 上处理速度较慢，不适合实时应用；若需高性能或实时处理建议使用 GPU 环境。若要训练自定义 AI 模型，需额外安装 pycocotools 依赖。新版 (v3.0+) 后端已切换为 PyTorch。","3.7, 3.8, 3.9, 3.10",[101,102,103,104,105,106,107,108,109],"torch>=1.9.0","torchvision>=0.10.0","opencv-python>=4.1.2","numpy>=1.18.1","pillow>=7.0.0","scipy>=1.7.3","matplotlib>=3.4.3","tqdm==4.64.1","pycocotools (仅自定义模型训练需要)",[111,14,15],"视频",[113,114,115,116,117,118,119,120,121,122,123,124,125,126,127,128,129,130,131],"artificial-intelligence","machine-learning","prediction","image-prediction","python","python3","offline-capable","imageai","artificial-neural-networks","algorithm","image-recognition","object-detection","squeezenet","densenet","video","inceptionv3","detection","gpu","ai-practice-recommendations",5,"2026-03-27T02:49:30.150509","2026-04-11T18:32:05.103130",[136,141,146,151,156,160],{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},22610,"如何在 ImageAI 中进行模型微调（Fine-tuning）或迁移学习？","可以通过自定义训练功能进行迁移学习。建议准备每个类别至少 200 张图像以获得较好效果，但具体数量视情况而定。您可以使用预训练模型（如 pretrained-yolov3.h5）作为起点，通过设置 train_from_pretrained_model 参数来加载权重。详细的目录结构和配置说明请参考官方文档：https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FImageAI\u002Fblob\u002Fmaster\u002Fimageai\u002FDetection\u002FCustom\u002FCUSTOMDETECTIONTRAINING.md#trainingdataset","https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FImageAI\u002Fissues\u002F8",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},22611,"遇到 TensorFlow 2.0 报错 'RuntimeError: The Session graph is empty' 如何解决？","这是由于 TensorFlow 2.0 默认禁用了 eager execution 导致的兼容性问题。解决方法是将代码中的 tf.Session() 替换为 tf.compat.v1.Session()。例如：\n使用 tf.compat.v1.Session() 代替 tf.Session() 即可正常运行。","https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FImageAI\u002Fissues\u002F400",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},22612,"加载自定义模型时出现 'OSError: Unable to open file (Truncated file)' 或 'ValueError: incorrect path' 错误怎么办？","该错误通常由以下两个原因引起：\n1. 模型文件损坏或未完整下载（表现为 Truncated file）。\n2. 模型文件名被修改。有用户反馈，如果重命名了 .h5 模型文件（例如从 idenprof_061-0.7933.h5 改为其他名字），会导致加载失败。请尝试恢复原始文件名或使用未重命名的模型文件。","https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FImageAI\u002Fissues\u002F43",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},22613,"如何检测特定背景（如白色背景）或提高小样本分类的准确率？","对于特定背景检测或小样本问题，建议采取以下措施：\n1. 数据增强（Data Augmentation）：如果样本量少，可以对现有图像进行水平翻转等操作生成变体，以增加训练数据量。\n2. 监控损失函数：绘制损失函数（loss）随训练步数的变化曲线。如果损失在下降，说明模型正在学习；如果损失上升或准确率停滞，可能需要调整实验次数（num_experiments）或更换模型架构（如尝试 DenseNet）。","https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FImageAI\u002Fissues\u002F324",{"id":157,"question_zh":158,"answer_zh":159,"source_url":140},22614,"训练自定义对象检测模型时出现 'Some labels have no annotations!' 错误如何处理？","此错误表示配置文件中标注的某些标签在训练图像的标注文件中找不到对应的数据。请检查您的数据集目录结构，确保所有在 object_names_array 中定义的类别都在标注文件中有实际对应的标注框。同时，参考官方文档确认多对象学习的目录结构是否正确：https:\u002F\u002Fgithub.com\u002FOlafenwaMoses\u002FImageAI\u002Fblob\u002Fmaster\u002Fimageai\u002FDetection\u002FCustom\u002FCUSTOMDETECTIONTRAINING.md",{"id":161,"question_zh":162,"answer_zh":163,"source_url":140},22615,"在进行自定义训练时，推荐每个对象准备多少张图片？可以包含多少个类别？","虽然没有绝对的上限，但通常建议每个待训练的对象类别至少准备 200 张图像，以确保模型能学习到足够的特征。关于类别数量，理论上您可以包含任意数量的类别，但这会增加训练难度和对数据量的需求。如果数据量有限，建议先专注于少数几个关键类别。",[165,170,174,178,183,188,193,198,203,208,213,218],{"id":166,"version":167,"summary_zh":168,"released_at":169},136318,"test-resources-v3","测试资源","2022-12-20T21:17:57",{"id":171,"version":172,"summary_zh":76,"released_at":173},136319,"3.0.0-pretrained","2022-11-10T19:41:27",{"id":175,"version":176,"summary_zh":76,"released_at":177},136320,"essentials-v5","2021-01-04T19:24:41",{"id":179,"version":180,"summary_zh":181,"released_at":182},136321,"2.1.0","这是 ImageAI 的一次重大发布，提供了更丰富的 API，专门用于在自定义数据集上训练和检测自定义 YOLOv3 模型。\n\n新增功能：\n- 在采用 Pascal VOC 格式标注的自定义图像数据集上训练 **自定义 YOLOv3 模型**\n- 对已保存的自定义模型进行单模型和多模型的 **mAP** 评估\n- 使用 **自定义 YOLOv3 模型** 进行图像目标检测\n- 使用 **自定义 YOLOv3 模型** 进行视频目标检测\n- 使用 **自定义 YOLOv3 模型** 进行视频检测分析\n- 所有自定义检测功能均支持文件和 NumPy 数组作为输入\u002F输出","2019-07-30T13:03:24",{"id":184,"version":185,"summary_zh":186,"released_at":187},136322,"essential-v4","本版本包含用于训练自定义目标检测模型及执行检测的辅助文件。该版本中的文件如下：\n\n- **pretrained-yolov3.h5**：一个预训练的 YOLOv3 模型，可用于在训练新检测模型时进行迁移学习。\n\n- **hololens.zip**：一个带有 Pascal VOC 标注的 Hololens 样本检测数据集。\n\n- **headset.zip**：一个同时包含 Hololens 和 Oculus 头显的样本检测数据集，并附有 Pascal VOC 标注。\n\n- **hololens-ex-60--loss-2.76.h5**：使用 ImageAI 在 Hololens 数据集上训练得到的 YOLOv3 模型。\n\n- **detection_config.json**：用于在图像和视频中使用针对 Hololens 训练的 YOLOv3 模型执行检测的配置 JSON 文件。","2019-07-30T08:27:19",{"id":189,"version":190,"summary_zh":191,"released_at":192},136323,"2.0.3","这是 ImageAI 的一次重大发布，提供了更丰富的自定义模型和识别相关 API。该轮子包适用于 Python 3.x。\n\n新增功能：\n\n- 新增设置视频检测超时时间的选项（单位：秒）\n- 新增以完整格式保存训练好的自定义模型的选项\n- 支持使用完全保存的模型进行自定义预测，无需指定网络类型\n- 支持使用任何完全保存的 Keras 模型进行自定义预测\n- 支持将自定义训练模型转换为 TensorFlow (.pb) 格式\n- 支持从先前保存的自定义模型继续训练\n- 支持针对小数据集从预训练模型进行迁移学习\n- 训练过程中仅保存精度提升的模型\n- 支持加载并使用多个自定义模型进行预测\n- 支持将模型导出为 DeepStack 格式\n","2019-06-13T13:13:20",{"id":194,"version":195,"summary_zh":196,"released_at":197},136324,"models-v3","本版本中包含示例代码中使用的模型。","2019-06-13T10:45:45",{"id":199,"version":200,"summary_zh":201,"released_at":202},136325,"2.0.2","这是 ImageAI 的一次重大版本发布，提供了更加丰富的 API 接口。该轮子包适用于 Python 3.x。\n\n\n新特性：\n- 修复了若干 bug\n\n- 在自定义图像预测模型训练过程中，新增指定输入图像尺寸的选项\n\n- 目标检测和视频目标检测功能现不仅会返回每个检测到的目标名称及置信度百分比，还会返回每个目标的边界框坐标（x1, y1, x2, y2）\n\n- 新增选项，可选择在检测后的图像或视频中隐藏置信度百分比和\u002F或目标名称\n\n- 支持从设备摄像头、外接摄像头及 IP 摄像头进行视频流的实时目标检测\n\n- 所有目标检测和视频目标检测任务均支持 YOLOv3 和 TinyYOLOv3 模型\n\n- 视频目标检测功能现已针对所有输入类型（视频文件和摄像头）开放，允许用户定义自定义函数，在每帧、每秒或每分钟的检测与处理完成后执行；同时，还支持在整段视频完全检测并处理完毕时执行特定的自定义函数\n\n- 对于每个指定的自定义函数，ImageAI 会返回对应帧、秒级、分钟级或整段视频的检测分析结果，其中包括每个目标的详细信息（名称、置信度百分比、边界框坐标）、各唯一目标的检测实例数量（计数），以及在秒级、分钟级或整段视频分析中，各唯一目标平均检测实例数量的统计信息\n\n- 新增选项，可在每帧、每秒或每分钟的处理完成后，将检测到的帧以 NumPy 数组的形式返回。","2018-07-15T21:36:10",{"id":204,"version":205,"summary_zh":206,"released_at":207},136326,"1.0.1","本版本包含在 IdenProf（可识别专业人士数据集）上预训练的模型，以及模型的 JSON 类别映射文件。","2018-05-24T23:50:40",{"id":209,"version":210,"summary_zh":211,"released_at":212},136327,"1.0","此版本包含 ImageAI 中用于图像识别和目标识别任务的预训练模型。","2018-05-24T23:13:08",{"id":214,"version":215,"summary_zh":216,"released_at":217},136328,"2.0.1","这是 \u003Cb>ImageAI\u003C\u002Fb> 的一次重大发布，提供了更丰富的 API 以及未来更新的基础实现。该轮子包适用于 Python 3.x。 \u003Cbr>\n\u003Cbr> 新增内容：\n\u003Cbr>\n- 增加了基于 SqueezeNet、ResNet50、InceptionV3 和 DenseNet121 的自定义图像预测模型训练功能 \u003Cbr>\n- 增加了使用自定义训练模型及生成的模型类 JSON 文件进行自定义图像预测的功能 \u003Cbr>\n- 预览版：新增视频目标检测和视频自定义目标检测（目标跟踪）功能 \u003Cbr>\n- 为所有图像预测和目标检测任务增加了文件、NumPy 数组和流输入类型（视频检测仅支持文件输入） \u003Cbr>\n- 为图像中的目标检测和自定义目标检测增加了文件和 NumPy 数组输出类型 \u003Cbr>\n- 引入了 4 种速度模式（‘normal’、‘fast’、‘faster’ 和 ‘fastest’），用于图像预测，在‘fastest’ 模式下可在保持预测准确率的同时将预测时间缩短 50% \u003Cbr>\n- 为所有目标检测和视频目标检测任务引入了 5 种速度模式（‘normal’、‘fast’、‘faster’、‘fastest’ 和 ‘flash’），在‘flash’ 模式下可将检测时间缩短 80% 以上，同时通过设置较低的‘minimum_percentage_probability’ 参数来平衡检测精度 \u003Cbr>\n- 引入了帧检测速率功能，允许开发者调整视频中检测的间隔，以获得实时或接近实时的结果。 \u003Cbr>  \u003Cbr>\n\u003Cbr>","2018-05-24T16:44:34",{"id":219,"version":220,"summary_zh":221,"released_at":222},136329,"1.0.2","该版本的ImageAI支持图像预测、目标检测和目标提取。","2018-04-11T07:12:24"]