[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-dmlc--gluon-cv":3,"tool-dmlc--gluon-cv":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",143909,2,"2026-04-07T11:33:18",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":77,"languages":78,"stars":105,"forks":106,"last_commit_at":107,"license":108,"difficulty_score":32,"env_os":109,"env_gpu":110,"env_ram":109,"env_deps":111,"category_tags":118,"github_topics":119,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":133,"updated_at":134,"faqs":135,"releases":165},5234,"dmlc\u002Fgluon-cv","gluon-cv","Gluon CV Toolkit","Gluon CV 是一款专注于计算机视觉领域的开源深度学习工具包，旨在提供业界最先进的（SOTA）模型实现。它主要解决了研究人员和工程师在复现前沿论文结果时面临的代码复杂、环境配置难以及从零训练耗时过长等痛点。通过封装精心设计的 API，Gluon CV 大幅降低了模型实现的复杂度，让用户能快速原型化产品或验证研究思路。\n\n这款工具非常适合人工智能研究员、算法工程师以及希望快速上手深度学习的学生使用。其核心亮点在于同时支持 MXNet 和 PyTorch 两大主流框架，打破了框架壁垒。工具包内置了超过 50 种预训练模型，涵盖图像分类、目标检测、语义分割及实例分割等多种任务，并提供了完整的训练脚本以确保能复现论文中的高精度结果。此外，Gluon CV 拥有活跃的社区支持，并与 AutoGluon 生态紧密集成，进一步扩展了其在多模态预测方面的能力。无论是进行学术探索还是工业级应用开发，Gluon CV 都能帮助用户用更少的代码高效构建高性能的视觉模型。","# Gluon CV Toolkit\n\n![Build Status](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Fworkflows\u002FUnit%20Test\u002Fbadge.svg?branch=master&event=push)\n[![GitHub license](docs\u002F_static\u002Fapache2.svg)](.\u002FLICENSE)\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fgluoncv.svg)](https:\u002F\u002Fpypi.python.org\u002Fpypi\u002Fgluoncv)\n[![PyPI Pre-release](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpypi--prerelease-v0.11.0-ff69b4.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fgluoncv\u002F#history)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_492ea89b54d9.png)](http:\u002F\u002Fpepy.tech\u002Fproject\u002Fgluoncv)\n\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fresnest-split-attention-networks\u002Fsemantic-segmentation-on-ade20k)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fsemantic-segmentation-on-ade20k?p=resnest-split-attention-networks)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fresnest-split-attention-networks\u002Fobject-detection-on-coco)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fobject-detection-on-coco?p=resnest-split-attention-networks)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fresnest-split-attention-networks\u002Finstance-segmentation-on-coco)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Finstance-segmentation-on-coco?p=resnest-split-attention-networks)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fresnest-split-attention-networks\u002Fpanoptic-segmentation-on-coco-panoptic)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fpanoptic-segmentation-on-coco-panoptic?p=resnest-split-attention-networks)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fresnest-split-attention-networks\u002Fimage-classification-on-imagenet)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fimage-classification-on-imagenet?p=resnest-split-attention-networks)\n\n| [Installation](https:\u002F\u002Fgluon-cv.mxnet.io\u002Finstall.html) | [Documentation](https:\u002F\u002Fgluon-cv.mxnet.io) | [Tutorials](https:\u002F\u002Fgluon-cv.mxnet.io\u002Ftutorials\u002Findex.html) |\n\nGluonCV provides implementations of the state-of-the-art (SOTA) deep learning models in computer vision.\n\nIt is designed for engineers, researchers, and\nstudents to fast prototype products and research ideas based on these\nmodels. This toolkit offers four main features:\n\n1. Training scripts to reproduce SOTA results reported in research papers\n2. Supports both PyTorch and MXNet\n3. A large number of pre-trained models\n4. Carefully designed APIs that greatly reduce the implementation complexity\n5. Community supports\n\nPlease also checkout [AutoGluon](https:\u002F\u002Fgithub.com\u002Fautogluon\u002Fautogluon) if you have [image classification](https:\u002F\u002Fauto.gluon.ai\u002Fstable\u002Ftutorials\u002Fmultimodal\u002Fimage_prediction\u002Findex.html) or [object detection](https:\u002F\u002Fauto.gluon.ai\u002Fstable\u002Ftutorials\u002Fmultimodal\u002Fobject_detection\u002Findex.html) needs. We have built the [MultimodalPredictor](https:\u002F\u002Fauto.gluon.ai\u002Fstable\u002Ftutorials\u002Fmultimodal\u002Findex.html) with an improved model zoo, including [TIMM](https:\u002F\u002Fgithub.com\u002Frwightman\u002Fpytorch-image-models), [Huggingface](https:\u002F\u002Fhuggingface.co\u002F), [MMDetection](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection) and more. With just a few lines of code, you can train and deploy high accuracy computer vision models for your application.\n\n\n# Demo\n\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_df230fc197fa.gif\">\n\u003C\u002Fdiv>\n\n\u003Cbr>\n\nCheck the HD video at [Youtube](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=nfpouVAzXt0) or [Bilibili](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002Fav55619231).\n\n\n# Supported Applications\n\n| Application  | Illustration  | Available Models |\n|:-----------------------:|:---:|:---:|\n| [Image Classification:](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html) \u003Cbr\u002F>recognize an object in an image.  | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html\">\u003Cimg  src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_756c67852be7.png\" alt=\"classification\" height=\"200\"\u002F>\u003C\u002Fa>  | 50+ models, including \u003Cbr\u002F>\u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html#resnet\">ResNet\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html#mobilenet\">MobileNet\u003C\u002Fa>, \u003Cbr\u002F>\u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html#densenet\">DenseNet\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html#vgg\">VGG\u003C\u002Fa>, ... |\n| [Object Detection:](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdetection.html) \u003Cbr\u002F>detect multiple objects with their \u003Cbr\u002F> bounding boxes in an image.     |  \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdetection.html\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_510c3fa51005.png\" alt=\"detection\" height=\"200\"\u002F>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdetection.html#faster-rcnn\">Faster RCNN\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdetection.html#ssd\">SSD\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdetection.html#yolo-v3\">Yolo-v3\u003C\u002Fa> |\n| [Semantic Segmentation:](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation) \u003Cbr\u002F>associate each pixel of an image \u003Cbr\u002F> with a categorical label. |  \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_d35a524bb53e.png\" alt=\"semantic\" height=\"200\"\u002F>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation\">FCN\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation\">PSP\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation\">ICNet\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation\">DeepLab-v3\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation\">DeepLab-v3+\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation\">DANet\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation\">FastSCNN\u003C\u002Fa> |\n| [Instance Segmentation:](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#instance-segmentation) \u003Cbr\u002F>detect objects and associate \u003Cbr\u002F> each pixel inside object area with an \u003Cbr\u002F> instance label. | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#instance-segmentation\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_2d8b44434a05.png\" alt=\"instance\" height=\"200\"\u002F>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#instance-segmentation\">Mask RCNN\u003C\u002Fa>|\n| [Pose Estimation:](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fpose.html) \u003Cbr\u002F>detect human pose \u003Cbr\u002F> from images. | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fpose.html\">\u003Cimg src=\"docs\u002F_static\u002Fpose-estimation.svg\" alt=\"pose\" height=\"200\"\u002F>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fpose.html#simple-pose-with-resnet\">Simple Pose\u003C\u002Fa>|\n| [Video Action Recognition:](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html) \u003Cbr\u002F>recognize human actions \u003Cbr\u002F> in a video. | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_4025cec97344.png\" alt=\"action_recognition\" height=\"200\"\u002F>\u003C\u002Fa> | MXNet: \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">TSN\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">C3D\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">I3D\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">I3D_slow\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">P3D\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">R3D\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">R2+1D\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">Non-local\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">SlowFast\u003C\u002Fa> \u003Cbr\u002F> PyTorch: \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">TSN\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">I3D\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">I3D_slow\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">R2+1D\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">Non-local\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">CSN\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">SlowFast\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">TPN\u003C\u002Fa> |\n| [Depth Prediction:](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdepth.html) \u003Cbr\u002F>predict depth map \u003Cbr\u002F> from images. | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdepth.html\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_1433be380673.png\" alt=\"depth\" height=\"200\"\u002F>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdepth.html#kitti-dataset\">Monodepth2\u003C\u002Fa>|\n| [GAN:](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fgan) \u003Cbr\u002F>generate visually deceptive images | \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fgan\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_cfc6bbc5d441.png\" alt=\"lsun\" height=\"200\"\u002F>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fgan\u002Fwgan\">WGAN\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fgan\u002Fcycle_gan\">CycleGAN\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fgan\u002Fstylegan\">StyleGAN\u003C\u002Fa>|\n| [Person Re-ID:](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fre-id\u002Fbaseline) \u003Cbr\u002F>re-identify pedestrians across scenes | \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fre-id\u002Fbaseline\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_eee97ad8180d.png\" alt=\"re-id\" height=\"160\"\u002F>\u003C\u002Fa> |\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fre-id\u002Fbaseline\">Market1501 baseline\u003C\u002Fa> |\n\n# Installation\n\nGluonCV is built on top of MXNet and PyTorch. Depending on the individual model implementation(check [model zoo](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Findex.html) for the complete list), you will need to install either one of the deep learning framework. Of course you can always install both for the best coverage.\n\nPlease also check [installation guide](https:\u002F\u002Fcv.gluon.ai\u002Finstall.html) for a comprehensive guide to help you choose the right installation command for your environment.\n\n## Installation (MXNet)\n\nGluonCV supports Python 3.6 or later. The easiest way to install is via pip.\n\n### Stable Release\nThe following commands install the stable version of GluonCV and MXNet:\n\n```bash\npip install gluoncv --upgrade\n# native\npip install -U --pre mxnet -f https:\u002F\u002Fdist.mxnet.io\u002Fpython\u002Fmkl\n# cuda 10.2\npip install -U --pre mxnet -f https:\u002F\u002Fdist.mxnet.io\u002Fpython\u002Fcu102mkl\n```\n\n**The latest stable version of GluonCV is 0.8 and we recommend mxnet 1.6.0\u002F1.7.0**\n\n### Nightly Release\n\nYou may get access to latest features and bug fixes with the following commands which install the nightly build of GluonCV and MXNet:\n\n```bash\npip install gluoncv --pre --upgrade\n# native\npip install -U --pre mxnet -f https:\u002F\u002Fdist.mxnet.io\u002Fpython\u002Fmkl\n# cuda 10.2\npip install -U --pre mxnet -f https:\u002F\u002Fdist.mxnet.io\u002Fpython\u002Fcu102mkl\n```\n\nThere are multiple versions of MXNet pre-built package available. Please refer to [mxnet packages](https:\u002F\u002Fgluon-crash-course.mxnet.io\u002Fmxnet_packages.html) if you need more details about MXNet versions.\n\n\n## Installation (PyTorch)\n\nGluonCV supports Python 3.6 or later. The easiest way to install is via pip.\n\n### Stable Release\nThe following commands install the stable version of GluonCV and PyTorch:\n\n```bash\npip install gluoncv --upgrade\n# native\npip install torch==1.6.0+cpu torchvision==0.7.0+cpu -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html\n# cuda 10.2\npip install torch==1.6.0 torchvision==0.7.0\n```\nThere are multiple versions of PyTorch pre-built package available. Please refer to [PyTorch](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Fprevious-versions\u002F) if you need other versions.\n\n\n**The latest stable version of GluonCV is 0.8 and we recommend PyTorch 1.6.0**\n\n### Nightly Release\n\nYou may get access to latest features and bug fixes with the following commands which install the nightly build of GluonCV:\n\n```bash\npip install gluoncv --pre --upgrade\n# native\npip install --pre torch torchvision torchaudio -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fnightly\u002Fcpu\u002Ftorch_nightly.html\n# cuda 10.2\npip install --pre torch torchvision torchaudio -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fnightly\u002Fcu102\u002Ftorch_nightly.html\n```\n\n\n# Docs 📖\nGluonCV documentation is available at [our website](https:\u002F\u002Fgluon-cv.mxnet.io\u002Findex.html).\n\n# Examples\n\nAll tutorials are available at [our website](https:\u002F\u002Fgluon-cv.mxnet.io\u002Findex.html)!\n\n- [Image Classification](http:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_classification\u002Findex.html)\n\n- [Object Detection](http:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_detection\u002Findex.html)\n\n- [Semantic Segmentation](http:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_segmentation\u002Findex.html)\n\n- [Instance Segmentation](http:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_instance\u002Findex.html)\n\n- [Video Action Recognition](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_action_recognition\u002Findex.html)\n\n- [Depth Prediction](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_depth\u002Findex.html)\n\n- [Generative Adversarial Network](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fgan)\n\n- [Person Re-identification](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fre-id\u002F)\n\n# Resources\n\nCheck out how to use GluonCV for your own research or projects.\n\n- For background knowledge of deep learning or CV, please refer to the open source book [*Dive into Deep Learning*](http:\u002F\u002Fd2l.ai\u002F). If you are new to Gluon, please check out [our 60-minute crash course](http:\u002F\u002Fgluon-crash-course.mxnet.io\u002F).\n- For getting started quickly, refer to notebook runnable examples at [Examples](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_classification\u002Findex.html).\n- For advanced examples, check out our [Scripts](http:\u002F\u002Fgluon-cv.mxnet.io\u002Fmaster\u002Fscripts\u002Findex.html).\n- For experienced users, check out our [API Notes](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fapi\u002Fdata.datasets.html#).\n\n# Citation\n\nIf you feel our code or models helps in your research, kindly cite our papers:\n\n```\n@article{gluoncvnlp2020,\n  author  = {Jian Guo and He He and Tong He and Leonard Lausen and Mu Li and Haibin Lin and Xingjian Shi and Chenguang Wang and Junyuan Xie and Sheng Zha and Aston Zhang and Hang Zhang and Zhi Zhang and Zhongyue Zhang and Shuai Zheng and Yi Zhu},\n  title   = {GluonCV and GluonNLP: Deep Learning in Computer Vision and Natural Language Processing},\n  journal = {Journal of Machine Learning Research},\n  year    = {2020},\n  volume  = {21},\n  number  = {23},\n  pages   = {1-7},\n  url     = {http:\u002F\u002Fjmlr.org\u002Fpapers\u002Fv21\u002F19-429.html}\n}\n\n@article{he2018bag,\n  title={Bag of Tricks for Image Classification with Convolutional Neural Networks},\n  author={He, Tong and Zhang, Zhi and Zhang, Hang and Zhang, Zhongyue and Xie, Junyuan and Li, Mu},\n  journal={arXiv preprint arXiv:1812.01187},\n  year={2018}\n}\n\n@article{zhang2019bag,\n  title={Bag of Freebies for Training Object Detection Neural Networks},\n  author={Zhang, Zhi and He, Tong and Zhang, Hang and Zhang, Zhongyue and Xie, Junyuan and Li, Mu},\n  journal={arXiv preprint arXiv:1902.04103},\n  year={2019}\n}\n\n@article{zhang2020resnest,\n  title={ResNeSt: Split-Attention Networks},\n  author={Zhang, Hang and Wu, Chongruo and Zhang, Zhongyue and Zhu, Yi and Zhang, Zhi and Lin, Haibin and Sun, Yue and He, Tong and Muller, Jonas and Manmatha, R. and Li, Mu and Smola, Alexander},\n  journal={arXiv preprint arXiv:2004.08955},\n  year={2020}\n}\n```\n","# Gluon CV 工具包\n\n![构建状态](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Fworkflows\u002FUnit%20Test\u002Fbadge.svg?branch=master&event=push)\n[![GitHub 许可证](docs\u002F_static\u002Fapache2.svg)](.\u002FLICENSE)\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fgluoncv.svg)](https:\u002F\u002Fpypi.python.org\u002Fpypi\u002Fgluoncv)\n[![PyPI 预发布](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpypi--prerelease-v0.11.0-ff69b4.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fgluoncv\u002F#history)\n[![下载量](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_492ea89b54d9.png)](http:\u002F\u002Fpepy.tech\u002Fproject\u002Fgluoncv)\n\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fresnest-split-attention-networks\u002F语义分割-on-ade20k)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002F语义分割-on-ade20k?p=resnest-split-attention-networks)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fresnest-split-attention-networks\u002F目标检测-on-coco)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002F目标检测-on-coco?p=resnest-split-attention-networks)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fresnest-split-attention-networks\u002F实例分割-on-coco)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002F实例分割-on-coco?p=resnest-split-attention-networks)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fresnest-split-attention-networks\u002F全景分割-on-coco-panoptic)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002F全景分割-on-coco-panoptic?p=resnest-split-attention-networks)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fresnest-split-attention-networks\u002F图像分类-on-imagenet)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002F图像分类-on-imagenet?p=resnest-split-attention-networks)\n\n| [安装](https:\u002F\u002Fgluon-cv.mxnet.io\u002Finstall.html) | [文档](https:\u002F\u002Fgluon-cv.mxnet.io) | [教程](https:\u002F\u002Fgluon-cv.mxnet.io\u002Ftutorials\u002Findex.html) |\n\nGluonCV 提供了计算机视觉领域最先进（SOTA）深度学习模型的实现。\n\n它专为工程师、研究人员和学生设计，旨在基于这些模型快速原型化产品和研究思路。该工具包具有以下四大特点：\n\n1. 用于复现科研论文中报道的 SOTA 结果的训练脚本\n2. 同时支持 PyTorch 和 MXNet 框架\n3. 包含大量预训练模型\n4. 精心设计的 API 大大降低了实现复杂度\n5. 社区支持\n\n如果您有 [图像分类](https:\u002F\u002Fauto.gluon.ai\u002Fstable\u002Ftutorials\u002Fmultimodal\u002Fimage_prediction\u002Findex.html) 或 [目标检测](https:\u002F\u002Fauto.gluon.ai\u002Fstable\u002Ftutorials\u002Fmultimodal\u002Fobject_detection\u002Findex.html) 的需求，也请查看 [AutoGluon](https:\u002F\u002Fgithub.com\u002Fautogluon\u002Fautogluon)。我们构建了 [MultimodalPredictor](https:\u002F\u002Fauto.gluon.ai\u002Fstable\u002Ftutorials\u002Fmultimodal\u002Findex.html)，其中包含改进的模型库，包括 [TIMM](https:\u002F\u002Fgithub.com\u002Frwightman\u002Fpytorch-image-models)、[Huggingface](https:\u002F\u002Fhuggingface.co\u002F)、[MMDetection](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection) 等。只需几行代码，您就可以为自己的应用训练并部署高精度的计算机视觉模型。\n\n\n# 演示\n\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_df230fc197fa.gif\">\n\u003C\u002Fdiv>\n\n\u003Cbr>\n\n高清视频请观看 [Youtube](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=nfpouVAzXt0) 或 [Bilibili](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002Fav55619231)。\n\n# 支持的应用\n\n| 应用  | 示例  | 可用模型 |\n|:-----------------------:|:---:|:---:|\n| [图像分类：](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html) \u003Cbr\u002F>识别图像中的对象。  | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html\">\u003Cimg  src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_756c67852be7.png\" alt=\"classification\" height=\"200\"\u002F>\u003C\u002Fa>  | 50+ 模型，包括 \u003Cbr\u002F>\u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html#resnet\">ResNet\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html#mobilenet\">MobileNet\u003C\u002Fa>, \u003Cbr\u002F>\u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html#densenet\">DenseNet\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html#vgg\">VGG\u003C\u002Fa>, ... |\n| [目标检测：](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdetection.html) \u003Cbr\u002F>在图像中检测多个对象及其 \u003Cbr\u002F> 边界框。     |  \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdetection.html\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_510c3fa51005.png\" alt=\"detection\" height=\"200\"\u002F>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdetection.html#faster-rcnn\">Faster RCNN\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdetection.html#ssd\">SSD\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdetection.html#yolo-v3\">Yolo-v3\u003C\u002Fa> |\n| [语义分割：](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation) \u003Cbr\u002F>将图像中的每个像素 \u003Cbr\u002F> 与一个类别标签关联。 |  \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_d35a524bb53e.png\" alt=\"semantic\" height=\"200\"\u002F>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation\">FCN\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation\">PSP\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation\">ICNet\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation\">DeepLab-v3\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation\">DeepLab-v3+\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation\">DANet\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation\">FastSCNN\u003C\u002Fa> |\n| [实例分割：](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#instance-segmentation) \u003Cbr\u002F>检测对象，并将 \u003Cbr\u002F> 对象区域内的每个像素与一个 \u003Cbr\u002F> 实例标签关联。 | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#instance-segmentation\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_2d8b44434a05.png\" alt=\"instance\" height=\"200\"\u002F>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#instance-segmentation\">Mask RCNN\u003C\u002Fa>|\n| [姿态估计：](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fpose.html) \u003Cbr\u002F>从图像中检测人体姿态。 | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fpose.html\">\u003Cimg src=\"docs\u002F_static\u002Fpose-estimation.svg\" alt=\"pose\" height=\"200\"\u002F>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fpose.html#simple-pose-with-resnet\">Simple Pose\u003C\u002Fa>|\n| [视频动作识别：](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html) \u003Cbr\u002F>识别视频中的动作。 | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_4025cec97344.png\" alt=\"action_recognition\" height=\"200\"\u002F>\u003C\u002Fa> | MXNet： \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">TSN\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">C3D\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">I3D\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">I3D_slow\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">P3D\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">R3D\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">R2+1D\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">Non-local\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">SlowFast\u003C\u002Fa> \u003Cbr\u002F> PyTorch： \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">TSN\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">I3D\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">I3D_slow\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">R2+1D\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">Non-local\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">CSN\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">SlowFast\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\">TPN\u003C\u002Fa> |\n| [深度预测：](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdepth.html) \u003Cbr\u002F>从图像中预测深度图。 | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdepth.html\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_1433be380673.png\" alt=\"depth\" height=\"200\"\u002F>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdepth.html#kitti-dataset\">Monodepth2\u003C\u002Fa>|\n| [GAN：](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fgan) \u003Cbr\u002F>生成逼真的图像 | \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fgan\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_cfc6bbc5d441.png\" alt=\"lsun\" height=\"200\"\u002F>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fgan\u002Fwgan\">WGAN\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fgan\u002Fcycle_gan\">CycleGAN\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fgan\u002Fstylegan\">StyleGAN\u003C\u002Fa>|\n| [行人再识别：](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fre-id\u002Fbaseline) \u003Cbr\u002F>跨场景重新识别行人 | \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fre-id\u002Fbaseline\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_readme_eee97ad8180d.png\" alt=\"re-id\" height=\"160\"\u002F>\u003C\u002Fa> |\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fre-id\u002Fbaseline\">Market1501 基线\u003C\u002Fa> |\n\n# 安装\n\nGluonCV 构建在 MXNet 和 PyTorch 之上。根据具体模型的实现（请参阅 [模型库](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Findex.html) 获取完整列表），您需要安装其中一个深度学习框架。当然，为了获得最佳支持，您也可以同时安装两者。\n\n请参阅 [安装指南](https:\u002F\u002Fcv.gluon.ai\u002Finstall.html) 以获取全面的指导，帮助您为您的环境选择合适的安装命令。\n\n## 安装（MXNet）\n\nGluonCV 支持 Python 3.6 或更高版本。最简单的安装方式是通过 pip。\n\n### 稳定版\n以下命令将安装 GluonCV 和 MXNet 的稳定版本：\n\n```bash\npip install gluoncv --upgrade\n\n# 本机\npip install -U --pre mxnet -f https:\u002F\u002Fdist.mxnet.io\u002Fpython\u002Fmkl\n# CUDA 10.2\npip install -U --pre mxnet -f https:\u002F\u002Fdist.mxnet.io\u002Fpython\u002Fcu102mkl\n```\n\n**GluonCV 的最新稳定版本是 0.8，我们推荐使用 MXNet 1.6.0\u002F1.7.0**\n\n### 夜间版本\n\n您可以通过以下命令获取最新的功能和错误修复，这些命令会安装 GluonCV 和 MXNet 的夜间构建版本：\n\n```bash\npip install gluoncv --pre --upgrade\n# 本机\npip install -U --pre mxnet -f https:\u002F\u002Fdist.mxnet.io\u002Fpython\u002Fmkl\n# CUDA 10.2\npip install -U --pre mxnet -f https:\u002F\u002Fdist.mxnet.io\u002Fpython\u002Fcu102mkl\n```\n\nMXNet 提供了多个预编译的版本。如果您需要更多关于 MXNet 版本的信息，请参阅 [mxnet packages](https:\u002F\u002Fgluon-crash-course.mxnet.io\u002Fmxnet_packages.html)。\n\n\n## 安装（PyTorch）\n\nGluonCV 支持 Python 3.6 或更高版本。最简单的安装方式是通过 pip。\n\n### 稳定版本\n以下命令会安装 GluonCV 和 PyTorch 的稳定版本：\n\n```bash\npip install gluoncv --upgrade\n# 本机\npip install torch==1.6.0+cpu torchvision==0.7.0+cpu -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html\n# CUDA 10.2\npip install torch==1.6.0 torchvision==0.7.0\n```\nPyTorch 提供了多个预编译的版本。如果您需要其他版本，请参阅 [PyTorch](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Fprevious-versions\u002F)。\n\n\n**GluonCV 的最新稳定版本是 0.8，我们推荐使用 PyTorch 1.6.0**\n\n### 夜间版本\n\n您可以通过以下命令获取最新的功能和修复，这些命令会安装 GluonCV 的夜间构建版本：\n\n```bash\npip install gluoncv --pre --upgrade\n# 本机\npip install --pre torch torchvision torchaudio -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fnightly\u002Fcpu\u002Ftorch_nightly.html\n# CUDA 10.2\npip install --pre torch torchvision torchaudio -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fnightly\u002Fcu102\u002Ftorch_nightly.html\n```\n\n\n# 文档 📖\nGluonCV 的文档可以在[我们的网站](https:\u002F\u002Fgluon-cv.mxnet.io\u002Findex.html)上找到。\n\n# 示例\n\n所有教程都可以在[我们的网站](https:\u002F\u002Fgluon-cv.mxnet.io\u002Findex.html)上找到！\n\n- [图像分类](http:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_classification\u002Findex.html)\n\n- [目标检测](http:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_detection\u002Findex.html)\n\n- [语义分割](http:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_segmentation\u002Findex.html)\n\n- [实例分割](http:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_instance\u002Findex.html)\n\n- [视频动作识别](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_action_recognition\u002Findex.html)\n\n- [深度预测](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_depth\u002Findex.html)\n\n- [生成对抗网络](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fgan)\n\n- [行人重识别](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fre-id\u002F)\n\n# 资源\n\n请查看如何将 GluonCV 应用于您自己的研究或项目中。\n\n- 如果您想了解深度学习或计算机视觉的基础知识，请参考开源书籍[*Dive into Deep Learning*](http:\u002F\u002Fd2l.ai\u002F)。如果您是 Gluon 的新手，请查看我们的[60分钟速成课程](http:\u002F\u002Fgluon-crash-course.mxnet.io\u002F)。\n- 如果您想快速上手，可以参考[示例](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_classification\u002Findex.html)中的可运行笔记本示例。\n- 对于高级示例，请查看我们的[脚本](http:\u002F\u002Fgluon-cv.mxnet.io\u002Fmaster\u002Fscripts\u002Findex.html)。\n- 对于有经验的用户，请查看我们的[API 注释](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fapi\u002Fdata.datasets.html#)。\n\n# 引用\n\n如果您觉得我们的代码或模型对您的研究有所帮助，请引用我们的论文：\n\n```\n@article{gluoncvnlp2020,\n  author  = {Jian Guo and He He and Tong He and Leonard Lausen and Mu Li and Haibin Lin and Xingjian Shi and Chenguang Wang and Junyuan Xie and Sheng Zha and Aston Zhang and Hang Zhang and Zhi Zhang and Zhongyue Zhang and Shuai Zheng and Yi Zhu},\n  title   = {GluonCV 和 GluonNLP：计算机视觉与自然语言处理中的深度学习},\n  journal = {机器学习研究期刊},\n  year    = {2020},\n  volume  = {21},\n  number  = {23},\n  pages   = {1-7},\n  url     = {http:\u002F\u002Fjmlr.org\u002Fpapers\u002Fv21\u002F19-429.html}\n}\n\n@article{he2018bag,\n  title={用于卷积神经网络图像分类的技巧大全},\n  author={He, Tong and Zhang, Zhi and Zhang, Hang and Zhang, Zhongyue and Xie, Junyuan and Li, Mu},\n  journal={arXiv 预印本 arXiv:1812.01187},\n  year={2018}\n}\n\n@article{zhang2019bag,\n  title={训练目标检测神经网络的免费工具包},\n  author={Zhang, Zhi and He, Tong and Zhang, Hang and Zhang, Zhongyue and Xie, Junyuan and Li, Mu},\n  journal={arXiv 预印本 arXiv:1902.04103},\n  year={2019}\n}\n\n@article{zhang2020resnest,\n  title={ResNeSt：分裂注意力网络},\n  author={Zhang, Hang and Wu, Chongruo and Zhang, Zhongyue and Zhu, Yi and Zhang, Zhi and Lin, Haibin and Sun, Yue and He, Tong and Muller, Jonas and Manmatha, R. and Li, Mu and Smola, Alexander},\n  journal={arXiv 预印本 arXiv:2004.08955},\n  year={2020}\n}\n```","# GluonCV 快速上手指南\n\nGluonCV 是一个基于 MXNet 和 PyTorch 的计算机视觉工具包，提供了大量前沿（SOTA）深度学习模型的实现。它旨在帮助工程师、研究人员和学生快速原型化产品和研究想法。\n\n## 1. 环境准备\n\n*   **操作系统**：Linux, macOS, Windows\n*   **Python 版本**：3.6 或更高版本\n*   **深度学习框架**：\n    *   **MXNet** (推荐用于完整功能支持)\n    *   **PyTorch** (部分模型支持)\n    *   *注：可根据需求安装其中一个或同时安装两者。*\n\n## 2. 安装步骤\n\n最便捷的安装方式是通过 `pip`。以下提供稳定版和夜间版（包含最新特性）的安装命令。\n\n### 方案 A：基于 MXNet 安装（推荐）\n\n**安装稳定版：**\n```bash\n# 安装\u002F升级 GluonCV\npip install gluoncv --upgrade\n\n# 安装 MXNet (CPU 版本)\npip install -U --pre mxnet -f https:\u002F\u002Fdist.mxnet.io\u002Fpython\u002Fmkl\n\n# 安装 MXNet (CUDA 10.2 GPU 版本)\npip install -U --pre mxnet -f https:\u002F\u002Fdist.mxnet.io\u002Fpython\u002Fcu102mkl\n```\n*建议搭配版本：GluonCV 0.8 + MXNet 1.6.0\u002F1.7.0*\n\n**安装夜间版（获取最新功能）：**\n```bash\npip install gluoncv --pre --upgrade\npip install -U --pre mxnet -f https:\u002F\u002Fdist.mxnet.io\u002Fpython\u002Fmkl\n# 若需 GPU 支持，将上述 mxnet 安装命令中的源替换为 cu102mkl\n```\n\n### 方案 B：基于 PyTorch 安装\n\n**安装稳定版：**\n```bash\n# 安装\u002F升级 GluonCV\npip install gluoncv --upgrade\n\n# 安装 PyTorch (CPU 版本)\npip install torch==1.6.0+cpu torchvision==0.7.0+cpu -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html\n\n# 安装 PyTorch (CUDA 10.2 GPU 版本)\npip install torch==1.6.0 torchvision==0.7.0\n```\n*建议搭配版本：GluonCV 0.8 + PyTorch 1.6.0*\n\n> **提示**：国内用户若遇到下载速度慢的问题，可添加 `-i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple` 参数使用清华镜像源加速 pip 安装。\n\n## 3. 基本使用\n\nGluonCV 提供了简洁的 API，只需几行代码即可加载预训练模型并进行推理。以下以**图像分类**为例：\n\n```python\nfrom gluoncv import model_zoo, data, utils\n\n# 1. 加载预训练模型 (例如 ResNet50)\nnet = model_zoo.get_model('resnet50_v1', pretrained=True)\n\n# 2. 准备图像数据\n# 从 URL 加载并预处理图像，自动调整大小并转换为模型所需的格式\nimg = data.load_test('https:\u002F\u002Fraw.githubusercontent.com\u002Fdmlc\u002Fweb-data\u002Fmaster\u002Fgluoncv\u002Fcat.jpg')\ntransformed_img = data.transforms.presets.resnet.transform_test(img, 224)\n\n# 3. 进行预测\noutput = net(transformed_img)\npredictions = output.softmax(axis=1)\n\n# 4. 获取结果\nclass_idx = predictions.argmax(axis=1).asscalar()\nscore = predictions[0][class_idx].asscalar()\n\n# 加载类别标签\nclasses = model_zoo.get_model_list('classification') # 实际使用中通常加载具体的 synset 文件\nprint(f\"预测类别索引：{class_idx}, 置信度：{score:.4f}\")\n```\n\n**支持的主要任务包括：**\n*   图像分类 (Image Classification)\n*   目标检测 (Object Detection, 如 YOLOv3, Faster RCNN)\n*   语义分割 (Semantic Segmentation)\n*   实例分割 (Instance Segmentation)\n*   姿态估计 (Pose Estimation)\n*   视频动作识别 (Video Action Recognition)\n\n更多详细教程和模型列表请访问 [官方文档](https:\u002F\u002Fgluon-cv.mxnet.io)。","某智慧农业初创团队正致力于开发一套基于无人机影像的作物病虫害实时监测系统，需要在短时间内验证高精度检测算法的可行性。\n\n### 没有 gluon-cv 时\n- **复现成本极高**：团队需从零阅读大量学术论文并手动编写代码复现 ResNet 或 YOLO 等前沿模型，耗时数周且极易出错。\n- **数据准备繁琐**：缺乏内置的数据增强和预处理流水线，工程师需花费大量时间编写自定义脚本处理农田图像的特殊光照与角度问题。\n- **训练调试困难**：缺少标准化的训练脚本和超参数配置，导致模型收敛慢，难以快速对比不同架构在特定作物数据集上的表现。\n- **部署门槛高**：自行实现的模型缺乏优化，难以在边缘设备（如无人机机载电脑）上实现实时推理，项目落地受阻。\n\n### 使用 gluon-cv 后\n- **即插即用模型**：直接调用 gluon-cv 预置的 50+ 种 SOTA 模型（如针对目标检测优化的版本），几行代码即可加载预训练权重，将原型开发周期从数周缩短至数天。\n- **标准化数据处理**：利用工具内置的丰富数据变换 API，轻松完成农田图像的裁剪、缩放与增强，显著提升模型对复杂环境的鲁棒性。\n- **高效训练复现**：直接使用官方提供的训练脚本复现论文结果，快速在自有数据集上进行微调，迅速锁定最适合病虫害识别的网络架构。\n- **多框架灵活部署**：依托 gluon-cv 对 MXNet 和 PyTorch 的双重支持，团队可无缝切换后端，将优化后的模型高效部署至资源受限的边缘端设备。\n\ngluon-cv 通过提供开箱即用的顶尖视觉模型与标准化流程，让研发团队从重复造轮子中解放出来，专注于解决农业场景的核心业务难题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_gluon-cv_510c3fa5.png","dmlc","Distributed (Deep) Machine Learning Community","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdmlc_b69cc302.png","A Community of Awesome Machine Learning Projects",null,"https:\u002F\u002Fgithub.com\u002Fdmlc",[79,83,87,91,95,98,102],{"name":80,"color":81,"percentage":82},"Python","#3572A5",86.3,{"name":84,"color":85,"percentage":86},"Jupyter Notebook","#DA5B0B",9.7,{"name":88,"color":89,"percentage":90},"C++","#f34b7d",3.8,{"name":92,"color":93,"percentage":94},"Shell","#89e051",0.1,{"name":96,"color":97,"percentage":94},"Cython","#fedf5b",{"name":99,"color":100,"percentage":101},"CMake","#DA3434",0,{"name":103,"color":104,"percentage":101},"Makefile","#427819",5918,1209,"2026-04-07T09:09:55","Apache-2.0","未说明","非必需。支持 CPU 运行；若使用 GPU，文档示例提及 CUDA 10.2（MXNet 和 PyTorch 均提供对应版本），具体显存需求取决于所选模型（如 ResNet, YOLO-v3 等），文中未统一规定最低显存大小。",{"notes":112,"python":113,"dependencies":114},"该工具同时支持 MXNet 和 PyTorch 后端，用户可根据需要选择安装其中一个或两个都安装。不同模型实现可能依赖不同的框架，建议查阅 Model Zoo 确认具体模型的框架需求。安装时需注意区分 CPU 版本和特定 CUDA 版本（如 cu102）的包。","3.6+",[115,116,117],"mxnet>=1.6.0 (可选，推荐 1.6.0\u002F1.7.0)","torch==1.6.0 (可选，推荐 1.6.0)","torchvision==0.7.0 (配合 PyTorch 使用)",[14,15],[120,121,122,123,124,125,126,127,128,129,130,131,132],"deep-learning","computer-vision","neural-network","gluon","mxnet","machine-learning","image-classification","object-detection","semantic-segmentation","gan","person-reid","action-recognition","pose-estimation","2026-03-27T02:49:30.150509","2026-04-08T03:54:17.095676",[136,141,146,151,156,161],{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},23736,"训练 SSD 模型时出现 Loss 为 NaN 或不收敛的问题如何解决？","该问题通常由学习率过高或底层框架 Bug 引起。解决方案包括：1. 尝试将学习率降低一半（例如从 0.001 降至 0.0005），许多用户反馈这能解决突发的 NaN 问题；2. 确保使用最新版本的 MXNet（master 分支或 nightly 构建版），因为导致该问题的根本原因已在相关补丁中修复。","https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Fissues\u002F142",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},23737,"加载自定义训练的目标检测模型参数时，报错提示前缀不匹配（prefix mismatch）怎么办？","这是因为保存和加载模型时网络结构的前缀名称不一致（例如保存时为 'resnetv10'，加载时变为 'ssd0'）。解决方法是：在微调（finetuning）并保存模型时，不要直接使用 `net.export` 保存 .param 文件用于后续推理加载，而应确保保存和加载时的网络实例化方式完全一致，或者在加载参数时忽略前缀检查（如果 API 支持），最稳妥的方式是在同一代码流程中保持 `get_model` 的定义与训练时完全相同后再执行 `load_parameters`。","https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Fissues\u002F925",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},23738,"在使用自定义数据集进行动作识别训练时，标注文件格式报错“期望 2 个字段但得到更多”是什么原因？","这是因为不同代码库对标注文件的格式要求不同。Gluon-CV 的代码通常期望每行有 3 个字段（视频路径、帧数、类别标签），例如 `video.avi 300 1`；而其他一些实现（如原始的 UCF101 脚本）可能只期望 2 个字段（视频路径、类别标签）。如果遇到此错误，请检查你的 txt 标注文件，尝试移除中间的帧数列，使其符合当前代码库的解析逻辑，或者修改数据加载代码以适配你的文件格式。","https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Fissues\u002F1100",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},23739,"如何将 GluonCV 实现的 SSD 模型转换为 OpenVINO 或其他第三方推理引擎格式？","可以成功转换，但需要注意 GluonCV 重新实现了部分算子（如 `MultiBoxDetection` 和 `MultiBoxPrior`）。这些自定义层在转换为 OpenVINO IR 格式（.bin, .xml）时可能需要额外的处理。解决方案是：在转换后运行模型时，确保正确加载了 CPU 插件（如 `libcpu_extension_avx2.so`）以支持这些自定义操作。虽然未量化时性能提升有限（约从 65ms 提升至 58ms），但这是实现跨平台推理的必要步骤。","https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Fissues\u002F791",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},23740,"在 YOLOv3 模型量化过程中，如何排除特定的层不进行量化？","在使用 `mxnet.contrib.quantization.quantize_model` 函数时，可以通过 `excluded_sym_names` 参数指定不需要量化的层名称列表。例如，对于 YOLOv3 模型，通常需要排除输出层的卷积操作以保持精度，配置示例如下：`excluded_sym_names=['yolov30_yolooutputv32_conv0_fwd', 'yolov30_yolooutputv31_conv0_fwd', 'darknetv30_conv0_fwd', 'yolov30_yolooutputv30_conv0_fwd']`。这样可以防止输出结果异常（如全为 -1）。","https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Fissues\u002F1046",{"id":162,"question_zh":163,"answer_zh":164,"source_url":160},23741,"目前是否支持直接保存量化后的 int8 模型参数文件？","截至该问题讨论时，GluonCV\u002FMXNet 原生尚未完全支持直接保存量化后的 int8 参数文件供后续直接加载推理。这是一个已知的需求，用户可以通过 MXNet 的 Issue 追踪系统提交功能请求（Feature Request）。目前的变通方法通常是保存量化后的符号图（symbol.json）和参数字典，但在部署时可能需要特定的加载逻辑或等待官方更新支持该特性。",[166,171,176,181,186,191,196,201,206,211],{"id":167,"version":168,"summary_zh":169,"released_at":170},145251,"v0.10.0","# 亮点  \nGluonCV 0.10.0 版本推出了一种全新的 `Auto Module`，旨在以更少的代码和精力启动训练任务：\n\n\n- 通过 Pandas DataFrame 可视化，提供更简单、更优秀的自定义数据集加载体验。相比旧版基于代码的数据集构建方式，它能让您更快、更可靠地加载任意数据集。\n\n- 一行式 `fit` 函数，并支持配置文件（YAML 配置文件）。\n\n- 内置超参数优化（HPO）支持，轻松完成超参数调优。\n\n# gluoncv.auto\n\n本次发布包含一个名为 `gluoncv.auto` 的新模块。借助 `gluoncv.auto`，您可以访问许多高级 API，例如 `data`、`estimators` 和 `tasks`。\n\n### gluoncv.auto.data\n\n`auto.data` 模块旨在加载您在互联网上找到的任意网络数据集，例如 Kaggle 竞赛数据集。您可以参考此 [教程](https:\u002F\u002Fcv.gluon.ai\u002Fbuild\u002Fexamples_auto_module\u002Fdemo_auto_data.html)，或查看完全兼容的 [d8 数据集](http:\u002F\u002Fpreview.d2l.ai\u002Fd8\u002Fmain\u002Fimage_classification\u002Fgetting_started.html)，以加载自定义数据集。\n\n##### 加载数据：\n\u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F3307514\u002F109356038-02c50c00-7835-11eb-83ba-2dfc070b4ef6.png\" height=\"150\">\n\n该数据集内部使用 `DataFrame` 存储，便于访问和分析。\n\n\u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F3307514\u002F109357043-6bf94f00-7836-11eb-9db1-7628218fba43.png\" height=\"300\">\n\n\n##### 可视化：\n\n\u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F3307514\u002F109357126-8cc1a480-7836-11eb-88f5-071c9a817aac.png\" height=\"150\">\n\n目标检测类似：\n\n\u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F3307514\u002F109356385-7b2bcd00-7835-11eb-86e3-8fabc6557464.png\" height=\"200\">\n\n### gluoncv.auto.estimators\n\n在本版本中，我们封装了用于图像分类和目标检测的以下高级估计器，用于训练和预测图像：\n\n- gluoncv.auto.estimators.ImageClassificationEstimator\n- gluoncv.auto.estimators.SSDEstimator\n- gluoncv.auto.estimators.CenterNetEstimator\n- gluoncv.auto.estimators.FasterRCNNEstimator\n- gluoncv.auto.estimators.YOLOv3Estimator\n\n#### 重点用法\n\n- `fit` 函数：\n\n![image](https:\u002F\u002Fuser-images.githubusercontent.com\u002F3307514\u002F109357783-a57e8a00-7837-11eb-9c99-f2a2fac99112.png)\n\n- `predict`、`predict_proba`（用于图像分类）、`predict_feature`（用于图像分类）\n\n\u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F3307514\u002F109358005-ed9dac80-7837-11eb-811c-7690981066ab.png\" height=\"40\">\n\u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F3307514\u002F109358236-4a00cc00-7838-11eb-8256-2a6e6f51fab8.png\" height=\"150\">\n\n- `save` 和 `load`。\n\n您可访问教程网站，获取更多详细 [示例](https:\u002F\u002Fcv.gluon.ai\u002Fbuild\u002Fexamples_auto_module\u002Ftrain_image_classifier_basic.html)。\n\n### gluoncv.auto.tasks\n\n在本版本中，支持以下自动任务，并已在多个数据集上进行了大规模测试。","2021-03-09T00:20:06",{"id":172,"version":173,"summary_zh":174,"released_at":175},145252,"v0.9.0","## 亮点\n**GluonCV v0.9.0 开始支持 PyTorch！**\n\n## PyTorch 支持\n我们致力于使我们的工具包与深度学习框架无关，以便所有人都能使用。从本版本开始，我们正式支持 PyTorch。所有 PyTorch 相关的代码和模型都位于 `gluoncv` 中的 `torch` 文件夹下，其目录结构与之前保持一致：`model`、`data`、`nn` 和 `utils`。其中，`model` 文件夹包含模型库及模型定义；`data` 文件夹负责数据集定义和数据加载器；`nn` 定义了新的操作符；`utils` 则提供用于模型训练、评估和可视化等任务的实用工具函数。\n\n要开始使用，您可以在我们的官网找到[安装说明](https:\u002F\u002Fcv.gluon.ai\u002Finstall.html)、[模型库](https:\u002F\u002Fcv.gluon.ai\u002Fmodel_zoo\u002Findex.html)以及[教程](https:\u002F\u002Fcv.gluon.ai\u002Ftutorials_torch\u002Findex.html)。为了使工具包更易于使用和定制，我们为每种方法单独提供了模型定义，避免过度抽象和模块化。这样，您可以专注于单个模型而无需在多个文件之间跳转，也可以独立修改某个模型的实现而不影响其他模型。同时，我们采用 `yaml` 配置文件以简化配置流程。我们始终努力让工具包对学生和研究人员更加友好易用。\n\n\n## 视频动作识别 PyTorch 模型库\n我们提供了**46 个**用于视频动作识别的 PyTorch 模型，包括性能更优的 I3D 模型、最新的 TPN 系列、更快的训练方式（支持 DDP 和多网格训练）以及基于 K700 数据集预训练的权重。无论是微调还是特征提取，现在都变得异常简单。\n\n有关模型库的详细信息，请参阅[此处](https:\u002F\u002Fcv.gluon.ai\u002Fmodel_zoo\u002Faction_recognition.html)。在模型方面，我们涵盖了 TSN、I3D、I3D_slow、R2+1D、Non-local、CSN、TPN 等多种架构；在数据集方面，则支持 Kinetics400、Kinetics700 和 Something-something-v2。所有模型的性能均与原论文中报告的结果相当或更优。\n\n我们还提供了多篇入门教程，包括：[如何使用预训练模型进行预测](https:\u002F\u002Fcv.gluon.ai\u002Fbuild\u002Fexamples_torch_action_recognition\u002Fdemo_i3d_kinetics400.html)、[如何从预训练模型中提取视频特征](https:\u002F\u002Fcv.gluon.ai\u002Fbuild\u002Fexamples_torch_action_recognition\u002Fextract_feat.html)、[如何在自定义数据集上微调模型](https:\u002F\u002Fcv.gluon.ai\u002Fbuild\u002Fexamples_torch_action_recognition\u002Ffinetune_custom.html)、[如何测量模型的浮点运算次数和运行速度](https:\u002F\u002Fcv.gluon.ai\u002Fbuild\u002Fexamples_torch_action_recognition\u002Fspeed.html)，以及[如何使用我们的 DDP 分布式训练框架](https:\u002F\u002Fcv.gluon.ai\u002Fbuild\u002Fexamples_torch_action_recognition\u002Fddp_pytorch.html)。\n\n由于视频模型的训练速度较慢（主要受限于 I\u002FO 效率和模型规模），我们还支持分布式数据并行（DDP）训练以及[多网格训练](https:\u002F\u002Farxiv.org\u002Fabs\u002F1912.00998)。DDP 可将训练速度提升约 2 倍，而多网格训练则可提升至 3–4 倍。将这两种技术结合使用，可以显著缩短…","2020-12-02T22:25:01",{"id":177,"version":178,"summary_zh":179,"released_at":180},145253,"v0.8.0","# GluonCV 0.8.0 发布说明\n\n## 亮点\n**GluonCV v0.8.0 引入了流行的深度估计模型 Monodepth2、语义分割模型（DANet 和 FastSCNN）、StyleGAN，以及多项易用性改进。**\n\n## Monodepth2（感谢 @KuangHaofei）\n\n我们提供了 [Monodepth2](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.01260) 的 GluonCV 实现，并且结果完全可复现。如果您想在自己的图像上试用，请参阅我们的[演示教程](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_depth\u002Fdemo_monodepth2.html)。若要在您自己的数据集上训练 Monodepth2 模型，请参阅我们的[深入教程](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_depth\u002Ftrain_monodepth2.html)。\n\n下表展示了该模型在 KITTI 数据集上的性能。\n| 名称 | 模态 | 分辨率 | 绝对相对误差 | delta \u003C 1.25 | 标签 |\n| -- | -- | -- | -- | -- | -- |\n| monodepth2_resnet18_kitti_stereo_640x192 1 | 立体视觉 | 640x192 | 0.114 | 0.856 | 92871317 |\n\n![](https:\u002F\u002Fgithub.com\u002Fnianticlabs\u002Fmonodepth2\u002Fraw\u002Fmaster\u002Fassets\u002Fteaser.gif)\n\n## 更多语义分割模型（感谢 @xdeng7 和 @ytian8）\n\n本次发布新增了两个语义分割模型，一个是 [DANet](https:\u002F\u002Farxiv.org\u002Fabs\u002F1809.02983)，另一个是 [FastSCNN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1902.04502)。\n\n下表展示了它们在 Cityscapes 验证集上的性能。\n| 模型               | 预训练数据集      | 数据集 | 像素准确率 | mIoU | \n|---------------------------|--------|-----|--------|-------|\n| danet_resnet50_citys | ImageNet  | Cityscapes |  96.3  | 78.5  |\n| danet_resnet101_citys | ImageNet  | Cityscapes |  96.5  | 80.1  |\n| fastscnn_citys | -  | Cityscapes |  95.1  | 72.3  |\n\n我们的 FastSCNN 是基于一篇[最新论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2004.14960)的改进版本，采用了半监督学习方法。据我们所知，mIoU 达到 `72.3` 的实现是目前 FastSCNN 中得分最高的，也是最好的实时语义分割模型之一。\n\n## StyleGAN（感谢 @xdeng7）\n\n![](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Fblob\u002Fmaster\u002Fscripts\u002Fgan\u002Fstylegan\u002Fsample.jpg?raw=true)\n\nGluonCV 提供了 [StyleGAN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1812.04948) 的实现：“一种基于风格的生成器架构，用于生成对抗网络”：https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fgan\u002Fstylegan\n\n## 错误修复与改进\n\n- 我们现已正式弃用对 Python 2 的支持，最低要求的 Python 版本为 3.6。（#1399）\n- 修复了 Faster-RCNN 训练脚本的问题（#1249）\n- 允许 SRGAN 进行混合编译（#1281）\n- 修复了 market1501 数据集的问题（#1227）\n- 新增了 Visdrone 数据集（#1267）\n- 改进了视频动作识别任务的 `train.py` 脚本（#1339）\n- 新增了 Jetson 目标检测教程（#1346）\n- 改进了向 GluonCV 贡献新算法的指南（#1354）\n- 修复了类 ForwardBackwardTask 中所需的 amp 参数问题（#1404）","2020-08-10T17:38:10",{"id":182,"version":183,"summary_zh":184,"released_at":185},145254,"v0.7.0","# 亮点\n\n**GluonCV 0.7 新增了我们最新的骨干网络：[ResNeSt](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.08955.pdf)，以及由此衍生的语义分割和目标检测模型。我们在所有三项任务上都实现了显著的性能提升。**\n\n## 图像分类\n\nGluonCV 现在提供了最先进的图像分类骨干网络，可用于各种下游任务。我们的 ResNeSt 在准确率与速度的权衡上优于 EfficientNet，具体效果如下图所示。您现在可以将我们的新 ResNeSt 应用于您的研究或产品中，以立即获得性能提升。详细信息请参阅我们的论文：[ResNeSt: Split Attention Network](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.08955.pdf)。\n\n以下是 ResNeSt 与 EfficientNet 的对比。平均延迟是在 p3dn.24xlarge 实例上使用单块 V100 显卡、批大小为 16 时计算得出的。\n\n\u003Cimg width=\"514\" alt=\"resnest_vs_efficientnet\" src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F4907789\u002F79623404-f6c6d480-80d0-11ea-84e5-fbbf4c1558a2.png\">\n\n模型 | 输入尺寸 | top-1 准确率 (%) | 平均延迟 (ms) |  \n-- | -- | -- | -- | --\nSENet_154 | 224x224 | 81.26 | 5.07 | 之前\nResNeSt50 | 224x224 | 81.13 | 1.78 | v0.7\nResNeSt101 | 256x256 | 82.83 | 3.43 | v0.7\nResNeSt200 | 320x320 | 83.90 | 9.49 | v0.7\nResNeSt269 | 416x416 | **84.54** | 19.50 | v0.7\n\n## 目标检测\n\n我们新增了两个基于 ResNeSt 的 Faster R-CNN 模型。需要注意的是，我们的模型采用的是 2 倍学习率调度策略，而非论文中使用的 1 倍调度策略。这两个新模型在 COCO mAP 上比我们之前的最佳模型“faster_rcnn_fpn_resnet101_v1d_coco”高出 2% 至 4%。尤其值得一提的是，基于 ResNeSt-50 的模型比我们之前的 ResNet-101 模型高出 4.1% 的 mAP。\n\n模型 | 骨干网络 | mAP |  \n-- | -- | -- | --\nFaster R-CNN | ResNet-101 | 40.8 | 之前\nFaster R-CNN | ResNeSt-50 | 42.7 | v0.7\nFaster R-CNN | ResNeSt-101 | **44.9** | v0.7\n\n## 语义分割\n\n我们为 ADE20K 数据集上的语义分割任务新增了基于 ResNeSt-50 和 ResNeSt-101 的 DeepLabV3 模型。这些新模型的性能比我们之前的最佳模型高出 1% 至 2.8%。与目标检测结果类似，ResNeSt-50 的表现优于基于 ResNet-101 的模型。其中，采用 ResNeSt-101 骨干的 DeepLabV3 在 ADE20K 验证集上达到了 **46.9 的 mIoU，创下新的 SOTA 记录**，比之前的最佳结果高出 1% 以上。\n\n模型 | 骨干网络 | 像素准确率 | mIoU |  \n-- | -- | -- | -- | --\nDeepLabV3 | ResNet-101 | 81.1 | 44.1 | 之前\nDeepLabV3 | ResNeSt-50 | 81.2 | 45.1 | v0.7\nDeepLabV3 | ResNeSt-101 | 82.1 | **46.9** | v0.7\n\n## Bug 修复与改进\n\n* 实现 25.7 分钟 Mask R-CNN 训练的说明。\n* 修复 R-CNN 导出问题。\n\n","2020-04-22T00:16:39",{"id":187,"version":188,"summary_zh":189,"released_at":190},145255,"v0.6.0","# GluonCV 0.6.0 版本发布\n\n## 亮点\n**GluonCV v0.6.0 新增了更多视频分类模型，推出了适用于移动端推理的姿态估计模型，并增加了视频分类和姿态估计的量化模型。此外，我们还对易用性和代码进行了多项改进。**\n\n## 更多视频动作识别模型\n\nhttps:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\n\n我们现在提供了最先进的视频分类网络，例如 I3D、I3D-Nonlocal 和 SlowFast。我们在多个广泛使用的视频数据集上构建了一个完整的模型库。我们提供了一个通用的视频 [数据加载器](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Fblob\u002Fmaster\u002Fgluoncv\u002Fdata\u002Fvideo_custom\u002Fclassification.py)（可同时处理帧格式和原始视频格式）。用户无需编写复杂的代码即可进行训练、微调、预测和特征提取，只需准备一个包含视频信息的文本文件即可。\n\n以下是本次发布中新增模型的表格。\n\n\n名称 | 预训练 | 片段数 | 片段长度 | Top-1 | 标签 | \n-- | -- | -- | -- | -- | -- | \ninceptionv1_kinetics400 | ImageNet | 7 | 1 | 69.1 | 6dcdafb1 | \ninceptionv3_kinetics400 | ImageNet | 7 | 1 | 72.5 | 8a4a6946 | \nresnet18_v1b_kinetics400 | ImageNet | 7 | 1 | 65.5 | 46d5a985 |\nresnet34_v1b_kinetics400  | ImageNet | 7 | 1 | 69.1 | 8a8d0d8d | \nresnet50_v1b_kinetics400  | ImageNet | 7 | 1 | 69.9 | cc757e5c | \nresnet101_v1b_kinetics400  | ImageNet | 7 | 1 | 71.3 | 5bb6098e | \nresnet152_v1b_kinetics400  | ImageNet | 7 | 1 | 71.5 | 9bc70c66 | \ni3d_inceptionv1_kinetics400  | ImageNet | 1 | 32 (64\u002F2) | 71.8 | 81e0be10 | \ni3d_inceptionv3_kinetics400  | ImageNet | 1 | 32 (64\u002F2) | 73.6 | f14f8a99 | \ni3d_resnet50_v1_kinetics400  | ImageNet | 1 | 32 (64\u002F2) | 74.0 | 568a722e |\ni3d_resnet101_v1_kinetics400  | ImageNet | 1 | 32 (64\u002F2) | 75.1 | 6b69f655 | \ni3d_nl5_resnet50_v1_kinetics400  | ImageNet | 1 | 32 (64\u002F2) | 75.2 | 3c0e47ea |\ni3d_nl10_resnet50_v1_kinetics400  | ImageNet | 1 | 32 (64\u002F2) | 75.3 | bfb58c41 | \ni3d_nl5_resnet101_v1_kinetics400  | ImageNet | 1 | 32 (64\u002F2) | 76.0 | fbfc1d30 |\ni3d_nl10_resnet101_v1_kinetics400  | ImageNet | 1 | 32 (64\u002F2) | 76.1 | 59186c31 | \nslowfast_4x16_resnet50_kinetics400  | ImageNet | 1 | 36 (64\u002F1) | 75.3 | 9d650f51 | \nslowfast_8x8_resnet50_kinetics400  | ImageNet | 1 | 40 (64\u002F1) | 76.6 | d6b25339 | \nslowfast_8x8_resnet101_kinetics400  | ImageNet | 1 | 40 (64\u002F1) | 77.2 | fbde1a7c | \nresnet50_v1b_ucf101  | ImageNet | 3 | 1 | 83.7 | d728ecc7 |\ni3d_resnet50_v1_ucf101 | ImageNet | 1 | 32 (64\u002F2) | 83.9 | 7afc7286 |\ni3d_resnet50_v1_ucf101  | Kinetics400 | 1 | 32 (64\u002F2) | 95.4 | 760d0981 |\nresnet50_v1b_hmdb51  | ImageNet | 3 | 1 | 55.2 | 682591e2 |\ni3d_resnet50_v1_hmdb51  | ImageNet | 1 | 32 (64\u002F2) | 48.5 | 0d0ad559 |\ni3d_resnet50_v1_hmdb51  | Kinetics400 | 1 | 32 (64\u002F2) | 70.9 | 2ec6bf01 |\nresnet50_v1b_sthsthv2  | ImageNet | 8 | 1 | 35.5 | 80ee0c6b |\ni3d_resnet50_v1_sthsthv2  | ImageNet | 1 | 16 (32","2020-01-13T23:48:21",{"id":192,"version":193,"summary_zh":194,"released_at":195},145256,"v0.5.0","# GluonCV 0.5.0 版本发布\n\n## 亮点\n**GluonCV v0.5.0 新增了视频动作识别模型，引入了 AlphaPose，增加了 MobileNetV3 模型，并推出了适用于驾驶场景的 VPLR 语义分割模型。此外，还提供了更多用于部署的 Int8 量化模型，并进行了多项易用性改进。**\n\n## 0.5 版本中发布的全新模型\n\n| 模型                     | 指标       | 0.5 版本 |\n|---------------------------|------------|----------|\n| vgg16_ucf101              | UCF101 Top-1 | 83.4     |\n| inceptionv3_ucf101        | UCF101 Top-1   | 88.1     |\n| inceptionv3_kinetics400   | Kinetics400 Top-1 | 72.5     |\n| alpha_pose_resnet101_v1b_coco | OKS AP（含翻转） | 76.7\u002F92.6\u002F82.9 |\n| MobileNetV3_Large         | ImageNet Top-1 | 75.32    |\n| MobileNetV3_Small         | ImageNet Top-1 | 67.72    |\n| deeplab_v3b_plus_wideresnet_citys | Cityscapes mIoU | 83.5     |\n\n## 新应用：视频动作识别\n\nhttps:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Faction_recognition.html\n\n![](https:\u002F\u002Fraw.githubusercontent.com\u002Fbryanyzhu\u002Ftiny-ucf101\u002Fmaster\u002Faction_basketball_anno.gif)\n\nGluonCV 中的视频动作识别是一个完整的应用套件，包含了模型定义、训练脚本以及实用的损失和指标函数。我们还提供了若干预训练模型及使用教程。\n\n| 模型               | 预训练数据集      | 片段长度 | 分段数量 | 指标       | 数据集     | 准确率 |\n|---------------------------|--------|-----|--------|-----|---|-----|\n| vgg16_ucf101 | ImageNet  | 1 | 1 |  Top-1  |  UCF101 |  81.5  |\n| vgg16_ucf101 | ImageNet  | 1 | 3 |  Top-1  | UCF101 |  83.4  |\n| inceptionv3_ucf101 | ImageNet  | 1 | 1 |  Top-1  | UCF101 |  85.6  |\n| inceptionv3_ucf101 | ImageNet  | 1 | 3 |  Top-1  |   UCF101 | 88.1  |\n| inceptionv3_kinetics400 |   ImageNet | 1 | 3 |  Top-1   | Kinetics400 | 72.5   |\n\n关于如何准备 UCF101 和 Kinetics400 数据集的教程：https:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_datasets\u002Fucf101.html 和 https:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_datasets\u002Fkinetics400.html。\n\n使用预训练模型预测人类动作的演示：https:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_action_recognition\u002Fdemo_ucf101.html。\n\n如何训练自己的动作识别模型的教程：https:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_action_recognition\u002Fdive_deep_ucf101.html。\n\n更多最先进的模型（如 I3D、SlowFast 等）将在下一版本中推出，敬请期待。\n\n## 新模型：AlphaPose \n\nhttps:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fpose.html#alphapose\n\n![](https:\u002F\u002Fraw.githubusercontent.com\u002FMVIG-SJTU\u002FAlphaPose\u002Fmaster\u002Fdoc\u002Fpose.gif)\n\n| 模型                     | 数据集 |OKS AP | OKS AP（含翻转） |\n|---------------------------|---|----|-------|\n| alpha_pose_resnet101_v1b_coco | COCO 关键点  | 74.2\u002F91.6\u002F80.7 | 76.7\u002F92.6\u002F82.9 |\n\n使用预训练 AlphaPose 模型的演示：https:\u002F\u002Fgluon-cv.mxnet.io\u002Fbuild\u002Fexamples_pose\u002Fdemo_alpha_pose.html。\n\n## 新模型：MobileNetV3 \n\nhttps:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html#mobilenet","2019-09-10T19:11:35",{"id":197,"version":198,"summary_zh":199,"released_at":200},145257,"v0.4.0","\r\n# 0.4.0 版本更新说明\r\n\r\n## 亮点\r\n**GluonCV v0.4 新增了姿态估计模型、针对英特尔 CPU 的 Int8 量化支持，以及 FPN Faster\u002FMask-RCNN、宽幅 SE\u002FResNeXt 模型。此外，我们还进行了多项易用性改进。**\r\n\r\n*我们强烈建议将 GluonCV 0.4.0 与 MXNet>=1.4.0 一起使用，以避免一些依赖问题。对于某些特定任务，您可能需要使用 MXNet 的 nightly 构建版本。详情请参阅 https:\u002F\u002Fgluon-cv.mxnet.io\u002Findex.html*\r\n\r\n## 0.4 版本中发布的全新模型\r\n\r\n| 模型                     | 指标 | 0.4 |\r\n|---------------------------|--------|-----|\r\n| simple_pose_resnet152_v1b |  OKS AP*   |   74.2  |\r\n| simple_pose_resnet50_v1b |    OKS AP*    |  72.2   |\r\n| ResNext50_32x4d           |  ImageNet Top-1  |  79.32   |\r\n| ResNext101_64x4d          |  ImageNet Top-1   |  80.69  |\r\n| SE_ResNext101_32x4d       |  ImageNet Top-1   |  79.95   |\r\n| SE_ResNext101_64x4d       |  ImageNet Top-1  |  81.01   |\r\n| yolo3_mobilenet1.0_coco   |  COCO mAP      |  28.6   |\r\n\r\n\\* 使用真实标注的人体检测结果\r\n\r\n## 基于 Intel Deep Learning Boost 的 Int8 量化\r\n\r\nGluonCV 现已集成 Intel 的矢量神经网络指令 (VNNI)，以加速模型推理速度。\r\n**请注意，您需要一台功能强大的 Intel Skylake CPU 才能获得显著的加速效果。**\r\n\r\n模型 | 数据集 | 批量大小 | C5.18x FP32 | C5.18x INT8 | 加速比 | FP32 准确率 | INT8 准确率\r\n-- | -- | -- | -- | -- | -- | -- | --\r\nresnet50_v1 | ImageNet | 128 | 122.02 | 276.72 | 2.27 | 77.21%\u002F93.55% | 76.86%\u002F93.46%\r\nmobilenet1.0 | ImageNet | 128 | 375.33 | 1016.39 | 2.71 | 73.28%\u002F91.22% | 72.85%\u002F90.99%\r\nssd_300_vgg16_atrous_voc* | VOC | 224 | 21.55 | 31.47 | 1.46 | 77.4 | 77.46\r\nssd_512_vgg16_atrous_voc* | VOC | 224 | 7.63 | 11.69 | 1.53 | 78.41 | 78.39\r\nssd_512_resnet50_v1_voc* | VOC | 224 | 17.81 | 34.55 | 1.94 | 80.21 | 80.16\r\nssd_512_mobilenet1.0_voc* | VOC | 224 | 31.13 | 48.72 | 1.57 | 75.42 | 75.04\r\n\r\n**\\*nms_thresh=0.45, nms_topk=200**\r\n\r\n![](https:\u002F\u002Fuser-images.githubusercontent.com\u002F17897736\u002F54540947-dc08c480-49d3-11e9-9a0d-a97d44f9792c.png)\r\n\r\n`int8` 量化模型的使用方式与标准 GluonCV 模型完全相同，只需在模型名称后添加 `_int8` 后缀即可。例如，使用 `resnet50_v1_int8` 即可加载 `resnet50_v1` 的 `int8` 量化版本。\n\n## 剪枝后的 ResNet\r\n\r\nhttps:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html#pruned-resnet\r\n\r\n对卷积层进行通道剪枝是一种非常有效的减少模型冗余的方法，旨在不显著牺牲准确率的情况下加快推理速度。GluonCV 0.4 包含了多个来自原始 GluonCV SoTA ResNet 的剪枝版 ResNet，适用于 ImageNet 数据集。\n\n| 模型             | Top-1 | Top-5 | 标签  | 相对于原 ResNet 的加速倍数 |\r\n|-------------------|-------|-------|----------|------------------------------|\r\n| resnet18_v1b_0.89 | 67.2  | 87.45 | 54f7742b | 2x                           |\r\n| resnet50_v1d_0.86 | 78.02 | 93.82 | a230c33f | 1.68x                        |\r\n|  resnet50_v1d_0.48    | 74.66 | 92.34 | 0d3e69bb | 3.3x  |\r\n|  resnet50_v1d_0.37    | ","2019-03-26T22:07:56",{"id":202,"version":203,"summary_zh":204,"released_at":205},145258,"v0.3.0","# 0.3 版本更新说明\n\n## 亮点\n\n### 新增5种算法，并更新了38个预训练模型，提升了准确率\n### 7个精选模型对比\n\n| 模型               | 指标                | 0.2    | 0.3    | 参考                                                    |\n| ------------------- | --------------------- | ------ | ------ | ------------------------------------------------------------ |\n| [ResNet-50](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html#resnet)           | ImageNet 上的 top-1 准确率 | 77.07% | **79.15%** | 75.3% ([Caffe 实现](https:\u002F\u002Fgithub.com\u002FKaimingHe\u002Fdeep-residual-networks)) |\n| [ResNet-101](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html#resnet)           | ImageNet 上的 top-1 准确率 | 78.81% | **80.51%** | 76.4% ([Caffe 实现](https:\u002F\u002Fgithub.com\u002FKaimingHe\u002Fdeep-residual-networks)) |\n| [MobileNet 1.0](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html#mobilenet) | ImageNet 上的 top-1 准确率 |  N\u002FA | **73.28%** | 70.9% ([TensorFlow 实现)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Fblob\u002Fmaster\u002Fresearch\u002Fslim\u002Fnets\u002Fmobilenet_v1.md) |\n| [Faster-RCNN](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdetection.html#id37)         | COCO 数据集上的 mAP           | N\u002FA    | **40.1%**  | 39.6% ([Detectron](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002FDetectron)) |\n| [Yolo-v3](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdetection.html#id44)             | COCO 数据集上的 mAP           | N\u002FA    | **37.0%**  | 33.0% ([论文](https:\u002F\u002Fpjreddie.com\u002Fmedia\u002Ffiles\u002Fpapers\u002FYOLOv3.pdf)) |\n| [DeepLab-v3](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#semantic-segmentation)          | VOC 数据集上的 mIoU           | N\u002FA    | **86.7%**  | 85.7% ([论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.05587))            |\n| [Mask-RCNN](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fsegmentation.html#instance-segmentation)   | COCO 数据集上的 mask AP       | N\u002FA    | **33.1%**  | 32.8% ([Detectron](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002FDetectron)) |\n\n\n### 预训练模型的交互式可视化\n\n对于[图像分类](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html)：\n\n\u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html\">\u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F3307514\u002F47051128-ca3aa100-d157-11e8-8b50-08841c8cdf5f.png\" width=\"400px\" \u002F>\u003C\u002Fa>\n\n而对于[目标检测](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdetection.html)\n\n\u003Ca href=\"https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fdetection.html\">\u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F421857\u002F47048450-4d0b2e00-d14f-11e8-9338-bb20bb69655b.png\" width=\"400px\"\u002F>\u003C\u002Fa>\n\n### 无需 Python 即可部署\n\n所有模型均可进行混合编译，因此无需 Python 即可部署。请参阅[教程](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fgluon-cv\u002Ftree\u002Fmaster\u002Fscripts\u002Fdeployment\u002Fcpp-inference)，了解如何使用 C++ 部署这些模型。\n\n\n## 带训练脚本的新模型\n\n### DenseNet、DarkNet、SqueezeNet 用于[图像分类](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Fclassification.html#imagenet)\n\n我们现在提供了更广泛的模型系列，适用于","2018-10-16T22:08:39",{"id":207,"version":208,"summary_zh":209,"released_at":210},145259,"v0.2.0","# Gluon CV 工具包 v0.2 发行说明\n\n**注意：此版本依赖于 MXNet 1.3.0 的一些特性。您可以通过安装 MXNet 的 nightly 构建来提前体验这些特性。**\n\n您可以使用 pip 更新 MXNet：\n\n```bash\npip install mxnet --upgrade --pre\n# 或者\npip install mxnet-cu90 --upgrade --pre\n```\n\n### 0.2 版本的新特性\n\n#### 图像分类\n亮点：[在 ImageNet 分类任务上精度更高的预训练 ResNet 模型](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Findex.html#image-classification)\n\n这些高精度模型已更新至 [Gluon 模型库](https:\u002F\u002Fmxnet.incubator.apache.org\u002Fapi\u002Fpython\u002Fgluon\u002Fmodel_zoo.html)。\n\n- ResNet50 v1b 准确率超过 77%，ResNet101 v1b 达到 78.8%，而 ResNet152 v1b 则超过 79%。\n- 支持大批次训练，并采用 float16 数据类型。\n- 使用 ImageRecordIter 接口加速训练。\n- [用于 ImageNet 和 CIFAR10 分类的 ResNeXt](#resnext)\n- 适用于 ImageNet 的 SE-ResNet(v1b)。\n\n#### 目标检测\n亮点：带有训练\u002F测试脚本的 Faster-RCNN 模型\n\n- Faster-RCNN\n  - RPN（区域建议网络）\n  - 区域建议\n  - ROI Align 算子\n\n- 在 COCO 数据集上训练 SSD。\n\n#### 语义分割\n亮点：用于语义分割的 PSPNet\n\n- PSPNet\n- [用于 ImageNet 分类和语义分割的 ResNetV1b](#resnetv1b)\n  - 网络支持 `dilation` 选项。\n\n#### 数据集\n新增以下数据集及使用教程：\n- MS COCO\n- ADE20k\n\n### [GluonCV 中的新预训练模型](https:\u002F\u002Fgluon-cv.mxnet.io\u002Fmodel_zoo\u002Findex.html)\n\n- cifar_resnext29_16x64d\n- resnet{18|34|50|101}_v1b\n- ssd_512_mobilenet1.0_voc\n- faster_rcnn_resnet50_v2a_voc\n- ssd_300_vgg16_atrous_coco\n- ssd_512_vgg16_atrous_coco\n- ssd_512_resnet50_v1_coco\n- psp_resnet50_ade\n\n### 破坏性变更\n- 将 `DilatedResnetV0` 重命名为 `ResNetV1b`。","2018-06-26T05:23:10",{"id":212,"version":213,"summary_zh":214,"released_at":215},145260,"v0.1","# Gluon CV 工具包 v0.1 发行说明\n\nGluonCV 提供了计算机视觉领域最先进（SOTA）深度学习算法的实现。它旨在帮助工程师、研究人员和学生快速进行产品原型开发、验证新想法以及学习计算机视觉知识。\n\n### 目录\n- 新特性\n  - 教程\n    - 图像分类（CIFAR + ImageNet 示例 + divedeep）\n    - 目标检测（SSD 示例 + 训练 + divedeep）\n    - 语义分割（FCN 示例 + 训练）\n  \n  - 模型库\n    - ResNet 在 ImageNet 和 CIFAR-10 上的实现\n    - SSD 在 VOC 上的实现\n    - FCN 在 VOC 上的实现\n    - 空洞 ResNet\n  - 训练脚本\n    - 图像分类：\n      在 ImageNet 和 CIFAR-10 上训练 ResNet，包括 Mix-Up 数据增强训练\n    - 目标检测：\n      在 PASCAL VOC 数据集上训练 SSD\n    - 语义分割\n      在 PASCAL VOC 数据集上训练 FCN\n  - 工具函数\n    - 图像可视化：\n      - plot_image\n      - 用于分割任务的颜色调色板获取函数 get_color_pallete\n    - 边界框可视化\n      - plot_bbox\n    - 训练辅助工具\n      - 多项式学习率调度器 PolyLRScheduler\n","2018-05-01T00:53:50"]