[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Deci-AI--super-gradients":3,"tool-Deci-AI--super-gradients":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160411,2,"2026-04-18T23:33:24",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":32,"env_os":102,"env_gpu":103,"env_ram":102,"env_deps":104,"category_tags":110,"github_topics":111,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":113,"updated_at":114,"faqs":115,"releases":143},9380,"Deci-AI\u002Fsuper-gradients","super-gradients","Easily train or fine-tune SOTA computer vision models with one open source training library. The home of Yolo-NAS.","super-gradients 是一个专为计算机视觉打造的开源训练库，旨在帮助开发者轻松构建、训练及微调达到业界最先进水平（SOTA）的深度学习模型。它有效解决了传统模型训练流程复杂、配置繁琐以及难以在精度与速度之间取得平衡的痛点，让用户能够通过统一的接口快速复现高性能模型。\n\n该工具非常适合人工智能工程师、算法研究人员以及希望将视觉模型落地到生产环境的技术团队使用。无论是图像分类、目标检测、语义分割还是姿态估计任务，super-gradients 都能提供完善的支持。其核心亮点在于内置了包括 YOLO-NAS 和 YOLO-NAS-POSE 在内的 34 种预训练模型架构。特别是 YOLO-NAS 系列，在保持极高推理速度的同时实现了超越 YOLOv5 至 v8 等主流模型的检测精度，提供了卓越的性价比。基于 PyTorch 构建，super-gradients 不仅支持 Python 3.7 及以上版本，还配备了详尽的文档与社区支持，让从实验探索到模型部署的全过程变得更加高效顺畅。","\u003Cdiv align=\"center\" markdown=\"1\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_f57d4f7917d1.png\" width=\"600\"\u002F>\n \u003Cbr\u002F>\u003Cbr\u002F>\n  \n**Build, train, and fine-tune production-ready deep learning  SOTA vision models**\n[![Tweet](https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Furl\u002Fhttp\u002Fshields.io.svg?style=social)](https:\u002F\u002Ftwitter.com\u002Fintent\u002Ftweet?text=Easily%20train%20or%20fine-tune%20SOTA%20computer%20vision%20models%20from%20one%20training%20repository&url=https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients&via=deci_ai&hashtags=AI,deeplearning,computervision,training,opensource)\n\n#### Version 3.5 is out! Notebooks have been updated!\n______________________________________________________________________\n\u003C\u002Fdiv>  \n\u003Cdiv align=\"center\">\n\u003Cp align=\"center\">\n  \u003Ca href=\"#getting-started\">Getting Started\u003C\u002Fa> •\n  \u003Ca href=\"#implemented-model-architectures\">Pretrained Models\u003C\u002Fa> •\n  \u003Ca href=\"#community\">Community\u003C\u002Fa> •\n  \u003Ca href=\"#license\">License\u003C\u002Fa> •\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients#prerequisites\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.7%20%7C%203.8%20%7C%203.9-blue\" \u002F>\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients#prerequisites\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpytorch-1.9%20%7C%201.10-blue\" \u002F>\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002Fsuper-gradients\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fsuper-gradients\" \u002F>\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fdocumentation\u002Fsource\u002Fmodel_zoo.md\" >\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpre--trained%20models-34-brightgreen\" \u002F>\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Freleases\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002FDeci-AI\u002Fsuper-gradients\" \u002F>\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fsupergradients-comm52\u002Fshared_invite\u002Fzt-10vz6o1ia-b_0W5jEPEnuHXm087K~t8Q\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fslack-community-blueviolet\" \u002F>\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002FLICENSE.md\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache%202.0-blue\" \u002F>\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fdocs.deci.ai\u002Fsuper-gradients\u002Fdocumentation\u002Fsource\u002Fwelcome.html\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-mkdocs-brightgreen\" \u002F>\u003C\u002Fa>\n\u003C\u002Fp>    \n\u003C\u002Fdiv>\n\n______________________________________________________________________\n\n## Build with SuperGradients\n__________________________________________________________________________________________________________\n\n### Support various computer vision tasks\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_60a2d3720dc3.png\" width=\"250px\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_5711a7d8bc46.png\" width=\"250px\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_d1caeb56da75.png\" width=\"250px\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_9bc87f372d38.jpg\" width=\"250px\">\n\u003C\u002Fdiv>\n\n### Ready to deploy pre-trained SOTA models\n\nYOLO-NAS and YOLO-NAS-POSE architectures are out! \nThe new YOLO-NAS delivers state-of-the-art performance with the unparalleled accuracy-speed performance, outperforming other models such as YOLOv5, YOLOv6, YOLOv7 and YOLOv8.\nA YOLO-NAS-POSE model for pose estimation is also available, delivering state-of-the-art accuracy\u002Fperformance tradeoff.\n\nCheck these out here: [YOLO-NAS](YOLONAS.md) & [YOLO-NAS-POSE](YOLONAS-POSE.md).\n\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_d7555f1d7441.png\" height=\"600px\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_56cb0740f675.png\" height=\"600px\">\n\u003C\u002Fdiv>\n\n```python\n# Load model with pretrained weights\nfrom super_gradients.training import models\nfrom super_gradients.common.object_names import Models\n\nmodel = models.get(Models.YOLO_NAS_M, pretrained_weights=\"coco\")\n```\n#### All Computer Vision Models - Pretrained Checkpoints can be found in the [Model Zoo](http:\u002F\u002Fbit.ly\u002F41dkt89)\n\n#### Classification\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_629223869189.png\" width=\"800px\">\n\u003C\u002Fdiv>\n\n#### Semantic Segmentation\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_ef35dad7a978.png\" width=\"800px\">\n\u003C\u002Fdiv>\n\n#### Object Detection \n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_af7e82d93c99.png\" width=\"800px\">\n\u003C\u002Fdiv>\n\n#### Pose Estimation\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_56cb0740f675.png\" width=\"400px\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_63f67b31c0c5.png\" width=\"400px\">\n\u003C\u002Fdiv>\n\n### Easy to train SOTA Models\n\nEasily load and fine-tune production-ready, pre-trained SOTA models that incorporate best practices and validated hyper-parameters for achieving best-in-class accuracy. \nFor more information on how to do it go to [Getting Started](#getting-started)\n    \n\n#### Plug and play recipes\n```bash\npython -m super_gradients.train_from_recipe architecture=regnetY800 dataset_interface.data_dir=\u003CYOUR_Imagenet_LOCAL_PATH> ckpt_root_dir=\u003CCHEKPOINT_DIRECTORY>\n```\nMore examples on how and why to use recipes can be found in [Recipes](#recipes)\n\n\n### Production readiness\nAll SuperGradients models’ are production ready in the sense that they are compatible with deployment tools such as TensorRT (Nvidia) and OpenVINO (Intel) and can be easily taken into production. With a few lines of code you can easily integrate the models into your codebase.\n```python\n# Load model with pretrained weights\nfrom super_gradients.training import models\nfrom super_gradients.common.object_names import Models\n\nmodel = models.get(Models.YOLO_NAS_M, pretrained_weights=\"coco\")\n\n# Prepare model for conversion\n# Input size is in format of [Batch x Channels x Width x Height] where 640 is the standard COCO dataset dimensions\nmodel.eval()\nmodel.prep_model_for_conversion(input_size=[1, 3, 640, 640])\n    \n# Create dummy_input\n\n# Convert model to onnx\ntorch.onnx.export(model, dummy_input,  \"yolo_nas_m.onnx\")\n```\nMore information on how to take your model to production can be found in [Getting Started](#getting-started) notebooks\n\n## Quick Installation\n\n__________________________________________________________________________________________________________\n\n \n```bash\npip install super-gradients\n```\n\n## What's New\n\n__________________________________________________________________________________________________________\nVersion 3.4.0 (November 6, 2023)\n\n* [YoloNAS-Pose](YOLONAS-POSE.md) model released - a new frontier in pose estimation\n* Added option to export a recipe to a single YAML file or to a standalone train.py file \n* Other bugfixes & minor improvements. Full release notes available [here](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Freleases\u002Ftag\u002F3.4.0)\n\n__________________________________________________________________________________________________________\nVersion 3.1.3 (July 19, 2023)\n\n* [Pose Estimation Task Support](https:\u002F\u002Fdocs.deci.ai\u002Fsuper-gradients\u002Fdocumentation\u002Fsource\u002FPoseEstimation.html) - Check out fine-tuning [notebook example](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1NMGzx8NdycIZqnRlZKJZrIOqyj0MFzJE#scrollTo=3UZJqTehg0On) \n* Pre-trained modified [DEKR](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Frecipes\u002Fcoco2017_pose_dekr_w32_no_dc.yaml) model for pose estimation (TensorRT-compatible)\n* Support for Python 3.10\n* Support for torch.compile\n* Other bugfixes & minor improvements. Check out [release notes](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Freleases\u002Ftag\u002F3.1.3)\n\n__________________________________________________________________________________________________________\n30th of May\n* [Quantization Aware Training YoloNAS on Custom Dataset](https:\u002F\u002Fbit.ly\u002F3MIKdTy)\n\nVersion 3.1.1 (May 3rd)\n* [YOLO-NAS](https:\u002F\u002Fbit.ly\u002F41WeNPZ)\n* New [predict function](https:\u002F\u002Fbit.ly\u002F3oZfaea) (predict on any image, video, url, path, stream)\n* [RoboFlow100](https:\u002F\u002Fbit.ly\u002F40YOJ5z) datasets integration \n* A new [Documentation Hub](https:\u002F\u002Fdocs.deci.ai\u002Fsuper-gradients\u002Fdocumentation\u002Fsource\u002Fwelcome.html)\n* Integration with [DagsHub for experiment monitoring](https:\u002F\u002Fbit.ly\u002F3ALFUkQ)\n* Support [Darknet\u002FYolo format detection dataset](https:\u002F\u002Fbit.ly\u002F41VX6Qu) (used by Yolo v5, v6, v7, v8) \n* [Segformer](https:\u002F\u002Fbit.ly\u002F3oYu6Jp) model and recipe \n* Post Training Quantization and Quantization Aware Training - [notebooks](http:\u002F\u002Fbit.ly\u002F3KrN6an)\n\nCheck out SG full [release notes](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Freleases).\n\n## Table of Content\n__________________________________________________________________________________________________________\n\u003C!-- toc -->\n\n- [Getting Started](#getting-started)\n- [Advanced Features](#advanced-features)\n- [Installation Methods](#installation-methods)\n    - [Prerequisites](#prerequisites)\n    - [Quick Installation](#quick-installation)\n- [Implemented Model Architectures](#implemented-model-architectures)\n- [Contributing](#contributing)\n- [Citation](#citation)\n- [Community](#community)\n- [License](#license)\n- [Deci Platform](#deci-platform)\n\n\u003C!-- tocstop -->\n\n## Getting Started\n__________________________________________________________________________________________________________\n\n### Start Training with Just 1 Command Line\nThe most simple and straightforward way to start training SOTA performance models with SuperGradients reproducible recipes. Just define your dataset path and where you want your checkpoints to be saved and you are good to go from your terminal!\n\nJust make sure that you [setup your dataset](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002FDataset_Setup_Instructions.md) according to the data dir specified in the recipe.\n\n```bash\npython -m super_gradients.train_from_recipe --config-name=imagenet_regnetY architecture=regnetY800 dataset_interface.data_dir=\u003CYOUR_Imagenet_LOCAL_PATH> ckpt_root_dir=\u003CCHEKPOINT_DIRECTORY>\n```\n### Quickly Load Pre-Trained Weights for Your Desired Model with SOTA Performance\nWant to try our pre-trained models on your machine? Import SuperGradients, initialize your Trainer, and load your desired architecture and pre-trained weights from our [SOTA model zoo](http:\u002F\u002Fbit.ly\u002F41dkt89)\n\n```python\n# The pretrained_weights argument will load a pre-trained architecture on the provided dataset\n    \nimport super_gradients\n\nmodel = models.get(\"model-name\", pretrained_weights=\"pretrained-model-name\")\n\n```   \n###  Classification\n\n* [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Ftransfer_learning_classification.ipynb) [Transfer Learning for classification](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Ftransfer_learning_classification.ipynb) \n* [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FPTQ_and_QAT_for_classification.ipynb)   [PTQ and QAT for classification](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FPTQ_and_QAT_for_classification.ipynb)\n\n###  Semantic Segmentation\n\n* [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fquickstart_segmentation.ipynb) [Segmentation Quick Start](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fquickstart_segmentation.ipynb)\n* [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Ftransfer_learning_semantic_segmentation.ipynb) [Segmentation Transfer Learning](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Ftransfer_learning_semantic_segmentation.ipynb)\n* [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fsegmentation_connect_custom_dataset.ipynb) [How to Connect Custom Dataset](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fsegmentation_connect_custom_dataset.ipynb)\n* [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FSegmentation_Model_Export.ipynb) [How to export segmentation model to ONNX](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FSegmentation_Model_Export.ipynb)\n\n\n### Pose Estimation\n\n* [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FYoloNAS_Pose_Fine_Tuning_Animals_Pose_Dataset.ipynb) [Fine Tuning YoloNAS-Pose on AnimalPose dataset](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FYoloNAS_Pose_Fine_Tuning_Animals_Pose_Dataset.ipynb)\n* [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FDEKR_PoseEstimationFineTuning.ipynb) [Fine Tuning DEKR on AnimalPose dataset](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FDEKR_PoseEstimationFineTuning.ipynb)\n\n\n###  Object Detection\n\n* [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FYoloNAS_Inference_using_TensorRT.ipynb) [YoloNAS inference using TensorRT](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FYoloNAS_Inference_using_TensorRT.ipynb)\n* [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fdetection_transfer_learning.ipynb) [Object Detection Transfer Learning](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fdetection_transfer_learning.ipynb)\n* [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fdetection_how_to_connect_custom_dataset.ipynb) [How to Connect Custom Dataset](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fdetection_how_to_connect_custom_dataset.ipynb)\n* [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fyolo_nas_custom_dataset_fine_tuning_with_qat.ipynb) [Quantization Aware Training YoloNAS on Custom Dataset](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fyolo_nas_custom_dataset_fine_tuning_with_qat.ipynb)\n\n\n### How to Predict Using Pre-trained Model\n\n* [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fhow_to_run_model_predict.ipynb) [How to Predict Using Pre-trained Model](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fhow_to_run_model_predict.ipynb)\n\n### Albumentations Integration\n\n* [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Falbumentations_tutorial.ipynb) [Using Albumentations with SG](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Falbumentations_tutorial.ipynb)\n\n\n\n## Advanced Features\n__________________________________________________________________________________________________________\n### Post Training Quantization and Quantization Aware Training\nQuantization involves representing weights and biases in lower precision, resulting in reduced memory and computational requirements, making it useful for deploying models on devices with limited resources. \nThe process can be done during training, called Quantization aware training, or after training, called post-training quantization. \nA full tutorial can be found [here](http:\u002F\u002Fbit.ly\u002F41hC8uI).\n\n* [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fbit.ly\u002F3KrN6an) [Post Training Quantization and Quantization Aware Training](https:\u002F\u002Fbit.ly\u002F3KrN6an)\n\n\n### Quantization Aware Training YoloNAS on Custom Dataset\nThis tutorial provides a comprehensive guide on how to fine-tune a YoloNAS model using a custom dataset. \nIt also demonstrates how to utilize SG's QAT (Quantization-Aware Training) support. Additionally, it offers step-by-step instructions on deploying the model and performing benchmarking.\n\n* [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fbit.ly\u002F3MIKdTy) [Quantization Aware Training YoloNAS on Custom Dataset](https:\u002F\u002Fbit.ly\u002F3MIKdTy)\n\n\n### Knowledge Distillation Training\n\nKnowledge Distillation is a training technique that uses a large model, teacher model, to improve the performance of a smaller model, the student model.\nLearn more about SuperGradients knowledge distillation training with our pre-trained BEiT base teacher model and Resnet18 student model on CIFAR10 example notebook on Google Colab for an easy to use tutorial using free GPU hardware\n\n* [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fhow_to_use_knowledge_distillation_for_classification.ipynb) [Knowledge Distillation Training](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fhow_to_use_knowledge_distillation_for_classification.ipynb)\n\n\n### Recipes\n\nTo train a model, it is necessary to configure 4 main components. \nThese components are aggregated into a single \"main\" recipe `.yaml` file that inherits the aforementioned dataset, architecture, raining and checkpoint params.\nIt is also possible (and recommended for flexibility) to override default settings with custom ones.\nAll recipes can be found [here](http:\u002F\u002Fbit.ly\u002F3gfLw07)\n\u003C\u002Fbr>\nRecipes support out of the box every model, metric or loss that is implemented in SuperGradients, but you can easily extend this to any custom object that you need by \"registering it\". Check out [this](http:\u002F\u002Fbit.ly\u002F3TQ4iZB) tutorial for more information.\n\n* [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fwhat_are_recipes_and_how_to_use.ipynb) [How to Use Recipes](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fwhat_are_recipes_and_how_to_use.ipynb)\n \n\u003Cdetails markdown=\"1\">\n  \u003Csummary>\u003Ch3>Using Distributed Data Parallel (DDP) \u003C\u002Fh3>\u003C\u002Fsummary>\n\n#### Why use DDP ?\n\nRecent Deep Learning models are growing larger and larger to an extent that training on a single GPU can take weeks.\nIn order to train models in a timely fashion, it is necessary to train them with multiple GPUs.\nUsing 100s GPUs can reduce training time of a model from a week to less than an hour.\n\n#### How does it work ?\nEach GPU has its own process, which controls a copy of the model and which loads its own mini-batch from disk and sends\nit to its GPU during training. After the forward pass is completed on every GPU, the gradient is reduced across all\nGPUs, yielding to all the GPUs having the same gradient locally. This leads to the model weights to stay synchronized\nacross all GPUs after the backward pass.\n\n#### How to use it ?\nYou can use SuperGradients to train your model with DDP in just a few lines.\n\n\n*main.py*\n```python\nfrom super_gradients import init_trainer, Trainer\nfrom super_gradients.common import MultiGPUMode\nfrom super_gradients.training.utils.distributed_training_utils import setup_device\n\n# Initialize the environment\ninit_trainer()\n\n# Launch DDP on 4 GPUs'\nsetup_device(multi_gpu=MultiGPUMode.DISTRIBUTED_DATA_PARALLEL, num_gpus=4)\n\n# Call the trainer\nTrainer(expriment_name=...)\n\n# Everything you do below will run on 4 gpus\n\n...\n\nTrainer.train(...)\n\n```\n\nFinally, you can launch your distributed training with a simple python call.\n```bash\npython main.py\n```\n\n\nPlease note that if you work with `torch\u003C1.9.0` (deprecated), you will have to launch your training with either \n`torch.distributed.launch` or `torchrun`, in which case `nproc_per_node` will overwrite the value  set with `gpu_mode`:\n```bash\npython -m torch.distributed.launch --nproc_per_node=4 main.py\n```\n\n```bash\ntorchrun --nproc_per_node=4 main.py\n```\n\n#### Calling functions on a single node\n\nIt is often in DDP training that we want to execute code on the master rank (i.e rank 0).\nIn SG, users usually execute their own code by triggering \"Phase Callbacks\" (see \"Using phase callbacks\" section below).\nOne can make sure the desired code will only be ran on rank 0, using ddp_silent_mode or the multi_process_safe decorator.\nFor example, consider the simple phase callback below, that uploads the first 3 images of every batch during training to\nthe Tensorboard:\n\n```python\nfrom super_gradients.training.utils.callbacks import PhaseCallback, PhaseContext, Phase\nfrom super_gradients.common.environment.env_helpers import multi_process_safe\n\nclass Upload3TrainImagesCalbback(PhaseCallback):\n    def __init__(\n        self,\n    ):\n        super().__init__(phase=Phase.TRAIN_BATCH_END)\n    \n    @multi_process_safe\n    def __call__(self, context: PhaseContext):\n        batch_imgs = context.inputs.cpu().detach().numpy()\n        tag = \"batch_\" + str(context.batch_idx) + \"_images\"\n        context.sg_logger.add_images(tag=tag, images=batch_imgs[: 3], global_step=context.epoch)\n\n```\nThe @multi_process_safe decorator ensures that the callback will only be triggered by rank 0. Alternatively, this can also\nbe done by the SG trainer boolean attribute (which the phase context has access to), ddp_silent_mode, which is set to False\niff the current process rank is zero (even after the process group has been killed):\n```python\nfrom super_gradients.training.utils.callbacks import PhaseCallback, PhaseContext, Phase\n\nclass Upload3TrainImagesCalbback(PhaseCallback):\n    def __init__(\n        self,\n    ):\n        super().__init__(phase=Phase.TRAIN_BATCH_END)\n\n    def __call__(self, context: PhaseContext):\n        if not context.ddp_silent_mode:\n            batch_imgs = context.inputs.cpu().detach().numpy()\n            tag = \"batch_\" + str(context.batch_idx) + \"_images\"\n            context.sg_logger.add_images(tag=tag, images=batch_imgs[: 3], global_step=context.epoch)\n\n```\n\nNote that ddp_silent_mode can be accessed through SgTrainer.ddp_silent_mode. Hence, it can be used in scripts after calling\nSgTrainer.train() when some part of it should be ran on rank 0 only.\n\n#### Good to know\nYour total batch size will be (number of gpus x batch size), so you might want to increase your learning rate.\nThere is no clear rule, but a rule of thumb seems to be to [linearly increase the learning rate with the number of gpus](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1706.02677.pdf) \n\n\u003C\u002Fdetails>\n\n\u003Cdetails markdown=\"1\">\n\u003Csummary>\u003Ch3> Easily change architectures parameters \u003C\u002Fh3>\u003C\u002Fsummary>\n\n```python\nfrom super_gradients.training import models\n\n# instantiate default pretrained resnet18\ndefault_resnet18 = models.get(model_name=\"resnet18\", num_classes=100, pretrained_weights=\"imagenet\")\n\n# instantiate pretrained resnet18, turning DropPath on with probability 0.5\ndroppath_resnet18 = models.get(model_name=\"resnet18\", arch_params={\"droppath_prob\": 0.5}, num_classes=100, pretrained_weights=\"imagenet\")\n\n# instantiate pretrained resnet18, without classifier head. Output will be from the last stage before global pooling\nbackbone_resnet18 = models.get(model_name=\"resnet18\", arch_params={\"backbone_mode\": True}, pretrained_weights=\"imagenet\")\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails markdown=\"1\">\n\n\u003Csummary>\u003Ch3> Using phase callbacks \u003C\u002Fh3>\u003C\u002Fsummary>  \n  \n```python\nfrom super_gradients import Trainer\nfrom torch.optim.lr_scheduler import ReduceLROnPlateau\nfrom super_gradients.training.utils.callbacks import Phase, LRSchedulerCallback\nfrom super_gradients.training.metrics.classification_metrics import Accuracy\n\n# define PyTorch train and validation loaders and optimizer\n\n# define what to be called in the callback\nrop_lr_scheduler = ReduceLROnPlateau(optimizer, mode=\"max\", patience=10, verbose=True)\n\n# define phase callbacks, they will fire as defined in Phase\nphase_callbacks = [LRSchedulerCallback(scheduler=rop_lr_scheduler,\n                                       phase=Phase.VALIDATION_EPOCH_END,\n                                       metric_name=\"Accuracy\")]\n\n# create a trainer object, look the declaration for more parameters\ntrainer = Trainer(\"experiment_name\")\n\n# define phase_callbacks as part of the training parameters\ntrain_params = {\"phase_callbacks\": phase_callbacks}\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails markdown=\"1\">\n\n\u003Csummary>\u003Ch3> Integration to DagsHub \u003C\u002Fh3>\u003C\u002Fsummary>    \n\n[![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F11fW56pMpwOMHQSbQW6xxMRYvw1mEC-t-?usp=sharing) \n\n```python\nfrom super_gradients import Trainer\n\ntrainer = Trainer(\"experiment_name\")\nmodel = ...\n\ntraining_params = { ...  # Your training params\n                   \"sg_logger\": \"dagshub_sg_logger\",  # DagsHub Logger, see class super_gradients.common.sg_loggers.dagshub_sg_logger.DagsHubSGLogger for details\n                   \"sg_logger_params\":  # Params that will be passes to __init__ of the logger super_gradients.common.sg_loggers.dagshub_sg_logger.DagsHubSGLogger\n                     {\n                       \"dagshub_repository\": \"\u003CREPO_OWNER>\u002F\u003CREPO_NAME>\", # Optional: Your DagsHub project name, consisting of the owner name, followed by '\u002F', and the repo name. If this is left empty, you'll be prompted in your run to fill it in manually.\n                       \"log_mlflow_only\": False, # Optional: Change to true to bypass logging to DVC, and log all artifacts only to MLflow  \n                       \"save_checkpoints_remote\": True,\n                       \"save_tensorboard_remote\": True,\n                       \"save_logs_remote\": True,\n                     }\n                   }\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\n\u003Csummary>\u003Ch3> Integration to Weights and Biases \u003C\u002Fh3>\u003C\u002Fsummary>    \n  \n\n```python\nfrom super_gradients import Trainer\n\n# create a trainer object, look the declaration for more parameters\ntrainer = Trainer(\"experiment_name\")\n\ntrain_params = { ... # training parameters\n                \"sg_logger\": \"wandb_sg_logger\", # Weights&Biases Logger, see class WandBSGLogger for details\n                \"sg_logger_params\": # paramenters that will be passes to __init__ of the logger \n                  {\n                    \"project_name\": \"project_name\", # W&B project name\n                    \"save_checkpoints_remote\": True\n                    \"save_tensorboard_remote\": True\n                    \"save_logs_remote\": True\n                  } \n               }\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails markdown=\"1\">\n\n\u003Csummary>\u003Ch3> Integration to ClearML \u003C\u002Fh3>\u003C\u002Fsummary>    \n\n\n```python\nfrom super_gradients import Trainer\n\n# create a trainer object, look the declaration for more parameters\ntrainer = Trainer(\"experiment_name\")\n\ntrain_params = { ... # training parameters\n                \"sg_logger\": \"clearml_sg_logger\", # ClearML Logger, see class ClearMLSGLogger for details\n                \"sg_logger_params\": # paramenters that will be passes to __init__ of the logger \n                  {\n                    \"project_name\": \"project_name\", # ClearML project name\n                    \"save_checkpoints_remote\": True,\n                    \"save_tensorboard_remote\": True,\n                    \"save_logs_remote\": True,\n                  } \n               }\n```\n\n\n  \u003C\u002Fdetails>\n\u003Cdetails markdown=\"1\">\n\n  \u003Csummary>\u003Ch3> Integration to Voxel51 \u003C\u002Fh3>\u003C\u002Fsummary>    \n  \nYou can apply SuperGradients YOLO-NAS models directly to your FiftyOne dataset using the apply_model() method:\n\n```python\nimport fiftyone as fo\nimport fiftyone.zoo as foz\n\nfrom super_gradients.training import models\n\ndataset = foz.load_zoo_dataset(\"quickstart\", max_samples=25)\ndataset.select_fields().keep_fields()\n\nmodel = models.get(\"yolo_nas_m\", pretrained_weights=\"coco\")\n\ndataset.apply_model(model, label_field=\"yolo_nas\", confidence_thresh=0.7)\n\nsession = fo.launch_app(dataset)\n```\n\nThe SuperGradients YOLO-NAS model can be accessed directly from the FiftyOne Model Zoo:\n\n```python\nimport fiftyone as fo\nimport fiftyone.zoo as foz\n\nmodel = foz.load_zoo_model(\"yolo-nas-torch\")\n\ndataset = foz.load_zoo_dataset(\"quickstart\")\ndataset.apply_model(model, label_field=\"yolo_nas\")\n\nsession = fo.launch_app(dataset)\n```\n\n\u003C\u002Fdetails>\n\n\n## Installation Methods\n__________________________________________________________________________________________________________\n### Prerequisites\n\u003Cdetails markdown=\"1\">\n  \n\u003Csummary>General requirements\u003C\u002Fsummary>\n  \n- Python 3.7, 3.8 or 3.9 installed.\n- 1.9.0 \u003C= torch \u003C 1.14 \n  - https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F\n- The python packages that are specified in requirements.txt;\n\n\u003C\u002Fdetails>\n    \n\u003Cdetails markdown=\"1\">\n  \n\u003Csummary>To train on nvidia GPUs\u003C\u002Fsummary>\n  \n- [Nvidia CUDA Toolkit >= 11.2](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-11.2.0-download-archive?target_os=Linux&target_arch=x86_64&target_distro=Ubuntu)\n- CuDNN >= 8.1.x\n- Nvidia Driver with CUDA >= 11.2 support (≥460.x)\n  \n\u003C\u002Fdetails>\n    \n### Quick Installation\n\n\u003Cdetails markdown=\"1\">\n  \n\u003Csummary>Install stable version using PyPi\u003C\u002Fsummary>\n\nSee in [PyPi](https:\u002F\u002Fpypi.org\u002Fproject\u002Fsuper-gradients\u002F)\n```bash\npip install super-gradients\n```\n\nThat's it !\n\n\u003C\u002Fdetails>\n    \n\u003Cdetails markdown=\"1\">\n  \n\u003Csummary>Install using GitHub\u003C\u002Fsummary>\n\n\n```bash\npip install git+https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients.git@stable\n```\n\n\u003C\u002Fdetails> \n\n\n## Implemented Model Architectures \n__________________________________________________________________________________________________________\n\nAll Computer Vision Models - Pretrained Checkpoints can be found in the [Model Zoo](http:\u002F\u002Fbit.ly\u002F41dkt89)\n\n### Image Classification\n  \n- [DensNet (Densely Connected Convolutional Networks)](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fdensenet.py) \n- [DPN](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fdpn.py) \n- [EfficientNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fefficientnet.py)\n- [LeNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Flenet.py) \n- [MobileNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fmobilenet.py)\n- [MobileNet v2](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fmobilenetv2.py)  \n- [MobileNet v3](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fmobilenetv3.py) \n- [PNASNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fpnasnet.py) \n- [Pre-activation ResNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fpreact_resnet.py)  \n- [RegNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fregnet.py)\n- [RepVGG](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Frepvgg.py)  \n- [ResNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fresnet.py)\n- [ResNeXt](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fresnext.py) \n- [SENet ](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fsenet.py)\n- [ShuffleNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fshufflenet.py)\n- [ShuffleNet v2](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fshufflenetv2.py)\n- [VGG](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fvgg.py)\n  \n### Semantic Segmentation \n\n- [PP-LiteSeg](https:\u002F\u002Fbit.ly\u002F3RrtMMO)\n- [DDRNet (Deep Dual-resolution Networks)](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fsegmentation_models\u002Fddrnet.py) \n- [LadderNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fsegmentation_models\u002Fladdernet.py)\n- [RegSeg](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fsegmentation_models\u002Fregseg.py)\n- [ShelfNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fsegmentation_models\u002Fshelfnet.py) \n- [STDC](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fsegmentation_models\u002Fstdc.py)\n  \n\n### Object Detection\n  \n- [CSP DarkNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fdetection_models\u002Fcsp_darknet53.py)\n- [DarkNet-53](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fdetection_models\u002Fdarknet53.py)\n- [SSD (Single Shot Detector)](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fdetection_models\u002Fssd.py) \n- [YOLOX](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fdetection_models\u002Fyolox.py)\n\n\n### Pose Estimation\n\n- [DEKR-W32-NO-DC](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fpose_estimation_models\u002Fdekr_hrnet.py)\n\n  \n\n__________________________________________________________________________________________________________\n\n## Implemented Datasets \n__________________________________________________________________________________________________________\n\nDeci provides implementation for various datasets. If you need to download any of the dataset, you can \n[find instructions](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002FDataset_Setup_Instructions.md). \n\n### Image Classification\n  \n- [Cifar10](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002Fclassification_datasets\u002Fcifar.py) \n- [ImageNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002Fclassification_datasets\u002Fimagenet_dataset.py) \n  \n### Semantic Segmentation \n\n- [Cityscapes](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002Fsegmentation_datasets\u002Fcityscape_segmentation.py)\n- [Coco](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002Fsegmentation_datasets\u002Fcoco_segmentation.py) \n- [PascalVOC 2012 \u002F PascalAUG 2012](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002Fsegmentation_datasets\u002Fpascal_voc_segmentation.py)\n- [SuperviselyPersons](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002Fsegmentation_datasets\u002Fsupervisely_persons_segmentation.py)\n- [Mapillary Vistas Dataset](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002Fsegmentation_datasets\u002Fmapillary_dataset.py)\n\n\n### Object Detection\n  \n- [Coco](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002Fdetection_datasets\u002Fcoco_detection.py)\n- [PascalVOC 2007 & 2012](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002Fdetection_datasets\u002Fpascal_voc_detection.py)\n  \n### Pose Estimation\n\n- [COCO](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fcadcfdd64e7808d21cccddbfaeb26acb8267699b\u002Fsrc\u002Fsuper_gradients\u002Frecipes\u002Fdataset_params\u002Fcoco_pose_estimation_dekr_dataset_params.yaml)\n\n__________________________________________________________________________________________________________\n\n\n## Documentation\n\nCheck SuperGradients [Docs](https:\u002F\u002Fdocs.deci.ai\u002Fsuper-gradients\u002Fdocumentation\u002Fsource\u002Fwelcome.html) for full documentation, user guide, and examples.\n  \n## Contributing\n\nTo learn about making a contribution to SuperGradients, please see our [Contribution page](CONTRIBUTING.md).\n\nOur awesome contributors:\n    \n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_2332ee328e17.png\" \u002F>\n\u003C\u002Fa>\n\n\n\u003Cbr\u002F>Made with [contrib.rocks](https:\u002F\u002Fcontrib.rocks).\n\n## Citation\n\nIf you are using SuperGradients library or benchmarks in your research, please cite SuperGradients deep learning training library.\n\n## Community\n\nIf you want to be a part of SuperGradients growing community, hear about all the exciting news and updates, need help, request for advanced features,\n    or want to file a bug or issue report, we would love to welcome you aboard!\n\n* Discord is the place to be and ask questions about SuperGradients and get support. [Click here to join our Discord Community](\n  https:\u002F\u002Fdiscord.gg\u002F2v6cEGMREN)\n    \n* To report a bug, [file an issue](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fissues) on GitHub.\n\n* Join the [SG Newsletter](https:\u002F\u002Fwww.supergradients.com\u002F#Newsletter)\n  for staying up to date with new features and models, important announcements, and upcoming events.\n\n* For a short meeting with us, use this [link](https:\u002F\u002Fcalendly.com\u002Fofer-baratz-deci\u002F15min) and choose your preferred time.\n\n## License\n\nThis project is released under the [Apache 2.0 license](LICENSE).\n    \n## Citing\n\n### BibTeX\n\n```bibtex\n\n@misc{supergradients,\n  doi = {10.5281\u002FZENODO.7789328},\n  url = {https:\u002F\u002Fzenodo.org\u002Frecord\u002F7789328},\n  author = {Aharon,  Shay and {Louis-Dupont} and {Ofri Masad} and Yurkova,  Kate and {Lotem Fridman} and {Lkdci} and Khvedchenya,  Eugene and Rubin,  Ran and Bagrov,  Natan and Tymchenko,  Borys and Keren,  Tomer and Zhilko,  Alexander and {Eran-Deci}},\n  title = {Super-Gradients},\n  publisher = {GitHub},\n  journal = {GitHub repository},\n  year = {2021},\n}\n```\n\n### Latest DOI\n\n[![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.7789328.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.7789328)\n\n    \n__________________________________________________________________________________________________________\n\nֿ\n\nRequest free trial [here](https:\u002F\u002Fbit.ly\u002F3qO3icq) \n","\u003Cdiv align=\"center\" markdown=\"1\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_f57d4f7917d1.png\" width=\"600\"\u002F>\n \u003Cbr\u002F>\u003Cbr\u002F>\n  \n**构建、训练并微调生产就绪的深度学习 SOTA 视觉模型**\n[![Tweet](https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Furl\u002Fhttp\u002Fshields.io.svg?style=social)](https:\u002F\u002Ftwitter.com\u002Fintent\u002Ftweet?text=Easily%20train%20or%20fine-tune%20SOTA%20computer%20vision%20models%20from%20one%20training%20repository&url=https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients&via=deci_ai&hashtags=AI,deeplearning,computervision,training,opensource)\n\n#### 版本 3.5 已发布！Notebook 已更新！\n______________________________________________________________________\n\u003C\u002Fdiv>  \n\u003Cdiv align=\"center\">\n\u003Cp align=\"center\">\n  \u003Ca href=\"#getting-started\">开始使用\u003C\u002Fa> •\n  \u003Ca href=\"#implemented-model-architectures\">预训练模型\u003C\u002Fa> •\n  \u003Ca href=\"#community\">社区\u003C\u002Fa> •\n  \u003Ca href=\"#license\">许可证\u003C\u002Fa> •\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients#prerequisites\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.7%20%7C%203.8%20%7C%203.9-blue\" \u002F>\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients#prerequisites\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpytorch-1.9%20%7C%201.10-blue\" \u002F>\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002Fsuper-gradients\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fsuper-gradients\" \u002F>\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fdocumentation\u002Fsource\u002Fmodel_zoo.md\" >\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpre--trained%20models-34-brightgreen\" \u002F>\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Freleases\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002FDeci-AI\u002Fsuper-gradients\" \u002F>\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fsupergradients-comm52\u002Fshared_invite\u002Fzt-10vz6o1ia-b_0W5jEPEnuHXm087K~t8Q\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fslack-community-blueviolet\" \u002F>\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002FLICENSE.md\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache%202.0-blue\" \u002F>\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fdocs.deci.ai\u002Fsuper-gradients\u002Fdocumentation\u002Fsource\u002Fwelcome.html\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-mkdocs-brightgreen\" \u002F>\u003C\u002Fa>\n\u003C\u002Fp>    \n\u003C\u002Fdiv>\n\n______________________________________________________________________\n\n## 使用 SuperGradients 构建\n__________________________________________________________________________________________________________\n\n### 支持多种计算机视觉任务\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_60a2d3720dc3.png\" width=\"250px\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_5711a7d8bc46.png\" width=\"250px\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_d1caeb56da75.png\" width=\"250px\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_9bc87f372d38.jpg\" width=\"250px\">\n\u003C\u002Fdiv>\n\n### 随时可部署的 SOTA 预训练模型\n\nYOLO-NAS 和 YOLO-NAS-POSE 架构现已推出！全新的 YOLO-NAS 在精度与速度方面表现出色，超越了 YOLOv5、YOLOv6、YOLOv7 和 YOLOv8 等其他模型。同时，还提供用于姿态估计的 YOLO-NAS-POSE 模型，实现了最先进的精度与性能平衡。\n\n请在此处查看：[YOLO-NAS](YOLONAS.md) 和 [YOLO-NAS-POSE](YOLONAS-POSE.md)。\n\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_d7555f1d7441.png\" height=\"600px\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_56cb0740f675.png\" height=\"600px\">\n\u003C\u002Fdiv>\n\n```python\n# 加载带有预训练权重的模型\nfrom super_gradients.training import models\nfrom super_gradients.common.object_names import Models\n\nmodel = models.get(Models.YOLO_NAS_M, pretrained_weights=\"coco\")\n```\n#### 所有计算机视觉模型的预训练检查点均可在 [Model Zoo](http:\u002F\u002Fbit.ly\u002F41dkt89) 中找到\n\n#### 分类\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_629223869189.png\" width=\"800px\">\n\u003C\u002Fdiv>\n\n#### 语义分割\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_ef35dad7a978.png\" width=\"800px\">\n\u003C\u002Fdiv>\n\n#### 目标检测\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_af7e82d93c99.png\" width=\"800px\">\n\u003C\u002Fdiv>\n\n#### 姿态估计\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_56cb0740f675.png\" width=\"400px\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_63f67b31c0c5.png\" width=\"400px\">\n\u003C\u002Fdiv>\n\n### 轻松训练 SOTA 模型\n\n您可以轻松加载并微调生产就绪的 SOTA 预训练模型，这些模型采用了最佳实践和经过验证的超参数，以实现一流的准确率。有关如何操作的更多信息，请参阅 [开始使用](#getting-started)。\n    \n\n#### 即插即用的配方\n```bash\npython -m super_gradients.train_from_recipe architecture=regnetY800 dataset_interface.data_dir=\u003CYOUR_Imagenet_LOCAL_PATH> ckpt_root_dir=\u003CCHEKPOINT_DIRECTORY>\n```\n更多关于如何以及为何使用配方的示例，请参阅 [Recipes](#recipes)。\n\n\n### 生产就绪\n所有 SuperGradients 模型都具备生产就绪性，这意味着它们兼容 TensorRT（Nvidia）和 OpenVINO（Intel）等部署工具，可以轻松投入生产。只需几行代码，您就可以将模型集成到您的代码库中。\n```python\n# 加载带有预训练权重的模型\nfrom super_gradients.training import models\nfrom super_gradients.common.object_names import Models\n\nmodel = models.get(Models.YOLO_NAS_M, pretrained_weights=\"coco\")\n\n# 准备模型进行转换\n# 输入尺寸格式为 [Batch x Channels x Width x Height]，其中 640 是标准 COCO 数据集的尺寸\nmodel.eval()\nmodel.prep_model_for_conversion(input_size=[1, 3, 640, 640])\n    \n# 创建虚拟输入\n\n# 将模型转换为 ONNX 格式\ntorch.onnx.export(model, dummy_input,  \"yolo_nas_m.onnx\")\n```\n有关如何将您的模型投入生产的更多信息，请参阅 [开始使用](#getting-started) 的 Notebook。\n\n## 快速安装\n\n__________________________________________________________________________________________________________\n\n \n```bash\npip install super-gradients\n```\n\n## 新增内容\n\n__________________________________________________________________________________________________________\n版本 3.4.0（2023年11月6日）\n\n* 发布 [YoloNAS-Pose](YOLONAS-POSE.md) 模型——姿态估计领域的新前沿\n* 增加了将配方导出为单个 YAML 文件或独立 train.py 文件的选项\n* 其他错误修复及小幅改进。完整发布说明请见[此处](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Freleases\u002Ftag\u002F3.4.0)\n\n__________________________________________________________________________________________________________\n版本 3.1.3（2023年7月19日）\n\n* 支持姿态估计任务——请查看微调[笔记本示例](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1NMGzx8NdycIZqnRlZKJZrIOqyj0MFzJE#scrollTo=3UZJqTehg0On)\n* 预训练的修改版 [DEKR](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Frecipes\u002Fcoco2017_pose_dekr_w32_no_dc.yaml) 姿态估计模型（兼容 TensorRT）\n* 支持 Python 3.10\n* 支持 torch.compile\n* 其他还原修复及小幅改进。请参阅[发布说明](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Freleases\u002Ftag\u002F3.1.3)\n\n__________________________________________________________________________________________________________\n5月30日\n* [在自定义数据集上进行 YoloNAS 的量化感知训练](https:\u002F\u002Fbit.ly\u002F3MIKdTy)\n\n版本 3.1.1（5月3日）\n* [YOLO-NAS](https:\u002F\u002Fbit.ly\u002F41WeNPZ)\n* 新增 [predict 函数](https:\u002F\u002Fbit.ly\u002F3oZfaea)（可对任意图像、视频、URL、路径或流进行预测）\n* 集成 [RoboFlow100](https:\u002F\u002Fbit.ly\u002F40YOJ5z) 数据集\n* 新建 [文档中心](https:\u002F\u002Fdocs.deci.ai\u002Fsuper-gradients\u002Fdocumentation\u002Fsource\u002Fwelcome.html)\n* 与 [DagsHub 实验监控平台](https:\u002F\u002Fbit.ly\u002F3ALFUkQ) 集成\n* 支持 [Darknet\u002FYolo 格式检测数据集](https:\u002F\u002Fbit.ly\u002F41VX6Qu)（被 Yolo v5、v6、v7、v8 使用）\n* [Segformer](https:\u002F\u002Fbit.ly\u002F3oYu6Jp) 模型及配方\n* 训练后量化与量化感知训练——相关[笔记本](http:\u002F\u002Fbit.ly\u002F3KrN6an)\n\n请查阅 SG 完整的[发布说明](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Freleases)。\n\n## 目录\n__________________________________________________________________________________________________________\n\u003C!-- toc -->\n\n- [快速入门](#getting-started)\n- [高级功能](#advanced-features)\n- [安装方法](#installation-methods)\n    - [先决条件](#prerequisites)\n    - [快速安装](#quick-installation)\n- [已实现的模型架构](#implemented-model-architectures)\n- [贡献](#contributing)\n- [引用](#citation)\n- [社区](#community)\n- [许可证](#license)\n- [Deci 平台](#deci-platform)\n\n\u003C!-- tocstop -->\n\n## 快速入门\n__________________________________________________________________________________________________________\n\n### 仅需一条命令即可开始训练\n使用 SuperGradients 可复现的配方，以最简单直接的方式开始训练 SOTA 性能模型。只需指定数据集路径和检查点保存位置，即可从终端启动训练！\n\n请确保按照配方中指定的数据目录设置好您的数据集。\n\n```bash\npython -m super_gradients.train_from_recipe --config-name=imagenet_regnetY architecture=regnetY800 dataset_interface.data_dir=\u003CYOUR_Imagenet_LOCAL_PATH> ckpt_root_dir=\u003CCHEKPOINT_DIRECTORY>\n```\n\n### 快速加载您所需模型的预训练权重\n想在本地尝试我们的预训练模型吗？导入 SuperGradients，初始化 Trainer，并从我们的 [SOTA 模型库](http:\u002F\u002Fbit.ly\u002F41dkt89) 加载您想要的架构和预训练权重。\n\n```python\n# pretrained_weights 参数会加载在给定数据集上预训练好的架构\n    \nimport super_gradients\n\nmodel = models.get(\"model-name\", pretrained_weights=\"pretrained-model-name\")\n\n```   \n### 分类\n\n* [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Ftransfer_learning_classification.ipynb) [分类领域的迁移学习](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Ftransfer_learning_classification.ipynb) \n* [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FPTQ_and_QAT_for_classification.ipynb)   [分类领域的 PTQ 和 QAT](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FPTQ_and_QAT_for_classification.ipynb)\n\n### 语义分割\n\n* [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fquickstart_segmentation.ipynb) [分割快速入门](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fquickstart_segmentation.ipynb)\n* [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Ftransfer_learning_semantic_segmentation.ipynb) [分割领域的迁移学习](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Ftransfer_learning_semantic_segmentation.ipynb)\n* [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fsegmentation_connect_custom_dataset.ipynb) [如何连接自定义数据集](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fsegmentation_connect_custom_dataset.ipynb)\n* [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FSegmentation_Model_Export.ipynb) [如何将分割模型导出为 ONNX](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FSegmentation_Model_Export.ipynb)\n\n\n### 姿态估计\n\n* [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FYoloNAS_Pose_Fine_Tuning_Animals_Pose_Dataset.ipynb) [在 AnimalPose 数据集上微调 YoloNAS-Pose](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FYoloNAS_Pose_Fine_Tuning_Animals_Pose_Dataset.ipynb)\n* [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FDEKR_PoseEstimationFineTuning.ipynb) [在 AnimalPose 数据集上微调 DEKR](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FDEKR_PoseEstimationFineTuning.ipynb)\n\n### 目标检测\n\n* [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FYoloNAS_Inference_using_TensorRT.ipynb) [使用 TensorRT 进行 YoloNAS 推理](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FYoloNAS_Inference_using_TensorRT.ipynb)\n* [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fdetection_transfer_learning.ipynb) [目标检测中的迁移学习](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fdetection_transfer_learning.ipynb)\n* [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fdetection_how_to_connect_custom_dataset.ipynb) [如何连接自定义数据集](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fdetection_how_to_connect_custom_dataset.ipynb)\n* [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fyolo_nas_custom_dataset_fine_tuning_with_qat.ipynb) [在自定义数据集上对 YoloNAS 进行量化感知训练](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fyolo_nas_custom_dataset_fine_tuning_with_qat.ipynb)\n\n\n### 如何使用预训练模型进行预测\n\n* [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fhow_to_run_model_predict.ipynb) [如何使用预训练模型进行预测](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fhow_to_run_model_predict.ipynb)\n\n### Albumentations 集成\n\n* [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Falbumentations_tutorial.ipynb) [在 SG 中使用 Albumentations](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Falbumentations_tutorial.ipynb)\n\n\n\n## 高级功能\n__________________________________________________________________________________________________________\n### 训练后量化与量化感知训练\n量化是指以较低的精度表示权重和偏置，从而减少内存和计算需求，这使得它在资源有限的设备上部署模型时非常有用。\n该过程可以在训练期间进行，称为量化感知训练，也可以在训练之后进行，称为训练后量化。\n完整的教程可以在这里找到 [here](http:\u002F\u002Fbit.ly\u002F41hC8uI)。\n\n* [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fbit.ly\u002F3KrN6an) [训练后量化与量化感知训练](https:\u002F\u002Fbit.ly\u002F3KrN6an)\n\n\n### 在自定义数据集上对 YoloNAS 进行量化感知训练\n本教程提供了关于如何使用自定义数据集对 YoloNAS 模型进行微调的全面指南。\n它还演示了如何利用 SG 的 QAT（量化感知训练）支持。此外，它还提供了部署模型和进行基准测试的分步说明。\n\n* [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fbit.ly\u002F3MIKdTy) [在自定义数据集上对 YoloNAS 进行量化感知训练](https:\u002F\u002Fbit.ly\u002F3MIKdTy)\n\n\n### 知识蒸馏训练\n\n知识蒸馏是一种训练技术，它利用一个大型模型（教师模型）来提升小型模型（学生模型）的性能。\n通过我们在 Google Colab 上提供的 CIFAR10 示例笔记本，使用预训练的 BEiT 基础教师模型和 Resnet18 学生模型，您可以了解 SuperGradients 的知识蒸馏训练，并获得一个易于使用的教程，同时还能免费使用 GPU 硬件。\n\n* [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fhow_to_use_knowledge_distillation_for_classification.ipynb) [知识蒸馏训练](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fhow_to_use_knowledge_distillation_for_classification.ipynb)\n\n\n### 配方\n\n要训练一个模型，需要配置四个主要组件。\n这些组件被汇总到一个名为“main”的配方 `.yaml` 文件中，该文件继承了上述的数据集、架构、训练和检查点参数。\n为了灵活性，也可以（并且建议）用自定义设置覆盖默认设置。\n所有配方都可以在这里找到 [here](http:\u002F\u002Fbit.ly\u002F3gfLw07)。\n\u003C\u002Fbr>\n配方开箱即用地支持 SuperGradients 中实现的每一种模型、指标或损失函数，但您也可以通过“注册”轻松将其扩展到任何所需的自定义对象。有关更多信息，请参阅 [this](http:\u002F\u002Fbit.ly\u002F3TQ4iZB) 教程。\n\n* [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fwhat_are_recipes_and_how_to_use.ipynb) [如何使用配方](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fwhat_are_recipes_and_how_to_use.ipynb)\n \n\u003Cdetails markdown=\"1\">\n  \u003Csummary>\u003Ch3>使用分布式数据并行（DDP）\u003C\u002Fh3>\u003C\u002Fsummary>\n\n#### 为什么使用 DDP？\n\n近年来，深度学习模型变得越来越大，以至于在单个 GPU 上训练可能需要数周时间。\n为了及时训练模型，必须使用多个 GPU 进行训练。\n使用数百个 GPU 可以将模型的训练时间从一周缩短到不到一小时。\n\n#### 它是如何工作的？\n每个 GPU 都有自己的进程，该进程控制着模型的一个副本，并从磁盘加载自己的小批量数据，在训练过程中将其发送到对应的 GPU。在每个 GPU 上完成前向传播后，梯度会在所有 GPU 之间进行归约，从而使所有 GPU 在本地拥有相同的梯度。这导致在反向传播之后，所有 GPU 上的模型权重保持同步。\n\n#### 如何使用它？\n您只需几行代码就可以使用 SuperGradients 通过 DDP 训练您的模型。\n\n\n*main.py*\n```python\nfrom super_gradients import init_trainer, Trainer\nfrom super_gradients.common import MultiGPUMode\nfrom super_gradients.training.utils.distributed_training_utils import setup_device\n\n# 初始化环境\ninit_trainer()\n\n# 在 4 个 GPU 上启动 DDP\nsetup_device(multi_gpu=MultiGPUMode.DISTRIBUTED_DATA_PARALLEL, num_gpus=4)\n\n# 调用训练器\nTrainer(expriment_name=...)\n\n# 您在下方执行的所有操作都将在4个GPU上运行\n\n...\n\nTrainer.train(...)\n\n```\n\n最后，您可以通过一个简单的Python命令启动分布式训练。\n```bash\npython main.py\n```\n\n\n请注意，如果您使用的是`torch\u003C1.9.0`（已弃用），则必须使用`torch.distributed.launch`或`torchrun`来启动训练，在这种情况下，`nproc_per_node`会覆盖通过`gpu_mode`设置的值：\n```bash\npython -m torch.distributed.launch --nproc_per_node=4 main.py\n```\n\n```bash\ntorchrun --nproc_per_node=4 main.py\n```\n\n#### 在单节点上调用函数\n\n在DDP训练中，我们通常希望在主进程（即rank 0）上执行代码。在SG中，用户通常通过触发“阶段回调”来执行自己的代码（参见下文“使用阶段回调”部分）。可以使用ddp_silent_mode或multi_process_safe装饰器来确保所需代码仅在rank 0上运行。例如，考虑下面的简单阶段回调，它会在训练过程中将每个批次的前3张图像上传到TensorBoard：\n\n```python\nfrom super_gradients.training.utils.callbacks import PhaseCallback、PhaseContext和Phase\nfrom super_gradients.common.environment.env_helpers import multi_process_safe\n\nclass Upload3TrainImagesCalbback(PhaseCallback):\n    def __init__(\n        self,\n    ):\n        super().__init__(phase=Phase.TRAIN_BATCH_END)\n    \n    @multi_process_safe\n    def __call__(self, context: PhaseContext):\n        batch_imgs = context.inputs.cpu().detach().numpy()\n        tag = \"batch_\" + str(context.batch_idx) + \"_images\"\n        context.sg_logger.add_images(tag=tag, images=batch_imgs[: 3], global_step=context.epoch)\n\n```\n@multi_process_safe装饰器确保该回调仅由rank 0触发。或者，也可以通过SG训练器的布尔属性ddp_silent_mode来实现，该属性在当前进程排名为零时设置为False（即使在进程组被终止后仍然如此）：\n```python\nfrom super_gradients.training.utils.callbacks import PhaseCallback、PhaseContext和Phase\n\nclass Upload3TrainImagesCalbback(PhaseCallback):\n    def __init__(\n        self,\n    ):\n        super().__init__(phase=Phase.TRAIN_BATCH_END)\n\n    def __call__(self, context: PhaseContext):\n        if not context.ddp_silent_mode:\n            batch_imgs = context.inputs.cpu().detach().numpy()\n            tag = \"batch_\" + str(context.batch_idx) + \"_images\"\n            context.sg_logger.add_images(tag=tag, images=batch_imgs[: 3], global_step=context.epoch)\n\n```\n\n请注意，可以通过SgTrainer.ddp_silent_mode访问ddp_silent_mode。因此，在调用SgTrainer.train()之后，如果脚本中的某些部分只需要在rank 0上运行，则可以使用它。\n\n#### 需要了解的事项\n您的总批量大小将是（GPU数量×批量大小），因此您可能需要增加学习率。虽然没有明确的规则，但一个经验法则是[根据GPU数量线性增加学习率](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1706.02677.pdf)。\n\n\u003C\u002Fdetails>\n\n\u003Cdetails markdown=\"1\">\n\u003Csummary>\u003Ch3> 轻松更改架构参数 \u003C\u002Fh3>\u003C\u002Fsummary>\n\n```python\nfrom super_gradients.training import models\n\n# 实例化默认的预训练resnet18\ndefault_resnet18 = models.get(model_name=\"resnet18\", num_classes=100, pretrained_weights=\"imagenet\")\n\n# 实例化预训练resnet18，开启DropPath，概率为0.5\ndroppath_resnet18 = models.get(model_name=\"resnet18\", arch_params={\"droppath_prob\": 0.5}, num_classes=100, pretrained_weights=\"imagenet\")\n\n# 实例化预训练resnet18，不带分类头。输出将来自全局池化之前的最后一个阶段\nbackbone_resnet18 = models.get(model_name=\"resnet18\", arch_params={\"backbone_mode\": True}, pretrained_weights=\"imagenet\")\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails markdown=\"1\">\n\n\u003Csummary>\u003Ch3> 使用阶段回调 \u003C\u002Fh3>\u003C\u002Fsummary>  \n  \n```python\nfrom super_gradients import Trainer\nfrom torch.optim.lr_scheduler import ReduceLROnPlateau\nfrom super_gradients.training.utils.callbacks import Phase、LRSchedulerCallback\nfrom super_gradients.training.metrics.classification_metrics import Accuracy\n\n# 定义PyTorch的训练和验证数据加载器以及优化器\n\n# 定义回调中要调用的内容\nrop_lr_scheduler = ReduceLROnPlateau(optimizer, mode=\"max\", patience=10, verbose=True)\n\n# 定义阶段回调，它们将按照Phase中定义的方式触发\nphase_callbacks = [LRSchedulerCallback(scheduler=rop_lr_scheduler,\n                                       phase=Phase.VALIDATION_EPOCH_END,\n                                       metric_name=\"Accuracy\")]\n\n# 创建一个训练器对象，更多参数请参阅声明\ntrainer = Trainer(\"experiment_name\")\n\n# 将phase_callbacks定义为训练参数的一部分\ntrain_params = {\"phase_callbacks\": phase_callbacks}\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails markdown=\"1\">\n\n\u003Csummary>\u003Ch3> 集成到DagsHub \u003C\u002Fh3>\u003C\u002Fsummary>    \n\n[![在Colab中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F11fW56pMpwOMHQSbQW6xxMRYvw1mEC-t-?usp=sharing) \n\n```python\nfrom super_gradients import Trainer\n\ntrainer = Trainer(\"experiment_name\")\nmodel = ...\n\ntraining_params = { ...  # 您的训练参数\n                   \"sg_logger\": \"dagshub_sg_logger\",  # DagsHub日志记录器，详情请参阅super_gradients.common.sg_loggers.dagshub_sg_logger.DagsHubSGLogger类\n                   \"sg_logger_params\":  # 将传递给日志记录器super_gradients.common.sg_loggers.dagshub_sg_logger.DagsHubSGLogger初始化方法的参数\n                     {\n                       \"dagshub_repository\": \"\u003CREPO_OWNER>\u002F\u003CREPO_NAME>\", # 可选：您的DagsHub项目名称，由所有者名称、斜杠和仓库名称组成。如果留空，您将在运行时被提示手动填写。\n                       \"log_mlflow_only\": False, # 可选：设置为true以跳过DVC日志记录，仅将所有工件记录到MLflow  \n                       \"save_checkpoints_remote\": True,\n                       \"save_tensorboard_remote\": True,\n                       \"save_logs_remote\": True,\n                     }\n                   }\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\n\u003Csummary>\u003Ch3> 集成到Weights and Biases \u003C\u002Fh3>\u003C\u002Fsummary>    \n  \n\n```python\nfrom super_gradients import Trainer\n\n# 创建一个训练器对象，更多参数请查看声明\ntrainer = Trainer(\"experiment_name\")\n\ntrain_params = { ... # 训练参数\n                \"sg_logger\": \"wandb_sg_logger\", # Weights&Biases 日志记录器，详情请参阅 WandBSGLogger 类\n                \"sg_logger_params\": # 将传递给日志记录器 __init__ 方法的参数 \n                  {\n                    \"project_name\": \"project_name\", # W&B 项目名称\n                    \"save_checkpoints_remote\": True,\n                    \"save_tensorboard_remote\": True,\n                    \"save_logs_remote\": True,\n                  } \n               }\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails markdown=\"1\">\n\n\u003Csummary>\u003Ch3> 集成到 ClearML \u003C\u002Fh3>\u003C\u002Fsummary>    \n\n\n```python\nfrom super_gradients import Trainer\n\n# 创建一个训练器对象，更多参数请查看声明\ntrainer = Trainer(\"experiment_name\")\n\ntrain_params = { ... # 训练参数\n                \"sg_logger\": \"clearml_sg_logger\", # ClearML 日志记录器，详情请参阅 ClearMLSGLogger 类\n                \"sg_logger_params\": # 将传递给日志记录器 __init__ 方法的参数 \n                  {\n                    \"project_name\": \"project_name\", # ClearML 项目名称\n                    \"save_checkpoints_remote\": True,\n                    \"save_tensorboard_remote\": True,\n                    \"save_logs_remote\": True,\n                  } \n               }\n```\n\n\n  \u003C\u002Fdetails>\n\u003Cdetails markdown=\"1\">\n\n  \u003Csummary>\u003Ch3> 集成到 Voxel51 \u003C\u002Fh3>\u003C\u002Fsummary>    \n  \n您可以使用 apply_model() 方法将 SuperGradients YOLO-NAS 模型直接应用于您的 FiftyOne 数据集：\n\n```python\nimport fiftyone as fo\nimport fiftyone.zoo as foz\n\nfrom super_gradients.training import models\n\ndataset = foz.load_zoo_dataset(\"quickstart\", max_samples=25)\ndataset.select_fields().keep_fields()\n\nmodel = models.get(\"yolo_nas_m\", pretrained_weights=\"coco\")\n\ndataset.apply_model(model, label_field=\"yolo_nas\", confidence_thresh=0.7)\n\nsession = fo.launch_app(dataset)\n```\n\nSuperGradients YOLO-NAS 模型可以直接从 FiftyOne Model Zoo 获取：\n\n```python\nimport fiftyone as fo\nimport五十one.zoo as foz\n\nmodel = foz.load_zoo_model(\"yolo-nas-torch\")\n\ndataset = foz.load_zoo_dataset(\"quickstart\")\ndataset.apply_model(model, label_field=\"yolo_nas\")\n\nsession = fo.launch_app(dataset)\n```\n\n\u003C\u002Fdetails>\n\n\n## 安装方法\n__________________________________________________________________________________________________________\n### 前提条件\n\u003Cdetails markdown=\"1\">\n  \n\u003Csummary>一般要求\u003C\u002Fsummary>\n  \n- 已安装 Python 3.7、3.8 或 3.9。\n- 1.9.0 \u003C= torch \u003C 1.14 \n  - https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F\n- requirements.txt 中指定的 Python 包；\n\n\u003C\u002Fdetails>\n    \n\u003Cdetails markdown=\"1\">\n  \n\u003Csummary>在 NVIDIA GPU 上进行训练\u003C\u002Fsummary>\n  \n- [NVIDIA CUDA Toolkit >= 11.2](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-11.2.0-download-archive?target_os=Linux&target_arch=x86_64&target_distro=Ubuntu)\n- CuDNN >= 8.1.x\n- 支持 CUDA >= 11.2 的 NVIDIA 驱动程序（≥460.x）\n  \n\u003C\u002Fdetails>\n    \n### 快速安装\n\n\u003Cdetails markdown=\"1\">\n  \n\u003Csummary>使用 PyPI 安装稳定版本\u003C\u002Fsummary>\n\n请参阅 [PyPI](https:\u002F\u002Fpypi.org\u002Fproject\u002Fsuper-gradients\u002F)\n```bash\npip install super-gradients\n```\n\n就完成了！\n\n\u003C\u002Fdetails>\n    \n\u003Cdetails markdown=\"1\">\n  \n\u003Csummary>使用 GitHub 安装\u003C\u002Fsummary>\n\n\n```bash\npip install git+https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients.git@stable\n```\n\n\u003C\u002Fdetails> \n\n\n## 已实现的模型架构 \n__________________________________________________________________________________________________________\n\n所有计算机视觉模型及其预训练检查点均可在 [Model Zoo](http:\u002F\u002Fbit.ly\u002F41dkt89) 中找到。\n\n### 图像分类\n\n- [DenseNet（密集连接卷积网络）](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fdensenet.py) \n- [DPN](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fdpn.py) \n- [EfficientNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fefficientnet.py)\n- [LeNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Flenet.py) \n- [MobileNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fmobilenet.py)\n- [MobileNet v2](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fmobilenetv2.py)  \n- [MobileNet v3](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fmobilenetv3.py) \n- [PNASNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fpnasnet.py) \n- [预激活 ResNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fpreact_resnet.py)  \n- [RegNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fregnet.py)\n- [RepVGG](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Frepvgg.py)  \n- [ResNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fresnet.py)\n- [ResNeXt](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fresnext.py) \n- [SENet ](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fsenet.py)\n- [ShuffleNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fshufflenet.py)\n- [ShuffleNet v2](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fshufflenetv2.py)\n- [VGG](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fclassification_models\u002Fvgg.py)\n  \n### 语义分割 \n\n- [PP-LiteSeg](https:\u002F\u002Fbit.ly\u002F3RrtMMO)\n- [DDRNet（深度双分辨率网络）](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fsegmentation_models\u002Fddrnet.py) \n- [LadderNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fsegmentation_models\u002Fladdernet.py)\n- [RegSeg](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fsegmentation_models\u002Fregseg.py)\n- [ShelfNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fsegmentation_models\u002Fshelfnet.py) \n- [STDC](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fsegmentation_models\u002Fstdc.py)\n\n### 目标检测\n\n- [CSP DarkNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fdetection_models\u002Fcsp_darknet53.py)\n- [DarkNet-53](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fdetection_models\u002Fdarknet53.py)\n- [SSD（单次检测器）](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fdetection_models\u002Fssd.py) \n- [YOLOX](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fdetection_models\u002Fyolox.py)\n\n\n### 姿态估计\n\n- [DEKR-W32-NO-DC](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fmodels\u002Fpose_estimation_models\u002Fdekr_hrnet.py)\n\n  \n\n__________________________________________________________________________________________________________\n\n## 已实现的数据集 \n__________________________________________________________________________________________________________\n\nDeci 提供了多种数据集的实现。如果您需要下载其中的任何数据集，可以 \n[查看说明](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002FDataset_Setup_Instructions.md)。\n\n### 图像分类\n\n- [Cifar10](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002Fclassification_datasets\u002Fcifar.py) \n- [ImageNet](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002Fclassification_datasets\u002Fimagenet_dataset.py) \n  \n### 语义分割 \n\n- [Cityscapes](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002Fsegmentation_datasets\u002Fcityscape_segmentation.py)\n- [Coco](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002Fsegmentation_datasets\u002Fcoco_segmentation.py) \n- [PascalVOC 2012 \u002F PascalAUG 2012](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002Fsegmentation_datasets\u002Fpascal_voc_segmentation.py)\n- [SuperviselyPersons](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002Fsegmentation_datasets\u002Fsupervisely_persons_segmentation.py)\n- [Mapillary Vistas 数据集](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002Fsegmentation_datasets\u002Fmapillary_dataset.py)\n\n\n### 目标检测\n\n- [Coco](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002Fdetection_datasets\u002Fcoco_detection.py)\n- [PascalVOC 2007 & 2012](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002Fdetection_datasets\u002Fpascal_voc_detection.py)\n  \n### 姿态估计\n\n- [COCO](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fcadcfdd64e7808d21cccddbfaeb26acb8267699b\u002Fsrc\u002Fsuper_gradients\u002Frecipes\u002Fdataset_params\u002Fcoco_pose_estimation_dekr_dataset_params.yaml)\n\n__________________________________________________________________________________________________________\n\n\n## 文档\n\n请访问 SuperGradients 的 [文档](https:\u002F\u002Fdocs.deci.ai\u002Fsuper-gradients\u002Fdocumentation\u002Fsource\u002Fwelcome.html)，获取完整的文档、用户指南和示例。\n\n## 贡献\n\n如需了解如何为 SuperGradients 做出贡献，请参阅我们的 [贡献页面](CONTRIBUTING.md)。\n\n我们优秀的贡献者：\n    \n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_readme_2332ee328e17.png\" \u002F>\n\u003C\u002Fa>\n\n\n\u003Cbr\u002F>由 [contrib.rocks](https:\u002F\u002Fcontrib.rocks) 制作。\n\n## 引用\n\n如果您在研究中使用了 SuperGradients 库或基准测试，请引用 SuperGradients 深度学习训练库。\n\n## 社区\n\n如果您想加入 SuperGradients 不断壮大的社区，了解所有令人兴奋的新闻和更新，需要帮助、请求高级功能，\n    或者想要提交错误报告或问题反馈，我们都热烈欢迎您的加入！\n\n* Discord 是讨论 SuperGradients 和获得支持的最佳场所。[点击此处加入我们的 Discord 社区](\n  https:\u002F\u002Fdiscord.gg\u002F2v6cEGMREN)\n    \n* 如需报告错误，请在 GitHub 上 [提交问题](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fissues)。\n\n* 加入 [SG 新闻通讯](https:\u002F\u002Fwww.supergradients.com\u002F#Newsletter)\n  以随时了解新功能和模型、重要公告以及即将举行的活动。\n\n* 如需与我们简短会面，请使用此 [链接](https:\u002F\u002Fcalendly.com\u002Fofer-baratz-deci\u002F15min) 并选择您方便的时间。\n\n## 许可证\n\n本项目采用 [Apache 2.0 许可证](LICENSE) 发布。\n    \n## 引用\n\n### BibTeX\n\n```bibtex\n\n@misc{supergradients,\n  doi = {10.5281\u002FZENODO.7789328},\n  url = {https:\u002F\u002Fzenodo.org\u002Frecord\u002F7789328},\n  author = {Aharon,  Shay 和 {Louis-Dupont} 以及 {Ofri Masad} 和 Yurkova,  Kate 和 {Lotem Fridman} 以及 {Lkdci} 以及 Khvedchenya,  Eugene 和 Rubin,  Ran 和 Bagrov,  Natan 和 Tymchenko,  Borys 和 Keren,  Tomer 和 Zhilko,  Alexander 和 {Eran-Deci}},\n  title = {Super-Gradients},\n  publisher = {GitHub},\n  journal = {GitHub 仓库},\n  year = {2021},\n}\n```\n\n### 最新 DOI\n\n[![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.7789328.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.7789328)\n\n    \n__________________________________________________________________________________________________________\n\nֿ\n\n在此处申请免费试用 [这里](https:\u002F\u002Fbit.ly\u002F3qO3icq)","# Super-Gradients 快速上手指南\n\nSuper-Gradients 是一个用于构建、训练和微调生产级最先进（SOTA）计算机视觉模型的开源库。它支持分类、语义分割、目标检测（包括 YOLO-NAS 系列）和姿态估计等任务，并提供开箱即用的预训练模型和复现性极强的训练配方（Recipes）。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux, macOS 或 Windows\n*   **Python 版本**: 3.7, 3.8, 3.9 或 3.10\n*   **PyTorch 版本**: 1.9 或 1.10+\n*   **硬件**: 推荐使用 NVIDIA GPU 以获得最佳训练和推理性能\n\n## 安装步骤\n\n您可以直接通过 PyPI 安装 Super-Gradients。国内用户建议使用清华或阿里镜像源以加速下载。\n\n**使用默认源安装：**\n```bash\npip install super-gradients\n```\n\n**使用国内镜像源安装（推荐）：**\n```bash\npip install super-gradients -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n### 1. 加载预训练模型 (推理\u002F微调)\n\nSuper-Gradients 提供了丰富的模型库（Model Zoo），只需几行代码即可加载带有预训练权重的 SOTA 模型（如 YOLO-NAS）。\n\n```python\nfrom super_gradients.training import models\nfrom super_gradients.common.object_names import Models\n\n# 加载带有 COCO 数据集预训练权重的 YOLO-NAS-M 模型\nmodel = models.get(Models.YOLO_NAS_M, pretrained_weights=\"coco\")\n\n# 将模型设置为评估模式\nmodel.eval()\n```\n\n### 2. 一键启动训练 (使用 Recipes)\n\nSuper-Gradients 的核心优势在于其“配方（Recipes）”系统，内置了经过验证的超参数和最佳实践。您只需指定数据集路径和检查点保存目录，即可通过命令行启动训练。\n\n**注意**：使用前请确保已按照 [数据集设置说明](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Ftraining\u002Fdatasets\u002FDataset_Setup_Instructions.md) 准备好数据。\n\n```bash\npython -m super_gradients.train_from_recipe --config-name=imagenet_regnetY architecture=regnetY800 dataset_interface.data_dir=\u003CYOUR_Imagenet_LOCAL_PATH> ckpt_root_dir=\u003CCHEKPOINT_DIRECTORY>\n```\n\n*   `\u003CYOUR_Imagenet_LOCAL_PATH>`: 替换为您本地数据集的实际路径。\n*   `\u003CCHEKPOINT_DIRECTORY>`: 替换为您希望保存模型检查点的目录路径。\n\n### 3. 模型导出 (生产部署)\n\n模型训练完成后，可轻松导出为 ONNX 格式，以便在 TensorRT (Nvidia) 或 OpenVINO (Intel) 等部署工具中使用。\n\n```python\nimport torch\nfrom super_gradients.training import models\nfrom super_gradients.common.object_names import Models\n\n# 加载模型\nmodel = models.get(Models.YOLO_NAS_M, pretrained_weights=\"coco\")\nmodel.eval()\n\n# 准备模型转换 (输入尺寸格式：[Batch, Channels, Width, Height])\n# 640 是 COCO 数据集的标准尺寸\nmodel.prep_model_for_conversion(input_size=[1, 3, 640, 640])\n\n# 创建虚拟输入\ndummy_input = torch.randn(1, 3, 640, 640)\n\n# 导出为 ONNX\ntorch.onnx.export(model, dummy_input, \"yolo_nas_m.onnx\")\n```\n\n更多详细用法、特定任务的 Notebook 示例（如迁移学习、量化感知训练等），请访问官方文档或查看项目仓库中的 `notebooks` 目录。","某智慧物流团队正致力于升级其自动化分拣系统，需要训练一个能精准识别各类包裹并检测姿态的 AI 模型，以适配高速传送带环境。\n\n### 没有 super-gradients 时\n- **模型选型困难**：团队需在 YOLOv5、v7、v8 等多个独立仓库间反复对比，难以确定哪个模型能在现有硬件上平衡速度与精度。\n- **复现成本高昂**：不同模型的代码结构、数据预处理逻辑差异巨大，工程师花费数周时间清洗数据和调整配置，却仍难复现论文中的 SOTA 效果。\n- **训练流程繁琐**：缺乏统一的训练接口，每次切换架构都要重写训练脚本，且难以快速进行迁移学习或微调。\n- **部署风险未知**：自行训练的模型缺乏生产级验证，上线后常出现推理延迟波动大或特定场景漏检的问题。\n\n### 使用 super-gradients 后\n- **一键获取最优架构**：直接调用库中集成的 YOLO-NAS 系列模型，该模型在官方基准测试中已证明在同等速度下精度超越主流 YOLO 版本。\n- **标准化训练流程**：利用统一的 API 加载预训练权重并启动微调，无需关心底层细节，将原本数周的准备工作缩短至几天。\n- **高效任务覆盖**：通过同一套代码库轻松同时处理物体检测（包裹定位）和姿态估计（包裹朝向），大幅降低多任务维护成本。\n- **生产级性能保障**：直接使用经过严格验证的预训练模型，确保在边缘设备上的推理延迟稳定，显著降低上线后的调试风险。\n\nsuper-gradients 通过提供统一且高性能的训练框架，让团队从繁琐的模型工程中解放出来，专注于业务逻辑优化，实现了从算法实验到生产部署的无缝衔接。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeci-AI_super-gradients_f57d4f79.png","Deci-AI","deci.ai","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FDeci-AI_b5dd0d13.png","",null,"https:\u002F\u002Fdeci.ai","https:\u002F\u002Fgithub.com\u002FDeci-AI",[80,84,88,92,95],{"name":81,"color":82,"percentage":83},"Jupyter Notebook","#DA5B0B",93.1,{"name":85,"color":86,"percentage":87},"Python","#3572A5",6.9,{"name":89,"color":90,"percentage":91},"Shell","#89e051",0,{"name":93,"color":94,"percentage":91},"Makefile","#427819",{"name":96,"color":97,"percentage":91},"Dockerfile","#384d54",5023,588,"2026-04-17T19:00:23","Apache-2.0","未说明","生产环境部署支持 TensorRT (Nvidia) 和 OpenVINO (Intel)，具体显存和 CUDA 版本未在 README 中明确说明，但涉及深度学习训练通常建议配备 NVIDIA GPU。",{"notes":105,"python":106,"dependencies":107},"该工具专注于计算机视觉任务（分类、分割、检测、姿态估计），支持导出为 ONNX 格式以便在生产环境中使用。支持 torch.compile 功能。预训练模型可通过代码直接加载，支持 YOLO-NAS 系列模型。","3.7, 3.8, 3.9, 3.10",[108,109],"torch>=1.9","torch\u003C=1.10",[15,14],[112],"dependency-graph","2026-03-27T02:49:30.150509","2026-04-19T09:16:27.914163",[116,121,126,131,135,139],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},42092,"如何将 YOLO-NAS 模型导出为包含 NMS（非极大值抑制）的 ONNX 格式以支持 TensorRT？","该功能已计划在 3.2.0 版本中发布。导出包含 NMS 的 ONNX 模型后，可以直接利用 TensorRT 的高效 GPU 加速 NMS 插件，无需在 CPU 上编写额外的 NMS 算法。具体的导出方法和示例代码请参考官方文档：https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fdocumentation\u002Fsource\u002Fmodels_export.md","https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fissues\u002F1090",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},42093,"使用自定义数据集训练后的模型转换为 ONNX 后，推理结果置信度极低或检测错误，但 PyTorch 原生推理正常，如何解决？","这通常是因为在预处理自定义图像时缺少了必要的归一化步骤或尺寸调整不当。请确保在输入 ONNX 模型前执行以下操作：\n1. 将图像从 BGR 转换为 RGB。\n2. 将图像尺寸调整为模型训练时的大小（如 640x640）。\n3. **不要**手动除以 255（如果模型内部已处理），或者确保归一化方式与训练时一致。\n4. 转换数据格式为 (C, H, W) 并增加批次维度 (1, C, H, W)。\n5. 确保数据类型为 float32。\n\n参考代码片段：\n```python\nimg = cv2.imread(image_path)\nimg = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)\nimg = cv2.resize(img, dsize=(640, 640))\n# 注意：某些情况下手动归一化会导致自定义数据集效果变差，需根据模型要求调整\nimg = np.transpose(img, (2, 0, 1))\nimg = np.expand_dims(img, axis=0).astype(dtype=np.float32)\n\nsess = ort.InferenceSession(onnx_model_path)\ninput_name = sess.get_inputs()[0].name\noutput_names = [out.name for out in sess.get_outputs()]\noutput = sess.run(output_names, {input_name: img})\n```\n完整示例请参考：https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Fexamples\u002Fmodel_export\u002Fmodels_export.ipynb","https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fissues\u002F1108",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},42094,"YOLO-NAS 模型在检测小物体时效果不佳，有什么优化方法？","默认情况下，模型会将输入图像调整为固定分辨率，这可能导致小物体特征丢失。您可以尝试在推理时禁用图像自动缩放，直接使用原始高分辨率图像进行推理，以提高对小物体的检测精度。\n\n使用方法：\n```python\nmodel.predict(image, skip_image_resizing=True)\n```\n注意：跳过缩放并使用更高分辨率的图像虽然能提高准确率（尤其是小物体），但会增加推理延迟。相关讨论见：https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fissues\u002F1402","https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fissues\u002F974",{"id":132,"question_zh":133,"answer_zh":134,"source_url":125},42095,"如何在 TensorRT 中运行导出的 YOLO-NAS ONNX 模型？","官方提供了专门的 Jupyter Notebook 演示如何使用 TensorRT 进行 YOLO-NAS 的推理。该笔记本涵盖了从 ONNX 导出到 TensorRT 引擎构建及执行的完整流程。\n\n请访问以下链接获取详细代码和步骤：\nhttps:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FYoloNAS_Inference_using_TensorRT.ipynb",{"id":136,"question_zh":137,"answer_zh":138,"source_url":120},42096,"导出 ONNX 后，如何编写后处理代码以从输出中获取边界框、分数和类别（类似 model.predict() 的效果）？","ONNX 模型的输出通常是原始张量（例如坐标和类别概率），需要手动进行后处理和 NMS。如果您使用的是尚未集成 NMS 的旧版本导出文件，输出可能分为两部分：坐标 (1, N, 4) 和类别得分 (1, N, 80)。\n\n建议方案：\n1. **推荐**：升级到支持导出带 NMS 的 ONNX 版本（3.2.0+），这样输出即为最终检测结果，无需手动后处理。\n2. **手动处理**：如果必须手动处理，需编写函数将中心点坐标转换为角点坐标，应用置信度阈值，并对每个类别执行非极大值抑制（NMS）。由于手动实现复杂且易错，强烈建议参考官方提供的包含完整推理流水线的示例笔记：https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Fexamples\u002Fmodel_export\u002Fmodels_export.ipynb",{"id":140,"question_zh":141,"answer_zh":142,"source_url":125},42097,"在哪里可以找到 YOLO-NAS 模型导出和推理的完整代码示例？","官方仓库中提供了两个关键的 Jupyter Notebook 用于参考：\n1. **模型导出与 ONNX 推理示例**：展示了如何将模型转换为 ONNX 格式并进行标准推理。\n   链接：https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Fexamples\u002Fmodel_export\u002Fmodels_export.ipynb\n\n2. **TensorRT 推理示例**：展示了如何使用 TensorRT 加速推理。\n   链接：https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fnotebooks\u002FYoloNAS_Inference_using_TensorRT.ipynb",[144,149,153,158,163,168,173,178,183,188,193,198,203,208,213,217,222,227,232,237],{"id":145,"version":146,"summary_zh":147,"released_at":148},334179,"3.7.1","此 GitHub 发布由 CircleCI 自动完成。","2024-04-08T16:50:10",{"id":150,"version":151,"summary_zh":147,"released_at":152},334180,"3.7.0","2024-04-01T16:51:24",{"id":154,"version":155,"summary_zh":156,"released_at":157},334181,"3.6.1","## 新特性\n* 添加了 DistributedSamplerWrapper，可在启用分布式模式时自动封装非分布式采样器，由 @NatanBagrov 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1856 中实现。\n* YoloNAS_Pose_Fine_Tuning_Animals_Pose_Dataset，由 @ofrimasad 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1876 中实现。\n* 引入 fp16 标志，用于启用或禁用 predict() 的混合精度，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1881 中实现。\n* Feature\u002Fsg 1386：在 PTQ 和 QAT 中对导出进行更细粒度的控制，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1879 中实现。\n\n## 已弃用功能\n* 废弃 COCODetectionDataset 中的 tight_box_rotation 参数，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1786 中实现。\n\n## 改进\n* 移除 `pycocotools` 依赖，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1791 中实现。\n* 显式添加 antialias=False，以确保可以将 torchvision Resize 导出为 ONNX，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1824 中实现。\n* 更新 Colab 笔记本，加入初始化插件的代码行，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1822 中实现。\n* Feature\u002Fsg 000：添加注释说明 QAT 仅支持 GPU，由 @shaydeci 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1830 中实现。\n* 增加更多 Hydra 解析器，由 @NatanBagrov 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1829 中实现。\n* 添加当 SGLogger 为 None 时的崩溃提示，由 @shaydeci 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1799 中实现。\n* 添加 YoloNAS-Pose 微调笔记本，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1831 中实现。\n* 允许灵活提供标注文件的绝对路径，由 @NatanBagrov 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1840 中实现。\n* 修复漏洞，由 @ofrimasad 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1861 中实现。\n* 修复 ONNX 版本问题，由 @ofrimasad 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1863 中实现。\n* 修复 tarfile 解压问题，由 @ofrimasad 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1868 中实现。\n\n## Bug 修复\n* 修复 eval 强制要求配置中必须包含 val_dataloader 的问题，由 @NatanBagrov 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1823 中实现。\n* 修正 ann_areas 与 ann_area 属性之间的拼写错误，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1828 中实现。\n* 添加固定的随机种子，以避免依赖于初始化权重的随机性，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1839 中实现。\n* 修复处理摄像头图像时颜色通道顺序错误的问题，并改进 macOS 系统下的异常信息提示，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1821 中实现。\n* 由 @ofrimasad 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1874 中实现的 bug 修复。\n* 修复在绘制图像范围不在 0-255 范围内的数据集时出现的 bug，由 @ofrimasad 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1884 中实现。\n* 提升 COCO 数据集解析速度，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1888 中实现。\n\n## 其他\n* 更新欢迎页面","2024-03-08T17:43:09",{"id":159,"version":160,"summary_zh":161,"released_at":162},334182,"3.6.0","嘿 @channel  \n我们很高兴地宣布 Super-Gradients 3.6.0 正式发布 :slightly_smiling_face: 。  \n本次更新包含多项重要变更和改进：\n\n**变更与增强**  \n- 新增分割示例，并支持 albumentation 分割变换，由 @shaydeci 贡献。  \n- 在 `DetectionMetrics` 中实现了基于距离的检测匹配功能，作为 @DimaBir 的一项增强。  \n- 新增训练超参数 `finetune`，并支持多学习率分配，由 @shaydeci 实现，详情请参阅 [这里](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fdocumentation\u002Fsource\u002FLRAssignment.md)。  \n- 增强了 `ImagePermute` 处理的集成，由 @BloodAxe 完成。  \n- 改进了数据集绘图及可视化功能，由 [@Louis Dupont](https:\u002F\u002Fdeciai.slack.com\u002Fteam\u002FU03FHLX8FH7) 完成。  \n- 更新了预测笔记本和文档，感谢 [@Louis Dupont](https:\u002F\u002Fdeciai.slack.com\u002Fteam\u002FU03FHLX8FH7) 的贡献。  \n- 添加对深度估计数据集的支持，并新增深度估计指标，由 @shaydeci 完成。  \n- 提出了用于检查模型输入兼容性的 API，由 @BloodAxe 提出。  \n- 扩展了 `predict()` 方法对分割模型的支持，由 @BloodAxe 完成。  \n- 从 3.6.0 版本中移除了已弃用的功能，由 @shaydeci 完成。  \n- 更新了预训练模型徽章的 URL，由 @gasparitiago 贡献。  \n- 对 `PPYoloELoss` 进行了修改，去除了对 `reg_max` 参数的依赖，由 @BloodAxe 完成。  \n- 为保持命名一致性，改用 `onnxsim` 替代 `onnx-simplifier`，感谢 @BloodAxe 的工作。  \n\n**Bug 修复**  \n- 修复了 `OhemLoss` 中的一个 bug，感谢 @danielafrimi。  \n- 更新了条件判断逻辑，确保仅在 rank 0 且 `[context.sg](http:\u002F\u002Fcontext.sg\u002F)_logger` 可用时才执行相关操作，由 @shaydeci 完成。  \n- 修改了默认的 `set_device` 值，以防止无意中启动 DDP，由 [@Louis Dupont](https:\u002F\u002Fdeciai.slack.com\u002Fteam\u002FU03FHLX8FH7) 更新。  \n- 解决了当 `multigpu=None` 且 `device=cpu` 时功能未按预期运行的问题，感谢 [@Louis Dupont](https:\u002F\u002Fdeciai.slack.com\u002Fteam\u002FU03FHLX8FH7) 的努力。  \n- 调整了目标检测模型 `predict()` 方法中边界框的线宽及文本大小，使其与边界框尺寸相适应，由 [@Louis Dupont](https:\u002F\u002Fdeciai.slack.com\u002Fteam\u002FU03FHLX8FH7) 完成。  \n- 修复了影响 `YoloXTrainingStageSwitchCallback` 的 `DetectionMixup` 中的一个 bug，由 @BloodAxe 完成。  \n- 纠正了一个异常消息变量名中的拼写错误，由 @BloodAxe 完成。  \n- 重新整合了测试用例，并优化了 CI\u002FCD 流程，感谢 @shaydeci 和 @Yonatan-Kaplounov 的贡献。  \n- 修复了导入问题，提升了模型灵活性及指标处理能力，主要由 @BloodAxe 完成。  \n- 确保 `DetectionDataset` 中的类别名称被包裹在一个简单的容器内，由 @BloodAxe 完成。  \n- 修复了针对多尺度 collate 函数的 `ExtremeBatchDetectionVisualizationCallback`，由 @BloodAxe 完成。  \n- 在 `DistanceBasedDetectionMetrics` 和 `DetectionMetrics` 中进行了多项 Bug 修复与改进，由 @BloodAxe 完成。  \n- 此外，还进行了其他多方面的修复与优化，以提升功能性和用户体验。  \n\n欲了解更多信息，请访问…","2024-01-25T14:25:20",{"id":164,"version":165,"summary_zh":166,"released_at":167},334183,"3.5.0","此 GitHub 发布由 CircleCI 自动完成。\n\n## 新特性\n* `model.predict(video)` 现在不会导致内存溢出，由 @hakuryuu96 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1621 中实现。\n* 学习率现在可以按层指定（可冻结某些层，或以较低的学习率训练骨干网络），由 @shaydeci 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1612 中实现。\n* `model.predict` 现在可以接受 `skip_resize` 参数，在原始图像分辨率下执行前向传播（适用于大尺寸图像和小目标物体），由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1605 中实现。\n* 在 `train_from_config` 中增加了对多个测试数据加载器的支持，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1641 中实现。\n\n## 文档更新\n* 添加了 DatasetAdapter 的文档，由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1591 中完成。\n* 添加了关于如何添加自定义数据集的笔记本教程，由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1592 中完成。\n* 添加了关于分割任务的笔记本教程（快速入门和迁移学习），由 @shaydeci 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1634 中完成。\n* 添加了使用量化感知训练（QAT）微调 YoloNAS 的笔记本教程，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1638 中完成。\n\n## Bug 修复\n* 修复了量化版 YoloNAS 模型中导致导出模型性能下降的 bug，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1638 中修复。\n* 修复了在使用 `_pad_image` 时创建稀疏数组时出现的 NumPy 已弃用警告，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1632 中修复。\n* 修复了 `model.export()` 中的一个 bug，该 bug 导致在请求 FP16 导出且模型位于 CPU 设备上时程序崩溃，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1643 中修复。\n* 修复了 convert_recipe_to_code.py 中的无效语法问题，由 @seunghalee1226 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1642 中修复。\n* 修复了在使用 DetectionVisualization.visualize_batch 时导致目标边界框可视化错误的 bug，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1652 中修复。\n* 修复了用于分割任务的数据适配器中的一个 bug，由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1654 中修复。\n\n## 新贡献者\n* @seunghalee1226 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1642 中完成了他们的首次贡献。\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fcompare\u002F3.4.1...3.5.0","2023-11-23T14:13:15",{"id":169,"version":170,"summary_zh":171,"released_at":172},334184,"3.4.1","## 错误修复\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1534 中修复了检查点状态字典中 ListConfig 的序列化问题。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1533 中确保 `checkpoint_num_classes` 从 YAML 文件正确传递到模型。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1530 中修复了 YoloNASPose.export() 中的一个 bug，该 bug 导致无法导出 batch size 大于 1 的模型。\n* 由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1536 中检查了 DetectionDataset 中 class_id 的有效性。\n* 由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1542 中修复了 training_params 的弃用问题。\n* 由 @hakuryuu96 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1546 中修正了拼写错误，并在 CONTRIBUTING 文件中添加了额外信息。\n* 由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1558 中移除了最新 NumPy 版本中不再支持的 `np.bool`。\n* 由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1564 中修复了 `CSPDarknet53.foward` 方法。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1551 中修复了 model.export() 方法，使其在 batch size 大于 1 时能够正常工作。\n* 由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1567 中实现了混合精度的自动切换，并添加了警告提示。\n* 由 @shaydeci 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1572 中更新了 data-gradients 的依赖版本。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1575 中修复了 PyTorch 1.12 版本中 CyclicLR 缺少 `_scale_fn_ref` 的问题。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1574 中修复了 PyTorch 1.12 版本中 arange 不支持 CPU 设备上的 fp16 的问题。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1584 中重新排列了算子顺序，以确保不使用 Neg 算子。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1586 中更新了“什么是 Recipes 及其使用方法”笔记本。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1588 中更新了“在 Colab 中打开”的链接。\n* 由 @hakuryuu96 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1562 中将指标日志记录添加到了检查点和单独的 YAML 文件中。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1598 中修复了 ModelWeightAveraging 类中的一个 bug，该 bug 会导致当监控指标为 NaN 或 Inf 时模型损坏。\n* 由 @shaydeci 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1587 中更新了迁移学习分类笔记本。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1595 中更新了分类知识蒸馏笔记本。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1609 中修复了 COCOPoseEstimationDataset 中的一个 bug，该 bug 导致 predict() 方法中使用的图像通道顺序被颠倒。\n* 由 @shaydeci 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1603 中修复了 supervisely .get 方法中引用 YAML 文件内 dataset 的问题。\n* 由 @BloodAxe 在 https:\u002F\u002F","2023-11-12T13:27:50",{"id":174,"version":175,"summary_zh":176,"released_at":177},334185,"3.4.0","## 新特性\n* 添加了 `convert_recipe_to_code` 脚本，用于将 YAML 配方转换为自包含的训练脚本，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1568 中实现。\n* 添加了 `export_recipe` 脚本，用于将 YAML 配方合并为一个大型 YAML 文件，由 @shaydeci 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1560 中实现。\n* YoloNAS-Pose，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1611 中实现。\n\n## 改进\n* 为 PPYoloELoss 添加了顺序赋值功能，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1582 中实现。\n* 为检测任务的 `model.predict` 方法添加了 `class_names` 参数，由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1529 中实现。\n* 在 DetectionDataset 中增加了对 class_id 合法性的检查，由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1536 中实现。\n* [改进] 为训练日志和 tqdm 进度条添加了 `max_batches` 支持，由 @hakuryuu96 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1554 中实现。\n* 重新排序算子以确保不使用 Neg 算子，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1584 中实现。\n* 功能\u002Fsg 1198：混合精度会自动更改，并附带警告提示，由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1567 中实现。\n* 功能\u002Fsg 1053：在实验管理中添加说明，由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1559 中实现。\n* 功能\u002Fsg 849：添加通道替换功能，由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1557 中实现。\n* 更新了“什么是配方以及如何使用它们”笔记本，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1586 中实现。\n* 将指标日志记录添加到检查点和单独的 YAML 文件中，由 @hakuryuu96 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1562 中实现。\n* 在 pth 检查点中添加了依赖包，由 @hakuryuu96 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1581 中实现。\n\n## 修复\n* 修复了检查点状态字典中 ListConfig 的序列化问题，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1534 中实现。\n* 修复了 YoloNASPose.export() 中的一个 bug，该 bug 导致当批大小大于 1 时无法导出模型，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1530 中实现。\n* 确保 `checkpoint_num_classes` 能从 YAML 文件正确传递到模型中，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1533 中实现。\n* 修复了 model.export() 方法在批大小大于 1 时的错误，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1551 中实现。\n* 修复了 COCOPoseEstimationDataset 中的一个 bug，该 bug 导致 predict() 方法中使用的图像或通道顺序被颠倒，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1609 中实现。\n* 修复了 ModelWeightAveraging 类中的一个 bug，该 bug 会导致当监控指标为 NaN 或 Inf 时模型损坏，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1598 中实现。\n* 修复了与 PyTorch 1.12 相关的问题，即 CyclicLR 中缺少 `_scale_fn_ref`，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1575 中实现。\n* 修复了与 PyTorch 1.12 相关的问题，即 `arange` 不支持 CPU 设备上的 fp16 数据类型，由 @BloodAxe 在","2023-11-06T13:45:47",{"id":179,"version":180,"summary_zh":181,"released_at":182},334186,"3.3.1","Super Gradients 3.3.1\n\n## 改进\n\n* 在 `model.predict` 中添加 `class_names` 参数，用于目标检测功能，由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1529 中实现。\n* Data-Gradients 依赖版本升级至 0.2.2，由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1541 中完成。\n* 在 DetectionDataset 中检查 class_id 的有效性，由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1536 中实现。\n* 修复拼写错误，并在 CONTRIBUTING 文件中添加额外信息，由 @hakuryuu96 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1546 中完成。\n* 训练过程中的进度条现在会尊重 `max_train_batches` 和 `max_valid_batches` 设置，由 @hakuryuu96 实现，详见 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1554。\n\n## Bug 修复\n\n* ListConfig\u002FDictConfig 类型不再泄漏到检查点状态字典中，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1534 中修复。\n* 将 `np.bool` 的用法迁移到 `bool`，因为最新版本的 NumPy 不再支持前者，由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1558 中完成。\n* 确保 `checkpoint_num_classes` 能够从 YAML 文件正确传递到 `models.get` 方法中，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1533 中修复。\n* 修复了批量大小大于 1 时目标检测模型导出为 ONNX 格式的 bug，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1530 中完成。\n* 修复了 `CSPDarknet53.foward` 方法中的问题，由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1564 中完成。\n* 修复了自动变量使用不当的问题，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1565 中完成。\n* 修复了类文档中的拼写错误，由 @aler9 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1548 中完成。\n* 当使用 CPU 并启用训练参数中的自动混合精度时，Trainer 不再崩溃，由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1567 中修复。\n* 修复了 PyTorch 1.12 版本中 CyclicLR 缺少 `_scale_fn_ref` 的问题，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1575 中完成。\n* 修复了 PyTorch 1.12 版本中 arange 函数不支持 CPU 设备上的 fp16 数据类型的问题，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1574 中完成。\n\n## 新贡献者\n* @hakuryuu96 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1546 中完成了首次贡献。\n* @aler9 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1548 中完成了首次贡献。\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fcompare\u002F3.3.0...3.3.1","2023-10-26T15:17:53",{"id":184,"version":185,"summary_zh":186,"released_at":187},334187,"3.3.0","此 GitHub 发布由 CircleCI 自动完成。\n\n## 变更内容\n* 由 @eran-deci 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1265 中更新了 yolox_loss.py\n* 由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1300 中修复了文档链接！\n* 由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1298 中添加更多日志，以便用户了解何时正在使用和\u002F或下载预训练权重。\n* 由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1291 中设置了 HYDRA_FULL_ERROR。\n* 由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1297 中从日志中移除了 arch_params。\n* 由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1314 中使分类模型继承自 BaseClassifier。\n* 由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1332 中使缓存注解变为可选。\n* 由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1327 中修复了 DetectionDataset 中的 class_inclusion_list。\n* 由 @shaydeci 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1282 中支持分割任务中的极端批次情况。\n* 由 @shaydeci 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1339 中实现了 SG-901 特性：目标检测的极端批次可视化。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1348 中更新了 OD 文档，明确了输出格式。\n* 由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1287 中修复了 model.get 方法。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1350 中修复了 CI 问题，属于 SG-1059 特性。\n* 由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1317 中修复了 datasetparams 不显示的问题。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1352 中修复了 DetectionRGB2BGR.get_equivalent_preprocessing 实现中的一个错误。\n* 由 @soumik12345 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1167 中添加了用于将数据集绘制成图并上传至 Weights & Biases 的工具，并添加了一个回调函数，用于将验证预测结果记录到 Weights & Biases。\n* DagsHub Logger：修复了 MLflow 不支持的指标格式，并添加了示例笔记本，由 @nirbarazida 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F915 中完成。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1318 中推出了新的导出 API。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1358 中修复了姿态估计中的 predict 方法问题，属于 SG-000 特性。\n* 由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1362 中将模型导出教程添加到文档网站。\n* 由 @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1367 中进行了修复。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1368 中实现了 SG-000 特性：传播 ImageNet 数据集参数。\n* 由 @pranoyr 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1253 中进行了文档更改。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1354 中总结了用于分割任务的模型、损失函数和评估指标。\n* 由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1358 中修复了 onnx graphsurgeon 的导入问题，属于 SG-000 特性。","2023-10-15T11:53:16",{"id":189,"version":190,"summary_zh":191,"released_at":192},334188,"3.2.1","# 3.2 1 - 小型错误修复版本\n\n简述：\n\n* 文档改进 📜 \n* 导出 API 中进行了几处修复，未引入破坏性变更 💪 \n\n\n## 变更内容\n* @eran-deci 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1265 中更新了 yolox_loss.py\n* @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1300 中修复了文档链接！\n* @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1298 中添加了更多日志，以便用户了解何时正在使用和\u002F或下载预训练权重。\n* @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1291 中设置了 HYDRA_FULL_ERROR\n* @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1297 中从日志中移除了 arch_params\n* @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1314 中使分类模型继承自 BaseClassifier\n* @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1332 中使缓存注解变为可选\n* @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1327 中修复了 DetectionDataset 中的 class_inclusion_list\n* @shaydeci 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1282 中支持分割任务中的极端批次情况\n* @shaydeci 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1339 中实现了 SG-901 特性：目标检测的极端批次可视化\n* @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1348 中更新了 OD 文档，明确了输出格式\n* @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1287 中修复了 model.get 方法\n* @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1350 中修复了 CI 问题，作为 SG-1059 特性的部分\n* @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1317 中修复了 datasetparams 不显示的问题\n* @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1352 中修复了 DetectionRGB2BGR.get_equivalent_preprocessing 实现中的一个 bug\n* @soumik12345 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1167 中添加了用于将数据集绘制成图并上传至 Weights & Biases 的工具，并添加了一个回调函数，用于将验证预测结果记录到 Weights & Biases 中\n* DagsHub Logger：修复了 MLflow 不支持的指标格式，并添加了示例笔记本，由 @nirbarazida 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F915 中完成\n* 新的导出 API，由 @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1318 中实现\n* @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1358 中修复了姿态估计中的 predict 方法\n* @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1362 中将模型导出教程添加到了文档网站\n* @Louis-Dupont 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1367 中进行了修复\n* @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1368 中实现了 SG-000 特性：传播 ImageNet 数据集参数\n* @pranoyr 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1253 中进行了文档更改\n* @BloodAxe 在 https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1354 中总结了用于分割任务的模型、损失函数和指标\n* SG-000 特性 f","2023-09-04T14:16:28",{"id":194,"version":195,"summary_zh":196,"released_at":197},334189,"3.2.0","This GitHub Release was done automatically by CircleCI\r\n\r\n## What's Changed\r\n* Update yolox_loss.py by @eran-deci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1265\r\n* Fix documentation link! by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1300\r\n* Addiing more logs to let user know when pretrained_weights is being used, and\u002For downloaded by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1298\r\n* set HYDRA_FULL_ERROR by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1291\r\n* remove arch_params from logs by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1297\r\n* Make classification models inherit from BaseClassifier by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1314\r\n* Make cache annotation optional by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1332\r\n* Fix class_inclusion_list in DetectionDataset by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1327\r\n* Support for segmentation extreme batch cases by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1282\r\n* Feature\u002Fsg 901 extreme batch visualization for object detection by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1339\r\n* Update OD docs with clarified output formats by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1348\r\n* Fix model.get by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1287\r\n* Feature\u002Fsg 1059 fix ci by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1350\r\n* Fix datasetparams not showing by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1317\r\n* Fix a bug in implementation of DetectionRGB2BGR.get_equivalent_preprocessing by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1352\r\n* Add utilities to plot datasets to Weights & Biases + Add callback to log validation predictions to Weights & Biases by @soumik12345 in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1167\r\n* DagsHub Logger: Fix unsupported metric formats for MLflow, Add example notebook by @nirbarazida in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F915\r\n* New Export API by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1318\r\n* Feature\u002Fsg 000 fix predict in pose estimation by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1358\r\n* Add model export tutorial to documentation website by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1362\r\n* fix by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1367\r\n* Feature\u002Fsg 000 propagate imagenet dataset params by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1368\r\n* Doc changes by @pranoyr in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1253\r\n* Summarize models, losses & metrics for segmentation by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1354\r\n* Feature\u002Fsg 000 fix import of onnx graphsurgeon by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1359\r\n* Feature\u002Fsg 1047 predict od with labels by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1365\r\n* Feature\u002Fsg 1033 fix yolox anchors by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1369\r\n* version bumped by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1374\r\n\r\n## New Contributors\r\n* @nirbarazida made their first contribution in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F915\r\n* @pranoyr made their first contribution in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1253\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fcompare\u002F3.1.3...3.2.0","2023-08-15T12:52:21",{"id":199,"version":200,"summary_zh":201,"released_at":202},334190,"3.1.3","New features\r\npredict() support for pose estimation (PR: [#1142](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1142)) and classification (PR: [#1220](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1220))\r\nThe possibility to log scalar values with explicit time units associated with it: log losses per step, use TimerCallback that measures and log batch time (PR: [#1181](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1181))\r\nSupport torch compile (PR: [#1172](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1172))\r\nClass agnostic NMS (PR: [#1232](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1232))\r\nAllow to compute & log per-class mAP scores (PR: [#1238](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1238))\r\nSmall features\r\nAdd batch_size option to predict (PR: [#1273](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1273))\r\nAllows to pass user-defined target of IoU thresholds without asking user to edit IoUThresholds enum in SG codebase (PR: [#1223](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1223))\r\nAdd DetectionVerticalFlip for bounding box detection augmentation (PR: [#1237](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1237))\r\nSupport the option for multiple ignored indices for segmentation metrics (PR: [#1177](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1177))\r\nSimpify torch schedulers integration (PR:  [#1230](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1230))\r\nsupport single output in YoloX NMS (PR: [#813](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F813))\r\nCompute the best threshold for each class in an efficient manner without added loops (PR: [#973](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F973))\r\nBug fix\r\nHotfix\u002Falg 1470 drop boxes padding by (PR: [#1107](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1107))\r\nFix evaluate from recipe by (PR: [#1170](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1170))\r\nfixed bug of whitespace by (PR: [#1173](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1173))\r\nFix collections.Iterable -> typing.Iterable to fix crash in python 3.10 by [@BloodAxe](https:\u002F\u002Fgithub.com\u002FBloodAxe) in [#1178](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1178)\r\nFix missing encoding (PR: [#1185](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1185))\r\ndefault quantization params set in qat from config (PR: [#1192](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1192))\r\nFix mkdirs in checkpoint (PR: [#1198](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1198))\r\nFix DEKR’s replace_head & improve repr for keypoints transforms (PR: [#1227](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1227))\r\nGetting rid of “module.” heritage (PR: [#1184](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1184))\r\nFix LayerNorm have a bias parameter attribute but is not instance of torch primitive modules (PR: [#1229](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1229))\r\nmoved exceptions from training (PR: [#1260](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1260))\r\nAdded explicit casting of input in predict pipeline.  (PR: [#1281](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1281))\r\nkd ema model unrwap model fix (PR: [#1283](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1283))\r\nNew Contributors\r\n[@allankouidri](https:\u002F\u002Fgithub.com\u002Fallankouidri) made their first contribution in [#1185](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1185)\r\n[@djm93dev](https:\u002F\u002Fgithub.com\u002Fdjm93dev) made their first contribution in [#1199](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1199)\r\n[@danielafrimi](https:\u002F\u002Fgithub.com\u002Fdanielafrimi) made their first contribution in [#1220](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1220)\r\n[@RanZilberstein](https:\u002F\u002Fgithub.com\u002FRanZilberstein) made their first contribution in [#1228](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1228)\r\n[@itaylevy-deci](https:\u002F\u002Fgithub.com\u002Fitaylevy-deci) made their first contribution in [#973](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F973)\r\n[@LukeAI](https:\u002F\u002Fgithub.com\u002FLukeAI) made their first contribution in [#1237](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1237)\r\n[@jorgectf](https:\u002F\u002Fgithub.com\u002Fjorgectf) made their first contribution in [#1240](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1240)\r\n[@jacobmarks](https:\u002F\u002Fgithub.com\u002Fjacobmarks) made their first contribution in [#1278](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1278)","2023-07-19T10:09:58",{"id":204,"version":205,"summary_zh":206,"released_at":207},334191,"3.1.2","## What's Changed\r\n* Hotfix\u002Fsg 000 fix doc typo rf100 by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F897\r\n* Fixed false-positive warning message  by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F886\r\n* Update deprecate -> deprecated by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F906\r\n* Fix not-closed tqdm by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F909\r\n* Update of PoseEstimation model by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F872\r\n* Update the notebooks to install super_gradients==3.1 by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F924\r\n* Fix the bug with YOLONAS of not supporting overriding in_channels by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F923\r\n* Feature\u002Fsg 000 no explicit pil by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F908\r\n* Force predictions as list by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F945\r\n* Feature\u002Fsg 850 support torch 2.0 by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F944\r\n* Bug\u002Fsg 764 wrong ckpt when resuming with external ckpt root dir by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F948\r\n* Fix typo in welcome.html by @eltociear in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F941\r\n* Add detection prediction tutorial by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F943\r\n* Update YoloNASQuickstart.md by @avideci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F970\r\n* Fix preprocessing by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F972\r\n* Fix train_loader not initalized properly by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F981\r\n* Fix empty mask in MaskAttentionLoss by @lkdci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F982\r\n* changed requirement by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1002\r\n* Fix convert_to_onnx to correctly handle case when input_shape is None by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F989\r\n* Feature\u002Fsg 757 resume for spots by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F870\r\n* Cityscapes AutoLabelling dataset by @lkdci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1000\r\n* Predict on fused model by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F998\r\n* Proposal of issue template by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1018\r\n* Fix doc by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1019\r\n* Fixed missing encoding (Issue #999) by @T0T4R4 in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1044\r\n* Cache model from platform locally by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1009\r\n* Feature\u002Finfra 000 nightly by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1051\r\n* Added CoreML export notebook & method for Apple devices. by @avideci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1068\r\n* Bug\u002Fsg 861 decouple qat from train from config by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1001\r\n* updated contributing.md by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F965\r\n* Draw most likely bbox on top (#1061) by @laszlovandenhoek in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1063\r\n* replace documentation 'onnx' with 'coreml' by @shanibenbaruch in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1074\r\n* Fix deprecated usage of pycocotools by @fcakyon in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1052\r\n* YoloNAS benchmarking tutorial by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1076\r\n* Fix arch_param deprecated by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1084\r\n* fix deprecated naming for stdc by @ofrimasad in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1094\r\n* fix: Plot boxes by @yurkovak in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1097\r\n* Added link to new QAT fine-tuning notebook (YoloNAS) + removed github notebooks by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1100\r\n* Hotfix\u002Fsg 000 fix breaking changes in some imports by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1101\r\n* Hotfix\u002Fsg 000 dekr weights hotfix by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1102\r\n* Fixed resuming training with DDP when average_best_models=true by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1111\r\n* Update deci-lab-client usage by @roikoren755 in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1047\r\n* Feature\u002Fsg 815 fix override dataset params by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1092\r\n* Bug\u002Fsg 896 add deprecation for previous breaking changes by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1121\r\n* Actualize pose estimatino zoo. by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F1114\r\n* Typo fix in modify_params_for_qat by @shaydeci in https:\u002F\u002Fgithub","2023-06-07T12:13:42",{"id":209,"version":210,"summary_zh":211,"released_at":212},334192,"3.1.1","This GitHub Release was done automatically by CircleCI","2023-05-03T19:59:53",{"id":214,"version":215,"summary_zh":211,"released_at":216},334193,"3.1.0","2023-05-02T15:50:29",{"id":218,"version":219,"summary_zh":220,"released_at":221},334194,"3.0.9","Release notes 3.0.9\r\nFeatures\r\n- Object Detection (Yolox, PPyoloE) predict function on images, videos, GIF, and folders paths. The predict function works out of the box, no need to define pre and post-processing. Both pre and post-processing are taken from the training.  Examples [here](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Ftree\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Fexamples\u002Fpredict). PR: [#815](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F815), [#804](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F804), [#807](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F807), [#829](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F829), [#845](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F845)\r\n\r\n- Support yolov5 format detection dataset by for YoloX, PPyoloE https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F847\r\n\r\n- Base recipes for [PPYoloE](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Frecipes\u002Froboflow_ppyoloe.yaml) and [Yolox](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fsrc\u002Fsuper_gradients\u002Frecipes\u002Froboflow_yolox.yaml) of RF100 dataset. \r\n\r\n- [DetectionOutputAdapter tutorial](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fblob\u002Fmaster\u002Fdocumentation\u002Fsource\u002FDetectionOutputAdapter.md). The DetectionOutputAdapter is a class that converts the output of a detection model into a user-appropriate format.\r\n\r\n- [Segformer model and recipe](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F754)\r\n- Predict function on images and videos - taking the pre+post processing from the training recipe.\r\n- [QAT&PTQ notebooks](http:\u002F\u002Fbit.ly\u002F3KrN6an)\r\n- Added student_adapter feature to KDModule, which lets the user pass a manipulated version of the input to the student model. PR: [#820](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F820)\r\n- Introduce min_samples param to dataloader_params, which repeats the dataset in case its size is smaller than the value of this parameter. PR: [#838](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F838)\r\n\r\n\r\nBug fixes:\r\n- Bug Fix wandb logger on resume by [@Louis-Dupont](https:\u002F\u002Fgithub.com\u002FLouis-Dupont) in [#766](https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F766)","2023-04-19T14:08:24",{"id":223,"version":224,"summary_zh":225,"released_at":226},334195,"3.0.8","Bug fixes:\r\nFix the compatibility of ONNX conversion with torch 1.11+\r\nFix the docker publication\r\nFix Pre-Prediciton callback override bug\r\nFix dataloader multiprocessing (for Mac OS and Windows)\r\nFix strict_load not being passed in evaluate_from_recipe\r\nResolve many potential circular imports\r\nCorrect albumentations import log\r\nFix incorrect tensor type & device when entire batch has no targets\r\nFix documentation format in many files\r\n\r\nFeatures:\r\nNew documentation for many features  (EMA, AMP, QAT, Knowledge-Distillation, Dataloaders, Optimizer, Schedulers…)\r\nAdded Lion optimizer\r\nAdded registration for SG Logger (to allow custom-defined loggers to be used from YAML)\r\nDDRNet 39 pre-trained segmentation model\r\nMapillary dataset\r\nRoboFlow100 benchmark and all 100 datasets\r\nQATTrainer for training with QAT\r\nQAT from recipe script\r\nPP-YoloE pre-trained models\r\nPose Estimation models loss functions\r\nAdded Auxiliary heads to Unet\r\nChannel wise distillation\r\nONNX Simplifier on ONNX conversion \r\nUnet and Loss function for binary segmentation\r\nNew Transforms: DetectionPadToSize, DetectionImagePermute\r\nAllow activation factory type to take resolved type as inp\r\nNew strict_load mode: key_matching.","2023-04-02T07:52:06",{"id":228,"version":229,"summary_zh":230,"released_at":231},334196,"3.0.7","## What's Changed\r\n* Ci fix context and fail on SG by @ranrubin in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F615\r\n* Feature\u002Fsg 000 break inner train loop by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F617\r\n* Black on factories and data_interface by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F620\r\n* Apply black on utils by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F619\r\n* Added QARepVGGBlock by @spsancti in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F562\r\n* fix default value of max_train_batches, max_valid_batches by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F623\r\n* Hotfix\u002Fsg 000 transform backward compatibility by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F622\r\n* Added TestTrainingUtils suite to unit tests by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F621\r\n* Apply black by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F624\r\n* New callbacks API by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F607\r\n* Register crashtips automatically by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F626\r\n* Improve env sanity check to be more robust by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F612\r\n* Add dataset instruction by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F602\r\n* Interpollation crash tip by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F616\r\n* Group env variables by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F618\r\n* Remove unintended print (micro PR) by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F630\r\n* [BLACK PR] apply black on tests by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F633\r\n* Skip CI on .md files - SG side by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F635\r\n* Feature\u002Fsg 624 remove avg from model plots by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F629\r\n* Add metadata to average_model by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F625\r\n* Bug\u002Fsg 000 update kd train from config by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F638\r\n* Support 1.13 by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F603\r\n* Refactored scheduler callbacks (epoch-based\u002Fstep-based warmup) by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F568\r\n* Feature\u002Fsg 541 auto batch selection by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F628\r\n* Hotfix\u002Fsg 000 reduce import loops risk by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F636\r\n* Feature\u002Fsg 627 add dev option for DeciClient by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F627\r\n* Fixed id_tensor registry, so reparametrization works when .cuda() is called by @spsancti in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F632\r\n* Added new detection transforms that are used in PPYoloE by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F641\r\n* Feature\u002Fsg 493 modelnames instead of strings by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F614\r\n* Fix registry exception tip by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F644\r\n* Feature\u002Fsg 568 single epoch sanity test for all recipes by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F645\r\n* Feature\u002Fsg 634 improve deciclient errors by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F648\r\n* UNet registers by @lkdci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F646\r\n* Mini change in DeciClient use of SG version by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F651\r\n* Feature\u002Fsg 573 pose estimation by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F634\r\n* Fix grad clipping stage + upscale gradients before clipping by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F653\r\n* classification regresion tests split into 2 by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F656\r\n* Added AdamW optimizer by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F652\r\n* Losses.md docs by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F658\r\n* fixed num gpus missing arg for ddp compatibility by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F660\r\n* documentation on using configuration files by @ofrimasad in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F661\r\n* multi gpu mode explicitly mentioned by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F665\r\n* Hotfix\u002Fsg 000 fix regression tests by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F666\r\n* Feature\u002Fsg 573 Integrate new EMA decay schedules by @BloodAxe in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F647\r\n* Hotfix\u002Fsg 645 regression tests essential fixes by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F669\r\n* Feature\u002Fsg 646 rename logs by @Louis-Dupon","2023-02-01T23:08:53",{"id":233,"version":234,"summary_zh":235,"released_at":236},334197,"3.0.6","## What's Changed\r\n## Bugfixes:\r\n* Make WandB logger not ignore tag by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F596\r\n* Add a __version__ variable by @ofrimasad in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F552\r\n* Save code renamed to _save_code_lines() in wandb logger by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F601\r\n* Fix master installation by @ofrimasad in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F604\r\n* Adding what happens when no rc tag exists by @strelok899 in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F610\r\n* Version and readme fix by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F606\r\n* Bugfix\u002Fsg 000 release version verify test fix by @ranrubin in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F613\r\n\r\n## Features:\r\n* Feature\u002Fsg 521 gpu tests by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F587\r\n* Add a decorator that saves the code to file by @ofrimasad in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F589\r\n* Feature\u002Fsg 492 fuzzy logic for get param and factories by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F595\r\n* Add model names to Readme.md by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F592\r\n* Feature\u002Fsg 456 centralize ddp setup by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F544\r\n* Feature\u002Fsg 132 models convert by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F598\r\n* Feature\u002Finfra 1481 call integration tests by @ranrubin in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F549\r\n* Feature\u002Fsg 193 extend output formator by @Louis-Dupont in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F561\r\n* Feature\u002Finfra 1571 support new orb by @ranrubin in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F605\r\n* Feature-OPS-1419_integration-tests-and-docker by @strelok899 in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F339\r\n* Export message after success + suffix replacement fix by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F611\r\n\r\n## New Contributors\r\n* @strelok899 made their first contribution in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F591\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fcompare\u002F3.0.5...3.0.6","2023-01-11T11:20:30",{"id":238,"version":239,"summary_zh":240,"released_at":241},334198,"3.0.5","## What's Changed\r\n* Added warning for drop_last when train_loader is not divisible by batch_size by @shaydeci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F586\r\n* fix compute_detection_metrics_per_cls return value when no detection … by @ofrimasad in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F583\r\n* Quantization infra mods for different calibrators and learnable amax by @spsancti in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F537\r\n* PLFM-3331 Register experiments with model name by @roikoren755 in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F585\r\n* fix ignore index for DiceCEEdgeLoss by @lkdci in https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fpull\u002F588\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FDeci-AI\u002Fsuper-gradients\u002Fcompare\u002F3.0.4...3.0.5","2022-12-28T17:14:38"]