[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-open-edge-platform--training_extensions":3,"tool-open-edge-platform--training_extensions":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":77,"languages":78,"stars":115,"forks":116,"last_commit_at":117,"license":118,"difficulty_score":32,"env_os":119,"env_gpu":120,"env_ram":119,"env_deps":121,"category_tags":128,"github_topics":129,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":148,"updated_at":149,"faqs":150,"releases":178},4747,"open-edge-platform\u002Ftraining_extensions","training_extensions","Train, Evaluate, Optimize, Deploy Computer Vision Models via OpenVINO™","OpenVINO™ Training Extensions 是一个专为计算机视觉打造的低代码迁移学习框架，旨在帮助用户轻松完成模型的训练、评估、优化与部署。它有效解决了深度学习领域门槛高、流程复杂的问题，让用户无需具备深厚的算法专家背景，也能快速构建高性能的视觉模型。\n\n该工具非常适合希望高效落地 AI 应用的开发者、研究人员以及工程团队使用。无论是图像分类、目标检测（含旋转框支持）、语义与实例分割，还是异常检测任务，它都提供了经过多数据集验证的成熟“配方”（Recipe），确保用户能一站式获得优质模型。\n\n其核心技术亮点在于基于 PyTorch 和 OpenVINO™ 工具包构建了灵活的架构。从 v2.4.5 版本起，它引入了多后端支持机制，不仅原生支持英特尔 GPU（XPU）加速，未来还将无缝集成 Anomalib、Transformers 等主流第三方库。这意味着用户可以通过统一的命令行接口和 API，灵活调用不同后端的模型进行训练与导出，无需重复开发，极大提升了工作效率与扩展性。","\u003Cdiv align=\"center\">\n\n# OpenVINO™ Training Extensions\n\n---\n\n[Key Features](#key-features) •\n[Installation](https:\u002F\u002Fopen-edge-platform.github.io\u002Ftraining_extensions\u002Flatest\u002Fguide\u002Fget_started\u002Finstallation.html) •\n[Documentation](https:\u002F\u002Fopen-edge-platform.github.io\u002Ftraining_extensions\u002Flatest\u002Findex.html) •\n[License](#license)\n\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fotx)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fotx)\n\n\u003C!-- markdownlint-disable MD042 -->\n\n[![python](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.11%2B-green)]()\n[![pytorch](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpytorch-2.7%2B-orange)]()\n[![openvino](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fopenvino-2025.2-purple)]()\n\n\u003C!-- markdownlint-enable  MD042 -->\n\n[![Codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fbranch\u002Fdevelop\u002Fgraph\u002Fbadge.svg?token=9HVFNMPFGD)](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fopen-edge-platform\u002Ftraining_extensions)\n[![OpenSSF Scorecard](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-edge-platform_training_extensions_readme_72e6a7302d89.png)](https:\u002F\u002Fsecurityscorecards.dev\u002Fviewer\u002F?uri=github.com\u002Fopen-edge-platform\u002Ftraining_extensions)\n[![Pre-Merge Test](https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Factions\u002Fworkflows\u002Fpre_merge.yaml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Factions\u002Fworkflows\u002Fpre_merge.yaml)\n[![Build Docs](https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Factions\u002Fworkflows\u002Fdocs.yaml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Factions\u002Fworkflows\u002Fdocs.yaml)\n[![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache%202.0-blue.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FApache-2.0)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-edge-platform_training_extensions_readme_c18d539b6787.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fotx)\n\n---\n\n\u003C\u002Fdiv>\n\n## Introduction\n\nOpenVINO™ Training Extensions is a low-code transfer learning framework for Computer Vision.\nThe API & CLI commands of the framework allows users to train, infer, optimize and deploy models easily and quickly even with low expertise in the deep learning field.\nOpenVINO™ Training Extensions offers diverse combinations of model architectures, learning methods, and task types based on [PyTorch](https:\u002F\u002Fpytorch.org) and [OpenVINO™ toolkit](https:\u002F\u002Fsoftware.intel.com\u002Fen-us\u002Fopenvino-toolkit).\n\nOpenVINO™ Training Extensions provides a \"recipe\" for every supported task type, which consolidates necessary information to build a model.\nModel templates are validated on various datasets and serve one-stop shop for obtaining the best models in general.\n\nStarting with OTX v2.4.5, we introduced a new repository structure and a more flexible backend concept. We're excited to present support for multiple backends — beginning with the OpenVINO™ backend, while all previous OTX functionality is now organized under the \"native\" backend.\n\nIn the future, we plan to integrate popular third-party libraries such as `Anomalib \u003Chttps:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Fanomalib>_`, `Transformers \u003Chttps:\u002F\u002Fhuggingface.co\u002Fdocs\u002Ftransformers\u002Findex>_`, and more — seamlessly integrated into the repository.\nThis will enable users to train, test, export, and optimize a wide variety of models from different backends using the same CLI commands and unified API, without the need for reimplementation.\n\n### Key Features\n\nOpenVINO™ Training Extensions supports the following computer vision tasks:\n\n- **Classification**, including multi-class, multi-label and hierarchical image classification tasks.\n- **Object detection** including rotated bounding box and tiling support\n- **Semantic segmentation** including tiling algorithm support\n- **Instance segmentation** including tiling algorithm support\n- **Anomaly recognition** tasks including anomaly classification, detection and segmentation\n\nOpenVINO™ Training Extensions provides the following usability features:\n\n- Native **Intel GPUs (XPU) support**. OpenVINO™ Training Extensions can be installed with XPU support to utilize Intel GPUs for training and testing.\n- [Datumaro](https:\u002F\u002Fopen-edge-platform.github.io\u002Fdatumaro\u002Fstable\u002Findex.html) data frontend: OpenVINO™ Training Extensions supports the most common academic field dataset formats for each task. We are constantly working to extend supported formats to give more freedom of datasets format choice.\n- **Distributed training** to accelerate the training process when you have multiple GPUs\n- **Mixed-precision training** to save GPUs memory and use larger batch sizes\n- **Class incremental learning** to add new classes to the existing model\n- **Model deployment** to OpenVINO™ IR and ONNX formats and inference with [OpenVINO™ ModelAPI](https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Fmodel_api)\n- **Multiple backend support** to easily adapt models from third-party implementations into the OpenVINO™ Training Extensions repository.\n\n---\n\n## Installation\n\nPlease refer to the [installation guide](https:\u002F\u002Fopen-edge-platform.github.io\u002Ftraining_extensions\u002Flatest\u002Fguide\u002Fget_started\u002Finstallation.html).\nIf you want to make changes to the library, then a local installation is recommended.\n\n\u003Cdetails>\n\u003Csummary>Install from PyPI\u003C\u002Fsummary>\nInstalling the library with pip or uv is the easiest way to get started with otx.\n\n```bash\n# Without GPU support (CPU only)\npip install otx[cpu]\n\n# With Intel GPU support (XPU)\npip install otx[xpu]\n\n# With NVIDIA GPU support (CUDA)\npip install otx[cuda]\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Install from source\u003C\u002Fsummary>\nTo install from source, you need to clone the repository and install the library with pip or uv.\nIt is recommended to use a virtual environment to avoid conflicts with other packages.\n\n```bash\n# Clone the repository\ngit clone https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions.git\ncd training_extensions\n\n# Install (optional: pass the '-e' flag for editable mode\n# If you have an Intel GPU, use 'xpu' to enable support.\n# If you have an NVIDIA GPU, use 'cuda' to enable support.\npip install -e .[cpu]\n```\n\n\u003C\u002Fdetails>\n\n---\n\n## Quick-Start\n\nOpenVINO™ Training Extensions supports both API and CLI-based training. The API is more flexible and allows for more customization, while the CLI training utilizes command line interfaces, and might be easier for those who would like to use OpenVINO™ Training Extensions off-the-shelf.\n\nFor the CLI, the commands below provide subcommands, how to use each subcommand, and more:\n\n```bash\n# See available subcommands\notx --help\n\n# Print help messages from the train subcommand\notx train --help\n\n# Print help messages for more details\notx train --help -v   # Print required parameters\notx train --help -vv  # Print all configurable parameters\n```\n\nYou can find details with examples in the [CLI Guide](https:\u002F\u002Fopen-edge-platform.github.io\u002Ftraining_extensions\u002Flatest\u002Fguide\u002Fget_started\u002Fcli_commands.html). and [API Quick-Guide](https:\u002F\u002Fopen-edge-platform.github.io\u002Ftraining_extensions\u002Flatest\u002Fguide\u002Fget_started\u002Fapi_tutorial.html).\n\nBelow is how to train with auto-configuration, which is provided to users with datasets and tasks:\n\n\u003Cdetails>\n\u003Csummary>API Usage\u003C\u002Fsummary>\n\n```python\nfrom otx.engine import create_engine\n\n# get all the available recipes for all tasks\nfrom otx.backend.native.cli.utils import list_models\nmodel_lists = list_models(print_table=True)\n\n# instantiate native otx engine with atss model for object detection\nengine = create_engine(data=\"path\u002Fto\u002Fdataset\u002Froot\", model=\"src\u002Fotx\u002Frecipe\u002Fdetection\u002Fatss_mobilenetv2.yaml\")\nengine.train()\nengine.test()\nexported_path = engine.export()\n\n# by default all artifacts are stored in \".\u002Fotx-workspace\" directory.\n# working directory can be specified\nengine = create_engine(data=\"path\u002Fto\u002Fdataset\u002Froot\", model=\"src\u002Fotx\u002Frecipe\u002Fdetection\u002Fatss_mobilenetv2.yaml\", work_dir=\"my_workdir\")\n\n\n# openvino backend is used to validate and optimize exported OpenVINO IR models\nov_engine = create_engine(data=\"path\u002Fto\u002Fdataset\u002Froot\", model=exported_path)\nov_engine.test()\nov_engine.optimize()\n\n```\n\nFor more examples, see documentation: [API Quick-Guide](https:\u002F\u002Fopen-edge-platform.github.io\u002Ftraining_extensions\u002Flatest\u002Fguide\u002Fget_started\u002Fapi_tutorial.html)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary> CLI Usage \u003C\u002Fsummary>\n\n```bash\n# get all recipes list\notx find\n\n# otx train\notx train --config src\u002Fotx\u002Frecipe\u002Fdetection\u002Fatss_mobilenetv2.yaml --data_root data\u002Fwgisd\n\n# by default, working directory is \".\u002Fotx-workspace\". It can be specified with \"--work_dir\" parameter\notx test --config src\u002Fotx\u002Frecipe\u002Fdetection\u002Fatss_mobilenetv2.yaml --data_root data\u002Fwgisd --checkpoint otx-workspace\u002F.latest\u002Ftrain\u002Fbest_checkpoint.ckpt\notx export --config src\u002Fotx\u002Frecipe\u002Fdetection\u002Fatss_mobilenetv2.yaml --data_root data\u002Fwgisd --checkpoint otx-workspace\u002F.latest\u002Ftrain\u002Fbest_checkpoint.ckpt\n\n# or using work_dir\notx test --work_dir otx-workspace\u002F.latest\u002Ftrain\notx export --work_dir otx-workspace\u002F.latest\u002Ftrain\n\n# directly from working directory\ncd otx-workspace\notx test\notx export\n\n```\n\nFor more examples, see documentation: [CLI Guide](https:\u002F\u002Fopen-edge-platform.github.io\u002Ftraining_extensions\u002Flatest\u002Fguide\u002Fget_started\u002Fcli_commands.html)\n\n\u003C\u002Fdetails>\n\nIn addition to the examples above, please refer to the documentation for tutorials on using custom models, training parameter overrides, and [tutorial per task types](https:\u002F\u002Fopen-edge-platform.github.io\u002Ftraining_extensions\u002Flatest\u002Fguide\u002Ftutorials\u002Fbase\u002Fhow_to_train\u002Findex.html), etc.\n\n---\n\n### Release History\n\nPlease refer to the [CHANGELOG.md](CHANGELOG.md)\n\n---\n\n## License\n\nOpenVINO™ Toolkit is licensed under [Apache License Version 2.0](LICENSE).\nBy contributing to the project, you agree to the license and copyright terms therein and release your contribution under these terms.\n\n---\n\n## Issues \u002F Discussions\n\nPlease use [Issues](https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fissues\u002Fnew\u002Fchoose) tab for your bug reporting, feature requesting, or any questions.\n\n---\n\n## Disclaimer\n\nIntel is committed to respecting human rights and avoiding complicity in human rights abuses.\nSee Intel's [Global Human Rights Principles](https:\u002F\u002Fwww.intel.com\u002Fcontent\u002Fwww\u002Fus\u002Fen\u002Fpolicy\u002Fpolicy-human-rights.html).\nIntel's products and software are intended only to be used in applications that do not cause or contribute to a violation of an internationally recognized human right.\n\n---\n\n## Contributing\n\nFor those who would like to contribute to the library, see [CONTRIBUTING.md](CONTRIBUTING.md) for details.\n\nThank you! we appreciate your support!\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-edge-platform_training_extensions_readme_766e05cc9c54.png\" alt=\"Contributors\" \u002F>\n\u003C\u002Fa>\n\n---\n","\u003Cdiv align=\"center\">\n\n# OpenVINO™ 训练扩展\n\n---\n\n[主要特性](#key-features) •\n[安装](https:\u002F\u002Fopen-edge-platform.github.io\u002Ftraining_extensions\u002Flatest\u002Fguide\u002Fget_started\u002Finstallation.html) •\n[文档](https:\u002F\u002Fopen-edge-platform.github.io\u002Ftraining_extensions\u002Flatest\u002Findex.html) •\n[许可证](#license)\n\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fotx)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fotx)\n\n\u003C!-- markdownlint-disable MD042 -->\n\n[![python](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.11%2B-green)]()\n[![pytorch](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpytorch-2.7%2B-orange)]()\n[![openvino](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fopenvino-2025.2-purple)]()\n\n\u003C!-- markdownlint-enable  MD042 -->\n\n[![Codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fbranch\u002Fdevelop\u002Fgraph\u002Fbadge.svg?token=9HVFNMPFGD)](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fopen-edge-platform\u002Ftraining_extensions)\n[![OpenSSF Scorecard](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-edge-platform_training_extensions_readme_72e6a7302d89.png)](https:\u002F\u002Fsecurityscorecards.dev\u002Fviewer\u002F?uri=github.com\u002Fopen-edge-platform\u002Ftraining_extensions)\n[![Pre-Merge Test](https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Factions\u002Fworkflows\u002Fpre_merge.yaml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Factions\u002Fworkflows\u002Fpre_merge.yaml)\n[![Build Docs](https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Factions\u002Fworkflows\u002Fdocs.yaml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Factions\u002Fworkflows\u002Fdocs.yaml)\n[![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache%202.0-blue.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FApache-2.0)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-edge-platform_training_extensions_readme_c18d539b6787.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fotx)\n\n---\n\n\u003C\u002Fdiv>\n\n## 简介\n\nOpenVINO™ 训练扩展是一个面向计算机视觉领域的低代码迁移学习框架。该框架的 API 和 CLI 命令使用户即使在深度学习领域经验有限的情况下，也能轻松快速地进行模型训练、推理、优化和部署。OpenVINO™ 训练扩展基于 [PyTorch](https:\u002F\u002Fpytorch.org) 和 [OpenVINO™ 工具套件](https:\u002F\u002Fsoftware.intel.com\u002Fen-us\u002Fopenvino-toolkit)，提供了多样化的模型架构、学习方法和任务类型的组合。\n\nOpenVINO™ 训练扩展为每种支持的任务类型提供了一套“配方”，其中整合了构建模型所需的所有必要信息。这些模型模板已在多种数据集上进行了验证，能够为用户提供一站式的解决方案，帮助他们获得通用场景下的最佳模型。\n\n自 OTX v2.4.5 起，我们引入了新的仓库结构和更灵活的后端概念。我们很高兴地宣布支持多后端——首先推出了 OpenVINO™ 后端，而此前的所有 OTX 功能现在都归入“原生”后端之下。\n\n未来，我们计划集成诸如 `Anomalib \u003Chttps:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Fanomalib>_`、`Transformers \u003Chttps:\u002F\u002Fhuggingface.co\u002Fdocs\u002Ftransformers\u002Findex>_` 等流行的第三方库，并将其无缝整合到本仓库中。这将使用户能够使用相同的 CLI 命令和统一的 API，在不需重新实现的情况下，从不同后端训练、测试、导出和优化各种模型。\n\n### 主要特性\n\nOpenVINO™ 训练扩展支持以下计算机视觉任务：\n\n- **分类**，包括多类、多标签及层次化图像分类任务。\n- **目标检测**，包括旋转边界框和支持分块处理。\n- **语义分割**，包括分块算法支持。\n- **实例分割**，包括分块算法支持。\n- **异常检测**任务，包括异常分类、检测和分割。\n\nOpenVINO™ 训练扩展还提供以下易用性功能：\n\n- 原生 **Intel GPU（XPU）支持**。OpenVINO™ 训练扩展可安装 XPU 支持，以利用 Intel GPU 进行训练和测试。\n- [Datumaro](https:\u002F\u002Fopen-edge-platform.github.io\u002Fdatumaro\u002Fstable\u002Findex.html) 数据前端：OpenVINO™ 训练扩展支持每种任务中最常见的学术领域数据集格式。我们正不断努力扩展支持的格式，以便用户拥有更大的数据集格式选择自由。\n- **分布式训练**，可在拥有多块 GPU 时加速训练过程。\n- **混合精度训练**，可节省 GPU 显存并允许使用更大的批量大小。\n- **类别增量学习**，可向现有模型添加新类别。\n- **模型部署**至 OpenVINO™ IR 和 ONNX 格式，并通过 [OpenVINO™ ModelAPI](https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Fmodel_api) 进行推理。\n- **多后端支持**，可轻松将来自第三方实现的模型适配到 OpenVINO™ 训练扩展仓库中。\n\n---\n\n## 安装\n\n请参阅 [安装指南](https:\u002F\u002Fopen-edge-platform.github.io\u002Ftraining_extensions\u002Flatest\u002Fguide\u002Fget_started\u002Finstallation.html)。如果您希望对库进行修改，建议进行本地安装。\n\n\u003Cdetails>\n\u003Csummary>从 PyPI 安装\u003C\u002Fsummary>\n使用 pip 或 uv 安装库是开始使用 otx 最简单的方式。\n\n```bash\n# 不带 GPU 支持（仅 CPU）\npip install otx[cpu]\n\n# 带 Intel GPU 支持（XPU）\npip install otx[xpu]\n\n# 带 NVIDIA GPU 支持（CUDA）\npip install otx[cuda]\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>从源码安装\u003C\u002Fsummary>\n从源码安装需要先克隆仓库，然后使用 pip 或 uv 安装库。建议使用虚拟环境以避免与其他包发生冲突。\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions.git\ncd training_extensions\n\n# 安装（可选：传递 '-e' 标志以启用可编辑模式\n# 如果您有 Intel GPU，请使用 'xpu' 启用支持。\n# 如果您有 NVIDIA GPU，请使用 'cuda' 启用支持。\npip install -e .[cpu]\n```\n\n\u003C\u002Fdetails>\n\n---\n\n## 快速入门\n\nOpenVINO™ 训练扩展同时支持基于 API 和 CLI 的训练方式。API 更加灵活，允许更多自定义；而 CLI 训练则通过命令行界面进行，对于希望直接使用现成解决方案的用户来说可能更为简便。\n\n对于 CLI，以下命令提供了子命令及其用法说明等信息：\n\n```bash\n# 查看可用子命令\notx --help\n\n# 打印 train 子命令的帮助信息\notx train --help\n\n# 打印帮助信息以获取更多详细信息\notx train --help -v   # 打印所需参数\notx train --help -vv  # 打印所有可配置参数\n```\n\n您可以在[CLI 指南](https:\u002F\u002Fopen-edge-platform.github.io\u002Ftraining_extensions\u002Flatest\u002Fguide\u002Fget_started\u002Fcli_commands.html)和[API 快速指南](https:\u002F\u002Fopen-edge-platform.github.io\u002Ftraining_extensions\u002Flatest\u002Fguide\u002Fget_started\u002Fapi_tutorial.html)中找到包含示例的详细信息。\n\n以下是使用自动配置进行训练的方法，该方法适用于拥有数据集和任务的用户：\n\n\u003Cdetails>\n\u003Csummary>API 使用\u003C\u002Fsummary>\n\n```python\nfrom otx.engine import create_engine\n\n# 获取所有任务的所有可用配方\nfrom otx.backend.native.cli.utils import list_models\nmodel_lists = list_models(print_table=True)\n\n# 使用 ATSS 模型实例化用于目标检测的原生 OTX 引擎\nengine = create_engine(data=\"path\u002Fto\u002Fdataset\u002Froot\", model=\"src\u002Fotx\u002Frecipe\u002Fdetection\u002Fatss_mobilenetv2.yaml\")\nengine.train()\nengine.test()\nexported_path = engine.export()\n\n# 默认情况下，所有工件都存储在“.\u002Fotx-workspace”目录中。\n# 可以指定工作目录\nengine = create_engine(data=\"path\u002Fto\u002Fdataset\u002Froot\", model=\"src\u002Fotx\u002Frecipe\u002Fdetection\u002Fatss_mobilenetv2.yaml\", work_dir=\"my_workdir\")\n\n\n# 使用 OpenVINO 后端来验证和优化导出的 OpenVINO IR 模型\nov_engine = create_engine(data=\"path\u002Fto\u002Fdataset\u002Froot\", model=exported_path)\nov_engine.test()\nov_engine.optimize()\n\n```\n\n更多示例，请参阅文档：[API 快速指南](https:\u002F\u002Fopen-edge-platform.github.io\u002Ftraining_extensions\u002Flatest\u002Fguide\u002Fget_started\u002Fapi_tutorial.html)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary> CLI 使用 \u003C\u002Fsummary>\n\n```bash\n# 获取所有配方列表\notx find\n\n# otx 训练\notx train --config src\u002Fotx\u002Frecipe\u002Fdetection\u002Fatss_mobilenetv2.yaml --data_root data\u002Fwgisd\n\n# 默认情况下，工作目录是“.\u002Fotx-workspace”。可以通过“--work_dir”参数指定\notx test --config src\u002Fotx\u002Frecipe\u002Fdetection\u002Fatss_mobilenetv2.yaml --data_root data\u002Fwgisd --checkpoint otx-workspace\u002F.latest\u002Ftrain\u002Fbest_checkpoint.ckpt\notx export --config src\u002Fotx\u002Frecipe\u002Fdetection\u002Fatss_mobilenetv2.yaml --data_root data\u002Fwgisd --checkpoint otx-workspace\u002F.latest\u002Ftrain\u002Fbest_checkpoint.ckpt\n\n# 或者使用 work_dir\notx test --work_dir otx-workspace\u002F.latest\u002Ftrain\notx export --work_dir otx-workspace\u002F.latest\u002Ftrain\n\n# 直接从工作目录运行\ncd otx-workspace\notx test\notx export\n\n```\n\n更多示例，请参阅文档：[CLI 指南](https:\u002F\u002Fopen-edge-platform.github.io\u002Ftraining_extensions\u002Flatest\u002Fguide\u002Fget_started\u002Fcli_commands.html)\n\n\u003C\u002Fdetails>\n\n除了上述示例之外，请参阅文档中的教程，了解如何使用自定义模型、覆盖训练参数以及按任务类型划分的教程（[教程：如何训练](https:\u002F\u002Fopen-edge-platform.github.io\u002Ftraining_extensions\u002Flatest\u002Fguide\u002Ftutorials\u002Fbase\u002Fhow_to_train\u002Findex.html)）等内容。\n\n---\n\n### 发布历史\n\n请参阅 [CHANGELOG.md](CHANGELOG.md)\n\n---\n\n## 许可证\n\nOpenVINO™ 工具包根据 [Apache 许可证 2.0 版](LICENSE)授权。通过为本项目做出贡献，您同意其中的许可和版权条款，并在此基础上发布您的贡献。\n\n---\n\n## 问题 \u002F 讨论\n\n请使用[问题](https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fissues\u002Fnew\u002Fchoose)选项卡提交错误报告、功能请求或任何疑问。\n\n---\n\n## 免责声明\n\n英特尔致力于尊重人权并避免参与侵犯人权的行为。请参阅英特尔的[全球人权原则](https:\u002F\u002Fwww.intel.com\u002Fcontent\u002Fwww\u002Fus\u002Fen\u002Fpolicy\u002Fpolicy-human-rights.html)。英特尔的产品和软件仅适用于不会导致或促成违反国际公认人权的应用场景。\n\n---\n\n## 贡献\n\n对于希望为本库做出贡献的人员，请参阅[CONTRIBUTING.md](CONTRIBUTING.md)以获取详细信息。\n\n感谢您的支持！\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-edge-platform_training_extensions_readme_766e05cc9c54.png\" alt=\"贡献者\" \u002F>\n\u003C\u002Fa>\n\n---","# OpenVINO™ Training Extensions 快速上手指南\n\nOpenVINO™ Training Extensions (OTX) 是一个面向计算机视觉的低代码迁移学习框架。它基于 PyTorch 和 OpenVINO™ 工具包，支持分类、目标检测、语义分割、实例分割及异常检测等任务。通过统一的 API 和 CLI，用户可以轻松完成模型的训练、推理、优化和部署，即使没有深厚的深度学习背景也能快速上手。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04\u002F22.04) 或 Windows。\n*   **Python**: 3.11 或更高版本。\n*   **PyTorch**: 2.7 或更高版本。\n*   **OpenVINO**: 2025.2 或更高版本。\n*   **硬件加速 (可选)**:\n    *   **Intel GPU (XPU)**: 需安装相应的 Intel GPU 驱动。\n    *   **NVIDIA GPU (CUDA)**: 需安装匹配的 CUDA  toolkit 和 NVIDIA 驱动。\n\n> **提示**：建议使用虚拟环境（如 `venv` 或 `conda`）来隔离依赖，避免与其他项目冲突。\n\n## 安装步骤\n\n您可以通过 PyPI 直接安装，也可以从源码安装以进行二次开发。\n\n### 方式一：通过 PyPI 安装（推荐）\n\n根据您的硬件环境选择对应的安装命令：\n\n```bash\n# 仅 CPU 模式\npip install otx[cpu]\n\n# Intel GPU 支持 (XPU)\npip install otx[xpu]\n\n# NVIDIA GPU 支持 (CUDA)\npip install otx[cuda]\n```\n\n> **国内加速建议**：如果遇到下载速度慢的问题，可以使用清华或阿里镜像源：\n> `pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple otx[cuda]`\n\n### 方式二：从源码安装\n\n如果您需要修改库代码或体验最新功能，请克隆仓库并安装：\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions.git\ncd training_extensions\n\n# 安装可编辑模式 (根据硬件选择 cpu, xpu 或 cuda)\npip install -e .[cpu]\n```\n\n## 基本使用\n\nOTX 提供了 **CLI (命令行)** 和 **Python API** 两种使用方式。以下以目标检测任务为例，展示最简化的使用流程。\n\n### 方法 A：使用 CLI 命令行（最简单）\n\nCLI 适合快速验证和标准化流程。\n\n1.  **查看可用模型配方 (Recipes)**：\n    ```bash\n    otx find\n    ```\n\n2.  **训练模型**：\n    使用内置的 `atss_mobilenetv2` 模型配置和数据集路径进行训练。\n    ```bash\n    otx train --config src\u002Fotx\u002Frecipe\u002Fdetection\u002Fatss_mobilenetv2.yaml --data_root data\u002Fwgisd\n    ```\n    *注：默认工作目录为 `.\u002Fotx-workspace`，可通过 `--work_dir` 指定。*\n\n3.  **测试与导出**：\n    训练完成后，使用生成的最佳检查点进行测试和导出（转为 OpenVINO IR 或 ONNX）。\n    ```bash\n    # 测试\n    otx test --work_dir otx-workspace\u002F.latest\u002Ftrain\n\n    # 导出模型\n    otx export --work_dir otx-workspace\u002F.latest\u002Ftrain\n    ```\n\n### 方法 B：使用 Python API（更灵活）\n\nAPI 适合需要自定义逻辑或集成到现有 Python 项目中的场景。\n\n```python\nfrom otx.engine import create_engine\n\n# 1. 创建引擎实例\n# 指定数据集路径和模型配置文件 (此处以 ATSS MobileNetV2 检测模型为例)\nengine = create_engine(\n    data=\"path\u002Fto\u002Fdataset\u002Froot\", \n    model=\"src\u002Fotx\u002Frecipe\u002Fdetection\u002Fatss_mobilenetv2.yaml\"\n)\n\n# 2. 训练模型\nengine.train()\n\n# 3. 测试模型\nengine.test()\n\n# 4. 导出模型 (默认导出为 OpenVINO IR 格式)\nexported_path = engine.export()\n\n# 5. (可选) 使用 OpenVINO 后端对导出的模型进行验证和优化\nov_engine = create_engine(data=\"path\u002Fto\u002Fdataset\u002Froot\", model=exported_path)\nov_engine.test()\nov_engine.optimize()\n```\n\n**后续步骤**：\n模型导出后，您可以使用 [OpenVINO™ ModelAPI](https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Fmodel_api) 进行高效的推理部署。更多高级用法（如自定义模型、增量学习、混合精度训练等）请参考官方文档。","某智能制造工厂的质检团队需要快速部署一套能识别 PCB 电路板上微小缺陷（如划痕、缺件）的视觉检测系统，且必须运行在产线边缘的 Intel 工控机上。\n\n### 没有 training_extensions 时\n- **开发门槛高**：算法工程师需手动编写复杂的 PyTorch 训练代码、数据增强逻辑及模型导出脚本，非深度学习专家难以上手。\n- **适配周期长**：为了让模型在 Intel GPU 上高效运行，需花费数周时间研究 OpenVINO 工具链，手动进行算子转换与精度校准。\n- **任务切换困难**：从“缺陷分类”切换到“缺陷分割”任务时，几乎要重构整个代码库，无法复用现有流程。\n- **部署风险大**：训练环境与推理环境不一致，常出现模型导出失败或推理速度不达标的情况，导致产线停机等待。\n\n### 使用 training_extensions 后\n- **低代码快速启动**：只需通过简单的 CLI 命令或配置文件，即可调用预验证的模型模板，几天内完成从数据加载到模型训练的全过程。\n- **原生硬件加速**：直接利用其内置的 OpenVINO 后端和 Intel GPU (XPU) 支持，自动完成模型优化与量化，无需手动干预即可实现高性能推理。\n- **统一任务接口**：无论是分类、检测还是分割任务，均使用同一套 API 和命令结构，切换任务仅需修改配置参数，极大提升迭代效率。\n- **端到端无缝部署**：提供从训练、评估到导出 OpenVINO IR 格式的一站式流程，确保模型在边缘设备上“训完即跑”，显著降低落地风险。\n\ntraining_extensions 让工厂团队无需深究底层算法细节，即可低成本、高效率地构建并部署工业级计算机视觉应用。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopen-edge-platform_training_extensions_44d741b4.png","open-edge-platform","Open Edge Platform","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fopen-edge-platform_bfc55d04.png","",null,"https:\u002F\u002Fgithub.com\u002Fopen-edge-platform",[79,83,87,91,95,99,101,105,108,111],{"name":80,"color":81,"percentage":82},"Python","#3572A5",73.2,{"name":84,"color":85,"percentage":86},"TypeScript","#3178c6",25.1,{"name":88,"color":89,"percentage":90},"SCSS","#c6538c",0.6,{"name":92,"color":93,"percentage":94},"Just","#384d54",0.3,{"name":96,"color":97,"percentage":98},"Gherkin","#5B2063",0.2,{"name":100,"color":93,"percentage":98},"Dockerfile",{"name":102,"color":103,"percentage":104},"HTML","#e34c26",0.1,{"name":106,"color":107,"percentage":104},"Shell","#89e051",{"name":109,"color":110,"percentage":104},"CSS","#663399",{"name":112,"color":113,"percentage":114},"JavaScript","#f1e05a",0,1221,465,"2026-04-06T13:37:18","Apache-2.0","未说明","非必需。支持 CPU、Intel GPU (XPU) 和 NVIDIA GPU (CUDA)。若使用 NVIDIA GPU，需安装带有 CUDA 支持的版本（具体显存大小和 CUDA 版本未在文档中明确指定，仅提及支持混合精度训练以节省显存）。",{"notes":122,"python":123,"dependencies":124},"该工具是一个低代码迁移学习框架，支持多种后端（Native 和 OpenVINO）。安装时可根据硬件环境选择不同选项：'pip install otx[cpu]'（仅 CPU）、'pip install otx[xpu]'（Intel GPU）或 'pip install otx[cuda]'（NVIDIA GPU）。支持分布式训练和混合精度训练。从 v2.4.5 开始引入了新的仓库结构和更灵活的后端概念。","3.11+",[125,126,127],"pytorch>=2.7","openvino>=2025.2","datumaro",[14,15],[130,131,132,133,134,135,136,137,138,139,140,141,142,143,127,144,145,146,147],"openvino","computer-vision","deep-learning","pytorch","neural-networks-compression","quantization","hyper-parameter-optimization","image-classification","image-segmentation","object-detection","self-supervised-learning","semi-supervised-learning","transfer-learning","action-recognition","automl","machine-learning","incremental-learning","geti","2026-03-27T02:49:30.150509","2026-04-07T09:55:19.951173",[151,156,161,166,170,174],{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},21572,"如果不使用预训练权重从头开始训练，模型权重是如何初始化的？如何配置使用预训练骨干网络？","如果配置文件中没有设置 `load_from` 或 `resume_from`（且命令行未使用 `--load-weights` 等参数覆盖），权重将随机初始化。若希望使用预训练权重初始化骨干网络，可在配置文件中添加以下代码：\n\n```\ninit_cfg = dict(type='Pretrained',\n            checkpoint='torchvision:\u002F\u002Fresnet50')\n```\n\n更多详情可参考相关教程文档。","https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fissues\u002F601",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},21573,"在 Google Colab 上运行 OTX 时遇到 \"ModuleNotFoundError: No module named 'model_api'\" 错误且 `otx --help` 失败，如何解决？","建议不要在 Colab 环境中直接进行复杂的调试。最佳实践是在本地 IDE 环境中开发并在 CPU 上进行调试，然后将分支推送到你的 Fork 仓库。之后，你可以在 Colab 中仅使用该分支运行训练或测试任务（利用 GPU 加速），以避免环境配置冲突和模块缺失问题。","https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fissues\u002F4288",{"id":162,"question_zh":163,"answer_zh":164,"source_url":165},21574,"如何在 OTX 中添加基于 Timm 库的新模型（如 MobileNetV4）？需要修改哪些文件？","OTX 已经提供了通用的 Timm 包装器，通常无需从头实现。添加新模型的步骤如下：\n1. 确认实现：检查是否可以直接使用现有的通用包装器 `src\u002Fotx\u002Falgo\u002Fclassification\u002Fmulticlass_models\u002Ftimm_model.py`。\n2. 添加配方（Recipe）：为新模型创建对应的训练配置文件，存放于 `src\u002Fotx\u002Frecipe\u002Fclassification\u002Fmulti_class_cls` 目录下。\n总结：添加新模型通常意味着“实现代码（可能复用现有 timm_model.py）” + “新增训练配方配置”。","https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fissues\u002F4289",{"id":167,"question_zh":168,"answer_zh":169,"source_url":155},21575,"从保存的最佳模型继续微调时，训练损失出现震荡或下降，是否有特殊的微调设置建议？","当从快照（snapshot.pth）或最佳模型继续训练时，如果出现震荡或不收敛，通常需要检查学习率设置。微调时往往需要比从头训练更低的学习率。此外，确保正确加载了优化器状态和当前 epoch 数（使用 `--resume_from` 而非仅加载权重 `--load_weights`），以保持训练状态的连续性。如果架构不匹配导致无法加载预训练权重，则需检查模型定义是否与权重文件一致。",{"id":171,"question_zh":172,"answer_zh":173,"source_url":165},21576,"针对小数据集（如 6-10 张图片）训练分类模型，有哪些策略可以提升性能？","在小数据集场景下，建议采取以下策略：\n1. 数据增强：使用更强的数据增强技术来扩充样本多样性。\n2. 迁移学习：务必加载在大规模数据集（如 ImageNet）上预训练的权重进行微调，而不是随机初始化。\n3. 正则化：适当增加正则化手段防止过拟合。\n4. 模型选择：选用参数量较小或专门针对高效场景设计的模型（如 MobileNet 系列），并对比不同模型在低数据量下的表现。",{"id":175,"question_zh":176,"answer_zh":177,"source_url":155},21577,"如何对比加载预训练权重与从头训练的性能差异？","可以通过监控验证集上的初始 mAP（平均精度均值）来进行对比。具体做法是：分别在加载预训练权重（使用 `--load_weights`）和不使用任何权重从头开始（不使用 `--load_weights` 和 `--resume_from`）两种情况下，记录网络初始化后、训练开始前的验证集指标。通常加载预训练权重能显著加快收敛速度并提升初始性能。",[179,184,189,194,199,204,209,214,219,224,229,234,239,244,249,254,259,264,269,274],{"id":180,"version":181,"summary_zh":182,"released_at":183},127570,"2.6.0","## 变更内容\n* 由 @sovrasov 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4421 中更新了演示要求\n* 由 @rajeshgangireddy 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4420 中清理了异常任务的 Geti 任务模板\n* 由 @ashwinvaidya17 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4430 中恢复了 Engine\n* [从 release\u002F2.5 分支 cherry-pick] 重构基准测试脚本逻辑 (#4435)，由 @eugene123tw 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4442 中完成\n* 由 @kprokofi 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4441 中提供了针对 XPU 训练的 workaround\n* DEIM-DFine，由 @eugene123tw 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4446 中实现\n* 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4427 中将 pandas 的版本要求从 \u003C2.3 更新为 \u003C2.4\n* 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4428 中将 github-actions-dependency 组中的依赖项更新了 10 项\n* 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4478 中将 github-actions-dependency 组中的依赖项更新了 2 项\n* 为 ViT 分类模型添加 DoRA 支持，由 @gyuilLim 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4466 中完成\n* 在 github-actions-dependency 组中，由 @dependabot[bot] 将 tj-actions\u002Fchanged-files 从 4662f28b04a04c9b3c760178bc00690771ba6fe1 更新至 a0370f61698fcac830a08949da9fdf96ea0f3ab7，相关 PR 为 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4481\n* 由 @eugene123tw 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4479 中更新了 Python 版本要求和工作流，以支持 Python 3.11 和 3.12\n* 由 @sovrasov 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4482 中进行了文档的 minor 更新\n* 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4483 中将 github\u002Fcodeql-action 从 3.29.3 更新至 3.29.4\n* 由 @sovrasov 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4484 中禁用了 tox 的自动升级\n* 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4491 中将 github-actions-dependency 组中的 tj-actions\u002Fchanged-files 从 a0370f61698fcac830a08949da9fdf96ea0f3ab7 更新至 db8d0bfea5a44e51abd5dc1454386c668ae901f9\n* 由 @eugene123tw 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4503 中更新了 tox uv 安装程序\n* 由 @eugene123tw 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4472 中为 RandomAffine 添加了对掩码和多边形变换的支持\n* 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4507 中跨 1 个目录将 github-actions-dependency 组中的依赖项更新了 3 项\n* 由 @gyuilLim 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F 中启用了 h-label 和多标签分类的 PEFT 支持","2025-10-13T08:30:06",{"id":185,"version":186,"summary_zh":187,"released_at":188},127571,"2.5.0","## 变更内容\n* 🧹 由 @ashwinvaidya17 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4239 中重构分类实体\n* 由 @kprokofi 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4241 中重构 OTX 模型\n* 由 @kprokofi 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4281 中更新开发版本和变更日志\n* 由 @Daankrol 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4278 中提升或降级检测模型\n* 🗑️ 由 @ashwinvaidya17 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4269 中移除未使用的转换\n* 由 @kprokofi 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4287 中将 DinoV2 提升为“精度”模板\n* 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4292 中将 pip-others 组跨 1 个目录进行 5 次更新\n* 由 @kprokofi 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4291 中删除视觉提示任务\n* 由 @kprokofi 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4293 中修复 DataInputParams 序列化问题\n* 由 @kprokofi 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4282 中重构数据实体（SSeg、KP）\n* 由 @kprokofi 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4297 中对分类功能进行紧急修复\n* 由 @eugene123tw 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4296 中为 Geti 启用 TV MaskRCNN\n* 由 @kprokofi 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4300 中使 KP 检测验证与模型 API 对齐\n* 由 @kprokofi 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4294 中更新文档\n* 🧹 由 @ashwinvaidya17 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4299 中进行小幅清理\n* 由 @eugene123tw 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4301 中提升或降级实例分割算法\n* 由 @eugene123tw 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4303 中缩减集成测试范围\n* 由 @eugene123tw 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4307 中改进 PR 评论事件触发机制\n* 由 @eugene123tw 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4309 中更新 PR 评论触发工作流中的权限\n* 由 @eugene123tw 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4312 中更新 PR 评论触发器\n* 由 @eugene123tw 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4314 中添加工作流步骤，用于使用运行链接和状态更新 PR 描述\n* 由 @eugene123tw 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4316 中增强 PR 评论触发器，使其包含最近一次提交信息和工作流结果\n* 由 @eugene123tw 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4318 中重构 PR 评论触发器\n* 由 @gyuilLim 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-plat 中支持分类模型的线性分类器微调","2025-08-18T12:01:36",{"id":190,"version":191,"summary_zh":192,"released_at":193},127572,"2.4.6","## 变更内容\n* 由 @kprokofi 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4443 中修复标签信息分发问题。\n* 由 @kprokofi 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4444 中准备 2.4.6 版本发布。\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fcompare\u002F2.4.5...2.4.6","2025-07-09T10:02:18",{"id":195,"version":196,"summary_zh":197,"released_at":198},127573,"2.4.5","## 变更内容\n* 🐞 由 @ashwinvaidya17 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4431 中修复 UFlow\n* 由 @kprokofi 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4433 中修复 OTX 中检查点的加载\u002F保存问题\n* 由 @ashwinvaidya17 在 https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4438 中修复 otx 加载检查点的问题\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fcompare\u002F2.4.4...2.4.5","2025-07-03T13:45:18",{"id":200,"version":201,"summary_zh":202,"released_at":203},127574,"2.4.4","## [2.4.4]\n\n### Bug 修复\n\n- 修复 `torch.load()`，使其能够加载所有 OTX 自定义快照\n  (\u003Chttps:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fpull\u002F4392>)\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fopen-edge-platform\u002Ftraining_extensions\u002Fcompare\u002F2.4.3...2.4.4","2025-05-19T10:36:35",{"id":205,"version":206,"summary_zh":207,"released_at":208},127575,"2.4.3","## 增强功能\n* 将 torch 升级到 2.7.0","2025-05-12T14:42:59",{"id":210,"version":211,"summary_zh":212,"released_at":213},127576,"2.4.2","## 变更内容\n\n### 错误修复\n\n- 将特定的 torchmetrics 依赖项固定为 1.6.0","2025-04-24T13:07:07",{"id":215,"version":216,"summary_zh":217,"released_at":218},127577,"2.4.1","## 变更内容\n\n### 错误修复\n\n- 将 Datumaro 从 1.10.0rc0 更新至 1.10.0","2025-04-22T15:10:04",{"id":220,"version":221,"summary_zh":222,"released_at":223},127578,"2.4.0","## 变更内容\n\n### 新功能\n\n- 添加 DETR XAI 解释模式\n  (\u003Chttps:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4184>)\n- 添加 UFlow 异常检测算法\n  (\u003Chttps:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4251>)\n\n### 功能增强\n\n- 升级推理依赖项\n  (\u003Chttps:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4243>)\n- 将 ModelAPI 升级至 0.2.5.2\n  (\u003Chttps:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4275>)\n\n### 错误修复\n\n- 修复关键点检测性能问题\n  (\u003Chttps:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4270>)\n- 修复带分块的自动批大小问题\n  (\u003Chttps:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4233>)\n- 修复分块的可导出代码\n  (\u003Chttps:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4234>)\n- 不再过滤关键点箭头中的空标签\n  (\u003Chttps:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4229>)\n- 修复自动批大小的描述\n  (\u003Chttps:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4274>)\n\n### 移除内容\n\n- 移除超参数优化 (HPO)\n  (\u003Chttps:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4196>)\n- 移除动作分类\n  (\u003Chttps:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4202>)\n- 移除扩散任务\n  (\u003Chttps:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4206>)\n- 移除 3D 物体检测任务\n  (\u003Chttps:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4208>)\n- 移除零样本视觉提示\n  (\u003Chttps:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4209>)\n- 移除半监督学习算法、无标签数据集以及 MMCV 转换\n  (\u003Chttps:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4227>)\n- 移除 MaskDino、YOLOv9、Hugging Face 封装、OTX 安装及 mmcv 工具\n  (\u003Chttps:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4247>)\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fcompare\u002F2.3.0...2.4.0","2025-03-13T23:08:19",{"id":225,"version":226,"summary_zh":227,"released_at":228},127579,"2.3.0","### 变更内容\n## 新功能\n开启\u002F关闭分类增强（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4039）\n开启\u002F关闭目标检测和实例分割增强（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4066）\n添加 GPU 内存监控钩子（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4118）\n为目标检测任务添加 YOLOv9 模型（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3917、https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4026）\n为关键点检测任务添加 OpenVINO 推理支持（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3970）\n为语义分割任务添加分块处理功能（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3954）\n添加 D-Fine 目标检测算法（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4142）\n\n## 功能优化\n更新视觉提示流水线，以支持多标签零样本学习（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3993）\n更新代码以支持在目标检测中使用 PyTorch 编译器（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4003）\n重构 MaskDINO 模型（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4006）\n修复 MaskRCNN、RTMDet-Inst 和 MaskRCNNTV 的解释模式问题（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4053）\n降低分块单元测试的资源消耗（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4073）\n将 OpenVINO 升级至 2024.5 版本，NNCF 升级至 2.14.0 版本（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4123）\n升级 OpenVINO、MAPI 和 NNCF 的依赖库版本（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3967）\n重构实例分割模型（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3865）\n将 PyTorch 和 Lightning 升级至 2.4.0 版本（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3843）\n添加 mAP 指标用于评估多标签分类任务（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3985）\n将 OpenVINO 升级至 2024.6 版本，并更新空标签的处理方式（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4162）\n将 MAPI 升级至 0.2.5.1 版本（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4211）\n回滚 FMetric 计算（PR：4130）（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4210）\n\n## 错误修复\n修复 MaskDINO 配方（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4080）\n修复错误的超参数优化日志（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3972）\n更新旋转目标检测配方中的模型名称（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4028）\n修复 SupCon 标志问题（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4076）\n添加 h-cls 标签信息归一化处理（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4173）\n修复语义分割任务中箭头显示的支持问题（https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4172）\n修复模型检查点加载时的向后兼容性问题（https:\u002F\u002Fg","2025-02-24T09:50:59",{"id":230,"version":231,"summary_zh":232,"released_at":233},127580,"2.2.2","## What's Changed\r\n* Support Ellipse Shape for InstSeg algo by @eugene123tw in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4152\r\n* BC improvement by @sovrasov in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4154\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fcompare\u002F2.2.1...2.2.2","2024-12-16T10:22:38",{"id":235,"version":236,"summary_zh":237,"released_at":238},127581,"2.2.1","## What's Changed\r\n* Allow empty tile annotation by @eugene123tw in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4124\r\n* Fix tensor type compatibility in dynamic soft label assigner and RTMDet head by @eugene123tw in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4140\r\n* Update Label Info handling by @sovrasov in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4127\r\n* Fix early stopping in converter patching + fix lr warmup for all tasks by @kprokofi in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4131\r\n* Decouple DinoV2 for semantic segmentation by @kprokofi in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4136\r\n* Ensure target class indices are of type long in loss calculations by @eugene123tw in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4143\r\n* Fix arrow format reader for multiclass ROI case by @sovrasov in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4145\r\n* Update classification in converter by @sovrasov in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4146\r\n* Prepare 2.2.1 release by @kprokofi in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4147\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fcompare\u002F2.2.0...2.2.1","2024-12-06T14:39:42",{"id":240,"version":241,"summary_zh":242,"released_at":243},127582,"2.2.0","## What's Changed\r\n* [hotfix] Update for fix workflow issues by @yunchu in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3673\r\n* Disable integration test in pr-merge workflow by @yunchu in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3674\r\n* Align integration test to exportable code interface update by @eunwoosh in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3675\r\n* Merge Back Hot-Fix into develop by @harimkang in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3682\r\n* Bump aquasecurity\u002Ftrivy-action from 0.22.0 to 0.23.0 by @dependabot in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3660\r\n* Bump actions\u002Fupload-artifact from 4.3.2 to 4.3.3 by @dependabot in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3661\r\n* Bump openpyxl from 3.1.2 to 3.1.4 by @dependabot in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3665\r\n* Fix segmentation fault on VPM PTQ to develop by @sungchul2 in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3690\r\n* Mergeback 2.1.0rc0 to develop by @yunchu in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3694\r\n* Add Multi-Label & H-label Classification with torchvision models by @harimkang in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3697\r\n* Remove DataModuleConfig for the reduced config structure by @wonjuleee in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3688\r\n* Fix torchvision CLS recipes by @wonjuleee in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3705\r\n* Use model_api action classification model wrapper class by @eunwoosh in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3610\r\n* Improve polygon utils by @wonjuleee in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3707\r\n* Refactor Visual Prompting OV model to use MAPI by @sovrasov in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3638\r\n* Fix multi batch testing for visual prompting by @sungchul2 in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3695\r\n* Fix `load_reference_info` for zero-shot learning by @sungchul2 in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3709\r\n* Fix a wrong action classification transform_fn for PTQ by @eunwoosh in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3713\r\n* Mergeback 2.1.0rc0 to develop 2nd by @yunchu in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3718\r\n* Add HuggingFace Model Wrapper for Multi-Class Classification by @harimkang in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3710\r\n* Move intg tests to merge-check wf and run on a10g by @yunchu in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3711\r\n* Recipe refinement (det, iseg, r-det, sseg, vpm, zsl) by @sungchul2 in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3712\r\n* Reimplementation of ViT for classification by @wonjuleee in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3719\r\n* Remove merge_group event by @yunchu in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3731\r\n* Fix Combined Dataloader & unlabeled warmup loss to work correctly in Semi-SL case by @harimkang in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3723\r\n* Update semantic segmentation transforms to use OTX's instead of torchvision by @sungchul2 in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3724\r\n* Mergeback 2.1.0 to develop by @yunchu in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3730\r\n* Update vpm data pipeline by @sungchul2 in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3725\r\n* Update trivy scanning job by @yunchu in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3733\r\n* Fix detection integration test by @sungchul2 in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3734\r\n* Disable mixed preicision to NMS on CPU by @eunwoosh in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3727\r\n* Enable integration test at pre-merge workflow by @yunchu in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3732\r\n* Add groups setting to create single PR for each group by @yunchu in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3735\r\n* Add LoRA option for VisionTransformer by @wonjuleee in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3729\r\n* Remove optimizer in stfpm recipe by @eunwoosh in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3743\r\n* Change run-on target to aws ci for e2e by @yunchu in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3745\r\n* Add '--test-only' flag in perf test by @eunwoosh in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3746\r\n* Add HuggingFace Model Wrapper for Detection by @harimkang in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F3747\r\n* Add HuggingFace Model Wrapper for Semantic-Segmentation by @harimkang in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftrai","2024-11-18T09:19:28",{"id":245,"version":246,"summary_zh":247,"released_at":248},127583,"2.2.0rc14","## What's Changed\r\n* Add Keypoint Detection legacy template by @kprokofi in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4094\r\n* Revert the old workaround for detection confidence threshold by @sovrasov in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4096\r\n* OTX RC 2.2 version up by @sovrasov in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4099\r\n* Add dummy XAI to RTDETR (export mode) & disable strong aug by @eugene123tw in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4106\r\n* Fix task chain for Det -> Cls \u002F Seg by @kprokofi in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4105\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fcompare\u002F2.2.0rc13...2.2.0rc14","2024-11-08T14:37:35",{"id":250,"version":251,"summary_zh":252,"released_at":253},127584,"2.2.0rc13","## What's Changed\r\n* Fix wrong model name in converter & template by @harimkang in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4082\r\n* RTMDet Inst Seg Explain Mode for 2.2 by @eugene123tw in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4083\r\n* Fix rtdetr recipes by @sungchul2 in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4079\r\n* Enable adaptive_bs with Efficientnet-V2-L model template by @harimkang in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4085\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fcompare\u002F2.2.0rc12...2.2.0rc13","2024-10-31T00:43:28",{"id":255,"version":256,"summary_zh":257,"released_at":258},127585,"2.2.0rc12","## What's Changed\r\n* Bump onnx to 1.17.0 to omit CVE-2024-5187 by @yunchu in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4063\r\n* Fix incorrect all_groups order configuration in HLabelInfo by @harimkang in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4067\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fcompare\u002F2.2.0rc11...2.2.0rc12","2024-10-25T05:05:28",{"id":260,"version":261,"summary_zh":262,"released_at":263},127586,"2.2.0rc11","## What's Changed\r\n* Update anomaly transforms by @ashwinvaidya17 in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4059\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fcompare\u002F2.2.0rc10...2.2.0rc11","2024-10-24T00:48:26",{"id":265,"version":266,"summary_zh":267,"released_at":268},127587,"2.2.0rc10","## What's Changed\r\n* Add legacy template LiteHRNet_18 template by @kprokofi in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4049\r\n* Model templates: rename model_status value 'DISCONTINUED' to 'OBSOLETE' by @leoll2 in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4051\r\n* Enable export of feature vectors for semantic segmentation task by @kprokofi in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4055\r\n* Upgrade MAPI in 2.2 by @sovrasov in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4052\r\n* Update MRCNN model export to include feature vector and saliency map by @harimkang in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4056\r\n* Fix applying model's hparams when loading model from checkpoint by @sungchul2 in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4057\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fcompare\u002F2.2.0rc9...2.2.0rc10","2024-10-23T08:41:04",{"id":270,"version":271,"summary_zh":272,"released_at":273},127588,"2.2.0rc9","## What's Changed\r\n* Fix wrong indices setting in HLabelInfo by @harimkang in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4044\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fcompare\u002F2.2.0rc8...2.2.0rc9","2024-10-17T11:22:35",{"id":275,"version":276,"summary_zh":277,"released_at":278},127589,"2.2.0rc8","## What's Changed\r\n* Fix multilabel_accuracy of MixedHLabelAccuracy by @harimkang in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4042\r\n* Update for release 2.2.0rc8 by @yunchu in https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fpull\u002F4043\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Ftraining_extensions\u002Fcompare\u002F2.2.0rc7...2.2.0rc8","2024-10-17T07:14:32"]