[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-cvat-ai--cvat":3,"tool-cvat-ai--cvat":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":83,"stars":122,"forks":123,"last_commit_at":124,"license":125,"difficulty_score":126,"env_os":127,"env_gpu":128,"env_ram":129,"env_deps":130,"category_tags":137,"github_topics":138,"view_count":159,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":160,"updated_at":161,"faqs":162,"releases":191},3345,"cvat-ai\u002Fcvat","cvat","Annotate better with CVAT, the industry-leading data engine for machine learning. Used and trusted by teams at any scale, for data of any scale.","CVAT 是一款行业领先的交互式计算机视觉标注工具，专为图像和视频数据的机器学习任务设计。它致力于解决 AI 开发中数据标注效率低、协作难的核心痛点，帮助用户构建高质量的训练数据集，从而推动“以数据为中心”的 AI 落地实践。\n\n无论是个人开发者、科研团队还是大型企业，都能通过 CVAT 灵活应对不同规模的数据处理需求。研究人员可利用其强大的语义分割等功能构建学术数据集；开发团队能借助自动标注、模型集成（如 Roboflow 和 HuggingFace）大幅提升工作流效率；企业用户则可选择云端服务或私有化部署，享受包括单点登录（SSO）、高级分析在内的企业级支持。\n\nCVAT 的独特亮点在于其极高的灵活性与开放性：既提供开箱即用的免费在线版本，也支持完整的自托管部署方案，确保数据隐私与安全。此外，它还配备了完善的 Python SDK、命令行工具以及 Datumaro 数据集框架，方便用户进行二次开发和深度集成。凭借活跃的社区生态和广泛的全球应用案例，CVAT 已成为连接原始数据与智能模型之间不可或缺的桥梁。","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcvat-ai_cvat_readme_8f361ee9ba76.gif\" alt=\"CVAT Platform\" width=\"100%\" max-width=\"800px\">\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fapp.cvat.ai\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcvat-ai_cvat_readme_4498352d6209.png\" alt=\"Start Annotating Now\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n# Computer Vision Annotation Tool (CVAT)\n\n[![CI][ci-img]][ci-url]\n[![Gitter chat][gitter-img]][gitter-url]\n[![Discord][discord-img]][discord-url]\n[![Coverage Status][coverage-img]][coverage-url]\n[![server pulls][docker-server-pulls-img]][docker-server-image-url]\n[![ui pulls][docker-ui-pulls-img]][docker-ui-image-url]\n[![DOI][doi-img]][doi-url]\n[![Status][status-img]][status-url]\n\nCVAT is an interactive video and image annotation\ntool for computer vision. It is used by tens of thousands of users and\ncompanies around the world. Our mission is to help developers, companies, and\norganizations around the world to solve real problems using the Data-centric\nAI approach.\n\nStart using CVAT online: [cvat.ai](https:\u002F\u002Fcvat.ai). You can use it for free,\nor [subscribe](https:\u002F\u002Fwww.cvat.ai\u002Fpricing\u002Fcloud) to get unlimited data,\norganizations, autoannotations, and [Roboflow and HuggingFace integration](https:\u002F\u002Fwww.cvat.ai\u002Fpost\u002Fintegrating-hugging-face-and-roboflow-models).\n\nOr set CVAT up as a self-hosted solution:\n[Self-hosted Installation Guide](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fadministration\u002Fbasics\u002Finstallation\u002F).\nWe provide [Enterprise support](https:\u002F\u002Fwww.cvat.ai\u002Fpricing\u002Fon-prem) for\nself-hosted installations with premium features: SSO, LDAP, Roboflow and\nHuggingFace integrations, and advanced analytics (coming soon). We also\ndo trainings and a dedicated support with 24 hour SLA.\n\n## Quick start ⚡\n\n- [Installation guide](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fadministration\u002Fbasics\u002Finstallation\u002F)\n- [Manual](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fmanual\u002F)\n- [Contributing](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fcontributing\u002F)\n- [Datumaro dataset framework](https:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fdatumaro\u002Fblob\u002Fdevelop\u002FREADME.md)\n- [Server API](#api)\n- [Python SDK](#sdk)\n- [Command line tool](#cli)\n- [XML annotation format](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fmanual\u002Fadvanced\u002Fxml_format\u002F)\n- [AWS Deployment Guide](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fadministration\u002Fbasics\u002Faws-deployment-guide\u002F)\n- [Frequently asked questions](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Ffaq\u002F)\n- [Where to ask questions](#where-to-ask-questions)\n\n## Partners ❤️\n\nCVAT is used by teams all over the world. In the list, you can find key companies which\nhelp us support the product or an essential part of our ecosystem. If you use us,\nplease drop us a line at [contact@cvat.ai](mailto:contact+github@cvat.ai).\n\n- [Human Protocol](https:\u002F\u002Fhmt.ai) uses CVAT as a way of adding annotation service to the Human Protocol.\n- [FiftyOne](https:\u002F\u002Ffiftyone.ai) is an open-source dataset curation and model analysis\n  tool for visualizing, exploring, and improving computer vision datasets and models that are\n  [tightly integrated](https:\u002F\u002Fvoxel51.com\u002Fdocs\u002Ffiftyone\u002Fintegrations\u002Fcvat.html) with CVAT\n  for annotation and label refinement.\n\n## Public datasets\n\n[ATLANTIS](https:\u002F\u002Fgithub.com\u002Fsmhassanerfani\u002Fatlantis), an open-source dataset for semantic segmentation\nof waterbody images, developed by [iWERS](http:\u002F\u002Fce.sc.edu\u002Fiwers\u002F) group in the\nDepartment of Civil and Environmental Engineering at the University of South Carolina is using CVAT.\n\nFor developing a semantic segmentation dataset using CVAT, see:\n\n- [ATLANTIS published article](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS1364815222000391)\n- [ATLANTIS Development Kit](https:\u002F\u002Fgithub.com\u002Fsmhassanerfani\u002Fatlantis\u002Ftree\u002Fmaster\u002Fadk)\n- [ATLANTIS annotation tutorial videos](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLIfLGY-zZChS5trt7Lc3MfNhab7OWl2BR).\n\n## CVAT online: [cvat.ai](https:\u002F\u002Fcvat.ai)\n\nThis is an online version of CVAT. It's free, efficient, and easy to use.\n\n[cvat.ai](https:\u002F\u002Fcvat.ai) runs the latest version of the tool. You can create up\nto 10 tasks there and upload up to 500Mb of data to annotate. It will only be\nvisible to you or the people you assign to it.\n\nFor now, it does not have [analytics features](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fadministration\u002Fadvanced\u002Fanalytics\u002F)\nlike management and monitoring the data annotation team. It also does not allow exporting images, just the annotations.\n\nWe plan to enhance [cvat.ai](https:\u002F\u002Fcvat.ai) with new powerful features. Stay tuned!\n\n## Prebuilt Docker images 🐳\n\nPrebuilt docker images are the easiest way to start using CVAT locally. They are available on Docker Hub:\n\n- [cvat\u002Fserver](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fcvat\u002Fserver)\n- [cvat\u002Fui](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fcvat\u002Fui)\n\nThe images have been downloaded more than 1M times so far.\n\n## Screencasts 🎦\n\nHere are some screencasts showing how to use CVAT.\n\n\u003C!--lint disable maximum-line-length-->\n\n[Computer Vision Annotation Course](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL0to7Ng4PuuYQT4eXlHb_oIlq_RPeuasN):\nwe introduce our course series designed to help you annotate data faster and better\nusing CVAT. This course is about CVAT deployment and integrations, it includes\npresentations and covers the following topics:\n\n- **Speeding up your data annotation process: introduction to CVAT and Datumaro**.\n  What problems do CVAT and Datumaro solve, and how they can speed up your model\n  training process. Some resources you can use to learn more about how to use them.\n- **Deployment and use CVAT**. Use the app online at [app.cvat.ai](https:\u002F\u002Fapp.cvat.ai).\n  A local deployment. A containerized local deployment with Docker Compose (for regular use),\n  and a local cluster deployment with Kubernetes (for enterprise users). A 2-minute\n  tour of the interface, a breakdown of CVAT’s internals, and a demonstration of how\n  to deploy CVAT using Docker Compose.\n\n[Product tour](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL0to7Ng4Puua37NJVMIShl_pzqJTigFzg): in this course, we show how to use CVAT, and help to get familiar with CVAT functionality and interfaces. This course does not cover integrations and is dedicated solely to CVAT. It covers the following topics:\n\n- **Pipeline**. In this video, we show how to use [app.cvat.ai](https:\u002F\u002Fapp.cvat.ai): how to sign up, upload your data, annotate it, and download it.\n\n\u003C!--lint enable maximum-line-length-->\n\nFor feedback, please see [Contact us](#contact-us)\n\n## API\n\n- [Documentation](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fapi_sdk\u002Fapi\u002F)\n\n## SDK\n\n- Install with `pip install cvat-sdk`\n- [PyPI package homepage](https:\u002F\u002Fpypi.org\u002Fproject\u002Fcvat-sdk\u002F)\n- [Documentation](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fapi_sdk\u002Fsdk\u002F)\n\n## CLI\n\n- Install with `pip install cvat-cli`\n- [PyPI package homepage](https:\u002F\u002Fpypi.org\u002Fproject\u002Fcvat-cli\u002F)\n- [Documentation](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fapi_sdk\u002Fcli\u002F)\n\n## Supported annotation formats\n\nCVAT supports multiple annotation formats. You can select the format\nafter clicking the **Upload annotation** and **Dump annotation** buttons.\n[Datumaro](https:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fdatumaro) dataset framework allows\nadditional dataset transformations with its command line tool and Python library.\n\nFor more information about the supported formats, see:\n[Annotation Formats](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fmanual\u002Fadvanced\u002Fformats\u002F).\n\n\u003C!--lint disable maximum-line-length-->\n\n| Annotation format                                                                                | Import | Export |\n| ------------------------------------------------------------------------------------------------ | ------ | ------ |\n| [CVAT for images](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fmanual\u002Fadvanced\u002Fxml_format\u002F#annotation)              | ✔️     | ✔️     |\n| [CVAT for a video](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fmanual\u002Fadvanced\u002Fxml_format\u002F#interpolation)          | ✔️     | ✔️     |\n| [Datumaro](https:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fdatumaro)                                                  | ✔️     | ✔️     |\n| [PASCAL VOC](http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002F)                                            | ✔️     | ✔️     |\n| Segmentation masks from [PASCAL VOC](http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002F)                    | ✔️     | ✔️     |\n| [YOLO](https:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F)                                                       | ✔️     | ✔️     |\n| [MS COCO Object Detection](http:\u002F\u002Fcocodataset.org\u002F#format-data)                                  | ✔️     | ✔️     |\n| [MS COCO Keypoints Detection](http:\u002F\u002Fcocodataset.org\u002F#format-data)                               | ✔️     | ✔️     |\n| [MOT](https:\u002F\u002Fmotchallenge.net\u002F)                                                                 | ✔️     | ✔️     |\n| [MOTS PNG](https:\u002F\u002Fwww.vision.rwth-aachen.de\u002Fpage\u002Fmots)                                          | ✔️     | ✔️     |\n| [LabelMe 3.0](http:\u002F\u002Flabelme.csail.mit.edu\u002FRelease3.0)                                           | ✔️     | ✔️     |\n| [ImageNet](http:\u002F\u002Fwww.image-net.org)                                                             | ✔️     | ✔️     |\n| [CamVid](http:\u002F\u002Fmi.eng.cam.ac.uk\u002Fresearch\u002Fprojects\u002FVideoRec\u002FCamVid\u002F)                             | ✔️     | ✔️     |\n| [WIDER Face](http:\u002F\u002Fshuoyang1213.me\u002FWIDERFACE\u002F)                                                  | ✔️     | ✔️     |\n| [VGGFace2](https:\u002F\u002Fgithub.com\u002Fox-vgg\u002Fvgg_face2)                                                  | ✔️     | ✔️     |\n| [Market-1501](https:\u002F\u002Fwww.aitribune.com\u002Fdataset\u002F2018051063)                                      | ✔️     | ✔️     |\n| [ICDAR13\u002F15](https:\u002F\u002Frrc.cvc.uab.es\u002F?ch=2)                                                       | ✔️     | ✔️     |\n| [Open Images V6](https:\u002F\u002Fstorage.googleapis.com\u002Fopenimages\u002Fweb\u002Findex.html)                       | ✔️     | ✔️     |\n| [Cityscapes](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Flogin\u002F)                                          | ✔️     | ✔️     |\n| [KITTI](http:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F)                                                   | ✔️     | ✔️     |\n| [Kitti Raw Format](https:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002Fraw_data.php)                           | ✔️     | ✔️     |\n| [LFW](http:\u002F\u002Fvis-www.cs.umass.edu\u002Flfw\u002F)                                                          | ✔️     | ✔️     |\n| [Supervisely Point Cloud Format](https:\u002F\u002Fdocs.supervise.ly\u002Fdata-organization\u002F00_ann_format_navi) | ✔️     | ✔️     |\n| [Ultralytics YOLO Detection](https:\u002F\u002Fdocs.ultralytics.com\u002Fdatasets\u002Fdetect\u002F)                      | ✔️     | ✔️     |\n| [Ultralytics YOLO Oriented Bounding Boxes](https:\u002F\u002Fdocs.ultralytics.com\u002Fdatasets\u002Fobb\u002F)           | ✔️     | ✔️     |\n| [Ultralytics YOLO Segmentation](https:\u002F\u002Fdocs.ultralytics.com\u002Fdatasets\u002Fsegment\u002F)                  | ✔️     | ✔️     |\n| [Ultralytics YOLO Pose](https:\u002F\u002Fdocs.ultralytics.com\u002Fdatasets\u002Fpose\u002F)                             | ✔️     | ✔️     |\n| [Ultralytics YOLO Classification](https:\u002F\u002Fdocs.ultralytics.com\u002Fdatasets\u002Fclassify\u002F)               | ✔️     | ✔️     |\n\n\u003C!--lint enable maximum-line-length-->\n\n## Deep learning serverless functions for automatic labeling\n\nCVAT supports automatic labeling. It can speed up the annotation process\nup to 10x. Here is a list of the algorithms we support, and the platforms they can be run on:\n\n\u003C!--lint disable maximum-line-length-->\n\n| Name                                                                                                    | Type       | Framework  | CPU | GPU |\n| ------------------------------------------------------------------------------------------------------- | ---------- | ---------- | --- | --- |\n| [Segment Anything](\u002Fserverless\u002Fpytorch\u002Ffacebookresearch\u002Fsam\u002Fnuclio\u002F)                                    | interactor | PyTorch    | ✔️  | ✔️  |\n| [Faster RCNN](\u002Fserverless\u002Fopenvino\u002Fomz\u002Fpublic\u002Ffaster_rcnn_inception_resnet_v2_atrous_coco\u002Fnuclio)       | detector   | OpenVINO   | ✔️  |     |\n| [Mask RCNN](\u002Fserverless\u002Fopenvino\u002Fomz\u002Fpublic\u002Fmask_rcnn_inception_resnet_v2_atrous_coco\u002Fnuclio)           | detector   | OpenVINO   | ✔️  |     |\n| [YOLO v3](\u002Fserverless\u002Fopenvino\u002Fomz\u002Fpublic\u002Fyolo-v3-tf\u002Fnuclio)                                            | detector   | OpenVINO   | ✔️  |     |\n| [YOLO v7](\u002Fserverless\u002Fonnx\u002FWongKinYiu\u002Fyolov7\u002Fnuclio)                                                    | detector   | ONNX       | ✔️  | ✔️  |\n| [Object reidentification](\u002Fserverless\u002Fopenvino\u002Fomz\u002Fintel\u002Fperson-reidentification-retail-0277\u002Fnuclio)    | reid       | OpenVINO   | ✔️  |     |\n| [Semantic segmentation for ADAS](\u002Fserverless\u002Fopenvino\u002Fomz\u002Fintel\u002Fsemantic-segmentation-adas-0001\u002Fnuclio) | detector   | OpenVINO   | ✔️  |     |\n| [Text detection v4](\u002Fserverless\u002Fopenvino\u002Fomz\u002Fintel\u002Ftext-detection-0004\u002Fnuclio)                          | detector   | OpenVINO   | ✔️  |     |\n| [SiamMask](\u002Fserverless\u002Fpytorch\u002Ffoolwood\u002Fsiammask\u002Fnuclio)                                                | tracker    | PyTorch    | ✔️  | ✔️  |\n| [TransT](\u002Fserverless\u002Fpytorch\u002Fdschoerk\u002Ftranst\u002Fnuclio)                                                    | tracker    | PyTorch    | ✔️  | ✔️  |\n| [Inside-Outside Guidance](\u002Fserverless\u002Fpytorch\u002Fshiyinzhang\u002Fiog\u002Fnuclio)                                   | interactor | PyTorch    | ✔️  |     |\n| [Faster RCNN](\u002Fserverless\u002Ftensorflow\u002Ffaster_rcnn_inception_v2_coco\u002Fnuclio)                              | detector   | TensorFlow | ✔️  | ✔️  |\n| [RetinaNet](serverless\u002Fpytorch\u002Ffacebookresearch\u002Fdetectron2\u002Fretinanet_r101\u002Fnuclio)                       | detector   | PyTorch    | ✔️  | ✔️  |\n| [Face Detection](\u002Fserverless\u002Fopenvino\u002Fomz\u002Fintel\u002Fface-detection-0205\u002Fnuclio)                             | detector   | OpenVINO   | ✔️  |     |\n\n\u003C!--lint enable maximum-line-length-->\n\n## License\n\nThe code is released under the [MIT License](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT).\n\nThe code contained within the `\u002Fserverless` directory is released under the **MIT License**.\nHowever, it may download and utilize various assets, such as source code, architectures, and weights, among others.\nThese assets may be distributed under different licenses, including non-commercial licenses.\nIt is your responsibility to ensure compliance with the terms of these licenses before using the assets.\n\nThis software uses LGPL-licensed libraries from the [FFmpeg](https:\u002F\u002Fwww.ffmpeg.org) project.\nThe exact steps on how FFmpeg was configured and compiled can be found in the [Dockerfile](Dockerfile).\n\nFFmpeg is an open-source framework licensed under LGPL and GPL.\nSee [https:\u002F\u002Fwww.ffmpeg.org\u002Flegal.html](https:\u002F\u002Fwww.ffmpeg.org\u002Flegal.html). You are solely responsible\nfor determining if your use of FFmpeg requires any\nadditional licenses. CVAT.ai Corporation is not responsible for obtaining any\nsuch licenses, nor liable for any licensing fees due in\nconnection with your use of FFmpeg.\n\n## Contact us\n\n[Gitter](https:\u002F\u002Fgitter.im\u002Fopencv-cvat\u002Fpublic) to ask CVAT usage-related questions.\nTypically questions get answered fast by the core team or community. There you can also browse other common questions.\n\n[Discord](https:\u002F\u002Fdiscord.gg\u002FS6sRHhuQ7K) is the place to also ask questions or discuss any other stuff related to CVAT.\n\n[LinkedIn](https:\u002F\u002Fwww.linkedin.com\u002Fcompany\u002Fcvat-ai\u002F) for the company and work-related questions.\n\n[YouTube](https:\u002F\u002Fwww.youtube.com\u002F@cvat-ai) to see screencast and tutorials about the CVAT.\n\n[GitHub issues](https:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fissues) for feature requests or bug reports.\nIf it's a bug, please add the steps to reproduce it.\n\n[#cvat](https:\u002F\u002Fstackoverflow.com\u002Fsearch?q=%23cvat) tag on StackOverflow is one more way to ask\nquestions and get our support.\n\n[Use our website](https:\u002F\u002Fwww.cvat.ai\u002Fcontact-us\u002Fenterprise) to reach out to us if you need commercial support.\n\n## Links\n\n- [Intel AI blog: New Computer Vision Tool Accelerates Annotation of Digital Images and Video](https:\u002F\u002Fwww.intel.ai\u002Fintroducing-cvat)\n- [Intel Software: Computer Vision Annotation Tool: A Universal Approach to Data Annotation](https:\u002F\u002Fsoftware.intel.com\u002Fen-us\u002Farticles\u002Fcomputer-vision-annotation-tool-a-universal-approach-to-data-annotation)\n- [VentureBeat: Intel open-sources CVAT, a toolkit for data labeling](https:\u002F\u002Fventurebeat.com\u002F2019\u002F03\u002F05\u002Fintel-open-sources-cvat-a-toolkit-for-data-labeling\u002F)\n- [How to Use CVAT (Roboflow guide)](https:\u002F\u002Fblog.roboflow.com\u002Fcvat\u002F)\n- [How to auto-label data in CVAT with one of 50,000+ models on Roboflow Universe](https:\u002F\u002Fblog.roboflow.com\u002Fhow-to-use-roboflow-models-in-cvat\u002F)\n\n  \u003C!-- Badges -->\n\n[docker-server-pulls-img]: https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fpulls\u002Fcvat\u002Fserver.svg?style=flat-square&label=server%20pulls\n[docker-server-image-url]: https:\u002F\u002Fhub.docker.com\u002Fr\u002Fcvat\u002Fserver\n[docker-ui-pulls-img]: https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fpulls\u002Fcvat\u002Fui.svg?style=flat-square&label=UI%20pulls\n[docker-ui-image-url]: https:\u002F\u002Fhub.docker.com\u002Fr\u002Fcvat\u002Fui\n[ci-img]: https:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Factions\u002Fworkflows\u002Fmain.yml\u002Fbadge.svg?branch=develop\n[ci-url]: https:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Factions\n[gitter-img]: https:\u002F\u002Fimg.shields.io\u002Fgitter\u002Froom\u002Fopencv-cvat\u002Fpublic?style=flat\n[gitter-url]: https:\u002F\u002Fgitter.im\u002Fopencv-cvat\u002Fpublic\n[coverage-img]: https:\u002F\u002Fcodecov.io\u002Fgithub\u002Fcvat-ai\u002Fcvat\u002Fbranch\u002Fdevelop\u002Fgraph\u002Fbadge.svg\n[coverage-url]: https:\u002F\u002Fcodecov.io\u002Fgithub\u002Fcvat-ai\u002Fcvat\n[doi-img]: https:\u002F\u002Fzenodo.org\u002Fbadge\u002F139156354.svg\n[doi-url]: https:\u002F\u002Fzenodo.org\u002Fbadge\u002Flatestdoi\u002F139156354\n[discord-img]: https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1000789942802337834?label=discord\n[discord-url]: https:\u002F\u002Fdiscord.gg\u002FfNR3eXfk6C\n[status-img]: https:\u002F\u002Fuptime.betterstack.com\u002Fstatus-badges\u002Fv2\u002Fmonitor\u002F1yl3h.svg\n[status-url]: https:\u002F\u002Fstatus.cvat.ai\n","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcvat-ai_cvat_readme_8f361ee9ba76.gif\" alt=\"CVAT 平台\" width=\"100%\" max-width=\"800px\">\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fapp.cvat.ai\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcvat-ai_cvat_readme_4498352d6209.png\" alt=\"立即开始标注\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n# 计算机视觉标注工具 (CVAT)\n\n[![CI][ci-img]][ci-url]\n[![Gitter 聊天][gitter-img]][gitter-url]\n[![Discord][discord-img]][discord-url]\n[![覆盖率][coverage-img]][coverage-url]\n[![服务器镜像拉取次数][docker-server-pulls-img]][docker-server-image-url]\n[![UI 镜像拉取次数][docker-ui-pulls-img]][docker-ui-image-url]\n[![DOI][doi-img]][doi-url]\n[![状态][status-img]][status-url]\n\nCVAT 是一款用于计算机视觉的交互式视频和图像标注工具。全球数以万计的用户和公司都在使用它。我们的使命是帮助世界各地的开发者、企业和组织，通过以数据为中心的人工智能方法解决实际问题。\n\n在线使用 CVAT：[cvat.ai](https:\u002F\u002Fcvat.ai)。您可以免费使用，也可以[订阅](https:\u002F\u002Fwww.cvat.ai\u002Fpricing\u002Fcloud)，以获得无限的数据存储、组织管理、自动标注功能，以及与 [Roboflow 和 HuggingFace 的集成](https:\u002F\u002Fwww.cvat.ai\u002Fpost\u002Fintegrating-hugging-face-and-roboflow-models)。\n\n或者将 CVAT 部署为自托管解决方案：\n[自托管安装指南](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fadministration\u002Fbasics\u002Finstallation\u002F)。\n我们为自托管部署提供[企业级支持](https:\u002F\u002Fwww.cvat.ai\u002Fpricing\u002Fon-prem)，包含高级功能：SSO、LDAP、与 Roboflow 和 HuggingFace 的集成，以及高级分析（即将推出）。此外，我们还提供培训和 24 小时 SLA 的专属支持。\n\n## 快速入门 ⚡\n\n- [安装指南](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fadministration\u002Fbasics\u002Finstallation\u002F)\n- [用户手册](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fmanual\u002F)\n- [贡献指南](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fcontributing\u002F)\n- [Datumaro 数据集框架](https:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fdatumaro\u002Fblob\u002Fdevelop\u002FREADME.md)\n- [服务器 API](#api)\n- [Python SDK](#sdk)\n- [命令行工具](#cli)\n- [XML 注释格式](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fmanual\u002Fadvanced\u002Fxml_format\u002F)\n- [AWS 部署指南](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fadministration\u002Fbasics\u002Faws-deployment-guide\u002F)\n- [常见问题解答](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Ffaq\u002F)\n- [提问渠道](#where-to-ask-questions)\n\n## 合作伙伴 ❤️\n\nCVAT 被全球各地的团队广泛使用。在列表中，您可以看到那些帮助我们支持产品或构成我们生态系统重要组成部分的关键公司。如果您正在使用 CVAT，请发送邮件至 [contact@cvat.ai](mailto:contact+github@cvat.ai) 与我们联系。\n\n- [Human Protocol](https:\u002F\u002Fhmt.ai) 将 CVAT 用作向 Human Protocol 添加标注服务的方式。\n- [FiftyOne](https:\u002F\u002Ffiftyone.ai) 是一个开源的数据集管理和模型分析工具，用于可视化、探索和改进计算机视觉数据集及模型，它与 CVAT [紧密集成](https:\u002F\u002Fvoxel51.com\u002Fdocs\u002Ffiftyone\u002Fintegrations\u002Fcvat.html)，用于标注和标签优化。\n\n## 公开数据集\n\n由南卡罗来纳大学土木与环境工程系的 [iWERS](http:\u002F\u002Fce.sc.edu\u002Fiwers\u002F) 团队开发的水体图像语义分割开源数据集 [ATLANTIS](https:\u002F\u002Fgithub.com\u002Fsmhassanerfani\u002Fatlantis) 正在使用 CVAT。\n\n有关如何使用 CVAT 构建语义分割数据集，请参阅：\n\n- [ATLANTIS 已发表的文章](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS1364815222000391)\n- [ATLANTIS 开发工具包](https:\u002F\u002Fgithub.com\u002Fsmhassanerfani\u002Fatlantis\u002Ftree\u002Fmaster\u002Fadk)\n- [ATLANTIS 标注教程视频](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLIfLGY-zZChS5trt7Lc3MfNhab7OWl2BR)。\n\n## CVAT 在线版：[cvat.ai](https:\u002F\u002Fcvat.ai)\n\n这是 CVAT 的在线版本。它免费、高效且易于使用。\n\n[cvat.ai](https:\u002F\u002Fcvat.ai) 运行的是最新版本的工具。您可以在那里创建最多 10 个任务，并上传最多 500MB 的数据进行标注。这些数据仅对您或您指定的人员可见。\n\n目前，它不具备[分析功能](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fadministration\u002Fadvanced\u002Fanalytics\u002F)，例如管理和监控数据标注团队。同时，它也不支持导出图像，只能导出标注信息。\n\n我们计划为 [cvat.ai](https:\u002F\u002Fcvat.ai) 增加更多强大的新功能。敬请期待！\n\n## 预构建 Docker 镜像 🐳\n\n预构建的 Docker 镜像是在本地快速启动 CVAT 的最简单方式。它们可在 Docker Hub 上找到：\n\n- [cvat\u002Fserver](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fcvat\u002Fserver)\n- [cvat\u002Fui](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fcvat\u002Fui)\n\n这些镜像至今已被下载超过 100 万次。\n\n## 屏幕录像 🎦\n\n以下是一些展示如何使用 CVAT 的屏幕录像。\n\n\u003C!--lint disable maximum-line-length-->\n\n[计算机视觉标注课程](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL0to7Ng4PuuYQT4eXlHb_oIlq_RPeuasN)：\n我们推出了这一系列课程，旨在帮助您使用 CVAT 更快、更好地标注数据。本课程主要介绍 CVAT 的部署与集成，内容包括演示文稿，涵盖以下主题：\n\n- **加速您的数据标注流程：CVAT 和 Datumaro 简介**。\n  CVAT 和 Datumaro 解决了哪些问题？它们如何加速您的模型训练过程？还有一些资源可以帮助您进一步了解如何使用它们。\n- **CVAT 的部署与使用**。在线使用 [app.cvat.ai](https:\u002F\u002Fapp.cvat.ai)。本地部署。使用 Docker Compose 的容器化本地部署（适用于常规使用），以及使用 Kubernetes 的本地集群部署（适用于企业用户）。2 分钟界面概览，CVAT 内部结构解析，以及演示如何使用 Docker Compose 部署 CVAT。\n\n[产品巡礼](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL0to7Ng4Puua37NJVMIShl_pzqJTigFzg)：在本课程中，我们展示了如何使用 CVAT，并帮助您熟悉其功能和界面。本课程不涉及集成，完全专注于 CVAT。内容包括：\n\n- **工作流**。在这段视频中，我们展示了如何使用 [app.cvat.ai](https:\u002F\u002Fapp.cvat.ai)：如何注册、上传数据、进行标注并下载结果。\n\n\u003C!--lint enable maximum-line-length-->\n\n如需反馈，请参阅 [联系我们](#contact-us)\n\n## API\n\n- [文档](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fapi_sdk\u002Fapi\u002F)\n\n## SDK\n\n- 使用 `pip install cvat-sdk` 安装\n- [PyPI 包主页](https:\u002F\u002Fpypi.org\u002Fproject\u002Fcvat-sdk\u002F)\n- [文档](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fapi_sdk\u002Fsdk\u002F)\n\n## CLI\n\n- 使用 `pip install cvat-cli` 安装\n- [PyPI 包主页](https:\u002F\u002Fpypi.org\u002Fproject\u002Fcvat-cli\u002F)\n- [文档](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fapi_sdk\u002Fcli\u002F)\n\n## 支持的标注格式\n\nCVAT 支持多种标注格式。您可以在点击 **上传标注** 和 **导出标注** 按钮后选择格式。\n[Datumaro](https:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fdatumaro) 数据集框架通过其命令行工具和 Python 库，支持对数据集进行额外的转换。\n\n有关支持的格式的更多信息，请参阅：\n[标注格式](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fmanual\u002Fadvanced\u002Fformats\u002F)。\n\n\u003C!--lint disable maximum-line-length-->\n\n| 标注格式                                                                                | 导入 | 导出 |\n| ------------------------------------------------------------------------------------------------ | ------ | ------ |\n| [适用于图像的 CVAT](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fmanual\u002Fadvanced\u002Fxml_format\u002F#annotation)              | ✔️     | ✔️     |\n| [适用于视频的 CVAT](https:\u002F\u002Fdocs.cvat.ai\u002Fdocs\u002Fmanual\u002Fadvanced\u002Fxml_format\u002F#interpolation)          | ✔️     | ✔️     |\n| [Datumaro](https:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fdatumaro)                                                  | ✔️     | ✔️     |\n| [PASCAL VOC](http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002F)                                            | ✔️     | ✔️     |\n| 来自 [PASCAL VOC](http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002F) 的分割掩码                    | ✔️     | ✔️     |\n| [YOLO](https:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F)                                                       | ✔️     | ✔️     |\n| [MS COCO 对象检测](http:\u002F\u002Fcocodataset.org\u002F#format-data)                                  | ✔️     | ✔️     |\n| [MS COCO 关键点检测](http:\u002F\u002Fcocodataset.org\u002F#format-data)                               | ✔️     | ✔️     |\n| [MOT](https:\u002F\u002Fmotchallenge.net\u002F)                                                                 | ✔️     | ✔️     |\n| [MOTS PNG](https:\u002F\u002Fwww.vision.rwth-aachen.de\u002Fpage\u002Fmots)                                          | ✔️     | ✔️     |\n| [LabelMe 3.0](http:\u002F\u002Flabelme.csail.mit.edu\u002FRelease3.0)                                           | ✔️     | ✔️     |\n| [ImageNet](http:\u002F\u002Fwww.image-net.org)                                                             | ✔️     | ✔️     |\n| [CamVid](http:\u002F\u002Fmi.eng.cam.ac.uk\u002Fresearch\u002Fprojects\u002FVideoRec\u002FCamVid\u002F)                             | ✔️     | ✔️     |\n| [WIDER Face](http:\u002F\u002Fshuoyang1213.me\u002FWIDERFACE\u002F)                                                  | ✔️     | ✔️     |\n| [VGGFace2](https:\u002F\u002Fgithub.com\u002Fox-vgg\u002Fvgg_face2)                                                  | ✔️     | ✔️     |\n| [Market-1501](https:\u002F\u002Fwww.aitribune.com\u002Fdataset\u002F2018051063)                                      | ✔️     | ✔️     |\n| [ICDAR13\u002F15](https:\u002F\u002Frrc.cvc.uab.es\u002F?ch=2)                                                       | ✔️     | ✔️     |\n| [Open Images V6](https:\u002F\u002Fstorage.googleapis.com\u002Fopenimages\u002Fweb\u002Findex.html)                       | ✔️     | ✔️     |\n| [Cityscapes](https:\u002F\u002Fwww.cityscapes-dataset.com\u002Flogin\u002F)                                          | ✔️     | ✔️     |\n| [KITTI](http:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F)                                                   | ✔️     | ✔️     |\n| [Kitti 原始格式](https:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002Fraw_data.php)                           | ✔️     | ✔️     |\n| [LFW](http:\u002F\u002Fvis-www.cs.umass.edu\u002Flfw\u002F)                                                          | ✔️     | ✔️     |\n| [Supervisely 点云格式](https:\u002F\u002Fdocs.supervise.ly\u002Fdata-organization\u002F00_ann_format_navi) | ✔️     | ✔️     |\n| [Ultralytics YOLO 检测](https:\u002F\u002Fdocs.ultralytics.com\u002Fdatasets\u002Fdetect\u002F)                      | ✔️     | ✔️     |\n| [Ultralytics YOLO 有向边界框](https:\u002F\u002Fdocs.ultralytics.com\u002Fdatasets\u002Fobb\u002F)           | ✔️     | ✔️     |\n| [Ultralytics YOLO 分割](https:\u002F\u002Fdocs.ultralytics.com\u002Fdatasets\u002Fsegment\u002F)                  | ✔️     | ✔️     |\n| [Ultralytics YOLO 姿态](https:\u002F\u002Fdocs.ultralytics.com\u002Fdatasets\u002Fpose\u002F)                             | ✔️     | ✔️     |\n| [Ultralytics YOLO 分类](https:\u002F\u002Fdocs.ultralytics.com\u002Fdatasets\u002Fclassify\u002F)               | ✔️     | ✔️     |\n\n\u003C!--lint enable maximum-line-length-->\n\n## 用于自动标注的深度学习无服务器函数\n\nCVAT 支持自动标注功能，可将标注流程提速高达 10 倍。以下是我们的支持算法及其运行平台列表：\n\n\u003C!--lint disable maximum-line-length-->\n\n| 名称                                                                                                    | 类型       | 框架  | CPU | GPU |\n| ------------------------------------------------------------------------------------------------------- | ---------- | ---------- | --- | --- |\n| [Segment Anything](\u002Fserverless\u002Fpytorch\u002Ffacebookresearch\u002Fsam\u002Fnuclio\u002F)                                    | 交互式   | PyTorch    | ✔️  | ✔️  |\n| [Faster RCNN](\u002Fserverless\u002Fopenvino\u002Fomz\u002Fpublic\u002Ffaster_rcnn_inception_resnet_v2_atrous_coco\u002Fnuclio)       | 检测器   | OpenVINO   | ✔️  |     |\n| [Mask RCNN](\u002Fserverless\u002Fopenvino\u002Fomz\u002Fpublic\u002Fmask_rcnn_inception_resnet_v2_atrous_coco\u002Fnuclio)           | 检测器   | OpenVINO   | ✔️  |     |\n| [YOLO v3](\u002Fserverless\u002Fopenvino\u002Fomz\u002Fpublic\u002Fyolo-v3-tf\u002Fnuclio)                                            | 检测器   | OpenVINO   | ✔️  |     |\n| [YOLO v7](\u002Fserverless\u002Fonnx\u002FWongKinYiu\u002Fyolov7\u002Fnuclio)                                                    | 检测器   | ONNX       | ✔️  | ✔️  |\n| [目标重识别](\u002Fserverless\u002Fopenvino\u002Fomz\u002Fintel\u002Fperson-reidentification-retail-0277\u002Fnuclio)    | 重识别   | OpenVINO   | ✔️  |     |\n| [面向 ADAS 的语义分割](\u002Fserverless\u002Fopenvino\u002Fomz\u002Fintel\u002Fsemantic-segmentation-adas-0001\u002Fnuclio) | 检测器   | OpenVINO   | ✔️  |     |\n| [文本检测 v4](\u002Fserverless\u002Fopenvino\u002Fomz\u002Fintel\u002Ftext-detection-0004\u002Fnuclio)                          | 检测器   | OpenVINO   | ✔️  |     |\n| [SiamMask](\u002Fserverless\u002Fpytorch\u002Ffoolwood\u002Fsiammask\u002Fnuclio)                                                | 跟踪器    | PyTorch    | ✔️  | ✔️  |\n| [TransT](\u002Fserverless\u002Fpytorch\u002Fdschoerk\u002Ftranst\u002Fnuclio)                                                    | 跟踪器    | PyTorch    | ✔️  | ✔️  |\n| [内外引导](\u002Fserverless\u002Fpytorch\u002Fshiyinzhang\u002Fiog\u002Fnuclio)                                   | 交互式 | PyTorch    | ✔️  |     |\n| [Faster RCNN](\u002Fserverless\u002Ftensorflow\u002Ffaster_rcnn_inception_v2_coco\u002Fnuclio)                              | 检测器   | TensorFlow | ✔️  | ✔️  |\n| [RetinaNet](serverless\u002Fpytorch\u002Ffacebookresearch\u002Fdetectron2\u002Fretinanet_r101\u002Fnuclio)                       | 检测器   | PyTorch    | ✔️  | ✔️  |\n| [人脸检测](\u002Fserverless\u002Fopenvino\u002Fomz\u002Fintel\u002Fface-detection-0205\u002Fnuclio)                             | 检测器   | OpenVINO   | ✔️  |     |\n\n\u003C!--lint enable maximum-line-length-->\n\n## 许可证\n\n该代码根据 [MIT 许可证](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT) 发布。\n\n位于 `\u002Fserverless` 目录中的代码同样根据 **MIT 许可证** 发布。\n然而，它可能会下载并使用各种资源，例如源代码、架构和权重等。\n这些资源可能采用不同的许可证进行分发，其中包括非商业用途的许可证。\n在使用这些资源之前，您有责任确保遵守相关许可证的条款。\n\n本软件使用了来自 [FFmpeg](https:\u002F\u002Fwww.ffmpeg.org) 项目的 LGPL 许可库。\n关于 FFmpeg 的具体配置和编译步骤，请参阅 [Dockerfile](Dockerfile)。\n\nFFmpeg 是一个基于 LGPL 和 GPL 许可的开源框架。\n详情请参阅 [https:\u002F\u002Fwww.ffmpeg.org\u002Flegal.html](https:\u002F\u002Fwww.ffmpeg.org\u002Flegal.html)。您需自行判断是否需要为您的 FFmpeg 使用申请额外的许可证。\nCVAT.ai 公司不负责获取此类许可证，亦不对因您使用 FFmpeg 而产生的任何许可费用承担责任。\n\n## 联系我们\n\n如有关于 CVAT 使用的问题，请前往 [Gitter](https:\u002F\u002Fgitter.im\u002Fopencv-cvat\u002Fpublic) 提问。\n通常，核心团队或社区成员会迅速回复问题。您也可以在该平台上浏览其他常见问题。\n\n[Discord](https:\u002F\u002Fdiscord.gg\u002FS6sRHhuQ7K) 同样是提问或讨论与 CVAT 相关话题的好去处。\n\n如需咨询公司及工作相关事宜，请访问 [LinkedIn](https:\u002F\u002Fwww.linkedin.com\u002Fcompany\u002Fcvat-ai\u002F)。\n\n观看关于 CVAT 的屏幕录制和教程，请访问 [YouTube](https:\u002F\u002Fwww.youtube.com\u002F@cvat-ai)。\n\n如需提出功能请求或报告 bug，请前往 [GitHub issues](https:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fissues)。\n如果是 bug，请务必附上复现步骤。\n\n在 StackOverflow 上搜索 [#cvat](https:\u002F\u002Fstackoverflow.com\u002Fsearch?q=%23cvat) 标签，也是提问并获得支持的一种方式。\n\n如果您需要商业支持，请通过我们的官网联系我们：[使用我们的网站](https:\u002F\u002Fwww.cvat.ai\u002Fcontact-us\u002Fenterprise)。\n\n## 链接\n\n- [Intel AI 博客：全新计算机视觉工具加速数字图像和视频标注](https:\u002F\u002Fwww.intel.ai\u002Fintroducing-cvat)\n- [Intel 软件：计算机视觉标注工具——数据标注的通用方法](https:\u002F\u002Fsoftware.intel.com\u002Fen-us\u002Farticles\u002Fcomputer-vision-annotation-tool-a-universal-approach-to-data-annotation)\n- [VentureBeat：Intel 开源 CVAT，一款用于数据标注的工具包](https:\u002F\u002Fventurebeat.com\u002F2019\u002F03\u002F05\u002Fintel-open-sources-cvat-a-toolkit-for-data-labeling\u002F)\n- [如何使用 CVAT（Roboflow 指南）](https:\u002F\u002Fblog.roboflow.com\u002Fcvat\u002F)\n- [如何在 CVAT 中使用 Roboflow Universe 上的 5 万多个模型自动标注数据](https:\u002F\u002Fblog.roboflow.com\u002Fhow-to-use-roboflow-models-in-cvat\u002F)\n\n  \u003C!-- 徽章 -->\n\n[docker-server-pulls-img]: https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fpulls\u002Fcvat\u002Fserver.svg?style=flat-square&label=server%20pulls\n[docker-server-image-url]: https:\u002F\u002Fhub.docker.com\u002Fr\u002Fcvat\u002Fserver\n[docker-ui-pulls-img]: https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fpulls\u002Fcvat\u002Fui.svg?style=flat-square&label=UI%20pulls\n[docker-ui-image-url]: https:\u002F\u002Fhub.docker.com\u002Fr\u002Fcvat\u002Fui\n[ci-img]: https:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Factions\u002Fworkflows\u002Fmain.yml\u002Fbadge.svg?branch=develop\n[ci-url]: https:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Factions\n[gitter-img]: https:\u002F\u002Fimg.shields.io\u002Fgitter\u002Froom\u002Fopencv-cvat\u002Fpublic?style=flat\n[gitter-url]: https:\u002F\u002Fgitter.im\u002Fopencv-cvat\u002Fpublic\n[coverage-img]: https:\u002F\u002Fcodecov.io\u002Fgithub\u002Fcvat-ai\u002Fcvat\u002Fbranch\u002Fdevelop\u002Fgraph\u002Fbadge.svg\n[coverage-url]: https:\u002F\u002Fcodecov.io\u002Fgithub\u002Fcvat-ai\u002Fcvat\n[doi-img]: https:\u002F\u002Fzenodo.org\u002Fbadge\u002F139156354.svg\n[doi-url]: https:\u002F\u002Fzenodo.org\u002Fbadge\u002Flatestdoi\u002F139156354\n[discord-img]: https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1000789942802337834?label=discord\n[discord-url]: https:\u002F\u002Fdiscord.gg\u002FfNR3eXfk6C\n[status-img]: https:\u002F\u002Fuptime.betterstack.com\u002Fstatus-badges\u002Fv2\u002Fmonitor\u002F1yl3h.svg\n[status-url]: https:\u002F\u002Fstatus.cvat.ai","# CVAT 快速上手指南\n\nCVAT (Computer Vision Annotation Tool) 是一款功能强大的交互式视频和图像标注工具，广泛应用于计算机视觉领域。本指南将帮助你快速在本地部署并开始使用。\n\n## 环境准备\n\n在开始之前，请确保你的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04\u002F22.04), macOS, 或 Windows (需安装 WSL2)。\n*   **Docker**: 已安装 Docker Engine (版本 20.10+) 和 Docker Compose (版本 2.0+)。\n*   **硬件资源**:\n    *   内存：建议至少 4GB (处理大型数据集或视频时建议 8GB+)。\n    *   磁盘：预留足够的空间存储数据和 Docker 镜像。\n*   **网络**: 能够访问 Docker Hub 拉取镜像（若国内网络受限，建议配置 Docker 镜像加速器）。\n\n> **提示**：国内用户建议在 Docker 配置中添加镜像加速源（如阿里云、腾讯云等），以加快 `cvat\u002Fserver` 和 `cvat\u002Fui` 镜像的拉取速度。\n\n## 安装步骤\n\n推荐使用官方提供的预构建 Docker 镜像进行本地部署，这是最简便的方式。\n\n### 1. 克隆项目仓库\n\n首先，从 GitHub 克隆 CVAT 源代码仓库：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat.git\ncd cvat\n```\n\n### 2. 配置环境变量\n\n复制示例配置文件以生成本地配置：\n\n```bash\ncp docker-compose.yml docker-compose.override.yml\n```\n\n> **注意**：默认配置已适用于大多数本地开发场景。如需修改端口或启用 GPU 支持，可编辑 `docker-compose.override.yml`。\n\n### 3. 启动服务\n\n使用 Docker Compose 启动所有服务（包括服务器、数据库、UI 等）：\n\n```bash\ndocker compose up -d\n```\n\n首次运行会自动下载相关镜像，可能需要几分钟时间。\n\n### 4. 创建管理员账户\n\n服务启动完成后，初始化超级用户账户。将 `\u003Cusername>` 和 `\u003Cpassword>` 替换为你想要的用户名和密码：\n\n```bash\ndocker compose exec -T server python3 .\u002Fmanage.py createsuperuser --username \u003Cusername> --email \u003Cyour-email@example.com>\n```\n\n按提示输入密码即可。\n\n## 基本使用\n\n### 1. 访问 Web 界面\n\n打开浏览器，访问：\n\n```text\nhttp:\u002F\u002Flocalhost:8080\n```\n\n使用刚才创建的账号登录。\n\n### 2. 创建第一个标注任务\n\n1.  点击 **\"Create new task\"**（创建新任务）。\n2.  填写任务名称（Name）和标签名称（Labels，例如 `car,person`）。\n3.  在 **\"Data\"** 部分，点击 **\"Select files\"** 上传本地的图片或视频文件。\n4.  点击 **\"Submit & Open\"** 提交并进入标注界面。\n\n### 3. 开始标注\n\n*   在左侧工具栏选择形状工具（如矩形框、多边形等）。\n*   在图像上绘制标注区域。\n*   使用顶部菜单栏切换帧（如果是视频）或下一张图片。\n*   完成后，点击左上角的 **\"Save\"** 保存进度，或 **\"Exit\"** 退出。\n\n### 4. 导出标注结果\n\n1.  返回任务列表，点击对应的任务。\n2.  点击右上角的 **\"Menu\"** (三个点图标) -> **\"Export dataset\"**。\n3.  选择所需的标注格式（如 MS COCO, YOLO, PASCAL VOC 等）。\n4.  点击 **\"Export\"** 下载标注文件压缩包。\n\n---\n\n**进阶提示**：\n*   **Python SDK**: 可通过 `pip install cvat-sdk` 安装 SDK，使用 Python 脚本自动化管理任务和下载数据。\n*   **自动标注**: CVAT 支持集成深度学习模型（如 SAM, YOLO）进行辅助自动标注，需在部署时额外配置 Serverless 函数。","某自动驾驶初创团队正急需构建一个包含数万张城市道路图像的数据集，用于训练识别行人和交通标志的目标检测模型。\n\n### 没有 cvat 时\n- 标注人员只能使用本地单机软件（如 LabelImg）逐个打开图片，文件分散且无法实时同步进度，协作效率极低。\n- 缺乏统一的质量审核机制，不同标注员对“遮挡行人”的判定标准不一，导致数据集标签噪声大，模型训练效果波动明显。\n- 视频数据需要逐帧拆解为图片再手动标注，耗时费力，且难以利用前后帧的连续性进行快速插值处理。\n- 项目管理者无法直观查看整体标注进度或分配具体任务，沟通成本高昂，经常发生任务重复或遗漏。\n\n### 使用 cvat 后\n- 团队通过 cvat 的云端或私有化部署实现多人在线协同，支持任务自动分发与实时状态同步，标注吞吐量提升数倍。\n- 利用内置的审核工作流和评论功能，资深工程师可直接在画面上修正错误并统一标准，显著降低了标签噪声，提升了模型精度。\n- 针对监控视频数据，cvat 提供强大的视频插值功能，只需标注关键帧即可自动生成中间帧轨迹，视频标注效率提高 80% 以上。\n- 管理者通过可视化仪表盘实时监控各任务进度与人员绩效，灵活调整资源分配，确保项目按时交付。\n\ncvat 通过标准化的协同工作流和智能辅助功能，将原本杂乱低效的数据标注过程转变为高效、可控的工业化生产线。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcvat-ai_cvat_8f361ee9.gif","cvat-ai","cvat.ai","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fcvat-ai_be8acbf3.png","CVAT.ai Corporation",null,"contact+github@cvat.ai","https:\u002F\u002Fcvat.ai","https:\u002F\u002Fgithub.com\u002Fcvat-ai",[84,88,92,96,99,103,107,111,115,119],{"name":85,"color":86,"percentage":87},"Python","#3572A5",43.3,{"name":89,"color":90,"percentage":91},"TypeScript","#3178c6",40.5,{"name":93,"color":94,"percentage":95},"JavaScript","#f1e05a",10.6,{"name":97,"color":98,"percentage":23},"Mustache","#724b3b",{"name":100,"color":101,"percentage":102},"SCSS","#c6538c",1.6,{"name":104,"color":105,"percentage":106},"Open Policy Agent","#7d9199",0.9,{"name":108,"color":109,"percentage":110},"Shell","#89e051",0.4,{"name":112,"color":113,"percentage":114},"HTML","#e34c26",0.3,{"name":116,"color":117,"percentage":118},"Dockerfile","#384d54",0.1,{"name":120,"color":121,"percentage":118},"Go Template","#00ADD8",15556,3629,"2026-04-04T13:37:37","MIT",4,"Linux, macOS, Windows","非必需。支持自动标注的无服务器函数可选使用 GPU（如 Segment Anything 支持 CPU\u002FGPU，部分 OpenVINO 模型仅支持 CPU）。具体显卡型号、显存大小及 CUDA 版本未在文档中明确说明。","未说明",{"notes":131,"python":132,"dependencies":133},"该工具主要推荐通过预构建的 Docker 镜像（cvat\u002Fserver, cvat\u002Fui）进行部署，支持本地 Docker Compose 或 Kubernetes 集群部署。也提供在线版本 (cvat.ai)。自动标注功能依赖特定的无服务器框架（如 Nuclio）和模型后端（PyTorch, OpenVINO, ONNX）。具体的 Python 版本和底层库依赖通常封装在 Docker 容器内，宿主机主要需满足容器运行环境需求。","未说明 (SDK\u002FCLI 通过 pip 安装，具体版本依赖未在片段中列出)",[134,135,136],"Docker","Docker Compose","Kubernetes (可选)",[52,14,13,51],[139,140,141,142,143,144,145,146,147,148,149,150,151,152,153,154,155,156,157,158],"video-annotation","computer-vision","computer-vision-annotation","deep-learning","image-annotation","annotation-tool","annotation","labeling","labeling-tool","image-labeling","image-labelling-tool","boundingbox","image-classification","annotations","imagenet","tensorflow","semantic-segmentation","dataset","object-detection","pytorch",5,"2026-03-27T02:49:30.150509","2026-04-06T05:37:26.503733",[163,168,173,178,182,186],{"id":164,"question_zh":165,"answer_zh":166,"source_url":167},15364,"部署 PyTorch SiamMask 等无服务器模型时遇到 Conda 环境激活或构建失败怎么办？","确保在部署前正确初始化 Conda 环境。如果遇到版本警告或激活问题，请先更新 Conda 到最新版本：\nconda update -n base -c defaults conda\n然后尝试重新激活环境：\nconda activate siammask\n如果是在 Docker 构建过程中失败，请检查 `deploy.sh` 或 `function.yaml` 中的环境配置路径是否正确。","https:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fissues\u002F211",{"id":169,"question_zh":170,"answer_zh":171,"source_url":172},15365,"尝试通过注释后端 urls.py 来禁用注册，但发现仍然可以注册用户，还需要修改哪里？","仅修改后端路由可能不足以完全阻止前端展示注册入口。除了在后端 `cvat\u002Fapps\u002Fiam\u002Furls.py` 中注释掉注册路径外，还必须修改前端文件 `login-form.tsx`，将注册链接的 UI 组件注释掉（参考相关 Issue 中的代码片段），这样才能彻底在前端界面隐藏注册选项。","https:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fissues\u002F1283",{"id":174,"question_zh":175,"answer_zh":176,"source_url":177},15360,"自动标注功能返回 500 服务器错误（Internal Server Error）怎么办？","这通常是因为 Nuclio 硬编码了 docker0 网桥的 IP 地址，而您的环境 IP 不匹配。可以使用 iptables 进行重定向作为临时解决方案。请运行以下命令（将 ${YOUR_DOCKER_0_IP} 替换为您默认的 docker 网桥 IP）：\niptables -t nat -I PREROUTING 1 -d 172.17.0.1 -j DNAT --to ${YOUR_DOCKER_0_IP}","https:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fissues\u002F2189",{"id":179,"question_zh":180,"answer_zh":181,"source_url":172},15361,"如何禁用登录页面的用户自助注册功能以增强安全性？","可以通过修改前端代码隐藏注册入口。在 `login-form.tsx` 文件中，注释掉包含\"New user? Create an account\"链接的代码块。示例代码如下：\n{\u002F* {\n    !credential && (\n        \u003CRow>\n            \u003CCol className='cvat-credentials-link'>\n                \u003CText strong>\n                    New user?&nbsp;\n                    \u003CLink to='\u002Fauth\u002Fregister'>Create an account\u003C\u002FLink>\n                \u003C\u002FText>\n            \u003C\u002FCol>\n        \u003C\u002FRow>\n    )\n} *\u002F}",{"id":183,"question_zh":184,"answer_zh":185,"source_url":167},15362,"在视频跟踪模式下，当目标暂时离开画面或被遮挡时，如何避免删除或隐藏整个轨迹？","请使用\"Outside\"（外部）功能。您可以设置从第 N 帧开始隐藏轨迹，并在第 N+M 帧重新显示，而不是直接删除。操作方法是在设置中启用\"Show all interpolation tracks\"（显示所有插值轨迹），或者创建两个独立的轨迹并使用\"Merge\"（合并）功能将它们连接起来。",{"id":187,"question_zh":188,"answer_zh":189,"source_url":190},15363,"自定义模型自动标注成功后，为什么在图像数据集上看不到标注结果？","这通常是因为任务依赖于项目标签（Project Labels）。如果模型输出的标签与任务所属项目的标签不匹配，标注可能无法显示。需要确保模型返回的标签名称与项目中定义的标签一致，或者在移动任务前以某种方式合并带有新标签的标注。","https:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fissues\u002F2529",[192,197,202,207,212,217,222,227,232,237,242,247,252,257,262,267,272,277,282,287],{"id":193,"version":194,"summary_zh":195,"released_at":196},89990,"v2.62.0","### 新增\n\n- 保存标注指南后显示成功通知 (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10342>)\n\n- Compose for transformers + Helm 支持函数名环境变量 (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10388>)\n\n### 变更\n\n- Rego 策略文件中过滤器的格式已更改；如果您添加了自定义策略文件，可能需要进行更新 (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10387>)\n\n- “移除标注”确认提示信息现更加友好。\n\n- 将“删除”按钮重命名为“移除”，以与提示信息保持一致 (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10407>)\n\n- SAM 模型的默认提示方式由点改为边界框 (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10432>)\n\n- 现在可在控件侧边栏中使用对齐轮廓和对齐点功能 (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10421>)\n\n### 修复\n\n- 通过应用一致的滚动条外边距间距，解决了顶部栏与内容列表（任务、作业、项目、云存储、Webhook 页面）之间的宽度错位问题。(\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10324>)\n\n- 优化了小屏幕（\u003C1000px）资源页面的内容尺寸，以提供更好的响应式布局 (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10324>)\n\n- 导出的 3D 长方体轨迹中的插值形状可能存在无效旋转 (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10413>)\n\n- 修复了在具有后备云存储的任务中，当清单包含不完整路径时的分块生成问题 (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10429>)\n","2026-04-02T12:21:31",{"id":198,"version":199,"summary_zh":200,"released_at":201},89991,"v2.61.0","### 新增\n\n- 多边形和折线编辑中的“吸附到点”功能。启用后，正在移动或绘制的点会自动吸附到其他形状附近的点上（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10353>）。\n\n- 合并工具现支持多边形形状，允许将多个多边形合并为一个统一的多边形。（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10362>）\n\n### 变更\n\n- 控制侧边栏的细微视觉优化（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10374>）。\n\n### 修复\n\n- Helm 可修改权限修复路径和命令（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F7932>）。","2026-03-20T14:23:30",{"id":203,"version":204,"summary_zh":205,"released_at":206},89992,"v2.60.0","### 新增\n\n- 为 YOLO 添加了 Docker + Compose 支持（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10325>）\n\n- 交互器现在可以返回多个形状，而不再局限于单个形状（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10329>）\n\n- 交互器现在可以返回置信度属性。如果存在该属性，UI 中即可对交互结果进行筛选（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10329>）\n\n- 在使用交互器或 OpenCV 工具时，新增了用于移除点和矩形提示的 UI 控件（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10329>）\n\n- 服务器可以在 `POST: \u002Fapi\u002Flambda\u002Ffunctions\u002F\u003Cid>` 请求中，将文本提示作为 `text_prompts` 字段添加到交互器中（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10329>）\n\n### 变更\n\n- 统一了预期的交互器接口，使其与 `\u002Fannotations` API 和 AI 检测器输出保持一致（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10329>）\n\n- 更新了 IoG 无服务器函数，以支持新的交互器接口（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10329>）\n\n### 修复\n\n- 通过将 JavaScript 数组替换为类型化数组，降低了内存占用（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10329>）\n\n- 修复了 `cvat-canvas` 中因未释放对象 URL 而导致的内存泄漏问题（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10329>）\n\n- \\[SDK\\] 修复了 `TasksRepo.create_from_backup`、`ProjectsRepo.create_from_backup` 和 `Task.upload_data` 方法中的崩溃问题。该问题可能在分块上传过程中发生可恢复错误时触发（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10375>）\n","2026-03-17T15:46:38",{"id":208,"version":209,"summary_zh":210,"released_at":211},89993,"v2.59.1","### 修复\n* `.csv` 导出中字符串字段缺少转义处理（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10345>）\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fcompare\u002Fv2.59.0...v2.59.1","2026-03-09T15:34:16",{"id":213,"version":214,"summary_zh":215,"released_at":216},89994,"v2.59.0","### 新增\n\n- 使用 Docker Compose 运行 SAM2 代理（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10272>）\n\n- 增加了将云存储用作本地任务后端存储的支持（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10282>）\n\n- 新增以 `.csv` 表格格式下载项目、任务和作业列表的功能（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10312>）\n\n### 变更\n\n- 将父作业和副本作业的显示方式改为扁平列表。为方便起见，作业现以“父作业”和“副本作业”标签进行标记。默认情况下，副本作业会通过筛选器隐藏，但如有需要也可显示。（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10217>）\n\n- 2D 和 3D 工作区中 Tab\u002FShift+Tab 键的行为现已统一（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10299>）\n\n- 任务页面和作业页面上的筛选器现在会创建新的浏览器历史记录条目，从而支持在不同筛选状态之间使用“返回”和“前进”功能进行导航。（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10217>）\n\n- 模型页面现在始终在 UI 中可见，无论是否安装了无服务器模块（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10333>）\n\n### 已弃用\n\n- \\[服务器 API\\] `GET api\u002Fjobs` 和 `GET api\u002Fjobs\u002F{id}\u002F` 响应：\n\n  - `consensus_replicas` — 已弃用，改用新的 `replicas_count` 字段（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10217>）\n\n- `\u002Fapi\u002Fserver\u002Fplugins` 中的 `MODELS` 属性目前客户端已不再使用，不久将从响应中移除（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10333>）\n\n### 已移除\n\n- 用于基于共识的任务的字段 `consensus_replicas` 已从任务备份中移除。在此更改之前创建的备份仍可导入，但较新的备份则需要使用最新版本的 CVAT。（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10294>）\n\n- `\u002Fapi\u002Fserver\u002Fplugins` 中的已弃用属性 `GIT_INTEGRATION` 和 `PREDICT` 已被移除（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10333>）\n\n### 修复\n\n- `POST \u002Fapi\u002Ftask\u002F\u003Cid>\u002Fdata` 端点在不带尾部斜杠的情况下调用时，现能正确返回 `Location` 头信息（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10266>）\n\n- 在常规作业的审核模式下，真值标注不再被锁定（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10273>）\n","2026-03-06T15:04:16",{"id":218,"version":219,"summary_zh":220,"released_at":221},89995,"v2.58.0","### 新增\n\n- 添加了一个新的标注过滤器，用于查找旋转的边界框和椭圆。（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10291>）\n\n### 修复\n\n- 由于未释放的 GL 资源导致的 3D 画布内存泄漏（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10268>）","2026-02-23T21:04:59",{"id":223,"version":224,"summary_zh":225,"released_at":226},89996,"v2.57.0","### 新增\n\n- 可以逐个更改对象的 zOrder，使用对象菜单中的相应按钮或快捷键（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9063>）\n\n### 修复\n\n- 修复了在更新子项摘要字段时会创建额外的“创建”和“更新”事件，以及这些字段的事件中包含无效数据的问题（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10257>）\n\n- 修复了从云存储中获取任务的空相关图像分块时发生的崩溃问题（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10277>）\n\n- 修复了在指定了至少一张图片和一个目录的情况下，从附加的文件共享创建任务时出现的问题（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10281>）\n","2026-02-17T07:06:37",{"id":228,"version":229,"summary_zh":230,"released_at":231},89997,"v2.56.1","### 已修复\n\n- 共识分数计算始终返回 1.0，无论实际一致性如何 (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10247>)","2026-02-03T07:46:45",{"id":233,"version":234,"summary_zh":235,"released_at":236},89998,"v2.56.0","### 新增\n\n- 增加了按标签对标注进行排序的选项（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9738>）\n\n- 在 UI 中新增基于虚拟“Votes”属性的得分可视化功能，该属性的计算公式为 `score × replica_jobs`（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10172>）\n\n- 现在用户可以在标准模式和审核模式下使用快捷键（默认为 Tab\u002FShift+Tab）在不同形状之间切换（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10172>）\n\n- 审核模式现支持编辑对象。用户可根据需要解锁并编辑单个标注（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10172>）\n\n- 双击侧边栏中的对象现在会将其居中显示在画布上，并展开其详细信息（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10172>）\n\n- 添加了用于在标注页面上通过“Color by”设置切换对象外观的键盘快捷键（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10175>）\n\n- Helm Chart 中为 CVAT 和分析模块分别添加了独立的入口点（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10231>）\n\n### 变更\n\n- 将每个引导文件的最大资产数量从 30 个提升至 150 个（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10185>）\n\n- 共识合并功能现会保留所有形状及其得分，不再受共识阈值限制（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10172>）\n\n### 移除\n\n- 共识投票阈值设置已被移除。所有合并后的标注都将保留其共识得分，用户可直接根据得分阈值筛选结果（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10172>）\n\n### 修复\n\n- 修复了标注引导文件最大资产数量验证缺失的问题（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10185>）\n\n- 在原始标签编辑器中，SVG 字符串内的双引号字符不再显示为 `&quot;`（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10198>）\n\n- 更改标签时，标注的 `source` 字段未被更新（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9886>）\n\n- 修复了当点云位置偏离坐标中心时，3D 场景中相机位置不正确的问题（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10221>）\n\n- 修复了在开发或自定义部署环境中，通过 SDK\u002FCLI 使用 TUS 上传时可能出现的 500 错误（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10227>）\n","2026-02-02T06:10:11",{"id":238,"version":239,"summary_zh":240,"released_at":241},89999,"v2.55.0","### 新增\n\n- 增加了将质量报告下载为混淆矩阵 CSV 文件的选项（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10177>）\n\n### 修复\n\n- 对于 TUS PATCH 请求，改为分块读取 HTTP 请求数据，而不是将整个请求体加载到内存中（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fissues\u002F5261>）\n\n- 在通过 TUS 完成文件上传后，对于 HEAD 请求返回 404 错误，而非 500 内部服务器错误（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fissues\u002F5261>）\n\n- 创建任务时，随视频一起上传的清单文件不再被忽略（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10162>）\n\n- 提升了 Ultralytics YOLO 分类标注导入的性能（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10163>）\n\n- 修复了在下载 3D 标注时出现的 AssertionError 异常。（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10165>）\n\n- 移除了从标注视图发送的冗余 `PATCH: \u002Fapi\u002Fjobs\u002F\u003Cid>\u002Fmeta` 请求（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10184>）\n\n- \\[CLI\\] 修复了代理在重试失败的 AR 获取请求时等待时间不当的问题（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10193>）\n\n- \\[CLI\\] 使代理能够以更健壮的方式处理队列相关 HTTP 请求失败的情况（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10194>）\n\n### 安全性\n\n- 修复了与骨架 SVG 图像相关的 XSS 漏洞（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fsecurity\u002Fadvisories\u002FGHSA-3m7p-wx65-c7mp>）\n\n- 将 OPA 升级至新版本（1.12.2）（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10183>）\n\n- 具有员工身份的用户不再能够更改自己的权限（\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fsecurity\u002Fadvisories\u002FGHSA-7pvv-w55f-qmw7>）\n","2026-01-19T12:56:50",{"id":243,"version":244,"summary_zh":245,"released_at":246},90000,"v2.54.0","### Added\n\n- \\[CLI\\] Added an `Author-email` field to the package metadata (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10143>)\n\n### Changed\n\n- \\[CLI\\] Replaced the deprecated `Home-page` field and license classifier with `Project-URL` and `License-Expression` fields, respectively (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10143>)\n\n### Fixed\n\n- Сonsecutive slicing of shapes without press Escape key (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10107>)\n\n- Inability to access some tasks with videos with bad keyframes (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10152>)\n\n- Related image display in tasks from the attached file share (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10153>)\n","2025-12-24T21:02:07",{"id":248,"version":249,"summary_zh":250,"released_at":251},90001,"v2.53.0","### Changed\n\n- \\[Server API\\] TUS upload endpoints no longer accept requests with no `Content-Length` header (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10098>)\n\n- \\[SDK\\] Package metadata no longer uses the deprecated `Home-page` and `License` fields (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10125>)\n\n### Fixed\n\n- Image scaling was not applied when image filter is enabled (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10111>)\n\n- Fixed TUS resumable upload validation to properly reject chunks that would exceed the declared file size (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10102>)\n\n- \\[SDK\\] Removed the redundant setuptools runtime dependency (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10125>)\n\n### Security\n\n- Fixed a directory traversal vulnerability in the `\u002Fapi\u002Fserver\u002Fshare` endpoint (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fsecurity\u002Fadvisories\u002FGHSA-3g7v-xjh7-xmqx>)\n","2025-12-18T17:46:25",{"id":253,"version":254,"summary_zh":255,"released_at":256},90002,"v2.52.0","### Added\n\n- Video chapters now can be displayed in the frame player and can be used for frame navigation during annotation. (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9924>)\n\n- \"Return to Previous Page\" button on Task, Project, Job, and Cloud Storage Not Found pages (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10028>)\n\n- Double click on a shape in 2D or 3D workspace now fits the shape into scene (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10108>)\n\n- Parameter \"Control points size\" now have effect for points on 3D canvas (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10119>)\n\n### Changed\n\n- It is now possible to back up tasks created from a mounted file share that use static chunk storage (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9972>)\n\n- Updated Nuclio to 1.15.9 (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10091>)\n\n- Reduced RAM usage on track export (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10041>)\n\n- Better zoom-in, zoom-out algorithm on side views of 3D canvas (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10109>)\n\n- Last zoom value on side cameras of 3D canvas memoized per object and restored when object reselected (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10110>)\n\n- Settings AAM Zoom Margin is now more general and responsible for paddings around focused objects (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10108>)\n\n- Improved algorithm for default zoom on side views of 3D canvas (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10120>)\n\n### Removed\n\n- SiamMask and some OpenVINO-based functions (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10091>)\n\n### Fixed\n\n- Backups of tasks created from a mounted file share no longer fail to import. Note that backups of such tasks created by previous versions of CVAT still cannot be imported (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9972>)\n\n- Heavyweight backups created from tasks using cloud storage that have images as frames and non-default start frame, stop frame or frame step settings no longer fail to import. Note that the fix is for backup creation; as such, CVAT will still not be able to import backups of such tasks created by previous versions (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10004>)\n\n- \\[CLI\\] Fixed a truncated error message that could be printed when running an agent for a remote function missing a (sub)label from the loaded AA function (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10070>)\n\n- Fixed creation of tasks from images in cloud storage without a manifest that use static chunks and a custom frame range (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10079>)\n\n- Low visibility of object details over canvas if background or image is dark (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10105>)\n\n- Weird camera behaviour when layout of 3D canvas gets resized (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10117>)\n","2025-12-16T06:09:11",{"id":258,"version":259,"summary_zh":260,"released_at":261},90003,"v2.51.0","### Added\n\n- Documentation for using Backblaze B2 as an S3-compatible cloud storage option in CVAT (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9952>)\n\n### Changed\n\n- Relaxed video manifest creation to make use of keyframes even if seek lands earlier (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9994>)\n\n### Removed\n\n- Python 3.9 support (due to Python 3.9 EOL) (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10051>)\n\n### Fixed\n\n- Fixed OpenAPI schema for `retrieve_data` endpoints: marked `type` parameter as required for both tasks and jobs API (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fissues\u002F9315>)\n\n- Calculation of statistics in the job is failed when there is a track without keyframes (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10050>)\n\n- Update the `updated_date` field of the Task when PATCHing `\u002Fapi\u002Ftasks\u002F\u003Cid>\u002Fdata\u002Fmeta` (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10052>)\n\n- Incorrect retry handling of `429 TooManyRequests` error in case of data uploading via TUS protocol (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10055>)\n\n- Error message is not displayed if not possible to fetch data for 3D canvas (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10059>)\n","2025-12-01T18:30:32",{"id":263,"version":264,"summary_zh":265,"released_at":266},90004,"v2.50.0","### Added\n\n- \\[Helm\\] Kvrocks PVC configuration via annotations (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10021>)\n\n- Added kvrocks PVC VolumeAttributeClass support (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10026>)\n\n- Added VolumeAttributesClass creation to public chart (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10030>)\n\n### Changed\n\n- Change expiration date format view in 'Security' -\\> 'Create API Token' from default ISO to DD\u002FMM\u002FYYYY so that it matches the dates in the token table (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9975>)\n\n- Files located in the `data\u002Ftasks\u002F\u003Cid>` directory are no longer included in task backups, nor extracted from such backups when restoring. Recent versions of CVAT (since v2.6.2) no longer create or use such files (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10001>)\n\n- Updated Traefik to v3.6.x (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10018>)\n\n### Fixed\n\n- Excessive `GET \u002Fapi\u002Fusers` requests on task page for each assigned job (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9989>)\n\n- Actions menu can be opened twice on different resource cards: Projects, Jobs, Cloud storages, etc. (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9986>)\n\n- Quality conflicts can now be displayed in the review mode of consensus replicas (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10022>)\n\n- Fixed cloud storage status. Unavailable storages now return NOT_FOUND status instead of 400 Bad Request (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F10011>)\n","2025-11-26T20:07:04",{"id":268,"version":269,"summary_zh":270,"released_at":271},90005,"v2.49.0","### Added\n\n- Helm charts are now available on Docker Hub, at \u003Chttps:\u002F\u002Fhub.docker.com\u002Fr\u002Fcvat\u002Fcvat> (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9925>)\n\n### Changed\n\n- Admins will no longer see access tokens of other users on the token management page (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9950>)\n\n### Removed\n\n- \\[Server API\\] Removed `GOOGLE_DRIVE` from the list of accepted cloud storage provider types; it has never been implemented (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9928>)\n\n- \\[Server API\\] Only own access tokens will be returned in the `GET \u002Fapi\u002Fauth\u002Faccess_tokens` responses for everyone, including admins (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9950>)\n\n- \\[Server API\\] The `owner` filters are removed from the `GET \u002Fapi\u002Fauth\u002Faccess_tokens` endpoint (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9950>)\n\n- \\[Server API\\] The redundant `storage` parameter of the `POST \u002Fapi\u002Ftasks\u002F\u003Cid>\u002Fdata` endpoint has been removed; the storage location is determined based on other parameters (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fsecurity\u002Fadvisories\u002FGHSA-x396-w86c-gf6w>)\n\n### Fixed\n\n- Improved memory use in project dataset exports (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9913>)\n\n- Aligned the names of cloud storage services in the UI with their official names (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9961>)\n\n- Improved performance of access token editing page in the admin panel (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9971>)\n\n- Incorrect chunk creation for some video files after FFmpeg update (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9974>)\n\n### Security\n\n- Fixed a vulnerability that let users write to the attached network share (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fsecurity\u002Fadvisories\u002FGHSA-x396-w86c-gf6w>)\n","2025-11-06T16:44:55",{"id":273,"version":274,"summary_zh":275,"released_at":276},90006,"v2.48.1","### Removed\n\n- It is no longer possible to upgrade directly from CVAT releases prior to v2.0.0 (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9930>)\n\n### Fixed\n\n- UI crush on failed `GET \u002Fapi\u002Fserver\u002Fannotation\u002Fformats` request (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9927>)\n","2025-10-29T12:00:18",{"id":278,"version":279,"summary_zh":280,"released_at":281},90007,"v2.48.0","### Added\n\n- \\[CLI\\] `CVAT_ACCESS_TOKEN` environment variable can now be used for authentication with an API token (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9563>)\n\n- \\[SDK\\] `Client.login()` and `make_client()` can now be called with an API token (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9563>)\n\n- \\[SDK\\] `make_client()` can now be called with a server URL that contains a port component (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9563>)\n\n- \\[Server API\\] Support for API access tokens (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9680>)\n\n- \\[Server\\] A configuration option to set maximum job limit per task (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9888>)\n\n### Fixed\n\n- Tracks does not leak to other jobs on task export (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9905>)\n\n- Incorrect cloud storage value in tasks within a project after transferring between organizations (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9912>)\n\n- Inefficient memory usage when counting number of objects in tracks when updating job annotations or analytics report computing (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9903>)\n","2025-10-27T18:43:54",{"id":283,"version":284,"summary_zh":285,"released_at":286},90008,"v2.47.0","### Added\n\n- Made disk usage health check threshold configurable and updated documentation (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9870>)\n\n### Changed\n\n- FFmpeg updated to 8.0 (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9552>)\n\n- \\[SDK\\] Enabled retrying on some server error statuses by default (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9880>)\n\n### Fixed\n\n- Improved performance of task creation from cloud without manifest (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9827>)\n","2025-10-14T13:23:29",{"id":288,"version":289,"summary_zh":290,"released_at":291},90009,"v2.46.1","### Security\n\n- Bump Redis version to 7.2.11 to address CVE-2025-49844 (\u003Chttps:\u002F\u002Fgithub.com\u002Fcvat-ai\u002Fcvat\u002Fpull\u002F9876>)\n","2025-10-10T04:33:39"]