[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-CVHub520--X-AnyLabeling":3,"similar-CVHub520--X-AnyLabeling":219},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":18,"owner_location":19,"owner_email":19,"owner_twitter":19,"owner_website":20,"owner_url":20,"languages":21,"stars":38,"forks":39,"last_commit_at":40,"license":41,"difficulty_score":42,"env_os":43,"env_gpu":44,"env_ram":45,"env_deps":46,"category_tags":57,"github_topics":63,"view_count":83,"oss_zip_url":19,"oss_zip_packed_at":19,"status":84,"created_at":85,"updated_at":86,"faqs":87,"releases":118},2913,"CVHub520\u002FX-AnyLabeling","X-AnyLabeling","Effortless data labeling with AI support from Segment Anything and other awesome models.","X-AnyLabeling 是一款功能强大的智能数据标注工具，旨在通过集成先进的 AI 模型，让繁琐的数据标记工作变得轻松高效。它主要解决了传统人工标注耗时费力、成本高昂的痛点，利用 Segment Anything 等前沿模型实现自动检测、分割及识别，大幅提升了标注速度与精度。\n\n这款工具特别适合计算机视觉工程师、AI 研究人员以及需要处理多模态数据的专业团队使用。无论是图像分类、目标检测、精细分割，还是 OCR 文字识别和 3D 立方体标注，X-AnyLabeling 都能提供工业级的解决方案。其独特亮点在于不仅支持“自动标注”，还具备“自动训练”能力，允许用户在标注过程中直接微调模型，形成数据闭环。此外，它还集成了视觉问答（VQA）和聊天机器人功能，支持提示词驱动的概念定位，并兼容 Linux、Windows 和 macOS 系统。通过友好的图形界面和内置设置选项，即使是非深度技术背景的用户也能快速上手，享受智能化带来的便利。","\u003Cdiv align=\"center\">\n  \u003Cp>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002F\" target=\"_blank\">\n      \u003Cimg alt=\"X-AnyLabeling\" height=\"200px\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_20e4e9a834e0.png\">\u003C\u002Fa>\n  \u003C\u002Fp>\n\n[English](README.md) | [简体中文](README_zh-CN.md)\n\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n    \u003Ca href=\".\u002FLICENSE\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-LGPL%20v3-blue.svg\">\u003C\u002Fa>\n    \u003Ca href=\"\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002FCVHub520\u002FX-AnyLabeling?color=ffa\">\u003C\u002Fa>\n    \u003Ca href=\"\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fx-anylabeling-cvhub?logo=pypi&logoColor=white\">\u003C\u002Fa>\n    \u003Ca href=\"\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.11+-aff.svg\">\u003C\u002Fa>\n    \u003Ca href=\"\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fos-linux%2C%20win%2C%20mac-pink.svg\">\u003C\u002Fa>\n    \u003Ca href=\"\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdownloads\u002FCVHub520\u002FX-AnyLabeling\u002Ftotal?label=downloads\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fmodelscope.cn\u002Fcollections\u002FX-AnyLabeling-7b0e1798bcda43\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fmodelscope-X--AnyLabeling-6750FF?link=https%3A%2F%2Fmodelscope.cn%2Fcollections%2FX-AnyLabeling-7b0e1798bcda43\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_339a3f56450b.png)\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_33142b9ecb3e.png\" width=\"100%\" \u002F>\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>Auto-Training\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fc0ab2056-2743-4a2c-ba93-13f478d3481e\" width=\"100%\" controls>\n\u003C\u002Fvideo>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>Auto-Labeling\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Ff517fa94-c49c-4f05-864e-96b34f592079\" width=\"100%\" controls>\n\u003C\u002Fvideo>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>Detect Anything\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_f75622394c84.png\" width=\"100%\" \u002F>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>Segment Anything\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_f1149bfc7d7a.png\" width=\"100%\" \u002F>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>Promptable Concept Grounding\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F52cbdb5d-cc60-4be5-826f-903ea4330ca8\" width=\"100%\" controls>\n\u003C\u002Fvideo>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>VQA\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F53adcff4-b962-41b7-a408-3afecd8d8c82\" width=\"100%\" controls>\n\u003C\u002Fvideo>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>Chatbot\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_7a8f47dca9c1.png\" width=\"100%\" \u002F>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>Image Classifier\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F0652adfb-48a4-4219-9b18-16ff5ce31be0\" width=\"100%\" controls>\n\u003C\u002Fvideo>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>OCR\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F493183fd-6cbe-45fb-9808-ec2b0af7a0f9\" width=\"100%\" controls>\n\u003C\u002Fvideo>\n\u003C\u002Fdetails>\n\n## 🥳 What's New\n\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F4a676ebf-d2ae-4327-b078-8e63a5323793\" width=\"100%\" controls>\n\u003C\u002Fvideo>\n\n- `2026-04-01`: Added support for Japanese and Korean UI languages (`ja_JP`, `ko_KR`).\n- `2026-03-22`: Added support for built-in Settings in the GUI for directly adjusting common options.\n- `2026-03-10`: Added support for 3D Cuboid shape annotation from rectangle.\n- `2026-03-01`: Completed the PyQt5-to-PyQt6 upgrade refactor (Beta release), along with additional feature fixes and optimizations.\n- For more details, please refer to the [CHANGELOG](.\u002FCHANGELOG.md)\n\n## X-AnyLabeling\n\n**X-AnyLabeling** is a powerful annotation tool that integrates an AI engine for fast and automatic labeling. It's designed for multi-modal data engineers, offering industrial-grade solutions for complex tasks.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_0f7dfe891ef2.png\" width=\"100%\" \u002F>\n\nAlso, we highly recommend trying out [X-AnyLabeling-Server](https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling-Server), a simple, lightweight, and extensible framework that enables remote inference capabilities for X-AnyLabeling.\n\n## Features\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_e79768ae7b8c.png\" width=\"100%\" \u002F>\n\n- Supports remote inference service.\n- Processes both `images` and `videos`.\n- Accelerates inference with `GPU` and `FFmpeg` support.\n- Supports UI localization in `English`, `Chinese`, `Japanese`, and `Korean`.\n- Allows custom models and secondary development.\n- Supports one-click inference for all images in the current task.\n- Supports import\u002Fexport for formats like COCO, VOC, YOLO, DOTA, MOT, MASK, PPOCR, MMGD, VLM-R1.\n- Handles tasks like `classification`, `detection`, `segmentation`, `caption`, `rotation`, `tracking`, `estimation`, `ocr`, `vqa`, `grounding` and so on.\n- Supports diverse annotation styles: `polygons`, `rectangles`, `cuboids`, `rotated boxes`, `quadrilaterals`, `circles`, `lines`, `line strips`, `points`, and annotations for `text detection`, `recognition`, and `KIE`.\n\n### Model library\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_6577e21d5690.png\" width=\"100%\" \u002F>\n\n| **Task Category** | **Supported Models** |\n| :--- | :--- |\n| 🖼️ Image Classification | YOLOv5-Cls, YOLOv8-Cls, YOLO11-Cls, InternImage, PULC |\n| 🎯 Object Detection | YOLOv5\u002F6\u002F7\u002F8\u002F9\u002F10, YOLO11\u002F12\u002F26, YOLOX, YOLO-NAS, D-FINE, DAMO-YOLO, Gold_YOLO, RT-DETR, RF-DETR, DEIMv2 |\n| 🖌️ Instance Segmentation | YOLOv5-Seg, YOLOv8-Seg, YOLO11-Seg, YOLO26-Seg, Hyper-YOLO-Seg, RF-DETR-Seg |\n| 🏃 Pose Estimation | YOLOv8-Pose, YOLO11-Pose, YOLO26-Pose, DWPose, RTMO |\n| 👣 Tracking | Bot-SORT, ByteTrack, SAM2\u002F3-Video |\n| 🔄 Rotated Object Detection | YOLOv5-Obb, YOLOv8-Obb, YOLO11-Obb, YOLO26-Obb |\n| 📏 Depth Estimation | Depth Anything |\n| 🧩 Segment Anything | SAM 1\u002F2\u002F3, SAM-HQ, SAM-Med2D, EdgeSAM, EfficientViT-SAM, MobileSAM |\n| ✂️ Image Matting | RMBG 1.4\u002F2.0 |\n| 💡 Proposal | UPN |\n| 🏷️ Tagging | RAM, RAM++ |\n| 📄 OCR | PP-OCRv4, PP-OCRv5, PP-DocLayoutV3, PaddleOCR-VL-1.5 |\n| 🗣️ Vision Foundation Models | Rex-Omni, Florence2 |\n| 👁️ Vision Language Models | Qwen3-VL, Gemini, ChatGPT, GLM |\n| 🛣️ Lane Detection | CLRNet |\n| 📍 Grounding | CountGD, GeCO, Grounding DINO, YOLO-World, YOLOE |\n| 📚 Other | 👉 [model_zoo](.\u002Fdocs\u002Fen\u002Fmodel_zoo.md) 👈 |\n\n## Docs\n\n0. [Remote Inference Service](https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling-Server)\n1. [Installation & Quickstart](.\u002Fdocs\u002Fen\u002Fget_started.md)\n2. [Usage](.\u002Fdocs\u002Fen\u002Fuser_guide.md)\n3. [Command Line Interface](.\u002Fdocs\u002Fen\u002Fcli.md)\n4. [Customize a model](.\u002Fdocs\u002Fen\u002Fcustom_model.md)\n5. [Chatbot](.\u002Fdocs\u002Fen\u002Fchatbot.md)\n6. [VQA](.\u002Fdocs\u002Fen\u002Fvqa.md)\n7. [Multi-class Image Classifier](.\u002Fdocs\u002Fen\u002Fimage_classifier.md)\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_34b98fd8669f.png\" width=\"100%\" \u002F>\n\n## Examples\n\n- [Classification](.\u002Fexamples\u002Fclassification\u002F)\n  - [Image-Level](.\u002Fexamples\u002Fclassification\u002Fimage-level\u002FREADME.md)\n  - [Shape-Level](.\u002Fexamples\u002Fclassification\u002Fshape-level\u002FREADME.md)\n- [Detection](.\u002Fexamples\u002Fdetection\u002F)\n  - [HBB Object Detection](.\u002Fexamples\u002Fdetection\u002Fhbb\u002FREADME.md)\n  - [OBB Object Detection](.\u002Fexamples\u002Fdetection\u002Fobb\u002FREADME.md)\n- [Segmentation](.\u002Fexamples\u002Fsegmentation\u002FREADME.md)\n  - [Instance Segmentation](.\u002Fexamples\u002Fsegmentation\u002Finstance_segmentation\u002F)\n  - [Binary Semantic Segmentation](.\u002Fexamples\u002Fsegmentation\u002Fbinary_semantic_segmentation\u002F)\n  - [Multiclass Semantic Segmentation](.\u002Fexamples\u002Fsegmentation\u002Fmulticlass_semantic_segmentation\u002F)\n- [Description](.\u002Fexamples\u002Fdescription\u002F)\n  - [Tagging](.\u002Fexamples\u002Fdescription\u002Ftagging\u002FREADME.md)\n  - [Captioning](.\u002Fexamples\u002Fdescription\u002Fcaptioning\u002FREADME.md)\n- [Estimation](.\u002Fexamples\u002Festimation\u002F)\n  - [Pose Estimation](.\u002Fexamples\u002Festimation\u002Fpose_estimation\u002FREADME.md)\n  - [Depth Estimation](.\u002Fexamples\u002Festimation\u002Fdepth_estimation\u002FREADME.md)\n- [OCR](.\u002Fexamples\u002Foptical_character_recognition\u002F)\n  - [Text Recognition](.\u002Fexamples\u002Foptical_character_recognition\u002Ftext_recognition\u002F)\n  - [Key Information Extraction](.\u002Fexamples\u002Foptical_character_recognition\u002Fkey_information_extraction\u002FREADME.md)\n- [MOT](.\u002Fexamples\u002Fmultiple_object_tracking\u002FREADME.md)\n  - [Tracking by HBB Object Detection](.\u002Fexamples\u002Fmultiple_object_tracking\u002FREADME.md)\n  - [Tracking by OBB Object Detection](.\u002Fexamples\u002Fmultiple_object_tracking\u002FREADME.md)\n  - [Tracking by Instance Segmentation](.\u002Fexamples\u002Fmultiple_object_tracking\u002FREADME.md)\n  - [Tracking by Pose Estimation](.\u002Fexamples\u002Fmultiple_object_tracking\u002FREADME.md)\n- [iVOS](.\u002Fexamples\u002Finteractive_video_object_segmentation)\n  - [SAM2-Video](.\u002Fexamples\u002Finteractive_video_object_segmentation\u002Fsam2\u002FREADME.md)\n  - [SAM3-Video](.\u002Fexamples\u002Finteractive_video_object_segmentation\u002Fsam3\u002FREADME.md)\n- [Matting](.\u002Fexamples\u002Fmatting\u002F)\n  - [Image Matting](.\u002Fexamples\u002Fmatting\u002Fimage_matting\u002FREADME.md)\n- [Vision-Language](.\u002Fexamples\u002Fvision_language\u002F)\n  - [Rex-Omni](.\u002Fexamples\u002Fvision_language\u002Frexomni\u002FREADME.md)\n  - [Florence 2](.\u002Fexamples\u002Fvision_language\u002Fflorence2\u002FREADME.md)\n- [Counting](.\u002Fexamples\u002Fcounting\u002F)\n  - [GeCo](.\u002Fexamples\u002Fcounting\u002Fgeco\u002FREADME.md)\n- [Grounding](.\u002Fexamples\u002Fgrounding\u002F)\n  - [YOLOE](.\u002Fexamples\u002Fgrounding\u002Fyoloe\u002FREADME.md)\n  - [SAM 3](.\u002Fexamples\u002Fgrounding\u002Fsam3\u002FREADME.md)\n- [Training](.\u002Fexamples\u002Ftraining\u002F)\n  - [Ultralytics](.\u002Fexamples\u002Ftraining\u002Fultralytics\u002FREADME.md)\n\n\n## Contribute\n\nWe believe in open collaboration! **X‑AnyLabeling** continues to grow with the support of the community. Whether you're fixing bugs, improving documentation, or adding new features, your contributions make a real impact.\n\nTo get started, please read our [Contributing Guide](.\u002FCONTRIBUTING.md) and make sure to agree to the [Contributor License Agreement (CLA)](.\u002FCLA.md) before submitting a pull request.\n\nIf you find this project helpful, please consider giving it a ⭐️ star! Have questions or suggestions? Open an [issue](https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fissues) or email us at cv_hub@163.com.\n\nA huge thank you 🙏 to everyone helping to make X‑AnyLabeling better.\n\n## License\n\nThis project is licensed under the [GPL-3.0 license](.\u002FLICENSE) and is completely open source and free. The original intention is to enable more developers, researchers, and enterprises to conveniently use this AI application platform, promoting the development of the entire industry. We encourage everyone to use it freely (including commercial use), and you can also add features based on this project and commercialize it, but you must retain the brand identity and indicate the source project address.\n\nAdditionally, to understand the ecosystem and usage of X-AnyLabeling, if you use this project for academic, research, teaching, or enterprise purposes, please fill out the [registration form](https:\u002F\u002Fforms.gle\u002FMZCKhU7UJ4TRSWxR7). This registration is only for statistical purposes and will not incur any fees. We will strictly keep all information confidential.\n\nX-AnyLabeling is independently developed and maintained by an individual. If this project has been helpful to you, we welcome your support through the donation links below to help sustain the project's continued development. Your support is the greatest encouragement! If you have any questions about the project or would like to collaborate, please feel free to contact via WeChat: ww10874 or email provided above.\n\n## Sponsors\n\n- [buy-me-a-coffee](https:\u002F\u002Fko-fi.com\u002Fcvhub520)\n- [Wechat\u002FAlipay](https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fblob\u002Fmain\u002FREADME_zh-CN.md#%E8%B5%9E%E5%8A%A9)\n\n## Acknowledgement\n\nI extend my heartfelt thanks to the developers and contributors of [AnyLabeling](https:\u002F\u002Fgithub.com\u002Fvietanhdev\u002Fanylabeling), [LabelMe](https:\u002F\u002Fgithub.com\u002Fwkentaro\u002Flabelme), [LabelImg](https:\u002F\u002Fgithub.com\u002Ftzutalin\u002FlabelImg), [roLabelImg](https:\u002F\u002Fgithub.com\u002Fcgvict\u002FroLabelImg), [PPOCRLabel](https:\u002F\u002Fgithub.com\u002FPFCCLab\u002FPPOCRLabel) and [CVAT](https:\u002F\u002Fgithub.com\u002Fopencv\u002Fcvat), whose work has been crucial to the success of this project.\n\n## Citing\n\nIf you use this software in your research, please cite it as below:\n\n```\n@misc{X-AnyLabeling,\n  year = {2023},\n  author = {Wei Wang},\n  publisher = {Github},\n  organization = {CVHub},\n  journal = {Github repository},\n  title = {Advanced Auto Labeling Solution with Added Features},\n  howpublished = {\\url{https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling}}\n}\n```\n\n---\n\n![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_5aa2641da344.png)\n\n\u003Cdiv align=\"center\">\u003Ca href=\"#top\">🔝 Back to Top\u003C\u002Fa>\u003C\u002Fdiv>\n","\u003Cdiv align=\"center\">\n  \u003Cp>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002F\" target=\"_blank\">\n      \u003Cimg alt=\"X-AnyLabeling\" height=\"200px\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_20e4e9a834e0.png\">\u003C\u002Fa>\n  \u003C\u002Fp>\n\n[English](README.md) | [简体中文](README_zh-CN.md)\n\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n    \u003Ca href=\".\u002FLICENSE\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-LGPL%20v3-blue.svg\">\u003C\u002Fa>\n    \u003Ca href=\"\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002FCVHub520\u002FX-AnyLabeling?color=ffa\">\u003C\u002Fa>\n    \u003Ca href=\"\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fx-anylabeling-cvhub?logo=pypi&logoColor=white\">\u003C\u002Fa>\n    \u003Ca href=\"\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.11+-aff.svg\">\u003C\u002Fa>\n    \u003Ca href=\"\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fos-linux%2C%20win%2C%20mac-pink.svg\">\u003C\u002Fa>\n    \u003Ca href=\"\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdownloads\u002FCVHub520\u002FX-AnyLabeling\u002Ftotal?label=downloads\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fmodelscope.cn\u002Fcollections\u002FX-AnyLabeling-7b0e1798bcda43\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fmodelscope-X--AnyLabeling-6750FF?link=https%3A%2F%2Fmodelscope.cn%2Fcollections%2FX-AnyLabeling-7b0e1798bcda43\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_339a3f56450b.png)\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_33142b9ecb3e.png\" width=\"100%\" \u002F>\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>Auto-Training\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fc0ab2056-2743-4a2c-ba93-13f478d3481e\" width=\"100%\" controls>\n\u003C\u002Fvideo>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>Auto-Labeling\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Ff517fa94-c49c-4f05-864e-96b34f592079\" width=\"100%\" controls>\n\u003C\u002Fvideo>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>Detect Anything\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_f75622394c84.png\" width=\"100%\" \u002F>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>Segment Anything\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_f1149bfc7d7a.png\" width=\"100%\" \u002F>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>Promptable Concept Grounding\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F52cbdb5d-cc60-4be5-826f-903ea4330ca8\" width=\"100%\" controls>\n\u003C\u002Fvideo>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>VQA\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F53adcff4-b962-41b7-a408-3afecd8d8c82\" width=\"100%\" controls>\n\u003C\u002Fvideo>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>Chatbot\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_7a8f47dca9c1.png\" width=\"100%\" \u002F>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>Image Classifier\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F0652adfb-48a4-4219-9b18-16ff5ce31be0\" width=\"100%\" controls>\n\u003C\u002Fvideo>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>OCR\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F493183fd-6cbe-45fb-9808-ec2b0af7a0f9\" width=\"100%\" controls>\n\u003C\u002Fvideo>\n\u003C\u002Fdetails>\n\n## 🥳 最新动态\n\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F4a676ebf-d2ae-4327-b078-8e63a5323793\" width=\"100%\" controls>\n\u003C\u002Fvideo>\n\n- `2026-04-01`: 新增对日语和韩语界面语言的支持（`ja_JP`、`ko_KR`）。\n- `2026-03-22`: 在 GUI 中新增内置设置功能，可直接调整常用选项。\n- `2026-03-10`: 新增从矩形标注快速生成 3D 立方体标注的功能。\n- `2026-03-01`: 完成 PyQt5 到 PyQt6 的升级重构（Beta 版本），并修复了多项功能问题及优化性能。\n- 更多详情请参阅 [CHANGELOG](.\u002FCHANGELOG.md)。\n\n## X-AnyLabeling\n\n**X-AnyLabeling** 是一款功能强大的标注工具，集成了 AI 引擎，支持快速自动标注。它专为多模态数据工程师设计，提供面向复杂任务的工业级解决方案。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_0f7dfe891ef2.png\" width=\"100%\" \u002F>\n\n此外，我们强烈推荐您尝试 [X-AnyLabeling-Server](https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling-Server)，这是一个简单、轻量且可扩展的框架，能够为 X-AnyLabeling 提供远程推理能力。\n\n## 功能特性\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_e79768ae7b8c.png\" width=\"100%\" \u002F>\n\n- 支持远程推理服务。\n- 同时处理图像和视频数据。\n- 通过 GPU 和 FFmpeg 加速推理。\n- 支持英语、中文、日语和韩语界面本地化。\n- 允许自定义模型及二次开发。\n- 支持一键对当前任务中的所有图像进行推理。\n- 支持 COCO、VOC、YOLO、DOTA、MOT、MASK、PPOCR、MMGD、VLM-R1 等多种格式的导入导出。\n- 能够完成分类、检测、分割、字幕生成、旋转、跟踪、估计、OCR、VQA、概念定位等多种任务。\n- 支持丰富的标注样式：多边形、矩形、立方体、旋转框、四边形、圆形、直线、折线、点，以及文本检测、识别和 KIE 标注。\n\n### 模型库\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_6577e21d5690.png\" width=\"100%\" \u002F>\n\n| **任务类别** | **支持的模型** |\n| :--- | :--- |\n| 🖼️ 图像分类 | YOLOv5-Cls、YOLOv8-Cls、YOLO11-Cls、InternImage、PULC |\n| 🎯 目标检测 | YOLOv5\u002F6\u002F7\u002F8\u002F9\u002F10、YOLO11\u002F12\u002F26、YOLOX、YOLO-NAS、D-FINE、DAMO-YOLO、Gold_YOLO、RT-DETR、RF-DETR、DEIMv2 |\n| 🖌️ 实例分割 | YOLOv5-Seg、YOLOv8-Seg、YOLO11-Seg、YOLO26-Seg、Hyper-YOLO-Seg、RF-DETR-Seg |\n| 🏃 姿势估计 | YOLOv8-Pose、YOLO11-Pose、YOLO26-Pose、DWPose、RTMO |\n| 👣 跟踪 | Bot-SORT、ByteTrack、SAM2\u002F3-Video |\n| 🔄 旋转目标检测 | YOLOv5-Obb、YOLOv8-Obb、YOLO11-Obb、YOLO26-Obb |\n| 📏 深度估计 | Depth Anything |\n| 🧩 Segment Anything | SAM 1\u002F2\u002F3、SAM-HQ、SAM-Med2D、EdgeSAM、EfficientViT-SAM、MobileSAM |\n| ✂️ 图像抠图 | RMBG 1.4\u002F2.0 |\n| 💡 提案 | UPN |\n| 🏷️ 标签 | RAM、RAM++ |\n| 📄 OCR | PP-OCRv4、PP-OCRv5、PP-DocLayoutV3、PaddleOCR-VL-1.5 |\n| 🗣️ 视觉基础模型 | Rex-Omni、Florence2 |\n| 👁️ 视觉语言模型 | Qwen3-VL、Gemini、ChatGPT、GLM |\n| 🛣️ 车道检测 | CLRNet |\n| 📍 概念定位 | CountGD、GeCO、Grounding DINO、YOLO-World、YOLOE |\n| 📚 其他 | 👉 [model_zoo](.\u002Fdocs\u002Fen\u002Fmodel_zoo.md) 👈 |\n\n## 文档\n\n0. [远程推理服务](https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling-Server)\n1. [安装与快速入门](.\u002Fdocs\u002Fen\u002Fget_started.md)\n2. [使用指南](.\u002Fdocs\u002Fen\u002Fuser_guide.md)\n3. [命令行界面](.\u002Fdocs\u002Fen\u002Fcli.md)\n4. [自定义模型](.\u002Fdocs\u002Fen\u002Fcustom_model.md)\n5. [聊天机器人](.\u002Fdocs\u002Fen\u002Fchatbot.md)\n6. [VQA](.\u002Fdocs\u002Fen\u002Fvqa.md)\n7. [多类图像分类器](.\u002Fdocs\u002Fen\u002Fimage_classifier.md)\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_34b98fd8669f.png\" width=\"100%\" \u002F>\n\n## 示例\n\n- [分类](.\u002Fexamples\u002Fclassification\u002F)\n  - [图像级](.\u002Fexamples\u002Fclassification\u002Fimage-level\u002FREADME.md)\n  - [形状级](.\u002Fexamples\u002Fclassification\u002Fshape-level\u002FREADME.md)\n- [检测](.\u002Fexamples\u002Fdetection\u002F)\n  - [HBB目标检测](.\u002Fexamples\u002Fdetection\u002Fhbb\u002FREADME.md)\n  - [OBB目标检测](.\u002Fexamples\u002Fdetection\u002Fobb\u002FREADME.md)\n- [分割](.\u002Fexamples\u002Fsegmentation\u002FREADME.md)\n  - [实例分割](.\u002Fexamples\u002Fsegmentation\u002Finstance_segmentation\u002F)\n  - [二值语义分割](.\u002Fexamples\u002Fsegmentation\u002Fbinary_semantic_segmentation\u002F)\n  - [多类语义分割](.\u002Fexamples\u002Fsegmentation\u002Fmulticlass_semantic_segmentation\u002F)\n- [描述](.\u002Fexamples\u002Fdescription\u002F)\n  - [标签化](.\u002Fexamples\u002Fdescription\u002Ftagging\u002FREADME.md)\n  - [字幕生成](.\u002Fexamples\u002Fdescription\u002Fcaptioning\u002FREADME.md)\n- [估计](.\u002Fexamples\u002Festimation\u002F)\n  - [姿态估计](.\u002Fexamples\u002Festimation\u002Fpose_estimation\u002FREADME.md)\n  - [深度估计](.\u002Fexamples\u002Festimation\u002Fdepth_estimation\u002FREADME.md)\n- [OCR](.\u002Fexamples\u002Foptical_character_recognition\u002F)\n  - [文本识别](.\u002Fexamples\u002Foptical_character_recognition\u002Ftext_recognition\u002F)\n  - [关键信息提取](.\u002Fexamples\u002Foptical_character_recognition\u002Fkey_information_extraction\u002FREADME.md)\n- [MOT](.\u002Fexamples\u002Fmultiple_object_tracking\u002FREADME.md)\n  - [基于HBB目标检测的跟踪](.\u002Fexamples\u002Fmultiple_object_tracking\u002FREADME.md)\n  - [基于OBB目标检测的跟踪](.\u002Fexamples\u002Fmultiple_object_tracking\u002FREADME.md)\n  - [基于实例分割的跟踪](.\u002Fexamples\u002Fmultiple_object_tracking\u002FREADME.md)\n  - [基于姿态估计的跟踪](.\u002Fexamples\u002Fmultiple_object_tracking\u002FREADME.md)\n- [iVOS](.\u002Fexamples\u002Finteractive_video_object_segmentation)\n  - [SAM2-视频](.\u002Fexamples\u002Finteractive_video_object_segmentation\u002Fsam2\u002FREADME.md)\n  - [SAM3-视频](.\u002Fexamples\u002Finteractive_video_object_segmentation\u002Fsam3\u002FREADME.md)\n- [抠图](.\u002Fexamples\u002Fmatting\u002F)\n  - [图像抠图](.\u002Fexamples\u002Fmatting\u002Fimage_matting\u002FREADME.md)\n- [视觉-语言](.\u002Fexamples\u002Fvision_language\u002F)\n  - [Rex-Omni](.\u002Fexamples\u002Fvision_language\u002Frexomni\u002FREADME.md)\n  - [Florence 2](.\u002Fexamples\u002Fvision_language\u002Fflorence2\u002FREADME.md)\n- [计数](.\u002Fexamples\u002Fcounting\u002F)\n  - [GeCo](.\u002Fexamples\u002Fcounting\u002Fgeco\u002FREADME.md)\n- [定位](.\u002Fexamples\u002Fgrounding\u002F)\n  - [YOLOE](.\u002Fexamples\u002Fgrounding\u002Fyoloe\u002FREADME.md)\n  - [SAM 3](.\u002Fexamples\u002Fgrounding\u002Fsam3\u002FREADME.md)\n- [训练](.\u002Fexamples\u002Ftraining\u002F)\n  - [Ultralytics](.\u002Fexamples\u002Ftraining\u002Fultralytics\u002FREADME.md)\n\n\n## 贡献\n\n我们坚信开放协作的力量！**X‑AnyLabeling** 在社区的支持下不断发展壮大。无论您是修复 bug、改进文档，还是添加新功能，您的贡献都将产生实实在在的影响。\n\n要开始贡献，请阅读我们的[贡献指南](.\u002FCONTRIBUTING.md)，并在提交 pull request 之前务必同意[贡献者许可协议（CLA）](.\u002FCLA.md)。\n\n如果您觉得这个项目很有帮助，请考虑给它点个 ⭐️ 星！如有任何问题或建议，请在 [GitHub 仓库](https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fissues) 上提交 issue，或发送邮件至 cv_hub@163.com。\n\n衷心感谢每一位为 X‑AnyLabeling 的完善做出贡献的人！\n\n## 许可证\n\n本项目采用 [GPL-3.0 许可协议](.\u002FLICENSE)，完全开源且免费。其初衷是让更多的开发者、研究人员和企业能够便捷地使用这一 AI 应用平台，从而推动整个行业的发展。我们鼓励大家自由使用（包括商业用途），也可以在此基础上增加功能并进行商业化，但必须保留品牌标识，并注明源项目地址。\n\n此外，为了更好地了解 X‑AnyLabeling 的生态及使用情况，若您将该项目用于学术、科研、教学或企业用途，请填写[注册表单](https:\u002F\u002Fforms.gle\u002FMZCKhU7UJ4TRSWxR7)。此注册仅用于统计目的，不会收取任何费用，我们将严格保密所有信息。\n\nX‑AnyLabeling 由个人独立开发和维护。若本项目对您有所帮助，欢迎您通过以下捐赠链接支持我们，以帮助项目持续发展。您的支持是我们最大的动力！如您对项目有任何疑问或希望合作，请随时通过微信：ww10874 或上述邮箱与我们联系。\n\n## 赞助商\n\n- [buy-me-a-coffee](https:\u002F\u002Fko-fi.com\u002Fcvhub520)\n- [微信\u002F支付宝](https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fblob\u002Fmain\u002FREADME_zh-CN.md#%E8%B5%9E%E5%8A%A9)\n\n## 致谢\n\n我衷心感谢 [AnyLabeling](https:\u002F\u002Fgithub.com\u002Fvietanhdev\u002Fanylabeling)、[LabelMe](https:\u002F\u002Fgithub.com\u002Fwkentaro\u002Flabelme)、[LabelImg](https:\u002F\u002Fgithub.com\u002Ftzutalin\u002FlabelImg)、[roLabelImg](https:\u002F\u002Fgithub.com\u002Fcgvict\u002FroLabelImg)、[PPOCRLabel](https:\u002F\u002Fgithub.com\u002FPFCCLab\u002FPPOCRLabel) 和 [CVAT](https:\u002F\u002Fgithub.com\u002Fopencv\u002Fcvat) 的开发者和贡献者们，他们的工作对本项目的成功至关重要。\n\n## 引用\n\n如果您在研究中使用了本软件，请按如下方式引用：\n\n```\n@misc{X-AnyLabeling,\n  year = {2023},\n  author = {Wei Wang},\n  publisher = {Github},\n  organization = {CVHub},\n  journal = {Github 仓库},\n  title = {具有附加功能的先进自动标注解决方案},\n  howpublished = {\\url{https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling}}\n}\n```\n\n---\n\n![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_readme_5aa2641da344.png)\n\n\u003Cdiv align=\"center\">\u003Ca href=\"#top\">🔝 返回顶部\u003C\u002Fa>\u003C\u002Fdiv>","# X-AnyLabeling 快速上手指南\n\nX-AnyLabeling 是一款集成了 AI 引擎的强大标注工具，支持自动标注、多模态数据处理及多种主流格式导出。它专为数据工程师设计，提供工业级的复杂任务解决方案。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Linux, Windows, 或 macOS\n*   **Python 版本**：3.11 或更高版本 (`python --version` 检查)\n*   **硬件加速（可选但推荐）**：\n    *   **GPU**：若需加速推理，请确保已安装适配的 NVIDIA 驱动及 CUDA 环境。\n    *   **FFmpeg**：处理视频数据时需要安装 FFmpeg。\n\n## 2. 安装步骤\n\n推荐使用 Python 包管理器 `pip` 进行安装。国内用户建议使用清华源或阿里源以加速下载。\n\n### 方式一：通过 PyPI 安装（推荐）\n\n```bash\n# 使用国内镜像源加速安装\npip install x-anylabeling-cvhub -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 方式二：从源码安装（适合开发者）\n\n如果您需要最新功能或进行二次开发，可以从 GitHub 克隆源码安装：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling.git\ncd X-AnyLabeling\npip install -e . -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n> **注意**：首次运行时，工具会自动下载默认的 AI 模型文件。请确保网络连接畅通，或者参考官方文档配置本地模型路径。\n\n## 3. 基本使用\n\n安装完成后，您可以通过命令行直接启动图形界面（GUI）。\n\n### 启动工具\n\n在终端中输入以下命令：\n\n```bash\nx-anylabeling\n```\n\n### 快速标注流程\n\n1.  **加载数据**：\n    *   启动后，点击左侧菜单栏的 `Open Dir` 打开包含图片或视频的文件夹。\n    *   支持拖拽文件直接导入。\n\n2.  **选择模型**：\n    *   在顶部工具栏的模型下拉菜单中，选择您需要的 AI 模型（例如：`YOLOv8-Detection`, `SAM2-Segmentation`, `PaddleOCR` 等）。\n    *   如果是首次使用某模型，系统会自动下载权重文件。\n\n3.  **自动标注**：\n    *   **单张处理**：打开一张图片，点击右侧面板的 `Run` 按钮（或快捷键），AI 将自动识别并生成标注框\u002F掩码。\n    *   **批量处理**：点击顶部菜单 `AI` -> `Run AI Model on All Images`，可一键完成当前文件夹下所有数据的自动标注。\n\n4.  **人工修正与保存**：\n    *   对 AI 生成的标注进行微调（移动顶点、修改类别标签等）。\n    *   按下 `Ctrl + S` 保存标注文件。默认保存格式为 JSON，可在 `设置` 中更改导出格式（如 COCO, YOLO, VOC 等）。\n\n### 高级功能提示\n\n*   **视频标注**：直接加载视频文件，利用 `SAM2-Video` 或 `ByteTrack` 等模型进行视频目标跟踪与分割。\n*   **远程推理**：若本地显存不足，可部署 [X-AnyLabeling-Server](https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling-Server)，在 GUI 设置中配置远程服务器地址进行云端推理。\n*   **多语言支持**：界面支持中文、英文、日文和韩文切换，可在 `Settings` -> `Language` 中调整。","某自动驾驶初创公司的数据团队正急需为城市道路测试视频中的数千帧图像标注车辆、行人及交通标志，以训练下一代感知模型。\n\n### 没有 X-AnyLabeling 时\n- 标注员需手动逐帧绘制多边形框选目标，处理一张复杂路口图像平均耗时 5 分钟，人力成本极高。\n- 面对遮挡严重或远距离的小目标，人工判断易出现漏标或边界不准，导致模型训练噪声大。\n- 团队缺乏统一的自动化流程，不同标注员的标准难以对齐，后期质检与返工占据了项目 40% 的时间。\n- 仅支持基础的 2D 框选，无法快速生成用于 3D 感知训练的立方体（Cuboid）标注，限制了算法迭代方向。\n\n### 使用 X-AnyLabeling 后\n- 利用集成的 Segment Anything 模型，标注员只需点击目标即可自动生成精准掩码，单图处理时间缩短至 30 秒。\n- 通过\"Detect Anything\"和交互式修正功能，即使是被部分遮挡的车辆也能被智能识别并微调边界，数据一致性显著提升。\n- 内置的自动预标注流程让模型先跑一遍初稿，人工仅需复核修改，质检效率提升 3 倍，项目交付周期大幅提前。\n- 直接支持从矩形框一键转换为 3D Cuboid 标注，无需切换工具即可满足多模态感知数据的生产需求。\n\nX-AnyLabeling 将原本劳动密集型的标注工作转变为“人机协作”的高效模式，让数据团队能以十分之一的成本快速产出高质量训练数据。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCVHub520_X-AnyLabeling_339a3f56.png","CVHub520","CVHub","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FCVHub520_0c7e308a.png","Welcome to CVHub!","DJI",null,"https:\u002F\u002Fgithub.com\u002FCVHub520",[22,26,30,34],{"name":23,"color":24,"percentage":25},"Python","#3572A5",97.7,{"name":27,"color":28,"percentage":29},"Cuda","#3A4E3A",2.1,{"name":31,"color":32,"percentage":33},"C++","#f34b7d",0.2,{"name":35,"color":36,"percentage":37},"Shell","#89e051",0,8627,925,"2026-04-03T14:41:12","GPL-3.0",3,"Linux, Windows, macOS","非必需，但支持 GPU 加速推理（需 NVIDIA GPU 及相应 CUDA 环境），具体型号和显存取决于所选模型（如 SAM、YOLO 系列等）","未说明",{"notes":47,"python":48,"dependencies":49},"该工具集成了多种 AI 模型（如 YOLO, SAM, PaddleOCR 等），首次运行或切换模型时可能需要下载较大的模型文件。支持通过 X-AnyLabeling-Server 进行远程推理。界面支持中、英、日、韩多语言。","3.11+",[50,51,52,53,54,55,56],"PyQt6","onnxruntime","torch","ultralytics","paddleocr","transformers","ffmpeg-python",[58,59,60,61,62],"语言模型","数据工具","开发框架","插件","图像",[64,65,66,67,68,69,70,71,72,73,74,75,76,77,78,79,51,80,81,82],"sam","yolo","deep-learning","clip","object-detection","pose-estimation","artificial-intelligence","computer-vision","groundingdino","image-annotation-tool","image-classification","image-labeling-tool","image-matting","instance-segmentation","machine-learning","ocr","paddlepaddle","rotated-object-detection","vision-language-model",8,"ready","2026-03-27T02:49:30.150509","2026-04-11T16:52:58.772061",[88,93,98,103,108,113],{"id":89,"question_zh":90,"answer_zh":91,"source_url":92},13478,"如何清理旧项目的残留标签或模型？直接在软件运行时删除源文件可以吗？","绝对不要在软件运行时直接删除源文件，这是极其危险的操作，会导致数据损坏或程序崩溃。正确的做法是先关闭程序，然后再进行文件删除操作。具体的操作流程已在用户手册中明确文档化（参考：https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fblob\u002Fmain\u002Fdocs\u002Fzh_cn\u002Fuser_guide.md#12-%E5%88%A0%E9%99%A4%E6%95%B0%E6%8D%AE）。如果需要刷新文件夹或处理缺失文件，请确保程序处于关闭状态或按照文档指引操作。","https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fissues\u002F988",{"id":94,"question_zh":95,"answer_zh":96,"source_url":97},13479,"加载 YOLOv5 分割模型（.pt 转 .onnx）时程序闪退且无报错信息，如何解决？","如果程序直接闪退且没有报错信息，通常是因为环境配置不正确，特别是 CUDA 版本与 ONNX Runtime 不匹配。建议如下：\n1. 如果不熟悉环境配置，建议先使用 CPU 版本运行。\n2. 如果必须使用 GPU，请仔细检查 CUDA 版本（如 12.1）是否与安装的 onnxruntime-gpu 版本兼容。具体配置指南请参考官方文档：https:\u002F\u002Fonnxruntime.ai\u002Fdocs\u002Fexecution-providers\u002FCUDA-ExecutionProvider.html。\n3. 尝试通过源码运行程序以便查看具体的报错堆栈信息，从而定位问题。","https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fissues\u002F306",{"id":99,"question_zh":100,"answer_zh":101,"source_url":102},13480,"导出的 YOLO 格式标签文件全是 0kb，且图片被删除了，是怎么回事？","导出文件为 0kb 通常意味着当前图片没有任何标注数据，或者标注未被正确保存。YOLO 格式的规范是：只有包含标注的图片才会生成对应的 .txt 文件，若无标注则不生成文件或生成空文件（取决于具体实现逻辑，标准 YOLO 数据集通常只列出有标注的图片）。\n关于图片被“自动删除”的情况，请检查是否误操作了“清理”功能或在导出设置中选择了移除未标注图片。正常的 YOLO 格式数据集结构可参考官方定义：https:\u002F\u002Fdocs.ultralytics.com\u002Fzh\u002Fdatasets\u002Fdetect\u002F。请确保在导出前已对图片进行了有效的标注并保存。","https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fissues\u002F933",{"id":104,"question_zh":105,"answer_zh":106,"source_url":107},13481,"如何自定义标注完成后标签框的颜色？默认颜色与目标太接近看不清怎么办？","目前软件支持在标注过程中控制矩形框的颜色，但标注完成后的显示颜色可能受默认主题限制。如果默认颜色与目标颜色过于接近导致难以分辨，可以尝试以下方法：\n1. 检查软件设置中是否有“标签颜色映射”或“自定义调色板”选项（部分版本支持 UI 直接选择）。\n2. 如果 UI 不支持直接修改，可能需要通过修改配置文件或源码来调整默认颜色映射表。\n3. 维护者已在后续更新中优化了相关体验，建议下载最新版本尝试，新版本可能提供了更直观的颜色选择 UI。","https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fissues\u002F487",{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},13482,"导入已有的 COCO 或其他格式标注数据集时闪退，或形状类型（shape_type）不匹配怎么办？","导入外部数据集时出现闪退或形状类型错误（如期望 polygon 却识别为 rectangle），通常是因为 JSON 文件中的 `shape_type` 字段与实际几何形状不符。解决方法如下：\n1. 手动编辑 JSON 标注文件，将错误的 `shape_type`（例如 \"rectangle\"）修改为正确的类型（例如 \"polygon\"）。\n2. 如果有条件，建议使用源码运行模式，这样可以捕获具体的异常堆栈信息，便于调试。\n3. 确保下载并使用最新版本的软件，新版本对格式兼容性和稳定性做了大量修复。","https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fissues\u002F94",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},13483,"垂直屏幕下微调长矩形框时，使用方向键会导致框体移位或变形，如何解决？","这是一个已知的问题，特别是在显示器垂直放置且标注对象为细长矩形时，使用键盘方向键微调可能会引发坐标计算偏差导致框体移位。维护者已确认该问题并正在持续改进中。临时建议：\n1. 尽量使用鼠标拖拽顶点进行微调，而非键盘方向键。\n2. 保持软件更新至最新版本，该问题在后续版本中已得到修复或显著改善，现在可以进行更精细的位置调整。","https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fissues\u002F632",[119,124,129,134,139,144,149,154,159,164,169,174,179,184,189,194,199,204,209,214],{"id":120,"version":121,"summary_zh":122,"released_at":123},72222,"v4.0.0-beta.3","\r\n\u003Cimg width=\"1920\" height=\"1031\" alt=\"图片\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F4e9f0c51-e7b9-4e31-b283-28d814f4f897\" \u002F>\r\n\r\n\r\n> PyPI：https:\u002F\u002Fpypi.org\u002Fproject\u002Fx-anylabeling-cvhub\u002F\r\n> 百度网盘：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\r\n\r\n> [!注意]\r\n> 由于不同系统之间的兼容性问题，如果预编译版本在您的机器上无法正常运行，您可以尝试从源代码构建并运行。有关详细信息，请参阅官方安装指南和用户文档。\n\n### 🚀 新特性\n\n- 添加统一的设置面板，用于集中式应用配置。(#1226)\n- 增加由矩形生成的3D长方体形状标注。(#162)\n\n### 🐛 问题修复\n\n- 防止在未加载任何模型的情况下触发自动标注快捷键时程序崩溃。\n- 解决 `uv sync` 的额外冲突，并统一支持的 Python 版本。(#1325)\n\n### 🛠️ 功能改进\n\n- 批量更新形状可见性，并在筛选器生效时禁用可见性切换。\n- 在中文常见问题解答中澄清模型重新下载的故障排除方法。(#1328)\n\n### 🌟 贡献者\n\n本次发布共有 1 名开发者参与贡献。\n\n感谢 @CVHub520\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv4.0.0-beta.2...v4.0.0-beta.3","2026-03-26T17:13:53",{"id":125,"version":126,"summary_zh":127,"released_at":128},72223,"v4.0.0-beta.2","> PyPI：https:\u002F\u002Fpypi.org\u002Fproject\u002Fx-anylabeling-cvhub\u002F\n> 百度网盘：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\n\n> [!NOTE]\n> 由于不同系统之间的兼容性问题，如果预编译版本在您的机器上无法正常运行，您可以尝试从源代码构建并运行。有关详细信息，请参阅官方安装指南和用户文档。\n\n### 🚀 新特性\n\n- 添加索引搜索模式，以便通过图像在文件列表中的位置来定位图像。\n- 引入形状转换对话框，用于形状转换工作流。\n- 在绘制起点位于 pixmap 边界外时，新增支持创建线段条带。（#1144）\n\n### 🐛 修复的 bug\n\n- 将自动标注推理结果与源图像绑定，以防止应用过时的结果。\n- 更新属性重置逻辑，使其遵循画布上的最后一个形状。（#1316）\n- 改进姿态配置加载的验证及标签转换中的错误处理。\n- 更新文件对话框模式，使用 `QtWidgets` 枚举以提高与 PyQt6 的兼容性。\n- 延迟 GUI 导入，并延迟解析配置\u002F数据路径，以修复 `--work-dir` 启动问题。\n- 当当前图像为空时，禁止画布绘图。（#391）\n\n### 🛠️ 改进\n\n- 在 `packaging\u002Fpyinstaller\u002Fspecs` 下添加 PyInstaller 规范文件。\n- 增强 Windows 版 PyInstaller 规范中 MSVC 运行时 DLL 的收集。\n- 更新开发依赖项。\n- 添加关于 `ReadProcessMemory` 启动错误的常见问题解答故障排除说明。\n\n### 🌟 贡献者\n\n本次发布共有 1 名开发者参与贡献。\n\n感谢 @CVHub520\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv4.0.0-beta.1...v4.0.0-beta.2","2026-03-05T17:36:23",{"id":130,"version":131,"summary_zh":132,"released_at":133},72224,"v4.0.0-beta.1","\u003Cimg width=\"1920\" height=\"1029\" alt=\"图片\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F47448113-3908-4860-a6ee-6b673b9d0b32\" \u002F>\n\n> PyPI：https:\u002F\u002Fpypi.org\u002Fproject\u002Fx-anylabeling-cvhub\u002F\n> 百度网盘：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\n\n> [!注意]\n> 由于不同系统之间的兼容性问题，如果预编译版本在您的机器上无法正常运行，您可以尝试从源代码构建并运行。有关详细信息，请参阅官方安装指南和用户文档。\n\n### 🚀 新特性\n\n- 【重大变更】将应用程序中的 GUI 框架从 PyQt5 迁移到 PyQt6，包括 QtWebEngine 和作用域枚举 API 的更新。（#1087）\n- 添加外观主题支持，包含“系统”、“亮色”和“暗色”模式。（#315、#741、#937）\n- 在多模型工作流的自动标注中添加类别筛选对话框支持（YOLO 系列、RT-DETR、RF-DETR、DAMO YOLO、YOLO-NAS 及相关模型）。（#905）\n- 在自动标注面板中添加可取消的模型下载功能，并实时显示进度。（#40）\n- 在绘制“line”和“linestrip”时，新增按 Shift 键对齐水平\u002F垂直线段的功能。（#1312）\n- 新增四边形形状标注（T），并支持 PPOCR 标签转换中的四边形导入导出。（#705）\n- 新增画笔多边形绘制模式，可配置点间距。（#799）\n- 在编辑模式下新增双击标签进行编辑的功能。\n\n### 🐛 问题修复\n\n- 修复 InternImage 配置类型映射（internimage_cls）。\n- 修复因 ffmpeg 输出管道未被消费而导致视频帧提取进度卡住的问题。（#1309）\n- 修复旋转形状的裁剪行为，确保几何图形始终位于 pixmap 边界内。（#1268）\n- 修复画布中形状属性的 h 和 w 显示不正确的问题。\n\n### 🛠️ 优化改进\n\n- 优化大型数据集下的图像切换性能。（#757）\n- 将 PyInstaller 资产重新组织到 packaging\u002Fpyinstaller\u002F 目录下，并改进打包构建中 ONNXRuntime 的运行时启动流程。\n- 更新 PyQt6 时代环境下的打包和依赖配置，移除遗留的 requirements*.txt 文件。\n\n### 🌟 贡献者\n\n本次发布共有 1 名开发者参与贡献。\n\n感谢 @CVHub520！\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv3.3.10...v4.0.0-beta.1","2026-03-01T05:53:10",{"id":135,"version":136,"summary_zh":137,"released_at":138},72225,"v3.3.10","> PyPI：https:\u002F\u002Fpypi.org\u002Fproject\u002Fx-anylabeling-cvhub\u002F\n> 百度网盘：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\n\n> [!NOTE]\n> 由于不同系统之间的兼容性问题，如果预编译版本在您的机器上无法正常运行，您可以尝试从源代码构建并运行。有关详细信息，请参阅官方安装指南和用户文档。\n\n### 🚀 新特性\n\n- 尊重 auto_highlight_shape 设置，并在其启用时禁用滚轮编辑（矩形框编辑）\n- 在标签小部件中添加对自定义属性类型（group_id、lineedit）的处理\n\n### 🐛 错误修复\n\n- 为 YOLO26 变体添加包含小部件配置的 Meta 类 (#1280)\n- 解决当图片位于多个子文件夹中时仅从当前文件夹导出的问题 (#1303)\n- 改进对 torch、cuda 和 mps 可用性检查中的错误处理 (#1294)\n- 解决打包后的 exe 文件中复制应用信息时界面卡死的问题（关于对话框）\n- 去除属性组合框中重复的 group_id 选项 (#1304)\n- 修复与属性面板更新相关的多个 bug (#1301)\n- 修复绘图断言崩溃问题 (#1296)\n- 修复自动标注后切换模式时偶尔出现的 GUI 崩溃\n- 修复因 shape.py 中 self.points 为空而导致的 GUI 崩溃 (#1295)\n- 修复拼写错误 (#1299)\n\n### 🛠️ 改进\n\n- 添加关于使用 Ultralytics 训练的预编译 EXE 时出现错误的 FAQ 条目 (#1100)\n- 在分类形状级别的 README 中添加 group_id 和 lineedit 属性示例\n\n### 🌟 贡献者\n\n共有 6 名开发者为本次发布做出了贡献。\n\n感谢 @Jingnan-Jia、@ParshikovMM、@hehuaiyu、@jk4e、@yuliangzhong 和 @CVHub520\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv3.3.9...v3.3.10","2026-02-14T17:45:58",{"id":140,"version":141,"summary_zh":142,"released_at":143},72226,"v3.3.9","https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F493183fd-6cbe-45fb-9808-ec2b0af7a0f9\n\n> PyPI：https:\u002F\u002Fpypi.org\u002Fproject\u002Fx-anylabeling-cvhub\u002F\n> 百度网盘：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\n\n> [!NOTE]\n> 由于不同系统之间的兼容性问题，如果预编译版本在您的机器上无法正常运行，您可以尝试从源代码构建并运行。有关详细信息，请参阅官方安装指南和用户文档。\n\n### 🚀 新特性\n\n- 添加对 [PP-DocLayoutV3](https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fblob\u002Fmain\u002Fexamples\u002Foptical_character_recognition\u002Fdocument_layout_analysis\u002FREADME.md) 和 [PaddleOCR-VL-1.5](https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fblob\u002Fmain\u002Fexamples\u002Foptical_character_recognition\u002Fmulti_task\u002FREADME.md) 模型的支持 (#1226)\n\n### 🐛 错误修复\n\n- 修复 Grounding DINO 系列模型中的标签解码问题 (#1286)\n- 加载未标注图像时清除图像描述\n\n### 🛠️ 改进\n\n- 更新 README 和模型库文档\n- 在 AGPL-3.0 许可下为 Ultralytics 添加许可声明\n\n### 🌟 贡献者\n\n本次发布共有 1 名开发者做出贡献。\n\n感谢 @CVHub520\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv3.3.8...v3.3.9","2026-02-02T16:13:55",{"id":145,"version":146,"summary_zh":147,"released_at":148},72227,"v3.3.8","\u003Cimg width=\"2310\" height=\"540\" alt=\"图片\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F24398333-23ba-4303-9800-c0f3f2038fda\" \u002F>\n\n> PyPI：https:\u002F\u002Fpypi.org\u002Fproject\u002Fx-anylabeling-cvhub\u002F\n> 百度网盘：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\n\n> [!注意]\n> 由于不同系统之间的兼容性问题，如果预编译版本在您的机器上无法正常运行，您可以尝试从源代码构建并运行。有关详细信息，请参阅官方安装指南和用户文档。\n\n### 🚀 新特性\n\n- 添加 YOLO26 分割\u002F姿态\u002F旋转边界框模型 (#1226)\n\n### 🌟 贡献者\n\n共有 2 名开发者为本次发布做出了贡献。\n\n感谢 @iPengXPro、@CVHub520\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv3.3.7...v3.3.8","2026-01-28T14:42:43",{"id":150,"version":151,"summary_zh":152,"released_at":153},72228,"v3.3.7","\u003Cimg width=\"1920\" height=\"1029\" alt=\"对比视图\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F83a607b9-4fc1-4fd0-914c-a7fa9b4f3070\" \u002F>\n\n> PyPI：https:\u002F\u002Fpypi.org\u002Fproject\u002Fx-anylabeling-cvhub\u002F\n> 百度网盘：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\n\n> [!注意]\n> 由于不同系统之间的兼容性问题，如果预编译版本在您的机器上无法正常运行，您可以尝试从源代码构建并运行。有关详细信息，请参阅官方安装指南和用户文档。\n\n### 🚀 新特性\n\n- 在 PPOCR 模型的批处理模式中添加自动跳过检测支持 (#687)\n- 引入对比视图功能，用于并排比较图像，从而提升红外\u002F可见光融合、掩码预览和超分辨率等任务的易用性 (#1269)\n\n### 🌟 贡献者\n\n共有 2 名开发者为本次发布做出了贡献。\n\n感谢 @xy200303 和 @CVHub520\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv3.3.6...v3.3.7","2026-01-25T06:32:26",{"id":155,"version":156,"summary_zh":157,"released_at":158},72229,"v3.3.6","\u003Cimg width=\"2366\" height=\"1192\" alt=\"图片\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F21c6b36b-30f8-4a09-bf52-00b7cab2c54b\" \u002F>\n\n\u003Cp align=\"center\">\n  视频演示：\n  \u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FwUTFtcFhfoY\">Youtube\u003C\u002Fa> & \n  \u003Ca href=\"https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV15sz7BqETx\">Bilibili\u003C\u002Fa>\n\u003C\u002Fp>\n\n> PyPI：https:\u002F\u002Fpypi.org\u002Fproject\u002Fx-anylabeling-cvhub\u002F\n> 百度网盘：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\n\n> [!NOTE]\n> 由于不同系统之间的兼容性问题，如果预编译版本在您的机器上无法正常运行，您可以尝试从源代码构建并运行。有关详细信息，请参阅官方安装指南和用户文档。\n\n### 🚀 新特性\n\n- 添加对 Rex-Omni 统一视觉模型的支持 (#1223)\n- 添加 YOLO26 目标检测模型 (#1226)\n- 在项目目录中检测到模型时，新增导出现有模型或重新训练的选项 (#1226)\n- 增加 '--work-dir' 参数，用于配置工作目录 (#1226)\n- 将远程服务器设置持久化保存到用户配置中 (#1267)\n- 简化 PyInstaller 构建中的多进程支持参数处理 (#1180)\n\n### 🐛 修复的 bug\n\n- 修复标题进度条显示问题\n\n### 🛠️ 改进\n\n- 为 YOLO-Pose 关键点 ID 问题添加 FAQ 条目 (#1270)\n- 更新安装指南\n\n### 🌟 贡献者\n\n本次发布共有 2 名开发者参与贡献。\n\n感谢 @zhixuwei、@CVHub520\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv3.3.5...v3.3.6","2026-01-23T18:37:28",{"id":160,"version":161,"summary_zh":162,"released_at":163},72230,"v3.3.5","https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F2df80f0d-53ab-409f-9f43-51eb9c2d1db2\n\n> PyPI：https:\u002F\u002Fpypi.org\u002Fproject\u002Fx-anylabeling-cvhub\u002F\n> 百度网盘：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\n\n> [!NOTE]\n> 由于不同系统之间的兼容性问题，如果预编译版本在您的机器上无法正常运行，您可以尝试从源代码构建并运行。有关详细信息，请参阅官方安装指南和用户文档。\n\n### 🚀 新特性\n\n- 引入强大的文件搜索功能，支持文本、正则表达式和属性过滤 (#1264)\n- 在概览对话框中增强形状信息显示，包括困难形状高亮显示和双击导航功能 (#1264)\n- 在形状和画布渲染中为困难形状应用虚线样式 (#1264)\n- 将遮罩不透明度配置集成到画布渲染中\n- 为形状添加半透明遮罩渲染，并支持切换功能（Ctrl+M）\n\n### 🐛 问题修复\n\n- 抑制 stderr 输出并过滤命令行参数\n- 标签修改后立即刷新画布\n\n### 🌟 贡献者\n\n本次发布共有 1 名开发者参与贡献。\n\n感谢 @CVHub520\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv3.3.4...v3.3.5","2026-01-10T18:05:47",{"id":165,"version":166,"summary_zh":167,"released_at":168},72231,"v3.3.4","\r\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F4a676ebf-d2ae-4327-b078-8e63a5323793\r\n\r\n使用 X-AnyLabeling + Segment Anything 3 进行视频目标检测与分割 3 [[文档](https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fblob\u002Fmain\u002Fexamples\u002Finteractive_video_object_segmentation\u002Fsam3\u002FREADME.md)]\r\n\r\n> PyPI：https:\u002F\u002Fpypi.org\u002Fproject\u002Fx-anylabeling-cvhub\u002F\r\n> 百度网盘：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\r\n\r\n> [!NOTE]\r\n> 由于不同系统之间的兼容性问题，如果预编译版本在您的机器上无法正常运行，您可以尝试从源代码构建并运行。有关详细信息，请参阅官方安装指南和用户文档。\r\n\r\n### 🚀 新特性\r\n\r\n- 添加对基于 SAM3 的“跟踪概念”的支持，同时支持视觉提示和文本提示 (#1258)\r\n- 添加 file_list_checkbox_editable 选项，用于控制文件列表中复选框的可编辑性 (#678)\r\n- 添加 project_readonly 配置项，用于控制项目的可编辑性 (#1242)\r\n- 改进远程服务器对话框，以配置 URL 和 API 密钥 (#1241)\r\n- 添加对修改 remote_server URL 的支持 (#1241)\r\n- 添加对 PTH 和 PT 模型验证的支持 (#1241)\r\n- 增加双击功能，可将标签文本复制到剪贴板 (#1236)\r\n\r\n### 🐛 修复的 bug\r\n\r\n- 通过使用 pathlib 修复 Windows 系统中的图像文件计数错误 (#1258)\r\n- 规范任务类型选择，并为未知任务类型添加警告 (#1253)\r\n- 确保导航器对话框中可见时已设置图像 (#1220)\r\n- 解决 venv 可编辑安装模式下的资源加载失败问题 (#1250)\r\n- 处理 AutoLabelingResult 中 replace 参数为 None 的情况\r\n\r\n### 🛠️ 改进\r\n\r\n- 更新用户指南，增加关于 YOLO 标签文件目录放置位置的说明 (#1259)\r\n- 更新用户指南，加入新的 SAM3 视频跟踪功能 (#1258)\r\n\r\n### 🌟 贡献者\r\n\r\n本次发布共有 2 名开发者参与贡献。\r\n\r\n感谢 @Atletico1999、@CVHub520\r\n\r\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv3.3.3...v3.3.4","2026-01-03T16:42:41",{"id":170,"version":171,"summary_zh":172,"released_at":173},72232,"v3.3.3","# Small Object Detection\r\n\r\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F1d4b1071-29ed-4e4f-843d-1c77772c05c4\r\n\r\n> PyPI: https:\u002F\u002Fpypi.org\u002Fproject\u002Fx-anylabeling-cvhub\u002F\r\n> Baidu Cloud: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\r\n\r\n### 🚀 New Features\r\n\r\n- Add cropping mode for improved small object detection in SAM (#1193)\r\n\r\n### 🐛 Bug Fixes\r\n\r\n- Clarify frame extraction interval label to avoid ambiguity\r\n\r\n### 🛠️ Improvements\r\n\r\n- Remove deprecated method from remote server\r\n\r\n### 🌟 Contributors\r\n\r\nA total of 2 developers contributed to this release.\r\n\r\nThank @fystero, @CVHub520\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv3.3.2...v3.3.3","2025-12-07T14:46:19",{"id":175,"version":176,"summary_zh":177,"released_at":178},72233,"v3.3.2","# Segment Anything 3\r\n\r\nDocs: https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fblob\u002Fmain\u002Fexamples\u002Fgrounding\u002Fsam3\u002FREADME.md\r\n\r\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fd442d08b-fff7-4673-9a61-1b4ea6862f7d\r\n\r\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F5a953314-2611-42fc-81b7-90fbe3b018ee\r\n\r\n> PyPI: https:\u002F\u002Fpypi.org\u002Fproject\u002Fx-anylabeling-cvhub\u002F\r\n> Baidu Cloud: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\r\n\r\n### 🚀 New Features\r\n\r\n- Add support for SAM3 model with text and visual promptable segmentation (#1207)\r\n- Add concurrent batch processing support for chatbot (#1222)\r\n- Enable EXIF scanning option in configuration and update label widget to utilize it (#1220)\r\n- Add depth calibration feature for Depth Anything model (#1201)\r\n\r\n### 🐛 Bug Fixes\r\n\r\n- Improve wheel event handling in chat messages (#1222)\r\n- Handle missing annotations for frames and log warnings in label converter (#1219)\r\n- Improve progress dialog updates and error handling during frame extraction (#1219)\r\n- Prevent unnecessary updates to navigator shapes when dialog is not visible (#1220)\r\n- Resolve list index out of range and timeout issues in chatbot\r\n- Correct indentation for data file loading logic in ultralytics dialog (#1216)\r\n\r\n### 🛠️ Improvements\r\n\r\n- Enhance FrameExtractionDialog layout and input styling for improved user experience (#1219)\r\n- Increase API timeout to 300s for chatbot (#1222)\r\n\r\n### 🌟 Contributors\r\n\r\nA total of 2 developers contributed to this release.\r\n\r\nThank @wangxiaobo775, @CVHub520\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv3.3.1...v3.3.2","2025-11-30T17:21:44",{"id":180,"version":181,"summary_zh":182,"released_at":183},72234,"v3.3.1","> PyPI: https:\u002F\u002Fpypi.org\u002Fproject\u002Fx-anylabeling-cvhub\u002F\r\n> Baidu Cloud: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\r\n\r\n### 🚀 New Features\r\n\r\n- Support dynamic label deletion from unique label list via Label Manager (#1191)\r\n- Add remote server model support for text-prompted batch processing\r\n\r\n### 🌟 Contributors\r\n\r\nA total of 1 developers contributed to this release.\r\n\r\nThank @CVHub520\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv3.3.0...v3.3.1","2025-11-10T15:39:42",{"id":185,"version":186,"summary_zh":187,"released_at":188},72235,"v3.3.0","[![X-AnyLabeling-Server](https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F77e7c252-f184-4681-8687-ed720b8c6b37)](https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling-Server)\r\n\r\n> PyPI: https:\u002F\u002Fpypi.org\u002Fproject\u002Fx-anylabeling-cvhub\u002F\r\n> Baidu Cloud: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\r\n\r\n### 🚀 New Features\r\n\r\n- Add real-time instance segmentation model based on RF-DETR-Seg (#1184)\r\n- Add support for remote inference via X-AnyLabeling-Server (#1175)\r\n- Add shape visibility control in Label Manager for showing\u002Fhiding labels on canvas (#1172)\r\n- Add CLI support for conversion tasks (#980)\r\n- Add batch operations for video frame sequences (thanks @ltnetcase) (#1128)\r\n- Add multi-label classification mode support\r\n- Add device support for RTMDet and RTMO models\r\n- Support customizable rotation increments (#1174)\r\n- Support customizable attribute label colors in config file (#1178)\r\n- Auto refresh model list and remove uninstalled models in chatbot\r\n- Reset flags from current data on dialog initialization\r\n\r\n### 🐛 Bug Fixes\r\n\r\n- Preserve existing color and opacity for labels in LabelModifyDialog (#1185)\r\n- Resolve group ID persistence across undo\u002Fedit operations (#1149)\r\n- Ensure shapes are stored after label updates in the labeling widget (#1149)\r\n- Handle non-ASCII paths in VOC annotation export on Windows (#1181)\r\n- Enhance ONNX model validation with error handling and timeout management (#1180)\r\n- Implement subprocess integrity check for ONNX models\r\n- Apply sigmoid to logits for proper threshold comparison in GroundingSAM2 (thanks @tiucamaria) (#1179)\r\n- Restore PyQt5 support for macOS\r\n- Improve bounding box precision by removing int() truncation (thanks @xusuyong) (#1159)\r\n- Fix empty keypoints check in RTMDet pose models\r\n\r\n### 🛠️ Improvements\r\n\r\n- Add detailed explanation on copy-paste functionality for annotation objects (#1183)\r\n- Add troubleshooting information for ImportError related to expat module (#1158)\r\n- Fix typos in README files\r\n- Fix image panel resizing and simplify background styling in classifier dialog\r\n- Add requests package to dependencies\r\n\r\n### 🌟 Contributors\r\n\r\nA total of 6 developers contributed to this release.\r\n\r\nThank @Liyulingyue, @ltnetcase, @tiucamaria, @xusuyong, @jk4e, @CVHub520\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv3.2.6...v3.3.0","2025-11-07T06:33:41",{"id":190,"version":191,"summary_zh":192,"released_at":193},72236,"v3.2.6","https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F5e7d786e-8208-4fec-a66b-23254f353019\r\n\r\n> Baidu Cloud: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\r\n\r\n### 🚀 New Features\r\n\r\n- Add support for using backspace key to delete the last vertex when creating polygon and line shapes (#1151)\r\n- Introduce DEIMv2 real-time object detector\r\n- Add the ability to process all images at once with the Florence-2 model (#1152)\r\n- Add max_det parameter for maximum detections in YOLO model (#1142)\r\n\r\n### 🐛 Bug Fixes\r\n\r\n- Enable auto_use_last_gid for digit shortcuts and reset on image switch (#1149)\r\n\r\n### 🛠️ Improvements\r\n\r\n- Add troubleshooting steps for exporting empty Mask images (#1153)\r\n- Update rotation increments to radians and format degree display\r\n\r\n### 🌟 Contributors\r\n\r\nA total of 4 developers contributed to this release.\r\n\r\nThank @lhj5426, @sckiyo, @Vlad188-1, @CVHub520\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv3.2.5...v3.2.6","2025-10-02T13:57:02",{"id":195,"version":196,"summary_zh":197,"released_at":198},72237,"v3.2.5","> Baidu Cloud: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\r\n\r\n### 🚀 New Features\r\n\r\n- Add Group ID Manager feature with Ctrl+Shift+G shortcut for auto-using last group ID (#1143)\r\n\r\n### 🐛 Bug Fixes\r\n\r\n- Fix image folder loading delays by implementing async EXIF detection (#e4bf7f6)\r\n\r\n### 🛠️ Improvements\r\n\r\n- Update Group ID Manager section in user guide (#1146)\r\n- Add --qt-platform argument for improved performance on Fedora KDE environments (#1145)\r\n\r\n### 🌟 Contributors\r\n\r\nA total of 2 developers contributed to this release.\r\n\r\nThank @vodnikss, @CVHub520\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv3.2.4...v3.2.5","2025-09-29T14:11:32",{"id":200,"version":201,"summary_zh":202,"released_at":203},72238,"v3.2.4","https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F0652adfb-48a4-4219-9b18-16ff5ce31be0\r\n\r\n> Baidu Cloud: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\r\n\r\n### 🚀 New Features\r\n\r\n- Introduce a dedicated multi-class image classifier with a streamlined workflow (#480)\r\n- Add support for Ultralytics image classification tasks\r\n- Add support for deleting group IDs from objects (#1141)\r\n- Add checkboxes for description and label visibility control (#1139)\r\n- Add loop select labels functionality for sequential shape selection (#1138)\r\n- Add support for drawing rectangle shapes outside canvas with auto-clipping (#1137)\r\n- Add radio button support for attribute selection (#1135)\r\n- Add an option to skip empty label files when creating YOLO datasets and update the UI (#1131)\r\n- Add an option to preserve existing annotations when uploading YOLO labels (#1125)\r\n- Add custom provider support for the chatbot and enhance the model dropdown feature\r\n- Add cross-widget reference support in VQA dialog using `@widget_title` syntax\r\n- Add support for paths wrapped in quotes for models and data\r\n- Add select\u002Fdeselect all shapes feature (#1092)\r\n- Implement keyboard shortcuts for image navigation (A\u002FD)\r\n\r\n### 🐛 Bug Fixes\r\n\r\n- Resolve inconsistent attribute behavior after shape creation and switching (#1134)\r\n- Ensure linestrip's vertex is drawn regardless of selection state (#1134)\r\n- Resolve issue where CUDA device count returns 0 after model export in Ultralytics training (#1126)\r\n- Fix Windows path separator error in `train_script.py`\r\n- Fix inconsistent shape order when using existing shapes for recognition in PP-OCR\r\n- Fix issue where group ID info was only updated after successful modification\r\n\r\n### 🛠️ Improvements\r\n\r\n- Auto-update the attributes panel after shape creation (#1134)\r\n- Improve shape selection logic for point and line types to enhance user interaction (#1134)\r\n- Enhance shape selection for partial re-recognition in PP-OCR (#1113)\r\n- Enhance AI prompts in VQA with cross-component and annotation data references\r\n- Preserve original shape properties when skipping detection in OCR (#1116)\r\n\r\n### 🌟 Contributors\r\n\r\nA total of 3 developers contributed to this release.\r\n\r\nThank @sckiyo, @Vlad188-1, @CVHub520\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv3.2.3...v3.2.4","2025-09-28T16:00:10",{"id":205,"version":206,"summary_zh":207,"released_at":208},72239,"v3.2.3","\u003Cimg width=\"1920\" height=\"1080\" alt=\"navigator-2\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fc79726f2-ecf6-4b65-adec-eae662c7c6ef\" \u002F>\r\n\r\n> Baidu Cloud: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\r\n\r\n### 🚀 New Features\r\n\r\n- Implement EXIF orientation processing for images during import, with user feedback and backup features\r\n- Add mask fineness control slider for SAM series models to adjust segmentation precision (#1114)\r\n- Add Re-recognition feature for PP-OCR models (#1113)\r\n- Add support for PP-OCRv5 model (#1113)\r\n- Add copy coordinates to clipboard feature\r\n- Add circle to polygon transform feature (#1112)\r\n- Add Navigator feature for high-resolution image navigation and zoom control (#1102)\r\n- Add refresh button to sync data with main window and display success popup for VQA Dialog\r\n- Enable shapes field export for VQA Dialog\r\n\r\n### 🐛 Bug Fixes\r\n\r\n- Fix 'gbk' codec decode error on windows during Ultralytics traning (#1115)\r\n- Prevent deleting label file when \"Keep Previous Annotation\" is enabled by showing a warning to disable it first\r\n- Fix Chinese character path support in crop image saving\r\n- Enable ONNX Runtime library linking in x-anylabeling-*-gpu.spec\r\n- Fix first image showing old dataset data after refresh in VQA dialog\r\n\r\n### 🛠️ Improvements\r\n\r\n- Enhance window title to display current image progress (#936)\r\n- Adjust label bounding box calculations for improved text positioning\r\n- Improve circle label positioning to center display\r\n- Streamline color retrieval by using parent method for RGB values in LabelModifyDialog\r\n- Update field count in VQA ExportLabelsDialog for accurate table height calculation and make table items non-editable\r\n- Enhance button styles and dialog layout for improved user experience\r\n- Enhance Ultralytics train\u002Fval dataset split with true randomization (#1095)\r\n- Optimize the experience of adjusting the shape (#1094)\r\n\r\n### 🌟 Contributors\r\n\r\nA total of 6 developers contributed to this release.\r\n\r\nThank @Einstellung, @lhj5426, @sckiyo, @xiaomaxiao, @zhixuwei, @CVHub520\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv3.2.2...v3.2.3","2025-09-14T06:21:12",{"id":210,"version":211,"summary_zh":212,"released_at":213},72240,"v3.2.2","https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F53adcff4-b962-41b7-a408-3afecd8d8c82\r\n\r\n> Baidu Cloud: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\r\n\r\n### 🚀 New Features\r\n\r\n- Support batch editing for multiple shapes (#1084)\r\n- Introduce AI Assistant for VQA\r\n- Add prompt template management to VQA\r\n- Enhance VQA dialog with a new UI including sidebar toggles, streamlined navigation controls, improved page navigation, loading indicators, and updated button styles\r\n\r\n### 🐛 Bug Fixes\r\n\r\n- Fix issue with dragging and moving the image (#1088)\r\n\r\n### 🛠️ Improvements\r\n\r\n- Optimize SAM inference memory management (#1086)\r\n\r\n### 🌟 Contributors\r\n\r\nA total of 4 developers contributed to this release.\r\n\r\nThank @jdobbang, @zhaoruibing, @zhixuwei, @CVHub520\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv3.2.1...v3.2.2","2025-08-31T02:17:21",{"id":215,"version":216,"summary_zh":217,"released_at":218},72241,"v3.2.1","\u003Cimg width=\"643\" height=\"805\" alt=\"image\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F965a4818-daaa-4dfa-9b19-d2fd7587f1cd\" \u002F>\r\n\r\n> Baidu Cloud: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pgaw02inCvbEgOme9ajDJA?pwd=e528\r\n\r\n### 🚀 New Features\r\n\r\n- Add support for showing\u002Fhiding shape attributes on the canvas (#1076)\r\n- Add functionality to save training logs with timestamp upon dialog closure (#1077)\r\n\r\n### 🐛 Bug Fixes\r\n\r\n- Skip validation for auto-labeling special constants\r\n- Prevent closing UltralyticsDialog during active training session (#1077)\r\n- Improve WSL2 detection for image file handling in UltralyticsDialog (#1077)\r\n- Add UTF-8 encoding to file opening in validate_data_file function (#1077)\r\n- Resolve Windows multiprocessing and matplotlib segfault issues\r\n\r\n### 🌟 Contributors\r\n\r\nA total of 2 developer contributed to this release.\r\n\r\nThank @FreemanTang, @CVHub520\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FCVHub520\u002FX-AnyLabeling\u002Fcompare\u002Fv3.2.0...v3.2.1","2025-08-23T09:20:29",[220,229,237,246,254,262],{"id":221,"name":222,"github_repo":223,"description_zh":224,"stars":225,"difficulty_score":42,"last_commit_at":226,"category_tags":227,"status":84},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,"2026-04-06T06:32:30",[228,60,62,59],"Agent",{"id":230,"name":231,"github_repo":232,"description_zh":233,"stars":234,"difficulty_score":42,"last_commit_at":235,"category_tags":236,"status":84},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[60,62,228],{"id":238,"name":239,"github_repo":240,"description_zh":241,"stars":242,"difficulty_score":243,"last_commit_at":244,"category_tags":245,"status":84},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[60,228,58],{"id":247,"name":248,"github_repo":249,"description_zh":250,"stars":251,"difficulty_score":243,"last_commit_at":252,"category_tags":253,"status":84},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[60,62,228],{"id":255,"name":256,"github_repo":257,"description_zh":258,"stars":259,"difficulty_score":243,"last_commit_at":260,"category_tags":261,"status":84},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[61,228,62,60],{"id":263,"name":264,"github_repo":265,"description_zh":266,"stars":267,"difficulty_score":243,"last_commit_at":268,"category_tags":269,"status":84},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[61,60]]