[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-iscyy--ultralyticsPro":3,"tool-iscyy--ultralyticsPro":61},[4,18,26,36,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,2,"2026-04-06T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,60],"视频",{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":73,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":82,"forks":83,"last_commit_at":84,"license":75,"difficulty_score":32,"env_os":85,"env_gpu":85,"env_ram":85,"env_deps":86,"category_tags":90,"github_topics":91,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":107,"updated_at":108,"faqs":109,"releases":145},4490,"iscyy\u002FultralyticsPro","ultralyticsPro","🔥🔥🔥 专注于YOLO11，YOLOv8、TYOLOv12、YOLOv10、RT-DETR、YOLOv7、YOLOv5改进模型，Support to improve backbone, neck, head, loss, IoU, NMS and other modules🚀","ultralyticsPro 是一个专注于目标检测模型优化的开源项目，旨在为 YOLO 系列（包括最新的 YOLO11、YOLOv8、YOLOv10 及经典的 YOLOv7、YOLOv5）以及 RT-DETR 等主流架构提供全方位的改进方案。在深度学习应用中，开发者常面临通用模型在特定场景下精度不足或推理速度受限的挑战，而直接修改底层代码往往门槛较高且耗时。ultralyticsPro 正是为了解决这一痛点而生，它提供了一套模块化、易集成的改进策略，帮助用户快速提升模型性能。\n\n该项目特别适合计算机视觉领域的研究人员、算法工程师以及希望深入优化检测效果的开发者使用。其核心亮点在于支持对模型的关键组件进行灵活定制与替换，涵盖骨干网络（Backbone）、颈部结构（Neck）、检测头（Head），以及损失函数、IoU 计算和非极大值抑制（NMS）等核心模块。通过引入前沿的学术成果和工程实践技巧，ultralyticsPro 让用户无需从零开始重构代码，即可轻松尝试多种改进组合，从而在保证推理效率的同时，显著提升模型在复杂场景下的检测精度与鲁棒性，是加速算法迭代与落地的得力助手。","🔥🔥🔥 专注于YOLO11，YOLOv8、YOLOv10、RT-DETR、YOLOv7、YOLOv5改进模型，Support to improve backbone, neck, head, loss, IoU, NMS and other modules🚀\n\n![在这里插入图片描述](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fiscyy_ultralyticsPro_readme_e43e9827f40d.png)\n\n🌟 全新的YOLO系列改进项目 **ultralyticsPro**，最新改进点更新🚀\n\n","🔥🔥🔥 专注于YOLO11、YOLOv8、YOLOv10、RT-DETR、YOLOv7、YOLOv5改进模型，支持对骨干网络、颈部、头部、损失函数、IoU、NMS等模块进行优化🚀\n\n![在这里插入图片描述](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fiscyy_ultralyticsPro_readme_e43e9827f40d.png)\n\n🌟 全新的YOLO系列改进项目 **ultralyticsPro**，最新改进点更新🚀","# ultralyticsPro 快速上手指南\n\nultralyticsPro 是一个专注于 YOLO 系列（YOLO11, YOLOv8, YOLOv10, YOLOv7, YOLOv5）及 RT-DETR 模型改进的开源项目。它支持对 Backbone、Neck、Head、Loss、IoU 及 NMS 等核心模块进行灵活替换与优化。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux (推荐 Ubuntu 20.04\u002F22.04) 或 Windows 10\u002F11\n*   **Python 版本**：Python 3.8 - 3.11\n*   **GPU 驱动**：已安装 NVIDIA 驱动并配置好 CUDA 环境（如需 GPU 加速）\n*   **前置依赖**：建议先更新 `pip` 并安装基础编译工具\n\n```bash\npython -m pip install --upgrade pip\n```\n\n## 安装步骤\n\n推荐使用国内镜像源以加快安装速度。您可以选择直接克隆源码安装，以便获取最新的改进模块。\n\n### 方式一：通过 Git 克隆安装（推荐）\n\n```bash\n# 克隆项目仓库\ngit clone https:\u002F\u002Fgithub.com\u002FWeifeng-Chen\u002FultralyticsPro.git\ncd ultralyticsPro\n\n# 使用清华镜像源安装依赖\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 安装当前项目包\npip install -e . -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 方式二：通过 PyPI 安装（如已发布）\n\n```bash\npip install ultralyticsPro -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n安装完成后，您可以像使用原生 `ultralytics` 一样调用 `ultralyticsPro`，并通过参数轻松加载改进后的模型架构。\n\n### 1. Python 代码推理示例\n\n以下示例展示如何加载预训练的 YOLOv8 改进模型并进行图片检测：\n\n```python\nfrom ultralytics import YOLO\n\n# 加载模型 (支持 .pt 权重文件或自定义配置文件 .yaml)\n# 这里以加载官方权重为例，实际使用时可替换为改进后的模型路径\nmodel = YOLO(\"yolov8n.pt\") \n\n# 执行推理\nresults = model.predict(source=\"image.jpg\", save=True)\n\n# 打印结果摘要\nfor result in results:\n    print(result.summary())\n```\n\n### 2. 命令行 (CLI) 快速测试\n\n您也可以直接使用命令行进行训练或预测：\n\n```bash\n# 预测示例\nyolo predict model=yolov8n.pt source=image.jpg\n\n# 训练示例 (指定改进后的配置文件)\n# 假设您已经在项目中定义了新的 yaml 配置\nyolo train model=yolov8n.yaml data=coco8.yaml epochs=100 imgsz=640\n```\n\n### 3. 应用改进模块\n\n在 `ultralyticsPro` 中，您可以通过修改模型的 YAML 配置文件来启用特定的改进模块（如更换 Backbone 或添加新的 Attention 机制）。只需在配置文件中引用对应的模块类名即可，框架会自动处理实例化过程。","某智慧物流团队正致力于升级其自动化分拣系统，需要让摄像头在高速传送带上精准识别各类破损或变形的快递包裹。\n\n### 没有 ultralyticsPro 时\n- 面对运动模糊和严重遮挡的包裹，基于原生 YOLOv8 的模型漏检率居高不下，导致大量异常件流入下游。\n- 想要引入更先进的注意力机制或改进损失函数来提升小目标检测能力，需手动修改底层源码，极易破坏原有架构稳定性。\n- 尝试替换主干网络（Backbone）或调整颈部结构（Neck）时，缺乏统一的接口支持，每次实验都需耗费数天重写代码。\n- 现有的非极大值抑制（NMS）策略在处理密集堆叠包裹时效果不佳，误删目标频繁，且难以快速切换其他优化算法。\n\n### 使用 ultralyticsPro 后\n- 直接调用内置的改进版 YOLO11 或 RT-DETR 模型，利用优化的 IoU 计算方式，显著提升了模糊与遮挡场景下的检出精度。\n- 通过配置化参数即可轻松集成最新的 Backbone 和 Head 模块，无需触碰核心源码，一天内即可完成多组架构对比实验。\n- 灵活切换多种损失函数与 NMS 策略，针对密集包裹场景定制了解决方案，误删率大幅降低，分拣准确率提升至 99% 以上。\n- 依托对 YOLOv5 至 YOLOv12 全系列的统一支持，团队能快速验证不同代际模型的改进点，将算法迭代周期从周级缩短至小时级。\n\nultralyticsPro 通过模块化的高效改进能力，让物流视觉算法的研发从“造轮子”转变为“搭积木”，极大加速了高精度分拣系统的落地进程。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fiscyy_ultralyticsPro_e43e9827.png","iscyy","Mango AI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fiscyy_003c589b.png",null,"https:\u002F\u002Fgithub.com\u002Fiscyy",[78],{"name":79,"color":80,"percentage":81},"Python","#3572A5",100,2926,461,"2026-04-03T03:32:27","未说明",{"notes":87,"python":85,"dependencies":88},"README 内容主要介绍项目功能（支持 YOLO11、YOLOv8 等模型的骨干、颈部、头部及损失函数等模块改进），未提供具体的运行环境配置、依赖版本或硬件需求信息。建议参考其父项目 ultralytics 的官方文档或查看项目源码中的 requirements.txt 获取详细环境要求。",[89],"ultralytics",[35,14],[92,93,94,95,96,97,98,99,100,101,102,103,104,105,106],"yolov5","backbone","pytorch","transformer","yolov3","yolov4","yolov7","deep-learning","yoloair","yolov6","yolo","rt-detr","yolo11","yolov10","yolov8","2026-03-27T02:49:30.150509","2026-04-07T00:04:39.157148",[110,115,120,125,130,135,140],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},20431,"使用 Swin Transformer 配置训练时，验证阶段报错 'RuntimeError: shape [...] is invalid for input of size ...' 怎么办？","该错误通常与数据集分辨率或模型模块兼容性有关。复现步骤显示在使用 VisDrone 数据集时报错，而切换到 COCO128 数据集则正常。此外，有用户反馈将模型中的 C3STR 模块替换为 C3 模块后问题解决。建议检查输入图像尺寸是否符合窗口划分要求（需能被 window_size 整除），或尝试更换 Backbone 中的特定模块（如用 C3 替代 C3STR）。","https:\u002F\u002Fgithub.com\u002Fiscyy\u002FultralyticsPro\u002Fissues\u002F46",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},20432,"运行 Swin_V2 或其他模型时报错 'Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu!' 如何解决？","此错误通常由 PyTorch 和 CUDA 版本不兼容引起。解决方案是重新安装匹配的 torch 和 torchvision 版本。例如，执行以下命令：\n!pip install torch==1.9.0+cu111 torchvision==0.10.0+cu111 torchaudio==0.9.0 -f\n请根据你的 CUDA 版本选择对应的安装包。","https:\u002F\u002Fgithub.com\u002Fiscyy\u002FultralyticsPro\u002Fissues\u002F61",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},20433,"训练 YOLOX 模型时如何正确指定配置文件和参数以避免报错？","训练 YOLOX 时，需将配置文件参数 --cfg 改为对应的 yolox.yaml（例如 --cfg yolox.yaml）。如果在训练过程中遇到 'device-side assert triggered' 或其他错误，建议在命令中添加 '--noautoanchor' 或 '--otaloss yolox' 参数。完整示例命令：\npython train.py --data coco128.yaml --weights '' --cfg yolox.yaml --img 640 --noautoanchor --otaloss yolox","https:\u002F\u002Fgithub.com\u002Fiscyy\u002FultralyticsPro\u002Fissues\u002F45",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},20434,"为什么在 Windows 上使用 GPU 训练 YOLOv5 速度非常慢且 GPU 利用率低于 10%？","这通常是因为数据加载线程数（workers）设置过低或未设置。官方 YOLOv5 默认 workers=8，而本项目可能未默认设置。请在训练命令中显式添加 '--workers 8' 参数，或者检查 train.py 中的默认设置并进行修改。确保数据加载不会成为瓶颈。","https:\u002F\u002Fgithub.com\u002Fiscyy\u002FultralyticsPro\u002Fissues\u002F96",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},20435,"训练过程中出现 'NotImplementedError: There were no tensor arguments to this function' 错误怎么办？","该错误通常发生在验证阶段缺少必要的损失函数参数。解决方法是在训练和验证命令中添加 '--otaloss yolox' 参数（针对 YOLOX 系列模型）。确保命令中包含此参数，例如：\npython train.py --data coco.yaml --weight '' --cfg configs\u002Fyolox-Improved\u002Fyolox-convnext_s_backbone.yaml --img 640 --noautoanchor --otaloss yolox","https:\u002F\u002Fgithub.com\u002Fiscyy\u002FultralyticsPro\u002Fissues\u002F94",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},20436,"训练 YOLOX 时报错 'AttributeError: 'DetectX' object has no attribute 'anchors'' 如何解决？","这是因为 YOLOX 模型不使用传统的 anchors 机制。解决方是添加 '--noautoanchor' 参数来跳过锚框计算，同时建议配合 '--otaloss yolox' 参数使用。示例命令：\npython train.py --data data.yaml --weights '' --cfg yolox.yaml --img 640 --noautoanchor --otaloss yolox","https:\u002F\u002Fgithub.com\u002Fiscyy\u002FultralyticsPro\u002Fissues\u002F136",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},20437,"模型训练完成但总结信息中显示 'False'，是否表示未正确使用配置的模块（如 VoVGSCSP）？","这通常是因为配置文件（.yaml）中的某些字段未正确设置，而不是代码逻辑问题。请检查你使用的 .yaml 配置文件，确认其中关于模块启用的字段（如相关 backbone 或 head 的设置）是否正确配置为 True 或对应名称。维护者指出配置应在 .yaml 文件中修改，而非 common.py 等代码文件。","https:\u002F\u002Fgithub.com\u002Fiscyy\u002FultralyticsPro\u002Fissues\u002F157",[146],{"id":147,"version":148,"summary_zh":149,"released_at":150},122126,"v1.0","## YOLOAir🚀 v1.0\n\n- YOLOAir算法库 是一个基于 PyTorch 的一系列 YOLO 检测算法组合工具箱。用来**组合不同模块构建不同网络**。  \n\n- 内置YOLOv5、YOLOv7、YOLOX、YOLOR、Transformer、Scaled_YOLOv4、YOLOv3、YOLOv4 以及其他改进模型网络结构...\n\n- **模块组件化**：帮助用户自定义快速组合Backbone、Neck、Head，使得网络模型多样化，助力科研改进检测算法、模型改进，网络排列组合🏆。构建强大的网络模型。\n\n- **统一模型代码框架、统一应用方式、统一调参、统一改进、易于模块组合、构建更强大的网络模型**。\n  \n\n```\n██╗   ██╗ ██████╗ ██╗      ██████╗      █████╗     ██╗    ██████╗ \n╚██╗ ██╔╝██╔═══██╗██║     ██╔═══██╗    ██╔══██╗    ██║    ██╔══██╗\n ╚████╔╝ ██║   ██║██║     ██║   ██║    ███████║    ██║    ██████╔╝\n  ╚██╔╝  ██║   ██║██║     ██║   ██║    ██╔══██║    ██║    ██╔══██╗\n   ██║   ╚██████╔╝███████╗╚██████╔╝    ██║  ██║    ██║    ██║  ██║\n   ╚═╝    ╚═════╝ ╚══════╝ ╚═════╝     ╚═╝  ╚═╝    ╚═╝    ╚═╝  ╚═╝\n``` \n\n#### 支持\n![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSupport-YOLOv5-red) ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSupport-YOLOv7-brightgreen) ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSupport-YOLOX-yellow) ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSupport-YOLOv4-green) ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSupport-Scaled_YOLOv4-ff96b4)\n![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSupport-YOLOv3-yellowgreen) ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSupport-YOLOR-lightgrey) ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSupport-Transformer-9cf) ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSupport-Attention-green)\n\n项目地址: https:\u002F\u002Fgithub.com\u002Fiscyy\u002Fyoloair\n\n______________________________________________________________________\n\n### 主要特性🚀\n\n🚀支持更多的YOLO系列算法模型改进(持续更新...)\n\nYOLOAir 算法库汇总了多种主流YOLO系列检测模型，一套代码集成多种模型: \n- 内置集成 YOLOv5 模型网络结构、YOLOv7 模型网络结构、 YOLOR 模型网络结构、YOLOX 模型网络结构、Scaled_YOLOv4 模型网络结构、YOLOv4 模型网络结构、YOLOv3 模型网络结构、以及其他模型网络结构等 持续更新中...\n\n- 以上多种检测算法使用统一模型代码框架，**集成在 YOLOAir 库中，统一任务形式、统一应用方式**。🌟便于科研者用于论文算法模型改进，模型对比，实现网络组合多样化。🌟工程算法部署落地更便捷，包含轻量化模型和精度更高的模型，根据场景合理选择，在精度和速度俩个方面取得平衡。同时该库支持解耦不同的结构和模块组件，让模块组件化，通过组合不同的模块组件，用户可以根据不同数据集或不同业务场景自行定制化构建不同检测模型。\n\n🚀支持加载YOLOv3、YOLOv4、Scaled_YOLOv4、YOLOv5、YOLOv7、YOLOR等网络模型预训练权重进行迁移学习\n\n🚀支持更多Backbone\n\n-  CSPDarkNet系列  \n-  HorNet系列  \n-  ResNet系列  \n-  RegNet 系列  \n-  ShuffleNet系列  \n-  Ghost系列  \n-  MobileNet系列  \n-  EfficientNet系列  \n-  ConvNext系列  \n-  RepLKNet系列  \n-  自注意力Transformer系列  \n-  CNN和Transformer结合系列  \n-  重参数化系列  \n-  RepVGG系列  \n-  RepConv系列  \n-  Mobileone系列  \n持续更新中🎈\n\n🚀支持更多Neck\n- FPN  \n- PANet  \n- BiFPN等主流结构。  \n 持续更新中🎈\n\n🚀支持更多检测头Head  \n-  YOLOv4、YOLOv5 Head检测头、\n-  YOLOR 隐式学习Head检测头、\n-  YOLOX的解耦合检测头Decoupled Head、DetectX Head\n-  自适应空间特征融合 检测头ASFF Head、\n-  YOLOv7检测头IAuxDetect Head, IDetect Head等；\n-  其他不同检测头\n\n🚀支持更多即插即用的注意力机制Attention\n- 在网络任何部分即插即用式使用注意力机制\n- Self Attention  \n- Contextual Transformer  \n- Bottleneck Transformer  \n- S2-MLP Attention  \n- SK Attention  \n- CBAM Attention  \n- SE Attention  \n- Coordinate attention  \n- NAM Attention  \n- GAM Attention  \n- ECA Attention  \n- Shuffle Attention  \n- CrissCrossAttention  \n- Coordinate attention  \n- SOCAttention  \n- SimAM Attention \n持续更新中🎈  \n\n🚀更多空间金字塔池化结构  \n- SPP\n- SPPF\n- ASPP\n- RFB\n- SPPCSPC  \n持续更新中🎈    \n\n🚀支持更多Loss   \n- ComputeLoss(v3、v4) \n- Compu","2022-08-26T05:36:22"]