[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-youngwanLEE--centermask2":3,"tool-youngwanLEE--centermask2":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":94,"forks":95,"last_commit_at":96,"license":97,"difficulty_score":10,"env_os":98,"env_gpu":99,"env_ram":100,"env_deps":101,"category_tags":106,"github_topics":107,"view_count":23,"oss_zip_url":82,"oss_zip_packed_at":82,"status":16,"created_at":117,"updated_at":118,"faqs":119,"releases":155},1985,"youngwanLEE\u002Fcentermask2","centermask2","[CVPR 2020] CenterMask : Real-time Anchor-Free Instance Segmentation","CenterMask2 是一个实时、无锚框的实例分割工具，能在图像中精准识别并分割出每个物体的轮廓。它基于 Detectron2 框架改进，相比早期版本更高效、更稳定，支持在主流 GPU 上实现超过 30 帧\u002F秒的推理速度，兼顾精度与性能。传统方法依赖复杂的锚框设计，而 CenterMask2 直接通过物体中心点预测分割掩码，简化了流程，提升了速度，同时在 COCO 数据集上超越了 Mask R-CNN、YOLACT 等主流模型。其核心亮点是采用了轻量高效的 VoVNetV2 骨干网络，在不牺牲精度的前提下大幅降低计算开销。适合计算机视觉领域的研究人员和开发者使用，尤其适用于需要实时分割的应用场景，如自动驾驶、机器人视觉或视频分析。普通用户无需直接使用，但可通过集成该模型的系统间接受益。代码已适配 PyTorch 1.7 和最新 Detectron2，便于复现与二次开发。","# [CenterMask](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.06667)2\n\n[[`CenterMask(original code)`](https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002FCenterMask)][[`vovnet-detectron2`](https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002Fvovnet-detectron2)][[`arxiv`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.06667)] [[`BibTeX`](#CitingCenterMask)]\n\n**CenterMask2** is an upgraded implementation on top of [detectron2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetectron2) beyond original [CenterMask](https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002FCenterMask) based on [maskrcnn-benchmark](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fmaskrcnn-benchmark).\n\n> **[CenterMask : Real-Time Anchor-Free Instance Segmentation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.06667) (CVPR 2020)**\u003Cbr>\n> [Youngwan Lee](https:\u002F\u002Fgithub.com\u002FyoungwanLEE) and Jongyoul Park\u003Cbr>\n> Electronics and Telecommunications Research Institute (ETRI)\u003Cbr>\n> pre-print : https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.06667\n\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyoungwanLEE_centermask2_readme_9f3961fe8957.png\" width=\"850px\" \u002F>\n\u003C\u002Fdiv>\n\n  \n  \n\n## Highlights\n- ***First* anchor-free one-stage instance segmentation.** To the best of our knowledge, **CenterMask** is the first instance segmentation on top of anchor-free object detection (15\u002F11\u002F2019).\n- **Toward Real-Time: CenterMask-Lite.**  This works provide not only large-scale CenterMask but also lightweight CenterMask-Lite that can run at real-time speed (> 30 fps).\n- **State-of-the-art performance.**  CenterMask outperforms Mask R-CNN, TensorMask, and ShapeMask at much faster speed and CenterMask-Lite models also surpass YOLACT or YOLACT++ by large margins.\n- **Well balanced (speed\u002Faccuracy) backbone network, VoVNetV2.**  VoVNetV2 shows better performance and faster speed than ResNe(X)t or HRNet.\n\n\n## Updates\n- CenterMask2 has been released. (20\u002F02\u002F2020)\n- Lightweight VoVNet has ben released. (26\u002F02\u002F2020)\n- Panoptic-CenterMask has been released. (31\u002F03\u002F2020)\n- code update for compatibility with pytorch1.7 and the latest detectron2 (22\u002F12\u002F2020)\n## Results on COCO val\n\n### Note\n\nWe measure the inference time of all models with batch size 1 on the same V100 GPU machine.\n\n- pytorch1.7.0\n- CUDA 10.1\n- cuDNN 7.3\n- multi-scale augmentation\n- Unless speficified, no Test-Time Augmentation (TTA)\n\n\n\n### CenterMask\n\n|Method|Backbone|lr sched|inference time|mask AP|box AP|download|\n|:--------:|:--------:|:--:|:--:|----|----|:--------:|\nMask R-CNN (detectron2)|R-50|3x|0.055|37.2|41.0|\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-InstanceSegmentation\u002Fmask_rcnn_R_50_FPN_3x\u002F137849600\u002Fmodel_final_f10217.pkl\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-InstanceSegmentation\u002Fmask_rcnn_R_50_FPN_3x\u002F137849600\u002Fmetrics.json\">metrics\u003C\u002Fa>\nMask R-CNN (detectron2)|V2-39|3x|0.052|39.3|43.8|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fdkto39ececze6l4\u002Ffaster_V_39_eSE_ms_3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fdx9qz1dn65ccrwd\u002Ffaster_V_39_eSE_ms_3x_metrics.json\">metrics\u003C\u002Fa>\nCenterMask (maskrcnn-benchmark)|V2-39|3x|0.070|38.5|43.5|[link](https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002FCenterMask#coco-val2017-results)\n**CenterMask2**|V2-39|3x|**0.050**|**39.7**|**44.2**|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Ftczecsdxt10uai5\u002Fcentermask2-V-39-eSE-FPN-ms-3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Frhoo6vkvh7rjdf9\u002Fcentermask2-V-39-eSE-FPN-ms-3x_metrics.json\">metrics\u003C\u002Fa>\n||\nMask R-CNN (detectron2)|R-101|3x|0.070|38.6|42.9|\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-InstanceSegmentation\u002Fmask_rcnn_R_101_FPN_3x\u002F138205316\u002Fmodel_final_a3ec72.pkl\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-InstanceSegmentation\u002Fmask_rcnn_R_101_FPN_3x\u002F138205316\u002Fmetrics.json\">metrics\u003C\u002Fa>\nMask R-CNN (detectron2)|V2-57|3x|0.058|39.7|44.2|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fc7mb1mq10eo4pzk\u002Ffaster_V_57_eSE_ms_3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F3tsn218zzmuhyo8\u002Ffaster_V_57_eSE_metrics.json\">metrics\u003C\u002Fa>\nCenterMask (maskrcnn-benchmark)|V2-57|3x|0.076|39.4|44.6|[link](https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002FCenterMask#coco-val2017-results)\n**CenterMask2**|V2-57|3x|**0.058**|**40.5**|**45.1**|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Flw8nxajv1tim8gr\u002Fcentermask2-V-57-eSE-FPN-ms-3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fx7r5ys3c81ldgq0\u002Fcentermask2-V-57-eSE-FPN-ms-3x_metrics.json\">metrics\u003C\u002Fa>\n||\nMask R-CNN (detectron2)|X-101|3x|0.129|39.5|44.3|\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-InstanceSegmentation\u002Fmask_rcnn_X_101_32x8d_FPN_3x\u002F139653917\u002Fmodel_final_2d9806.pkl\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-InstanceSegmentation\u002Fmask_rcnn_X_101_32x8d_FPN_3x\u002F139653917\u002Fmetrics.json\">metrics\u003C\u002Fa>\nMask R-CNN (detectron2)|V2-99|3x|0.076|40.3|44.9|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fv64mknwzfpmfcdh\u002Ffaster_V_99_eSE_ms_3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fzvaz9s8gvq2mhrd\u002Ffaster_V_99_eSE_ms_3x_metrics.json\">metrics\u003C\u002Fa>\nCenterMask (maskrcnn-benchmark)|V2-99|3x|0.106|40.2|45.6|[link](https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002FCenterMask#coco-val2017-results)\n**CenterMask2**|V2-99|3x|**0.077**|**41.4**|**46.0**|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fc6n79x83xkdowqc\u002Fcentermask2-V-99-eSE-FPN-ms-3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fjdzgmdatit00hq5\u002Fcentermask2-V-99-eSE-FPN-ms-3x_metrics.json\">metrics\u003C\u002Fa>\n||\n**CenterMask2 (TTA)**|V2-99|3x|-|**42.5**|**48.6**|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fc6n79x83xkdowqc\u002Fcentermask2-V-99-eSE-FPN-ms-3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fjdzgmdatit00hq5\u002Fcentermask2-V-99-eSE-FPN-ms-3x_metrics.json\">metrics\u003C\u002Fa>\n* TTA denotes Test-Time Augmentation (multi-scale test).\n\n### CenterMask-Lite\n\n|Method|Backbone|lr sched|inference time|mask AP|box AP|download|\n|:--------:|:--------:|:--:|:--:|:----:|:----:|:--------:|\n|YOLACT550|R-50|4x|0.023|28.2|30.3|[link](https:\u002F\u002Fgithub.com\u002Fdbolya\u002Fyolact)\n|CenterMask (maskrcnn-benchmark)|V-19|4x|0.023|32.4|35.9|[link](https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002FCenterMask#coco-val2017-results)\n|**CenterMask2-Lite**|V-19|4x|0.023|**32.8**|**35.9**|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fdret2ap7djty7mp\u002Fcentermask2-lite-V-19-eSE-FPN-ms-4x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fzsta7azy87a833u\u002Fcentermask2-lite-V-19-eSE-FPN-ms-4x-metrics.json\">metrics\u003C\u002Fa>\n||\n|YOLACT550|R-101|4x|0.030|28.2|30.3|[link](https:\u002F\u002Fgithub.com\u002Fdbolya\u002Fyolact)\n|YOLACT550++|R-50|4x|0.029|34.1|-|[link](https:\u002F\u002Fgithub.com\u002Fdbolya\u002Fyolact)\n|YOLACT550++|R-101|4x|0.036|34.6|-|[link](https:\u002F\u002Fgithub.com\u002Fdbolya\u002Fyolact)\n|CenterMask (maskrcnn-benchmark)|V-39|4x|0.027|36.3|40.7|[link](https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002FCenterMask#coco-val2017-results)\n|**CenterMask2-Lite**|V-39|4x|0.028|**36.7**|**40.9**|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fuwc0ypa1jvco2bi\u002Fcentermask2-lite-V-39-eSE-FPN-ms-4x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Faoa6y3i3el4edbk\u002Fcentermask2-lite-V-39-eSE-FPN-ms-4x-metrics.json\">metrics\u003C\u002Fa>\n* Note that The inference time is measured on Titan Xp GPU for fair comparison with YOLACT.\n\n### Lightweight VoVNet backbone\n\n|Method|Backbone|Param.|lr sched|inference time|mask AP|box AP|download|\n|:--------:|:--------:|:--:|:--:|:--:|:----:|:----:|:--------:|\n|CenterMask2-Lite|MobileNetV2|3.5M|4x|0.021|27.2|29.8|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F8omou546f0n78nj\u002Fcentermask_lite_Mv2_ms_4x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F2jlcwy30eq72w47\u002Fcentermask_lite_Mv2_ms_4x_metrics.json\">metrics\u003C\u002Fa>\n||\n|CenterMask2-Lite|V-19|11.2M|4x|0.023|32.8|35.9|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fdret2ap7djty7mp\u002Fcentermask2-lite-V-19-eSE-FPN-ms-4x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fzsta7azy87a833u\u002Fcentermask2-lite-V-19-eSE-FPN-ms-4x-metrics.json\">metrics\u003C\u002Fa>\n|CenterMask2-Lite|V-19-**Slim**|3.1M|4x|0.021|29.8|32.5|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fo2n1ifl0zkbv16x\u002Fcentermask-lite-V-19-eSE-slim-FPN-ms-4x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F8y71oz0kxwqk7go\u002Fcentermask-lite-V-19-eSE-slim-FPN-ms-4x-metrics.json?dl=0\">metrics\u003C\u002Fa>\n|CenterMask2-Lite|V-19**Slim**-**DW**|1.8M|4x|0.020|27.1|29.5|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fvsvhwtqm6ko1c7m\u002Fcentermask-lite-V-19-eSE-slim-dw-FPN-ms-4x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fq4idjnsgvo151zx\u002Fcentermask-lite-V-19-eSE-slim-dw-FPN-ms-4x-metrics.json\">metrics\u003C\u002Fa>\n* _**DW** and **Slim** denote depthwise separable convolution and a thiner model with half the channel size, respectively._   \n* __Params.__ means the number of parameters of backbone.   \n\n### Deformable VoVNet Backbone\n\n|Method|Backbone|lr sched|inference time|mask AP|box AP|download|\n|:--------:|:--------:|:--:|:--:|:--:|:----:|:----:|\nCenterMask2|V2-39|3x|0.050|39.7|44.2|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Ftczecsdxt10uai5\u002Fcentermask2-V-39-eSE-FPN-ms-3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Frhoo6vkvh7rjdf9\u002Fcentermask2-V-39-eSE-FPN-ms-3x_metrics.json\">metrics\u003C\u002Fa>\nCenterMask2|V2-39-DCN|3x|0.061|40.3|45.1|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fzmps03vghzirk7v\u002Fcentermask-V-39-eSE-dcn-FPN-ms-3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Faj1mr8m32z11zbw\u002Fcentermask-V-39-eSE-dcn-FPN-ms-3x-metrics.json\">metrics\u003C\u002Fa>\n||\nCenterMask2|V2-57|3x|0.058|40.5|45.1|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Flw8nxajv1tim8gr\u002Fcentermask2-V-57-eSE-FPN-ms-3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fx7r5ys3c81ldgq0\u002Fcentermask2-V-57-eSE-FPN-ms-3x_metrics.json\">metrics\u003C\u002Fa>\nCenterMask2|V2-57-DCN|3x|0.071|40.9|45.5|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F1f64azqyd2ot6qq\u002Fcentermask-V-57-eSE-dcn-FPN-ms-3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fb3zpguko137r6eh\u002Fcentermask-V-57-eSE-dcn-FPN-ms-3x-metrics.json\">metrics\u003C\u002Fa>\n||\nCenterMask2|V2-99|3x|0.077|41.4|46.0|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fc6n79x83xkdowqc\u002Fcentermask2-V-99-eSE-FPN-ms-3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fjdzgmdatit00hq5\u002Fcentermask2-V-99-eSE-FPN-ms-3x_metrics.json\">metrics\u003C\u002Fa>\nCenterMask2|V2-99-DCN|3x|0.110|42.0|46.9|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fatuph90nzm7s8x8\u002Fcentermask-V-99-eSE-dcn-FPN-ms-3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F82ulexlivy19cve\u002Fcentermask-V-99-eSE-dcn-FPN-ms-3x-metrics.json\">metrics\u003C\u002Fa>\n||\n\n* _DCN denotes deformable convolutional networks v2. Note that we apply deformable convolutions from stage 3 to 5 in backbones._\n\n### Panoptic-CenterMask\n\n|Method|Backbone|lr sched|inference time|mask AP|box AP|PQ|download|\n|:--------:|:--------:|:--:|:--:|:--:|:----:|:----:|:--------:|\n|Panoptic-FPN|R-50|3x|0.063|40.0|36.5|41.5|\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-PanopticSegmentation\u002Fpanoptic_fpn_R_50_3x\u002F139514569\u002Fmodel_final_c10459.pkl\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-PanopticSegmentation\u002Fpanoptic_fpn_R_50_3x\u002F139514569\u002Fmetrics.json\">metrics\u003C\u002Fa>\n|Panoptic-CenterMask|R-50|3x|0.063|41.4|37.3|42.0|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fvxe51cdeprao94j\u002Fpanoptic_centermask_R_50_ms_3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fdfddgx6rnw1zr4l\u002Fpanoptic_centermask_R_50_ms_3x_metrics.json\">metrics\u003C\u002Fa>\n|Panoptic-FPN|V-39|3x|0.063|42.8|38.5|43.4|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Ffnr9r4arv0cbfbf\u002Fpanoptic_V_39_eSE_3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fvftfukrjuu7w1ao\u002Fpanoptic_V_39_eSE_3x_metrics.json\">metrics\u003C\u002Fa>\n|Panoptic-CenterMask|V-39|3x|0.066|43.4|39.0|43.7|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F49ig16ailra1f4t\u002Fpanoptic_centermask_V_39_eSE_ms_3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fwy4mn8n513k0um5\u002Fpanoptic_centermask_V_39_eSE_ms_3x_metrics.json\">metrics\u003C\u002Fa>\n||\n|Panoptic-FPN|R-101|3x|0.078|42.4|38.5|43.0|\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-PanopticSegmentation\u002Fpanoptic_fpn_R_101_3x\u002F139514519\u002Fmodel_final_cafdb1.pkl\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-PanopticSegmentation\u002Fpanoptic_fpn_R_101_3x\u002F139514519\u002Fmetrics.json\">metrics\u003C\u002Fa>\n|Panoptic-CenterMask|R-101|3x|0.076|43.5|39.0|43.6|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fy5stg3qx72gff5o\u002Fpanoptic_centermask_R_101_ms_3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fojljt0obp8vnr8s\u002Fpanoptic_centermask_R_101_ms_3x_metrics.json\">metrics\u003C\u002Fa>\n|Panoptic-FPN|V-57|3x|0.070|43.4|39.2|44.3|\u003Ca href=\"https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fzhoqx5rvc0jj0oa\u002Fpanoptic_V_57_eSE_3x.pth?dl=1\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F20hwrmru15dilre\u002Fpanoptic_V_57_eSE_3x_metrics.json\">metrics\u003C\u002Fa>\n|Panoptic-CenterMask|V-57|3x|0.071|43.9|39.6|44.5|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fkqukww4y7tbgbrh\u002Fpanoptic_centermask_V_57_ms_3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F4asto3b4iya74ak\u002Fpanoptic_centermask_V_57_ms_3x_metrics.json\">metrics\u003C\u002Fa>\n||\n|Panoptic-CenterMask|V-99|3x|0.091|45.1|40.6|45.4|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fpr6a3inpasn7qlz\u002Fpanoptic_centermask_V_99_ms_3x.pth\">model\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F00e8x0riplme7pm\u002Fpanoptic_centermask_V_99_ms_3x_metrics.json\">metrics\u003C\u002Fa>\n\n\n## Installation\nAll you need to use centermask2 is [detectron2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetectron2). It's easy!    \nyou just install [detectron2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetectron2) following [INSTALL.md](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetectron2\u002Fblob\u002Fmaster\u002FINSTALL.md).   \nPrepare for coco dataset following [this instruction](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetectron2\u002Ftree\u002Fmaster\u002Fdatasets).\n\n## Training\n\n#### ImageNet Pretrained Models\n\nWe provide backbone weights pretrained on ImageNet-1k dataset for detectron2.\n* [MobileNet-V2](https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fyduxbc13s3ip6qn\u002Fmobilenet_v2_detectron2.pth)\n* [VoVNetV2-19-Slim-DW](https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Ff3s7ospitqoals1\u002Fvovnet19_ese_slim_dw_detectron2.pth)\n* [VoVNetV2-19-Slim](https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F8h5ybmi4ftbcom0\u002Fvovnet19_ese_slim_detectron2.pth)\n* [VoVNetV2-19](https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Frptgw6stppbiw1u\u002Fvovnet19_ese_detectron2.pth)\n* [VoVNetV2-39](https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fq98pypf96rhtd8y\u002Fvovnet39_ese_detectron2.pth)\n* [VoVNetV2-57](https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F8xl0cb3jj51f45a\u002Fvovnet57_ese_detectron2.pth)\n* [VoVNetV2-99](https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F1mlv31coewx8trd\u002Fvovnet99_ese_detectron2.pth)\n\n\nTo train a model, run\n```bash\ncd centermask2\npython train_net.py --config-file \"configs\u002F\u003Cconfig.yaml>\"\n```\n\nFor example, to launch CenterMask training with VoVNetV2-39 backbone on 8 GPUs,\none should execute:\n```bash\ncd centermask2\npython train_net.py --config-file \"configs\u002Fcentermask\u002Fcentermask_V_39_eSE_FPN_ms_3x.yaml\" --num-gpus 8\n```\n\n## Evaluation\n\nModel evaluation can be done similarly:   \n* if you want to inference with 1 batch `--num-gpus 1` \n* `--eval-only`\n* `MODEL.WEIGHTS path\u002Fto\u002Fthe\u002Fmodel.pth`\n\n```bash\ncd centermask2\nwget https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Ftczecsdxt10uai5\u002Fcentermask2-V-39-eSE-FPN-ms-3x.pth\npython train_net.py --config-file \"configs\u002Fcentermask\u002Fcentermask_V_39_eSE_FPN_ms_3x.yaml\" --num-gpus 1 --eval-only MODEL.WEIGHTS centermask2-V-39-eSE-FPN-ms-3x.pth\n```\n\n## TODO\n - [x] Adding Lightweight models\n - [ ] Applying CenterMask for PointRend or Panoptic-FPN.\n\n\n## \u003Ca name=\"CitingCenterMask\">\u003C\u002Fa>Citing CenterMask\n\nIf you use VoVNet, please use the following BibTeX entry.\n\n```BibTeX\n@inproceedings{lee2019energy,\n  title = {An Energy and GPU-Computation Efficient Backbone Network for Real-Time Object Detection},\n  author = {Lee, Youngwan and Hwang, Joong-won and Lee, Sangrok and Bae, Yuseok and Park, Jongyoul},\n  booktitle = {Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops},\n  year = {2019}\n}\n\n@inproceedings{lee2020centermask,\n  title={CenterMask: Real-Time Anchor-Free Instance Segmentation},\n  author={Lee, Youngwan and Park, Jongyoul},\n  booktitle={CVPR},\n  year={2020}\n}\n```\n\n## Special Thanks to\n\n[mask scoring for detectron2](https:\u002F\u002Fgithub.com\u002Flsrock1\u002Fmaskscoring_rcnn.detectron2) by [Sangrok Lee](https:\u002F\u002Fgithub.com\u002Flsrock1)   \n[FCOS_for_detectron2](https:\u002F\u002Fgithub.com\u002Faim-uofa\u002Fadet) by AdeliDet team.\n","# [CenterMask](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.06667)2\n\n[[`CenterMask(原始代码)`](https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002FCenterMask)][[`vovnet-detectron2`](https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002Fvovnet-detectron2)][[`arxiv`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.06667)] [[`BibTeX`](#CitingCenterMask)]\n\n**CenterMask2** 是基于 [maskrcnn-benchmark](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fmaskrcnn-benchmark)，在 [detectron2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetectron2) 的基础上对原版 [CenterMask](https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002FCenterMask) 进行升级实现的。\n\n> **[CenterMask：实时无锚点实例分割](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.06667) (CVPR 2020)**\u003Cbr>\n> [Youngwan Lee](https:\u002F\u002Fgithub.com\u002FyoungwanLEE) 和 Jongyoul Park\u003Cbr>\n> 电子与电信研究院 (ETRI)\u003Cbr>\n> 预印本：https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.06667\n\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyoungwanLEE_centermask2_readme_9f3961fe8957.png\" width=\"850px\" \u002F>\n\u003C\u002Fdiv>\n\n  \n\n## 亮点\n- ***首个* 无锚点一阶段实例分割。** 据我们所知，**CenterMask** 是首个基于无锚点目标检测的实例分割方法（2019年11月15日）。\n- **迈向实时：CenterMask-Lite。** 该工作不仅提供了大规模的 CenterMask，还推出了轻量级的 CenterMask-Lite，能够以实时速度（>30 fps）运行。\n- **最先进的性能。** CenterMask 在速度远快于 Mask R-CNN、TensorMask 和 ShapeMask 的同时，表现也优于这些方法；CenterMask-Lite 模型更是大幅超越了 YOLACT 或 YOLACT++。\n- **平衡良好的骨干网络 VoVNetV2。** VoVNetV2 在性能和速度上均优于 ResNe(X)t 或 HRNet。\n\n\n## 更新内容\n- CenterMask2 已发布。（2020年2月20日）\n- 轻量级 VoVNet 已发布。（2020年2月26日）\n- Panoptic-CenterMask 已发布。（2020年3月31日）\n- 代码更新，兼容 PyTorch 1.7 和最新版 detectron2。（2020年12月22日）\n\n## COCO 验证集上的结果\n\n### 注意\n\n我们在同一台 V100 GPU 机器上，以批大小为 1 的方式测量所有模型的推理时间。\n\n- PyTorch 1.7.0\n- CUDA 10.1\n- cuDNN 7.3\n- 多尺度增强\n- 除非特别说明，未使用测试时增强（TTA）\n\n\n### CenterMask\n\n|方法|骨干网络|学习率调度|推理时间|掩码 AP|框 AP|下载|\n|:--------:|:--------:|:--:|:--:|----|----|:--------:|\nMask R-CNN (detectron2)|R-50|3倍|0.055|37.2|41.0|\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-InstanceSegmentation\u002Fmask_rcnn_R_50_FPN_3x\u002F137849600\u002Fmodel_final_f10217.pkl\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-InstanceSegmentation\u002Fmask_rcnn_R_50_FPN_3x\u002F137849600\u002Fmetrics.json\">指标\u003C\u002Fa>\nMask R-CNN (detectron2)|V2-39|3倍|0.052|39.3|43.8|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fdkto39ececze6l4\u002Ffaster_V_39_eSE_ms_3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fdx9qz1dn65ccrwd\u002Ffaster_V_39_eSE_ms_3x_metrics.json\">指标\u003C\u002Fa>\nCenterMask (maskrcnn-benchmark)|V2-39|3倍|0.070|38.5|43.5|[链接](https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002FCenterMask#coco-val2017-results)\n**CenterMask2**|V2-39|3倍|**0.050**|**39.7**|**44.2**|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Ftczecsdxt10uai5\u002Fcentermask2-V-39-eSE-FPN-ms-3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Frhoo6vkvh7rjdf9\u002Fcentermask2-V-39-eSE-FPN-ms-3x_metrics.json\">指标\u003C\u002Fa>\n||\nMask R-CNN (detectron2)|R-101|3倍|0.070|38.6|42.9|\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-InstanceSegmentation\u002Fmask_rcnn_R_101_FPN_3x\u002F138205316\u002Fmodel_final_a3ec72.pkl\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-InstanceSegmentation\u002Fmask_rcnn_R_101_FPN_3x\u002F138205316\u002Fmetrics.json\">指标\u003C\u002Fa>\nMask R-CNN (detectron2)|V2-57|3倍|0.058|39.7|44.2|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fc7mb1mq10eo4pzk\u002Ffaster_V_57_eSE_ms_3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F3tsn218zzmuhyo8\u002Ffaster_V_57_eSE_metrics.json\">指标\u003C\u002Fa>\nCenterMask (maskrcnn-benchmark)|V2-57|3倍|0.076|39.4|44.6|[链接](https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002FCenterMask#coco-val2017-results)\n**CenterMask2**|V2-57|3倍|**0.058**|**40.5**|**45.1**|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Flw8nxajv1tim8gr\u002Fcentermask2-V-57-eSE-FPN-ms-3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fx7r5ys3c81ldgq0\u002Fcentermask2-V-57-eSE-FPN-ms-3x_metrics.json\">指标\u003C\u002Fa>\n||\nMask R-CNN (detectron2)|X-101|3倍|0.129|39.5|44.3|\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-InstanceSegmentation\u002Fmask_rcnn_X_101_32x8d_FPN_3x\u002F139653917\u002Fmodel_final_2d9806.pkl\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-InstanceSegmentation\u002Fmask_rcnn_X_101_32x8d_FPN_3x\u002F139653917\u002Fmetrics.json\">指标\u003C\u002Fa>\nMask R-CNN (detectron2)|V2-99|3倍|0.076|40.3|44.9|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fv64mknwzfpmfcdh\u002Ffaster_V_99_eSE_ms_3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fzvaz9s8gvq2mhrd\u002Ffaster_V_99_eSE_ms_3x_metrics.json\">指标\u003C\u002Fa>\nCenterMask (maskrcnn-benchmark)|V2-99|3倍|0.106|40.2|45.6|[链接](https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002FCenterMask#coco-val2017-results)\n**CenterMask2**|V2-99|3倍|**0.077**|**41.4**|**46.0**|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fc6n79x83xkdowqc\u002Fcentermask2-V-99-eSE-FPN-ms-3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fjdzgmdatit00hq5\u002Fcentermask2-V-99-eSE-FPN-ms-3x_metrics.json\">指标\u003C\u002Fa>\n||\n**CenterMask2 (TTA)**|V2-99|3倍|-|**42.5**|**48.6**|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fc6n79x83xkdowqc\u002Fcentermask2-V-99-eSE-FPN-ms-3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fjdzgmdatit00hq5\u002Fcentermask2-V-99-eSE-FPN-ms-3x_metrics.json\">指标\u003C\u002Fa>\n* TTA 表示测试时增强（多尺度测试）。\n\n### CenterMask-Lite\n\n|方法|骨干网络|学习率调度|推理时间|掩码 AP|框 AP|下载|\n|:--------:|:--------:|:--:|:--:|:----:|:----:|:--------:|\n|YOLACT550|R-50|4倍|0.023|28.2|30.3|[链接](https:\u002F\u002Fgithub.com\u002Fdbolya\u002Fyolact)\n|CenterMask (maskrcnn-benchmark)|V-19|4倍|0.023|32.4|35.9|[链接](https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002FCenterMask#coco-val2017-results)\n|**CenterMask2-Lite**|V-19|4倍|0.023|**32.8**|**35.9**|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fdret2ap7djty7mp\u002Fcentermask2-lite-V-19-eSE-FPN-ms-4x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fzsta7azy87a833u\u002Fcentermask2-lite-V-19-eSE-FPN-ms-4x-metrics.json\">指标\u003C\u002Fa>\n||\n|YOLACT550|R-101|4倍|0.030|28.2|30.3|[链接](https:\u002F\u002Fgithub.com\u002Fdbolya\u002Fyolact)\n|YOLACT550++|R-50|4倍|0.029|34.1|-|[链接](https:\u002F\u002Fgithub.com\u002Fdbolya\u002Fyolact)\n|YOLACT550++|R-101|4倍|0.036|34.6|-|[链接](https:\u002F\u002Fgithub.com\u002Fdbolya\u002Fyolact)\n|CenterMask (maskrcnn-benchmark)|V-39|4倍|0.027|36.3|40.7|[链接](https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002FCenterMask#coco-val2017-results)\n|**CenterMask2-Lite**|V-39|4倍|0.028|**36.7**|**40.9**|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fuwc0ypa1jvco2bi\u002Fcentermask2-lite-V-39-eSE-FPN-ms-4x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Faoa6y3i3el4edbk\u002Fcentermask2-lite-V-39-eSE-FPN-ms-4x-metrics.json\">指标\u003C\u002Fa>\n* 注意：为了与 YOLACT 公平比较，推理时间是在 Titan Xp GPU 上测量的。\n\n### 轻量级VoVNet主干网络\n\n|方法|主干网络|参数量|学习率调度|推理时间|掩码AP|边界框AP|下载|\n|:--------:|:--------:|:--:|:--:|:--:|:----:|:----:|:--------:|\n|CenterMask2-Lite|MobileNetV2|350万|4倍|0.021秒|27.2|29.8|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F8omou546f0n78nj\u002Fcentermask_lite_Mv2_ms_4x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F2jlcwy30eq72w47\u002Fcentermask_lite_Mv2_ms_4x_metrics.json\">指标\u003C\u002Fa>\n||\n|CenterMask2-Lite|V-19|1120万|4倍|0.023秒|32.8|35.9|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fdret2ap7djty7mp\u002Fcentermask2-lite-V-19-eSE-FPN-ms-4x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fzsta7azy87a833u\u002Fcentermask2-lite-V-19-eSE-FPN-ms-4x-metrics.json\">指标\u003C\u002Fa>\n|CenterMask2-Lite|V-19-**Slim**|310万|4倍|0.021秒|29.8|32.5|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fo2n1ifl0zkbv16x\u002Fcentermask-lite-V-19-eSE-slim-FPN-ms-4x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F8y71oz0kxwqk7go\u002Fcentermask-lite-V-19-eSE-slim-FPN-ms-4x-metrics.json?dl=0\">指标\u003C\u002Fa>\n|CenterMask2-Lite|V-19**Slim**-**DW**|180万|4倍|0.020秒|27.1|29.5|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fvsvhwtqm6ko1c7m\u002Fcentermask-lite-V-19-eSE-slim-dw-FPN-ms-4x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fq4idjnsgvo151zx\u002Fcentermask-lite-V-19-eSE-slim-dw-FPN-ms-4x-metrics.json\">指标\u003C\u002Fa>\n* _**DW**和**Slim**分别表示深度可分离卷积和通道数减半的更轻量级模型。_   \n* __参数量__指主干网络的参数数量。   \n\n### 可变形VoVNet主干网络\n\n|方法|主干网络|学习率调度|推理时间|掩码AP|边界框AP|下载|\n|:--------:|:--------:|:--:|:--:|:--:|:----:|:----:|\n|CenterMask2|V2-39|3倍|0.050秒|39.7|44.2|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Ftczecsdxt10uai5\u002Fcentermask2-V-39-eSE-FPN-ms-3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Frhoo6vkvh7rjdf9\u002Fcentermask2-V-39-eSE-FPN-ms-3x_metrics.json\">指标\u003C\u002Fa>\n|CenterMask2|V2-39-DCN|3倍|0.061秒|40.3|45.1|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fzmps03vghzirk7v\u002Fcentermask-V-39-eSE-dcn-FPN-ms-3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Faj1mr8m32z11zbw\u002Fcentermask-V-39-eSE-dcn-FPN-ms-3x-metrics.json\">指标\u003C\u002Fa>\n||\n|CenterMask2|V2-57|3倍|0.058秒|40.5|45.1|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Flw8nxajv1tim8gr\u002Fcentermask2-V-57-eSE-FPN-ms-3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fx7r5ys3c81ldgq0\u002Fcentermask2-V-57-eSE-FPN-ms-3x_metrics.json\">指标\u003C\u002Fa>\n|CenterMask2|V2-57-DCN|3倍|0.071秒|40.9|45.5|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F1f64azqyd2ot6qq\u002Fcentermask-V-57-eSE-dcn-FPN-ms-3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fb3zpguko137r6eh\u002Fcentermask-V-57-eSE-dcn-FPN-ms-3x-metrics.json\">指标\u003C\u002Fa>\n||\n|CenterMask2|V2-99|3倍|0.077秒|41.4|46.0|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fc6n79x83xkdowqc\u002Fcentermask2-V-99-eSE-FPN-ms-3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fjdzgmdatit00hq5\u002Fcentermask2-V-99-eSE-FPN-ms-3x_metrics.json\">指标\u003C\u002Fa>\n|CenterMask2|V2-99-DCN|3倍|0.110秒|42.0|46.9|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fatuph90nzm7s8x8\u002Fcentermask-V-99-eSE-dcn-FPN-ms-3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F82ulexlivy19cve\u002Fcentermask-V-99-eSE-dcn-FPN-ms-3x-metrics.json\">指标\u003C\u002Fa>\n||\n\n* _DCN表示可变形卷积网络v2。请注意，我们在主干网络的第3到第5阶段应用了可变形卷积。_\n\n### 全景-CenterMask\n\n|方法|主干网络|学习率调度|推理时间|掩码AP|边界框AP|PQ|下载|\n|:--------:|:--------:|:--:|:--:|:--:|:----:|:----:|:--------:|\n|全景-FPN|R-50|3倍|0.063秒|40.0|36.5|41.5|\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-PanopticSegmentation\u002Fpanoptic_fpn_R_50_3x\u002F139514569\u002Fmodel_final_c10459.pkl\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-PanopticSegmentation\u002Fpanoptic_fpn_R_50_3x\u002F139514569\u002Fmetrics.json\">指标\u003C\u002Fa>\n|全景-CenterMask|R-50|3倍|0.063秒|41.4|37.3|42.0|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fvxe51cdeprao94j\u002Fpanoptic_centermask_R_50_ms_3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fdfddgx6rnw1zr4l\u002Fpanoptic_centermask_R_50_ms_3x_metrics.json\">指标\u003C\u002Fa>\n|全景-FPN|V-39|3倍|0.063秒|42.8|38.5|43.4|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Ffnr9r4arv0cbfbf\u002Fpanoptic_V_39_eSE_3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fvftfukrjuu7w1ao\u002Fpanoptic_V_39_eSE_3x_metrics.json\">指标\u003C\u002Fa>\n|全景-CenterMask|V-39|3倍|0.066秒|43.4|39.0|43.7|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F49ig16ailra1f4t\u002Fpanoptic_centermask_V_39_eSE_ms_3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fwy4mn8n513k0um5\u002Fpanoptic_centermask_V_39_eSE_ms_3x_metrics.json\">指标\u003C\u002Fa>\n||\n|全景-FPN|R-101|3倍|0.078秒|42.4|38.5|43.0|\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-PanopticSegmentation\u002Fpanoptic_fpn_R_101_3x\u002F139514519\u002Fmodel_final_cafdb1.pkl\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002FCOCO-PanopticSegmentation\u002Fpanoptic_fpn_R_101_3x\u002F139514519\u002Fmetrics.json\">指标\u003C\u002Fa>\n|全景-CenterMask|R-101|3倍|0.076秒|43.5|39.0|43.6|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fy5stg3qx72gff5o\u002Fpanoptic_centermask_R_101_ms_3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fojljt0obp8vnr8s\u002Fpanoptic_centermask_R_101_ms_3x_metrics.json\">指标\u003C\u002Fa>\n|全景-FPN|V-57|3倍|0.070秒|43.4|39.2|44.3|\u003Ca href=\"https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fzhoqx5rvc0jj0oa\u002Fpanoptic_V_57_eSE_3x.pth?dl=1\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F20hwrmru15dilre\u002Fpanoptic_V_57_eSE_3x_metrics.json\">指标\u003C\u002Fa>\n|全景-CenterMask|V-57|3倍|0.071秒|43.9|39.6|44.5|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fkqukww4y7tbgbrh\u002Fpanoptic_centermask_V_57_ms_3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F4asto3b4iya74ak\u002Fpanoptic_centermask_V_57_ms_3x_metrics.json\">指标\u003C\u002Fa>\n||\n|全景-CenterMask|V-99|3倍|0.091秒|45.1|40.6|45.4|\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fpr6a3inpasn7qlz\u002Fpanoptic_centermask_V_99_ms_3x.pth\">模型\u003C\u002Fa>&nbsp;\\|&nbsp;\u003Ca href=\"https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F00e8x0riplme7pm\u002Fpanoptic_centermask_V_99_ms_3x_metrics.json\">指标\u003C\u002Fa>\n\n\n## 安装\n使用CenterMask2所需的一切是[Detectron2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetectron2)。非常简单！  \n只需按照[INSTALL.md](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetectron2\u002Fblob\u002Fmaster\u002FINSTALL.md)安装[Detectron2]即可。  \n请按照[此说明](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdetectron2\u002Ftree\u002Fmaster\u002Fdatasets)准备COCO数据集。\n\n## 训练\n\n#### ImageNet 预训练模型\n\n我们为 detectron2 提供了在 ImageNet-1k 数据集上预训练的骨干网络权重。\n* [MobileNet-V2](https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fyduxbc13s3ip6qn\u002Fmobilenet_v2_detectron2.pth)\n* [VoVNetV2-19-Slim-DW](https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Ff3s7ospitqoals1\u002Fvovnet19_ese_slim_dw_detectron2.pth)\n* [VoVNetV2-19-Slim](https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F8h5ybmi4ftbcom0\u002Fvovnet19_ese_slim_detectron2.pth)\n* [VoVNetV2-19](https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Frptgw6stppbiw1u\u002Fvovnet19_ese_detectron2.pth)\n* [VoVNetV2-39](https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Fq98pypf96rhtd8y\u002Fvovnet39_ese_detectron2.pth)\n* [VoVNetV2-57](https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F8xl0cb3jj51f45a\u002Fvovnet57_ese_detectron2.pth)\n* [VoVNetV2-99](https:\u002F\u002Fdl.dropbox.com\u002Fs\u002F1mlv31coewx8trd\u002Fvovnet99_ese_detectron2.pth)\n\n\n要训练一个模型，请运行：\n```bash\ncd centermask2\npython train_net.py --config-file \"configs\u002F\u003Cconfig.yaml>\"\n```\n\n例如，要在 8 块 GPU 上使用 VoVNetV2-39 骨干网络启动 CenterMask 训练，应执行：\n```bash\ncd centermask2\npython train_net.py --config-file \"configs\u002Fcentermask\u002Fcentermask_V_39_eSE_FPN_ms_3x.yaml\" --num-gpus 8\n```\n\n## 评估\n\n模型评估可以类似地进行：  \n* 如果您希望用 1 个批次进行推理，请使用 `--num-gpus 1`  \n* `--eval-only`  \n* `MODEL.WEIGHTS path\u002Fto\u002Fthe\u002Fmodel.pth`\n\n```bash\ncd centermask2\nwget https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Ftczecsdxt10uai5\u002Fcentermask2-V-39-eSE-FPN-ms-3x.pth\npython train_net.py --config-file \"configs\u002Fcentermask\u002Fcentermask_V_39_eSE_FPN_ms_3x.yaml\" --num-gpus 1 --eval-only MODEL.WEIGHTS centermask2-V-39-eSE-FPN-ms-3x.pth\n```\n\n## 待办事项\n - [x] 添加轻量级模型\n - [ ] 将 CenterMask 应用于 PointRend 或 Panoptic-FPN。\n\n\n## \u003Ca name=\"CitingCenterMask\">\u003C\u002Fa>引用 CenterMask\n\n如果您使用 VoVNet，请使用以下 BibTeX 条目。\n\n```BibTeX\n@inproceedings{lee2019energy,\n  title = {一种面向实时目标检测的节能且高效利用 GPU 的骨干网络},\n  author = {Lee, Youngwan 和 Hwang, Joong-won 和 Lee, Sangrok 和 Bae, Yuseok 和 Park, Jongyoul},\n  booktitle = {IEEE 计算机视觉与模式识别研讨会论文集},\n  year = {2019}\n}\n\n@inproceedings{lee2020centermask,\n  title={CenterMask: 实时无锚点实例分割},\n  author={Lee, Youngwan 和 Park, Jongyoul},\n  booktitle={CVPR},\n  year={2020}\n}\n```\n\n## 特别感谢\n\n[mask scoring for detectron2](https:\u002F\u002Fgithub.com\u002Flsrock1\u002Fmaskscoring_rcnn.detectron2) by [Sangrok Lee](https:\u002F\u002Fgithub.com\u002Flsrock1)   \n[FCOS_for_detectron2](https:\u002F\u002Fgithub.com\u002Faim-uofa\u002Fadet) by AdeliDet 团队。","# CenterMask2 快速上手指南\n\n## 环境准备\n\n- **系统要求**：Linux 或 Windows（推荐 Ubuntu 20.04+）\n- **Python 版本**：3.7–3.9\n- **PyTorch**：1.7.0+\n- **CUDA**：10.1 或 11.1+\n- **Detectron2**：最新版（与 PyTorch 1.7+ 兼容）\n\n> 推荐使用国内镜像加速依赖安装：\n> ```bash\n> pip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n> ```\n\n## 安装步骤\n\n1. 克隆 CenterMask2 仓库：\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002FCenterMask2.git\n   cd CenterMask2\n   ```\n\n2. 安装 Detectron2（推荐从源码安装以确保兼容）：\n   ```bash\n   pip install detectron2 -f https:\u002F\u002Fdl.fbaipublicfiles.com\u002Fdetectron2\u002Fwheels\u002Fcu118\u002Ftorch1.13\u002Findex.html\n   ```\n\n3. 安装其他依赖：\n   ```bash\n   pip install -r requirements.txt\n   ```\n\n4. 编译自定义算子（如需）：\n   ```bash\n   python setup.py build develop\n   ```\n\n## 基本使用\n\n1. 下载预训练模型（以 CenterMask2-V2-39 为例）：\n   ```bash\n   wget https:\u002F\u002Fdl.dropbox.com\u002Fs\u002Ftczecsdxt10uai5\u002Fcentermask2-V-39-eSE-FPN-ms-3x.pth -O output\u002Fcentermask2-V-39-eSE-FPN-ms-3x.pth\n   ```\n\n2. 使用默认配置运行推理：\n   ```bash\n   python demo\u002Fdemo.py --config-file configs\u002Fcentermask\u002Fcentermask2_V_39_eSE_FPN_ms_3x.yaml --input path\u002Fto\u002Fyour\u002Fimage.jpg --output output\u002F --opts MODEL.WEIGHTS output\u002Fcentermask2-V-39-eSE-FPN-ms-3x.pth\n   ```\n\n3. 输出结果将保存在 `output\u002F` 目录下，包含带实例分割掩码的图像。\n\n> 支持批量图像输入，模型权重可替换为其他版本（如 `V-57`、`V-99` 或 `Lite` 系列）。","某自动驾驶初创公司正在开发基于车载摄像头的实时道路障碍物感知系统，需在每秒30帧以上准确分割出行人、自行车、路障等实例，以支持决策模块快速响应。\n\n### 没有 centermask2 时\n- 使用传统Mask R-CNN模型，推理延迟高达55ms\u002F帧，无法满足实时性要求，车辆在高速行驶时存在识别滞后风险。\n- 模型对小目标（如远处行人、倒地自行车）分割精度低，漏检率超过12%，导致系统误判率上升。\n- 部署在NVIDIA Jetson AGX上时，内存占用过高，常因显存溢出导致系统重启。\n- 模型依赖复杂的锚框机制，训练数据需大量人工标注边界框，标注成本高且周期长。\n- 多目标密集场景（如十字路口）中，实例间边界混淆严重，分割结果出现“粘连”现象，影响后续轨迹预测。\n\n### 使用 centermask2 后\n- 推理速度提升至50ms\u002F帧以下，配合轻量级VoVNetV2-39骨干，在Jetson AGX上稳定运行于35+ FPS，满足实时控制需求。\n- 实例分割精度显著提升，mask AP达39.7，小目标检测漏检率降至4%以下，系统误报率下降近70%。\n- 模型体积更小、计算更高效，显存占用降低约25%，系统稳定性大幅提升，不再出现重启问题。\n- 采用无锚框设计，无需预设锚框参数，训练流程简化，标注效率提升40%，数据准备周期从3周缩短至2周。\n- 在密集场景中，中心点预测机制有效避免实例粘连，分割边界清晰，为轨迹预测模块提供更可靠的输入。\n\ncentermask2 让自动驾驶感知系统在不牺牲精度的前提下，实现了真正可用的实时实例分割能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyoungwanLEE_centermask2_9f3961fe.png","youngwanLEE","Youngwan Lee","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FyoungwanLEE_f0364cf2.jpg","Senior researcher at ETRI & Ph.D student in \r\nGraduate school of AI at KAIST.","ETRI & MLAI@KAIST","South Korea","yw.lee@etri.re.kr",null,"https:\u002F\u002Fyoungwanlee.github.io\u002F","https:\u002F\u002Fgithub.com\u002FyoungwanLEE",[86,90],{"name":87,"color":88,"percentage":89},"Python","#3572A5",99.7,{"name":91,"color":92,"percentage":93},"Shell","#89e051",0.3,778,155,"2026-03-02T19:03:48","NOASSERTION","Linux","需要 NVIDIA GPU，显存 8GB+，CUDA 10.1","未说明",{"notes":102,"python":100,"dependencies":103},"项目基于 Detectron2 构建，建议使用与 CUDA 10.1 兼容的 PyTorch 1.7.0 环境；首次运行需下载多个模型文件，总大小约数 GB；推荐在 Linux 系统下部署，Windows 和 macOS 未明确支持；部分模型使用了 deformable convolution 和 VoVNet 等特殊结构，需确保编译环境完整。",[104,105],"torch>=1.7","detectron2",[13,14],[108,105,109,110,111,112,113,114,115,116],"centermask","object-detection","instance-segmentation","anchor-free","vovnet","vovnetv2","real-time","pytorch","cvpr2020","2026-03-27T02:49:30.150509","2026-04-06T06:45:55.303820",[120,125,130,135,139,143,147,151],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},8962,"运行 train_net.py 时出现 TypeError: _train_loader_from_config() takes 1 positional argument but 2 were given 错误，如何解决？","该问题已修复，建议更新到最新版本的 CenterMask2 代码。若仍出现，检查是否使用了与 Detectron2 0.3 不兼容的配置文件，确保 config 文件中所有数据加载器相关参数与中心点掩码版本匹配。可参考项目中更新后的 train_net.py 和配置文件结构。","https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002Fcentermask2\u002Fissues\u002F70",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},8963,"在单类别（如仅检测人）数据集上训练 CenterMask2 时出现 'No predictions from the model!' 错误，如何解决？","需同时修改多个配置项：设置 cfg.MODEL.FCOS.NUM_CLASSES = 1、cfg.MODEL.RETINANET.NUM_CLASSES = 1、cfg.MODEL.ROI_HEADS.NUM_CLASSES = 1，并确保 COCO 标签文件中类别 ID 从 0 开始。同时，在评估脚本 centermask2\u002Fcentermask\u002Fevaluation\u002Fcoco_evaluation.py 中，添加过滤逻辑仅保留 category_id == 0 的预测结果，避免因类别不匹配导致无输出。","https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002Fcentermask2\u002Fissues\u002F23",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},8964,"运行 demo.py 时报错 'Non-existent config key: MODEL.MASKIOU_ON'，如何解决？","该错误是因为配置文件中缺少 MODEL.MASKIOU_ON 字段。请在 YAML 配置文件（如 centermask_lite_V_39_eSE_FPN_ms_4x.yaml）中手动添加一行：MODEL.MASKIOU_ON: false。或使用官方提供的最新配置文件替换，确保与代码版本兼容。","https:\u002F\u002Fgithub.com\u002FyoungwanLEE\u002Fcentermask2\u002Fissues\u002F16",{"id":136,"question_zh":137,"answer_zh":138,"source_url":134},8965,"使用 demo.py 进行视频推理时，设置了 INPUT.MAX_SIZE_TEST=128 后没有检测到任何掩码，如何调整？","INPUT.MAX_SIZE_TEST 设置为 128 过小，无法有效检测目标。建议将值调整为 512 或更高（如 800），以保证图像分辨率足够识别物体。命令示例：python demo.py --video-input video.mp4 --config-file config.yaml --opts INPUT.MAX_SIZE_TEST 512。",{"id":140,"question_zh":141,"answer_zh":142,"source_url":129},8966,"如何在自定义数据集（如仅人）上正确注册和配置 CenterMask2？","使用 register_coco_instances(\"dataset_name\", {}, \"path\u002Fto\u002Fannotations.json\", \"path\u002Fto\u002Fimages\") 注册数据集，并设置 MetadataCatalog.get(\"dataset_name\").set(thing_classes=[\"person\"])。确保 JSON 标注文件中的 category_id 为 0（单类），并同步修改模型配置中的 NUM_CLASSES = 1，避免类别索引不一致导致训练失败。",{"id":144,"question_zh":145,"answer_zh":146,"source_url":134},8967,"CenterMask2 推理速度慢，如何优化可视化性能？","官方 demo.py 基于 Detectron2，默认可视化较慢。建议在推理后关闭可视化（--output 指定保存路径而非实时显示），或改用 YOLACT 的轻量级可视化工具。若必须实时显示，可降低 INPUT.MAX_SIZE_TEST 至 512 并使用 GPU 加速，避免在 CPU 上渲染高分辨率掩码。",{"id":148,"question_zh":149,"answer_zh":150,"source_url":129},8968,"在单类训练中，如何修改评估脚本以正确处理预测结果？","在 centermask2\u002Fcentermask\u002Fevaluation\u002Fcoco_evaluation.py 的 _eval_predictions 函数中，添加代码过滤类别：遍历 coco_results，仅保留 category_id == 0 的预测项（如人），并用 human_detections 替换原列表，避免因类别 ID 不匹配导致评估失败或无输出。",{"id":152,"question_zh":153,"answer_zh":154,"source_url":129},8969,"如何解决 CenterMask2 在 Colab 上因 PyTorch 版本不兼容导致的 mask_rcnn_loss 错误？","确保使用与 CenterMask2 兼容的 PyTorch 版本（如 1.4+cu100）和 Detectron2 版本。若出现空张量错误，检查标注文件是否包含有效实例，或在 mask_head.py 中添加对空 gt_masks 列表的保护逻辑：if len(gt_masks) == 0: return torch.tensor(0.0, device=pred_mask_logits.device)。",[]]