[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-hoya012--deep_learning_object_detection":3,"tool-hoya012--deep_learning_object_detection":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,2,"2026-04-16T23:34:05",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":78,"difficulty_score":89,"env_os":90,"env_gpu":91,"env_ram":91,"env_deps":92,"category_tags":95,"github_topics":96,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":102,"updated_at":103,"faqs":104,"releases":135},8243,"hoya012\u002Fdeep_learning_object_detection","deep_learning_object_detection","A paper list of object detection using deep learning.","deep_learning_object_detection 是一个专注于深度学习目标检测领域的论文清单资源库。它系统地梳理了从 2014 年至今该方向的重要学术成果，旨在解决研究人员和开发者在面对海量文献时难以快速定位核心论文、对比算法性能以及查找对应代码实现的痛点。\n\n该项目不仅按年份详细罗列了包括 R-CNN、YOLO、Faster R-CNN 等经典及前沿模型的研究论文，还特别标注了作者推荐的“必读”篇目，帮助读者高效把握技术演进脉络。其独特亮点在于提供了直观的技术发展历史图谱、详尽的多数据集（如 VOC、COCO）性能对比表格，并附带了各论文的官方或非官方代码链接，极大地降低了复现与学习的门槛。\n\ndeep_learning_object_detection 非常适合计算机视觉领域的研究人员、算法工程师以及高校学生使用。无论是希望深入了解目标检测技术发展史，还是需要为最新研究寻找基准参考，亦或是寻求具体算法的代码实现，这个资源库都能提供极具价值的指引。它就像一位博学的向导，协助用户在复杂的学术海洋中快速锚定关键信息，是进入和深耕目标检测领域不可或缺的案头工具。","# deep learning object detection\nA paper list of object detection using deep learning. I wrote this page with reference to [this survey paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1809.02165v1.pdf) and searching and searching.. \n\n*Last updated: 2020\u002F09\u002F22*\n\n#### Update log\n*2018\u002F9\u002F18* - update all of recent papers and make some diagram about history of object detection using deep learning. \n*2018\u002F9\u002F26* - update codes of papers. (official and unofficial)  \n*2018\u002Foctober* - update 5 papers and performance table.  \n*2018\u002Fnovember* - update 9 papers.  \n*2018\u002Fdecember* - update 8 papers and and performance table and add new diagram(**2019 version!!**).  \n*2019\u002Fjanuary* - update 4 papers and and add commonly used datasets.  \n*2019\u002Ffebruary* - update 3 papers.  \n*2019\u002Fmarch* - update figure and code links.  \n*2019\u002Fapril* - remove author's names and update ICLR 2019 & CVPR 2019 papers.  \n*2019\u002Fmay* - update CVPR 2019 papers.  \n*2019\u002Fjune* - update CVPR 2019 papers and dataset paper.  \n*2019\u002Fjuly* - update BMVC 2019 papers and some of ICCV 2019 papers.  \n*2019\u002Fseptember* - update NeurIPS 2019 papers and ICCV 2019 papers.  \n*2019\u002Fnovember* - update some of AAAI 2020 papers and other papers.  \n*2020\u002Fjanuary* - update ICLR 2020 papers and other papers.  \n*2020\u002Fmay* - update CVPR 2020 papers and other papers.  \n*2020\u002Fjune* - update arxiv papers.  \n*2020\u002Faugust* - update paper links.  \n\n\n##\n\n## Table of Contents\n- [Paper list from 2014 to now(2019)](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#paper-list-from-2014-to-now2019)\n- [Performance table](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#performance-table)\n- Papers\n  - [2014](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#2014)\n  - [2015](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#2015)\n  - [2016](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#2016)\n  - [2017](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#2017)\n  - [2018](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#2018)\n  - [2019](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#2019)\n  - [2020](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#2020)\n- [Dataset Papers](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#dataset-papers)\n\n##\n\n## Paper list from 2014 to now(2019)\nThe part highlighted with red characters means papers that i think \"must-read\".\nHowever, it is **my personal opinion** and other papers are important too, so I recommend to read them if you have time.\n\n\u003Cp align=\"center\">\n  \u003Cimg width=\"1000\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhoya012_deep_learning_object_detection_readme_14936dc16f55.png\" \"Example of object detection.\">\n\u003C\u002Fp>\n\n##\n\n## Performance table\n\nFPS(Speed) index is related to the hardware spec(e.g. CPU, GPU, RAM, etc), so it is hard to make an equal comparison. The solution is to measure the performance of all models on hardware with equivalent specifications, but it is very difficult and time consuming. \n\n|   Detector   | VOC07 (mAP@IoU=0.5) | VOC12 (mAP@IoU=0.5) | COCO (mAP@IoU=0.5:0.95) | Published In |\n|:------------:|:-------------------:|:-------------------:|:----------:|:------------:| \n|     R-CNN    |         58.5        |          -          |      -     |    CVPR'14   |\n|    SPP-Net   |         59.2        |          -          |      -     |    ECCV'14   |\n|    MR-CNN    |     78.2 (07+12)    |     73.9 (07+12)    |      -     |    ICCV'15   |\n|  Fast R-CNN  |     70.0 (07+12)    |     68.4 (07++12)   |    19.7    |    ICCV'15   |\n| Faster R-CNN |     73.2 (07+12)    |     70.4 (07++12)   |    21.9    |    NIPS'15   |\n|    YOLO v1   |     66.4 (07+12)    |     57.9 (07++12)   |      -     |    CVPR'16   |\n|     G-CNN    |         66.8        |     66.4 (07+12)    |      -     |    CVPR'16   |\n|     AZNet    |         70.4        |          -          |    22.3    |    CVPR'16   |\n|      ION     |         80.1        |         77.9        |    33.1    |    CVPR'16   |\n|   HyperNet   |     76.3 (07+12)    |    71.4 (07++12)    |      -     |    CVPR'16   |\n|     OHEM     |     78.9 (07+12)    |    76.3 (07++12)    |    22.4    |    CVPR'16   |\n|      MPN     |           -         |          -          |    33.2    |    BMVC'16   |\n|      SSD     |     76.8 (07+12)    |    74.9 (07++12)    |    31.2    |    ECCV'16   |\n|    GBDNet    |     77.2 (07+12)    |          -          |    27.0    |    ECCV'16   |\n|      CPF     |     76.4 (07+12)    |    72.6 (07++12)    |      -     |    ECCV'16   |\n|     R-FCN    |     79.5 (07+12)    |    77.6 (07++12)    |    29.9    |    NIPS'16   |\n|  DeepID-Net  |         69.0        |          -          |      -     |    PAMI'16   |\n|      NoC     |     71.6 (07+12)    |    68.8 (07+12)     |    27.2    |   TPAMI'16   |\n|     DSSD     |     81.5 (07+12)    |    80.0 (07++12)    |    33.2    |   arXiv'17   |\n|      TDM     |          -          |          -          |    37.3    |    CVPR'17   |\n|      FPN     |          -          |          -          |    36.2    |    CVPR'17   |\n|    YOLO v2   |     78.6 (07+12)    |    73.4 (07++12)    |      -     |    CVPR'17   |\n|      RON     |     77.6 (07+12)    |    75.4 (07++12)    |    27.4    |    CVPR'17   |\n|     DeNet    |     77.1 (07+12)    |    73.9 (07++12)    |    33.8    |    ICCV'17   |\n|   CoupleNet  |     82.7 (07+12)    |    80.4 (07++12)    |    34.4    |    ICCV'17   |\n|   RetinaNet  |          -          |          -          |    39.1    |    ICCV'17   |\n|     DSOD     |     77.7 (07+12)    |    76.3 (07++12)    |      -     |    ICCV'17   |\n|      SMN     |         70.0        |          -          |      -     |    ICCV'17   |\n|Light-Head R-CNN|        -          |          -          |    41.5    |   arXiv'17   |\n|    YOLO v3   |          -          |          -          |    33.0    |   arXiv'18   |\n|      SIN     |     76.0 (07+12)    |    73.1 (07++12)    |    23.2    |    CVPR'18   |\n|     STDN     |     80.9 (07+12)    |          -          |      -     |    CVPR'18   |\n|   RefineDet  |     83.8 (07+12)    |    83.5 (07++12)    |    41.8    |    CVPR'18   |\n|     SNIP     |          -          |          -          |    45.7    |    CVPR'18   |\n|Relation-Network|        -          |          -          |     32.5   |    CVPR'18   |\n| Cascade R-CNN|          -          |          -          |     42.8   |    CVPR'18   |\n|     MLKP     |     80.6 (07+12)    |    77.2 (07++12)    |     28.6   |    CVPR'18   |\n|  Fitness-NMS |          -          |          -          |     41.8   |    CVPR'18   |\n|    RFBNet    |     82.2 (07+12)    |          -          |      -     |    ECCV'18   |\n|   CornerNet  |          -          |          -          |     42.1   |    ECCV'18   |\n|    PFPNet    |     84.1 (07+12)    |    83.7 (07++12)    |     39.4   |    ECCV'18   |\n|    Pelee     |     70.9 (07+12)    |          -          |      -     |    NIPS'18   |\n|     HKRM     |     78.8 (07+12)    |          -          |     37.8   |    NIPS'18   |\n|     M2Det    |          -          |          -          |     44.2   |    AAAI'19   |\n|     R-DAD    |     81.2 (07++12)   |    82.0 (07++12)    |     43.1   |    AAAI'19   |\n| ScratchDet   |   84.1 (07++12)     |    83.6 (07++12)    |     39.1   |    CVPR'19   |\n| Libra R-CNN  |          -          |          -          |     43.0   |    CVPR'19   |\n| Reasoning-RCNN  | 82.5 (07++12)    |          -          |     43.2   |    CVPR'19   |\n|      FSAF    |          -          |          -          |     44.6   |    CVPR'19   |\n| AmoebaNet + NAS-FPN |     -        |          -          |     47.0   |    CVPR'19   |\n| Cascade-RetinaNet |       -        |           -         |     41.1   |    CVPR'19   |\n|      HTC     |          -          |          -          |     47.2   |    CVPR'19   |\n|   TridentNet |          -          |          -          |     48.4   |    ICCV'19   |\n|      DAFS    |   **85.3 (07+12)**  |    83.1 (07++12)    |     40.5   |    ICCV'19   |\n|   Auto-FPN   |     81.8 (07++12)   |          -          |     40.5   |    ICCV'19   |\n|     FCOS     |          -          |          -          |     44.7   |    ICCV'19   |\n|   FreeAnchor |          -          |          -          |     44.8   |  NeurIPS'19  |\n|    DetNAS    |     81.5 (07++12)   |          -          |     42.0   |  NeurIPS'19  |\n|     NATS     |          -          |          -          |     42.0   |  NeurIPS'19  |\n| AmoebaNet + NAS-FPN + AA |   -     |          -          |     50.7   |    arXiv'19  |\n|   SpineNet   |          -          |          -          |     52.1   |    arXiv'19  |\n|     CBNet    |          -          |          -          |     53.3   |    AAAI'20   |\n| EfficientDet |          -          |          -          |     52.6   |    CVPR'20   |\n|  DetectoRS   |          -          |          -          |     **54.7**   |    arXiv'20   |\n\n##\n\n## 2014\n\n- **[R-CNN]** Rich feature hierarchies for accurate object detection and semantic segmentation | **[CVPR' 14]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1311.2524.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Frbgirshick\u002Frcnn) \n\n- **[OverFeat]** OverFeat: Integrated Recognition, Localization and Detection using Convolutional Networks | **[ICLR' 14]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1312.6229.pdf) [`[official code - torch]`](https:\u002F\u002Fgithub.com\u002Fsermanet\u002FOverFeat) \n\n- **[MultiBox]** Scalable Object Detection using Deep Neural Networks | **[CVPR' 14]** |[`[pdf]`](https:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2014\u002Fpapers\u002FErhan_Scalable_Object_Detection_2014_CVPR_paper.pdf)\n\n- **[SPP-Net]** Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition | **[ECCV' 14]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1406.4729.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002FShaoqingRen\u002FSPP_net) [`[unofficial code - keras]`](https:\u002F\u002Fgithub.com\u002Fyhenon\u002Fkeras-spp) [`[unofficial code - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fpeace195\u002Fsppnet)\n\n## 2015\n- Improving Object Detection with Deep Convolutional Networks via Bayesian Optimization and Structured Prediction | **[CVPR' 15]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1504.03293.pdf) [`[official code - matlab]`](https:\u002F\u002Fgithub.com\u002FYutingZhang\u002Ffgs-obj)\n\n- **[MR-CNN]** Object detection via a multi-region & semantic segmentation-aware CNN model | **[ICCV' 15]** |[`[pdf]`](https:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_iccv_2015\u002Fpapers\u002FGidaris_Object_Detection_via_ICCV_2015_paper.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Fgidariss\u002Fmrcnn-object-detection)\n\n- **[DeepBox]** DeepBox: Learning Objectness with Convolutional Networks | **[ICCV' 15]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1505.02146.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Fweichengkuo\u002FDeepBox)\n\n- **[AttentionNet]** AttentionNet: Aggregating Weak Directions for Accurate Object Detection | **[ICCV' 15]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1506.07704.pdf) \n\n- **[Fast R-CNN]** Fast R-CNN | **[ICCV' 15]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1504.08083.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Frbgirshick\u002Ffast-rcnn) \n\n- **[DeepProposal]** DeepProposal: Hunting Objects by Cascading Deep Convolutional Layers | **[ICCV' 15]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1510.04445.pdf)  [`[official code - matconvnet]`](https:\u002F\u002Fgithub.com\u002Faghodrati\u002Fdeepproposal)\n\n- **[Faster R-CNN, RPN]** Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks | **[NIPS' 15]** |[`[pdf]`](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5638-faster-r-cnn-towards-real-time-object-detection-with-region-proposal-networks.pdf)  [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Frbgirshick\u002Fpy-faster-rcnn) [`[unofficial code - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fendernewton\u002Ftf-faster-rcnn)  [`[unofficial code - pytorch]`](https:\u002F\u002Fgithub.com\u002Fjwyang\u002Ffaster-rcnn.pytorch) \n\n## 2016\n\n- **[YOLO v1]** You Only Look Once: Unified, Real-Time Object Detection | **[CVPR' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1506.02640.pdf) [`[official code - c]`](https:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F) \n\n- **[G-CNN]** G-CNN: an Iterative Grid Based Object Detector | **[CVPR' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1512.07729.pdf)\n\n- **[AZNet]** Adaptive Object Detection Using Adjacency and Zoom Prediction | **[CVPR' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1512.07711.pdf)\n\n- **[ION]** Inside-Outside Net: Detecting Objects in Context with Skip Pooling and Recurrent Neural Networks | **[CVPR' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1512.04143.pdf)\n\n- **[HyperNet]** HyperNet: Towards Accurate Region Proposal Generation and Joint Object Detection | **[CVPR' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1604.00600.pdf)\n\n- **[OHEM]** Training Region-based Object Detectors with Online Hard Example Mining | **[CVPR' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1604.03540.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Fabhi2610\u002Fohem) \n\n- **[CRAPF]** CRAFT Objects from Images | **[CVPR' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1604.03239.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Fbyangderek\u002FCRAFT) \n\n- **[MPN]** A MultiPath Network for Object Detection | **[BMVC' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1604.02135.pdf) [`[official code - torch]`](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fmultipathnet) \n\n- **[SSD]** SSD: Single Shot MultiBox Detector | **[ECCV' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1512.02325.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Fweiliu89\u002Fcaffe\u002Ftree\u002Fssd) [`[unofficial code - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fbalancap\u002FSSD-Tensorflow) [`[unofficial code - pytorch]`](https:\u002F\u002Fgithub.com\u002Famdegroot\u002Fssd.pytorch) \n\n- **[GBDNet]** Crafting GBD-Net for Object Detection | **[ECCV' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1610.02579.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002FcraftGBD\u002FcraftGBD)\n\n- **[CPF]** Contextual Priming and Feedback for Faster R-CNN | **[ECCV' 16]** |[`[pdf]`](https:\u002F\u002Fpdfs.semanticscholar.org\u002F40e7\u002F4473cb82231559cbaeaa44989e9bbfe7ec3f.pdf)\n\n- **[MS-CNN]** A Unified Multi-scale Deep Convolutional Neural Network for Fast Object Detection | **[ECCV' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1607.07155.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Fzhaoweicai\u002Fmscnn)\n\n- **[R-FCN]** R-FCN: Object Detection via Region-based Fully Convolutional Networks | **[NIPS' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1605.06409.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Fdaijifeng001\u002FR-FCN) [`[unofficial code - caffe]`](https:\u002F\u002Fgithub.com\u002FYuwenXiong\u002Fpy-R-FCN)\n\n- **[PVANET]** PVANET: Deep but Lightweight Neural Networks for Real-time Object Detection | **[NIPSW' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1608.08021.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Fsanghoon\u002Fpva-faster-rcnn)\n\n- **[DeepID-Net]** DeepID-Net: Deformable Deep Convolutional Neural Networks for Object Detection | **[PAMI' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1412.5661.pdf)\n\n- **[NoC]** Object Detection Networks on Convolutional Feature Maps | **[TPAMI' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1504.06066.pdf)\n\n## 2017\n\n- **[DSSD]** DSSD : Deconvolutional Single Shot Detector | **[arXiv' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1701.06659.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Fchengyangfu\u002Fcaffe\u002Ftree\u002Fdssd)\n\n- **[TDM]** Beyond Skip Connections: Top-Down Modulation for Object Detection | **[CVPR' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1612.06851.pdf)\n\n- **[FPN]** Feature Pyramid Networks for Object Detection  | **[CVPR' 17]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2017\u002Fpapers\u002FLin_Feature_Pyramid_Networks_CVPR_2017_paper.pdf) [`[unofficial code - caffe]`](https:\u002F\u002Fgithub.com\u002Funsky\u002FFPN)\n\n- **[YOLO v2]** YOLO9000: Better, Faster, Stronger | **[CVPR' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1612.08242.pdf) [`[official code - c]`](https:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F) [`[unofficial code - caffe]`](https:\u002F\u002Fgithub.com\u002Fquhezheng\u002Fcaffe_yolo_v2) [`[unofficial code - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fnilboy\u002Ftensorflow-yolo) [`[unofficial code - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fsualab\u002Fobject-detection-yolov2) [`[unofficial code - pytorch]`](https:\u002F\u002Fgithub.com\u002Flongcw\u002Fyolo2-pytorch) \n\n- **[RON]** RON: Reverse Connection with Objectness Prior Networks for Object Detection | **[CVPR' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1707.01691.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Ftaokong\u002FRON) [`[unofficial code - tensorflow]`](https:\u002F\u002Fgithub.com\u002FHiKapok\u002FRON_Tensorflow)\n\n- **[RSA]** Recurrent Scale Approximation for Object Detection in CNN |  | **[ICCV' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1707.09531.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Fsciencefans\u002FRSA-for-object-detection)\n\n- **[DCN]** Deformable Convolutional Networks  | **[ICCV' 17]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2017\u002Fpapers\u002FDai_Deformable_Convolutional_Networks_ICCV_2017_paper.pdf) [`[official code - mxnet]`](https:\u002F\u002Fgithub.com\u002Fmsracver\u002FDeformable-ConvNets) [`[unofficial code - tensorflow]`](https:\u002F\u002Fgithub.com\u002FZardinality\u002FTF_Deformable_Net) [`[unofficial code - pytorch]`](https:\u002F\u002Fgithub.com\u002Foeway\u002Fpytorch-deform-conv)\n\n- **[DeNet]** DeNet: Scalable Real-time Object Detection with Directed Sparse Sampling | **[ICCV' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.10295.pdf) [`[official code - theano]`](https:\u002F\u002Fgithub.com\u002Flachlants\u002Fdenet)\n\n- **[CoupleNet]** CoupleNet: Coupling Global Structure with Local Parts for Object Detection | **[ICCV' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1708.02863.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Ftshizys\u002FCoupleNet)\n\n- **[RetinaNet]** Focal Loss for Dense Object Detection | **[ICCV' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1708.02002.pdf) [`[official code - keras]`](https:\u002F\u002Fgithub.com\u002Ffizyr\u002Fkeras-retinanet) [`[unofficial code - pytorch]`](https:\u002F\u002Fgithub.com\u002Fkuangliu\u002Fpytorch-retinanet) [`[unofficial code - mxnet]`](https:\u002F\u002Fgithub.com\u002Funsky\u002FRetinaNet) [`[unofficial code - tensorflow]`](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftpu\u002Ftree\u002Fmaster\u002Fmodels\u002Fofficial\u002Fretinanet)\n\n- **[Mask R-CNN]** Mask R-CNN | **[ICCV' 17]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2017\u002Fpapers\u002FHe_Mask_R-CNN_ICCV_2017_paper.pdf) [`[official code - caffe2]`](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002FDetectron) [`[unofficial code - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fmatterport\u002FMask_RCNN) [`[unofficial code - tensorflow]`](https:\u002F\u002Fgithub.com\u002FCharlesShang\u002FFastMaskRCNN) [`[unofficial code - pytorch]`](https:\u002F\u002Fgithub.com\u002Fmultimodallearning\u002Fpytorch-mask-rcnn)\n\n- **[DSOD]** DSOD: Learning Deeply Supervised Object Detectors from Scratch | **[ICCV' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1708.01241.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Fszq0214\u002FDSOD) [`[unofficial code - pytorch]`](https:\u002F\u002Fgithub.com\u002Fuoip\u002FSSD-variants) \n\n- **[SMN]** Spatial Memory for Context Reasoning in Object Detection | **[ICCV' 17]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2017\u002Fpapers\u002FChen_Spatial_Memory_for_ICCV_2017_paper.pdf)\n\n- **[Light-Head R-CNN]** Light-Head R-CNN: In Defense of Two-Stage Object Detector | **[arXiv' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.07264.pdf) [`[official code - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fzengarden\u002Flight_head_rcnn)\n\n- **[Soft-NMS]** Improving Object Detection With One Line of Code | **[ICCV' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1704.04503.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Fbharatsingh430\u002Fsoft-nms)\n\n## 2018\n\n- **[YOLO v3]** YOLOv3: An Incremental Improvement | **[arXiv' 18]** |[`[pdf]`](https:\u002F\u002Fpjreddie.com\u002Fmedia\u002Ffiles\u002Fpapers\u002FYOLOv3.pdf) [`[official code - c]`](https:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F) [`[unofficial code - pytorch]`](https:\u002F\u002Fgithub.com\u002Fayooshkathuria\u002Fpytorch-yolo-v3) [`[unofficial code - pytorch]`](https:\u002F\u002Fgithub.com\u002Feriklindernoren\u002FPyTorch-YOLOv3) [`[unofficial code - keras]`](https:\u002F\u002Fgithub.com\u002Fqqwweee\u002Fkeras-yolo3) [`[unofficial code - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fmystic123\u002Ftensorflow-yolo-v3)\n\n- **[ZIP]** Zoom Out-and-In Network with Recursive Training for Object Proposal | **[IJCV' 18]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1702.05711.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Fhli2020\u002Fzoom_network)\n\n- **[SIN]** Structure Inference Net: Object Detection Using Scene-Level Context and Instance-Level Relationships | **[CVPR' 18]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FLiu_Structure_Inference_Net_CVPR_2018_paper.pdf) [`[official code - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fchoasup\u002FSIN)\n\n- **[STDN]** Scale-Transferrable Object Detection | **[CVPR' 18]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FZhou_Scale-Transferrable_Object_Detection_CVPR_2018_paper.pdf)\n\n- **[RefineDet]** Single-Shot Refinement Neural Network for Object Detection | **[CVPR' 18]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FZhang_Single-Shot_Refinement_Neural_CVPR_2018_paper.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Fsfzhang15\u002FRefineDet) [`[unofficial code - chainer]`](https:\u002F\u002Fgithub.com\u002Ffukatani\u002FRefineDet_chainer)  [`[unofficial code - pytorch]`](https:\u002F\u002Fgithub.com\u002Flzx1413\u002FPytorchSSD)\n\n- **[MegDet]** MegDet: A Large Mini-Batch Object Detector | **[CVPR' 18]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FPeng_MegDet_A_Large_CVPR_2018_paper.pdf)\n\n- **[DA Faster R-CNN]** Domain Adaptive Faster R-CNN for Object Detection in the Wild | **[CVPR' 18]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FChen_Domain_Adaptive_Faster_CVPR_2018_paper.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Fyuhuayc\u002Fda-faster-rcnn)\n\n- **[SNIP]** An Analysis of Scale Invariance in Object Detection – SNIP | **[CVPR' 18]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.08189.pdf)\n\n- **[Relation-Network]** Relation Networks for Object Detection | **[CVPR' 18]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.11575.pdf) [`[official code - mxnet]`](https:\u002F\u002Fgithub.com\u002Fmsracver\u002FRelation-Networks-for-Object-Detection)\n\n- **[Cascade R-CNN]** Cascade R-CNN: Delving into High Quality Object Detection | **[CVPR' 18]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FCai_Cascade_R-CNN_Delving_CVPR_2018_paper.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002Fzhaoweicai\u002Fcascade-rcnn)\n\n- Finding Tiny Faces in the Wild with Generative Adversarial Network | **[CVPR' 18]** |[`[pdf]`](https:\u002F\u002Fivul.kaust.edu.sa\u002FDocuments\u002FPublications\u002F2018\u002FFinding%20Tiny%20Faces%20in%20the%20Wild%20with%20Generative%20Adversarial%20Network.pdf)\n\n- **[MLKP]** Multi-scale Location-aware Kernel Representation for Object Detection | **[CVPR' 18]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1804.00428.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002FHwang64\u002FMLKP)\n\n- Cross-Domain Weakly-Supervised Object Detection through Progressive Domain Adaptation | **[CVPR' 18]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1803.11365.pdf) [`[official code - chainer]`](https:\u002F\u002Fgithub.com\u002Fnaoto0804\u002Fcross-domain-detection)\n\n- **[Fitness NMS]** Improving Object Localization with Fitness NMS and Bounded IoU Loss | **[CVPR' 18]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002FCameraReady\u002F0794.pdf) \n\n- **[STDnet]** STDnet: A ConvNet for Small Target Detection | **[BMVC' 18]** |[`[pdf]`](http:\u002F\u002Fbmvc2018.org\u002Fcontents\u002Fpapers\u002F0897.pdf)\n\n- **[RFBNet]** Receptive Field Block Net for Accurate and Fast Object Detection | **[ECCV' 18]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.07767.pdf) [`[official code - pytorch]`](https:\u002F\u002Fgithub.com\u002Fruinmessi\u002FRFBNet)\n\n- Zero-Annotation Object Detection with Web Knowledge Transfer | **[ECCV' 18]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ECCV_2018\u002Fpapers\u002FQingyi_Tao_Zero-Annotation_Object_Detection_ECCV_2018_paper.pdf)\n\n- **[CornerNet]** CornerNet: Detecting Objects as Paired Keypoints | **[ECCV' 18]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1808.01244.pdf) [`[official code - pytorch]`](https:\u002F\u002Fgithub.com\u002Fprinceton-vl\u002FCornerNet)\n\n- **[PFPNet]** Parallel Feature Pyramid Network for Object Detection | **[ECCV' 18]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ECCV_2018\u002Fpapers\u002FSeung-Wook_Kim_Parallel_Feature_Pyramid_ECCV_2018_paper.pdf)\n\n- **[Softer-NMS]** Softer-NMS: Rethinking Bounding Box Regression for Accurate Object Detection | **[arXiv' 18]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1809.08545.pdf)\n\n- **[ShapeShifter]** ShapeShifter: Robust Physical Adversarial Attack on Faster R-CNN Object Detector | **[ECML-PKDD' 18]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1804.05810.pdf) [`[official code - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fshangtse\u002Frobust-physical-attack)\n\n- **[Pelee]** Pelee: A Real-Time Object Detection System on Mobile Devices | **[NIPS' 18]** |[`[pdf]`](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F7466-pelee-a-real-time-object-detection-system-on-mobile-devices.pdf) [`[official code - caffe]`](https:\u002F\u002Fgithub.com\u002FRobert-JunWang\u002FPelee)\n\n- **[HKRM]** Hybrid Knowledge Routed Modules for Large-scale Object Detection | **[NIPS' 18]** |[`[pdf]`](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F7428-hybrid-knowledge-routed-modules-for-large-scale-object-detection.pdf) \n\n- **[MetaAnchor]** MetaAnchor: Learning to Detect Objects with Customized Anchors | **[NIPS' 18]** |[`[pdf]`](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F7315-metaanchor-learning-to-detect-objects-with-customized-anchors.pdf) \n\n- **[SNIPER]** SNIPER: Efficient Multi-Scale Training | **[NIPS' 18]** |[`[pdf]`](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F8143-sniper-efficient-multi-scale-training.pdf) \n\n## 2019\n- **[M2Det]** M2Det: A Single-Shot Object Detector based on Multi-Level Feature Pyramid Network | **[AAAI' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.04533.pdf) [`[official code - pytorch]`](https:\u002F\u002Fgithub.com\u002Fqijiezhao\u002FM2Det)\n\n- **[R-DAD]** Object Detection based on Region Decomposition and Assembly | **[AAAI' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1901.08225v1.pdf) \n\n- **[CAMOU]** CAMOU: Learning Physical Vehicle Camouflages to Adversarially Attack Detectors in the Wild | **[ICLR' 19]** |[`[pdf]`](https:\u002F\u002Fopenreview.net\u002Fpdf?id=SJgEl3A5tm) \n\n- Feature Intertwiner for Object Detection | **[ICLR' 19]** |[`[pdf]`](https:\u002F\u002Fopenreview.net\u002Fpdf?id=SyxZJn05YX) \n\n- **[GIoU]** Generalized Intersection over Union: A Metric and A Loss for Bounding Box Regression | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1902.09630.pdf) \n\n- Automatic adaptation of object detectors to new domains using self-training | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.07305.pdf) \n\n- **[Libra R-CNN]** Libra R-CNN: Balanced Learning for Object Detection | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.02701.pdf) \n\n- **[FSAF]** Feature Selective Anchor-Free Module for Single-Shot Object Detection | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1903.00621.pdf) \n\n- **[ExtremeNet]** Bottom-up Object Detection by Grouping Extreme and Center Points | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1901.08043.pdf) | [`[official code - pytorch]`](https:\u002F\u002Fgithub.com\u002Fxingyizhou\u002FExtremeNet)\n\n- **[C-MIL]** C-MIL: Continuation Multiple Instance Learning for Weakly Supervised Object Detection\n | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.05647.pdf) | [`[official code - torch]`](https:\u002F\u002Fgithub.com\u002FAnonymousIDs\u002FC-MIL)\n\n- **[ScratchDet]** ScratchDet: Training Single-Shot Object Detectors from Scratch | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1810.08425.pdf) \n\n- Bounding Box Regression with Uncertainty for Accurate Object Detection | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1809.08545.pdf) | [`[official code - caffe2]`](https:\u002F\u002Fgithub.com\u002Fyihui-he\u002FKL-Loss)\n\n- Activity Driven Weakly Supervised Object Detection | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.01665.pdf) \n\n- Towards Accurate One-Stage Object Detection with AP-Loss | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.06373.pdf) \n\n- Strong-Weak Distribution Alignment for Adaptive Object Detection | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1812.04798.pdf) | [`[official code - pytorch]`](https:\u002F\u002Fgithub.com\u002FVisionLearningGroup\u002FDA_Detection) \n\n- **[NAS-FPN]** NAS-FPN: Learning Scalable Feature Pyramid Architecture for Object Detection | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.07392.pdf) \n\n- **[Adaptive NMS]** Adaptive NMS: Refining Pedestrian Detection in a Crowd | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.03629.pdf) \n\n- Point in, Box out: Beyond Counting Persons in Crowds | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.01333.pdf) \n\n- Locating Objects Without Bounding Boxes | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1806.07564.pdf) \n\n- Sampling Techniques for Large-Scale Object Detection from Sparsely Annotated Objects | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.10862.pdf) \n\n- Towards Universal Object Detection by Domain Attention | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.04402.pdf) \n\n- Exploring the Bounds of the Utility of Context for Object Detection | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.05471.pdf) \n\n- What Object Should I Use? - Task Driven Object Detection | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.03000.pdf) \n\n- Dissimilarity Coefficient based Weakly Supervised Object Detection | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.10016) \n\n- Adapting Object Detectors via Selective Cross-Domain Alignment | **[CVPR' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fpapers\u002FZhu_Adapting_Object_Detectors_via_Selective_Cross-Domain_Alignment_CVPR_2019_paper.pdf) \n\n- Fully Quantized Network for Object Detection | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Fyan-junjie.github.io\u002Fpublication\u002Fdblp-confcvprlilqwfy-19\u002Fdblp-confcvprlilqwfy-19.pdf)\n\n- Distilling Object Detectors with Fine-grained Feature Imitation | **[CVPR' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fpapers\u002FWang_Distilling_Object_Detectors_With_Fine-Grained_Feature_Imitation_CVPR_2019_paper.pdf)\n\n- Multi-task Self-Supervised Object Detection via Recycling of Bounding Box Annotations | **[CVPR' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fpapers\u002FLee_Multi-Task_Self-Supervised_Object_Detection_via_Recycling_of_Bounding_Box_Annotations_CVPR_2019_paper.pdf)\n\n- **[Reasoning-RCNN]** Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Object Detection | **[CVPR' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fpapers\u002FXu_Reasoning-RCNN_Unifying_Adaptive_Global_Reasoning_Into_Large-Scale_Object_Detection_CVPR_2019_paper.pdf)\n\n- Arbitrary Shape Scene Text Detection with Adaptive Text Region Representation | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1905.05980.pdf)\n\n- Assisted Excitation of Activations: A Learning Technique to Improve Object Detectors | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Fpdfs.semanticscholar.org\u002Fec96\u002Fb6ae95e1ebbe4f7c0252301ede26dfc79467.pdf)\n\n- Spatial-aware Graph Relation Network for Large-scale Object Detection | **[CVPR' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fpapers\u002FXu_Spatial-Aware_Graph_Relation_Network_for_Large-Scale_Object_Detection_CVPR_2019_paper.pdf)\n\n- **[MaxpoolNMS]** MaxpoolNMS: Getting Rid of NMS Bottlenecks in Two-Stage Object Detectors | **[CVPR' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fpapers\u002FCai_MaxpoolNMS_Getting_Rid_of_NMS_Bottlenecks_in_Two-Stage_Object_Detectors_CVPR_2019_paper.pdf)\n\n- You reap what you sow: Generating High Precision Object Proposals for Weakly-supervised Object Detection | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Fweb.cs.ucdavis.edu\u002F~yjlee\u002Fprojects\u002Fcvpr2019-youreapwhatyousow.pdf)\n\n- Object detection with location-aware deformable convolution and backward attention filtering | **[CVPR' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fpapers\u002FZhang_Object_Detection_With_Location-Aware_Deformable_Convolution_and_Backward_Attention_Filtering_CVPR_2019_paper.pdf)\n\n- Diversify and Match: A Domain Adaptive Representation Learning Paradigm for Object Detection | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1905.05396.pdf)\n\n- Hybrid Task Cascade for Instance Segmentation | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1901.07518.pdf)\n\n- **[GFR]** Improving Object Detection from Scratch via Gated Feature Reuse | **[BMVC' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1712.00886v2.pdf) | [`[official code - pytorch]`](https:\u002F\u002Fgithub.com\u002Fszq0214\u002FGFR-DSOD)\n\n- **[Cascade RetinaNet]** Cascade RetinaNet: Maintaining Consistency for Single-Stage Object Detection | **[BMVC' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1907.06881v1.pdf)\n\n- Soft Sampling for Robust Object Detection | **[BMVC' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1806.06986v2.pdf)\n\n- Multi-adversarial Faster-RCNN for Unrestricted Object Detection | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1907.10343v1.pdf)\n\n- Towards Adversarially Robust Object Detection | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1907.10310v1.pdf)\n\n- A Robust Learning Approach to Domain Adaptive Object Detection | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.02361.pdf)\n\n- A Delay Metric for Video Object Detection: What Average Precision Fails to Tell\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1908.06368.pdf)\n\n- Delving Into Robust Object Detection From Unmanned Aerial Vehicles: A Deep Nuisance Disentanglement Approach | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1908.03856.pdf)\n\n- Employing Deep Part-Object Relationships for Salient Object Detection\t| **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FLiu_Employing_Deep_Part-Object_Relationships_for_Salient_Object_Detection_ICCV_2019_paper.pdf)\n\n- Learning Rich Features at High-Speed for Single-Shot Object Detection\t| **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FWang_Learning_Rich_Features_at_High-Speed_for_Single-Shot_Object_Detection_ICCV_2019_paper.pdf)\n\n- Structured Modeling of Joint Deep Feature and Prediction Refinement for Salient Object Detection\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.04366.pdf)\n\n- Selectivity or Invariance: Boundary-Aware Salient Object Detection\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1812.10066.pdf)\n\n- Progressive Sparse Local Attention for Video Object Detection\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1903.09126.pdf)\n\n- Minimum Delay Object Detection From Video\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1908.11092.pdf)\n\n- Towards Interpretable Object Detection by Unfolding Latent Structures\t | **[ICCV' 19]**  |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FWu_Towards_Interpretable_Object_Detection_by_Unfolding_Latent_Structures_ICCV_2019_paper.pdf)\n\n- Scaling Object Detection by Transferring Classification Weights\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.06804.pdf)\n\n- **[TridentNet]** Scale-Aware Trident Networks for Object Detection\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1901.01892.pdf)\n\n- Generative Modeling for Small-Data Object Detection\t| **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FLiu_Generative_Modeling_for_Small-Data_Object_Detection_ICCV_2019_paper.pdf)\n\n- Transductive Learning for Zero-Shot Object Detection\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Fsalman-h-khan.github.io\u002Fpapers\u002FICCV19-2.pdf)\n\n- Self-Training and Adversarial Background Regularization for Unsupervised Domain Adaptive One-Stage Object Detection\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.00597.pdf)\n\n-  **[CenterNet]** CenterNet: Keypoint Triplets for Object Detection\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.08189.pdf)\n\n- **[DAFS]** Dynamic Anchor Feature Selection for Single-Shot Object Detection\t| **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fwww4.comp.polyu.edu.hk\u002F~cslzhang\u002Fpaper\u002FICCV-DAFS.pdf)\n\n- **[Auto-FPN]** Auto-FPN: Automatic Network Architecture Adaptation for Object Detection Beyond Classification\t| **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FXu_Auto-FPN_Automatic_Network_Architecture_Adaptation_for_Object_Detection_Beyond_Classification_ICCV_2019_paper.pdf)\n\n- Multi-Adversarial Faster-RCNN for Unrestricted Object Detection\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1907.10343.pdf)\n\n- Object Guided External Memory Network for Video Object Detection | **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FDeng_Object_Guided_External_Memory_Network_for_Video_Object_Detection_ICCV_2019_paper.pdf)\n\n- **[ThunderNet]** ThunderNet: Towards Real-Time Generic Object Detection on Mobile Devices\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1903.11752.pdf)\n\n- **[RDN]** Relation Distillation Networks for Video Object Detection\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1908.09511.pdf)\n\n- **[MMNet]** Fast Object Detection in Compressed Video\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.11057.pdf)\n\n- Towards High-Resolution Salient Object Detection\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1908.07274.pdf)\n\n- **[SCAN]** Stacked Cross Refinement Network for Edge-Aware Salient Object Detection\t| **[ICCV' 19]** |[`[official code]`](https:\u002F\u002Fgithub.com\u002Fwuzhe71\u002FSCAN) |[`[pdf]`]()\n\n- Motion Guided Attention for Video Salient Object Detection\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.07061.pdf)\n\n- Semi-Supervised Video Salient Object Detection Using Pseudo-Labels\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1908.04051.pdf)\n\n- Learning to Rank Proposals for Object Detection\t| **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FTan_Learning_to_Rank_Proposals_for_Object_Detection_ICCV_2019_paper.pdf)\n\n- **[WSOD2]** WSOD2: Learning Bottom-Up and Top-Down Objectness Distillation for Weakly-Supervised Object Detection\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.04972.pdf)\n\n- **[ClusDet]** Clustered Object Detection in Aerial Images\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.08008.pdf)\n\n- Towards Precise End-to-End Weakly Supervised Object Detection Network\t| **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FYang_Towards_Precise_End-to-End_Weakly_Supervised_Object_Detection_Network_ICCV_2019_paper.pdf)\n\n- Few-Shot Object Detection via Feature Reweighting\t | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1812.01866.pdf)\n\n- **[Objects365]** Objects365: A Large-Scale, High-Quality Dataset for Object Detection\t| **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FShao_Objects365_A_Large-Scale_High-Quality_Dataset_for_Object_Detection_ICCV_2019_paper.pdf)\n\n- **[EGNet]** EGNet: Edge Guidance Network for Salient Object Detection\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1908.08297.pdf)\n\n- Optimizing the F-Measure for Threshold-Free Salient Object Detection\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1805.07567.pdf)\n\n- Sequence Level Semantics Aggregation for Video Object Detection\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1907.06390.pdf)\n\n- **[NOTE-RCNN]** NOTE-RCNN: NOise Tolerant Ensemble RCNN for Semi-Supervised Object Detection | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1812.00124.pdf)\t\n\n- Enriched Feature Guided Refinement Network for Object Detection\t| **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FNie_Enriched_Feature_Guided_Refinement_Network_for_Object_Detection_ICCV_2019_paper.pdf)\n\n- **[POD]** POD: Practical Object Detection With Scale-Sensitive Network\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.02225.pdf)\t\n\n- **[FCOS]** FCOS: Fully Convolutional One-Stage Object Detection\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.01355.pdf)\t\n\n- **[RepPoints]** RepPoints: Point Set Representation for Object Detection\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.11490.pdf)\t\n\n- Better to Follow, Follow to Be Better: Towards Precise Supervision of Feature Super-Resolution for Small Object Detection\t| **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FNoh_Better_to_Follow_Follow_to_Be_Better_Towards_Precise_Supervision_ICCV_2019_paper.pdf)\n\n- Weakly Supervised Object Detection With Segmentation Collaboration\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.00551.pdf)\t\n\n- Leveraging Long-Range Temporal Relationships Between Proposals for Video Object Detection\t| **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FShvets_Leveraging_Long-Range_Temporal_Relationships_Between_Proposals_for_Video_Object_Detection_ICCV_2019_paper.pdf)\n\n- Detecting 11K Classes: Large Scale Object Detection Without Fine-Grained Bounding Boxes\t| **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1908.05217.pdf)\t\n\n- **[C-MIDN]** C-MIDN: Coupled Multiple Instance Detection Network With Segmentation Guidance for Weakly Supervised Object Detection\t| **[ICCV' 19]** |[`[pdf]`]()\n\n- Meta-Learning to Detect Rare Objects\t| **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FWang_Meta-Learning_to_Detect_Rare_Objects_ICCV_2019_paper.pdf)\n\n- **[Cap2Det]** Cap2Det: Learning to Amplify Weak Caption Supervision for Object Detection | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1907.10164v1.pdf)\n\n- **[Gaussian YOLOv3]** Gaussian YOLOv3: An Accurate and Fast Object Detector using Localization Uncertainty for Autonomous Driving | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.04620.pdf) [`[official code - c]`](https:\u002F\u002Fgithub.com\u002Fjwchoi384\u002FGaussian_YOLOv3)\n\n- **[FreeAnchor]** FreeAnchor: Learning to Match Anchors for Visual Object Detection | **[NeurIPS' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.02466v1.pdf)\n\n- Memory-oriented Decoder for Light Field Salient Object Detection | **[NeurIPS' 19]** |[`[pdf]`](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F8376-memory-oriented-decoder-for-light-field-salient-object-detection.pdf)\n\n- One-Shot Object Detection with Co-Attention and Co-Excitation | **[NeurIPS' 19]** |[`[pdf]`](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F8540-one-shot-object-detection-with-co-attention-and-co-excitation.pdf)\n\n- **[DetNAS]** DetNAS: Backbone Search for Object Detection | **[NeurIPS' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1903.10979v4.pdf)\n\n- Consistency-based Semi-supervised Learning for Object detection | **[NeurIPS' 19]** |[`[pdf]`](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F9259-consistency-based-semi-supervised-learning-for-object-detection.pdf)\n\n- **[NATS]** Efficient Neural Architecture Transformation Searchin Channel-Level for Object Detection | **[NeurIPS' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.02293.pdf)\n\n- **[AA]** Learning Data Augmentation Strategies for Object Detection | **[arXiv' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1906.11172.pdf)\n\n- **[Spinenet]** Spinenet: Learning scale-permuted backbone for recognition and localization | **[arXiv' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.05027.pdf)\n\n- Object Detection in 20 Years: A Survey | **[arXiv' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1905.05055.pdf)\n\n## 2020\n- **[Spiking-YOLO]** Spiking-YOLO: Spiking Neural Network for Real-time Object Detection | **[AAAI' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1903.06530.pdf)\n\n- Tell Me What They're Holding: Weakly-supervised Object Detection with Transferable Knowledge from Human-object Interaction | **[AAAI' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.08141v1.pdf)\n\n- **[CBnet]** Cbnet: A novel composite backbone network architecture for object detection | **[AAAI' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.03625.pdf)\n\n- **[Distance-IoU Loss]** Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression | **[AAAI' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.08287v1.pdf)\n\n- Computation Reallocation for Object Detection | **[ICLR' 20]** |[`[pdf]`](https:\u002F\u002Fopenreview.net\u002Fpdf?id=SkxLFaNKwB)\n\n- **[YOLOv4]** YOLOv4: Optimal Speed and Accuracy of Object Detection | **[arXiv' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.10934.pdf)\n\n- Few-Shot Object Detection With Attention-RPN and Multi-Relation Detector | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1908.01998.pdf)\n\n- Large-Scale Object Detection in the Wild From Imbalanced Multi-Labels | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2005.08455.pdf)\n\n- Bridging the Gap Between Anchor-Based and Anchor-Free Detection via Adaptive Training Sample Selection | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.02424.pdf)\n\n- Rethinking Classification and Localization for Object Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.06493.pdf)\n\n- Multiple Anchor Learning for Visual Object Detection | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.02252.pdf)\n\n- **[CentripetalNet]** CentripetalNet: Pursuing High-Quality Keypoint Pairs for Object Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.09119.pdf)\n\n- Learning From Noisy Anchors for One-Stage Object Detection | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.05086.pdf)\n\n- **[EfficientDet]** EfficientDet: Scalable and Efficient Object Detection | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.09070.pdf)\n\n- Overcoming Classifier Imbalance for Long-Tail Object Detection With Balanced Group Softmax | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FLi_Overcoming_Classifier_Imbalance_for_Long-Tail_Object_Detection_With_Balanced_Group_CVPR_2020_paper.pdf)\n\n- Dynamic Refinement Network for Oriented and Densely Packed Object Detection | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2005.09973.pdf)\n\n- Noise-Aware Fully Webly Supervised Object Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FShen_Noise-Aware_Fully_Webly_Supervised_Object_Detection_CVPR_2020_paper.pdf)\n\n- **[Hit-Detector]** Hit-Detector: Hierarchical Trinity Architecture Search for Object Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.11818.pdf)\n\n- **[D2Det]** D2Det: Towards High Quality Object Detection and Instance Segmentation | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FCao_D2Det_Towards_High_Quality_Object_Detection_and_Instance_Segmentation_CVPR_2020_paper.pdf)\n\n- Prime Sample Attention in Object Detection | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.04821.pdf)\n\n- Don’t Even Look Once: Synthesizing Features for Zero-Shot Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.07933.pdf)\n\n- Exploring Categorical Regularization for Domain Adaptive Object Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.09152.pdf)\n\n- **[SP-NAS]** SP-NAS: Serial-to-Parallel Backbone Search for Object Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FJiang_SP-NAS_Serial-to-Parallel_Backbone_Search_for_Object_Detection_CVPR_2020_paper.pdf)\n\n- **[NAS-FCOS]** NAS-FCOS: Fast Neural Architecture Search for Object Detection | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1906.04423.pdf)\n\n- **[DR Loss]** DR Loss: Improving Object Detection by Distributional Ranking\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1907.10156.pdf)\n\n- Detection in Crowded Scenes: One Proposal, Multiple Predictions\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.09163.pdf)\n\n- **[AugFPN]** AugFPN: Improving Multi-Scale Feature Learning for Object Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.05384.pdf)\n\n- Robust Object Detection Under Occlusion With Context-Aware CompositionalNets\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FWang_Robust_Object_Detection_Under_Occlusion_With_Context-Aware_CompositionalNets_CVPR_2020_paper.pdf)\n\n- Cross-Domain Document Object Detection: Benchmark Suite and Method | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.13197.pdf)\n\n- Exploring Bottom-Up and Top-Down Cues With Attentive Learning for Webly Supervised Object Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.09790.pdf)\n\n- **[SLV]** SLV: Spatial Likelihood Voting for Weakly Supervised Object Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FChen_SLV_Spatial_Likelihood_Voting_for_Weakly_Supervised_Object_Detection_CVPR_2020_paper.pdf)\n\n- **[HAMBox]** HAMBox: Delving Into Mining High-Quality Anchors on Face Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.09231.pdf)\n\n- **[Context R-CNN]** Context R-CNN: Long Term Temporal Context for Per-Camera Object Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.03538.pdf)\n\n- Mixture Dense Regression for Object Detection and Human Pose Estimation\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.00821.pdf)\n\n- Offset Bin Classification Network for Accurate Object Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FQiu_Offset_Bin_Classification_Network_for_Accurate_Object_Detection_CVPR_2020_paper.pdf)\n\n- **[NETNet]** NETNet: Neighbor Erasing and Transferring Network for Better Single Shot Object Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2001.06690.pdf)\n\n- Scale-Equalizing Pyramid Convolution for Object Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2005.03101.pdf)\n\n- Temporal-Context Enhanced Detection of Heavily Occluded Pedestrians\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fcse.buffalo.edu\u002F~jsyuan\u002Fpapers\u002F2020\u002FTFAN.pdf)\n\n- **[MnasFPN]** MnasFPN: Learning Latency-Aware Pyramid Architecture for Object Detection on Mobile Devices\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.01106.pdf)\n\n- Physically Realizable Adversarial Examples for LiDAR Object Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.00543.pdf)\n\n- Cross-domain Object Detection through Coarse-to-Fine Feature Adaptation\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.10275.pdf)\n\n- Incremental Few-Shot Object Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.04668.pdf)\n\n- Where, What, Whether: Multi-Modal Learning Meets Pedestrian Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FLuo_Where_What_Whether_Multi-Modal_Learning_Meets_Pedestrian_Detection_CVPR_2020_paper.pdf)\n\n- Cylindrical Convolutional Networks for Joint Object Detection and Viewpoint Estimation\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.11303.pdf)\n\n- Learning a Unified Sample Weighting Network for Object Detection\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FCai_Learning_a_Unified_Sample_Weighting_Network_for_Object_Detection_CVPR_2020_paper.pdf)\n\n- Seeing without Looking: Contextual Rescoring of Object Detections for AP Maximization\t | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.12290.pdf)\n\n- DetectoRS: Detecting Objects with Recursive Feature Pyramid and Switchable Atrous Convolution\t | **[arXiv' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2006.02334v1.pdf)\n\n- **[DETR]** End-to-End Object Detection with Transformers\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2005.12872.pdf)\n\n- Suppress and Balance: A Simple Gated Network for Salient Object Detection\t| **[ECCV' 20]** |[`[code]`](https:\u002F\u002Fgithub.com\u002FXiaoqi-Zhao-DLUT\u002FGateNet-RGB-Saliency)\n\n- **[BorderDet]** BorderDet: Border Feature for Dense Object Detection | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.11056.pdf)\n\n- Corner Proposal Network for Anchor-free, Two-stage Object Detection\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.13816.pdf)\n\n- A General Toolbox for Understanding Errors in Object Detection\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2008.08115v1.pdf)\n\n- **[Chained-Tracker]** Chained-Tracker: Chaining Paired Attentive Regression Results for End-to-End Joint Multiple-Object Detection and Tracking\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.14557.pdf)\n\n- Side-Aware Boundary Localization for More Precise Object Detection\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.04260.pdf)\n\n- **[PIoU]** PIoU Loss: Towards Accurate Oriented Object Detection in Complex Environments\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.09584.pdf)\n\n- **[AABO]** AABO: Adaptive Anchor Box Optimization for Object Detection via Bayesian Sub-sampling\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.09336.pdf)\n\n- Highly Efficient Salient Object Detection with 100K Parameters | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.05643.pdf)\n\n- **[GeoGraph]** GeoGraph: Learning graph-based multi-view object detection with geometric cues end-to-end\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.10151.pdf)\n\n- Many-shot from Low-shot: Learning to Annotate using Mixed Supervision for Object Detection| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2008.09694.pdf)\n\n- Cheaper Pre-training Lunch: An Efficient Paradigm for Object Detection\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.12178.pdf)\n\n- Arbitrary-Oriented Object Detection with Circular Smooth Label\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.05597.pdf)\n\n- Soft Anchor-Point Object Detection\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.12448.pdf)\n\n- Object Detection with a Unified Label Space from Multiple Datasets\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2008.06614.pdf)\n\n- **[MimicDet]** MimicDet: Bridging the Gap Between One-Stage and Two-Stage Object Detection | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Fwww.ecva.net\u002Fpapers\u002Feccv_2020\u002Fpapers_ECCV\u002Fpapers\u002F123590528.pdf)\n\n- Prior-based Domain Adaptive Object Detection for Hazy and Rainy Conditions\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.00070.pdf)\n\n- **[Dynamic R-CNN]** Dynamic R-CNN: Towards High Quality Object Detection via Dynamic Training\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.06002.pdf)\n\n- **[OS2D]** OS2D: One-Stage One-Shot Object Detection by Matching Anchor Features\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.06800.pdf)\n\n- Multi-Scale Positive Sample Refinement for Few-Shot Object Detection\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.09384.pdf)\n\n- Few-Shot Object Detection and Viewpoint Estimation for Objects in the Wild\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.12107.pdf)\n\n- Collaborative Training between Region Proposal Localization and Classification for Domain Adaptive Object Detection\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2009.08119.pdf)\n\n- Two-Stream Active Query Suggestion for Large-Scale Object Detection in Connectomics\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Fdonglaiw.github.io\u002Fpaper\u002F2020_eccv_twostream.pdf)\n\n- **[FDTS]** FDTS: Fast Diverse-Transformation Search for Object Detection and Beyond\t\t| **[ECCV' 20]** \n\n- Dual refinement underwater object detection network\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Fwww.ecva.net\u002Fpapers\u002Feccv_2020\u002Fpapers_ECCV\u002Fpapers\u002F123650273.pdf)\n\n- **[APRICOT]** APRICOT: A Dataset of Physical Adversarial Attacks on Object Detection\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.08166.pdf)\n\n- Large Batch Optimization for Object Detection: Training COCO in 12 Minutes\t\t| **[ECCV' 20]** |[`[pdf]`](http:\u002F\u002Fwww.ecva.net\u002Fpapers\u002Feccv_2020\u002Fpapers_ECCV\u002Fpapers\u002F123660477.pdf)\n\n- Hierarchical Context Embedding for Region-based Object Detection\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2008.01338.pdf)\n\n- Pillar-based Object Detection for Autonomous Driving\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.10323.pdf)\n\n- Dive Deeper Into Box for Object Detection\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.14350.pdf)\n\n- Domain Adaptive Object Detection via Asymmetric Tri-way Faster-RCNN\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.01571.pdf)\n\n- Probabilistic Anchor Assignment with IoU Prediction for Object Detection\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.08103.pdf)\n\n- **[HoughNet]** HoughNet: Integrating near and long-range evidence for bottom-up object detection\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.02355.pdf)\n\n- **[LabelEnc]** LabelEnc: A New Intermediate Supervision Method for Object Detection\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.03282.pdf)\n\n- Boosting Weakly Supervised Object Detection with Progressive Knowledge Transfer\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.07986.pdf)\n\n- On the Importance of Data Augmentation for Object Detection\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1906.11172)\n\n- Adaptive Object Detection with Dual Multi-Label Prediction\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.12943.pdf)\n\n- Quantum-soft QUBO Suppression for Accurate Object Detection\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.13992.pdf)\n\n- Improving Object Detection with Selective Self-supervised Self-training\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.09162.pdf)\n\n\n##\n\n## Dataset Papers\nStatistics of commonly used object detection datasets. The Table came from [this survey paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1809.02165v1.pdf).\n\n\u003Ctable>\n\u003Cthead>\n  \u003Ctr>\n    \u003Cth rowspan=2>Challenge\u003C\u002Fth>\n    \u003Cth rowspan=2 width=80>Object Classes\u003C\u002Fth>\n    \u003Cth colspan=3>Number of Images\u003C\u002Fth>\n    \u003Cth colspan=2>Number of Annotated Images\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Cth>Train\u003C\u002Fth>\n    \u003Cth>Val\u003C\u002Fth>\n    \u003Cth>Test\u003C\u002Fth>\n    \u003Cth>Train\u003C\u002Fth>\n    \u003Cth>Val\u003C\u002Fth>\n  \u003C\u002Ftr>\n\u003C\u002Fthead>\n\u003Ctbody>\n\n\u003C!-- PASCAL VOC Object Detection Challenge -->\n\u003Ctr>\u003Cth colspan=7>PASCAL VOC Object Detection Challenge\u003C\u002Fth>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> VOC07 \u003C\u002Ftd>\u003Ctd> 20 \u003C\u002Ftd>\u003Ctd> 2,501 \u003C\u002Ftd>\u003Ctd> 2,510 \u003C\u002Ftd>\u003Ctd>  4,952 \u003C\u002Ftd>\u003Ctd>   6,301 (7,844) \u003C\u002Ftd>\u003Ctd>   6,307 (7,818) \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> VOC08 \u003C\u002Ftd>\u003Ctd> 20 \u003C\u002Ftd>\u003Ctd> 2,111 \u003C\u002Ftd>\u003Ctd> 2,221 \u003C\u002Ftd>\u003Ctd>  4,133 \u003C\u002Ftd>\u003Ctd>   5,082 (6,337) \u003C\u002Ftd>\u003Ctd>   5,281 (6,347) \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> VOC09 \u003C\u002Ftd>\u003Ctd> 20 \u003C\u002Ftd>\u003Ctd> 3,473 \u003C\u002Ftd>\u003Ctd> 3,581 \u003C\u002Ftd>\u003Ctd>  6,650 \u003C\u002Ftd>\u003Ctd>   8,505 (9,760) \u003C\u002Ftd>\u003Ctd>   8,713 (9,779) \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> VOC10 \u003C\u002Ftd>\u003Ctd> 20 \u003C\u002Ftd>\u003Ctd> 4,998 \u003C\u002Ftd>\u003Ctd> 5,105 \u003C\u002Ftd>\u003Ctd>  9,637 \u003C\u002Ftd>\u003Ctd> 11,577 (13,339) \u003C\u002Ftd>\u003Ctd> 11,797 (13,352) \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> VOC11 \u003C\u002Ftd>\u003Ctd> 20 \u003C\u002Ftd>\u003Ctd> 5,717 \u003C\u002Ftd>\u003Ctd> 5,823 \u003C\u002Ftd>\u003Ctd> 10,994 \u003C\u002Ftd>\u003Ctd> 13,609 (15,774) \u003C\u002Ftd>\u003Ctd> 13,841 (15,787) \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> VOC12 \u003C\u002Ftd>\u003Ctd> 20 \u003C\u002Ftd>\u003Ctd> 5,717 \u003C\u002Ftd>\u003Ctd> 5,823 \u003C\u002Ftd>\u003Ctd> 10,991 \u003C\u002Ftd>\u003Ctd> 13,609 (15,774) \u003C\u002Ftd>\u003Ctd> 13,841 (15,787) \u003C\u002Ftd>\u003C\u002Ftr>\n\n\u003C!-- ILSVRC Object Detection Challenge -->\n\u003Ctr>\u003Cth colspan=7>ILSVRC Object Detection Challenge\u003C\u002Fth>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> ILSVRC13 \u003C\u002Ftd>\u003Ctd> 200 \u003C\u002Ftd>\u003Ctd> 395,909 \u003C\u002Ftd>\u003Ctd> 20,121 \u003C\u002Ftd>\u003Ctd> 40,152 \u003C\u002Ftd>\u003Ctd> 345,854 \u003C\u002Ftd>\u003Ctd> 55,502 \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> ILSVRC14 \u003C\u002Ftd>\u003Ctd> 200 \u003C\u002Ftd>\u003Ctd> 456,567 \u003C\u002Ftd>\u003Ctd> 20,121 \u003C\u002Ftd>\u003Ctd> 40,152 \u003C\u002Ftd>\u003Ctd> 478,807 \u003C\u002Ftd>\u003Ctd> 55,502 \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> ILSVRC15 \u003C\u002Ftd>\u003Ctd> 200 \u003C\u002Ftd>\u003Ctd> 456,567 \u003C\u002Ftd>\u003Ctd> 20,121 \u003C\u002Ftd>\u003Ctd> 51,294 \u003C\u002Ftd>\u003Ctd> 478,807 \u003C\u002Ftd>\u003Ctd> 55,502 \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> ILSVRC16 \u003C\u002Ftd>\u003Ctd> 200 \u003C\u002Ftd>\u003Ctd> 456,567 \u003C\u002Ftd>\u003Ctd> 20,121 \u003C\u002Ftd>\u003Ctd> 60,000 \u003C\u002Ftd>\u003Ctd> 478,807 \u003C\u002Ftd>\u003Ctd> 55,502 \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> ILSVRC17 \u003C\u002Ftd>\u003Ctd> 200 \u003C\u002Ftd>\u003Ctd> 456,567 \u003C\u002Ftd>\u003Ctd> 20,121 \u003C\u002Ftd>\u003Ctd> 65,500 \u003C\u002Ftd>\u003Ctd> 478,807 \u003C\u002Ftd>\u003Ctd> 55,502 \u003C\u002Ftd>\u003C\u002Ftr>\n\n\u003C!-- MS COCO Object Detection Challenge -->\n\u003Ctr>\u003Cth colspan=7>MS COCO Object Detection Challenge\u003C\u002Fth>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> MS COCO15 \u003C\u002Ftd>\u003Ctd> 80 \u003C\u002Ftd>\u003Ctd>  82,783 \u003C\u002Ftd>\u003Ctd> 40,504 \u003C\u002Ftd>\u003Ctd> 81,434 \u003C\u002Ftd>\u003Ctd> 604,907 \u003C\u002Ftd>\u003Ctd> 291,875 \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> MS COCO16 \u003C\u002Ftd>\u003Ctd> 80 \u003C\u002Ftd>\u003Ctd>  82,783 \u003C\u002Ftd>\u003Ctd> 40,504 \u003C\u002Ftd>\u003Ctd> 81,434 \u003C\u002Ftd>\u003Ctd> 604,907 \u003C\u002Ftd>\u003Ctd> 291,875 \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> MS COCO17 \u003C\u002Ftd>\u003Ctd> 80 \u003C\u002Ftd>\u003Ctd> 118,287 \u003C\u002Ftd>\u003Ctd>  5,000 \u003C\u002Ftd>\u003Ctd> 40,670 \u003C\u002Ftd>\u003Ctd> 860,001 \u003C\u002Ftd>\u003Ctd>  36,781 \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> MS COCO18 \u003C\u002Ftd>\u003Ctd> 80 \u003C\u002Ftd>\u003Ctd> 118,287 \u003C\u002Ftd>\u003Ctd>  5,000 \u003C\u002Ftd>\u003Ctd> 40,670 \u003C\u002Ftd>\u003Ctd> 860,001 \u003C\u002Ftd>\u003Ctd>  36,781 \u003C\u002Ftd>\u003C\u002Ftr>\n\n\u003C!-- Open Images Object Detection Challenge -->\n\u003Ctr>\u003Cth colspan=7>Open Images Object Detection Challenge\u003C\u002Fth>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> OID18 \u003C\u002Ftd>\u003Ctd> 500 \u003C\u002Ftd>\u003Ctd> 1,743,042 \u003C\u002Ftd>\u003Ctd> 41,620 \u003C\u002Ftd>\u003Ctd> 125,436 \u003C\u002Ftd>\u003Ctd> 12,195,144 \u003C\u002Ftd>\u003Ctd> ― \u003C\u002Ftd>\u003C\u002Ftr>\n\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\nThe papers related to datasets used mainly in Object Detection are as follows.\n\n- **[PASCAL VOC]** The PASCAL Visual Object Classes (VOC) Challenge | **[IJCV' 10]** | [`[pdf]`](http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fpubs\u002Feveringham10.pdf)\n\n- **[PASCAL VOC]** The PASCAL Visual Object Classes Challenge: A Retrospective | **[IJCV' 15]** | [`[pdf]`](http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fpubs\u002Feveringham15.pdf) | [`[link]`](http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002F)\n\n- **[ImageNet]** ImageNet: A Large-Scale Hierarchical Image Database| **[CVPR' 09]** | [`[pdf]`](http:\u002F\u002Fwww.image-net.org\u002Fpapers\u002Fimagenet_cvpr09.pdf)\n\n- **[ImageNet]** ImageNet Large Scale Visual Recognition Challenge | **[IJCV' 15]** | [`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1409.0575.pdf) | [`[link]`](http:\u002F\u002Fwww.image-net.org\u002Fchallenges\u002FLSVRC\u002F)\n\n- **[COCO]** Microsoft COCO: Common Objects in Context | **[ECCV' 14]** | [`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1405.0312.pdf) | [`[link]`](http:\u002F\u002Fcocodataset.org\u002F)\n\n- **[Open Images]** The Open Images Dataset V4: Unified image classification, object detection, and visual relationship detection at scale | **[arXiv' 18]** | [`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.00982v1.pdf) | [`[link]`](https:\u002F\u002Fstorage.googleapis.com\u002Fopenimages\u002Fweb\u002Findex.html)\n\n- **[DOTA]** DOTA: A Large-scale Dataset for Object Detection in Aerial Images | **[CVPR' 18]** | [`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.10398v3.pdf) | [`[link]`](https:\u002F\u002Fcaptain-whu.github.io\u002FDOTA\u002F)\n\n- **[Objects365]** Objects365: A Large-Scale, High-Quality Dataset for Object Detection\t| **[ICCV' 19]** | [`[link]`](https:\u002F\u002Fwww.biendata.com\u002Fcompetition\u002Fobjects365\u002F)\n\n##\n\n## Contact & Feedback\n\nIf you have any suggestions about papers, feel free to mail me :)\n\n- [e-mail](mailto:Hoseong.Lee@cognex.com)\n- [blog](https:\u002F\u002Fhoya012.github.io\u002F)\n- [pull request](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fpulls)\n","# 深度学习目标检测\n这是一份使用深度学习进行目标检测的论文列表。我参考了[这篇综述论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1809.02165v1.pdf)，并经过反复搜索整理而成。\n\n*最后更新：2020年9月22日*\n\n#### 更新记录\n*2018年9月18日* - 更新所有最新论文，并制作了一张关于深度学习目标检测发展历程的图表。\n*2018年9月26日* - 更新论文的代码链接（官方和非官方）。\n*2018年10月* - 更新5篇论文及性能表格。\n*2018年11月* - 更新9篇论文。\n*2018年12月* - 更新8篇论文和性能表格，并新增一张图表（**2019版！！**）。\n*2019年1月* - 更新4篇论文，并添加常用的数据集。\n*2019年2月* - 更新3篇论文。\n*2019年3月* - 更新图表和代码链接。\n*2019年4月* - 去掉作者姓名，更新ICLR 2019和CVPR 2019的论文。\n*2019年5月* - 更新CVPR 2019的论文。\n*2019年6月* - 更新CVPR 2019的论文以及数据集相关的论文。\n*2019年7月* - 更新BMVC 2019的论文以及部分ICCV 2019的论文。\n*2019年9月* - 更新NeurIPS 2019和ICCV 2019的论文。\n*2019年11月* - 更新部分AAAI 2020的论文及其他论文。\n*2020年1月* - 更新ICLR 2020的论文及其他论文。\n*2020年5月* - 更新CVPR 2020的论文及其他论文。\n*2020年6月* - 更新arXiv上的论文。\n*2020年8月* - 更新论文链接。\n\n##\n\n## 目录\n- [2014年至2019年的论文列表](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#paper-list-from-2014-to-now2019)\n- [性能表格](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#performance-table)\n- 论文\n  - [2014年](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#2014)\n  - [2015年](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#2015)\n  - [2016年](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#2016)\n  - [2017年](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#2017)\n  - [2018年](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#2018)\n  - [2019年](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#2019)\n  - [2020年](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#2020)\n- [数据集相关论文](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fblob\u002Fmaster\u002FREADME.md#dataset-papers)\n\n##\n\n## 2014年至2019年的论文列表\n用红色标注的部分是我认为“必读”的论文。\n不过，这只是**我个人的观点**，其他论文同样重要，如果有时间的话也建议阅读。\n\n\u003Cp align=\"center\">\n  \u003Cimg width=\"1000\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhoya012_deep_learning_object_detection_readme_14936dc16f55.png\" \"目标检测示例。\">\n\u003C\u002Fp>\n\n##\n\n## 性能表格\n\nFPS（速度）指标与硬件规格（如CPU、GPU、内存等）密切相关，因此很难进行公平的比较。解决方案是在配置相同的硬件上测量所有模型的性能，但这样做非常困难且耗时。\n\n| 检测器       | VOC07 (mAP@IoU=0.5) | VOC12 (mAP@IoU=0.5) | COCO (mAP@IoU=0.5:0.95) | 发表于         |\n|--------------|---------------------|---------------------|-------------------------|---------------|\n| R-CNN        | 58.5                | -                   | -                       | CVPR'14       |\n| SPP-Net      | 59.2                | -                   | -                       | ECCV'14       |\n| MR-CNN       | 78.2 (07+12)        | 73.9 (07+12)        | -                       | ICCV'15       |\n| Fast R-CNN   | 70.0 (07+12)        | 68.4 (07++12)       | 19.7                    | ICCV'15       |\n| Faster R-CNN | 73.2 (07+12)        | 70.4 (07++12)       | 21.9                    | NIPS'15       |\n| YOLO v1      | 66.4 (07+12)        | 57.9 (07++12)       | -                       | CVPR'16       |\n| G-CNN        | 66.8                | 66.4 (07+12)        | -                       | CVPR'16       |\n| AZNet        | 70.4                | -                   | 22.3                    | CVPR'16       |\n| ION          | 80.1                | 77.9                | 33.1                    | CVPR'16       |\n| HyperNet     | 76.3 (07+12)        | 71.4 (07++12)       | -                       | CVPR'16       |\n| OHEM         | 78.9 (07+12)        | 76.3 (07++12)       | 22.4                    | CVPR'16       |\n| MPN          | -                   | -                   | 33.2                    | BMVC'16       |\n| SSD          | 76.8 (07+12)        | 74.9 (07++12)       | 31.2                    | ECCV'16       |\n| GBDNet       | 77.2 (07+12)        | -                   | 27.0                    | ECCV'16       |\n| CPF          | 76.4 (07+12)        | 72.6 (07++12)       | -                       | ECCV'16       |\n| R-FCN        | 79.5 (07+12)        | 77.6 (07++12)       | 29.9                    | NIPS'16       |\n| DeepID-Net   | 69.0                | -                   | -                       | PAMI'16       |\n| NoC          | 71.6 (07+12)        | 68.8 (07+12)        | 27.2                    | TPAMI'16      |\n| DSSD         | 81.5 (07+12)        | 80.0 (07++12)       | 33.2                    | arXiv'17      |\n| TDM          | -                   | -                   | 37.3                    | CVPR'17       |\n| FPN          | -                   | -                   | 36.2                    | CVPR'17       |\n| YOLO v2      | 78.6 (07+12)        | 73.4 (07++12)       | -                       | CVPR'17       |\n| RON          | 77.6 (07+12)        | 75.4 (07++12)       | 27.4                    | CVPR'17       |\n| DeNet        | 77.1 (07+12)        | 73.9 (07++12)       | 33.8                    | ICCV'17       |\n| CoupleNet    | 82.7 (07+12)        | 80.4 (07++12)       | 34.4                    | ICCV'17       |\n| RetinaNet    | -                   | -                   | 39.1                    | ICCV'17       |\n| DSOD         | 77.7 (07+12)        | 76.3 (07++12)       | -                       | ICCV'17       |\n| SMN          | 70.0                | -                   | -                       | ICCV'17       |\n| Light-Head R-CNN | -                 | -                   | 41.5                    | arXiv'17      |\n| YOLO v3      | -                   | -                   | 33.0                    | arXiv'18      |\n| SIN          | 76.0 (07+12)        | 73.1 (07++12)       | 23.2                    | CVPR'18       |\n| STDN         | 80.9 (07+12)        | -                   | -                       | CVPR'18       |\n| RefineDet    | 83.8 (07+12)        | 83.5 (07++12)       | 41.8                    | CVPR'18       |\n| SNIP         | -                   | -                   | 45.7                    | CVPR'18       |\n| Relation-Network | -               | -                   | 32.5                    | CVPR'18       |\n| Cascade R-CNN | -                  | -                   | 42.8                    | CVPR'18       |\n| MLKP         | 80.6 (07+12)        | 77.2 (07++12)       | 28.6                    | CVPR'18       |\n| Fitness-NMS  | -                   | -                   | 41.8                    | CVPR'18       |\n| RFBNet       | 82.2 (07+12)        | -                   | -                       | ECCV'18       |\n| CornerNet    | -                   | -                   | 42.1                    | ECCV'18       |\n| PFPNet       | 84.1 (07+12)        | 83.7 (07++12)       | 39.4                    | ECCV'18       |\n| Pelee        | 70.9 (07+12)        | -                   | -                       | NIPS'18       |\n| HKRM         | 78.8 (07+12)        | -                   | 37.8                    | NIPS'18       |\n| M2Det        | -                   | -                   | 44.2                    | AAAI'19       |\n| R-DAD        | 81.2 (07++12)       | 82.0 (07++12)       | 43.1                    | AAAI'19       |\n| ScratchDet   | 84.1 (07++12)       | 83.6 (07++12)       | 39.1                    | CVPR'19       |\n| Libra R-CNN  | -                   | -                   | 43.0                    | CVPR'19       |\n| Reasoning-RCNN | 82.5 (07++12)    | -                   | 43.2                    | CVPR'19       |\n| FSAF         | -                   | -                   | 44.6                    | CVPR'19       |\n| AmoebaNet + NAS-FPN | -             | -                   | 47.0                    | CVPR'19       |\n| Cascade-RetinaNet | -              | -                   | 41.1                    | CVPR'19       |\n| HTC          | -                   | -                   | 47.2                    | CVPR'19       |\n| TridentNet   | -                   | -                   | 48.4                    | ICCV'19       |\n| DAFS         | **85.3 (07+12)**   | 83.1 (07++12)       | 40.5                    | ICCV'19       |\n| Auto-FPN     | 81.8 (07++12)       | -                   | 40.5                    | ICCV'19       |\n| FCOS         | -                   | -                   | 44.7                    | ICCV'19       |\n| FreeAnchor   | -                   | -                   | 44.8                    | NeurIPS'19    |\n| DetNAS       | 81.5 (07++12)       | -                   | 42.0                    | NeurIPS'19    |\n| NATS         | -                   | -                   | 42.0                    | NeurIPS'19    |\n| AmoebaNet + NAS-FPN + AA | -           | -                   | 50.7                    | arXiv'19      |\n| SpineNet     | -                   | -                   | 52.1                    | arXiv'19      |\n| CBNet        | -                   | -                   | 53.3                    | AAAI'20       |\n| EfficientDet | -                   | -                   | 52.6                    | CVPR'20       |\n| DetectoRS    | -                   | -                   | **54.7**                | arXiv'20      |\n\n##\n\n## 2014年\n\n- **[R-CNN]** 用于精确目标检测和语义分割的丰富特征层次结构 | **[CVPR' 14]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1311.2524.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Frbgirshick\u002Frcnn) \n\n- **[OverFeat]** OverFeat：使用卷积网络实现集成识别、定位与检测 | **[ICLR' 14]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1312.6229.pdf) [`[官方代码 - torch]`](https:\u002F\u002Fgithub.com\u002Fsermanet\u002FOverFeat) \n\n- **[MultiBox]** 使用深度神经网络进行可扩展的目标检测 | **[CVPR' 14]** |[`[pdf]`](https:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2014\u002Fpapers\u002FErhan_Scalable_Object_Detection_2014_CVPR_paper.pdf)\n\n- **[SPP-Net]** 深度卷积网络中的空间金字塔池化用于视觉识别 | **[ECCV' 14]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1406.4729.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002FShaoqingRen\u002FSPP_net) [`[非官方代码 - keras]`](https:\u002F\u002Fgithub.com\u002Fyhenon\u002Fkeras-spp) [`[非官方代码 - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fpeace195\u002Fsppnet)\n\n## 2015年\n- 通过贝叶斯优化和结构化预测改进基于深度卷积网络的目标检测 | **[CVPR' 15]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1504.03293.pdf) [`[官方代码 - matlab]`](https:\u002F\u002Fgithub.com\u002FYutingZhang\u002Ffgs-obj)\n\n- **[MR-CNN]** 基于多区域及语义分割感知的CNN模型进行目标检测 | **[ICCV' 15]** |[`[pdf]`](https:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_iccv_2015\u002Fpapers\u002FGidaris_Object_Detection_via_ICCV_2015_paper.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Fgidariss\u002Fmrcnn-object-detection)\n\n- **[DeepBox]** DeepBox：利用卷积网络学习目标性 | **[ICCV' 15]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1505.02146.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Fweichengkuo\u002FDeepBox)\n\n- **[AttentionNet]** AttentionNet：聚合弱方向以实现精确的目标检测 | **[ICCV' 15]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1506.07704.pdf) \n\n- **[Fast R-CNN]** Fast R-CNN | **[ICCV' 15]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1504.08083.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Frbgirshick\u002Ffast-rcnn) \n\n- **[DeepProposal]** DeepProposal：通过级联深度卷积层猎取目标 | **[ICCV' 15]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1510.04445.pdf)  [`[官方代码 - matconvnet]`](https:\u002F\u002Fgithub.com\u002Faghodrati\u002Fdeepproposal)\n\n- **[Faster R-CNN, RPN]** Faster R-CNN：借助区域建议网络实现实时目标检测 | **[NIPS' 15]** |[`[pdf]`](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5638-faster-r-cnn-towards-real-time-object-detection-with-region-proposal-networks.pdf)  [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Frbgirshick\u002Fpy-faster-rcnn) [`[非官方代码 - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fendernewton\u002Ftf-faster-rcnn)  [`[非官方代码 - pytorch]`](https:\u002F\u002Fgithub.com\u002Fjwyang\u002Ffaster-rcnn.pytorch) \n\n## 2016年\n\n- **[YOLO v1]** You Only Look Once：统一的实时目标检测 | **[CVPR' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1506.02640.pdf) [`[官方代码 - c]`](https:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F) \n\n- **[G-CNN]** G-CNN：一种基于迭代网格的目标检测器 | **[CVPR' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1512.07729.pdf)\n\n- **[AZNet]** 利用邻接关系与缩放预测实现自适应目标检测 | **[CVPR' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1512.07711.pdf)\n\n- **[ION]** Inside-Outside Net：结合跳跃池化与循环神经网络在上下文中检测目标 | **[CVPR' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1512.04143.pdf)\n\n- **[HyperNet]** HyperNet：迈向精确的区域建议生成与联合目标检测 | **[CVPR' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1604.00600.pdf)\n\n- **[OHEM]** 使用在线难例挖掘训练基于区域的目标检测器 | **[CVPR' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1604.03540.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Fabhi2610\u002Fohem) \n\n- **[CRAPF]** CRAFT从图像中提取物体 | **[CVPR' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1604.03239.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Fbyangderek\u002FCRAFT) \n\n- **[MPN]** 用于目标检测的多路径网络 | **[BMVC' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1604.02135.pdf) [`[官方代码 - torch]`](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fmultipathnet) \n\n- **[SSD]** SSD：单次多框检测器 | **[ECCV' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1512.02325.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Fweiliu89\u002Fcaffe\u002Ftree\u002Fssd) [`[非官方代码 - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fbalancap\u002FSSD-Tensorflow) [`[非官方代码 - pytorch]`](https:\u002F\u002Fgithub.com\u002Famdegroot\u002Fssd.pytorch) \n\n- **[GBDNet]** 为目标检测打造GBD-Net | **[ECCV' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1610.02579.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002FcraftGBD\u002FcraftGBD)\n\n- **[CPF]** 上下文引导与反馈助力Faster R-CNN | **[ECCV' 16]** |[`[pdf]`](https:\u002F\u002Fpdfs.semanticscholar.org\u002F40e7\u002F4473cb82231559cbaeaa44989e9bbfe7ec3f.pdf)\n\n- **[MS-CNN]** 用于快速目标检测的统一多尺度深度卷积神经网络 | **[ECCV' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1607.07155.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Fzhaoweicai\u002Fmscnn)\n\n- **[R-FCN]** R-FCN：基于区域的全卷积网络进行目标检测 | **[NIPS' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1605.06409.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Fdaijifeng001\u002FR-FCN) [`[非官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002FYuwenXiong\u002Fpy-R-FCN)\n\n- **[PVANET]** PVANET：轻量级深度神经网络，适用于实时目标检测 | **[NIPSW' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1608.08021.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Fsanghoon\u002Fpva-faster-rcnn)\n\n- **[DeepID-Net]** DeepID-Net：用于目标检测的可变形深度卷积神经网络 | **[PAMI' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1412.5661.pdf)\n\n- **[NoC]** 基于卷积特征图的目标检测网络 | **[TPAMI' 16]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1504.06066.pdf)\n\n## 2017年\n\n- **[DSSD]** DSSD：反卷积单次检测器 | **[arXiv' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1701.06659.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Fchengyangfu\u002Fcaffe\u002Ftree\u002Fdssd)\n\n- **[TDM]** 超越跳跃连接：用于目标检测的自顶向下调制 | **[CVPR' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1612.06851.pdf)\n\n- **[FPN]** 用于目标检测的特征金字塔网络 | **[CVPR' 17]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2017\u002Fpapers\u002FLin_Feature_Pyramid_Networks_CVPR_2017_paper.pdf) [`[非官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Funsky\u002FFPN)\n\n- **[YOLO v2]** YOLO9000：更好、更快、更强 | **[CVPR' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1612.08242.pdf) [`[官方代码 - c]`](https:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F) [`[非官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Fquhezheng\u002Fcaffe_yolo_v2) [`[非官方代码 - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fnilboy\u002Ftensorflow-yolo) [`[非官方代码 - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fsualab\u002Fobject-detection-yolov2) [`[非官方代码 - pytorch]`](https:\u002F\u002Fgithub.com\u002Flongcw\u002Fyolo2-pytorch) \n\n- **[RON]** RON：带有目标先验信息的反向连接网络，用于目标检测 | **[CVPR' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1707.01691.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Ftaokong\u002FRON) [`[非官方代码 - tensorflow]`](https:\u002F\u002Fgithub.com\u002FHiKapok\u002FRON_Tensorflow)\n\n- **[RSA]** CNN中用于目标检测的循环尺度近似 |  | **[ICCV' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1707.09531.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Fsciencefans\u002FRSA-for-object-detection)\n\n- **[DCN]** 可变形卷积网络 | **[ICCV' 17]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2017\u002Fpapers\u002FDai_Deformable_Convolutional_Networks_ICCV_2017_paper.pdf) [`[官方代码 - mxnet]`](https:\u002F\u002Fgithub.com\u002Fmsracver\u002FDeformable-ConvNets) [`[非官方代码 - tensorflow]`](https:\u002F\u002Fgithub.com\u002FZardinality\u002FTF_Deformable_Net) [`[非官方代码 - pytorch]`](https:\u002F\u002Fgithub.com\u002Foeway\u002Fpytorch-deform-conv)\n\n- **[DeNet]** DeNet：基于定向稀疏采样的可扩展实时目标检测 | **[ICCV' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.10295.pdf) [`[官方代码 - theano]`](https:\u002F\u002Fgithub.com\u002Flachlants\u002Fdenet)\n\n- **[CoupleNet]** CoupleNet：将全局结构与局部部件相结合用于目标检测 | **[ICCV' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1708.02863.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Ftshizys\u002FCoupleNet)\n\n- **[RetinaNet]** 用于密集目标检测的焦点损失 | **[ICCV' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1708.02002.pdf) [`[官方代码 - keras]`](https:\u002F\u002Fgithub.com\u002Ffizyr\u002Fkeras-retinanet) [`[非官方代码 - pytorch]`](https:\u002F\u002Fgithub.com\u002Fkuangliu\u002Fpytorch-retinanet) [`[非官方代码 - mxnet]`](https:\u002F\u002Fgithub.com\u002Funsky\u002FRetinaNet) [`[非官方代码 - tensorflow]`](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftpu\u002Ftree\u002Fmaster\u002Fmodels\u002Fofficial\u002Fretinanet)\n\n- **[Mask R-CNN]** Mask R-CNN | **[ICCV' 17]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2017\u002Fpapers\u002FHe_Mask_R-CNN_ICCV_2017_paper.pdf) [`[官方代码 - caffe2]`](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002FDetectron) [`[非官方代码 - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fmatterport\u002FMask_RCNN) [`[非官方代码 - tensorflow]`](https:\u002F\u002Fgithub.com\u002FCharlesShang\u002FFastMaskRCNN) [`[非官方代码 - pytorch]`](https:\u002F\u002Fgithub.com\u002Fmultimodallearning\u002Fpytorch-mask-rcnn)\n\n- **[DSOD]** DSOD：从零开始学习深度监督的目标检测器 | **[ICCV' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1708.01241.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Fszq0214\u002FDSOD) [`[非官方代码 - pytorch]`](https:\u002F\u002Fgithub.com\u002Fuoip\u002FSSD-variants) \n\n- **[SMN]** 用于目标检测中上下文推理的空间记忆 | **[ICCV' 17]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2017\u002Fpapers\u002FChen_Spatial_Memory_for_ICCV_2017_paper.pdf)\n\n- **[Light-Head R-CNN]** Light-Head R-CNN：为两阶段目标检测器辩护 | **[arXiv' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.07264.pdf) [`[官方代码 - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fzengarden\u002Flight_head_rcnn)\n\n- **[Soft-NMS]** 用一行代码改进目标检测 | **[ICCV' 17]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1704.04503.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Fbharatsingh430\u002Fsoft-nms)\n\n## 2018年\n\n- **[YOLO v3]** YOLOv3：一项渐进式改进 | **[arXiv' 18]** |[`[pdf]`](https:\u002F\u002Fpjreddie.com\u002Fmedia\u002Ffiles\u002Fpapers\u002FYOLOv3.pdf) [`[官方代码 - c]`](https:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F) [`[非官方代码 - pytorch]`](https:\u002F\u002Fgithub.com\u002Fayooshkathuria\u002Fpytorch-yolo-v3) [`[非官方代码 - pytorch]`](https:\u002F\u002Fgithub.com\u002Feriklindernoren\u002FPyTorch-YOLOv3) [`[非官方代码 - keras]`](https:\u002F\u002Fgithub.com\u002Fqqwweee\u002Fkeras-yolo3) [`[非官方代码 - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fmystic123\u002Ftensorflow-yolo-v3)\n\n- **[ZIP]** 具有递归训练的对象提议网络 | **[IJCV' 18]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1702.05711.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Fhli2020\u002Fzoom_network)\n\n- **[SIN]** 结构推理网络：利用场景级上下文和实例级关系进行目标检测 | **[CVPR' 18]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FLiu_Structure_Inference_Net_CVPR_2018_paper.pdf) [`[官方代码 - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fchoasup\u002FSIN)\n\n- **[STDN]** 尺度可迁移的目标检测 | **[CVPR' 18]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FZhou_Scale-Transferrable_Object_Detection_CVPR_2018_paper.pdf)\n\n- **[RefineDet]** 单次精炼神经网络用于目标检测 | **[CVPR' 18]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FZhang_Single-Shot_Refinement_Neural_CVPR_2018_paper.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Fsfzhang15\u002FRefineDet) [`[非官方代码 - chainer]`](https:\u002F\u002Fgithub.com\u002Ffukatani\u002FRefineDet_chainer)  [`[非官方代码 - pytorch]`](https:\u002F\u002Fgithub.com\u002Flzx1413\u002FPytorchSSD)\n\n- **[MegDet]** MegDet：一种大规模小批量目标检测器 | **[CVPR' 18]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FPeng_MegDet_A_Large_CVPR_2018_paper.pdf)\n\n- **[DA Faster R-CNN]** 面向野外目标检测的领域自适应Faster R-CNN | **[CVPR' 18]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FChen_Domain_Adaptive_Faster_CVPR_2018_paper.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Fyuhuayc\u002Fda-faster-rcnn)\n\n- **[SNIP]** 目标检测中尺度不变性的分析——SNIP | **[CVPR' 18]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.08189.pdf)\n\n- **[Relation-Network]** 用于目标检测的关系网络 | **[CVPR' 18]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.11575.pdf) [`[官方代码 - mxnet]`](https:\u002F\u002Fgithub.com\u002Fmsracver\u002FRelation-Networks-for-Object-Detection)\n\n- **[Cascade R-CNN]** 级联R-CNN：深入高质量目标检测 | **[CVPR' 18]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FCai_Cascade_R-CNN_Delving_CVPR_2018_paper.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002Fzhaoweicai\u002Fcascade-rcnn)\n\n- 使用生成对抗网络在野外寻找微小人脸 | **[CVPR' 18]** |[`[pdf]`](https:\u002F\u002Fivul.kaust.edu.sa\u002FDocuments\u002FPublications\u002F2018\u002FFinding%20Tiny%20Faces%20in%20the%20Wild%20with%20Generative%20Adversarial%20Network.pdf)\n\n- **[MLKP]** 多尺度位置感知核表示用于目标检测 | **[CVPR' 18]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1804.00428.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002FHwang64\u002FMLKP)\n\n- 通过渐进式领域适应实现跨域弱监督目标检测 | **[CVPR' 18]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1803.11365.pdf) [`[官方代码 - chainer]`](https:\u002F\u002Fgithub.com\u002Fnaoto0804\u002Fcross-domain-detection)\n\n- **[Fitness NMS]** 利用Fitness NMS和有界IoU损失提升目标定位精度 | **[CVPR' 18]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002FCameraReady\u002F0794.pdf)\n\n- **[STDnet]** STDnet：用于小目标检测的卷积网络 | **[BMVC' 18]** |[`[pdf]`](http:\u002F\u002Fbmvc2018.org\u002Fcontents\u002Fpapers\u002F0897.pdf)\n\n- **[RFBNet]** 感受野块网络用于准确快速的目标检测 | **[ECCV' 18]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.07767.pdf) [`[官方代码 - pytorch]`](https:\u002F\u002Fgithub.com\u002Fruinmessi\u002FRFBNet)\n\n- 借助网络知识迁移实现零标注目标检测 | **[ECCV' 18]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ECCV_2018\u002Fpapers\u002FQingyi_Tao_Zero-Annotation_Object_Detection_ECCV_2018_paper.pdf)\n\n- **[CornerNet]** CornerNet：将目标检测为成对关键点 | **[ECCV' 18]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1808.01244.pdf) [`[官方代码 - pytorch]`](https:\u002F\u002Fgithub.com\u002Fprinceton-vl\u002FCornerNet)\n\n- **[PFPNet]** 并行特征金字塔网络用于目标检测 | **[ECCV' 18]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ECCV_2018\u002Fpapers\u002FSeung-Wook_Kim_Parallel_Feature_Pyramid_ECCV_2018_paper.pdf)\n\n- **[Softer-NMS]** Softer-NMS：重新思考边界框回归以实现精确目标检测 | **[arXiv' 18]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1809.08545.pdf)\n\n- **[ShapeShifter]** ShapeShifter：针对Faster R-CNN目标检测器的鲁棒物理对抗攻击 | **[ECML-PKDD' 18]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1804.05810.pdf) [`[官方代码 - tensorflow]`](https:\u002F\u002Fgithub.com\u002Fshangtse\u002Frobust-physical-attack)\n\n- **[Pelee]** Pelee：移动端实时目标检测系统 | **[NIPS' 18]** |[`[pdf]`](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F7466-pelee-a-real-time-object-detection-system-on-mobile-devices.pdf) [`[官方代码 - caffe]`](https:\u002F\u002Fgithub.com\u002FRobert-JunWang\u002FPelee)\n\n- **[HKRM]** 用于大规模目标检测的混合知识路由模块 | **[NIPS' 18]** |[`[pdf]`](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F7428-hybrid-knowledge-routed-modules-for-large-scale-object-detection.pdf)\n\n- **[MetaAnchor]** MetaAnchor：学习使用自定义锚框进行目标检测 | **[NIPS' 18]** |[`[pdf]`](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F7315-metaanchor-learning-to-detect-objects-with-customized-anchors.pdf)\n\n- **[SNIPER]** SNIPER：高效的多尺度训练 | **[NIPS' 18]** |[`[pdf]`](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F8143-sniper-efficient-multi-scale-training.pdf)\n\n## 2019年\n- **[M2Det]** M2Det：基于多级特征金字塔网络的单次目标检测器 | **[AAAI' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.04533.pdf) [`[官方代码 - pytorch]`](https:\u002F\u002Fgithub.com\u002Fqijiezhao\u002FM2Det)\n\n- **[R-DAD]** 基于区域分解与组装的目标检测 | **[AAAI' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1901.08225v1.pdf)\n\n- **[CAMOU]** CAMOU：学习物理车辆伪装以对抗野外检测器 | **[ICLR' 19]** |[`[pdf]`](https:\u002F\u002Fopenreview.net\u002Fpdf?id=SJgEl3A5tm)\n\n- 用于目标检测的特征交织器 | **[ICLR' 19]** |[`[pdf]`](https:\u002F\u002Fopenreview.net\u002Fpdf?id=SyxZJn05YX)\n\n- **[GIoU]** 广义交并比：一种用于边界框回归的度量和损失 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1902.09630.pdf)\n\n- 利用自训练使目标检测器自动适应新领域 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.07305.pdf)\n\n- **[Libra R-CNN]** Libra R-CNN：面向目标检测的平衡学习 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.02701.pdf) \n\n- **[FSAF]** 用于单阶段目标检测的特征选择无锚框模块 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1903.00621.pdf) \n\n- **[ExtremeNet]** 基于极端点和中心点分组的自底向上目标检测 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1901.08043.pdf) | [`[官方代码 - PyTorch]`](https:\u002F\u002Fgithub.com\u002Fxingyizhou\u002FExtremeNet)\n\n- **[C-MIL]** C-MIL：用于弱监督目标检测的延续型多实例学习\n | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.05647.pdf) | [`[官方代码 - PyTorch]`](https:\u002F\u002Fgithub.com\u002FAnonymousIDs\u002FC-MIL)\n\n- **[ScratchDet]** ScratchDet：从零开始训练单阶段目标检测器 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1810.08425.pdf) \n\n- 带有不确定性的边界框回归用于精确目标检测 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1809.08545.pdf) | [`[官方代码 - Caffe2]`](https:\u002F\u002Fgithub.com\u002Fyihui-he\u002FKL-Loss)\n\n- 活动驱动的弱监督目标检测 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.01665.pdf) \n\n- 基于AP损失实现精确的一阶段目标检测 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.06373.pdf) \n\n- 强弱分布对齐用于自适应目标检测 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1812.04798.pdf) | [`[官方代码 - PyTorch]`](https:\u002F\u002Fgithub.com\u002FVisionLearningGroup\u002FDA_Detection) \n\n- **[NAS-FPN]** NAS-FPN：为目标检测学习可扩展的特征金字塔架构 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.07392.pdf) \n\n- **[Adaptive NMS]** 自适应NMS：改进人群中的行人检测 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.03629.pdf) \n\n- 点入，框出：超越人群计数 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.01333.pdf) \n\n- 无需边界框的目标定位 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1806.07564.pdf) \n\n- 面向大规模目标检测的稀疏标注采样技术 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.10862.pdf) \n\n- 基于领域注意力实现通用目标检测 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.04402.pdf) \n\n- 探索上下文信息在目标检测中的效用边界 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.05471.pdf) \n\n- 我应该使用哪种目标？——任务驱动的目标检测 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.03000.pdf) \n\n- 基于相异度系数的弱监督目标检测 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.10016.pdf) \n\n- 通过选择性跨域对齐来适应目标检测器 | **[CVPR' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fpapers\u002FZhu_Adapting_Object_Detectors_via_Selective_Cross-Domain_Alignment_CVPR_2019_paper.pdf) \n\n- 用于目标检测的全量化网络 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Fyan-junjie.github.io\u002Fpublication\u002Fdblp-confcvprlilqwfy-19\u002Fdblp-confcvprlilqwfy-19.pdf)\n\n- 基于细粒度特征模仿的模型蒸馏用于目标检测 | **[CVPR' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fpapers\u002FWang_Distilling_Object_Detectors_With_Fine-Grained_Feature_Imitation_CVPR_2019_paper.pdf)\n\n- 利用边界框标注进行多任务自监督目标检测 | **[CVPR' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fpapers\u002FLee_Multi-Task_Self-Supervised_Object_Detection_via_Recycling_of_Bounding_Box_Annotations_CVPR_2019_paper.pdf)\n\n- **[Reasoning-RCNN]** Reasoning-RCNN：将自适应全局推理统一到大规模目标检测中 | **[CVPR' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fpapers\u002FXu_Reasoning-RCNN_Unifying_Adaptive_Global_Reasoning_Into_Large-Scale_Object_Detection_CVPR_2019_paper.pdf)\n\n- 具有自适应文本区域表示的任意形状场景文本检测 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1905.05980.pdf)\n\n- 辅助激活激励：一种提升目标检测器性能的学习方法 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Fpdfs.semanticscholar.org\u002Fec96\u002Fb6ae95e1ebbe4f7c0252301ede26dfc79467.pdf)\n\n- 用于大规模目标检测的空间感知图关系网络 | **[CVPR' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fpapers\u002FXu_Spatial-Aware_Graph_Relation_Network_for_Large-Scale_Object_Detection_CVPR_2019_paper.pdf)\n\n- **[MaxpoolNMS]** MaxpoolNMS：消除两阶段目标检测中的NMS瓶颈 | **[CVPR' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fpapers\u002FCai_MaxpoolNMS_Getting_Rid_of_NMS_Bottlenecks_in_Two-Stage_Object_Detectors_CVPR_2019_paper.pdf)\n\n- 种瓜得瓜，种豆得豆：为弱监督目标检测生成高精度目标候选框 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Fweb.cs.ucdavis.edu\u002F~yjlee\u002Fprojects\u002Fcvpr2019-youreapwhatyousow.pdf)\n\n- 基于位置感知可变形卷积和反向注意力过滤的目标检测 | **[CVPR' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fpapers\u002FZhang_Object_Detection_With_Location-Aware_Deformable_Convolution_and_Backward_Attention_Filtering_CVPR_2019_paper.pdf)\n\n- 多元化与匹配：一种用于目标检测的领域自适应表征学习范式 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1905.05396.pdf)\n\n- 用于实例分割的混合任务级联 | **[CVPR' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1901.07518.pdf)\n\n- **[GFR]** 通过门控特征复用从零开始改进目标检测 | **[BMVC' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1712.00886v2.pdf) | [`[官方代码 - PyTorch]`](https:\u002F\u002Fgithub.com\u002Fszq0214\u002FGFR-DSOD)\n\n- **[Cascade RetinaNet]** 级联RetinaNet：保持单阶段目标检测的一致性 | **[BMVC' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1907.06881v1.pdf)\n\n- 用于鲁棒目标检测的软采样 | **[BMVC' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1806.06986v2.pdf)\n\n- 用于无限制目标检测的多对抗Faster-RCNN | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1907.10343v1.pdf)\n\n- 向对抗鲁棒的目标检测迈进 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1907.10310v1.pdf)\n\n- 一种用于领域自适应目标检测的鲁棒学习方法 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.02361.pdf)\n\n- 视频目标检测的延迟指标：平均精度无法揭示的内容 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1908.06368.pdf)\n\n- 深入研究来自无人机的鲁棒目标检测：一种深度干扰因素解耦方法 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1908.03856.pdf)\n\n- 利用深度部件-目标关系进行显著性目标检测 | **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FLiu_Employing_Deep_Part-Object_Relationships_for_Salient_Object_Detection_ICCV_2019_paper.pdf)\n\n- 为单阶段目标检测学习高速丰富的特征 | **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FWang_Learning_Rich_Features_at_High-Speed_for_Single-Shot_Object_Detection_ICCV_2019_paper.pdf)\n\n- 显著性目标检测中联合深度特征与预测精炼的结构化建模 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.04366.pdf)\n\n- 选择性还是不变性：边界感知的显著性目标检测 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1812.10066.pdf)\n\n- 用于视频目标检测的渐进式稀疏局部注意力 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1903.09126.pdf)\n\n- 视频中的最小延迟目标检测 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1908.11092.pdf)\n\n- 通过展开潜在结构实现可解释的目标检测 | **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FWu_Towards_Interpretable_Object_Detection_by_Unfolding_Latent_Structures_ICCV_2019_paper.pdf)\n\n- 通过迁移分类权重扩展目标检测 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.06804.pdf)\n\n- **[TridentNet]** 尺度感知的三叉戟网络用于目标检测 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1901.01892.pdf)\n\n- 面向小数据集的目标检测的生成式建模 | **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FLiu_Generative_Modeling_for_Small-Data_Object_Detection_ICCV_2019_paper.pdf)\n\n- 用于零样本目标检测的直推式学习 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Fsalman-h-khan.github.io\u002Fpapers\u002FICCV19-2.pdf)\n\n- 用于无监督域适应单阶段目标检测的自训练与对抗背景正则化 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.00597.pdf)\n\n- **[CenterNet]** CenterNet：基于关键点三元组的目标检测 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.08189.pdf)\n\n- **[DAFS]** 单阶段目标检测中的动态锚点特征选择 | **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fwww4.comp.polyu.edu.hk\u002F~cslzhang\u002Fpaper\u002FICCV-DAFS.pdf)\n\n- **[Auto-FPN]** Auto-FPN：超越分类的自动网络架构适配用于目标检测 | **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FXu_Auto-FPN_Automatic_Network_Architecture_Adaptation_for_Object_Detection_Beyond_Classification_ICCV_2019_paper.pdf)\n\n- 多对抗 Faster-RCNN 用于无限制的目标检测 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1907.10343.pdf)\n\n- 面向视频目标检测的对象引导外部记忆网络 | **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FDeng_Object_Guided_External_Memory_Network_for_Video_Object_Detection_ICCV_2019_paper.pdf)\n\n- **[ThunderNet]** ThunderNet：面向移动设备的实时通用目标检测 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1903.11752.pdf)\n\n- **[RDN]** 关系蒸馏网络用于视频目标检测 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1908.09511.pdf)\n\n- **[MMNet]** 压缩视频中的快速目标检测 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.11057.pdf)\n\n- 向高分辨率显著性目标检测迈进 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1908.07274.pdf)\n\n- **[SCAN]** 用于边缘感知显著性目标检测的堆叠交叉精炼网络 | **[ICCV' 19]** |[`[官方代码]`](https:\u002F\u002Fgithub.com\u002Fwuzhe71\u002FSCAN) |[`[pdf]`]()\n\n- 用于视频显著性目标检测的运动引导注意力 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.07061.pdf)\n\n- 使用伪标签的半监督视频显著性目标检测 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1908.04051.pdf)\n\n- 学习对目标检测候选框进行排序 | **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FTan_Learning_to_Rank_Proposals_for_Object_Detection_ICCV_2019_paper.pdf)\n\n- **[WSOD2]** WSOD2：为弱监督目标检测学习自下而上与自上而下的对象性蒸馏 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.04972.pdf)\n\n- **[ClusDet]** 航拍图像中的聚类目标检测 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.08008.pdf)\n\n- 向精确的端到端弱监督目标检测网络迈进 | **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FYang_Towards_Precise_End-to-End_Weakly_Supervised_Object_Detection_Network_ICCV_2019_paper.pdf)\n\n- 通过特征重加权实现少样本目标检测 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1812.01866.pdf)\n\n- **[Objects365]** Objects365：大规模高质量目标检测数据集 | **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FShao_Objects365_A_Large-Scale_High-Quality_Dataset_for_Object_Detection_ICCV_2019_paper.pdf)\n\n- **[EGNet]** EGNet：用于显著性目标检测的边缘引导网络 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1908.08297.pdf)\n\n- 优化 F-Measure 以实现无阈值的显著性目标检测 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1805.07567.pdf)\n\n- 用于视频目标检测的序列级语义聚合 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1907.06390.pdf)\n\n- **[NOTE-RCNN]** NOTE-RCNN：用于半监督目标检测的耐噪声集成 RCNN | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1812.00124.pdf)\n\n- 丰富特征引导的精炼网络用于目标检测 | **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FNie_Enriched_Feature_Guided_Refinement_Network_for_Object_Detection_ICCV_2019_paper.pdf)\n\n- **[POD]** POD：具有尺度敏感网络的实际目标检测 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.02225.pdf)\n\n- **[FCOS]** FCOS：全卷积单阶段目标检测 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.01355.pdf)\n\n- **[RepPoints]** RepPoints：用于目标检测的点集表示 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.11490.pdf)\n\n- 更好地跟随，才能更好地提升：迈向小目标检测中特征超分辨率的精准监督 | **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FNoh_Better_to_Follow_Follow_to_Be_Better_Towards_Precise_Supervision_ICCV_2019_paper.pdf)\n\n- 结合分割的弱监督目标检测 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.00551.pdf)\n\n- 利用提案之间的长时序关系进行视频目标检测 | **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FShvets_Leveraging_Long-Range_Temporal_Relationships_Between_Proposals_for_Video_Object_Detection_ICCV_2019_paper.pdf)\n\n- 检测11K类：无需细粒度边界框的大规模目标检测 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1908.05217.pdf)\t\n\n- **[C-MIDN]** C-MIDN：具有分割指导的耦合多实例检测网络，用于弱监督目标检测 | **[ICCV' 19]** |[`[pdf]`]()\n\n- 元学习以检测稀有目标 | **[ICCV' 19]** |[`[pdf]`](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FWang_Meta-Learning_to_Detect_Rare_Objects_ICCV_2019_paper.pdf)\n\n- **[Cap2Det]** Cap2Det：学习增强弱字幕监督以进行目标检测 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1907.10164v1.pdf)\n\n- **[Gaussian YOLOv3]** Gaussian YOLOv3：一种利用定位不确定性实现高精度、快速目标检测的自动驾驶检测器 | **[ICCV' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.04620.pdf) [`[官方代码 - c]`](https:\u002F\u002Fgithub.com\u002Fjwchoi384\u002FGaussian_YOLOv3)\n\n- **[FreeAnchor]** FreeAnchor：为视觉目标检测学习匹配锚点 | **[NeurIPS' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.02466v1.pdf)\n\n- 面向记忆的解码器用于光场显著目标检测 | **[NeurIPS' 19]** |[`[pdf]`](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F8376-memory-oriented-decoder-for-light-field-salient-object-detection.pdf)\n\n- 基于协同注意力和协同激励的一次性目标检测 | **[NeurIPS' 19]** |[`[pdf]`](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F8540-one-shot-object-detection-with-co-attention-and-co-excitation.pdf)\n\n- **[DetNAS]** DetNAS：目标检测中的骨干网络搜索 | **[NeurIPS' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1903.10979v4.pdf)\n\n- 基于一致性的小样本半监督目标检测 | **[NeurIPS' 19]** |[`[pdf]`](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F9259-consistency-based-semi-supervised-learning-for-object-detection.pdf)\n\n- **[NATS]** 针对目标检测的通道级高效神经架构转换搜索 | **[NeurIPS' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.02293.pdf)\n\n- **[AA]** 学习目标检测的数据增强策略 | **[arXiv' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1906.11172.pdf)\n\n- **[Spinenet]** Spinenet：学习尺度可变的骨干网络，用于识别和定位 | **[arXiv' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.05027.pdf)\n\n- 二十年来的目标检测：综述 | **[arXiv' 19]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1905.05055.pdf)\n\n\n\n## 2020\n- **[Spiking-YOLO]** Spiking-YOLO：用于实时目标检测的脉冲神经网络 | **[AAAI' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1903.06530.pdf)\n\n- 告诉我他们拿着什么：基于人类-物体交互的可迁移知识的弱监督目标检测 | **[AAAI' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.08141v1.pdf)\n\n- **[CBnet]** Cbnet：一种用于目标检测的新颖复合骨干网络架构 | **[AAAI' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.03625.pdf)\n\n- **[Distance-IoU Loss]** 距离IoU损失：更快、更好的边界框回归学习 | **[AAAI' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.08287v1.pdf)\n\n- 目标检测中的计算重分配 | **[ICLR' 20]** |[`[pdf]`](https:\u002F\u002Fopenreview.net\u002Fpdf?id=SkxLFaNKwB)\n\n- **[YOLOv4]** YOLOv4：目标检测的最佳速度与精度 | **[arXiv' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.10934.pdf)\n\n- 基于注意力RPN和多关系检测器的少样本目标检测 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1908.01998.pdf)\n\n- 来自不平衡多标签的大规模野外目标检测 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2005.08455.pdf)\n\n- 通过自适应训练样本选择弥合基于锚点与无锚点检测之间的差距 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.02424.pdf)\n\n- 重新思考目标检测中的分类与定位 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.06493.pdf)\n\n- 视觉目标检测中的多锚点学习 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.02252.pdf)\n\n- **[CentripetalNet]** CentripetalNet：追求高质量关键点对以进行目标检测 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.09119.pdf)\n\n- 从噪声锚点中学习以进行单阶段目标检测 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.05086.pdf)\n\n- **[EfficientDet]** EfficientDet：可扩展且高效的目标检测 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.09070.pdf)\n\n- 使用平衡组Softmax克服长尾目标检测中的分类器不平衡 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FLi_Overcoming_Classifier_Imbalance_for_Long-Tail_Object_Detection_With_Balanced_Group_CVPR_2020_paper.pdf)\n\n- 用于定向和密集排列目标检测的动态精炼网络 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2005.09973.pdf)\n\n- 噪声感知的完全弱监督目标检测 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FShen_Noise-Aware_Fully_Webly_Supervised_Object_Detection_CVPR_2020_paper.pdf)\n\n- **[Hit-Detector]** Hit-Detector：面向目标检测的层次三元架构搜索 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.11818.pdf)\n\n- **[D2Det]** D2Det：迈向高质量的目标检测和实例分割 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FCao_D2Det_Towards_High_Quality_Object_Detection_and_Instance_Segmentation_CVPR_2020_paper.pdf)\n\n- 目标检测中的优质样本注意力 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.04821.pdf)\n\n- 根本不用看一眼：为零样本检测合成特征 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.07933.pdf)\n\n- 探索用于领域自适应目标检测的类别正则化 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.09152.pdf)\n\n- **[SP-NAS]** SP-NAS：面向目标检测的串并行骨干网络搜索 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FJiang_SP-NAS_Serial-to-Parallel_Backbone_Search_for_Object_Detection_CVPR_2020_paper.pdf)\n\n- **[NAS-FCOS]** NAS-FCOS：面向目标检测的快速神经架构搜索 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1906.04423.pdf)\n\n- **[DR Loss]** DR损失：通过分布排名改进目标检测 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1907.10156.pdf)\n\n- 狭窄场景下的检测：一个提案，多重预测 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.09163.pdf)\n\n- **[AugFPN]** AugFPN：改进目标检测的多尺度特征学习 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.05384.pdf)\n\n- 基于上下文感知组合网络的遮挡下鲁棒目标检测 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FWang_Robust_Object_Detection_Under_Occlusion_With_Context-Aware_CompositionalNets_CVPR_2020_paper.pdf)\n\n- 跨域文档目标检测：基准测试套件与方法 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.13197.pdf)\n\n- 利用注意力学习探索自底向上和自顶向下的线索，用于弱监督目标检测 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.09790.pdf)\n\n- **[SLV]** SLV：用于弱监督目标检测的空间似然投票法 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FChen_SLV_Spatial_Likelihood_Voting_for_Weakly_Supervised_Object_Detection_CVPR_2020_paper.pdf)\n\n- **[HAMBox]** HAMBox：深入挖掘人脸检测中的高质量锚框 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.09231.pdf)\n\n- **[Context R-CNN]** Context R-CNN：针对每台相机的目标检测的长期时间上下文 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.03538.pdf)\n\n- 用于目标检测和人体姿态估计的混合密集回归 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.00821.pdf)\n\n- 用于精确目标检测的偏移二分类网络 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FQiu_Offset_Bin_Classification_Network_for_Accurate_Object_Detection_CVPR_2020_paper.pdf)\n\n- **[NETNet]** NETNet：用于更好单次目标检测的邻居擦除与迁移网络 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2001.06690.pdf)\n\n- 用于目标检测的比例均衡金字塔卷积 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2005.03101.pdf)\n\n- 基于时间上下文增强的严重遮挡行人检测 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fcse.buffalo.edu\u002F~jsyuan\u002Fpapers\u002F2020\u002FTFAN.pdf)\n\n- **[MnasFPN]** MnasFPN：为移动设备上的目标检测学习延迟感知金字塔架构 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.01106.pdf)\n\n- 针对激光雷达目标检测的物理可实现对抗样本 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.00543.pdf)\n\n- 通过粗粒度到细粒度的特征适应进行跨域目标检测 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.10275.pdf)\n\n- 增量式少样本目标检测 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.04668.pdf)\n\n- 哪里、什么、是否：多模态学习与行人检测的结合 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FLuo_Where_What_Whether_Multi-Modal_Learning_Meets_Pedestrian_Detection_CVPR_2020_paper.pdf)\n\n- 用于联合目标检测和视角估计的圆柱形卷积网络 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.11303.pdf)\n\n- 学习用于目标检测的统一样本权重网络 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FCai_Learning_a_Unified_Sample_Weighting_Network_for_Object_Detection_CVPR_2020_paper.pdf)\n\n- 不用看就能“看见”：为最大化平均精度而进行的上下文重排序 | **[CVPR' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.12290.pdf)\n\n- DetectoRS：使用递归特征金字塔和可切换空洞卷积进行目标检测 | **[arXiv' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2006.02334v1.pdf)\n\n- **[DETR]** 基于Transformer的端到端目标检测 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2005.12872.pdf)\n\n- 抑制与平衡：用于显著性目标检测的简单门控网络 | **[ECCV' 20]** |[`[code]`](https:\u002F\u002Fgithub.com\u002FXiaoqi-Zhao-DLUT\u002FGateNet-RGB-Saliency)\n\n- **[BorderDet]** BorderDet：用于密集目标检测的边界特征 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.11056.pdf)\n\n- 用于无锚框两阶段目标检测的角点提案网络 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.13816.pdf)\n\n- 用于理解目标检测中错误的一般工具箱 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2008.08115v1.pdf)\n\n- **[Chained-Tracker]** 链式跟踪器：将成对注意力回归结果串联起来，实现端到端的多目标检测与跟踪 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.14557.pdf)\n\n- 基于侧边信息的边界定位，以实现更精确的目标检测 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.04260.pdf)\n\n- **[PIoU]** PIoU损失：迈向复杂环境下精确的定向目标检测 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.09584.pdf)\n\n- **[AABO]** AABO：通过贝叶斯子采样优化目标检测的自适应锚框 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.09336.pdf)\n\n- 仅需10万个参数即可实现高效显著性目标检测 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.05643.pdf)\n\n- **[GeoGraph]** GeoGraph：端到端学习基于图的多视角目标检测，并结合几何线索 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.10151.pdf)\n\n- 从低样本到多样本：利用混合监督进行目标检测的标注学习 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2008.09694.pdf)\n\n- 更廉价的预训练午餐：一种高效的目标检测范式 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.12178.pdf)\n\n- 使用圆形平滑标签进行任意方向目标检测 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.05597.pdf)\n\n- 软锚点目标检测 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.12448.pdf)\n\n- 使用来自多个数据集的统一标签空间进行目标检测 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2008.06614.pdf)\n\n- **[MimicDet]** MimicDet：弥合单阶段与两阶段目标检测之间的差距 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Fwww.ecva.net\u002Fpapers\u002Feccv_2020\u002Fpapers_ECCV\u002Fpapers\u002F123590528.pdf)\n\n- 基于先验知识的雾霾和雨天条件下的领域自适应目标检测 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.00070.pdf)\n\n- **[Dynamic R-CNN]** 动态R-CNN：通过动态训练迈向高质量目标检测 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.06002.pdf)\n\n- **[OS2D]** OS2D：通过匹配锚框特征实现单阶段单次目标检测 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.06800.pdf)\n\n- 用于少样本目标检测的多尺度正样本精炼 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.09384.pdf)\n\n- 野外场景下的少样本目标检测与视角估计 | **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.12107.pdf)\n\n- 领域自适应目标检测中的区域建议定位与分类协同训练\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2009.08119.pdf)\n\n- 用于连接组学大规模目标检测的双流主动查询建议\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Fdonglaiw.github.io\u002Fpaper\u002F2020_eccv_twostream.pdf)\n\n- **[FDTS]** FDTS：面向目标检测及其他任务的快速多样化变换搜索\t\t| **[ECCV' 20]** \n\n- 双重细化水下目标检测网络\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Fwww.ecva.net\u002Fpapers\u002Feccv_2020\u002Fpapers_ECCV\u002Fpapers\u002F123650273.pdf)\n\n- **[APRICOT]** APRICOT：目标检测物理对抗攻击数据集\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.08166.pdf)\n\n- 目标检测的大批量优化：12分钟内训练COCO数据集\t\t| **[ECCV' 20]** |[`[pdf]`](http:\u002F\u002Fwww.ecva.net\u002Fpapers\u002Feccv_2020\u002Fpapers_ECCV\u002Fpapers\u002F123660477.pdf)\n\n- 基于区域的目标检测的层次化上下文嵌入\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2008.01338.pdf)\n\n- 用于自动驾驶的基于柱体的目标检测\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.10323.pdf)\n\n- 深入研究边界框以提升目标检测性能\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.14350.pdf)\n\n- 基于非对称三路Faster R-CNN的领域自适应目标检测\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.01571.pdf)\n\n- 基于IoU预测的概率性锚点分配用于目标检测\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.08103.pdf)\n\n- **[HoughNet]** HoughNet：整合近程和远程证据实现自底向上的目标检测\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.02355.pdf)\n\n- **[LabelEnc]** LabelEnc：一种新的目标检测中间监督方法\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.03282.pdf)\n\n- 通过渐进式知识迁移提升弱监督目标检测性能\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.07986.pdf)\n\n- 数据增强在目标检测中的重要性\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1906.11172)\n\n- 基于双重多标签预测的自适应目标检测\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.12943.pdf)\n\n- 量子软QUBO抑制技术用于精确目标检测\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.13992.pdf)\n\n- 通过选择性自监督自训练提升目标检测性能\t\t| **[ECCV' 20]** |[`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.09162.pdf)\n\n\n\n\n##\n\n## 数据集论文\n常用目标检测数据集的统计信息。该表格摘自[这篇综述论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1809.02165v1.pdf)。\n\n\u003Ctable>\n\u003Cthead>\n  \u003Ctr>\n    \u003Cth rowspan=2>挑战\u003C\u002Fth>\n    \u003Cth rowspan=2 width=80>目标类别\u003C\u002Fth>\n    \u003Cth colspan=3>图像数量\u003C\u002Fth>\n    \u003Cth colspan=2>标注图像数量\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Cth>训练集\u003C\u002Fth>\n    \u003Cth>验证集\u003C\u002Fth>\n    \u003Cth>测试集\u003C\u002Fth>\n    \u003Cth>训练集\u003C\u002Fth>\n    \u003Cth>验证集\u003C\u002Fth>\n  \u003C\u002Ftr>\n\u003C\u002Fthead>\n\u003Ctbody>\n\n\u003C!-- PASCAL VOC 目标检测挑战 -->\n\u003Ctr>\u003Cth colspan=7>PASCAL VOC 目标检测挑战\u003C\u002Fth>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> VOC07 \u003C\u002Ftd>\u003Ctd> 20 \u003C\u002Ftd>\u003Ctd> 2,501 \u003C\u002Ftd>\u003Ctd> 2,510 \u003C\u002Ftd>\u003Ctd>  4,952 \u003C\u002Ftd>\u003Ctd>   6,301 (7,844) \u003C\u002Ftd>\u003Ctd>   6,307 (7,818) \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> VOC08 \u003C\u002Ftd>\u003Ctd> 20 \u003C\u002Ftd>\u003Ctd> 2,111 \u003C\u002Ftd>\u003Ctd> 2,221 \u003C\u002Ftd>\u003Ctd>  4,133 \u003C\u002Ftd>\u003Ctd>   5,082 (6,337) \u003C\u002Ftd>\u003Ctd>   5,281 (6,347) \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> VOC09 \u003C\u002Ftd>\u003Ctd> 20 \u003C\u002Ftd>\u003Ctd> 3,473 \u003C\u002Ftd>\u003Ctd> 3,581 \u003C\u002Ftd>\u003Ctd>  6,650 \u003C\u002Ftd>\u003Ctd>   8,505 (9,760) \u003C\u002Ftd>\u003Ctd>   8,713 (9,779) \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> VOC10 \u003C\u002Ftd>\u003Ctd> 20 \u003C\u002Ftd>\u003Ctd> 4,998 \u003C\u002Ftd>\u003Ctd> 5,105 \u003C\u002Ftd>\u003Ctd>  9,637 \u003C\u002Ftd>\u003Ctd> 11,577 (13,339) \u003C\u002Ftd>\u003Ctd> 11,797 (13,352) \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> VOC11 \u003C\u002Ftd>\u003Ctd> 20 \u003C\u002Ftd>\u003Ctd> 5,717 \u003C\u002Ftd>\u003Ctd> 5,823 \u003C\u002Ftd>\u003Ctd> 10,994 \u003C\u002Ftd>\u003Ctd> 13,609 (15,774) \u003C\u002Ftd>\u003Ctd> 13,841 (15,787) \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> VOC12 \u003C\u002Ftd>\u003Ctd> 20 \u003C\u002Ftd>\u003Ctd> 5,717 \u003C\u002Ftd>\u003Ctd> 5,823 \u003C\u002Ftd>\u003Ctd> 10,991 \u003C\u002Ftd>\u003Ctd> 13,609 (15,774) \u003C\u002Ftd>\u003Ctd> 13,841 (15,787) \u003C\u002Ftd>\u003C\u002Ftr>\n\n\u003C!-- ILSVRC 目标检测挑战 -->\n\u003Ctr>\u003Cth colspan=7>ILSVRC 目标检测挑战\u003C\u002Fth>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> ILSVRC13 \u003C\u002Ftd>\u003Ctd> 200 \u003C\u002Ftd>\u003Ctd> 395,909 \u003C\u002Ftd>\u003Ctd> 20,121 \u003C\u002Ftd>\u003Ctd> 40,152 \u003C\u002Ftd>\u003Ctd> 345,854 \u003C\u002Ftd>\u003Ctd> 55,502 \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> ILSVRC14 \u003C\u002Ftd>\u003Ctd> 200 \u003C\u002Ftd>\u003Ctd> 456,567 \u003C\u002Ftd>\u003Ctd> 20,121 \u003C\u002Ftd>\u003Ctd> 40,152 \u003C\u002Ftd>\u003Ctd> 478,807 \u003C\u002Ftd>\u003Ctd> 55,502 \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> ILSVRC15 \u003C\u002Ftd>\u003Ctd> 200 \u003C\u002Ftd>\u003Ctd> 456,567 \u003C\u002Ftd>\u003Ctd> 20,121 \u003C\u002Ftd>\u003Ctd> 51,294 \u003C\u002Ftd>\u003Ctd> 478,807 \u003C\u002Ftd>\u003Ctd> 55,502 \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> ILSVRC16 \u003C\u002Ftd>\u003Ctd> 200 \u003C\u002Ftd>\u003Ctd> 456,567 \u003C\u002Ftd>\u003Ctd> 20,121 \u003C\u002Ftd>\u003Ctd> 60,000 \u003C\u002Ftd>\u003Ctd> 478,807 \u003C\u002Ftd>\u003Ctd> 55,502 \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> ILSVRC17 \u003C\u002Ftd>\u003Ctd> 200 \u003C\u002Ftd>\u003Ctd> 456,567 \u003C\u002Ftd>\u003Ctd> 20,121 \u003C\u002Ftd>\u003Ctd> 65,500 \u003C\u002Ftd>\u003Ctd> 478,807 \u003C\u002Ftd>\u003Ctd> 55,502 \u003C\u002Ftd>\u003C\u002Ftr.\n\n\u003C!-- MS COCO 目标检测挑战 -->\n\u003Ctr>\u003Cth colspan=7>MS COCO 目标检测挑战\u003C\u002Fth>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> MS COCO15 \u003C\u002Ftd>\u003Ctd> 80 \u003C\u002Ftd>\u003Ctd>  82,783 \u003C\u002Ftd>\u003Ctd> 40,504 \u003C\u002Ftd>\u003Ctd> 81,434 \u003C\u002Ftd>\u003Ctd> 604,907 \u003C\u002Ftd>\u003Ctd> 291,875 \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> MS COCO16 \u003C\u002Ftd>\u003Ctd> 80 \u003C\u002Ftd>\u003Ctd>  82,783 \u003C\u002Ftd>\u003Ctd> 40,504 \u003C\u002Ftd>\u003Ctd> 81,434 \u003C\u002Ftd>\u003Ctd> 604,907 \u003C\u002Ftd>\u003Ctd> 291,875 \u003C\u002Ftd>\u003C\u002Ftr.\n\u003Ctr>\u003Ctd> MS COCO17 \u003C\u002Ftd>\u003Ctd> 80 \u003C\u002Ftd>\u003Ctd> 118,287 \u003C\u002Ftd>\u003Ctd>  5,000 \u003C\u002Ftd>\u003Ctd> 40,670 \u003C\u002Ftd>\u003Ctd> 860,001 \u003C\u002Ftd>\u003Ctd>  36,781 \u003C\u002Ftd>\u003C\u002Ftr.\n\u003Ctr>\u003Ctd> MS COCO18 \u003C\u002Ftd>\u003Ctd> 80 \u003C\u002Ftd>\u003Ctd> 118,287 \u003C\u002Ftd>\u003Ctd>  5,000 \u003C\u002Ftd>\u003Ctd> 40,670 \u003C\u002Ftd>\u003Ctd> 860,001 \u003C\u002Ftd>\u003Ctd>  36,781 \u003C\u002Ftd>\u003C\u002Ftr.\n\n\u003C!-- Open Images 目标检测挑战 -->\n\u003Ctr>\u003Cth colspan=7>Open Images 目标检测挑战\u003C\u002Fth>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd> OID18 \u003C\u002Ftd>\u003Ctd> 500 \u003C\u002Ftd>\u003Ctd> 1,743,042 \u003C\u002Ftd>\u003Ctd> 41,620 \u003C\u002Ftd>\u003Ctd> 125,436 \u003C\u002Ftd>\u003Ctd> 12,195,144 \u003C\u002Ftd>\u003Ctd> ― \u003C\u002Ftd>\u003C\u002Ftr.\n\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n主要用于目标检测的数据集相关论文如下：\n\n- **[PASCAL VOC]** PASCAL 视觉目标类别（VOC）挑战 | **[IJCV' 10]** | [`[pdf]`](http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fpubs\u002Feveringham10.pdf)\n\n- **[PASCAL VOC]** PASCAL 视觉目标类别挑战：回顾 | **[IJCV' 15]** | [`[pdf]`](http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fpubs\u002Feveringham15.pdf) | [`[链接]`](http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002F)\n\n- **[ImageNet]** ImageNet：一个大规模分层图像数据库| **[CVPR' 09]** | [`[pdf]`](http:\u002F\u002Fwww.image-net.org\u002Fpapers\u002Fimagenet_cvpr09.pdf)\n\n- **[ImageNet]** ImageNet 大规模视觉识别挑战 | **[IJCV' 15]** | [`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1409.0575.pdf) | [`[链接]`](http:\u002F\u002Fwww.image-net.org\u002Fchallenges\u002FLSVRC\u002F)\n\n- **[COCO]** Microsoft COCO：上下文中常见物体 | **[ECCV' 14]** | [`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1405.0312.pdf) | [`[链接]`](http:\u002F\u002Fcocodataset.org\u002F)\n\n- **[Open Images]** Open Images 数据集 V4：大规模统一的图像分类、目标检测和视觉关系检测 | **[arXiv' 18]** | [`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.00982v1.pdf) | [`[链接]`](https:\u002F\u002Fstorage.googleapis.com\u002Fopenimages\u002Fweb\u002Findex.html)\n\n- **[DOTA]** DOTA：用于航空影像中目标检测的大规模数据集 | **[CVPR' 18]** | [`[pdf]`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.10398v3.pdf) | [`[链接]`](https:\u002F\u002Fcaptain-whu.github.io\u002FDOTA\u002F)\n\n- **[Objects365]** Objects365：用于目标检测的大规模高质量数据集 | **[ICCV' 19]** | [`[链接]`](https:\u002F\u002Fwww.biendata.com\u002Fcompetition\u002Fobjects365\u002F)\n\n##\n\n## 联系与反馈\n\n如果您对论文有任何建议，欢迎随时给我发邮件 :)\n\n- [电子邮件](mailto:Hoseong.Lee@cognex.com)\n- [博客](https:\u002F\u002Fhoya012.github.io\u002F)\n- [拉取请求](https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fpulls)","# deep_learning_object_detection 快速上手指南\n\n> **注意**：本项目是一个**深度学习目标检测论文列表与资源汇总库**，而非一个可直接运行的单一检测模型代码库。它整理了从 2014 年至今的经典论文、性能对比表以及对应的官方\u002F非官方代码链接。以下指南将指导你如何利用该资源找到并运行你需要的目标检测算法。\n\n## 环境准备\n\n由于本仓库汇总了多种不同时期、不同框架（Caffe, TensorFlow, PyTorch, MXNet 等）实现的算法，**没有统一的前置依赖**。你需要根据想运行的具体论文代码来配置环境。\n\n### 通用建议配置\n为了能够运行大多数现代（2018-2020）的目标检测代码，建议准备以下基础环境：\n\n*   **操作系统**: Linux (Ubuntu 18.04\u002F20.04 推荐) 或 macOS\n*   **Python**: 3.6 - 3.8 (视具体模型而定)\n*   **GPU**: NVIDIA GPU (推荐显存 8GB 以上)\n*   **CUDA & cuDNN**: 根据所选框架版本安装对应驱动\n*   **核心框架** (任选其一，或全部安装):\n    *   PyTorch (目前最主流)\n    *   TensorFlow \u002F Keras\n    *   Caffe \u002F Caffe2 (针对 2014-2017 年的经典论文如 Faster R-CNN 原版)\n\n### 国内加速方案\n在安装 Python 依赖时，推荐使用清华源或阿里源以提升下载速度：\n\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 安装步骤\n\n由于本项目是索引列表，安装步骤取决于你选择的具体算法。以下是两种常见的获取与安装路径：\n\n### 路径一：运行现代算法（以 PyTorch 实现的 Faster R-CNN 或 YOLO 为例）\n大多数 2018 年后的论文都有 PyTorch 复现版本。\n\n1.  **克隆一个具体的实现仓库**（例如从本 README 表格中找到的 `faster-rcnn.pytorch`）：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fjwyang\u002Ffaster-rcnn.pytorch.git\n    cd faster-rcnn.pytorch\n    ```\n\n2.  **创建虚拟环境并安装依赖**：\n    ```bash\n    conda create -n obj_det python=3.7\n    conda activate obj_det\n    \n    # 安装 PyTorch (示例为 CUDA 11.1 版本，请根据实际情况调整)\n    pip install torch==1.9.0+cu111 torchvision==0.10.0+cu111 -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html\n    \n    # 安装其他依赖\n    pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n3.  **编译 CUDA 扩展**（如果需要）：\n    ```bash\n    bash make.sh\n    ```\n\n### 路径二：复现经典论文（查阅本仓库链接）\n如果你想复现 README 中列出的特定论文（如 2015 年的 Fast R-CNN）：\n\n1.  在本项目的 **Paper list** 部分找到对应年份和论文名称。\n2.  点击 `[official code]` 或 `[unofficial code]` 链接跳转到具体代码仓库。\n3.  遵循该具体仓库的 `README` 进行安装（旧项目可能依赖 Caffe 或 TensorFlow 1.x）。\n\n## 基本使用\n\n以下以通用的 PyTorch 目标检测流程为例，展示如何使用从本资源库中找到的代码进行推理。\n\n### 1. 准备数据集\n大多数模型需要 VOC 或 COCO 格式的数据集。\n```bash\n# 示例：创建数据目录\nmkdir data\ncd data\n# 下载 VOC2007 或 COCO2017 数据集 (建议使用国内镜像源下载)\n```\n\n### 2. 下载预训练模型\n在具体代码仓库中下载作者提供的预训练权重文件（`.pth` 或 `.caffemodel`），通常放在 `weights\u002F` 或 `checkpoints\u002F` 目录下。\n\n### 3. 运行推理 (Inference)\n执行检测脚本对单张图片或文件夹进行测试。\n\n**示例命令 (基于典型 PyTorch 实现):**\n```bash\npython demo.py \\\n    --cuda \\\n    --model_path weights\u002Fres101_faster_rcnn.pth \\\n    --image_dir data\u002Fimages \\\n    --classes_num 21\n```\n\n**示例命令 (基于 Darknet\u002FYOLO):**\n```bash\n.\u002Fdarknet detector test cfg\u002Fcoco.data cfg\u002Fyolov3.cfg weights\u002Fyolov3.weights data\u002Fdog.jpg\n```\n\n### 4. 查看结果\n程序运行结束后，通常会在输出目录生成带有检测框的图片，或在终端打印出类别与置信度信息。你可以参考本仓库中的 **Performance table** 来对比你所运行模型的 mAP 指标是否符合预期。","某自动驾驶初创公司的算法团队正致力于提升车辆对行人和障碍物的识别精度，急需从海量学术成果中筛选出最适合实时部署的目标检测模型。\n\n### 没有 deep_learning_object_detection 时\n- 研究人员需在 Google Scholar、arXiv 和各大会议官网间反复跳转，耗时数周才能拼凑出 2014 年至 2020 年的关键论文列表，极易遗漏如 ICLR 或 CVPR 的最新突破。\n- 面对数百篇论文，团队难以快速辨别哪些是必须精读的奠基性工作（如 R-CNN 系列），哪些是次要改进，导致大量时间浪费在低价值文献上。\n- 缺乏统一的性能对比视角，无法直观判断 YOLO v1 与 Faster R-CNN 在 VOC 或 COCO 数据集上的 mAP 差异及推理速度（FPS）权衡，选型全靠经验猜测。\n- 寻找复现代码如同大海捞针，经常遇到论文链接失效或只有官方代码而无社区优化版本的情况，严重拖慢原型验证进度。\n\n### 使用 deep_learning_object_detection 后\n- 团队直接访问该清单，一键获取按年份梳理的完整论文脉络，迅速锁定 2019-2020 年 NeurIPS 和 CVPR 上的前沿成果，调研周期从数周缩短至半天。\n- 借助红色高亮标记的“必读论文”指引，新人能快速掌握领域发展主线，将精力集中在最具影响力的算法演进上，避免盲目阅读。\n- 通过内置的性能对照表，工程师清晰看到不同模型在特定硬件下的精度与速度数据，科学地为公司边缘计算设备选定了平衡点最佳的检测器。\n- 每个条目均附带经过验证的官方及非官方代码链接，开发人员能立即拉取项目进行测试，大幅加速了从理论到实车的落地过程。\n\ndeep_learning_object_detection 通过将分散的学术资源结构化与可视化，成为了连接前沿理论与工程落地的最高效桥梁。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhoya012_deep_learning_object_detection_2d523859.png","hoya012","Hoseong Lee","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhoya012_13bd89f7.png","Deep Learning Research Engineer","Cognex Deep Learning Lab","Seoul, Korea",null,"https:\u002F\u002Fhoya012.github.io\u002F","https:\u002F\u002Fgithub.com\u002Fhoya012",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,11402,2761,"2026-04-16T12:59:56",5,"","未说明",{"notes":93,"python":91,"dependencies":94},"该仓库是一个深度学习目标检测的论文列表和资源汇总，并非一个可直接运行的软件工具或代码库。README 中列出了多篇论文及其对应的官方或非官方代码链接（涉及 Caffe, Torch, TensorFlow, PyTorch, Matlab 等不同框架），因此没有统一的运行环境、依赖库或硬件需求。用户需根据具体想要复现的某篇论文，前往其对应的代码仓库查看具体的环境配置要求。",[],[14,15],[97,98,99,100,101],"deep-learning","deep-neural-networks","deeplearning","objectdetection","object-detection","2026-03-27T02:49:30.150509","2026-04-17T08:25:24.196739",[105,110,115,120,125,130],{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},36906,"性能表中的 '++' 符号（例如 '(07++12)'）是什么意思？","'++' 符号表示该模型不仅使用了测试集数据进行评估，还将 '07 test' 数据集作为了训练集的一部分。这是目标检测论文中常见的标记方式，用于区分仅使用训练集和混合使用测试集进行训练的情况。","https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fissues\u002F17",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},36907,"论文列表中为什么有些模型（如 SSD 和 YOLO）是用红色字体标注的？","红色字体标注的论文代表维护者个人认为的“必读”（must-read）论文。但这仅代表个人观点，其他未标注的论文同样重要，如果时间允许，建议全部阅读。","https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fissues\u002F7",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},36908,"哪些模型更适合小目标检测（small object detection）？","建议尝试以下方案：\n1. 使用 LIP-ResNet 作为骨干网络（backbone），它可以在不修改检测框架的情况下显著提升 COCO 数据集上的小目标检测效果。\n2. 尝试使用 RetinaNet（结合 Focal Loss）或 PFN Net。\n3. 使用更大的特征图（feature map）进行检测，因为更大的特征图具有更小的步长（stride）和感受野，更适合检测小物体。","https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fissues\u002F23",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},36909,"有语义分割（semantic segmentation）和实例分割（instance segmentation）类似的论文列表推荐吗？","推荐参考以下仓库获取相关领域的论文列表：https:\u002F\u002Fgithub.com\u002Fmrgloom\u002Fawesome-semantic-segmentation","https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fissues\u002F29",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},36910,"为什么性能表中没有包含 FPS（帧率）数据？","FPS 指标高度依赖于硬件规格（如 CPU、GPU、RAM 等），很难在不同硬件环境下进行公平比较。虽然统一硬件测试是解决方案，但这非常困难且耗时。此外，并非所有论文都提供了 FPS 信息。维护者会在可能的情况下尽量补充这些数据。","https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fissues\u002F6",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},36911,"能否给论文列表添加星级评分以标识重要性？","目前计划不添加评分。因为所有论文都很重要，且重要程度因人而异，主观打分可能不够准确或全面。","https:\u002F\u002Fgithub.com\u002Fhoya012\u002Fdeep_learning_object_detection\u002Fissues\u002F33",[]]