ReID-Survey
ReID-Survey 是一个专注于行人重识别(Re-ID)领域的开源知识库与代码库,旨在系统梳理深度学习在该方向的研究进展。它主要解决了研究人员在面对海量文献时难以全面掌握技术脉络、缺乏统一实验标准以及复现高质量基线模型困难等痛点。
该资源特别适合计算机视觉领域的研究人员、算法工程师及高校学生使用。其核心内容涵盖两大部分:一是针对 2016 至 2020 年传统深度学习方法的全景综述,提出了评估难匹配样本能力的 mINP 新指标,并开源了具有竞争力的 AGW 基线模型;二是聚焦 2024 年最新的 Transformer 架构应用,深入分析了其在图像、视频、跨模态及小数据场景下的优势,并提供了名为 UntransReID 的无监督学习新基线。此外,项目还建立了动物重识别的统一实验标准,拓展了技术应用边界。通过提供详尽的论文解读、性能对比数据及可运行的代码实现,ReID-Survey 帮助用户快速理解前沿技术,高效开展算法研究与创新。
使用场景
某智慧园区安防团队正致力于升级监控系统,试图在跨摄像头场景中精准追踪特定人员,并解决夜间红外模式下的识别难题。
没有 ReID-Survey 时
- 算法选型盲目:面对海量的 ReID 论文,团队难以区分哪些 Transformer 架构真正适合小样本或跨模态场景,导致反复试错,研发周期拉长。
- 基线性能瓶颈:沿用传统的 CNN 基线模型,在“可见光 - 红外”跨模态检索中准确率低下,无法有效应对夜间监控需求。
- 评估指标单一:仅依赖 Rank@1 和 mAP 指标,忽略了最难匹配样本的召回能力,导致系统在真实复杂人流中频繁丢失目标。
- 动物识别缺失:想要扩展系统至园区野生动物监测时,缺乏统一的实验标准,不得不从零构建数据集和评估流程。
使用 ReID-Survey 后
- 技术路线清晰:直接参考综述中对 Transformer 优势的深度分析,快速锁定 UntransReID 作为无监督跨模态任务的核心架构,大幅缩短调研时间。
- 跨模态突破:部署 AGW 和 UntransReID 基线代码,利用其非局部注意力机制和广义平均池化,显著提升了夜间红外图像的人员重识别精度。
- 评估更全面:引入 mINP(平均逆负惩罚)新指标,专注于优化最难匹配样本的查找能力,确保系统在拥挤场景下也能稳定锁定目标。
- 多场景复用:直接套用提供的动物 ReID 统一实验标准,快速将同一套技术框架迁移至雪豹等珍稀动物的轨迹追踪项目中。
ReID-Survey 不仅提供了经过验证的 SOTA 基线代码,更通过统一的评估标准和深度的技术分析,帮助团队从盲目探索转向高效落地,实现了从人员到动物多场景的智能监控升级。
运行环境要求
- 未说明
需要 NVIDIA GPU (启动命令指定 MODEL.DEVICE_ID),具体型号和显存未说明
未说明

快速开始
IJCV 2024:基于Transformer的ReID综述
用于目标重识别的Transformer:综述。arXiv
亮点
深入分析了Transformer的优势,重点阐述其在四个主要ReID方向上的影响:基于图像/视频、数据/标注有限、跨模态以及特殊场景。
提出了一种新的基于Transformer的无监督基线UntransReID,在单模态和跨模态ReID任务上均取得了最先进的性能。
设计了一套针对动物ReID的统一实验标准,旨在解决其独特挑战并评估基于Transformer方法的潜力。
引用
若本文对您的研究有所帮助,请在您的出版物中引用本文:
@article{ye2024transformer,
title={Transformer for Object Re-Identification: A Survey},
author={Ye, Mang and Chen, Shuoyi and Li, Chenyue and Zheng, Wei-Shi and Crandall, David and Du, Bo},
journal={arXiv preprint arXiv:2401.06960},
year={2024}
}
TPAMI 2021 ReID综述及强大的AGW基线
用于行人重识别的深度学习:综述与展望。附有补充材料的PDF文件。arXiv
中文简化版介绍请参见知乎。
亮点
对近年来(2016—2020年)封闭式和开放式行人ReID进行了全面且深入的综述。
提出了一个新的评价指标——平均逆向惩罚值(mINP),用于衡量找到最难正确匹配的能力。
构建了一个包含非局部注意力模块、广义均值池化和加权正则化三元组损失的新型AGW基线。该基线在四项具有挑战性的ReID任务上均表现出色,包括单模态图像ReID、视频ReID、部分遮挡ReID以及跨模态ReID。
AGW在单模态图像ReID中的mINP表现
DukeMTMC数据集
| 方法 | 预训练 | Rank@1 | mAP | mINP | 模型 | 论文 |
|---|---|---|---|---|---|---|
| BagTricks | ImageNet | 86.4% | 76.4% | 40.7% | 代码 | 《深度行人重识别的技巧与强大基线》。ArXiv 19。PDF |
| ABD-Net | ImageNet | 89.0% | 78.6% | 42.1% | 代码 | 《ABD-Net:专注而多样的行人重识别》。ICCV 19。PDF |
| AGW | ImageNet | 89.0% | 79.6% | 45.7% | GoogleDrive | 《用于行人重识别的深度学习:综述与展望》 |
Market-1501数据集
| 方法 | 预训练 | Rank@1 | mAP | mINP | 模型 | 论文 |
|---|---|---|---|---|---|---|
| BagTricks | ImageNet | 94.5% | 85.9% | 59.4% | 代码 | 《深度行人重识别的技巧与强大基线》。ArXiv 19。arXiv |
| ABD-Net | ImageNet | 95.6% | 88.3% | 66.2% | 代码 | 《ABD-Net:专注而多样的行人重识别》。ICCV 19。PDF |
| AGW | ImageNet | 95.1% | 87.8% | 65.0% | GoogleDrive | 《用于行人重识别的深度学习:综述与展望》。ArXiv 20。arXiv |
CUHK03数据集
| 方法 | 预训练 | Rank@1 | mAP | mINP | 模型 | 论文 |
|---|---|---|---|---|---|---|
| BagTricks | ImageNet | 58.0% | 56.6% | 43.8% | 代码 | 《深度行人重识别的技巧与强大基线》。ArXiv 19。PDF |
| AGW | ImageNet | 63.6% | 62.0% | 50.3% | GoogleDrive | 《用于行人重识别的深度学习:综述与展望》。ArXiv 20。arXiv |
MSMT17数据集
| 方法 | 预训练 | Rank@1 | mAP | mINP | 模型 | 论文 |
|---|---|---|---|---|---|---|
| BagTricks | ImageNet | 63.4% | 45.1% | 12.4% | 代码 | 《深度行人重识别的技巧与强大基线》。ArXiv 19。arXiv |
| AGW | ImageNet | 68.3% | 49.3% | 14.7% | GoogleDrive | 《用于行人重识别的深度学习:综述与展望》。ArXiv 20。arXiv |
快速入门
1. 准备数据集
在本仓库下创建一个用于存放ReID数据集的目录,以Market1501为例:
cd ReID-Survey
mkdir toDataset
在
config/defaults.py中设置_C.DATASETS.ROOT_DIR = ('./toDataset')。从http://www.liangzheng.org/Project/project_reid.html下载数据集并存放到
toDataset/目录下。解压数据集后将其重命名为
market1501。数据结构应如下所示:
toDataset
market1501
bounding_box_test/
bounding_box_train/
......
Partial-REID和Partial-iLIDS数据集由https://github.com/lingxiao-he/Partial-Person-ReID提供。
2. 安装依赖
以下为所需的依赖包:
- pytorch=1.0.0
- torchvision=0.2.1
- pytorch-ignite=0.1.2
- yacs
- scipy=1.2.1
- h5py
3. 训练
若要在GPU设备0上使用AGW模型在Market1501数据集上进行训练,可运行如下命令:
python3 tools/main.py --config_file='configs/AGW_baseline.yml' MODEL.DEVICE_ID "('0')" DATASETS.NAMES "('market1501')" OUTPUT_DIR "('./log/market1501/Experiment-AGW-baseline')"
4. 测试
若要使用权重文件'./pretrained/dukemtmc_AGW.pth'在Market1501数据集上测试AGW模型,可运行如下命令:
python3 tools/main.py --config_file='configs/AGW_baseline.yml' MODEL.DEVICE_ID "('0')" DATASETS.NAMES "('market1501')" MODEL.PRETRAIN_CHOICE "('self')" TEST.WEIGHT "('./pretrained/market1501_AGW.pth')" TEST.EVALUATE_ONLY "('on')" OUTPUT_DIR "('./log/Test')"
引用
若本文对您的研究有所帮助,请在您的论文中引用以下文献:
@article{pami21reidsurvey,
title={Deep Learning for Person Re-identification: A Survey and Outlook},
author={Ye, Mang and Shen, Jianbing and Lin, Gaojie and Xiang, Tao and Shao, Ling and Hoi, Steven C. H.},
journal={IEEE Transactions on Pattern Analysis and Machine Intelligence},
year={2021},
}
联系方式:mangye16@gmail.com
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
n8n
n8n 是一款面向技术团队的公平代码(fair-code)工作流自动化平台,旨在让用户在享受低代码快速构建便利的同时,保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点,帮助用户轻松连接 400 多种应用与服务,实现复杂业务流程的自动化。 n8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”:既可以通过直观的可视化界面拖拽节点搭建流程,也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外,n8n 原生集成了基于 LangChain 的 AI 能力,支持用户利用自有数据和模型构建智能体工作流。在部署方面,n8n 提供极高的自由度,支持完全自托管以保障数据隐私和控制权,也提供云端服务选项。凭借活跃的社区生态和数百个现成模板,n8n 让构建强大且可控的自动化系统变得简单高效。
AutoGPT
AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台,核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点,让用户只需设定目标,AI 即可自主规划步骤、调用工具并持续运行直至完成任务。 无论是开发者、研究人员,还是希望提升工作效率的普通用户,都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体;研究人员能基于开源架构探索多智能体协作机制;而非技术背景用户也可直接选用预置的智能体模板,立即投入实际工作场景。 AutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑,每个块负责单一动作,灵活且易于调试。同时,平台支持本地自托管与云端部署两种模式,兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本,即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛,让人人都能成为 AI 的创造者与受益者。
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。