YOLOv3_TensorFlow
YOLOv3_TensorFlow 是一个基于纯 TensorFlow 框架实现的 YOLOv3 目标检测开源项目。它旨在帮助开发者在 TensorFlow 生态中复现经典的 YOLOv3 算法,提供从预训练权重转换、自定义数据集训练到模型评估与推理的完整流水线。
对于希望在不依赖 PyTorch 或其他框架的前提下,深入理解 YOLOv3 架构或在旧版 TensorFlow 环境中部署高性能检测模型的用户来说,这是一个极具价值的参考实现。它特别适合熟悉 TensorFlow 的 AI 工程师、研究人员以及需要快速验证算法效果的学习者。
该项目拥有多项技术亮点:内置高效的 tf.data 数据管道以加速训练;支持将 Darknet 预训练权重无缝转换为 TensorFlow 格式;实现了极速的 GPU 非极大值抑制(NMS)算法;并提供 K-means 聚类工具以自动优化先验锚框。尽管作者已转向 PyTorch 并不再维护此仓库,但其代码结构清晰、功能完备,且在 Titan XP 显卡上对 416x416 图像的推理速度可达约 23 毫秒,性能表现优异。无论是用于教学演示、算法研究还是工程落地前的原型验证,YOLOv3_TensorFlow 都是一个扎实可靠的选择。
使用场景
某智慧城市交通部门需要在现有 TensorFlow 架构下,快速部署一套能识别多种违规车辆(如未戴头盔摩托车、违停货车)的实时监控系统。
没有 YOLOv3_TensorFlow 时
- 框架迁移成本高:团队熟悉 TensorFlow 生态,但主流 YOLOv3 实现多基于 PyTorch 或 Darknet,重新学习框架或搭建混合环境耗时费力。
- 自定义训练流程缺失:缺乏从数据标注格式转换、锚框(Anchor Boxes)自动聚类到模型评估的完整流水线,需手动编写大量底层代码。
- 推理速度不达标:自研的后处理算法在 GPU 上运行非极大值抑制(NMS)效率低下,导致视频流分析帧率不足,无法满足实时预警需求。
- 预训练权重复用难:难以将官方 COCO 数据集上的 Darknet 预训练权重直接转换为 TensorFlow 格式,从零训练收敛慢且精度低。
使用 YOLOv3_TensorFlow 后
- 原生无缝集成:利用纯 TensorFlow 实现的完整管道,团队无需切换技术栈,直接复用现有基础设施进行开发。
- 一站式训练支持:通过内置的 K-means 算法自动优化先验锚框,并配合高效的数据管道,快速完成针对本地交通数据的微调训练。
- 极致推理性能:借助极快的 GPU 非极大值抑制实现,在 Titan XP 显卡上单图推理仅需约 23 毫秒,轻松支撑多路高清视频实时分析。
- 权重平滑迁移:使用自带的权重转换脚本,一键将 Darknet 预训练模型转为 TensorFlow Checkpoint,大幅缩短模型冷启动时间。
YOLOv3_TensorFlow 让团队在无需重构技术栈的前提下,以最低成本实现了高精度、实时的定制化目标检测落地。
运行环境要求
- 未说明
需要 NVIDIA GPU(演示中使用了 Titan X/Titan XP),需支持 CUDA 的 TensorFlow 版本
未说明

快速开始
YOLOv3_TensorFlow
注意: 本仓库已不再维护(实际上我很久以前就停止了支持),因为我已经转用 PyTorch 一年了。人生苦短,我选择 PyTorch。
1. 简介
这是我用纯 TensorFlow 实现的 YOLOv3。它包含了在您自己的数据集上进行训练和评估的完整流程。该仓库的主要特点包括:
- 高效的 tf.data 数据管道
- 权重转换器(将 COCO 数据集上的预训练 Darknet 权重转换为 TensorFlow 检查点)
- 极速 GPU 非极大值抑制
- 完整的训练和评估流程
- 使用 K-means 算法选择先验锚框
2. 要求
Python 版本:2 或 3
依赖包:
- tensorflow >= 1.8.0(理论上任何支持 tf.data 的版本都可以)
- opencv-python
- tqdm
3. 权重转换
预训练的 Darknet 权重文件可以从 这里 下载。将该权重文件放置在 ./data/darknet_weights/ 目录下,然后运行:
python convert_weight.py
转换后的 TensorFlow 检查点文件将保存到 ./data/darknet_weights/ 目录中。
您也可以通过 [Google Drive 链接] 或 [Github 发布页面] 下载我转换好的 TensorFlow 检查点文件,并将其放置在同一目录下。
4. 运行示例
./data/demo_data/ 目录下包含了一些示例图片和视频。您可以按以下方式运行示例:
单张图片测试示例:
python test_single_image.py ./data/demo_data/messi.jpg
视频测试示例:
python video_test.py ./data/demo_data/video.mp4
部分结果如下:



将风筝检测结果与 TensorFlow 官方 API 的结果进行比较 这里。
(风筝检测结果是在输入图像分辨率为 1344x896 的情况下得到的)
5. 推理速度
推理速度有多快?当图像缩放到 416*416 时:
| 主干网络 | GPU | 时间(ms) |
|---|---|---|
| Darknet-53(论文) | Titan X | 29 |
| Darknet-53(我的实现) | Titan XP | ~23 |
为什么这么快?请查看论文中 ImageNet 分类结果的对比图:

6. 模型架构
为了更好地理解模型架构,您可以参考下图。特别感谢 Levio 的优秀工作!

7. 训练
7.1 数据准备
(1) 注释文件
在 ./data/my_data/ 目录下生成 train.txt/val.txt/test.txt 文件。每行对应一张图片,格式为 image_index image_absolute_path img_width img_height box_1 box_2 ... box_n。其中,box_x 的格式为:label_index x_min y_min x_max y_max。(坐标原点位于左上角,左上角为 (xmin, ymin),右下角为 (xmax, ymax)。)image_index 是从零开始的行索引,label_index 的范围是 [0, class_num - 1]。
例如:
0 xxx/xxx/a.jpg 1920 1080 0 453 369 473 391 1 588 245 608 268
1 xxx/xxx/b.jpg 1920 1080 1 466 403 485 422 2 793 300 809 320
...
由于许多用户反馈使用 LabelImg 等工具生成 XML 格式的标注文件,我添加了一个 VOC 数据集的示例脚本用于进行转换。更多详情请参阅 misc/parse_voc_xml.py 文件。
(2) 类别名称文件:
在 ./data/my_data/ 目录下生成 data.names 文件。每行代表一个类别名称。
例如:
鸟
人
自行车
...
COCO 数据集的类别名称文件位于 ./data/coco.names。
(3) 先验锚框文件:
使用 K-means 算法获取先验锚框:
python get_kmeans.py
运行后会得到 9 个锚框及平均 IoU 值。将这些锚框保存到一个文本文件中。
YOLO 作者提供的 COCO 数据集锚框位于 ./data/yolo_anchors.txt,您也可以直接使用。
K-means 脚本计算出的 YOLO 锚框是在调整大小后的图像尺度上得到的。默认的调整大小方法是 Letterbox 调整,即在调整大小后的图像中保持原始宽高比不变。
7.2 训练
使用 train.py 进行训练。超参数及相关注释可在 args.py 中找到:
CUDA_VISIBLE_DEVICES=GPU_ID python train.py
更多细节请参阅 args.py。您需要根据自己的具体任务自行设置参数。
8. 评估
使用 eval.py 对验证集或测试集进行评估。参数如下:
$ python eval.py -h
usage: eval.py [-h] [--eval_file EVAL_FILE]
[--restore_path RESTORE_PATH]
[--anchor_path ANCHOR_PATH]
[--class_name_path CLASS_NAME_PATH]
[--batch_size BATCH_SIZE]
[--img_size [IMG_SIZE [IMG_SIZE ...]]]
[--num_threads NUM_THREADS]
[--prefetech_buffer PREFETECH_BUFFER]
[--nms_threshold NMS_THRESHOLD]
[--score_threshold SCORE_THRESHOLD]
[--nms_topk NMS_TOPK]
更多细节请参阅 eval.py。您需要根据实际情况自行设置参数。
评估结果将包括损失、召回率、精确率、平均精度以及 mAP 等指标。
若希望获得更高的 mAP,应将 score_threshold 设置为较小的值。
9. 一些技巧
以下是我实验中使用的一些训练技巧:
(1) 应用两阶段训练策略或单阶段训练策略:
两阶段训练:
第一阶段:从 COCO 检查点中加载 darknet53_body 部分的权重,以较大的学习率(如 1e-3)训练 yolov3_head,直到损失降到较低水平。
第二阶段:从第一阶段的检查点中恢复权重,然后以较小的学习率(如 1e-4 或更小)训练整个模型。在此阶段,如果使用 Adam 等优化器,请记得同时恢复优化器的状态参数。
单阶段训练:
只需加载除最后三个卷积层(Conv_6、Conv_14、Conv_22)之外的完整权重文件。在这种情况下,需注意可能出现损失值为 NaN 的情况。
(2) 我在 args.py 中加入了许多有用的训练策略:
- 学习率余弦退火(SGDR)
- 多尺度训练
- 标签平滑
- Mixup 数据增强
- Focal Loss
这些策略都很有效,但并不意味着它们一定会提升模型性能。你需要根据自己的任务选择合适的策略。
来自 gluon-cv 的这篇 论文 证明了数据增强对 YOLO v3 至关重要,这与我的实验结果完全一致。然而,有些看似合理的数据增强策略反而可能导致性能下降。例如,在引入随机颜色抖动后,我在自己的数据集上的 mAP 明显降低。因此,我建议你在进行数据增强时格外谨慎。
(4) 如果出现损失值为 NaN?可以尝试增大 warm-up epoch 的数量或减小学习率,多试几次。如果你对整个模型进行微调,使用 Adam 优化器有时可能会导致 NaN 值。此时可以尝试选择带有动量的优化器。
10. 在 VOC 数据集上的微调
我在 VOC 数据集上做了一个快速的训练实验。我在实验中使用的参数已放在 misc/experiments_on_voc/ 文件夹下,供你参考。训练数据集为 VOC 2007 和 2012 的 trainval 集合,测试数据集为 VOC 2007 的测试集。
最终,使用 416×416 输入图像,我得到了 87.54% 的测试 mAP(未使用 07 年的评估标准)。这还是未经深入调优的结果,你应该能够获得相似甚至更好的效果。
我在 VOC 数据集上的预训练权重可在此下载:这里。
11. 待办事项
[ ] 使用同步批归一化实现多 GPU 训练。
[ ] 或许可以尝试 TensorFlow 2.0?
致谢:
在实现过程中,我参考了许多优秀的开源项目:
版本历史
v1.02019/01/20常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。