[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-YunYang1994--tensorflow-yolov3":3,"similar-YunYang1994--tensorflow-yolov3":91},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":18,"owner_location":19,"owner_email":15,"owner_twitter":15,"owner_website":15,"owner_url":20,"languages":21,"stars":26,"forks":27,"last_commit_at":28,"license":29,"difficulty_score":30,"env_os":31,"env_gpu":32,"env_ram":33,"env_deps":34,"category_tags":42,"github_topics":45,"view_count":50,"oss_zip_url":15,"oss_zip_packed_at":15,"status":51,"created_at":52,"updated_at":53,"faqs":54,"releases":85},5802,"YunYang1994\u002Ftensorflow-yolov3","tensorflow-yolov3","🔥 TensorFlow Code for technical report: \"YOLOv3: An Incremental Improvement\"","tensorflow-yolov3 是基于 TensorFlow 框架实现的 YOLOv3 目标检测开源项目，旨在复现技术报告《YOLOv3: An Incremental Improvement》中的核心算法。它主要解决了开发者在 TensorFlow 生态中缺乏高质量、可运行 YOLOv3 代码的痛点，让用户能够轻松进行物体识别任务的推理、评估及自定义训练。\n\n该项目非常适合计算机视觉领域的研究人员、深度学习工程师以及希望入门目标检测技术的开发者使用。其独特亮点在于提供了完整的端到端工作流：不仅支持直接加载 COCO 预训练权重进行图片和视频演示，还详细指导用户如何利用 VOC 等数据集从头训练或微调模型。此外，作者贴心地推出了基于 TensorFlow 2.0 的新版本仓库，并附带中文博客教程，帮助那些不再满足于旧版 TF1.x 的用户更顺畅地理解算法原理与实现细节。通过简洁的脚本接口，用户可以快速将模型转化为冻结图文件，高效部署于实际场景中。","\n## 🆕 Are you looking for a new YOLOv3 implemented by TF2.0 ?\n\n>If you hate the fucking tensorflow1.x very much, no worries! I have implemented **a new YOLOv3 repo with TF2.0**, and also made a chinese blog on how to implement YOLOv3 object detector from scratch. \u003Cbr>\n[code](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FYOLOV3) | [blog](https:\u002F\u002Fyunyang1994.gitee.io\u002F2018\u002F12\u002F28\u002FYOLOv3-算法的一点理解\u002F)  | [issue](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002Ftensorflow-yolov3\u002Fissues\u002F39)\n\n## part 1. Quick start\n1. Clone this file\n```bashrc\n$ git clone https:\u002F\u002Fgithub.com\u002FYunYang1994\u002Ftensorflow-yolov3.git\n```\n2.  You are supposed  to install some dependencies before getting out hands with these codes.\n```bashrc\n$ cd tensorflow-yolov3\n$ pip install -r .\u002Fdocs\u002Frequirements.txt\n```\n3. Exporting loaded COCO weights as TF checkpoint(`yolov3_coco.ckpt`)【[BaiduCloud](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F11mwiUy8KotjUVQXqkGGPFQ&shfl=sharepset)】\n```bashrc\n$ cd checkpoint\n$ wget https:\u002F\u002Fgithub.com\u002FYunYang1994\u002Ftensorflow-yolov3\u002Freleases\u002Fdownload\u002Fv1.0\u002Fyolov3_coco.tar.gz\n$ tar -xvf yolov3_coco.tar.gz\n$ cd ..\n$ python convert_weight.py\n$ python freeze_graph.py\n```\n4. Then you will get some `.pb` files in the root path.,  and run the demo script\n```bashrc\n$ python image_demo.py\n$ python video_demo.py # if use camera, set video_path = 0\n```\n\u003Cp align=\"center\">\n    \u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_tensorflow-yolov3_readme_0461bd0315d1.jpg\" style=\"max-width:100%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n## part 2. Train your own dataset\nTwo files are required as follows:\n\n- [`dataset.txt`](https:\u002F\u002Fraw.githubusercontent.com\u002FYunYang1994\u002Ftensorflow-yolov3\u002Fmaster\u002Fdata\u002Fdataset\u002Fvoc_train.txt): \n\n```\nxxx\u002Fxxx.jpg 18.19,6.32,424.13,421.83,20 323.86,2.65,640.0,421.94,20 \nxxx\u002Fxxx.jpg 48,240,195,371,11 8,12,352,498,14\n# image_path x_min, y_min, x_max, y_max, class_id  x_min, y_min ,..., class_id \n# make sure that x_max \u003C width and y_max \u003C height\n```\n\n- [`class.names`](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002Ftensorflow-yolov3\u002Fblob\u002Fmaster\u002Fdata\u002Fclasses\u002Fcoco.names):\n\n```\nperson\nbicycle\ncar\n...\ntoothbrush\n```\n\n### 2.1 Train on VOC dataset\nDownload VOC PASCAL trainval  and test data\n```bashrc\n$ wget http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2007\u002FVOCtrainval_06-Nov-2007.tar\n$ wget http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2012\u002FVOCtrainval_11-May-2012.tar\n$ wget http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2007\u002FVOCtest_06-Nov-2007.tar\n```\nExtract all of these tars into one directory and rename them, which should have the following basic structure.\n\n```bashrc\n\nVOC           # path:  \u002Fhome\u002Fyang\u002Fdataset\u002FVOC\n├── test\n|    └──VOCdevkit\n|        └──VOC2007 (from VOCtest_06-Nov-2007.tar)\n└── train\n     └──VOCdevkit\n         └──VOC2007 (from VOCtrainval_06-Nov-2007.tar)\n         └──VOC2012 (from VOCtrainval_11-May-2012.tar)\n                     \n$ python scripts\u002Fvoc_annotation.py --data_path \u002Fhome\u002Fyang\u002Ftest\u002FVOC\n```\nThen edit your `.\u002Fcore\u002Fconfig.py` to make some necessary configurations\n\n```bashrc\n__C.YOLO.CLASSES                = \".\u002Fdata\u002Fclasses\u002Fvoc.names\"\n__C.TRAIN.ANNOT_PATH            = \".\u002Fdata\u002Fdataset\u002Fvoc_train.txt\"\n__C.TEST.ANNOT_PATH             = \".\u002Fdata\u002Fdataset\u002Fvoc_test.txt\"\n```\nHere are two kinds of training method: \n\n##### (1) train from scratch:\n\n```bashrc\n$ python train.py\n$ tensorboard --logdir .\u002Fdata\n```\n##### (2) train from COCO weights(recommend):\n\n```bashrc\n$ cd checkpoint\n$ wget https:\u002F\u002Fgithub.com\u002FYunYang1994\u002Ftensorflow-yolov3\u002Freleases\u002Fdownload\u002Fv1.0\u002Fyolov3_coco.tar.gz\n$ tar -xvf yolov3_coco.tar.gz\n$ cd ..\n$ python convert_weight.py --train_from_coco\n$ python train.py\n```\n### 2.2 Evaluate on VOC dataset\n\n```\n$ python evaluate.py\n$ cd mAP\n$ python main.py -na\n```\n\nthe mAP on the VOC2012 dataset:\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"50%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_tensorflow-yolov3_readme_70e29815c954.png\" style=\"max-width:50%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n\n## part 3. Other Implementations\n\n[-**`YOLOv3目标检测有了TensorFlow实现，可用自己的数据来训练`**](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002Fcq7g1-4oFTftLbmKcpi_aQ)\u003Cbr>\n\n[-**`Stronger-yolo`**](https:\u002F\u002Fgithub.com\u002FStinky-Tofu\u002FStronger-yolo)\u003Cbr>\n\n[- **`Implementing YOLO v3 in Tensorflow (TF-Slim)`**](https:\u002F\u002Fitnext.io\u002Fimplementing-yolo-v3-in-tensorflow-tf-slim-c3c55ff59dbe)\n\n[- **`YOLOv3_TensorFlow`**](https:\u002F\u002Fgithub.com\u002Fwizyoung\u002FYOLOv3_TensorFlow)\n\n[- **`Object Detection using YOLOv2 on Pascal VOC2012`**](https:\u002F\u002Ffairyonice.github.io\u002FPart_1_Object_Detection_with_Yolo_for_VOC_2014_data_anchor_box_clustering.html)\n\n[-**`Understanding YOLO`**](https:\u002F\u002Fhackernoon.com\u002Funderstanding-yolo-f5a74bbc7967)\n\n","## 🆕 你在寻找用 TF2.0 实现的新版 YOLOv3 吗？\n\n> 如果你非常讨厌 TensorFlow 1.x，别担心！我已经用 TF2.0 实现了一个全新的 YOLOv3 仓库，并且还写了一篇中文博客，讲解如何从零开始实现 YOLOv3 目标检测器。\u003Cbr>\n[代码](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002FTensorFlow2.0-Examples\u002Ftree\u002Fmaster\u002F4-Object_Detection\u002FYOLOV3) | [博客](https:\u002F\u002Fyunyang1994.gitee.io\u002F2018\u002F12\u002F28\u002FYOLOv3-算法的一点理解\u002F)  | [问题](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002Ftensorflow-yolov3\u002Fissues\u002F39)\n\n## 第一部分：快速入门\n1. 克隆本项目\n```bashrc\n$ git clone https:\u002F\u002Fgithub.com\u002FYunYang1994\u002Ftensorflow-yolov3.git\n```\n2. 在开始使用这些代码之前，你需要先安装一些依赖项。\n```bashrc\n$ cd tensorflow-yolov3\n$ pip install -r .\u002Fdocs\u002Frequirements.txt\n```\n3. 导出已加载的 COCO 权重为 TF 检查点（`yolov3_coco.ckpt`）【[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F11mwiUy8KotjUVQXqkGGPFQ&shfl=sharepset)】\n```bashrc\n$ cd checkpoint\n$ wget https:\u002F\u002Fgithub.com\u002FYunYang1994\u002Ftensorflow-yolov3\u002Freleases\u002Fdownload\u002Fv1.0\u002Fyolov3_coco.tar.gz\n$ tar -xvf yolov3_coco.tar.gz\n$ cd ..\n$ python convert_weight.py\n$ python freeze_graph.py\n```\n4. 完成后，你会在根目录下得到一些 `.pb` 文件，然后运行示例脚本：\n```bashrc\n$ python image_demo.py\n$ python video_demo.py # 如果使用摄像头，将 video_path 设置为 0\n```\n\u003Cp align=\"center\">\n    \u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_tensorflow-yolov3_readme_0461bd0315d1.jpg\" style=\"max-width:100%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n## 第二部分：训练自己的数据集\n你需要准备以下两个文件：\n\n- [`dataset.txt`](https:\u002F\u002Fraw.githubusercontent.com\u002FYunYang1994\u002Ftensorflow-yolov3\u002Fmaster\u002Fdata\u002Fdataset\u002Fvoc_train.txt):\n\n```\nxxx\u002Fxxx.jpg 18.19,6.32,424.13,421.83,20 323.86,2.65,640.0,421.94,20 \nxxx\u002Fxxx.jpg 48,240,195,371,11 8,12,352,498,14\n# 图片路径 x_min, y_min, x_max, y_max, 类别ID  x_min, y_min ,..., 类别ID \n# 确保 x_max \u003C 宽度 并且 y_max \u003C 高度\n```\n\n- [`class.names`](https:\u002F\u002Fgithub.com\u002FYunYang1994\u002Ftensorflow-yolov3\u002Fblob\u002Fmaster\u002Fdata\u002Fclasses\u002Fcoco.names):\n\n```\nperson\nbicycle\ncar\n...\ntoothbrush\n```\n\n### 2.1 在 VOC 数据集上训练\n下载 PASCAL VOC 的 trainval 和测试数据：\n```bashrc\n$ wget http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2007\u002FVOCtrainval_06-Nov-2007.tar\n$ wget http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2012\u002FVOCtrainval_11-May-2012.tar\n$ wget http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2007\u002FVOCtest_06-Nov-2007.tar\n```\n将所有这些压缩包解压到一个目录中并重命名，最终应具有如下基本结构：\n\n```bashrc\n\nVOC           # 路径： \u002Fhome\u002Fyang\u002Fdataset\u002FVOC\n├── test\n|    └──VOCdevkit\n|        └──VOC2007 (来自 VOCtest_06-Nov-2007.tar)\n└── train\n     └──VOCdevkit\n         └──VOC2007 (来自 VOCtrainval_06-Nov-2007.tar)\n         └──VOC2012 (来自 VOCtrainval_11-May-2012.tar)\n                     \n$ python scripts\u002Fvoc_annotation.py --data_path \u002Fhome\u002Fyang\u002Ftest\u002FVOC\n```\n然后编辑 `.\u002Fcore\u002Fconfig.py` 进行必要的配置：\n\n```bashrc\n__C.YOLO.CLASSES                = \".\u002Fdata\u002Fclasses\u002Fvoc.names\"\n__C.TRAIN.ANNOT_PATH            = \".\u002Fdata\u002Fdataset\u002Fvoc_train.txt\"\n__C.TEST.ANNOT_PATH             = \".\u002Fdata\u002Fdataset\u002Fvoc_test.txt\"\n```\n这里有两种训练方式：\n\n##### (1) 从头开始训练：\n\n```bashrc\n$ python train.py\n$ tensorboard --logdir .\u002Fdata\n```\n\n##### (2) 基于 COCO 权重进行训练（推荐）：\n\n```bashrc\n$ cd checkpoint\n$ wget https:\u002F\u002Fgithub.com\u002FYunYang1994\u002Ftensorflow-yolov3\u002Freleases\u002Fdownload\u002Fv1.0\u002Fyolov3_coco.tar.gz\n$ tar -xvf yolov3_coco.tar.gz\n$ cd ..\n$ python convert_weight.py --train_from_coco\n$ python train.py\n```\n\n### 2.2 在 VOC 数据集上评估\n\n```bashrc\n$ python evaluate.py\n$ cd mAP\n$ python main.py -na\n```\n\n在 VOC2012 数据集上的 mAP 结果：\n\n\u003Cp align=\"center\">\n    \u003Cimg width=\"50%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_tensorflow-yolov3_readme_70e29815c954.png\" style=\"max-width:50%;\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n\n## 第三部分：其他实现\n\n[-**`YOLOv3目标检测有了TensorFlow实现，可用自己的数据来训练`**](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002Fcq7g1-4oFTftLbmKcpi_aQ)\u003Cbr>\n\n[-**`Stronger-yolo`**](https:\u002F\u002Fgithub.com\u002FStinky-Tofu\u002FStronger-yolo)\u003Cbr>\n\n[- **`在 Tensorflow 中实现 YOLO v3（TF-Slim）`**](https:\u002F\u002Fitnext.io\u002Fimplementing-yolo-v3-in-tensorflow-tf-slim-c3c55ff59dbe)\n\n[- **`YOLOv3_TensorFlow`**](https:\u002F\u002Fgithub.com\u002Fwizyoung\u002FYOLOv3_TensorFlow)\n\n[- **`使用 YOLOv2 在 Pascal VOC2012 数据集上进行目标检测`**](https:\u002F\u002Ffairyonice.github.io\u002FPart_1_Object_Detection_with_Yolo_for_VOC_2014_data_anchor_box_clustering.html)\n\n[-**`理解 YOLO`**](https:\u002F\u002Fhackernoon.com\u002Funderstanding-yolo-f5a74bbc7967)","# tensorflow-yolov3 快速上手指南\n\n本指南基于 `tensorflow-yolov3` 项目，帮助开发者快速在本地部署并运行 YOLOv3 目标检测模型。\n\n## 1. 环境准备\n\n*   **系统要求**：Linux \u002F macOS \u002F Windows (需配置好 Python 环境)\n*   **核心依赖**：\n    *   Python 3.x\n    *   TensorFlow 1.x (注意：本项目基于 TF1.x，若需 TF2.0 版本请参考作者其他仓库)\n    *   OpenCV, NumPy 等常见图像处理库\n*   **网络建议**：下载预训练权重时，推荐使用文中提供的**百度网盘**链接以获得更快速度。\n\n## 2. 安装步骤\n\n### 2.1 克隆项目\n```bash\n$ git clone https:\u002F\u002Fgithub.com\u002FYunYang1994\u002Ftensorflow-yolov3.git\n$ cd tensorflow-yolov3\n```\n\n### 2.2 安装依赖\n```bash\n$ pip install -r .\u002Fdocs\u002Frequirements.txt\n```\n\n### 2.3 获取预训练权重并转换\n本项目提供 COCO 数据集的预训练权重。为了加速下载，优先使用百度网盘资源，或按以下步骤操作：\n\n1.  **下载权重**：\n    *   **方式 A (推荐国内用户)**：访问 [百度网盘链接](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F11mwiUy8KotjUVQXqkGGPFQ&shfl=sharepset) 下载 `yolov3_coco.tar.gz` 并放入 `checkpoint` 目录。\n    *   **方式 B (GitHub Release)**：\n        ```bash\n        $ cd checkpoint\n        $ wget https:\u002F\u002Fgithub.com\u002FYunYang1994\u002Ftensorflow-yolov3\u002Freleases\u002Fdownload\u002Fv1.0\u002Fyolov3_coco.tar.gz\n        $ tar -xvf yolov3_coco.tar.gz\n        $ cd ..\n        ```\n\n2.  **转换权重格式**：\n    将下载的权重转换为 TensorFlow 可用的 checkpoint 和冻结图 (.pb) 文件。\n    ```bash\n    $ python convert_weight.py\n    $ python freeze_graph.py\n    ```\n    *执行完成后，根目录下将生成 `.pb` 模型文件。*\n\n## 3. 基本使用\n\n完成上述步骤后，即可直接运行演示脚本进行图片或视频检测。\n\n### 3.1 图片检测\n```bash\n$ python image_demo.py\n```\n*程序会自动读取默认图片并进行检测，结果将保存或显示。*\n\n### 3.2 视频\u002F摄像头检测\n```bash\n$ python video_demo.py\n```\n*   **检测视频文件**：修改脚本内的 `video_path` 为视频文件路径。\n*   **调用摄像头**：将脚本内的 `video_path` 设置为 `0`。\n    ```python\n    # 在 video_demo.py 中设置\n    video_path = 0\n    ```\n\n---\n*注：如需使用自定义数据集训练，请参照原 README \"part 2\" 部分准备 `dataset.txt` 标注文件和 `class.names` 类别文件，并修改 `core\u002Fconfig.py` 中的路径配置。*","某智慧交通初创团队正致力于开发一套实时路口违章检测系统，需要在有限的算力设备上快速部署高精度的车辆与行人识别模型。\n\n### 没有 tensorflow-yolov3 时\n- **框架迁移成本高**：团队熟悉 TensorFlow 生态，但主流 YOLOv3 实现多基于 PyTorch 或 Darknet，被迫跨框架重写代码导致开发周期延长数周。\n- **训练流程繁琐**：缺乏现成的脚本将 VOC 或自定义标注数据转换为模型所需格式，手动编写数据加载器极易出错且难以调试。\n- **预训练权重难复用**：找不到直接兼容 TensorFlow 的 COCO 预训练权重，从零开始训练不仅耗时极长，且在数据量不足时收敛效果极差。\n- **部署推理复杂**：模型训练完成后，缺乏一键导出冻结图（.pb 文件）的工具链，导致后续集成到生产环境时接口对接困难。\n\n### 使用 tensorflow-yolov3 后\n- **原生无缝集成**：直接利用纯 TensorFlow 代码库，团队成员无需学习新框架，当天即可跑通 Demo 并理解核心逻辑。\n- **数据准备自动化**：通过内置的 `voc_annotation.py` 脚本和标准配置文件，几分钟内即可完成自定义数据集的格式转换与路径配置。\n- **迁移学习高效启动**：一键下载并转换官方 COCO 预训练权重，基于微调模式训练，在少量违章样本下迅速达到高精度收敛。\n- **端到端部署顺畅**：提供 `freeze_graph.py` 直接生成可用于生产环境的 `.pb` 模型文件，配合 `video_demo.py` 轻松实现摄像头实时流检测。\n\ntensorflow-yolov3 通过提供完整的 TensorFlow 原生实现与开箱即用的工具链，将算法从论文复现到落地部署的门槛降至最低，显著提升了研发效率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYunYang1994_tensorflow-yolov3_0461bd03.jpg","YunYang1994",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FYunYang1994_b988ddf9.jpg","合作请加微信：yylovelh0907","阿里巴巴千问C端事业部","GuangZhou, China","https:\u002F\u002Fgithub.com\u002FYunYang1994",[22],{"name":23,"color":24,"percentage":25},"Python","#3572A5",100,3623,1333,"2026-04-09T03:33:15","MIT",3,"Linux, macOS, Windows","未说明 (基于 TensorFlow 1.x，通常建议使用支持 CUDA 的 NVIDIA GPU，但 README 未指定具体型号或显存要求)","未说明",{"notes":35,"python":36,"dependencies":37},"该项目基于 TensorFlow 1.x 实现（README 开头明确提到如果你讨厌 TF1.x 可以去用 TF2.0 版本）。运行前需通过 pip 安装 docs\u002Frequirements.txt 中的依赖。使用前需要下载 COCO 预训练权重文件并转换为 TF checkpoint 及冻结图 (.pb) 格式。若需训练自己的数据集，需准备特定格式的 dataset.txt 和 class.names 文件。","未说明 (隐含需要兼容 TensorFlow 1.x 的版本，通常为 Python 3.5-3.7)",[38,39,40,41],"tensorflow (1.x)","numpy","opencv-python","Pillow",[43,44],"图像","开发框架",[46,47,48,49],"yolov3","tensorflow","object-detection","deep-learning",2,"ready","2026-03-27T02:49:30.150509","2026-04-11T16:58:23.652062",[55,60,65,70,75,80],{"id":56,"question_zh":57,"answer_zh":58,"source_url":59},26297,"训练几个 epoch 后报错 IndexError: index out of bounds，这是什么原因？","这通常是因为标注数据中的边界框（bbox）坐标超出了图片的实际尺寸，或者包含非法值。建议编写脚本检查数据集，验证每个 bbox 的坐标是否在图片宽高范围内，且格式正确（例如第 5 列是否为 0）。可以参考以下检查逻辑：读取图片和对应的标注文件，遍历所有 bbox，判断 `x_min, x_max` 是否小于 0 或大于图片宽度，`y_min, y_max` 是否小于 0 或大于图片高度，找出并修正错误的标注文件。","https:\u002F\u002Fgithub.com\u002FYunYang1994\u002Ftensorflow-yolov3\u002Fissues\u002F502",{"id":61,"question_zh":62,"answer_zh":63,"source_url":64},26298,"中断模型训练后，如何从断点处继续训练而不是从头开始？","需要修改配置文件（如 config.py）中的权重加载路径。关键是将 `__C.TRAIN.INITIAL_WEIGHT` 指向中断时保存的最新 checkpoint 文件。注意文件名必须完整，包括后缀的 epoch 步数（例如：`.\u002Fcheckpoint\u002Fyolov3_test_loss=25.1203.ckpt-20`，不能只写到 `.ckpt`）。此外，如果使用了多阶段训练策略，恢复第二阶段训练时可能需要注释掉加载预训练权重的特定代码块，以确保直接从保存的状态继续优化。","https:\u002F\u002Fgithub.com\u002FYunYang1994\u002Ftensorflow-yolov3\u002Fissues\u002F470",{"id":66,"question_zh":67,"answer_zh":68,"source_url":69},26299,"从零开始在 COCO 数据集上训练 Darknet53，为什么 mAP 很低（约 33%）？","从零开始训练（from scratch）往往难以达到作者提供的预训练模型效果（约 63% mAP）。强烈建议使用 ImageNet 的预训练模型作为初始化权重进行微调（Fine-tune），这会显著提升收敛速度和最终精度。对于小数据集，虽然可以尝试从头训练，但在标准大数据集如 COCO 上，加载预训练骨干网络是必要的。","https:\u002F\u002Fgithub.com\u002FYunYang1994\u002Ftensorflow-yolov3\u002Fissues\u002F58",{"id":71,"question_zh":72,"answer_zh":73,"source_url":74},26300,"使用 K-Means 聚类自定义 Anchor 后，为什么 mAP 反而下降了？","聚类得到的 Anchor 值通常是归一化后的相对值或直接基于像素但未按尺度分层。如果直接替换可能导致效果变差。正确的做法是：对聚类得到的 9 个中心点值，分别除以对应的下采样倍率（8、16、32），将其还原为对应特征图尺度的绝对像素值，然后再填入配置。有用户反馈经过这种“除以步长”的处理后，mAP 提升了 4 个点。","https:\u002F\u002Fgithub.com\u002FYunYang1994\u002Ftensorflow-yolov3\u002Fissues\u002F500",{"id":76,"question_zh":77,"answer_zh":78,"source_url":79},26301,"加载预训练模型微调自己的单类数据时，如何解决加载失败或损失异常的问题？","在加载官方预训练模型（如 COCO 权重）进行迁移学习时，由于类别数量不匹配（官方 80 类 vs 自定义 1 类），需要在代码中动态处理权重加载，跳过最后输出层的权重匹配。但在恢复自己之前训练中断的模型时，必须移除这段特殊处理代码，否则会导致损失无法继承甚至重新初始化。此外，需确保配置文件中指定的权重路径准确无误，并根据训练阶段（第一阶段或第二阶段）调整相关的训练参数。","https:\u002F\u002Fgithub.com\u002FYunYang1994\u002Ftensorflow-yolov3\u002Fissues\u002F538",{"id":81,"question_zh":82,"answer_zh":83,"source_url":84},26302,"训练过程中的图像预处理是否需要除以 255？代码中似乎没找到相关操作。","在该项目的实现中，图像预处理流程可能已经内部处理了归一化，或者采用了不同的缩放策略。如果在复现或修改代码时发现缺失除以 255 的操作，请仔细检查 `dataset.py` 或数据增强部分的代码。有时开发者会混淆 epoch 和 step 的概念，导致对训练过程的误解。建议对比官方代码的数据输入管道，确认像素值是在读取时归一化还是在模型输入层处理。","https:\u002F\u002Fgithub.com\u002FYunYang1994\u002Ftensorflow-yolov3\u002Fissues\u002F16",[86],{"id":87,"version":88,"summary_zh":89,"released_at":90},171559,"v1.0","本次发布新增：\n\n- 自动下载 COCO 权重和数据集。\n- MS-COCO 数据集上的训练流水线。\n- MS-COCO 数据集上的评估。\n- FPS 比其他方案更高。\n\n感谢所有通过修复 bug 和提交 Pull Request 让这一切成为可能的贡献者。","2018-12-31T15:29:04",[92,102,110,119,127,136],{"id":93,"name":94,"github_repo":95,"description_zh":96,"stars":97,"difficulty_score":30,"last_commit_at":98,"category_tags":99,"status":51},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,"2026-04-06T06:32:30",[100,44,43,101],"Agent","数据工具",{"id":103,"name":104,"github_repo":105,"description_zh":106,"stars":107,"difficulty_score":30,"last_commit_at":108,"category_tags":109,"status":51},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[44,43,100],{"id":111,"name":112,"github_repo":113,"description_zh":114,"stars":115,"difficulty_score":50,"last_commit_at":116,"category_tags":117,"status":51},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,"2026-04-10T23:33:47",[44,100,118],"语言模型",{"id":120,"name":121,"github_repo":122,"description_zh":123,"stars":124,"difficulty_score":50,"last_commit_at":125,"category_tags":126,"status":51},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[44,43,100],{"id":128,"name":129,"github_repo":130,"description_zh":131,"stars":132,"difficulty_score":50,"last_commit_at":133,"category_tags":134,"status":51},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[135,100,43,44],"插件",{"id":137,"name":138,"github_repo":139,"description_zh":140,"stars":141,"difficulty_score":50,"last_commit_at":142,"category_tags":143,"status":51},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[135,44]]