[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-GOATmessi8--RFBNet":3,"tool-GOATmessi8--RFBNet":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":77,"owner_website":77,"owner_url":80,"languages":81,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":106,"env_os":107,"env_gpu":108,"env_ram":109,"env_deps":110,"category_tags":117,"github_topics":118,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":123,"updated_at":124,"faqs":125,"releases":155},4729,"GOATmessi8\u002FRFBNet","RFBNet","Receptive Field Block Net for Accurate and Fast Object Detection, ECCV 2018","RFBNet 是一款专为高精度、快速度目标检测设计的开源深度学习模型，曾发表于计算机视觉顶会 ECCV 2018。它主要解决了传统检测算法在速度与准确率之间难以兼顾的痛点，特别是在处理不同尺度物体时特征提取不够鲁棒的问题。\n\n该工具的核心亮点在于创新性地提出了“感受野块”（RFB）模块。灵感来源于人类视觉系统中感受野的结构特性，RFB 模块通过模拟感受野大小与偏心率之间的关系，显著增强了模型对特征的辨别能力和鲁棒性。将其集成到轻量级的 SSD 架构后，RFBNet 在保持极快推理速度的同时，实现了超越当时主流模型（如 Faster R-CNN、YOLOv2 及标准 SSD）的检测精度。例如在 VOC2007 数据集上，其变体不仅达到了 80.7% 的平均精度均值（mAP），推理速度更是高达 83 FPS。\n\nRFBNet 非常适合计算机视觉领域的研究人员、算法工程师以及需要部署高效检测系统的开发者使用。无论是进行学术研究对比，还是在资源受限的边缘设备上构建实时安防、自动驾驶或工业质检应用，RFBNet 都能提供一个兼具性能与效率的优秀基准方案。项目基于 PyTorch 框架，提供了完整","RFBNet 是一款专为高精度、快速度目标检测设计的开源深度学习模型，曾发表于计算机视觉顶会 ECCV 2018。它主要解决了传统检测算法在速度与准确率之间难以兼顾的痛点，特别是在处理不同尺度物体时特征提取不够鲁棒的问题。\n\n该工具的核心亮点在于创新性地提出了“感受野块”（RFB）模块。灵感来源于人类视觉系统中感受野的结构特性，RFB 模块通过模拟感受野大小与偏心率之间的关系，显著增强了模型对特征的辨别能力和鲁棒性。将其集成到轻量级的 SSD 架构后，RFBNet 在保持极快推理速度的同时，实现了超越当时主流模型（如 Faster R-CNN、YOLOv2 及标准 SSD）的检测精度。例如在 VOC2007 数据集上，其变体不仅达到了 80.7% 的平均精度均值（mAP），推理速度更是高达 83 FPS。\n\nRFBNet 非常适合计算机视觉领域的研究人员、算法工程师以及需要部署高效检测系统的开发者使用。无论是进行学术研究对比，还是在资源受限的边缘设备上构建实时安防、自动驾驶或工业质检应用，RFBNet 都能提供一个兼具性能与效率的优秀基准方案。项目基于 PyTorch 框架，提供了完整的训练与评估代码，便于用户快速上手并进行二次开发。","# Receptive Field Block Net for Accurate and Fast Object Detection\n\nBy Songtao Liu, Di Huang, Yunhong Wang\n\n## Updatas (2021\u002F07\u002F23): YOLOX is [here!](https:\u002F\u002Fgithub.com\u002FMegvii-BaseDetection\u002FYOLOX), stronger YOLO with ONNX, TensorRT, ncnn, and OpenVino supported!!\n## Updates: we propose a new method to get 42.4 mAP at 45 FPS on COCO, code is available [here](https:\u002F\u002Fgithub.com\u002Fruinmessi\u002FASFF)\n\n### Introduction\nInspired by the structure of Receptive Fields (RFs) in human visual systems, we propose a novel RF Block (RFB) module, which takes the relationship between the size and eccentricity of RFs into account, to enhance the discriminability and robustness of features. We further  assemble the RFB module to the top of SSD with a lightweight CNN model, constructing the RFB Net detector. You can use the code to train\u002Fevaluate the RFB Net for object detection. For more details, please refer to our [ECCV paper](https:\u002F\u002Feccv2018.org\u002Fopenaccess\u002Fcontent_ECCV_2018\u002Fpapers\u002FSongtao_Liu_Receptive_Field_Block_ECCV_2018_paper.pdf). \n\n\u003Cimg align=\"right\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGOATmessi8_RFBNet_readme_ca776e503b09.png\">\n\n&nbsp;\n&nbsp;\n\n### VOC2007 Test\n| System |  *mAP* | **FPS** (Titan X Maxwell) |\n|:-------|:-----:|:-------:|\n| [Faster R-CNN (VGG16)](https:\u002F\u002Fgithub.com\u002FShaoqingRen\u002Ffaster_rcnn) | 73.2 | 7 | \n| [YOLOv2 (Darknet-19)](http:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F) | 78.6 | 40 | \n| [R-FCN (ResNet-101)](https:\u002F\u002Fgithub.com\u002Fdaijifeng001\u002FR-FCN)| 80.5| 9 |\n| [SSD300* (VGG16)](https:\u002F\u002Fgithub.com\u002Fweiliu89\u002Fcaffe\u002Ftree\u002Fssd) | 77.2 | 46 |\n| [SSD512* (VGG16)](https:\u002F\u002Fgithub.com\u002Fweiliu89\u002Fcaffe\u002Ftree\u002Fssd) | 79.8 | 19 |\n| RFBNet300 (VGG16) | **80.7** |**83** | \n| RFBNet512 (VGG16) | **82.2** | **38** | \n\n### COCO \n| System |  *test-dev mAP* | **Time** (Titan X Maxwell) |\n|:-------|:-----:|:-------:|\n| [Faster R-CNN++ (ResNet-101)](https:\u002F\u002Fgithub.com\u002FKaimingHe\u002Fdeep-residual-networks) | 34.9 | 3.36s | \n| [YOLOv2 (Darknet-19)](http:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F) | 21.6 | 25ms| \n| [SSD300* (VGG16)](https:\u002F\u002Fgithub.com\u002Fweiliu89\u002Fcaffe\u002Ftree\u002Fssd) | 25.1 | 22ms |\n| [SSD512* (VGG16)](https:\u002F\u002Fgithub.com\u002Fweiliu89\u002Fcaffe\u002Ftree\u002Fssd) | 28.8 | 53ms |\n| [RetinaNet500 (ResNet-101-FPN)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1708.02002.pdf) | 34.4| 90ms|\n| RFBNet300 (VGG16) | **30.3** |**15ms** | \n| RFBNet512 (VGG16) | **33.8** | **30ms** |\n| RFBNet512-E (VGG16) | **34.4** | **33ms** |  \n\n\n### MobileNet\n|System |COCO *minival mAP*| **\\#parameters**|\n|:-------|:-----:|:-------:|\n|[SSD MobileNet](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.04861)| 19.3| 6.8M|\n|RFB MobileNet| 20.7 | 7.4M|\n\n\n### Citing RFB Net\nPlease cite our paper in your publications if it helps your research:\n\n    @InProceedings{Liu_2018_ECCV,\n    author = {Liu, Songtao and Huang, Di and Wang, andYunhong},\n    title = {Receptive Field Block Net for Accurate and Fast Object Detection},\n    booktitle = {The European Conference on Computer Vision (ECCV)},\n    month = {September},\n    year = {2018}\n    }\n\n### Contents\n1. [Installation](#installation)\n2. [Datasets](#datasets)\n3. [Training](#training)\n4. [Evaluation](#evaluation)\n5. [Models](#models)\n\n## Installation\n- Install [PyTorch-0.4.0](http:\u002F\u002Fpytorch.org\u002F) by selecting your environment on the website and running the appropriate command.\n- Clone this repository. This repository is mainly based on [ssd.pytorch](https:\u002F\u002Fgithub.com\u002Famdegroot\u002Fssd.pytorch) and [Chainer-ssd](https:\u002F\u002Fgithub.com\u002FHakuyume\u002Fchainer-ssd), a huge thank to them.\n  * Note: We currently only support PyTorch-0.4.0 and Python 3+.\n- Compile the nms and coco tools:\n```Shell\n.\u002Fmake.sh\n```\n*Note*: Check you GPU architecture support in utils\u002Fbuild.py, line 131. Default is:\n``` \n'nvcc': ['-arch=sm_52',\n```\n- Then download the dataset by following the [instructions](#download-voc2007-trainval--test) below and install opencv. \n```Shell\nconda install opencv\n```\nNote: For training, we currently  support [VOC](http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002F) and [COCO](http:\u002F\u002Fmscoco.org\u002F). \n\n## Datasets\nTo make things easy, we provide simple VOC and COCO dataset loader that inherits `torch.utils.data.Dataset` making it fully compatible with the `torchvision.datasets` [API](http:\u002F\u002Fpytorch.org\u002Fdocs\u002Ftorchvision\u002Fdatasets.html).\n\n### VOC Dataset\n##### Download VOC2007 trainval & test\n\n```Shell\n# specify a directory for dataset to be downloaded into, else default is ~\u002Fdata\u002F\nsh data\u002Fscripts\u002FVOC2007.sh # \u003Cdirectory>\n```\n\n##### Download VOC2012 trainval\n\n```Shell\n# specify a directory for dataset to be downloaded into, else default is ~\u002Fdata\u002F\nsh data\u002Fscripts\u002FVOC2012.sh # \u003Cdirectory>\n```\n### COCO Dataset\nInstall the MS COCO dataset at \u002Fpath\u002Fto\u002Fcoco from [official website](http:\u002F\u002Fmscoco.org\u002F), default is ~\u002Fdata\u002FCOCO. Following the [instructions](https:\u002F\u002Fgithub.com\u002Frbgirshick\u002Fpy-faster-rcnn\u002Fblob\u002F77b773655505599b94fd8f3f9928dbf1a9a776c7\u002Fdata\u002FREADME.md) to prepare *minival2014* and *valminusminival2014* annotations. All label files (.json) should be under the COCO\u002Fannotations\u002F folder. It should have this basic structure\n```Shell\n$COCO\u002F\n$COCO\u002Fcache\u002F\n$COCO\u002Fannotations\u002F\n$COCO\u002Fimages\u002F\n$COCO\u002Fimages\u002Ftest2015\u002F\n$COCO\u002Fimages\u002Ftrain2014\u002F\n$COCO\u002Fimages\u002Fval2014\u002F\n```\n*UPDATE*: The current COCO dataset has released new *train2017* and *val2017* sets which are just new splits of the same image sets. \n\n## Training\n- First download the fc-reduced [VGG-16](https:\u002F\u002Farxiv.org\u002Fabs\u002F1409.1556) PyTorch base network weights at:    https:\u002F\u002Fs3.amazonaws.com\u002Famdegroot-models\u002Fvgg16_reducedfc.pth\nor from our [BaiduYun Driver](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1jIP86jW) \n- MobileNet pre-trained basenet is ported from [MobileNet-Caffe](https:\u002F\u002Fgithub.com\u002Fshicai\u002FMobileNet-Caffe), which achieves slightly better accuracy rates than the original one reported in the [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.04861), weight file is available at: https:\u002F\u002Fdrive.google.com\u002Fopen?id=13aZSApybBDjzfGIdqN1INBlPsddxCK14 or [BaiduYun Driver](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1dFKZhdv).\n\n- By default, we assume you have downloaded the file in the `RFBNet\u002Fweights` dir:\n```Shell\nmkdir weights\ncd weights\nwget https:\u002F\u002Fs3.amazonaws.com\u002Famdegroot-models\u002Fvgg16_reducedfc.pth\n```\n\n- To train RFBNet using the train script simply specify the parameters listed in `train_RFB.py` as a flag or manually change them.\n```Shell\npython train_RFB.py -d VOC -v RFB_vgg -s 300 \n```\n- Note:\n  * -d: choose datasets, VOC or COCO.\n  * -v: choose backbone version, RFB_VGG, RFB_E_VGG or RFB_mobile.\n  * -s: image size, 300 or 512.\n  * You can pick-up training from a checkpoint by specifying the path as one of the training parameters (again, see `train_RFB.py` for options)\n  * If you want to reproduce the results in the paper, the VOC model should be trained about 240 epoches while the COCO version need 130 epoches.\n  \n## Evaluation\nTo evaluate a trained network:\n\n```Shell\npython test_RFB.py -d VOC -v RFB_vgg -s 300 --trained_model \u002Fpath\u002Fto\u002Fmodel\u002Fweights\n```\nBy default, it will directly output the mAP results on VOC2007 *test* or COCO *minival2014*. For VOC2012 *test* and COCO *test-dev* results, you can manually change the datasets in the `test_RFB.py` file, then save the detection results and submitted to the server. \n\n## Models\n\n* 07+12 [RFB_Net300](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1apPyT3IkNwKhwuYyp432IJrTd0QHGbIN), [BaiduYun Driver](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1xOp3_FDk49YlJ-6C-xQfHw)\n* COCO [RFB_Net300](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1vL_oNwhj0ksK593nApqDLw)\n* COCO [RFB_Net512_E](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1pHDc6Xg9im3affOr7xaimXaRNOHtbaPM), [BaiduYun Driver](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1o8dxrom)\n* COCO [RFB_Mobile Net300](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1vmbTWWgeMN_qKVWOeDfl1EN9c7yHPmOe), [BaiduYun Driver](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1bp4ik1L)\n\n\n","# 用于准确且快速目标检测的感受野块网络\n\n作者：刘松涛、黄迪、王云洪\n\n## 更新（2021年7月23日）：YOLOX已发布[这里！](https:\u002F\u002Fgithub.com\u002FMegvii-BaseDetection\u002FYOLOX)，这是一款更强大的YOLO版本，支持ONNX、TensorRT、ncnn和OpenVino！！\n## 更新：我们提出了一种新方法，在COCO数据集上以45 FPS的速度达到42.4 mAP，代码可在[这里](https:\u002F\u002Fgithub.com\u002Fruinmessi\u002FASFF)获取。\n\n### 引言\n受人类视觉系统中感受野（RFs）结构的启发，我们提出了一种新颖的RFB模块，该模块考虑了感受野大小与偏心率之间的关系，从而增强特征的判别能力和鲁棒性。我们进一步将RFB模块与轻量级CNN模型结合，构建在SSD之上，形成了RFB Net目标检测器。您可以使用提供的代码来训练或评估RFB Net进行目标检测。更多详细信息，请参阅我们的[ECCV论文](https:\u002F\u002Feccv2018.org\u002Fopenaccess\u002Fcontent_ECCV_2018\u002Fpapers\u002FSongtao_Liu_Receptive_Field_Block_ECCV_2018_paper.pdf)。\n\n\u003Cimg align=\"right\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGOATmessi8_RFBNet_readme_ca776e503b09.png\">\n\n&nbsp;\n&nbsp;\n\n### VOC2007测试\n| 系统 | *mAP* | **FPS**（Titan X Maxwell）|\n|:-------|:-----:|:-------:|\n| [Faster R-CNN (VGG16)](https:\u002F\u002Fgithub.com\u002FShaoqingRen\u002Ffaster_rcnn) | 73.2 | 7 | \n| [YOLOv2 (Darknet-19)](http:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F) | 78.6 | 40 | \n| [R-FCN (ResNet-101)](https:\u002F\u002Fgithub.com\u002Fdaijifeng001\u002FR-FCN)| 80.5| 9 |\n| [SSD300* (VGG16)](https:\u002F\u002Fgithub.com\u002Fweiliu89\u002Fcaffe\u002Ftree\u002Fssd) | 77.2 | 46 |\n| [SSD512* (VGG16)](https:\u002F\u002Fgithub.com\u002Fweiliu89\u002Fcaffe\u002Ftree\u002Fssd) | 79.8 | 19 |\n| RFBNet300 (VGG16) | **80.7** |**83** | \n| RFBNet512 (VGG16) | **82.2** | **38** | \n\n### COCO\n| 系统 | *test-dev mAP* | **时间**（Titan X Maxwell）|\n|:-------|:-----:|:-------:|\n| [Faster R-CNN++ (ResNet-101)](https:\u002F\u002Fgithub.com\u002FKaimingHe\u002Fdeep-residual-networks) | 34.9 | 3.36秒 | \n| [YOLOv2 (Darknet-19)](http:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F) | 21.6 | 25毫秒| \n| [SSD300* (VGG16)](https:\u002F\u002Fgithub.com\u002Fweiliu89\u002Fcaffe\u002Ftree\u002Fssd) | 25.1 | 22毫秒 |\n| [SSD512* (VGG16)](https:\u002F\u002Fgithub.com\u002Fweiliu89\u002Fcaffe\u002Ftree\u002Fssd) | 28.8 | 53毫秒 |\n| [RetinaNet500 (ResNet-101-FPN)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1708.02002.pdf) | 34.4| 90毫秒|\n| RFBNet300 (VGG16) | **30.3** |**15毫秒** | \n| RFBNet512 (VGG16) | **33.8** | **30毫秒** |\n| RFBNet512-E (VGG16) | **34.4** | **33毫秒** |  \n\n\n### MobileNet\n|系统 |COCO *minival mAP*| **\\#参数**|\n|:-------|:-----:|:-------:|\n|[SSD MobileNet](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.04861)| 19.3| 6.8M|\n|RFB MobileNet| 20.7 | 7.4M|\n\n\n### 引用RFB Net\n如果我们的工作对您的研究有所帮助，请在您的出版物中引用我们的论文：\n\n    @InProceedings{Liu_2018_ECCV,\n    author = {Liu, Songtao and Huang, Di and Wang, andYunhong},\n    title = {Receptive Field Block Net for Accurate and Fast Object Detection},\n    booktitle = {The European Conference on Computer Vision (ECCV)},\n    month = {September},\n    year = {2018}\n    }\n\n### 目录\n1. [安装](#installation)\n2. [数据集](#datasets)\n3. [训练](#training)\n4. [评估](#evaluation)\n5. [模型](#models)\n\n## 安装\n- 按照网站上的说明选择适合您环境的PyTorch-0.4.0版本，并运行相应的命令进行安装。\n- 克隆本仓库。本仓库主要基于[ssd.pytorch](https:\u002F\u002Fgithub.com\u002Famdegroot\u002Fssd.pytorch)和[Chainer-ssd](https:\u002F\u002Fgithub.com\u002FHakuyume\u002Fchainer-ssd)，在此向他们表示感谢。\n  * 注意：我们目前仅支持PyTorch-0.4.0和Python 3及以上版本。\n- 编译nms和coco工具：\n```Shell\n.\u002Fmake.sh\n```\n*注意*: 请检查utils\u002Fbuild.py第131行中的GPU架构支持情况。默认设置为：\n``` \n'nvcc': ['-arch=sm_52',\n```\n- 然后按照下面的[说明](#download-voc2007-trainval--test)下载数据集，并安装opencv。\n```Shell\nconda install opencv\n```\n注意：对于训练，我们目前支持[VOC](http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002F)和[COCO](http:\u002F\u002Fmscoco.org\u002F)数据集。\n\n## 数据集\n为了方便起见，我们提供了一个简单的VOC和COCO数据集加载器，它继承自`torch.utils.data.Dataset`，因此与`torchvision.datasets`的[API](http:\u002F\u002Fpytorch.org\u002Fdocs\u002Ftorchvision\u002Fdatasets.html)完全兼容。\n\n### VOC数据集\n##### 下载VOC2007 trainval & test\n\n```Shell\n# 指定数据集下载的目录，否则默认为~\u002Fdata\u002F\nsh data\u002Fscripts\u002FVOC2007.sh # \u003Cdirectory>\n```\n\n##### 下载VOC2012 trainval\n\n```Shell\n# 指定数据集下载的目录，否则默认为~\u002Fdata\u002F\nsh data\u002Fscripts\u002FVOC2012.sh # \u003Cdirectory>\n```\n### COCO数据集\n从[官方网站](http:\u002F\u002Fmscoco.org\u002F)将MS COCO数据集安装到\u002Fpath\u002Fto\u002Fcoco，默认为~\u002Fdata\u002FCOCO。按照[说明](https:\u002F\u002Fgithub.com\u002Frbgirshick\u002Fpy-faster-rcnn\u002Fblob\u002F77b773655505599b94fd8f3f9928dbf1a9a776c7\u002Fdata\u002FREADME.md)准备*minival2014*和*valminusminival2014*标注文件。所有标签文件（.json）应位于COCO\u002Fannotations\u002F文件夹下。其基本结构应如下所示：\n```Shell\n$COCO\u002F\n$COCO\u002Fcache\u002F\n$COCO\u002Fannotations\u002F\n$COCO\u002Fimages\u002F\n$COCO\u002Fimages\u002Ftest2015\u002F\n$COCO\u002Fimages\u002Ftrain2014\u002F\n$COCO\u002Fimages\u002Fval2014\u002F\n```\n*更新*: 目前COCO数据集发布了新的*train2017*和*val2017*数据集，它们只是同一组图像的新划分。\n\n## 训练\n- 首先下载fc-reduced [VGG-16](https:\u002F\u002Farxiv.org\u002Fabs\u002F1409.1556) PyTorch基础网络权重，地址为：    https:\u002F\u002Fs3.amazonaws.com\u002Famdegroot-models\u002Fvgg16_reducedfc.pth\n或从我们的[BaiduYun Driver](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1jIP86jW)下载。\n- MobileNet预训练的基础网络移植自[MobileNet-Caffe](https:\u002F\u002Fgithub.com\u002Fshicai\u002FMobileNet-Caffe)，其准确率略高于原论文中报告的准确率，权重文件可在以下链接获取： https:\u002F\u002Fdrive.google.com\u002Fopen?id=13aZSApybBDjzfGIdqN1INBlPsddxCK14 或 [BaiduYun Driver](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1dFKZhdv)。\n\n- 默认情况下，我们假设您已将文件下载到`RFBNet\u002Fweights`目录中：\n```Shell\nmkdir weights\ncd weights\nwget https:\u002F\u002Fs3.amazonaws.com\u002Famdegroot-models\u002Fvgg16_reducedfc.pth\n```\n\n- 要使用训练脚本训练RFBNet，只需在`train_RFB.py`中列出的参数中指定标志，或手动更改它们。\n```Shell\npython train_RFB.py -d VOC -v RFB_vgg -s 300 \n```\n- 注意：\n  * -d：选择数据集，VOC或COCO。\n  * -v：选择骨干网络版本，RFB_VGG、RFB_E_VGG或RFB_mobile。\n  * -s：图像尺寸，300或512。\n  * 您可以通过指定路径作为训练参数之一，从检查点继续训练（再次参阅`train_RFB.py`了解选项）。\n  * 如果您想复现论文中的结果，VOC模型应训练约240个epoch，而COCO版本则需要130个epoch。\n\n## 评估\n要评估已训练的网络：\n\n```Shell\npython test_RFB.py -d VOC -v RFB_vgg -s 300 --trained_model \u002Fpath\u002Fto\u002Fmodel\u002Fweights\n```\n默认情况下，它会直接输出在VOC2007 *test* 或 COCO *minival2014* 上的mAP结果。对于VOC2012 *test* 和 COCO *test-dev* 的结果，您可以手动修改 `test_RFB.py` 文件中的数据集配置，然后保存检测结果并提交到服务器。\n\n## 模型\n\n* 07+12 [RFB_Net300](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1apPyT3IkNwKhwuYyp432IJrTd0QHGbIN), [百度网盘链接](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1xOp3_FDk49YlJ-6C-xQfHw)\n* COCO [RFB_Net300](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1vL_oNwhj0ksK593nApqDLw)\n* COCO [RFB_Net512_E](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1pHDc6Xg9im3affOr7xaimXaRNOHtbaPM), [百度网盘链接](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1o8dxrom)\n* COCO [RFB_Mobile Net300](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1vmbTWWgeMN_qKVWOeDfl1EN9c7yHPmOe), [百度网盘链接](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1bp4ik1L)","# RFBNet 快速上手指南\n\nRFBNet (Receptive Field Block Net) 是一种受人类视觉系统感受野结构启发的高效目标检测网络。它在保持轻量级的同时，显著提升了特征的判别力和鲁棒性，在速度和精度上均优于传统的 SSD 和 YOLOv2 模型。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐)\n*   **Python 版本**: Python 3+\n*   **深度学习框架**: PyTorch 0.4.0 (注意：本项目基于旧版 PyTorch 开发，高版本可能需要修改代码适配)\n*   **硬件要求**: NVIDIA GPU (支持 CUDA)，编译时需确认 GPU 架构支持。\n*   **依赖库**: OpenCV\n\n**安装前置依赖：**\n```bash\n# 推荐使用 conda 安装 opencv\nconda install opencv\n\n# 安装 PyTorch 0.4.0 (请访问 pytorch.org 获取对应您环境的安装命令，以下为示例)\n# pip install torch==0.4.0 torchvision\n```\n\n## 2. 安装步骤\n\n### 2.1 克隆项目\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fruinmessi\u002FRFBNet.git\ncd RFBNet\n```\n\n### 2.2 编译工具\n编译 NMS (非极大值抑制) 和 COCO 评估工具。\n```bash\n.\u002Fmake.sh\n```\n> **注意**：如果您的 GPU 架构较新或较旧，请检查 `utils\u002Fbuild.py` 第 131 行，修改 `nvcc` 的 `-arch` 参数以匹配您的显卡（默认是 `sm_52`）。\n\n### 2.3 下载预训练权重\n下载 VGG-16 基础网络权重并放入 `weights` 目录。国内用户推荐使用百度网盘链接加速下载。\n\n```bash\nmkdir weights\ncd weights\n\n# 方式一：直接下载 (国际源)\nwget https:\u002F\u002Fs3.amazonaws.com\u002Famdegroot-models\u002Fvgg16_reducedfc.pth\n\n# 方式二：百度网盘 (国内推荐，需手动下载后放入 weights 目录)\n# 链接: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1jIP86jW \n# 文件名: vgg16_reducedfc.pth\n```\n\n*(可选) 如果使用 MobileNet 版本，请下载对应的预训练权重：*\n*   Google Drive: [下载链接](https:\u002F\u002Fdrive.google.com\u002Fopen?id=13aZSApybBDjzfGIdqN1INBlPsddxCK14)\n*   百度网盘: [下载链接](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1dFKZhdv)\n\n### 2.4 准备数据集\n项目支持 VOC 和 COCO 数据集。以 VOC 为例，使用提供的脚本自动下载：\n\n```bash\n# 下载 VOC2007 trainval 和 test 集 (默认保存到 ~\u002Fdata\u002F)\nsh data\u002Fscripts\u002FVOC2007.sh\n\n# 下载 VOC2012 trainval 集\nsh data\u002Fscripts\u002FVOC2012.sh\n```\n*注：COCO 数据集需手动从官网下载并按指定目录结构存放 (`$COCO\u002Fimages\u002F`, `$COCO\u002Fannotations\u002F` 等)。*\n\n## 3. 基本使用\n\n### 3.1 训练模型\n使用 `train_RFB.py` 脚本进行训练。以下命令演示如何在 VOC 数据集上训练输入尺寸为 300x300 的 RFB-VGG 模型：\n\n```bash\npython train_RFB.py -d VOC -v RFB_vgg -s 300\n```\n\n**参数说明：**\n*   `-d`: 数据集选择 (`VOC` 或 `COCO`)\n*   `-v`: 骨干网络版本 (`RFB_vgg`, `RFB_E_vgg`, 或 `RFB_mobile`)\n*   `-s`: 输入图像尺寸 (`300` 或 `512`)\n\n> **复现提示**：若要复现论文结果，VOC 模型建议训练约 240 个 epoch，COCO 模型建议训练约 130 个 epoch。\n\n### 3.2 评估模型\n训练完成后，使用 `test_RFB.py` 评估模型性能（输出 mAP）：\n\n```bash\npython test_RFB.py -d VOC -v RFB_vgg -s 300 --trained_model \u002Fpath\u002Fto\u002Fyour\u002Fmodel_weights.pth\n```\n\n*   将 `\u002Fpath\u002Fto\u002Fyour\u002Fmodel_weights.pth` 替换为您训练好的权重文件路径。\n*   默认会在 VOC2007 test 集或 COCO minival2014 集上输出结果。如需提交到官方测试服务器，请修改 `test_RFB.py` 中的数据集配置并保存检测结果。\n\n### 3.3 使用预训练模型 (可选)\n您可以直接下载作者提供的预训练模型进行测试：\n*   **VOC (07+12) RFB_Net300**: [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1xOp3_FDk49YlJ-6C-xQfHw)\n*   **COCO RFB_Net512_E**: [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1o8dxrom)","某智慧物流园区的技术团队需要在高速传送带上实时识别并分拣不同尺寸的包裹，包括小型文件袋和大型家电包装箱。\n\n### 没有 RFBNet 时\n- **小目标漏检严重**：传统检测模型（如基础版 SSD）感受野固定，难以有效捕捉传送带上快速移动的小型包裹特征，导致漏检率高达 15%。\n- **大物体定位不准**：面对尺寸差异巨大的货物，模型无法自适应调整感知范围，大型家电的边缘框定经常偏差过大，影响机械臂抓取精度。\n- **推理速度瓶颈**：为了提升准确率强行引入更深的网络（如 Faster R-CNN），导致单帧处理时间超过 100ms，无法匹配传送带的高速流转需求。\n- **硬件成本高昂**：为维持实时性，不得不部署多张高端 GPU 进行并行计算，显著增加了边缘端的部署成本和能耗。\n\n### 使用 RFBNet 后\n- **多尺度特征增强**：RFBNet 模拟人类视觉系统的感受野结构，通过特殊的 RFB 模块同时兼顾大小目标，将小型包裹的检出率提升至 98% 以上。\n- **自适应感知能力**：模型能根据物体尺寸自动调整感受野的大小和偏心率，对大型货物的定位误差降低了 40%，确保机械臂精准抓取。\n- **速度与精度双赢**：在 Titan X 显卡上，RFBNet300 实现了 83 FPS 的推理速度且 mAP 达到 80.7%，完美满足高速流水线的实时处理要求。\n- **轻量化部署可行**：凭借高效的架构设计，RFBNet 可在单张中端显卡甚至移动端设备上流畅运行，大幅降低了整体硬件投入。\n\nRFBNet 通过模拟生物视觉机制，成功解决了工业场景中多尺度目标检测“既快又准”的难题，让自动化分拣系统更高效、更经济。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGOATmessi8_RFBNet_549636a3.png","GOATmessi8","Liu Songtao","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FGOATmessi8_fc4b9149.jpg","\r\n",null,"Beijing","ruinmessi@gmail.com","https:\u002F\u002Fgithub.com\u002FGOATmessi8",[82,86,90,94,98],{"name":83,"color":84,"percentage":85},"Python","#3572A5",91.8,{"name":87,"color":88,"percentage":89},"C","#555555",4.9,{"name":91,"color":92,"percentage":93},"Cuda","#3A4E3A",2.4,{"name":95,"color":96,"percentage":97},"Shell","#89e051",0.9,{"name":99,"color":100,"percentage":101},"C++","#f34b7d",0.1,1420,350,"2026-03-20T08:08:21","MIT",4,"Linux","必需 NVIDIA GPU。README 提及编译 nms 工具时需检查 GPU 架构支持 (默认 sm_52)，测试环境为 Titan X Maxwell。未明确具体显存大小和 CUDA 版本，但需配合 PyTorch 0.4.0 使用。","未说明",{"notes":111,"python":112,"dependencies":113},"1. 该工具仅支持 PyTorch 0.4.0 版本（非常古老），与现代 PyTorch 版本不兼容。2. 需要手动编译 nms 和 coco 工具 (运行 .\u002Fmake.sh)。3. 训练前需手动下载 VGG-16 或 MobileNet 预训练权重文件。4. 数据集需按特定目录结构存放 (VOC 或 COCO)。5. 代码主要基于 ssd.pytorch 和 Chainer-ssd 项目。","3+",[114,115,116],"PyTorch==0.4.0","opencv","CUDA\u002Fnvcc",[14,15],[119,120,121,122],"detection","pytorch","mobilenet","rfbnet","2026-03-27T02:49:30.150509","2026-04-07T09:55:20.074563",[126,131,136,141,146,151],{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},21489,"加载预训练权重时出现 'size mismatch'（尺寸不匹配）错误怎么办？","该错误通常是因为当前模型的类别数（num_classes）与预训练权重文件的类别数不一致导致的。例如，预训练权重可能是基于 VOC 数据集（21 类）训练的，而你的新训练集是 10 类。解决方法是：如果是从头训练新数据集，请不要加载预训练权重（即不要使用 --resume 或类似参数加载 checkpoint），直接初始化模型进行训练；如果必须微调，请确保修改代码中的 num_classes 参数与权重文件一致，或者只加载骨干网络（base network）的权重而忽略分类头（conf layers）的权重。","https:\u002F\u002Fgithub.com\u002FGOATmessi8\u002FRFBNet\u002Fissues\u002F52",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},21490,"在没有 CUDA 的设备上运行测试脚本时报错 'Expected object of type Variable[torch.FloatTensor] but found type Variable[torch.cuda.FloatTensor]' 如何解决？","这通常是因为项目中包含针对特定 Python 版本（如 Python 3.5）编译的 C++\u002FCUDA 扩展文件（例如 `_mask.cpython-35m-x86_64-linux-gnu.so`），导致在当前环境（如 Python 3.6 或非 CUDA 环境）下类型不匹配。解决方法是重新编译扩展文件：请在当前的 Python 环境中重新运行 `make.sh` 脚本，以生成适配当前环境和 Python 版本的 `.so` 文件。","https:\u002F\u002Fgithub.com\u002FGOATmessi8\u002FRFBNet\u002Fissues\u002F7",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},21491,"运行代码时出现 'SyntaxError: only named arguments may follow *expression' 语法错误是什么原因？","这个错误通常是由于使用的 Python 版本过低导致的。该语法特性（在 *expression 后跟随命名参数）需要 Python 3.5 或更高版本支持。如果你使用的是 Python 2.7 或早期的 Python 3 版本，请务必升级到 Python 3.5+ 环境后再运行代码。","https:\u002F\u002Fgithub.com\u002FGOATmessi8\u002FRFBNet\u002Fissues\u002F1",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},21492,"数据增强中使用 OpenCV 读取图像是 BGR 格式，但减去的均值是 RGB 格式 (104, 117, 123)，是否需要调整均值顺序？","这是一个常见的疑问。虽然 OpenCV (`cv2`) 默认以 BGR 顺序读取图像，但该项目中使用的均值 (104, 117, 123) 实际上是针对 BGR 通道顺序计算的（对应 ImageNet 的 RGB 均值 [123, 117, 104] 的 BGR 排列）。因此，代码逻辑是正确的，不需要将均值改为 (123, 117, 104)。保持原代码即可，随意更改可能会导致精度下降。","https:\u002F\u002Fgithub.com\u002FGOATmessi8\u002FRFBNet\u002Fissues\u002F51",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},21493,"运行 .\u002Fmake.sh 编译时出现 'g++: error: unrecognized command line option '-R'' 错误如何解决？","这是因为较新版本的 GCC\u002FG++ 编译器不再支持 `-R` 参数（该参数用于指定运行时库搜索路径，已被 `-Wl,-rpath` 替代）。解决方法是打开 `make.sh` 或相关的 `setup.py` 文件，找到编译命令中的 `-R` 标志，将其删除或替换为链接器标志 `-Wl,-rpath,`。例如，将 `-R\u002Fusr\u002Flocal\u002Fcuda\u002Flib64` 改为 `-Wl,-rpath,\u002Fusr\u002Flocal\u002Fcuda\u002Flib64`，然后重新运行编译脚本。","https:\u002F\u002Fgithub.com\u002FGOATmessi8\u002FRFBNet\u002Fissues\u002F16",{"id":152,"question_zh":153,"answer_zh":154,"source_url":140},21494,"不同模型版本（RFB_vgg, RFB_E_vgg, RFB_mobile）在训练时的显存占用大概是多少？","根据维护者的回复，在 VOC 数据集上，输入尺寸为 300，Batch Size 设置为 32 时，各模型的显存占用约为：RFB_vgg 消耗约 9GB 显存，RFB_E_vgg 消耗约 10GB 显存，而轻量级的 RFB_mobile 消耗约 5GB 显存。用户可根据自身显卡显存大小选择合适的模型进行训练。",[]]