[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-smallcorgi--Faster-RCNN_TF":3,"tool-smallcorgi--Faster-RCNN_TF":61},[4,18,26,36,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,2,"2026-04-06T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,60],"视频",{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":75,"owner_website":79,"owner_url":80,"languages":81,"stars":105,"forks":106,"last_commit_at":107,"license":108,"difficulty_score":109,"env_os":110,"env_gpu":111,"env_ram":112,"env_deps":113,"category_tags":120,"github_topics":121,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":124,"updated_at":125,"faqs":126,"releases":157},4459,"smallcorgi\u002FFaster-RCNN_TF","Faster-RCNN_TF","Faster-RCNN in Tensorflow","Faster-RCNN_TF 是一个基于 TensorFlow 框架实现的开源项目，旨在复现经典的 Faster R-CNN 目标检测算法。它核心解决了如何在图像中快速、精准地定位并识别多个物体的问题，通过引入“区域提议网络”（RPN），将候选区域生成与特征提取整合到同一个深度学习网络中，显著提升了检测效率与准确率，是实现实时物体检测的重要里程碑。\n\n该项目特别适合计算机视觉领域的研究人员、算法工程师以及希望深入理解目标检测原理的开发者使用。用户可以直接利用预训练模型在 PASCAL VOC 数据集上进行演示，也能基于提供的脚本完成从数据准备、模型训练到测试评估的全流程实验。其技术亮点在于完整实现了端到端的训练策略，仅需约 3GB 显存即可利用 VGG16 骨干网络完成训练，降低了硬件门槛。此外，项目在 PASCAL VOC 2007 测试集上取得了 68.1% 的平均精度（mAP），为学术研究和工程落地提供了可靠的基准参考与代码基础。","# Faster-RCNN_TF\n\nThis is an experimental Tensorflow implementation of Faster RCNN - a convnet for object detection with a region proposal network.\nFor details about R-CNN please refer to the paper [Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1506.01497v3.pdf) by Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun.\n\n\n### Requirements: software\n\n1. Requirements for Tensorflow (see: [Tensorflow](https:\u002F\u002Fwww.tensorflow.org\u002F))\n\n2. Python packages you might not have: `cython`, `python-opencv`, `easydict`\n\n### Requirements: hardware\n\n1. For training the end-to-end version of Faster R-CNN with VGG16, 3G of GPU memory is sufficient (using CUDNN)\n\n### Installation (sufficient for the demo)\n\n1. Clone the Faster R-CNN repository\n  ```Shell\n  # Make sure to clone with --recursive\n  git clone --recursive https:\u002F\u002Fgithub.com\u002Fsmallcorgi\u002FFaster-RCNN_TF.git\n  ```\n\n2. Build the Cython modules\n    ```Shell\n    cd $FRCN_ROOT\u002Flib\n    make\n    ```\n\n### Demo\n\n*After successfully completing [basic installation](#installation-sufficient-for-the-demo)*, you'll be ready to run the demo.\n\nDownload model training on PASCAL VOC 2007  [[Google Drive]](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0ByuDEGFYmWsbZ0EzeUlHcGFIVWM\u002Fview?usp=sharing&resourcekey=0-wl5NWArb595zL-BX6ctTgQ) [[Dropbox]](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fcfz3blmtmwj6bdh\u002FVGGnet_fast_rcnn_iter_70000.ckpt?dl=0)\n\nTo run the demo\n```Shell\ncd $FRCN_ROOT\npython .\u002Ftools\u002Fdemo.py --model model_path\n```\nThe demo performs detection using a VGG16 network trained for detection on PASCAL VOC 2007.\n\n### Training Model\n1. Download the training, validation, test data and VOCdevkit\n\n\t```Shell\n\twget http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2007\u002FVOCtrainval_06-Nov-2007.tar\n\twget http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2007\u002FVOCtest_06-Nov-2007.tar\n\twget http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2007\u002FVOCdevkit_08-Jun-2007.tar\n\t```\n\n2. Extract all of these tars into one directory named `VOCdevkit`\n\n\t```Shell\n\ttar xvf VOCtrainval_06-Nov-2007.tar\n\ttar xvf VOCtest_06-Nov-2007.tar\n\ttar xvf VOCdevkit_08-Jun-2007.tar\n\t```\n\n3. It should have this basic structure\n\n\t```Shell\n  \t$VOCdevkit\u002F                           # development kit\n  \t$VOCdevkit\u002FVOCcode\u002F                   # VOC utility code\n  \t$VOCdevkit\u002FVOC2007                    # image sets, annotations, etc.\n  \t# ... and several other directories ...\n  \t```\n\n4. Create symlinks for the PASCAL VOC dataset\n\n\t```Shell\n    cd $FRCN_ROOT\u002Fdata\n    ln -s $VOCdevkit VOCdevkit2007\n    ```\n    \n5. Download pre-trained ImageNet models\n\n   Download the pre-trained ImageNet models [[Google Drive]](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0ByuDEGFYmWsbNVF5eExySUtMZmM\u002Fview?usp=sharing&resourcekey=0-bxxPp_3P3tc-6Ca7sPrLsw) [[Dropbox]](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fpo2kzdhdgl4ix55\u002FVGG_imagenet.npy?dl=0)\n   \n   \t```Shell\n    mv VGG_imagenet.npy $FRCN_ROOT\u002Fdata\u002Fpretrain_model\u002FVGG_imagenet.npy\n    ```\n\n6. Run script to train and test model\n\t```Shell\n\tcd $FRCN_ROOT\n\t.\u002Fexperiments\u002Fscripts\u002Ffaster_rcnn_end2end.sh $DEVICE $DEVICE_ID VGG16 pascal_voc\n\t```\n  DEVICE is either cpu\u002Fgpu\n\n### The result of testing on PASCAL VOC 2007 \n\n| Classes       | AP     |\n|-------------|--------|\n| aeroplane   | 0.698 |\n| bicycle     | 0.788 |\n| bird        | 0.657 |\n| boat        | 0.565 |\n| bottle      | 0.478 |\n| bus         | 0.762 |\n| car         | 0.797 |\n| cat         | 0.793 |\n| chair       | 0.479 |\n| cow         | 0.724 |\n| diningtable | 0.648 |\n| dog         | 0.803 |\n| horse       | 0.797 |\n| motorbike   | 0.732 |\n| person      | 0.770 |\n| pottedplant | 0.384 |\n| sheep       | 0.664 |\n| sofa        | 0.650 |\n| train       | 0.766 |\n| tvmonitor   | 0.666 |\n| mAP        | 0.681 |\n\n\n###References\n[Faster R-CNN caffe version](https:\u002F\u002Fgithub.com\u002Frbgirshick\u002Fpy-faster-rcnn)\n\n[A tensorflow implementation of SubCNN (working progress)](https:\u002F\u002Fgithub.com\u002Fyuxng\u002FSubCNN_TF)\n\n","# Faster-RCNN_TF\n\n这是一个基于 TensorFlow 的 Faster R-CNN 实验性实现——一种结合区域建议网络的卷积神经网络目标检测模型。有关 R-CNN 的详细信息，请参阅 Shaoqing Ren、Kaiming He、Ross Girshick 和 Jian Sun 发表的论文《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》（http:\u002F\u002Farxiv.org\u002Fpdf\u002F1506.01497v3.pdf）。\n\n### 软件要求\n\n1. TensorFlow 的依赖项（详见：[TensorFlow 官网](https:\u002F\u002Fwww.tensorflow.org\u002F)）\n\n2. 您可能尚未安装的 Python 包：`cython`、`python-opencv`、`easydict`\n\n### 硬件要求\n\n1. 使用 VGG16 训练端到端版本的 Faster R-CNN 时，3GB 显存即可（需使用 CUDNN）。\n\n### 安装（仅需完成演示即可）\n\n1. 克隆 Faster R-CNN 仓库  \n   ```Shell\n   # 请务必使用 --recursive 选项进行克隆\n   git clone --recursive https:\u002F\u002Fgithub.com\u002Fsmallcorgi\u002FFaster-RCNN_TF.git\n   ```\n\n2. 构建 Cython 模块  \n   ```Shell\n   cd $FRCN_ROOT\u002Flib\n   make\n   ```\n\n### 演示\n\n*在成功完成 [基本安装](#installation-sufficient-for-the-demo) 后*，您就可以运行演示了。\n\n下载在 PASCAL VOC 2007 数据集上训练的模型 [[Google Drive]](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0ByuDEGFYmWsbZ0EzeUlHcGFIVWM\u002Fview?usp=sharing&resourcekey=0-wl5NWArb595zL-BX6ctTgQ) [[Dropbox]](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fcfz3blmtmwj6bdh\u002FVGGnet_fast_rcnn_iter_70000.ckpt?dl=0)\n\n运行演示：\n```Shell\ncd $FRCN_ROOT\npython .\u002Ftools\u002Fdemo.py --model model_path\n```\n该演示使用在 PASCAL VOC 2007 数据集上训练的 VGG16 网络进行目标检测。\n\n### 模型训练\n\n1. 下载训练、验证、测试数据及 VOCdevkit 数据集\n\n   ```Shell\n   wget http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2007\u002FVOCtrainval_06-Nov-2007.tar\n   wget http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2007\u002FVOCtest_06-Nov-2007.tar\n   wget http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2007\u002FVOCdevkit_08-Jun-2007.tar\n   ```\n\n2. 将所有 tar 文件解压到一个名为 `VOCdevkit` 的目录中\n\n   ```Shell\n   tar xvf VOCtrainval_06-Nov-2007.tar\n   tar xvf VOCtest_06-Nov-2007.tar\n   tar xvf VOCdevkit_08-Jun-2007.tar\n   ```\n\n3. 目录结构应如下所示：\n\n   ```Shell\n   $VOCdevkit\u002F                           # 开发工具包\n   $VOCdevkit\u002FVOCcode\u002F                   # VOC 工具代码\n   $VOCdevkit\u002FVOC2007                    # 图像集、标注文件等\n   # ... 还有其他几个目录 ...\n   ```\n\n4. 为 PASCAL VOC 数据集创建符号链接\n\n   ```Shell\n   cd $FRCN_ROOT\u002Fdata\n   ln -s $VOCdevkit VOCdevkit2007\n   ```\n\n5. 下载预训练的 ImageNet 模型\n\n   下载预训练的 ImageNet 模型 [[Google Drive]](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0ByuDEGFYmWsbNVF5eExySUtMZmM\u002Fview?usp=sharing&resourcekey=0-bxxPp_3P3tc-6Ca7sPrLsw) [[Dropbox]](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fpo2kzdhdgl4ix55\u002FVGG_imagenet.npy?dl=0)\n\n   ```Shell\n   mv VGG_imagenet.npy $FRCN_ROOT\u002Fdata\u002Fpretrain_model\u002FVGG_imagenet.npy\n   ```\n\n6. 运行脚本以训练和测试模型  \n   ```Shell\n   cd $FRCN_ROOT\n   .\u002Fexperiments\u002Fscripts\u002Ffaster_rcnn_end2end.sh $DEVICE $DEVICE_ID VGG16 pascal_voc\n   ```\n   DEVICE 可以是 cpu 或 gpu。\n\n### 在 PASCAL VOC 2007 上的测试结果\n\n| 类别       | AP     |\n|-------------|--------|\n| 飞机        | 0.698 |\n| 自行车      | 0.788 |\n| 鸟          | 0.657 |\n| 船          | 0.565 |\n| 瓶子        | 0.478 |\n| 公共汽车    | 0.762 |\n| 汽车        | 0.797 |\n| 猫          | 0.793 |\n| 椅子        | 0.479 |\n| 牛          | 0.724 |\n| 餐桌        | 0.648 |\n| 狗          | 0.803 |\n| 马          | 0.797 |\n| 摩托车      | 0.732 |\n| 人          | 0.770 |\n| 盆栽植物    | 0.384 |\n| 绵羊        | 0.664 |\n| 沙发        | 0.650 |\n| 火车        | 0.766 |\n| 电视监视器  | 0.666 |\n| mAP         | 0.681 |\n\n### 参考资料\n\n[Faster R-CNN Caffe 版本](https:\u002F\u002Fgithub.com\u002Frbgirshick\u002Fpy-faster-rcnn)\n\n[SubCNN 的 TensorFlow 实现（开发中）](https:\u002F\u002Fgithub.com\u002Fyuxng\u002FSubCNN_TF)","# Faster-RCNN_TF 快速上手指南\n\nFaster-RCNN_TF 是一个基于 TensorFlow 的实验性实现，用于通过区域建议网络（RPN）进行物体检测。本指南将帮助你快速完成环境配置、安装并运行演示。\n\n## 环境准备\n\n在开始之前，请确保你的系统满足以下软硬件要求：\n\n### 系统要求\n*   **操作系统**: Linux (推荐 Ubuntu)\n*   **GPU**: 若需训练端到端版本（使用 VGG16），建议显存至少 3GB 并安装 CUDNN。仅运行演示对硬件要求较低。\n\n### 前置依赖\n请确保已安装 **TensorFlow**。此外，还需安装以下 Python 包：\n```bash\npip install cython python-opencv easydict\n```\n> **提示**: 国内用户可使用清华或阿里镜像源加速安装，例如：\n> `pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple cython python-opencv easydict`\n\n## 安装步骤\n\n### 1. 克隆仓库\n务必使用 `--recursive` 参数克隆，以包含必要的子模块。\n```Shell\ngit clone --recursive https:\u002F\u002Fgithub.com\u002Fsmallcorgi\u002FFaster-RCNN_TF.git\ncd Faster-RCNN_TF\nexport FRCN_ROOT=$(pwd)\n```\n\n### 2. 编译 Cython 模块\n进入库目录并执行编译命令：\n```Shell\ncd $FRCN_ROOT\u002Flib\nmake\n```\n\n## 基本使用\n\n完成上述安装后，你可以下载预训练模型并运行演示脚本。\n\n### 1. 下载预训练模型\n下载在 PASCAL VOC 2007 数据集上训练的 VGG16 模型。\n*   **Google Drive**: [下载链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0ByuDEGFYmWsbZ0EzeUlHcGFIVWM\u002Fview?usp=sharing&resourcekey=0-wl5NWArb595zL-BX6ctTgQ)\n*   **Dropbox**: [下载链接](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fcfz3blmtmwj6bdh\u002FVGGnet_fast_rcnn_iter_70000.ckpt?dl=0)\n\n> **注意**: 如果上述链接访问缓慢，请尝试使用国内代理工具或寻找国内镜像资源。下载完成后，记下模型的本地路径（例如 `\u002Fpath\u002Fto\u002FVGGnet_fast_rcnn_iter_70000.ckpt`）。\n\n### 2. 运行演示\n在项目根目录下执行以下命令，将 `model_path` 替换为你实际的模型文件路径：\n\n```Shell\ncd $FRCN_ROOT\npython .\u002Ftools\u002Fdemo.py --model model_path\n```\n\n该脚本将加载 VGG16 网络并对默认图片进行物体检测，输出检测结果。","某安防团队正在开发一套基于监控视频的智能入侵检测系统，需要实时识别画面中的人员、车辆及动物。\n\n### 没有 Faster-RCNN_TF 时\n- **检测精度不足**：传统滑动窗口方法难以区分重叠目标，导致人员与背景混淆，误报率极高。\n- **开发周期漫长**：团队需从零编写复杂的区域提议网络（RPN）代码，调试卷积层参数耗时数周。\n- **硬件门槛模糊**：缺乏明确的显存优化方案，在普通 GPU 上训练模型频繁显存溢出，无法验证算法可行性。\n- **多类别支持困难**：手动调整分类器以同时识别人、车、狗等 20 种物体极其繁琐，且各类别准确率参差不齐。\n\n### 使用 Faster-RCNN_TF 后\n- **精准定位目标**：直接调用预训练的 VGG16 模型，利用成熟的 RPN 机制将人员与车辆的检测平均精度（mAP）提升至 68.1%。\n- **快速落地部署**：通过简单的克隆与编译命令即可完成环境搭建，几天内便跑通了从数据准备到模型演示的全流程。\n- **资源需求明确**：官方明确指出仅需 3GB 显存即可端到端训练，团队顺利在现有设备上完成模型迭代。\n- **开箱即用的多类检测**：加载 PASCAL VOC 预训练权重后，系统立即具备识别飞机、汽车、行人等 20 类物体的能力，无需重新造轮子。\n\nFaster-RCNN_TF 将原本需要数月研发的高精度目标检测能力，转化为可在一周内集成上线的标准化模块，极大降低了 AI 视觉应用的落地门槛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsmallcorgi_Faster-RCNN_TF_08f6b94f.png","smallcorgi","Fu-Hsiang Chan","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsmallcorgi_d4bfd283.png",null,"National Tsing Hua University","Taiwan","corgi1205@gmail.com","https:\u002F\u002Fsmallcorgi.github.io\u002F\u002F","https:\u002F\u002Fgithub.com\u002Fsmallcorgi",[82,86,90,93,97,101],{"name":83,"color":84,"percentage":85},"Python","#3572A5",89,{"name":87,"color":88,"percentage":89},"C++","#f34b7d",7.3,{"name":91,"color":92,"percentage":32},"Cython","#fedf5b",{"name":94,"color":95,"percentage":96},"Cuda","#3A4E3A",1.1,{"name":98,"color":99,"percentage":100},"Shell","#89e051",0.6,{"name":102,"color":103,"percentage":104},"Makefile","#427819",0,2345,1106,"2026-04-02T08:34:13","MIT",4,"Linux","需要 NVIDIA GPU，显存 3GB+（使用 CUDNN 训练 VGG16 端到端版本），具体 CUDA 版本未说明","未说明",{"notes":114,"python":112,"dependencies":115},"该项目是 Faster R-CNN 的 TensorFlow 实验性实现。安装时需要递归克隆仓库并编译 Cython 模块。训练需下载 PASCAL VOC 2007 数据集及预训练的 ImageNet (VGG16) 模型文件。脚本支持 CPU 或 GPU 运行，但训练建议使用 GPU。",[116,117,118,119],"tensorflow","cython","python-opencv","easydict",[14,15],[116,122,123],"detection","faster-rcnn","2026-03-27T02:49:30.150509","2026-04-06T22:53:10.493262",[127,132,137,142,147,152],{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},20280,"如何运行 demo.py 进行测试？需要指定哪个模型文件？","运行 demo.py 时，需要使用 --model 参数指定预训练好的 Faster R-CNN 检查点文件（.ckpt），而不是 VGG 的初始化权重文件 (.npy)。命令格式如下：\n.\u002Ftools\u002Fdemo.py --model \u002Fpath\u002Fto\u002FVGGnet_fast_rcnn_iter_70000.ckpt\n注意：'--model' 和路径之间必须有空格。VGG_imagenet.npy 仅用于训练新模型时的权重初始化，不能直接用于演示测试。","https:\u002F\u002Fgithub.com\u002Fsmallcorgi\u002FFaster-RCNN_TF\u002Fissues\u002F1",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},20281,"编译时出现 'undefined symbol' 错误或 roi_pooling.so 加载失败怎么办？","这通常是由于 TensorFlow 版本与编译选项中的 ABI 兼容性设置不匹配导致的。解决方法是在编译脚本（make.sh）或编译命令中添加 '-D_GLIBCXX_USE_CXX11_ABI=0' 标志。\n例如，对于 Titan X 显卡和 TensorFlow 1.3.0，确保在编译配置中加入该选项。如果 make.sh 中缺少相关部分，需手动添加或参考相关教程重新编译 roi_pooling 操作库。","https:\u002F\u002Fgithub.com\u002Fsmallcorgi\u002FFaster-RCNN_TF\u002Fissues\u002F50",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},20282,"运行 make.sh 编译 Cython 模块时报错 'nvcc: command not found' 或找不到 .cu.o 文件如何解决？","此错误表明系统无法找到 CUDA 编译器 (nvcc)。请按以下步骤解决：\n1. 设置 CUDA 路径环境变量：export PATH=$PATH:\u002Fusr\u002Flocal\u002Fcuda-8.0\u002Fbin\u002F（请根据实际安装路径调整）。\n2. 修改 lib 目录下的 make.sh 文件，在 CXXFLAGS 中添加 '-D_MWAITXINTRIN_H_INCLUDED' 选项，即：CXXFLAGS='-D_MWAITXINTRIN_H_INCLUDED'。\n完成上述设置后重新运行编译脚本。","https:\u002F\u002Fgithub.com\u002Fsmallcorgi\u002FFaster-RCNN_TF\u002Fissues\u002F17",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},20283,"训练完成后无法保存 .ckpt 模型文件（只生成了其他元数据文件）怎么办？","这通常与 TensorFlow 版本兼容性有关。可以尝试修改 lib\u002Ffast_rcnn\u002Ftrain.py 文件中的 Saver 初始化代码。\n将第 42 行左右的代码：\nself.saver = saver\n修改为：\nself.saver = tf.train.Saver(max_to_keep=100, write_version=tf.train.SaverDef.V1)\n显式指定保存版本为 V1 通常能解决在新版 TensorFlow 下无法生成 .ckpt 数据文件的问题。","https:\u002F\u002Fgithub.com\u002Fsmallcorgi\u002FFaster-RCNN_TF\u002Fissues\u002F139",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},20284,"使用自定义训练的模型运行 demo.py 时出现 'cudaCheckError() failed : invalid configuration argument' 错误？","该错误通常发生在输入图像尺寸过小，导致 ROI Pooling 层接收到空输入时。\n解决方法是修改 lib\u002Frpn_msr\u002Fproposal_layer_tf.py 文件。在第 112 行附近（或计算 keep 索引后）添加以下判断逻辑，防止空列表传入后续层：\nif not keep.any():\n    keep = [0]\n这样可以确保即使没有检测到有效区域，也能有一个默认的索引供后续处理，避免 CUDA 配置错误。","https:\u002F\u002Fgithub.com\u002Fsmallcorgi\u002FFaster-RCNN_TF\u002Fissues\u002F91",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},20285,"如何使用自己的数据集（如 PASCAL VOC 格式）进行训练？VGG_imagenet.npy 的作用是什么？","若要使用 PASCAL VOC 格式的数据集训练，需确保数据标注文件转换为 XML 格式。\n关于 VGG_imagenet.npy：这是一个在 ImageNet 数据集上预训练的 VGG 分类网络权重文件。在训练 Faster R-CNN 时，即使使用自己的数据集微调，也需要在训练开始时加载此文件，用于初始化 Faster R-CNN 中 VGG 主干网络的权重，从而加速收敛并提高性能。它不是最终的可执行模型，而是训练的起点。","https:\u002F\u002Fgithub.com\u002Fsmallcorgi\u002FFaster-RCNN_TF\u002Fissues\u002F3",[]]