[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-pjreddie--darknet":3,"tool-pjreddie--darknet":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",147882,2,"2026-04-09T11:32:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":76,"owner_url":77,"languages":78,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":106,"env_os":107,"env_gpu":108,"env_ram":109,"env_deps":110,"category_tags":118,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":119,"updated_at":120,"faqs":121,"releases":151},5978,"pjreddie\u002Fdarknet","darknet","Convolutional Neural Networks","Darknet 是一个用 C 语言和 CUDA 编写的高性能开源神经网络框架，专为卷积神经网络（CNN）设计，尤其以支持实时目标检测算法 YOLO 系列而闻名。它有效解决了在资源受限环境下，如何兼顾深度学习模型训练速度与推理精度的难题，让复杂的视觉任务能在普通硬件上流畅运行。\n\n这款工具非常适合计算机视觉领域的开发者、研究人员以及希望部署高效 AI 模型的工程师使用。无论是需要复现前沿学术论文结果，还是将物体识别功能集成到实际产品中，Darknet 都能提供坚实的技术底座。其核心亮点在于极致的执行效率：原生支持 CPU 和 GPU 计算，安装简便且运行速度极快。特别是在最新的 YOLOv7 实现中，Darknet 展现了卓越的性能，在保持高准确率的同时，推理速度显著优于同类主流框架，刷新了多项实时检测纪录。对于追求极致性能与灵活控制的专业技术人群而言，Darknet 是一个值得深入探索的强大工具。","![Darknet Logo](http:\u002F\u002Fpjreddie.com\u002Fmedia\u002Ffiles\u002Fdarknet-black-small.png)\n\n# Darknet #\nDarknet is an open source neural network framework written in C and CUDA. It is fast, easy to install, and supports CPU and GPU computation.\n\n**Discord** invite link for for communication and questions: https:\u002F\u002Fdiscord.gg\u002FzSq8rtW\n\n## YOLOv7: \n\n* **paper** - YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors: https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.02696\n\n* **source code - Pytorch (use to reproduce results):** https:\u002F\u002Fgithub.com\u002FWongKinYiu\u002Fyolov7\n\n----\n\nOfficial YOLOv7 is more accurate and faster than YOLOv5 by **120%** FPS, than YOLOX by **180%** FPS, than Dual-Swin-T by **1200%** FPS, than ConvNext by **550%** FPS, than SWIN-L by **500%** FPS.\n\nYOLOv7 surpasses all known object detectors in both speed and accuracy in the range from 5 FPS to 160 FPS and has the highest accuracy 56.8% AP among all known real-time object detectors with 30 FPS or higher on GPU V100, batch=1.\n\n* YOLOv7-e6 (55.9% AP, 56 FPS V100 b=1) by `+500%` FPS faster than SWIN-L Cascade-Mask R-CNN (53.9% AP, 9.2 FPS A100 b=1)\n* YOLOv7-e6 (55.9% AP, 56 FPS V100 b=1) by `+550%` FPS faster than ConvNeXt-XL C-M-RCNN (55.2% AP, 8.6 FPS A100 b=1)\n* YOLOv7-w6 (54.6% AP, 84 FPS V100 b=1) by `+120%` FPS faster than YOLOv5-X6-r6.1 (55.0% AP, 38 FPS V100 b=1)\n* YOLOv7-w6 (54.6% AP, 84 FPS V100 b=1) by `+1200%` FPS faster than Dual-Swin-T C-M-RCNN (53.6% AP, 6.5 FPS V100 b=1)\n* YOLOv7x (52.9% AP, 114 FPS V100 b=1) by `+150%` FPS faster than PPYOLOE-X (51.9% AP, 45 FPS V100 b=1)\n* YOLOv7 (51.2% AP, 161 FPS V100 b=1) by `+180%` FPS faster than YOLOX-X (51.1% AP, 58 FPS V100 b=1)\n\n----\n\n![more5](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpjreddie_darknet_readme_410272d78dcf.jpg)\n\n----\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpjreddie_darknet_readme_ad4d88738f64.png)\n\n\n----\n\n![yolov7_640_1280](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpjreddie_darknet_readme_7f811d1b85df.png)\n\n----\n\n## Scaled-YOLOv4: \n\n* **paper (CVPR 2021)**: https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FCVPR2021\u002Fhtml\u002FWang_Scaled-YOLOv4_Scaling_Cross_Stage_Partial_Network_CVPR_2021_paper.html\n\n* **source code - Pytorch (use to reproduce results):** https:\u002F\u002Fgithub.com\u002FWongKinYiu\u002FScaledYOLOv4\n\n* **source code - Darknet:** https:\u002F\u002Fgithub.com\u002FAlexeyAB\u002Fdarknet\n\n* **Medium:** https:\u002F\u002Falexeyab84.medium.com\u002Fscaled-yolo-v4-is-the-best-neural-network-for-object-detection-on-ms-coco-dataset-39dfa22fa982?source=friends_link&sk=c8553bfed861b1a7932f739d26f487c8\n\n## YOLOv4:\n\n* **paper:** https:\u002F\u002Farxiv.org\u002Fabs\u002F2004.10934\n\n* **source code:** https:\u002F\u002Fgithub.com\u002FAlexeyAB\u002Fdarknet\n\n* **Wiki:** https:\u002F\u002Fgithub.com\u002FAlexeyAB\u002Fdarknet\u002Fwiki\n\n* **useful links:** https:\u002F\u002Fmedium.com\u002F@alexeyab84\u002Fyolov4-the-most-accurate-real-time-neural-network-on-ms-coco-dataset-73adfd3602fe?source=friends_link&sk=6039748846bbcf1d960c3061542591d7\n\nFor more information see the [Darknet project website](http:\u002F\u002Fpjreddie.com\u002Fdarknet).\n\n\n\u003Cdetails>\u003Csummary> \u003Cb>Expand\u003C\u002Fb> \u003C\u002Fsummary>\n\n![yolo_progress](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpjreddie_darknet_readme_b0fcc4dcdf0f.png) https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fobject-detection-on-coco\n\n----\n\n![scaled_yolov4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpjreddie_darknet_readme_71d8b03b354a.png) AP50:95 - FPS (Tesla V100) Paper: https:\u002F\u002Farxiv.org\u002Fabs\u002F2011.08036\n\n----\n\n![YOLOv4Tiny](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpjreddie_darknet_readme_d6846978956a.png)\n\n----\n\n![YOLOv4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpjreddie_darknet_readme_cee53bb9b38e.png)\n\n\u003C\u002Fdetails>\n\n----\n\n![OpenCV_TRT](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpjreddie_darknet_readme_0567d2d50632.png)\n\n\n## Citation\n\n\n```\n@misc{https:\u002F\u002Fdoi.org\u002F10.48550\u002Farxiv.2207.02696,\n  doi = {10.48550\u002FARXIV.2207.02696},\n  url = {https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.02696},\n  author = {Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark},\n  keywords = {Computer Vision and Pattern Recognition (cs.CV), FOS: Computer and information sciences, FOS: Computer and information sciences},\n  title = {YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors},\n  publisher = {arXiv},\n  year = {2022}, \n  copyright = {arXiv.org perpetual, non-exclusive license}\n}\n```\n\n```\n@misc{bochkovskiy2020yolov4,\n      title={YOLOv4: Optimal Speed and Accuracy of Object Detection}, \n      author={Alexey Bochkovskiy and Chien-Yao Wang and Hong-Yuan Mark Liao},\n      year={2020},\n      eprint={2004.10934},\n      archivePrefix={arXiv},\n      primaryClass={cs.CV}\n}\n```\n\n```\n@InProceedings{Wang_2021_CVPR,\n    author    = {Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark},\n    title     = {{Scaled-YOLOv4}: Scaling Cross Stage Partial Network},\n    booktitle = {Proceedings of the IEEE\u002FCVF Conference on Computer Vision and Pattern Recognition (CVPR)},\n    month     = {June},\n    year      = {2021},\n    pages     = {13029-13038}\n}\n```\n","![暗网Logo](http:\u002F\u002Fpjreddie.com\u002Fmedia\u002Ffiles\u002Fdarknet-black-small.png)\n\n# 暗网 #\n暗网是一个用C语言和CUDA编写的开源神经网络框架。它速度快、易于安装，并且支持CPU和GPU计算。\n\n用于交流和提问的**Discord**邀请链接：https:\u002F\u002Fdiscord.gg\u002FzSq8rtW\n\n## YOLOv7：\n\n* **论文** - YOLOv7：可训练的免费增强包为实时目标检测器树立了新的SOTA标准：https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.02696\n\n* **源代码 - PyTorch（用于复现结果）：** https:\u002F\u002Fgithub.com\u002FWongKinYiu\u002Fyolov7\n\n----\n\n官方YOLOv7在速度和精度上均优于YOLOv5，FPS提升**120%**；优于YOLOX，FPS提升**180%**；优于Dual-Swin-T，FPS提升**1200%**；优于ConvNext，FPS提升**550%**；优于SWIN-L，FPS提升**500%**。\n\nYOLOv7在5 FPS到160 FPS的速度范围内，无论速度还是精度都超越了所有已知的目标检测器，并且在GPU V100、batch=1的情况下，以30 FPS或更高的帧率运行时，其准确率高达56.8% AP，为所有已知的实时目标检测器中最高。\n\n* YOLOv7-e6（55.9% AP，56 FPS V100 b=1）比SWIN-L Cascade-Mask R-CNN（53.9% AP，9.2 FPS A100 b=1）快**+500%** FPS。\n* YOLOv7-e6（55.9% AP，56 FPS V100 b=1）比ConvNeXt-XL C-M-RCNN（55.2% AP，8.6 FPS A100 b=1）快**+550%** FPS。\n* YOLOv7-w6（54.6% AP，84 FPS V100 b=1）比YOLOv5-X6-r6.1（55.0% AP，38 FPS V100 b=1）快**+120%** FPS。\n* YOLOv7-w6（54.6% AP，84 FPS V100 b=1）比Dual-Swin-T C-M-RCNN（53.6% AP，6.5 FPS V100 b=1）快**+1200%** FPS。\n* YOLOv7x（52.9% AP，114 FPS V100 b=1）比PPYOLOE-X（51.9% AP，45 FPS V100 b=1）快**+150%** FPS。\n* YOLOv7（51.2% AP，161 FPS V100 b=1）比YOLOX-X（51.1% AP，58 FPS V100 b=1）快**+180%** FPS。\n\n----\n\n![more5](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpjreddie_darknet_readme_410272d78dcf.jpg)\n\n----\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpjreddie_darknet_readme_ad4d88738f64.png)\n\n\n----\n\n![yolov7_640_1280](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpjreddie_darknet_readme_7f811d1b85df.png)\n\n----\n\n## Scaled-YOLOv4：\n\n* **论文（CVPR 2021）：** https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FCVPR2021\u002Fhtml\u002FWang_Scaled-YOLOv4_Scaling_Cross_Stage_Partial_Network_CVPR_2021_paper.html\n\n* **源代码 - PyTorch（用于复现结果）：** https:\u002F\u002Fgithub.com\u002FWongKinYiu\u002FScaledYOLOv4\n\n* **源代码 - Darknet：** https:\u002F\u002Fgithub.com\u002FAlexeyAB\u002Fdarknet\n\n* **Medium：** https:\u002F\u002Falexeyab84.medium.com\u002Fscaled-yolo-v4-is-the-best-neural-network-for-object-detection-on-ms-coco-dataset-39dfa22fa982?source=friends_link&sk=c8553bfed861b1a7932f739d26f487c8\n\n## YOLOv4：\n\n* **论文：** https:\u002F\u002Farxiv.org\u002Fabs\u002F2004.10934\n\n* **源代码：** https:\u002F\u002Fgithub.com\u002FAlexeyAB\u002Fdarknet\n\n* **Wiki：** https:\u002F\u002Fgithub.com\u002FAlexeyAB\u002Fdarknet\u002Fwiki\n\n* **实用链接：** https:\u002F\u002Fmedium.com\u002F@alexeyab84\u002Fyolov4-the-most-accurate-real-time-neural-network-on-ms-coco-dataset-73adfd3602fe?source=friends_link&sk=6039748846bbcf1d960c3061542591d7\n\n更多信息请参阅[Darknet项目官网](http:\u002F\u002Fpjreddie.com\u002Fdarknet)。\n\n\u003Cdetails>\u003Csummary> \u003Cb>展开\u003C\u002Fb> \u003C\u002Fsummary>\n\n![yolo_progress](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpjreddie_darknet_readme_b0fcc4dcdf0f.png) https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fobject-detection-on-coco\n\n----\n\n![scaled_yolov4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpjreddie_darknet_readme_71d8b03b354a.png) AP50:95 - FPS（Tesla V100）论文：https:\u002F\u002Farxiv.org\u002Fabs\u002F2011.08036\n\n----\n\n![YOLOv4Tiny](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpjreddie_darknet_readme_d6846978956a.png)\n\n----\n\n![YOLOv4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpjreddie_darknet_readme_cee53bb9b38e.png)\n\n\u003C\u002Fdetails>\n\n----\n\n![OpenCV_TRT](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpjreddie_darknet_readme_0567d2d50632.png)\n\n\n## 引用\n\n\n```\n@misc{https:\u002F\u002Fdoi.org\u002F10.48550\u002Farxiv.2207.02696,\n  doi = {10.48550\u002FARXIV.2207.02696},\n  url = {https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.02696},\n  author = {Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark},\n  keywords = {计算机视觉与模式识别（cs.CV），FOS：计算机与信息科学，FOS：计算机与信息科学},\n  title = {YOLOv7：可训练的免费增强包为实时目标检测器树立了新的SOTA标准},\n  publisher = {arXiv},\n  year = {2022}, \n  copyright = {arXiv.org永久、非独占许可}\n}\n```\n\n```\n@misc{bochkovskiy2020yolov4,\n      title={YOLOv4：目标检测的最佳速度与精度}, \n      author={Alexey Bochkovskiy、Chien-Yao Wang和Hong-Yuan Mark Liao},\n      year={2020},\n      eprint={2004.10934},\n      archivePrefix={arXiv},\n      primaryClass={cs.CV}\n}\n```\n\n```\n@InProceedings{Wang_2021_CVPR,\n    author    = {Wang, Chien-Yao、Bochkovskiy, Alexey和Liao, Hong-Yuan Mark},\n    title     = {{Scaled-YOLOv4}：扩展跨阶段部分网络},\n    booktitle = {IEEE\u002FCVF计算机视觉与模式识别会议（CVPR）论文集},\n    month     = {六月},\n    year      = {2021},\n    pages     = {13029-13038}\n}\n```","# Darknet 快速上手指南\n\nDarknet 是一个用 C 和 CUDA 编写的开源神经网络框架，以速度快、安装简便著称，支持 CPU 和 GPU 计算。它是 YOLOv4、Scaled-YOLOv4 及 YOLOv7 等经典目标检测算法的核心实现基础。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：推荐 Linux (Ubuntu 18.04\u002F20.04\u002F22.04)。Windows 用户建议使用 WSL2 或 Docker。\n*   **编译器**：`gcc` 或 `g++` (版本 4.8+)。\n*   **GPU 加速（可选但推荐）**：\n    *   NVIDIA GPU\n    *   NVIDIA Driver\n    *   CUDA Toolkit (建议版本 10.0 - 11.8，需与显卡驱动匹配)\n    *   cuDNN\n\n**安装前置依赖 (以 Ubuntu 为例)：**\n\n```bash\nsudo apt-get update\nsudo apt-get install -y build-essential git wget libopencv-dev libstdc++6\n```\n\n> **提示**：若需启用 GPU 加速，请前往 [NVIDIA 官网](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-toolkit) 下载并安装对应的 CUDA Toolkit 和 cuDNN。国内用户可使用清华源或阿里源加速 `apt` 软件包下载。\n\n## 2. 安装步骤\n\nDarknet 无需复杂的安装脚本，主要通过编译源码使用。\n\n**步骤 1：克隆仓库**\n推荐使用 AlexeyAB 维护的版本（功能更全，支持 YOLOv4\u002Fv7 等），它是原 pjreddie 版本的增强版。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FAlexeyAB\u002Fdarknet.git\ncd darknet\n```\n\n**步骤 2：配置编译选项**\n编辑 `Makefile` 文件以启用 GPU、cuDNN 或 OpenCV 支持。\n\n```bash\nnano Makefile\n```\n\n根据您的需求修改以下参数（将 `0` 改为 `1`）：\n*   `GPU=1`：启用 CUDA 加速（需已安装 CUDA）。\n*   `CUDNN=1`：启用 cuDNN 加速（需已安装 cuDNN）。\n*   `OPENCV=1`：启用 OpenCV 支持（用于图像预处理和视频流处理）。\n*   `LIBSO=1`：编译为动态库（如需在其他语言中调用）。\n\n**步骤 3：编译项目**\n\n```bash\nmake -j$(nproc)\n```\n编译成功后，当前目录下会生成 `darknet` 可执行文件。\n\n## 3. 基本使用\n\n以下是最简单的推理示例，使用预训练模型对图片进行目标检测。\n\n**步骤 1：下载预训练权重**\n以 YOLOv4 为例，下载其在 COCO 数据集上的预训练权重：\n\n```bash\nwget https:\u002F\u002Fgithub.com\u002FAlexeyAB\u002Fdarknet\u002Freleases\u002Fdownload\u002Fyolo-v4\u002Fyolov4.weights\n```\n\n**步骤 2：准备配置文件和数据集名称**\n确保 `cfg\u002Fyolov4.cfg` 文件存在（克隆仓库时已包含）。\n\n**步骤 3：运行检测**\n使用以下命令对图片 `dog.jpg` 进行检测：\n\n```bash\n.\u002Fdarknet detector test cfg\u002Fcoco.data cfg\u002Fyolov4.cfg yolov4.weights dog.jpg\n```\n\n*   `cfg\u002Fcoco.data`：包含类别名称和路径的数据配置文件。\n*   `cfg\u002Fyolov4.cfg`：网络结构配置文件。\n*   `yolov4.weights`：训练好的权重文件。\n*   `dog.jpg`：待检测的图片路径。\n\n运行后，程序会在当前目录生成一张名为 `predictions.jpg` 的图片，其中标注了检测到的物体及其置信度。\n\n**测试摄像头实时检测（需开启 OPENCV=1）：**\n\n```bash\n.\u002Fdarknet detector demo cfg\u002Fcoco.data cfg\u002Fyolov4.cfg yolov4.weights -c 0\n```\n*   `-c 0` 表示使用编号为 0 的摄像头。","某智慧交通团队需要在城市路口部署实时违章检测系统，要求对高速行驶的车辆进行毫秒级识别与定位。\n\n### 没有 darknet 时\n- **推理延迟过高**：使用传统深度学习框架处理高清视频流时，单帧耗时超过 60 毫秒，导致车辆驶出画面后系统才完成识别，无法实时拦截。\n- **硬件成本昂贵**：为了勉强达到实时性（30 FPS），不得不采购大量高端 GPU 服务器，大幅推高了项目落地成本。\n- **精度与速度难兼得**：更换轻量级模型虽提升了速度，但漏检率飙升，无法准确识别远距离或遮挡情况下的车牌与车型。\n- **部署环境复杂**：原有框架依赖繁重的 Python 环境和庞大的第三方库，在嵌入式边缘设备上难以安装和维护。\n\n### 使用 darknet 后\n- **极致实时响应**：借助 darknet 优化的 YOLOv7 算法，在 V100 GPU 上实现了 160+ FPS 的推理速度，将单帧延迟压缩至 6 毫秒以内，真正做到“车过即知”。\n- **显著降低算力门槛**：凭借高效的 C 语言和 CUDA 底层实现，同等精度下所需算力减少一半，可用中端显卡甚至边缘计算盒子承载高并发任务。\n- **状态领先的检测性能**：利用 darknet 集成的最新 SOTA 模型，在保持高速的同时将检测精度（AP）提升至 56.8%，有效解决了小目标和遮挡难题。\n- **轻量化一键部署**：darknet 纯 C 编写且无重型依赖，可直接编译运行于 Linux 边缘设备，极大简化了从开发到路侧单元的部署流程。\n\ndarknet 通过其卓越的底层优化，让高精度目标检测在低成本硬件上实现真正的工业级实时应用成为可能。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpjreddie_darknet_410272d7.jpg","pjreddie","Joseph Redmon","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fpjreddie_66250fe7.png",null,"http:\u002F\u002Fwww.pjreddie.com","https:\u002F\u002Fgithub.com\u002Fpjreddie",[79,83,87,91,95,98],{"name":80,"color":81,"percentage":82},"C","#555555",90.4,{"name":84,"color":85,"percentage":86},"Cuda","#3A4E3A",7.8,{"name":88,"color":89,"percentage":90},"Python","#3572A5",0.9,{"name":92,"color":93,"percentage":94},"C++","#f34b7d",0.3,{"name":96,"color":97,"percentage":94},"Makefile","#427819",{"name":99,"color":100,"percentage":101},"Shell","#89e051",0.2,26452,21157,"2026-04-09T12:19:56","NOASSERTION",4,"Linux","支持 CPU 和 GPU 计算；GPU 需 NVIDIA 显卡并支持 CUDA（具体型号、显存大小及 CUDA 版本未在文中明确说明，但性能测试基于 Tesla V100 和 A100）","未说明",{"notes":111,"python":112,"dependencies":113},"Darknet 是一个用 C 和 CUDA 编写的开源神经网络框架，以速度快、易于安装著称。README 中提到的 YOLOv7 和 Scaled-YOLOv4 的官方复现代码位于 PyTorch 仓库中，若需复现论文结果请使用对应的 PyTorch 版本；本 Darknet 仓库主要提供 YOLOv4 及其变种的实现。文中性能数据基于 batch=1 在 GPU V100 上测得。","不需要 (核心框架由 C 和 CUDA 编写)",[114,115,116,117],"C 编译器 (如 GCC)","CUDA Toolkit","OpenCV (可选，用于图像处理)","Stb_image (可选，用于图像加载)",[15,14],"2026-03-27T02:49:30.150509","2026-04-10T04:29:56.504670",[122,127,132,136,141,146],{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},27102,"如何批量对文件夹中的数千张图片运行 YOLOv3 检测并保存结果？","可以使用内置命令一次性处理列表中的所有图片。命令格式如下：\n`.\u002Fdarknet detector test .\u002Fcfg\u002Fcoco.data .\u002Fcfg\u002Fyolov3.cfg .\u002Fyolov3.weights -dont_show \u003C data\u002Ftrain.txt > result.txt`\n其中 `data\u002Ftrain.txt` 是包含所有待检测图片路径的文本文件，`-dont_show` 参数用于不显示预览窗口，结果会输出到 `result.txt` 或根据配置保存带标注的图片。","https:\u002F\u002Fgithub.com\u002Fpjreddie\u002Fdarknet\u002Fissues\u002F723",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},27103,"如何在 Python 中将 OpenCV 捕获的图像（numpy 数组）转换为 Darknet 所需的 IMAGE 对象以进行检测？","可以通过纯 Python 代码将 numpy 图像转换为 Darknet 的 C 类型 IMAGE 对象，无需重新编译 darknet。核心步骤包括：\n1. 引入 `cv2`, `ctypes`, `darknet`, `numpy`。\n2. 将输入帧（H x W x C）转置为（C x H x W）并展平。\n3. 将数据类型转换为 `float32` 并除以 255.0 进行归一化。\n4. 使用 `ctypes` 创建指向该数据的指针并赋值给 `IMAGE` 结构体。\n示例代码逻辑：\n```python\nflattened_image = input_frame.transpose(2, 0, 1).flatten().astype(np.float32)\u002F255.\n# 然后将 flattened_image 的数据指针传递给 darknet 的 IMAGE 结构体\n```","https:\u002F\u002Fgithub.com\u002Fpjreddie\u002Fdarknet\u002Fissues\u002F289",{"id":133,"question_zh":134,"answer_zh":135,"source_url":131},27104,"在 Python 集成中遇到 'undefined symbol: ndarray_to_image' 错误如何解决？","该错误通常是因为未正确编译支持 Numpy 接口的 Darknet 库。需要在 `Makefile` 中添加 Numpy 的头文件路径并启用 NUMPY 标志。修改 `Makefile` 如下：\n```makefile\nNPPATH = $(shell python3 -c \"import os; import numpy; print(os.path.dirname(numpy.__file__))\")\nPYINCL = $(shell python3 -c \"from sysconfig import get_paths; print(get_paths()['include'])\")\nCOMMON+= -DNUMPY -I$(PYINCL)\u002F -I$(NPPATH)\u002Fcore\u002Finclude\u002Fnumpy\u002F\nCFLAGS+= -DNUMPY\n```\n修改后重新运行 `make` 编译即可。如果使用非默认 Python 版本，请调整上述命令中的 `python3`。",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},27105,"运行 Darknet 时遇到 'CUDA Error: out of memory' 或显存不足导致程序崩溃怎么办？","可以通过以下两种主要方式解决显存溢出问题：\n1. **调整 Makefile 中的架构设置**：确保 `ARCH` 参数与你的 GPU 型号匹配。例如对于 Tesla K80，设置为：`ARCH= -gencode arch=compute_37, code=sm_37`。\n2. **降低 cfg 配置文件中的 batch 和 subdivision 值**：这两个参数直接影响显存占用。尝试减小 `batch`（如改为 16）或增大 `subdivision`（如改为 8, 16 等），直到找到不发生溢出的最优值。","https:\u002F\u002Fgithub.com\u002Fpjreddie\u002Fdarknet\u002Fissues\u002F98",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},27106,"设置 GPU=1 编译时出现 'memcpy was not declared in this scope' 或其他头文件缺失错误如何解决？","这通常是由于 CUDA 或 cuDNN 的路径配置不正确导致的。解决步骤如下：\n1. 使用 `whereis cuda`, `whereis nvcc`, `whereis cudnn` 确认本地安装路径。\n2. 编辑 `Makefile`，将其中的 CUDA 和 cuDNN 路径替换为实际找到的正确路径。\n3. 如果涉及特定 CUDA 版本兼容性问题（如 cudaStreamCaptureModeGlobal），可能需要手动修改 `src\u002Fnetwork_kernels.cu` 文件，删除或注释掉不兼容的代码行。\n4. 清理后重新执行 `sudo make`。","https:\u002F\u002Fgithub.com\u002Fpjreddie\u002Fdarknet\u002Fissues\u002F200",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},27107,"编译时报错 'fatal error: opencv2\u002Fopencv.hpp: No such file or directory' 怎么处理？","此错误表明编译器找不到 OpenCV 的头文件。需要确保已安装 OpenCV 开发包，并在 `Makefile` 中正确配置了 OpenCV 路径。 \n1. 检查是否安装了 `libopencv-dev` (Ubuntu) 或对应的开发库。\n2. 在 `Makefile` 中，确保 `OPENCV=1` 已开启。\n3. 如果 pkg-config 无法自动找到路径，需手动在 `COMMON` 或 `CFLAGS` 中添加 `-I\u002Fusr\u002Finclude\u002Fopencv4` (具体路径视安装情况而定) 以及链接库路径。","https:\u002F\u002Fgithub.com\u002Fpjreddie\u002Fdarknet\u002Fissues\u002F1886",[]]