[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-philipperemy--yolo-9000":3,"tool-philipperemy--yolo-9000":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160411,2,"2026-04-18T23:33:24",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":72,"owner_website":79,"owner_url":80,"languages":81,"stars":82,"forks":83,"last_commit_at":84,"license":85,"difficulty_score":86,"env_os":87,"env_gpu":88,"env_ram":89,"env_deps":90,"category_tags":98,"github_topics":99,"view_count":32,"oss_zip_url":81,"oss_zip_packed_at":81,"status":17,"created_at":106,"updated_at":107,"faqs":108,"releases":144},9394,"philipperemy\u002Fyolo-9000","yolo-9000","YOLO9000: Better, Faster, Stronger - Real-Time Object Detection. 9000 classes!","YOLO9000 是一款突破性的实时目标检测开源模型，源自计算机视觉顶会 CVPR 2017 的研究成果。它核心解决了传统检测算法在识别速度与类别覆盖范围上难以兼顾的痛点，能够以极快的速度在图像或视频中精准定位并识别物体。\n\n其最显著的技术亮点在于支持高达 9000 种不同类别的检测能力。通过创新的联合训练机制，YOLO9000 不仅涵盖了常见的物体（如人、车、动物），还能识别大量长尾类别，真正实现了“更好、更快、更强”的性能飞跃。从技术架构看，它基于 Darknet 框架，采用高效的卷积神经网络设计，即使在普通硬件上也能实现流畅的推理体验。\n\n这款工具非常适合计算机视觉领域的研究人员、AI 开发者以及需要构建通用物体识别系统的工程师使用。对于希望探索大规模分类检测、优化实时视频分析流程的专业人士而言，YOLO9000 提供了宝贵的基准模型和代码参考。虽然普通用户直接上手可能需要一定的编程基础（如配置 Linux 环境、编译 Darknet），但其开放的权重文件和清晰的示例代码，也为技术爱好者提供了学习前沿目标检测技术的绝佳入口。","# Yolo 9000\n\n![CI](https:\u002F\u002Fgithub.com\u002Fphilipperemy\u002Fyolo-9000\u002Fworkflows\u002FCI\u002Fbadge.svg)\n\nYOLO9000: Better, Faster, Stronger - Real-Time Object Detection (State of the art). Official repository of [CVPR17](https:\u002F\u002Fgithub.com\u002Fcvpr17).\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fphilipperemy_yolo-9000_readme_4d2f4362d2c8.gif\" width=\"500\">\u003Cbr\u002F>\n  \u003Ci>Scroll down if you want to make your own video.\u003C\u002Fi>\n\u003C\u002Fp>\n\n## How to get started?\n\n### Ubuntu\u002FLinux\u002FMac OS\n```bash\ngit clone --recursive https:\u002F\u002Fgithub.com\u002Fphilipperemy\u002Fyolo-9000.git\ncd yolo-9000\ncat yolo9000-weights\u002Fx* > yolo9000-weights\u002Fyolo9000.weights # it was generated from split -b 95m yolo9000.weights\ncd darknet \nmake # Will run on CPU. For GPU support, scroll down!\n.\u002Fdarknet detector test cfg\u002Fcombine9k.data cfg\u002Fyolo9000.cfg ..\u002Fyolo9000-weights\u002Fyolo9000.weights data\u002Fhorses.jpg\n```\n\n### Windows\n```\ngit clone --recursive https:\u002F\u002Fgithub.com\u002Fphilipperemy\u002Fyolo-9000.git\ncd yolo-9000\ntype yolo9000-weights\\xaa yolo9000-weights\\xab > yolo9000-weights\\yolo9000.weights\ncertUtil -hashfile yolo9000-weights\\yolo9000.weights MD5\ncd darknet\ngit reset --hard b61bcf544e8dbcbd2e978ca6a716fa96b37df767\n```\n\nYou can use the latest version of `darknet` by running this command in the directory `yolo-9000`:\n\n```bash\ngit submodule foreach git pull origin master\n```\n\n## Names of the 9k classes\n\nAvailable here: \n\n- https:\u002F\u002Fgithub.com\u002Fpjreddie\u002Fdarknet\u002Fblob\u002F1e729804f61c8627eb257fba8b83f74e04945db7\u002Fdata\u002F9k.names\n\n## Examples\n\n`.\u002Fdarknet detector test cfg\u002Fcombine9k.data cfg\u002Fyolo9000.cfg ..\u002Fyolo9000-weights\u002Fyolo9000.weights data\u002Fhorses.jpg`\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fphilipperemy_yolo-9000_readme_5f790dcb6ccb.png\" width=\"400\">\u003Cbr>\u003Cbr>\n\u003C\u002Fdiv>\n\n`.\u002Fdarknet detector test cfg\u002Fcombine9k.data cfg\u002Fyolo9000.cfg ..\u002Fyolo9000-weights\u002Fyolo9000.weights data\u002Fperson.jpg`\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fphilipperemy_yolo-9000_readme_25970cea9689.png\" width=\"400\">\u003Cbr>\u003Cbr>\n\u003C\u002Fdiv>\n\n\nThe output should be something like:\n\n```\nlayer     filters    size              input                output\n    0 conv     32  3 x 3 \u002F 1   544 x 544 x   3   ->   544 x 544 x  32\n    1 max          2 x 2 \u002F 2   544 x 544 x  32   ->   272 x 272 x  32\n    2 conv     64  3 x 3 \u002F 1   272 x 272 x  32   ->   272 x 272 x  64\n    3 max          2 x 2 \u002F 2   272 x 272 x  64   ->   136 x 136 x  64\n    4 conv    128  3 x 3 \u002F 1   136 x 136 x  64   ->   136 x 136 x 128\n    5 conv     64  1 x 1 \u002F 1   136 x 136 x 128   ->   136 x 136 x  64\n    6 conv    128  3 x 3 \u002F 1   136 x 136 x  64   ->   136 x 136 x 128\n    7 max          2 x 2 \u002F 2   136 x 136 x 128   ->    68 x  68 x 128\n    8 conv    256  3 x 3 \u002F 1    68 x  68 x 128   ->    68 x  68 x 256\n    9 conv    128  1 x 1 \u002F 1    68 x  68 x 256   ->    68 x  68 x 128\n   10 conv    256  3 x 3 \u002F 1    68 x  68 x 128   ->    68 x  68 x 256\n   11 max          2 x 2 \u002F 2    68 x  68 x 256   ->    34 x  34 x 256\n   12 conv    512  3 x 3 \u002F 1    34 x  34 x 256   ->    34 x  34 x 512\n   13 conv    256  1 x 1 \u002F 1    34 x  34 x 512   ->    34 x  34 x 256\n   14 conv    512  3 x 3 \u002F 1    34 x  34 x 256   ->    34 x  34 x 512\n   15 conv    256  1 x 1 \u002F 1    34 x  34 x 512   ->    34 x  34 x 256\n   16 conv    512  3 x 3 \u002F 1    34 x  34 x 256   ->    34 x  34 x 512\n   17 max          2 x 2 \u002F 2    34 x  34 x 512   ->    17 x  17 x 512\n   18 conv   1024  3 x 3 \u002F 1    17 x  17 x 512   ->    17 x  17 x1024\n   19 conv    512  1 x 1 \u002F 1    17 x  17 x1024   ->    17 x  17 x 512\n   20 conv   1024  3 x 3 \u002F 1    17 x  17 x 512   ->    17 x  17 x1024\n   21 conv    512  1 x 1 \u002F 1    17 x  17 x1024   ->    17 x  17 x 512\n   22 conv   1024  3 x 3 \u002F 1    17 x  17 x 512   ->    17 x  17 x1024\n   23 conv  28269  1 x 1 \u002F 1    17 x  17 x1024   ->    17 x  17 x28269\n   24 detection\nLoading weights from ..\u002Fyolo9000-weights\u002Fyolo9000.weights...Done!\ndata\u002Fhorses.jpg: Predicted in 7.556429 seconds.\nwild horse: 50%\nShetland pony: 84%\nAberdeen Angus: 72%\nNot compiled with OpenCV, saving to predictions.png instead\n```\n\nThe image with the bounding boxes is in `predictions.png`. \n\n\n\nBrowse on https:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F to find how to compile it for GPU as well. It's much faster!\n\n## GPU Support\n\nMake sure that your NVIDIA GPU is properly configured beforehand. `nvcc` should be in the PATH. If not, *something like this* should do the job:\n\n```bash\nexport PATH=\u002Fusr\u002Flocal\u002Fcuda\u002Fbin:$PATH\nexport LD_LIBRARY_PATH=\u002Fusr\u002Flocal\u002Fcuda\u002Flib64:$LD_LIBRARY_PATH\n```\nLet's now compile `darknet` with GPU support!\n```bash\ncd darknet\nmake clean\nvim Makefile # Change the first two lines to: GPU=1 and CUDNN=1. You can also use emacs or nano!\nmake\n.\u002Fdarknet detector test cfg\u002Fcombine9k.data cfg\u002Fyolo9000.cfg ..\u002Fyolo9000-weights\u002Fyolo9000.weights data\u002Fdog.jpg\n```\n\nThe inference should be much faster:\n```\nLoading weights from ..\u002Fyolo9000-weights\u002Fyolo9000.weights...Done!\ndata\u002Fdog.jpg: Predicted in 0.035112 seconds.\ncar: 70%\ncanine: 56%\nbicycle: 57%\nNot compiled with OpenCV, saving to predictions.png instead\n```\n\nYou can also run the command and monitor its status with `nvidia-smi`:\n```\n+-----------------------------------------------------------------------------+\n| NVIDIA-SMI 375.26                 Driver Version: 375.26                    |\n|-------------------------------+----------------------+----------------------+\n| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |\n| Fan  Temp  Perf  Pwr:Usage\u002FCap|         Memory-Usage | GPU-Util  Compute M. |\n|===============================+======================+======================|\n|   0  TITAN X (Pascal)    Off  | 0000:02:00.0      On |                  N\u002FA |\n| 26%   49C    P2    76W \u002F 250W |   4206MiB \u002F 12189MiB |     10%      Default |\n+-------------------------------+----------------------+----------------------+\n|   1  TITAN X (Pascal)    Off  | 0000:04:00.0     Off |                  N\u002FA |\n| 29%   50C    P8    20W \u002F 250W |      3MiB \u002F 12189MiB |      0%      Default |\n+-------------------------------+----------------------+----------------------+\n|   2  TITAN X (Pascal)    Off  | 0000:05:00.0     Off |                  N\u002FA |\n| 31%   53C    P8    18W \u002F 250W |      3MiB \u002F 12189MiB |      0%      Default |\n+-------------------------------+----------------------+----------------------+\n|   3  TITAN X (Pascal)    Off  | 0000:06:00.0     Off |                  N\u002FA |\n| 29%   50C    P8    22W \u002F 250W |      3MiB \u002F 12189MiB |      0%      Default |\n+-------------------------------+----------------------+----------------------+\n\n+-----------------------------------------------------------------------------+\n| Processes:                                                       GPU Memory |\n|  GPU       PID  Type  Process name                               Usage      |\n|=============================================================================|\n|    0     30782    C   .\u002Fdarknet                                     3991MiB |\n+-----------------------------------------------------------------------------+\n```\nHere, we can see that our process `darknet` is running on the first GPU.\n\n**NOTE**: We highly recommend a recent GPU with 8GB (or more) of memory to run flawlessly. GTX 1070, GTX 1080 Ti or Titan X are a great choice!\n\n## Make your own video! (Ubuntu\u002FLinux)\n\nFirst we have to install some dependencies (OpenCV and ffmpeg):\n```bash\nsudo apt-get install libopencv-dev python-opencv ffmpeg\ncd darknet\nmake clean\nvim Makefile # Change the first three lines to: GPU=1, CUDNN=1 and OPENCV=1. You can also use emacs or nano!\nmake\n.\u002Fdarknet detector demo cfg\u002Fcombine9k.data cfg\u002Fyolo9000.cfg ..\u002Fyolo9000-weights\u002Fyolo9000.weights  -prefix output \u003Cpath_to_your_video_mp4> -thresh 0.15\n```\nBy default the threshold is set to 0.25. It means that Yolo displays the bounding boxes of elements with a 25%+ confidence. In practice, a lower threshold means more detected items (but also more errors).\n\nOnce this command returns, we merge the output images in a video:\n```bash\nffmpeg -framerate 25 -i output_%08d.jpg output.mp4\n```\n\nWe can now safely remove the temporary generated images:\n```bash\nrm output_*.jpg\n```\n\nThe final video is `output.mp4`.\n\n## Convert the weights to Keras\n\nComment the following lines in the `yolo9000.cfg` file:\n\n```\nbatch=1\nsubdivisions=1\n```\n\nThen browse the instructions at:\n\n- https:\u002F\u002Fgithub.com\u002Fallanzelener\u002FYAD2K\n\n","# Yolo 9000\n\n![CI](https:\u002F\u002Fgithub.com\u002Fphilipperemy\u002Fyolo-9000\u002Fworkflows\u002FCI\u002Fbadge.svg)\n\nYOLO9000：更好、更快、更强——实时目标检测（当前最先进水平）。[CVPR17](https:\u002F\u002Fgithub.com\u002Fcvpr17) 的官方仓库。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fphilipperemy_yolo-9000_readme_4d2f4362d2c8.gif\" width=\"500\">\u003Cbr\u002F>\n  \u003Ci>如果您想制作自己的视频，请向下滚动。\u003C\u002Fi>\n\u003C\u002Fp>\n\n## 如何开始？\n\n### Ubuntu\u002FLinux\u002FMac OS\n```bash\ngit clone --recursive https:\u002F\u002Fgithub.com\u002Fphilipperemy\u002Fyolo-9000.git\ncd yolo-9000\ncat yolo9000-weights\u002Fx* > yolo9000-weights\u002Fyolo9000.weights # 这是通过 split -b 95m yolo9000.weights 生成的\ncd darknet \nmake # 将在 CPU 上运行。如需 GPU 支持，请向下滚动！\n.\u002Fdarknet detector test cfg\u002Fcombine9k.data cfg\u002Fyolo9000.cfg ..\u002Fyolo9000-weights\u002Fyolo9000.weights data\u002Fhorses.jpg\n```\n\n### Windows\n```\ngit clone --recursive https:\u002F\u002Fgithub.com\u002Fphilipperemy\u002Fyolo-9000.git\ncd yolo-9000\ntype yolo9000-weights\\xaa yolo9000-weights\\xab > yolo9000-weights\\yolo9000.weights\ncertUtil -hashfile yolo9000-weights\\yolo9000.weights MD5\ncd darknet\ngit reset --hard b61bcf544e8dbcbd2e978ca6a716fa96b37df767\n```\n\n您可以在 `yolo-9000` 目录下运行以下命令，以使用最新版本的 `darknet`：\n\n```bash\ngit submodule foreach git pull origin master\n```\n\n## 9k 类别的名称\n\n可在以下链接查看：\n\n- https:\u002F\u002Fgithub.com\u002Fpjreddie\u002Fdarknet\u002Fblob\u002F1e729804f61c8627eb257fba8b83f74e04945db7\u002Fdata\u002F9k.names\n\n## 示例\n\n`.\u002Fdarknet detector test cfg\u002Fcombine9k.data cfg\u002Fyolo9000.cfg ..\u002Fyolo9000-weights\u002Fyolo9000.weights data\u002Fhorses.jpg`\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fphilipperemy_yolo-9000_readme_5f790dcb6ccb.png\" width=\"400\">\u003Cbr>\u003Cbr>\n\u003C\u002Fdiv>\n\n`.\u002Fdarknet detector test cfg\u002Fcombine9k.data cfg\u002Fyolo9000.cfg ..\u002Fyolo9000-weights\u002Fyolo9000.weights data\u002Fperson.jpg`\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fphilipperemy_yolo-9000_readme_25970cea9689.png\" width=\"400\">\u003Cbr>\u003Cbr>\n\u003C\u002Fdiv>\n\n\n输出应类似于：\n\n```\nlayer     filters    size              input                output\n    0 conv     32  3 x 3 \u002F 1   544 x 544 x   3   ->   544 x 544 x  32\n    1 max          2 x 2 \u002F 2   544 x 544 x  32   ->   272 x 272 x  32\n    2 conv     64  3 x 3 \u002F 1   272 x 272 x  32   ->   272 x 272 x  64\n    3 max          2 x 2 \u002F 2   272 x 272 x  64   ->   136 x 136 x  64\n    4 conv    128  3 x 3 \u002F 1   136 x 136 x  64   ->   136 x 136 x 128\n    5 conv     64  1 x 1 \u002F 1   136 x 136 x 128   ->   136 x 136 x  64\n    6 conv    128  3 x 3 \u002F 1   136 x 136 x  64   ->   136 x 136 x 128\n    7 max          2 x 2 \u002F 2   136 x 136 x 128   ->    68 x  68 x 128\n    8 conv    256  3 x 3 \u002F 1    68 x  68 x 128   ->    68 x  68 x 256\n    9 conv    128  1 x 1 \u002F 1    68 x  68 x 256   ->    68 x  68 x 128\n   10 conv    256  3 x 3 \u002F 1    68 x  68 x 128   ->    68 x  68 x 256\n   11 max          2 x 2 \u002F 2    68 x  68 x 256   ->    34 x  34 x 256\n   12 conv    512  3 x 3 \u002F 1    34 x  34 x 256   ->    34 x  34 x 512\n   13 conv    256  1 x 1 \u002F 1    34 x  34 x 512   ->    34 x  34 x 256\n   14 conv    512  3 x 3 \u002F 1    34 x  34 x 256   ->    34 x  34 x 512\n   15 conv    256  1 x 1 \u002F 1    34 x  34 x 512   ->    34 x  34 x 256\n   16 conv    512  3 x 3 \u002F 1    34 x  34 x 256   ->    34 x  34 x 512\n   17 max          2 x 2 \u002F 2    34 x  34 x 512   ->    17 x  17 x 512\n   18 conv   1024  3 x 3 \u002F 1    17 x  17 x 512   ->    17 x  17 x1024\n   19 conv    512  1 x 1 \u002F 1    17 x  17 x1024   ->    17 x  17 x 512\n   20 conv   1024  3 x 3 \u002F 1    17 x  17 x 512   ->    17 x  17 x1024\n   21 conv    512  1 x 1 \u002F 1    17 x  17 x1024   ->    17 x  17 x 512\n   22 conv   1024  3 x 3 \u002F 1    17 x  17 x 512   ->    17 x  17 x1024\n   23 conv  28269  1 x 1 \u002F 1    17 x  17 x1024   ->    17 x  17 x28269\n   24 detection\n正在从 ..\u002Fyolo9000-weights\u002Fyolo9000.weights 加载权重...完成！\ndata\u002Fhorses.jpg: 预测耗时 7.556429 秒。\n野马：50%\n设特兰小马：84%\n阿伯丁安格斯牛：72%\n未使用 OpenCV 编译，因此保存为 predictions.png\n```\n\n带有边界框的图像位于 `predictions.png` 中。\n\n\n\n请访问 https:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F 查看如何编译以支持 GPU，这样速度会快得多！\n\n## GPU 支持\n\n请确保您的 NVIDIA GPU 已正确配置。`nvcc` 应该在 PATH 中。如果不在，可以执行类似以下的命令：\n\n```bash\nexport PATH=\u002Fusr\u002Flocal\u002Fcuda\u002Fbin:$PATH\nexport LD_LIBRARY_PATH=\u002Fusr\u002Flocal\u002Fcuda\u002Flib64:$LD_LIBRARY_PATH\n```\n\n现在让我们编译带有 GPU 支持的 `darknet`！\n```bash\ncd darknet\nmake clean\nvim Makefile # 将前两行改为：GPU=1 和 CUDNN=1。您也可以使用 emacs 或 nano！\nmake\n.\u002Fdarknet detector test cfg\u002Fcombine9k.data cfg\u002Fyolo9000.cfg ..\u002Fyolo9000-weights\u002Fyolo9000.weights data\u002Fdog.jpg\n```\n\n推理速度应该会快很多：\n```\n正在从 ..\u002Fyolo9000-weights\u002Fyolo9000.weights 加载权重...完成！\ndata\u002Fdog.jpg: 预测耗时 0.035112 秒。\n汽车：70%\n犬类：56%\n自行车：57%\n未编译 OpenCV，因此保存为 predictions.png\n```\n\n您还可以运行该命令并使用 `nvidia-smi` 监控其状态：\n```\n+-----------------------------------------------------------------------------+\n| NVIDIA-SMI 375.26                 驱动版本：375.26                    |\n|-------------------------------+----------------------+----------------------+\n| GPU  名称        持续性模式| 总线 ID        显示器 | 易失性错误校正 ECC |\n| 风扇  温度  性能  功率：使用\u002F上限|         内存使用情况 | GPU 利用率  计算模式 |\n|===============================+======================+======================|\n|   0  TITAN X (Pascal)    关闭  | 0000:02:00.0      打开 |                  N\u002FA |\n| 26%   49℃    P2    76W \u002F 250W |   4206MiB \u002F 12189MiB |     10%      默认 |\n+-------------------------------+----------------------+----------------------+\n|   1  TITAN X (Pascal)    关闭  | 0000:04:00.0     关闭 |                  N\u002FA |\n| 29%   50℃    P8    20W \u002F 250W |      3MiB \u002F 12189MiB |      0%      默认 |\n+-------------------------------+----------------------+----------------------+\n|   2  TITAN X (Pascal)    关闭  | 0000:05:00.0     关闭 |                  N\u002FA |\n| 31%   53℃    P8    18W \u002F 250W |      3MiB \u002F 12189MiB |      0%      默认 |\n+-------------------------------+----------------------+----------------------+\n|   3  TITAN X (Pascal)    关闭  | 0000:06:00.0     关闭 |                  N\u002FA |\n| 29%   50℃    P8    22W \u002F 250W |      3MiB \u002F 12189MiB |      0%      默认 |\n+-------------------------------+----------------------+----------------------+\n\n+-----------------------------------------------------------------------------+\n| 进程：                                                       GPU 内存 |\n|  GPU       PID  类型  进程名称                               使用量      |\n|=============================================================================|\n|    0     30782    C   .\u002Fdarknet                                     3991MiB |\n+-----------------------------------------------------------------------------+\n```\n在这里，我们可以看到我们的进程 `darknet` 正在第一块 GPU 上运行。\n\n**注意**：我们强烈建议使用配备 8GB（或更多）显存的较新 GPU，以确保流畅运行。GTX 1070、GTX 1080 Ti 或 Titan X 都是不错的选择！\n\n## 制作您自己的视频！（Ubuntu\u002FLinux）\n\n首先我们需要安装一些依赖项（OpenCV 和 ffmpeg）：\n```bash\nsudo apt-get install libopencv-dev python-opencv ffmpeg\ncd darknet\nmake clean\nvim Makefile # 将前三行改为：GPU=1、CUDNN=1 和 OPENCV=1。您也可以使用 emacs 或 nano！\nmake\n.\u002Fdarknet detector demo cfg\u002Fcombine9k.data cfg\u002Fyolo9000.cfg ..\u002Fyolo9000-weights\u002Fyolo9000.weights  -prefix output \u003C您的视频路径_mp4> -thresh 0.15\n```\n默认阈值设置为 0.25。这意味着 YOLO 只会显示置信度高于 25% 的目标边界框。实际上，较低的阈值意味着检测到的目标更多（但也可能伴随更多误检）。\n\n命令执行完毕后，我们将输出图像合并成视频：\n```bash\nffmpeg -framerate 25 -i output_%08d.jpg output.mp4\n```\n\n现在我们可以安全地删除临时生成的图像：\n```bash\nrm output_*.jpg\n```\n\n最终的视频文件是 `output.mp4`。\n\n## 将权重转换为 Keras 格式\n\n在 `yolo9000.cfg` 文件中注释掉以下几行：\n\n```\nbatch=1\nsubdivisions=1\n```\n\n然后按照以下链接中的说明操作：\n\n- https:\u002F\u002Fgithub.com\u002Fallanzelener\u002FYAD2K","# YOLO9000 快速上手指南\n\nYOLO9000 是一款实时目标检测模型，支持 9000 种物体类别的检测。本指南将帮助你在本地快速部署并运行该模型。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：Ubuntu \u002F Linux \u002F macOS（推荐 Ubuntu 16.04+）或 Windows\n- **CPU 模式**：任意现代 CPU 即可运行（速度较慢）\n- **GPU 模式（推荐）**：\n  - NVIDIA GPU（建议显存 ≥ 8GB，如 GTX 1070\u002F1080 Ti\u002FTitan X）\n  - 已安装 CUDA Toolkit 和 cuDNN\n  - 确保 `nvcc` 在环境变量 PATH 中\n\n### 前置依赖\n**Ubuntu\u002FLinux:**\n```bash\nsudo apt-get update\nsudo apt-get install git build-essential libopencv-dev python-opencv ffmpeg\n```\n\n**Windows:**\n- 安装 Git for Windows\n- 安装 Visual Studio (包含 C++ 构建工具)\n- 安装 CUDA Toolkit (如需 GPU 支持)\n\n## 安装步骤\n\n### 1. 克隆仓库\n```bash\ngit clone --recursive https:\u002F\u002Fgithub.com\u002Fphilipperemy\u002Fyolo-9000.git\ncd yolo-9000\n```\n\n### 2. 合并权重文件\n由于权重文件被分割存储，需要先合并：\n\n**Linux\u002FmacOS:**\n```bash\ncat yolo9000-weights\u002Fx* > yolo9000-weights\u002Fyolo9000.weights\n```\n\n**Windows (CMD):**\n```cmd\ntype yolo9000-weights\\xaa yolo9000-weights\\xab > yolo9000-weights\\yolo9000.weights\n```\n\n### 3. 编译 Darknet 框架\n\n**CPU 模式 (默认):**\n```bash\ncd darknet\nmake\n```\n\n**GPU 模式 (强烈推荐):**\n编辑 `darknet\u002FMakefile`，修改前两行：\n```makefile\nGPU=1\nCUDNN=1\n```\n然后执行编译：\n```bash\ncd darknet\nmake clean\nmake\n```\n*注：若需处理视频，还需将 `OPENCV=1`。*\n\n## 基本使用\n\n### 图片检测\n运行以下命令对示例图片进行检测：\n\n```bash\n.\u002Fdarknet detector test cfg\u002Fcombine9k.data cfg\u002Fyolo9000.cfg ..\u002Fyolo9000-weights\u002Fyolo9000.weights data\u002Fhorses.jpg\n```\n\n**输出说明：**\n- 终端会显示检测到的物体类别及置信度（例如：`wild horse: 50%`）。\n- 带有检测框的结果图片将保存为 `predictions.png`。\n\n### 视频检测 (需开启 OpenCV 支持)\n若已按上述步骤开启 `OPENCV=1` 并重新编译，可运行：\n\n```bash\n.\u002Fdarknet detector demo cfg\u002Fcombine9k.data cfg\u002Fyolo9000.cfg ..\u002Fyolo9000-weights\u002Fyolo9000.weights -prefix output \u003Cpath_to_your_video.mp4> -thresh 0.15\n```\n*参数说明：`-thresh 0.15` 表示置信度阈值设为 15%，降低阈值可检测更多物体但可能增加误报。*\n\n生成视频命令：\n```bash\nffmpeg -framerate 25 -i output_%08d.jpg output.mp4\nrm output_*.jpg\n```\n\n### 补充资源\n- **9000 类名称列表**: [查看名单](https:\u002F\u002Fgithub.com\u002Fpjreddie\u002Fdarknet\u002Fblob\u002F1e729804f61c8627eb257fba8b83f74e04945db7\u002Fdata\u002F9k.names)\n- **转换为 Keras 模型**: 参考 [YAD2K](https:\u002F\u002Fgithub.com\u002Fallanzelener\u002FYAD2K)","某野生动物保护组织正在利用无人机航拍视频，实时监测并统计保护区内不同物种的分布情况。\n\n### 没有 yolo-9000 时\n- **识别种类受限**：传统模型仅能识别常见的几十种动物，面对保护区内罕见的“设特兰矮马”或特定品种的牛时完全失效，导致大量数据被标记为“未知”。\n- **人工复核成本高**：由于自动分类准确率低，团队必须雇佣专家逐帧回看视频进行人工标注，处理一小时视频需耗费数天时间。\n- **响应速度滞后**：现有方案无法在无人机端实时运行，必须将数据传回服务器批量处理，无法及时发现偷猎或动物受伤等紧急情况。\n- **多模型维护复杂**：为了覆盖更多物种，不得不训练和维护多个专用小模型，切换繁琐且容易出错。\n\n### 使用 yolo-9000 后\n- **万类精准识别**：凭借支持 9000 种分类的强大能力，yolo-9000 能直接区分“野马”、“设特兰矮马”及多种牛羊，罕见物种也能被准确框选。\n- **自动化流程闭环**：系统可直接输出带置信度的物种名称（如\"Aberdeen Angus: 72%\"），大幅减少人工干预，数据处理效率提升数十倍。\n- **实时边缘计算**：得益于其\"Better, Faster, Stronger\"的特性，yolo-9000 可在嵌入式设备上实时推理，一旦发现异常立即报警。\n- **单一模型统管**：只需部署一个 yolo-9000 模型即可覆盖绝大多数需求，简化了系统架构，降低了运维难度。\n\nyolo-9000 通过其超广的分类覆盖率和实时检测能力，将野生动物监测从“事后人工统计”转变为“实时智能感知”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fphilipperemy_yolo-9000_5f790dcb.png","philipperemy","Philippe Rémy","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fphilipperemy_ab4d68d0.jpg","From Paris to Bangkok via London, Tokyo, LA. Ex @ImperialCollegeLondon. Maths, Stats, Machine Learning.   🏄 🎲 🎱 Co Founder of @skysense, an AI startup.","Imperial College London","Earth","premy.enseirb@gmail.com","philipperemy.github.io\u002Fme","https:\u002F\u002Fgithub.com\u002Fphilipperemy",null,1200,302,"2026-04-15T22:14:16","Apache-2.0",4,"Linux, macOS, Windows","非必需（支持 CPU 运行），但推荐 NVIDIA GPU；建议显存 8GB 及以上（如 GTX 1070, GTX 1080 Ti, Titan X）；需安装 CUDA 和 cuDNN（具体版本未说明，需确保 nvcc 在环境变量中）","未说明",{"notes":91,"python":89,"dependencies":92},"该项目基于 C 语言的 darknet 框架，无需 Python 环境即可运行核心功能。若需生成视频或进行 GPU 加速，需手动修改 Makefile 配置文件开启相应选项（GPU=1, CUDNN=1, OPENCV=1）。权重文件被分割存储，使用前需在 Linux\u002FMac 下使用 cat 命令或在 Windows 下使用 type 命令合并。官方强烈建议使用显存 8GB 以上的显卡以获得流畅体验。",[93,94,95,96,97],"darknet (内置)","OpenCV (可选，用于视频处理)","ffmpeg (可选，用于视频合成)","CUDA","cuDNN",[14],[100,101,102,103,104,105,64],"darknet","yolo","yolo2","deep-learning","machine-learning","yolo9000","2026-03-27T02:49:30.150509","2026-04-19T09:40:36.689664",[109,114,119,124,129,134,139],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},42149,"YOLO9000 是否支持人脸或头部检测？","虽然 9k.names 文件中包含 'face' 和 'head' 标签，但由于 YOLO9000 需要处理的类别数量过多（9000+），导致其在特定类别（如人脸）上的检测精度（mAP）较低，通常只能检测到整个人。对于专门的人脸检测需求，建议改用专用的 face_recognition 仓库（https:\u002F\u002Fgithub.com\u002Fageitgey\u002Fface_recognition）或结合 OpenCV 使用专门的 YOLO 人脸检测模型以获得更好的效果。","https:\u002F\u002Fgithub.com\u002Fphilipperemy\u002Fyolo-9000\u002Fissues\u002F3",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},42150,"运行 Python 代码时出现 'libcudart.so.10.0: cannot open shared object file' 错误怎么办？","该错误通常是因为系统无法找到 CUDA 共享库。即使命令行工具正常，Python 脚本也可能因路径问题失败。解决方法是在终端执行以下命令以更新动态链接库缓存：\nsudo ldconfig \u002Fusr\u002Flocal\u002Fcuda\u002Flib64\n此外，如果是 Python 3 环境调用 C 函数，可能需要确保将字符串转换为字节（bytes）后再传递。","https:\u002F\u002Fgithub.com\u002Fphilipperemy\u002Fyolo-9000\u002Fissues\u002F49",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},42151,"如何将 Darknet 的 9k 权重文件转换为 Keras (h5) 格式？","如果在使用当前仓库的脚本转换权重时遇到 'configparser.DuplicateOptionError' 等解析错误，建议使用专门的转换工具 YAD2K。请克隆并使用 https:\u002F\u002Fgithub.com\u002Fallanzelener\u002FYAD2K 仓库来进行权重转换操作。","https:\u002F\u002Fgithub.com\u002Fphilipperemy\u002Fyolo-9000\u002Fissues\u002F34",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},42152,"运行 YOLO9000 需要多少显存（VRAM）？","尽管在某些配置下 6GB 显存可能勉强运行，但强烈建议使用至少 8GB 显存的 GPU（如 GTX 1070）以确保稳定运行。如果在 6GB 显卡上运行失败，尝试关闭同一 GPU 上运行的其他桌面应用程序以释放资源。","https:\u002F\u002Fgithub.com\u002Fphilipperemy\u002Fyolo-9000\u002Fissues\u002F9",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},42153,"如何解读 9k.tree 文件中的层级结构数据？","9k.tree 文件定义了 9000 个类别的层级树结构。每一行代表一个节点，格式为 'NODE_NAME FATHER_INDEX'。\n1. 行号即为该节点的索引（从 0 开始）。\n2. FATHER_INDEX 表示父节点的索引：如果为 -1，表示该节点是根节点；如果是数字（如 4），则表示其父节点是第 4 行的节点。\n3. NODE_NAME（如 n00002452）对应 9k.labels 文件中的标签 ID，具体名称可在 9k.names 文件中查找。","https:\u002F\u002Fgithub.com\u002Fphilipperemy\u002Fyolo-9000\u002Fissues\u002F19",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},42154,"在 Ubuntu 上使用 GPU 生成视频时出现 FFMPEG 错误或程序崩溃如何解决？","如果遇到 'cvCreateFileCaptureWithPreference: backend FFMPEG doesn't support legacy API anymore' 警告随后导致断言失败（Assertion failed）或核心转储，这通常与 OpenCV 后端兼容性有关。建议参考 OpenCV 官方关于后端不支持遗留 API 的解决方案（例如切换视频后端或更新 OpenCV 版本），具体可查阅相关技术讨论：https:\u002F\u002Fanswers.opencv.org\u002Fquestion\u002F204785\u002F","https:\u002F\u002Fgithub.com\u002Fphilipperemy\u002Fyolo-9000\u002Fissues\u002F33",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},42155,"为什么我的 GPU 利用率很低且 FPS 非常差（仅 2-3 fps）？","如果您使用的是 AlexeyAB 的 Darknet 分支运行 YOLO9000，可能会遇到严重的性能问题。这是因为该分支与原始的 PJ Reddie Darknet 存在较大差异。解决方案是切换回原始的 Darknet 仓库（包括最新版本），原始版本在运行 YOLO9000 时性能表现正常。","https:\u002F\u002Fgithub.com\u002Fphilipperemy\u002Fyolo-9000\u002Fissues\u002F31",[]]