[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-obendidi--Tracking-with-darkflow":3,"tool-obendidi--Tracking-with-darkflow":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,52],"视频",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[14,35],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":80,"owner_website":77,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":91,"env_os":92,"env_gpu":93,"env_ram":92,"env_deps":94,"category_tags":105,"github_topics":106,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":123,"updated_at":124,"faqs":125,"releases":165},4278,"obendidi\u002FTracking-with-darkflow","Tracking-with-darkflow","Real-time people Multitracker using YOLO v2 and deep_sort with tensorflow ","Tracking-with-darkflow 是一个基于 TensorFlow 的开源项目，旨在实现实时的多目标跟踪功能。它巧妙地将 YOLO v2 强大的目标检测能力与 deep_sort 算法的轨迹追踪特性相结合，专门用于在视频流中持续锁定并标记移动对象。\n\n该工具主要解决了传统检测模型只能逐帧识别物体、无法跨帧维持身份一致性的痛点。通过引入深度关联算法，它能有效处理目标短暂遮挡或快速移动的情况，确保对同一对象的连续跟踪。目前版本主要针对“行人”跟踪进行了优化，因为其内置的深度特征提取器是专门针对人体数据训练的，不过其架构设计也保留了扩展至其他物体类型的潜力。\n\n技术亮点在于其灵活的配置选项：用户不仅可以切换 deep_sort 或 SORT 等不同追踪器，还能在低画质场景下启用背景减除（MOG）辅助检测，甚至通过跳帧策略在精度与速度之间寻找平衡。在 GTX 1080 显卡上，开启跟踪功能后仍能保持约 14 FPS 的实时处理速度。\n\n这款工具非常适合计算机视觉开发者、AI 研究人员以及需要构建视频监控或行为分析系统的工程师使用。对于希望深入理解目标跟踪流程或进行二次开发的初学者来","Tracking-with-darkflow 是一个基于 TensorFlow 的开源项目，旨在实现实时的多目标跟踪功能。它巧妙地将 YOLO v2 强大的目标检测能力与 deep_sort 算法的轨迹追踪特性相结合，专门用于在视频流中持续锁定并标记移动对象。\n\n该工具主要解决了传统检测模型只能逐帧识别物体、无法跨帧维持身份一致性的痛点。通过引入深度关联算法，它能有效处理目标短暂遮挡或快速移动的情况，确保对同一对象的连续跟踪。目前版本主要针对“行人”跟踪进行了优化，因为其内置的深度特征提取器是专门针对人体数据训练的，不过其架构设计也保留了扩展至其他物体类型的潜力。\n\n技术亮点在于其灵活的配置选项：用户不仅可以切换 deep_sort 或 SORT 等不同追踪器，还能在低画质场景下启用背景减除（MOG）辅助检测，甚至通过跳帧策略在精度与速度之间寻找平衡。在 GTX 1080 显卡上，开启跟踪功能后仍能保持约 14 FPS 的实时处理速度。\n\n这款工具非常适合计算机视觉开发者、AI 研究人员以及需要构建视频监控或行为分析系统的工程师使用。对于希望深入理解目标跟踪流程或进行二次开发的初学者来说，也是一个结构清晰、易于上手的实践案例。","## Intro\n\nThe purpose of this little project is to add object tracking to yolov2 and achieve real-time multiple object tracking.\n\nThe current architecture is set to only track one type of objects, but it should be easy to generalise over all objects.\n\nCurrently support people tracking (as the provided weights for deep_sort were trained on people tracking)\n\n## Dependencies\n\n    python\n    numpy\n    opencv 3\n    tensorflow 1.0\n    Cython.\n    sklean.\n\nfor using sort :\n\n[`scikit-learn`](http:\u002F\u002Fscikit-learn.org\u002Fstable\u002F)\n\n[`scikit-image`](http:\u002F\u002Fscikit-image.org\u002Fdownload)\n\n[`FilterPy`](https:\u002F\u002Fgithub.com\u002Frlabbe\u002Ffilterpy)\n\n\n### Setup\n\n1 - Clone this repository : `git clone https:\u002F\u002Fgithub.com\u002Fbendidi\u002FTracking-with-darkflow.git`\n\n2 - Initialize all submodules: `git submodule update --init --recursive`\n\n3 - Go to darkflow directory and do in place build: `python3 setup.py build_ext --inplace`\n\n## Getting started\n\nDownload the weights :\n\nRead more about YOLO (in darknet) and download weight files [here](http:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F),In case the weight file cannot be found, [thtrieu](https:\u002F\u002Fgithub.com\u002Fthtrieu) has uploaded some of his [here](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F0B1tW_VtY7onidEwyQ2FtQVplWEU), which include `yolo-full` and `yolo-tiny` of v1.0, `tiny-yolo-v1.1` of v1.1 and `yolo`, `tiny-yolo-voc` of v2.\n\nThe artchitecture I used\u002Ftested in this project is `cfg\u002Fyolo.cfg` with the weights `bin\u002Fyolo.weights`.\n\n~~Next you need to download the deep_sort weights [here](https:\u002F\u002Fowncloud.uni-koblenz.de\u002Fowncloud\u002Fs\u002Ff9JB0Jr7f3zzqs8?path=%2Fresources) (networks folder), provided by [nwojke](https:\u002F\u002Fgithub.com\u002Fnwojke)~~\n\nThe deep_sort weights provided by [nwojke](https:\u002F\u002Fgithub.com\u002Fnwojke) has been cancelled. you can get them from [here](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1eXm0EB8r4BywqHJzaorXTSOkIfFdTq59) instead ( thanks to [@louxy126](https:\u002F\u002Fgithub.com\u002Flouxy126) )\n\nextract the folder and copy it to `deep_sort\u002Fresources`\n\nEdit Flags in `run.py` following your configuration :\n\n- `demo` : path to video file to use, set to \"camera\" if you wish to use your camera\n- `model` : what model configuration to use for YOLO, you can get more information and .cfg files in [here](http:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F)(put them in darkflow\u002Fcfg\u002F folder)\n- `load` : The  corresponding weights to use with the chosen model (put them in darkflow\u002Fbin\u002F) more info in [here](http:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F)\n- `threshold` : the confidance threshold of the YOLO detections\n- `gpu` : How much GPU to use, 0 means use cpu\n- `track` : to activate tracking or Not\n- `trackObj`: which objects to track as a list (notice that deep_sort's encoder was only trained on people , so you need train your own encoder, more information in [here](https:\u002F\u002Fgithub.com\u002Fnwojke\u002Fdeep_sort\u002Fissues\u002F7))\n- `saveVideo` : whether to save video or not\n- `BK_MOG` : add opencv's MOG background subtraction module, only useful when YOLO can't detect people in a video (low quality, ...) use it to detect boxes around moving objects\n- `tracker` : which tracker to use : \"deep_sort\" or \"sort\"\n\n            **NOTE** : \"deep_sort\" only supports people tracking as it was only trained to track people(the code for training is not yet published)\n\n            **TODO** : add support for GOTURN tracker(tensorflow implementation)\n\n            **TODO** : add support for opencv trackers (MIL,KCF,TLD,MEDIANFLOW)\n\n- `skip ` : skip frames to increase fps, might decrease accuracy !\n- `csv` : save csv file of detections in the format (frame_id,object_id,x,y,w,h)\n- `display` : display video while processing or Not\n\nNext you just have to run `python run.py`, and enjoy !\n\n## Some numbers :\n\n`speed using yolo.cfg:\n\n    YOLO with track Flag set to False : 30fps\n\n    YOLO with track Flag set to True (deep_sort) : 14 fps\n\n    YOLO with track and background subtraction Flags set to True : 10.5 fps\n\nTests done on (1024, 1280, 3) resolution video on Nvidia GTX 1080\n\nskipping up to 3 frames allows for more speed up while keeping accuracy of tracking`\n\n\n\n## Disclamer :\n\nthis project is using code forked from:\n\n[thtrieu\u002Fdarkflow](https:\u002F\u002Fgithub.com\u002Fthtrieu\u002Fdarkflow): for the real-time object detections and classifications.\n\n[nwojke\u002Fdeep_sort](https:\u002F\u002Fgithub.com\u002Fnwojke\u002Fdeep_sort): for Simple Online Realtime Tracking with a Deep Association Metric.\n\nPlease follow the links to get an understanding of all the features of each project.\n\n## Citation\n\n### Yolov2 :\n\n    @article{redmon2016yolo9000,\n      title={YOLO9000: Better, Faster, Stronger},\n      author={Redmon, Joseph and Farhadi, Ali},\n      journal={arXiv preprint arXiv:1612.08242},\n      year={2016}\n    }\n\n### deep_sort :\n\n    @article{Wojke2017simple,\n      title={Simple Online and Realtime Tracking with a Deep Association Metric},\n      author={Wojke, Nicolai and Bewley, Alex and Paulus, Dietrich},\n      journal={arXiv preprint arXiv:1703.07402},\n      year={2017}\n    }\n\n### sort :\n\n    @inproceedings{Bewley2016_sort,\n      author={Bewley, Alex and Ge, Zongyuan and Ott, Lionel and Ramos, Fabio and Upcroft, Ben},\n      booktitle={2016 IEEE International Conference on Image Processing (ICIP)},\n      title={Simple online and realtime tracking},\n      year={2016},\n      pages={3464-3468},\n      keywords={Benchmark testing;Complexity theory;Detectors;Kalman filters;Target tracking;Visualization;Computer Vision;Data Association;Detection;Multiple Object Tracking},\n      doi={10.1109\u002FICIP.2016.7533003}\n    }\n","## 简介\n\n这个小项目的目的是在 YOLOv2 的基础上加入目标跟踪功能，实现多目标的实时跟踪。\n\n目前的架构仅支持跟踪单一类别的目标，但很容易扩展到对所有类别目标的跟踪。\n\n当前主要支持人体跟踪（因为提供的 deep_sort 权重是基于人体跟踪训练的）。\n\n## 依赖项\n\n    python\n    numpy\n    opencv 3\n    tensorflow 1.0\n    Cython。\n    sklean。\n\n使用 SORT 时需要：\n\n[`scikit-learn`](http:\u002F\u002Fscikit-learn.org\u002Fstable\u002F)\n\n[`scikit-image`](http:\u002F\u002Fscikit-image.org\u002Fdownload)\n\n[`FilterPy`](https:\u002F\u002Fgithub.com\u002Frlabbe\u002Ffilterpy)\n\n\n### 设置\n\n1 - 克隆本仓库：`git clone https:\u002F\u002Fgithub.com\u002Fbendidi\u002FTracking-with-darkflow.git`\n\n2 - 初始化所有子模块：`git submodule update --init --recursive`\n\n3 - 进入 darkflow 目录并进行原地编译：`python3 setup.py build_ext --inplace`\n\n## 开始使用\n\n下载权重文件：\n\n关于 YOLO（在 Darknet 中）的更多信息及权重文件可在此处下载 [这里](http:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F)。如果无法找到权重文件，[thtrieu](https:\u002F\u002Fgithub.com\u002Fthtrieu) 已经上传了一些权重 [这里](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F0B1tW_VtY7onidEwyQ2FtQVplWEU)，其中包括 v1.0 的 `yolo-full` 和 `yolo-tiny`、v1.1 的 `tiny-yolo-v1.1`，以及 v2 的 `yolo` 和 `tiny-yolo-voc`。\n\n我在该项目中使用和测试的架构是 `cfg\u002Fyolo.cfg`，对应的权重文件为 `bin\u002Fyolo.weights`。\n\n~~接下来你需要从 [这里](https:\u002F\u002Fowncloud.uni-koblenz.de\u002Fowncloud\u002Fs\u002Ff9JB0Jr7f3zzqs8?path=%2Fresources) 下载 deep_sort 的权重文件（networks 文件夹），这些权重由 [nwojke](https:\u002F\u002Fgithub.com\u002Fnwojke) 提供~~\n\n[nwojke](https:\u002F\u002Fgithub.com\u002Fnwojke) 提供的 deep_sort 权重已被取消。你可以改从 [这里](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1eXm0EB8r4BywqHJzaorXTSOkIfFdTq59) 获取（感谢 [@louxy126](https:\u002F\u002Fgithub.com\u002Flouxy126)）。\n\n解压文件夹后将其复制到 `deep_sort\u002Fresources` 目录下。\n\n根据你的配置编辑 `run.py` 中的参数：\n\n- `demo`：要使用的视频文件路径；如果你想使用摄像头，则设置为 \"camera\"。\n- `model`：用于 YOLO 的模型配置文件，更多信息和 .cfg 文件可在 [这里](http:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F) 查找（请将它们放入 darkflow\u002Fcfg\u002F 目录）。\n- `load`：与所选模型对应的权重文件（请将其放入 darkflow\u002Fbin\u002F 目录）。更多详情请参阅 [这里](http:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F)。\n- `threshold`：YOLO 检测的置信度阈值。\n- `gpu`：使用的 GPU 数量，0 表示使用 CPU。\n- `track`：是否启用跟踪功能。\n- `trackObj`：要跟踪的目标列表（请注意，deep_sort 的编码器仅针对人体进行了训练，因此你需要自己训练编码器，更多信息请参阅 [这里](https:\u002F\u002Fgithub.com\u002Fnwojke\u002Fdeep_sort\u002Fissues\u002F7))。\n- `saveVideo`：是否保存输出视频。\n- `BK_MOG`：添加 OpenCV 的 MOG 背景减除模块，仅在 YOLO 无法检测视频中的人体时有用（例如视频质量较低等情况），可用于检测运动物体周围的框。\n- `tracker`：使用的跟踪算法：“deep_sort” 或 “sort”。\n\n            **注意**：“deep_sort” 目前仅支持人体跟踪，因为它只经过人体跟踪的训练（其训练代码尚未公开）。\n\n            **待办事项**：增加对 GOTURN 跟踪器（TensorFlow 实现）的支持。\n\n            **待办事项**：增加对 OpenCV 跟踪器（MIL、KCF、TLD、MEDIANFLOW）的支持。\n\n- `skip`：跳过帧以提高 FPS，但可能会降低跟踪精度！\n- `csv`：以 (frame_id, object_id, x, y, w, h) 格式保存检测结果的 CSV 文件。\n- `display`：处理过程中是否显示视频。\n\n接下来只需运行 `python run.py`，即可享受成果！\n\n## 一些数据：\n\n使用 yolo.cfg 的速度：\n\n    YOLO 未启用跟踪功能：30 fps\n\n    YOLO 启用跟踪功能（deep_sort）：14 fps\n\n    YOLO 启用跟踪和背景减除功能：10.5 fps\n\n测试在分辨率为 (1024, 1280, 3) 的视频上进行，硬件为 Nvidia GTX 1080。\n\n跳过最多 3 帧可以在保持跟踪精度的同时进一步提升速度。\n\n\n\n## 免责声明：\n\n本项目使用了以下项目的代码分支：\n\n[thtrieu\u002Fdarkflow](https:\u002F\u002Fgithub.com\u002Fthtrieu\u002Fdarkflow)：用于实时目标检测和分类。\n\n[nwojke\u002Fdeep_sort](https:\u002F\u002Fgithub.com\u002Fnwojke\u002Fdeep_sort)：用于基于深度关联度量的简单在线实时跟踪。\n\n请访问上述链接以了解每个项目的详细功能。\n\n## 引用\n\n### YOLOv2：\n\n    @article{redmon2016yolo9000,\n      title={YOLO9000: Better, Faster, Stronger},\n      author={Redmon, Joseph and Farhadi, Ali},\n      journal={arXiv preprint arXiv:1612.08242},\n      year={2016}\n    }\n\n### deep_sort：\n\n    @article{Wojke2017simple,\n      title={Simple Online and Realtime Tracking with a Deep Association Metric},\n      author={Wojke, Nicolai and Bewley, Alex and Paulus, Dietrich},\n      journal={arXiv preprint arXiv:1703.07402},\n      year={2017}\n    }\n\n### SORT：\n\n    @inproceedings{Bewley2016_sort,\n      author={Bewley, Alex and Ge, Zongyuan and Ott, Lionel and Ramos, Fabio and Upcroft, Ben},\n      booktitle={2016 IEEE International Conference on Image Processing (ICIP)},\n      title={Simple online and realtime tracking},\n      year={2016},\n      pages={3464-3468},\n      keywords={Benchmark testing;Complexity theory;Detectors;Kalman filters;Target tracking;Visualization;Computer Vision;Data Association;Detection;Multiple Object Tracking},\n      doi={10.1109\u002FICIP.2016.7533003}\n    }","# Tracking-with-darkflow 快速上手指南\n\n本指南旨在帮助开发者快速部署基于 YOLOv2 和 Deep SORT 的实时多目标跟踪项目。目前该架构主要针对**行人跟踪**进行了优化（因预训练权重仅针对行人训练）。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux \u002F macOS (Windows 需额外配置编译环境)\n*   **Python**: Python 3.x\n*   **GPU**: 推荐使用 NVIDIA GPU (需安装 CUDA)，若使用 CPU 请将 `gpu` 参数设为 0。\n\n### 前置依赖\n\n请通过 pip 安装以下核心依赖库：\n\n```bash\npip install numpy opencv-python tensorflow==1.0 Cython scikit-learn scikit-image FilterPy\n```\n\n> **注意**: 本项目基于 TensorFlow 1.0 开发，高版本 TF 可能存在兼容性问题。建议使用虚拟环境隔离。\n\n## 安装步骤\n\n### 1. 克隆仓库并初始化子模块\n\n该项目依赖 `darkflow` 和 `deep_sort` 子模块，务必递归初始化。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fbendidi\u002FTracking-with-darkflow.git\ncd Tracking-with-darkflow\ngit submodule update --init --recursive\n```\n\n### 2. 编译 Darkflow\n\n进入 darkflow 目录进行原地构建：\n\n```bash\ncd darkflow\npython3 setup.py build_ext --inplace\ncd ..\n```\n\n### 3. 下载模型权重\n\n本项目需要两类权重文件：**YOLO 检测权重** 和 **Deep SORT 特征提取权重**。\n\n#### A. YOLO 权重\n下载 `yolo.weights` 和对应的配置文件 `yolo.cfg`。\n*   **官方源**: [YOLO Weights](http:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F)\n*   **备用源 (Google Drive)**: [thtrieu weights](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F0B1tW_VtY7onidEwyQ2FtQVplWEU)\n\n将 `.cfg` 文件放入 `darkflow\u002Fcfg\u002F` 目录，将 `.weights` 文件放入 `darkflow\u002Fbin\u002F` 目录。\n*本指南测试使用的架构为：`cfg\u002Fyolo.cfg` 配合 `bin\u002Fyolo.weights`。*\n\n#### B. Deep SORT 权重\n由于原链接失效，请使用以下 Google Drive 链接下载预处理好的权重：\n*   **下载地址**: [Deep Sort Weights](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1eXm0EB8r4BywqHJzaorXTSOkIfFdTq59)\n\n下载后解压，将整个文件夹复制到项目的 `deep_sort\u002Fresources` 目录下。\n\n## 基本使用\n\n### 配置运行参数\n\n编辑根目录下的 `run.py` 文件，根据您的硬件和需求修改以下标志位（Flags）：\n\n| 参数 | 说明 | 推荐设置 |\n| :--- | :--- | :--- |\n| `demo` | 视频路径，设为 `\"camera\"` 使用摄像头 | `\"camera\"` 或视频文件路径 |\n| `model` | YOLO 配置文件名 (位于 darkflow\u002Fcfg\u002F) | `\"yolo.cfg\"` |\n| `load` | YOLO 权重文件名 (位于 darkflow\u002Fbin\u002F) | `\"yolo.weights\"` |\n| `threshold` | YOLO 检测置信度阈值 | `0.5` |\n| `gpu` | GPU 使用比例，`0` 表示使用 CPU | `1.0` (若有 GPU) |\n| `track` | 是否开启跟踪功能 | `True` |\n| `trackObj` | 要跟踪的对象列表 | `['person']` (仅支持行人) |\n| `tracker` | 跟踪算法选择 | `\"deep_sort\"` |\n| `display` | 是否实时显示画面 | `True` |\n\n> **重要提示**: `deep_sort` 默认仅支持跟踪**行人 (person)**。若需跟踪其他物体，需重新训练 Deep SORT 的特征编码器。\n\n### 运行程序\n\n完成上述配置后，在项目根目录执行：\n\n```bash\npython run.py\n```\n\n程序启动后将读取视频流或摄像头画面，实时框选并追踪行人。\n\n### 性能参考\n在 Nvidia GTX 1080 + 1024x1280 分辨率下：\n*   仅 YOLO 检测：约 30 FPS\n*   YOLO + Deep SORT 跟踪：约 14 FPS\n*   开启背景减除 (MOG)：约 10.5 FPS\n\n可通过设置 `skip` 参数跳帧以提升速度，但可能会轻微降低跟踪精度。","某智慧园区安保团队正在利用监控摄像头对出入口人流进行实时统计与轨迹分析，以优化高峰时段的疏导策略。\n\n### 没有 Tracking-with-darkflow 时\n- **身份识别断层**：传统的 YOLO 目标检测仅能逐帧识别人体，无法关联连续帧中的同一人，导致经过摄像头的人员被重复计数，数据严重失真。\n- **轨迹信息缺失**：系统只能输出当前帧的静态坐标，无法还原人员的移动路径，安保人员难以回溯可疑人员在园区内的具体行动路线。\n- **遮挡处理失效**：当多人交叉走过或短暂被柱子遮挡时，检测框会频繁跳变或丢失目标，造成监控画面中目标 ID 不断重置，人工复核成本极高。\n- **实时性不足**：若尝试自行编写逻辑来关联前后帧目标，算法复杂度剧增，在普通服务器上难以维持流畅的视频处理速度。\n\n### 使用 Tracking-with-darkflow 后\n- **持续身份锁定**：结合 Deep_SORT 算法，Tracking-with-darkflow 能为每个进入画面的人分配唯一 ID，即使短暂消失再出现也能准确找回，确保人流统计数据精准无误。\n- **完整轨迹复现**：系统自动输出带有时间戳的运动轨迹坐标（支持 CSV 导出），管理者可清晰可视化每个人的行进路线，快速定位异常徘徊行为。\n- **抗干扰能力增强**：得益于深度特征匹配，即便在人群密集交叉或轻微遮挡场景下，依然能稳定跟踪目标，大幅减少了 ID 切换错误。\n- **高效实时运行**：在 GTX 1080 显卡上可实现约 14fps 的实时多目标跟踪，无需额外开发复杂的关联逻辑，直接部署即可满足安防监控的时效要求。\n\nTracking-with-darkflow 通过将高精度检测与深度关联算法无缝融合，让监控系统从“看见人”升级为“看懂人”，显著提升了安防数据分析的智能化水平。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fobendidi_Tracking-with-darkflow_44d7e703.png","obendidi","Ouail Bendidi","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fobendidi_cdca8d19.jpg","Data engineer, MLOps, Machine learning\r\n",null,"Paris","ouail.bendidi@gmail.com","ouail_bendidi","https:\u002F\u002Fgithub.com\u002Fobendidi",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,523,173,"2025-12-03T22:59:00","GPL-3.0",4,"未说明","非必需（可配置为 CPU），测试环境为 Nvidia GTX 1080",{"notes":95,"python":96,"dependencies":97},"该项目基于较旧的 TensorFlow 1.0 和 OpenCV 3，现代环境可能需要降级或兼容处理。默认提供的 deep_sort 权重仅支持行人跟踪，若需跟踪其他物体需自行训练编码器。运行前需手动下载 YOLO 权重文件和 deep_sort 资源文件并放置到指定目录。可通过跳过帧数（skip 参数）在低配硬件上提升速度。","Python 3 (README 中构建命令使用 python3)",[98,99,100,101,102,103,104],"numpy","opencv 3","tensorflow 1.0","Cython","scikit-learn","scikit-image","FilterPy",[14,15],[107,108,109,110,111,112,113,114,115,116,117,118,119,120,121,122],"tensorflow","darknet","darkflow","yolo","yolo2","sort","tracker","multitracker","real-time","deep-learning","deep-neural-networks","machine-learning","object-detection","image-processing","convolutional-neural-networks","mobile-development","2026-03-27T02:49:30.150509","2026-04-06T15:55:53.967475",[126,131,136,141,146,151,156,161],{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},19471,"如何在视频处理中保存带有边界框的跟踪结果视频？","确保在代码或配置标志中启用了视频保存功能。用户反馈表明，需要将 `self.FLAGS.saveVideo` 替换为正确的 `save` 标志，或者检查是否设置了相应的保存参数。如果未正确设置，视频将不会生成。","https:\u002F\u002Fgithub.com\u002Fobendidi\u002FTracking-with-darkflow\u002Fissues\u002F13",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},19472,"使用 SORT 算法时无法显示跟踪框，但检测框正常，如何解决？","这是一个已知的代码逻辑问题。解决方案是注释掉 `Tracking-with-darkflow\u002Fdarkflow\u002Fnet\u002Fyolov2\u002Fpredict.py` 文件中的第 100 行和 101 行代码：\n```python\n#if mess not in self.FLAGS.trackObj :\n#    continue\n```\n注释这两行后，SORT 算法即可正常接收检测框并显示跟踪结果。","https:\u002F\u002Fgithub.com\u002Fobendidi\u002FTracking-with-darkflow\u002Fissues\u002F40",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},19473,"在 Python 3 环境下运行时报错 'TypeError: a bytes-like object is required, not str' 怎么办？","这是 Python 2 和 Python 3 在处理文件写入时的差异导致的。请打开 `darkflow\u002Fdarkflow\u002Fnet\u002Fhelp.py` 文件，找到第 106 行，将文件打开模式从 `'wb'`（二进制写入）改为 `'w'`（文本写入）即可解决该错误。","https:\u002F\u002Fgithub.com\u002Fobendidi\u002FTracking-with-darkflow\u002Fissues\u002F4",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},19474,"在 macOS 上使用 SORT 时遇到 Matplotlib 后端错误 (RuntimeError) 如何解决？","这是 macOS 上 Python 框架与 Matplotlib 后端冲突的问题。建议执行以下操作之一：\n1. 重新安装作为框架版本的 Python；\n2. 如果使用 (Ana)Conda，请安装 `python.app` 包，并将运行命令中的 `python` 替换为 `pythonw`；\n3. 尝试切换 Matplotlib 的其他后端。","https:\u002F\u002Fgithub.com\u002Fobendidi\u002FTracking-with-darkflow\u002Fissues\u002F2",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},19475,"运行时出现 'AttributeError: module object has no attribute bgsegm' 错误怎么办？","该错误通常是因为安装的 OpenCV 版本不包含 `bgsegm` 模块（背景分割模块）。解决方法是卸载当前 OpenCV 并安装包含 contrib 模块的版本，例如使用命令：`pip install opencv-contrib-python`。这将确保 `cv2.bgsegm` 可用。","https:\u002F\u002Fgithub.com\u002Fobendidi\u002FTracking-with-darkflow\u002Fissues\u002F42",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},19476,"遇到 TensorFlow 与 CUDA 版本不兼容的错误（如不支持 CUDA 9）如何解决？","错误表明当前的 TensorFlow GPU 版本尚不支持 CUDA 9。维护者建议降级 CUDA 版本至 8.0。在 Ubuntu 系统上，可以通过运行 `apt-get install cuda-8.0` 来安装兼容的 CUDA 版本，或者暂时改用 CPU 模式运行。","https:\u002F\u002Fgithub.com\u002Fobendidi\u002FTracking-with-darkflow\u002Fissues\u002F23",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},19477,"项目是否支持无人机 (UAV) 数据或自定义数据集的训练？","项目主要设计用于通用视频跟踪。对于 UAV 数据或自定义类别（如特定标志或物体），直接使用预训练模型效果可能不佳。虽然 Deep SORT 的训练代码未公开，但用户可以尝试使用自己的数据集重新训练分类网络（Classifier Net），或者调整 YOLO 模型的阈值和配置以适应特定场景。","https:\u002F\u002Fgithub.com\u002Fobendidi\u002FTracking-with-darkflow\u002Fissues\u002F16",{"id":162,"question_zh":163,"answer_zh":164,"source_url":155},19478,"能否同时跟踪不同类别的对象（如人和动物）并保持 ID 一致？","是的，该项目可以扩展以跟踪不同类别的对象。由于底层的 YOLO 模型支持多类别检测，跟踪算法（SORT 或 Deep SORT）理论上可以为不同类别的物体分配并保持唯一的 ID。用户只需确保检测模型能够识别这些类别即可。",[]]