[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Sharpiless--Yolov5-deepsort-inference":3,"tool-Sharpiless--Yolov5-deepsort-inference":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",148568,2,"2026-04-09T23:34:24",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":73,"owner_twitter":73,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":10,"env_os":89,"env_gpu":90,"env_ram":91,"env_deps":92,"category_tags":106,"github_topics":108,"view_count":32,"oss_zip_url":73,"oss_zip_packed_at":73,"status":17,"created_at":115,"updated_at":116,"faqs":117,"releases":158},6113,"Sharpiless\u002FYolov5-deepsort-inference","Yolov5-deepsort-inference","Yolov5 deepsort inference，使用YOLOv5+Deepsort实现车辆行人追踪和计数，代码封装成一个Detector类，更容易嵌入到自己的项目中","Yolov5-deepsort-inference 是一款将 YOLOv5 目标检测算法与 DeepSort 跟踪技术深度融合的开源工具，专为解决视频流中车辆与行人的实时追踪及计数难题而设计。它不仅能精准识别画面中的目标，还能在连续帧中稳定锁定其运动轨迹，有效避免重复计数或目标丢失，非常适合智慧交通监控、人流统计分析等场景。\n\n该工具特别面向开发者与计算机视觉研究人员。其核心亮点在于高度的工程化封装：作者将复杂的检测与跟踪逻辑整合为一个简洁的 `Detector` 类。用户只需几行代码即可初始化模型并调用接口，轻松将功能嵌入到自己的项目中，无需从零搭建繁琐的底层架构。此外，它支持加载自定义训练的 YOLOv5 权重，允许用户针对特定场景优化模型表现。无论是需要快速验证算法原型的科研人员，还是致力于落地智能监控应用的工程师，Yolov5-deepsort-inference 都能提供一个高效、灵活且易于集成的解决方案。","\n# **YOLOv5 + DeepSort 用于目标跟踪与计数**  \n🚗🚶‍♂️ **使用 YOLOv5 和 DeepSort 实现车辆与行人实时跟踪与计数**\n\n[![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSharpiless\u002FYolov5-deepsort-inference?style=social)](https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYolov5-deepsort-inference)  [![GitHub forks](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002FSharpiless\u002FYolov5-deepsort-inference?style=social)](https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYolov5-deepsort-inference)  [![License](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FSharpiless\u002FYolov5-deepsort-inference)](https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYolov5-deepsort-inference\u002Fblob\u002Fmain\u002FLICENSE)\n\n最新版本：[https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYOLOv11-DeepSort](https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYOLOv11-DeepSort)\n\n---\n\n## **📌 项目简介**\n\n本项目将 **YOLOv5** 与 **DeepSort** 相结合，实现了对目标的实时跟踪与计数。提供了一个封装的 `Detector` 类，方便将此功能嵌入到自定义项目中。  \n\n🔗 **阅读完整博客**：[【小白CV教程】YOLOv5+Deepsort实现车辆行人的检测、追踪和计数](https:\u002F\u002Fblog.csdn.net\u002Fweixin_44936889\u002Farticle\u002Fdetails\u002F112002152)\n\n---\n\n## **🚀 核心功能**\n\n- **目标跟踪**：实时跟踪车辆与行人。\n- **计数功能**：轻松统计视频流中的车辆或行人数。\n- **封装式接口**：`Detector` 类封装了检测与跟踪逻辑，便于集成。\n- **高度自定义**：支持训练自己的 YOLOv5 模型并无缝接入框架。\n\n---\n\n## **🔧 使用说明**\n\n### **安装依赖**\n```bash\npip install -r requirements.txt\n```\n\n确保安装了 `requirements.txt` 文件中列出的所有依赖。\n### **运行 Demo**\n```bash\npython demo.py\n```\n---\n\n## **🛠️ 开发说明**\n\n### **YOLOv5 检测器**\n\n```python\nclass Detector(baseDet):\n\n    def __init__(self):\n        super(Detector, self).__init__()\n        self.init_model()\n        self.build_config()\n\n    def init_model(self):\n\n        self.weights = 'weights\u002Fyolov5m.pt'\n        self.device = '0' if torch.cuda.is_available() else 'cpu'\n        self.device = select_device(self.device)\n        model = attempt_load(self.weights, map_location=self.device)\n        model.to(self.device).eval()\n        model.half()\n        # torch.save(model, 'test.pt')\n        self.m = model\n        self.names = model.module.names if hasattr(\n            model, 'module') else model.names\n\n    def preprocess(self, img):\n\n        img0 = img.copy()\n        img = letterbox(img, new_shape=self.img_size)[0]\n        img = img[:, :, ::-1].transpose(2, 0, 1)\n        img = np.ascontiguousarray(img)\n        img = torch.from_numpy(img).to(self.device)\n        img = img.half()  # 半精度\n        img \u002F= 255.0  # 图像归一化\n        if img.ndimension() == 3:\n            img = img.unsqueeze(0)\n\n        return img0, img\n\n    def detect(self, im):\n\n        im0, img = self.preprocess(im)\n\n        pred = self.m(img, augment=False)[0]\n        pred = pred.float()\n        pred = non_max_suppression(pred, self.threshold, 0.4)\n\n        pred_boxes = []\n        for det in pred:\n\n            if det is not None and len(det):\n                det[:, :4] = scale_coords(\n                    img.shape[2:], det[:, :4], im0.shape).round()\n\n                for *x, conf, cls_id in det:\n                    lbl = self.names[int(cls_id)]\n                    if not lbl in ['person', 'car', 'truck']:\n                        continue\n                    x1, y1 = int(x[0]), int(x[1])\n                    x2, y2 = int(x[2]), int(x[3])\n                    pred_boxes.append(\n                        (x1, y1, x2, y2, lbl, conf))\n\n        return im, pred_boxes\n```\n- 调用 `self.detect()` 方法返回图像和预测结果\n### **DeepSort 追踪器**\n\n```python\ndeepsort = DeepSort(cfg.DEEPSORT.REID_CKPT,\n                    max_dist=cfg.DEEPSORT.MAX_DIST, min_confidence=cfg.DEEPSORT.MIN_CONFIDENCE,\n                    nms_max_overlap=cfg.DEEPSORT.NMS_MAX_OVERLAP, max_iou_distance=cfg.DEEPSORT.MAX_IOU_DISTANCE,\n                    max_age=cfg.DEEPSORT.MAX_AGE, n_init=cfg.DEEPSORT.N_INIT, nn_budget=cfg.DEEPSORT.NN_BUDGET,\n                    use_cuda=True)\n```\n- 调用 `self.update()` 方法更新追踪结果\n---\n\n## **📊 训练自己的模型**\n\n如果需要训练自定义的 YOLOv5 模型，请参考以下教程：  \n[【小白CV】手把手教你用YOLOv5训练自己的数据集（从Windows环境配置到模型部署）](https:\u002F\u002Fblog.csdn.net\u002Fweixin_44936889\u002Farticle\u002Fdetails\u002F110661862)\n\n训练完成后，将模型权重文件放置于 `weights` 文件夹中。\n\n---\n\n## **📦 API 调用**\n\n### **初始化检测器**\n```python\nfrom AIDetector_pytorch import Detector\n\ndet = Detector()\n```\n\n### **调用检测接口**\n```python\nfunc_status = {}\nfunc_status['headpose'] = None\n\nresult = det.feedCap(im, func_status)\n```\n\n- `im`: 输入的 BGR 图像。\n- `result['frame']`: 检测结果的可视化图像。\n\n---\n\n## **✨ 可视化效果**\n\n![效果图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSharpiless_Yolov5-deepsort-inference_readme_15974831f552.png)\n\n---\n\n## **📚 联系作者** \n  - Bilibili: [https:\u002F\u002Fspace.bilibili.com\u002F470550823](https:\u002F\u002Fspace.bilibili.com\u002F470550823)  \n  - CSDN: [https:\u002F\u002Fblog.csdn.net\u002Fweixin_44936889](https:\u002F\u002Fblog.csdn.net\u002Fweixin_44936889)  \n  - AI Studio: [https:\u002F\u002Faistudio.baidu.com\u002Faistudio\u002Fpersonalcenter\u002Fthirdview\u002F67156](https:\u002F\u002Faistudio.baidu.com\u002Faistudio\u002Fpersonalcenter\u002Fthirdview\u002F67156)  \n  - GitHub: [https:\u002F\u002Fgithub.com\u002FSharpiless](https:\u002F\u002Fgithub.com\u002FSharpiless)  \n\n---\n\n\u003Cpicture>\n  \u003Csource\n    media=\"(prefers-color-scheme: dark)\"\n    srcset=\"\n      https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSharpiless_Yolov5-deepsort-inference_readme_5c4ba8f93989.png&theme=dark\n    \"\n  \u002F>\n  \u003Csource\n    media=\"(prefers-color-scheme: light)\"\n    srcset=\"\n      https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSharpiless_Yolov5-deepsort-inference_readme_5c4ba8f93989.png\n    \"\n  \u002F>\n  \u003Cimg\n    alt=\"Star History Chart\"\n    src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSharpiless_Yolov5-deepsort-inference_readme_5c4ba8f93989.png\"\n  \u002F>\n\u003C\u002Fpicture>\n\n## **💡 许可证**\n\n本项目遵循 **GNU General Public License v3.0** 协议。  \n**标明目标检测部分来源**：[https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5)\n","# **YOLOv5 + DeepSort 用于目标跟踪与计数**  \n🚗🚶‍♂️ **使用 YOLOv5 和 DeepSort 实现车辆与行人实时跟踪与计数**\n\n[![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSharpiless\u002FYolov5-deepsort-inference?style=social)](https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYolov5-deepsort-inference)  [![GitHub forks](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002FSharpiless\u002FYolov5-deepsort-inference?style=social)](https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYolov5-deepsort-inference)  [![License](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FSharpiless\u002FYolov5-deepsort-inference)](https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYolov5-deepsort-inference\u002Fblob\u002Fmain\u002FLICENSE)\n\n最新版本：[https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYOLOv11-DeepSort](https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYOLOv11-DeepSort)\n\n---\n\n## **📌 项目简介**\n\n本项目将 **YOLOv5** 与 **DeepSort** 相结合，实现了对目标的实时跟踪与计数。提供了一个封装的 `Detector` 类，方便将此功能嵌入到自定义项目中。  \n\n🔗 **阅读完整博客**：[【小白CV教程】YOLOv5+Deepsort实现车辆行人的检测、追踪和计数](https:\u002F\u002Fblog.csdn.net\u002Fweixin_44936889\u002Farticle\u002Fdetails\u002F112002152)\n\n---\n\n## **🚀 核心功能**\n\n- **目标跟踪**：实时跟踪车辆与行人。\n- **计数功能**：轻松统计视频流中的车辆或行人数。\n- **封装式接口**：`Detector` 类封装了检测与跟踪逻辑，便于集成。\n- **高度自定义**：支持训练自己的 YOLOv5 模型并无缝接入框架。\n\n---\n\n## **🔧 使用说明**\n\n### **安装依赖**\n```bash\npip install -r requirements.txt\n```\n\n确保安装了 `requirements.txt` 文件中列出的所有依赖。\n### **运行 Demo**\n```bash\npython demo.py\n```\n---\n\n## **🛠️ 开发说明**\n\n### **YOLOv5 检测器**\n\n```python\nclass Detector(baseDet):\n\n    def __init__(self):\n        super(Detector, self).__init__()\n        self.init_model()\n        self.build_config()\n\n    def init_model(self):\n\n        self.weights = 'weights\u002Fyolov5m.pt'\n        self.device = '0' if torch.cuda.is_available() else 'cpu'\n        self.device = select_device(self.device)\n        model = attempt_load(self.weights, map_location=self.device)\n        model.to(self.device).eval()\n        model.half()\n        # torch.save(model, 'test.pt')\n        self.m = model\n        self.names = model.module.names if hasattr(\n            model, 'module') else model.names\n\n    def preprocess(self, img):\n\n        img0 = img.copy()\n        img = letterbox(img, new_shape=self.img_size)[0]\n        img = img[:, :, ::-1].transpose(2, 0, 1)\n        img = np.ascontiguousarray(img)\n        img = torch.from_numpy(img).to(self.device)\n        img = img.half()  # 半精度\n        img \u002F= 255.0  # 图像归一化\n        if img.ndimension() == 3:\n            img = img.unsqueeze(0)\n\n        return img0, img\n\n    def detect(self, im):\n\n        im0, img = self.preprocess(im)\n\n        pred = self.m(img, augment=False)[0]\n        pred = pred.float()\n        pred = non_max_suppression(pred, self.threshold, 0.4)\n\n        pred_boxes = []\n        for det in pred:\n\n            if det is not None and len(det):\n                det[:, :4] = scale_coords(\n                    img.shape[2:], det[:, :4], im0.shape).round()\n\n                for *x, conf, cls_id in det:\n                    lbl = self.names[int(cls_id)]\n                    if not lbl in ['person', 'car', 'truck']:\n                        continue\n                    x1, y1 = int(x[0]), int(x[1])\n                    x2, y2 = int(x[2]), int(x[3])\n                    pred_boxes.append(\n                        (x1, y1, x2, y2, lbl, conf))\n\n        return im, pred_boxes\n```\n- 调用 `self.detect()` 方法返回图像和预测结果\n### **DeepSort 追踪器**\n\n```python\ndeepsort = DeepSort(cfg.DEEPSORT.REID_CKPT,\n                    max_dist=cfg.DEEPSORT.MAX_DIST, min_confidence=cfg.DEEPSORT.MIN_CONFIDENCE,\n                    nms_max_overlap=cfg.DEEPSORT.NMS_MAX_OVERLAP, max_iou_distance=cfg.DEEPSORT.MAX_IOU_DISTANCE,\n                    max_age=cfg.DEEPSORT.MAX_AGE, n_init=cfg.DEEPSORT.N_INIT, nn_budget=cfg.DEEPSORT.NN_BUDGET,\n                    use_cuda=True)\n```\n- 调用 `self.update()` 方法更新追踪结果\n---\n\n## **📊 训练自己的模型**\n\n如果需要训练自定义的 YOLOv5 模型，请参考以下教程：  \n[【小白CV】手把手教你用YOLOv5训练自己的数据集（从Windows环境配置到模型部署）](https:\u002F\u002Fblog.csdn.net\u002Fweixin_44936889\u002Farticle\u002Fdetails\u002F110661862)\n\n训练完成后，将模型权重文件放置于 `weights` 文件夹中。\n\n---\n\n## **📦 API 调用**\n\n### **初始化检测器**\n```python\nfrom AIDetector_pytorch import Detector\n\ndet = Detector()\n```\n\n### **调用检测接口**\n```python\nfunc_status = {}\nfunc_status['headpose'] = None\n\nresult = det.feedCap(im, func_status)\n```\n\n- `im`: 输入的 BGR 图像。\n- `result['frame']`: 检测结果的可视化图像。\n\n---\n\n## **✨ 可视化效果**\n\n![效果图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSharpiless_Yolov5-deepsort-inference_readme_15974831f552.png)\n\n---\n\n## **📚 联系作者** \n  - Bilibili: [https:\u002F\u002Fspace.bilibili.com\u002F470550823](https:\u002F\u002Fspace.bilibili.com\u002F470550823)  \n  - CSDN: [https:\u002F\u002Fblog.csdn.net\u002Fweixin_44936889](https:\u002F\u002Fblog.csdn.net\u002Fweixin_44936889)  \n  - AI Studio: [https:\u002F\u002Faistudio.baidu.com\u002Faistudio\u002Fpersonalcenter\u002Fthirdview\u002F67156](https:\u002F\u002Faistudio.baidu.com\u002Faistudio\u002Fpersonalcenter\u002Fthirdview\u002F67156)  \n  - GitHub: [https:\u002F\u002Fgithub.com\u002FSharpiless](https:\u002F\u002Fgithub.com\u002FSharpiless)  \n\n---\n\n\u003Cpicture>\n  \u003Csource\n    media=\"(prefers-color-scheme: dark)\"\n    srcset=\"\n      https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSharpiless_Yolov5-deepsort-inference_readme_5c4ba8f93989.png&theme=dark\n    \"\n  \u002F>\n  \u003Csource\n    media=\"(prefers-color-scheme: light)\"\n    srcset=\"\n      https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSharpiless_Yolov5-deepsort-inference_readme_5c4ba8f93989.png\n    \"\n  \u002F>\n  \u003Cimg\n    alt=\"Star History Chart\"\n    src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSharpiless_Yolov5-deepsort-inference_readme_5c4ba8f93989.png\"\n  \u002F>\n\u003C\u002Fpicture>\n\n## **💡 许可证**\n\n本项目遵循 **GNU General Public License v3.0** 协议。  \n**标明目标检测部分来源**：[https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5)","# Yolov5-deepsort-inference 快速上手指南\n\n本项目结合了 **YOLOv5** 目标检测与 **DeepSort** 多目标跟踪算法，专为车辆和行人的实时跟踪与计数设计。通过封装的 `Detector` 类，开发者可轻松将其集成到自定义项目中。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux \u002F Windows \u002F macOS\n*   **Python 版本**：推荐 Python 3.8+\n*   **硬件加速**：推荐使用 NVIDIA GPU 并安装对应的 CUDA 驱动（项目会自动检测，若无 GPU 则使用 CPU 运行，但速度较慢）\n*   **前置依赖**：\n    *   PyTorch (需匹配您的 CUDA 版本)\n    *   torchvision\n    *   opencv-python\n    *   numpy\n    *   scipy\n    *   scikit-learn\n    *   tensorboard\n    *   seaborn\n    *   PyYAML\n    *   tqdm\n    *   torchstat\n    *   thop\n\n> 💡 **国内加速建议**：\n> 安装 PyTorch 时，建议使用清华或阿里镜像源以提升下载速度。例如：\n> ```bash\n> pip install torch torchvision torchaudio -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 2. 安装步骤\n\n克隆项目代码并安装所需依赖库。\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYolov5-deepsort-inference.git\ncd Yolov5-deepsort-inference\n\n# 安装依赖 (建议使用国内镜像源)\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n> **注意**：首次运行前，请确保 `weights\u002F` 目录下存在预训练模型文件（如 `yolov5m.pt`）。若缺失，程序可能会尝试自动下载或报错，请根据控制台提示处理，或手动从 YOLOv5 官方仓库下载放入该目录。\n\n## 3. 基本使用\n\n### 运行演示 Demo\n\n直接运行提供的演示脚本，即可对默认视频或摄像头进行实时检测、跟踪与计数。\n\n```bash\npython demo.py\n```\n\n### 代码集成示例\n\n若需在自有项目中调用，可使用封装好的 `Detector` 类。\n\n**1. 初始化检测器**\n\n```python\nfrom AIDetector_pytorch import Detector\n\n# 初始化检测器（自动加载配置与模型）\ndet = Detector()\n```\n\n**2. 执行检测与跟踪**\n\n传入 BGR 格式的图像帧（OpenCV 读取格式），获取处理结果。\n\n```python\nimport cv2\n\n# 读取图像 (示例)\nim = cv2.imread('test.jpg') \n# 或者从视频流\u002F摄像头读取: ret, im = cap.read()\n\nfunc_status = {}\nfunc_status['headpose'] = None\n\n# 执行推理\nresult = det.feedCap(im, func_status)\n\n# 获取可视化后的结果图像\noutput_frame = result['frame']\n\n# 显示或保存结果\ncv2.imshow(\"Tracking Result\", output_frame)\ncv2.waitKey(0)\ncv2.destroyAllWindows()\n```\n\n### 核心逻辑说明\n\n*   **检测部分**：内部调用 `self.detect()`，返回过滤后的边界框（默认仅保留 person, car, truck）。\n*   **跟踪部分**：内部集成 DeepSort，通过 `self.update()` 更新轨迹 ID，实现跨帧跟踪。\n*   **自定义模型**：如需识别其他物体，请训练自己的 YOLOv5 模型，将生成的 `.pt` 权重文件替换 `weights\u002Fyolov5m.pt`，并在代码中调整类别过滤逻辑。","某智慧园区安防团队正在开发一套实时人流与车流监控系统，旨在统计出入口通行数量并分析轨迹。\n\n### 没有 Yolov5-deepsort-inference 时\n- **重复计数严重**：传统检测算法无法区分同一目标在不同帧的出现，导致行人或车辆经过摄像头时被多次重复累加，统计数据严重失真。\n- **开发集成困难**：团队需手动拼接 YOLO 检测代码与 DeepSort 跟踪逻辑，处理坐标转换、数据格式对齐等底层细节，耗时数周且容易出错。\n- **轨迹丢失频繁**：在目标短暂遮挡或快速移动场景下，缺乏优化的关联策略导致 ID 频繁切换，无法生成连续完整的运动轨迹。\n- **自定义扩展繁琐**：若想针对园区特有的工程车辆进行训练，需重构大量代码才能接入新模型，灵活性极差。\n\n### 使用 Yolov5-deepsort-inference 后\n- **精准去重计数**：借助 DeepSort 的 ReID 特征匹配能力，系统能稳定锁定唯一 ID，无论目标如何移动或短暂遮挡，进出人数统计准确率提升至 98% 以上。\n- **极速项目落地**：直接调用封装好的 `Detector` 类，仅需几行代码即可完成初始化与推理，将原本数周的集成工作缩短至半天内。\n- **轨迹连贯稳定**：内置的参数优化配置有效解决了遮挡导致的 ID 跳变问题，可输出平滑连续的车辆与行人轨迹图，便于行为分析。\n- **无缝模型替换**：支持直接加载自定义训练的 YOLOv5 权重文件，团队轻松加入“工程车”识别类别，无需修改核心跟踪逻辑。\n\nYolov5-deepsort-inference 通过高度封装的接口，让开发者从复杂的算法拼凑中解放出来，专注于业务逻辑，实现了高精度目标跟踪系统的快速部署。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSharpiless_Yolov5-deepsort-inference_15974831.png","Sharpiless",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FSharpiless_7c4868dc.jpg","third-year Ph.D. student | 3D Vision\r\n","Beijing Institute of Technology","Beijing, China","https:\u002F\u002Fsharpiless.github.io\u002Fch","https:\u002F\u002Fgithub.com\u002FSharpiless",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,1462,293,"2026-03-31T15:33:55","GPL-3.0","Windows, Linux, macOS","非必需，但推荐使用 NVIDIA GPU 以加速推理。代码中通过 `torch.cuda.is_available()` 自动检测，若无 GPU 则使用 CPU。未明确指定具体显卡型号、显存大小或 CUDA 版本要求。","未说明",{"notes":93,"python":94,"dependencies":95},"1. 项目依赖 `requirements.txt` 中列出的所有库，需预先安装。2. 默认使用的模型权重为 `yolov5m.pt`，首次运行需下载该文件至 `weights` 文件夹。3. 支持自定义训练 YOLOv5 模型，训练教程参考提供的 CSDN 链接。4. 代码逻辑中硬编码了过滤类别为 'person', 'car', 'truck'，如需检测其他类别需修改源码。5. DeepSort 部分需要 ReID 模型权重 (`REID_CKPT`)，需在配置文件中指定路径。","未说明 (通常建议 Python 3.6+ 以兼容 PyTorch 和 YOLOv5)",[96,97,98,99,100,101,102,103,104,105],"torch","numpy","opencv-python","scipy","Pillow","PyYAML","requests","tqdm","pandas","seaborn",[107,14,15],"视频",[109,110,111,112,113,114],"yolov5-deepsort-inference","yolov5","deepsort","object-detection","mot","tracking","2026-03-27T02:49:30.150509","2026-04-10T11:22:41.802556",[118,123,128,133,138,143,148,153],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},27675,"DeepSORT 的模型权重是在车辆或行人数据集上重新训练的吗？","不是。该项目中使用的 DeepSORT 权重是直接使用了其他开发者预先训练好的公开权重，并未在特定的车辆或行人数据集上进行额外的重新训练。","https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYolov5-deepsort-inference\u002Fissues\u002F12",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},27671,"运行时报错 'too many indices for tensor of dimension 1' 该如何解决？","该错误通常是因为检测到的目标数目为 0 导致索引出错。解决方法有两种：1. 克隆最新版本的代码，新版本已修复此 Bug；2. 在代码中增加判断目标数量的逻辑，例如当 COUNT == 0 时进行中断或跳过处理，避免对空张量进行索引操作。","https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYolov5-deepsort-inference\u002Fissues\u002F1",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},27672,"如果使用自定义数据集训练了 YOLOv5 模型，DeepSORT 部分需要重新训练吗？","不需要。DeepSORT 主要用于目标跟踪（提取特征和关联 ID），其预训练权重具有通用性，可以直接配合自定义训练的 YOLOv5 检测模型使用，无需针对自定义数据集重新训练 DeepSORT 模型。","https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYolov5-deepsort-inference\u002Fissues\u002F21",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},27673,"该项目支持网页端实时检测或视频检测吗？","原生项目主要侧重于本地推理，但作者已新建了一个仓库实现了 Web 端部署。该方案使用 Flask 作为后端框架，VUE 作为前端框架，支持实时检测和视频处理。可以参考项目地址：https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYolov5-Flask-VUE。此外，理论上也可以使用 TorchServe 进行部署。","https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYolov5-deepsort-inference\u002Fissues\u002F4",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},27674,"运行时提示缺少 'easydict' 模块怎么办？","这是缺少依赖包导致的。直接使用 pip 安装即可解决，命令为：pip install easydict。","https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYolov5-deepsort-inference\u002Fissues\u002F16",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},27676,"项目根目录找不到 'requirements.txt' 文件导致无法安装依赖怎么办？","这是一个旧版本的问题，维护者已经在后续更新中添加了 'requirements.txt' 文件。请确保拉取（pull）或重新克隆（clone）最新的代码库，即可找到该文件并正常执行安装命令。","https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYolov5-deepsort-inference\u002Fissues\u002F11",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},27677,"如何实现对检测目标的计数功能？","项目本身没有独立的计数模块，实现方法非常简单：统计当前帧中跟踪器生成的唯一 ID 数量即可。即数一下当前存在的 ID 数目就是目标计数值。","https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYolov5-deepsort-inference\u002Fissues\u002F5",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},27678,"是否支持 YOLOv5 v4.0 及更高版本的模型？","支持。维护者已经更新了代码以兼容 YOLOv5 v4.0 及后续版本，现在可以同时运行多个版本的 YOLOv5 模型。请确保使用最新版的代码库。","https:\u002F\u002Fgithub.com\u002FSharpiless\u002FYolov5-deepsort-inference\u002Fissues\u002F6",[]]