[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-njvisionpower--Safety-Helmet-Wearing-Dataset":3,"tool-njvisionpower--Safety-Helmet-Wearing-Dataset":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":76,"owner_location":79,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":10,"env_os":90,"env_gpu":91,"env_ram":92,"env_deps":93,"category_tags":100,"github_topics":101,"view_count":106,"oss_zip_url":76,"oss_zip_packed_at":76,"status":16,"created_at":107,"updated_at":108,"faqs":109,"releases":140},1156,"njvisionpower\u002FSafety-Helmet-Wearing-Dataset","Safety-Helmet-Wearing-Dataset","Safety helmet wearing detect dataset, with pretrained model","安全帽佩戴检测数据集包含用于检测安全帽是否正确佩戴以及人体头部的图像数据，涵盖超过7500张图片，包含9044个佩戴安全帽的实例和111514个未佩戴的头部实例。数据集采用Pascal VOC格式标注，支持直接使用。同时提供基于MXNet GluonCV的预训练模型，便于快速部署和测试。适用于需要开发或研究安全帽检测系统的开发者和研究人员，尤其适合从事工业安全、计算机视觉领域的用户。数据集经过优化，可直接用于目标检测任务，并提供多种模型选择，满足不同性能与速度需求。","# SafetyHelmetWearing-Dataset(安全帽佩戴检测数据集)\nSafety helmet (hardhat) wearing detect dataset(安全帽佩戴检测数据集, SHWD). We also provide pretrained models.\n\n## Introduction\nSHWD provide the dataset used for both safety helmet wearing and human head detection. It includes 7581 images with 9044 human safety helmet wearing objects(positive) and 111514 normal head objects(not wearing or negative). The positive objects got from goolge or baidu, and we manually labeld with LabelImg. Some of negative objects got from [SCUT-HEAD](https:\u002F\u002Fgithub.com\u002FHCIILAB\u002FSCUT-HEAD-Dataset-Release). We fixed some bugs for original SCUT-HEAD and make the data can be directly loaded as normal Pascal VOC format. Also we provide some pretrained models with MXNet GluonCV.    \n\n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_e2e37ad20388.jpg\" width = 70% height = 70%>\n\u003C\u002Fp>  \n\n## Dataset and model download\n### Dataset\n[BaiduDrive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1UbFkGm4EppdAU660Vu7SdQ)\n[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1qWm7rrwvjAWs1slymbrLaCf7Q-wnGLEX)\n### Model\n[BaiduDrive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1dWNU_q59sw1a3TVtV7VXEg)\n[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1_0A-bQbsprzStefQOMiQpLn8JZBchqho)\n### Benchmark\nmodel | darknet | mobile1.0 |  mobile0.25\n--------- | ------------- | ------------- | ------------- \nmap   |  88.5 |  86.3 |  75.0\n\n## How to use dataset\nWe annotate the data as Pascal VOC format:  \n```\n---VOC2028    \n    ---Annotations    \n    ---ImageSets    \n    ---JPEGImages   \n```\nTwo object class names for the task, \"hat\" for positive object and \"person\" for negative object.\n## How to run\n### Dependency\nMake sure you install MXNet, GluonCV, OpenCV\n### Test with pretrained models\nTwo way to inference. \n#### First way\nDownload models from link [BaiduDrive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1dWNU_q59sw1a3TVtV7VXEg).  \n```\nRun \"python test_yolo.py\" with default settings, or change options:  \n--network: darknet\u002Fmobile1.0\u002Fmobile0.25 network, default darknet53;  \n--threshold: confidence that filter object;  \n--gpu: use gpu or cpu, default gpu;  \n--short: short side input size for original image.\n```\n#### Second way, inference with mxnet symbol\nDownload symbol models from [BaiduDrive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1EEdsjECJy_y00dekRre0eA), (or [GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=19iS7fdVneX1HTYQb3iQAbDJnpa0W9asB)), then inference with symbol:\n```\npython test_symbol.py\n```\n### Notice\n**1.** This repo provide 3 yolo models with different size, default darknet53.  \n**2.** Parameter \"short\" means the input size of short side for original image, you can try larger value if want to detect dense objects or big size image.  \n**3.** Hyper-parameter threshold means the confidence for detect, change it for different task.  \n\n## How to train\nYou can see function \"get_dataset\" in the file \"train_yolo.py\" to set dataset path. An example, download dataset and unzip to the path such as \"D:\\VOCdevkit\\VOC2028\", train\u002Fval dataset can set as:\n```\ntrain_dataset = VOCLike(root='D:\\VOCdevkit', splits=[(2028, 'trainval')])\nval_dataset = VOCLike(root='D:\\VOCdevkit', splits=[(2028, 'test')])\n```\nThen check train_yolo.py to set options and train, such as:\n```\npython train_yolo.py --batch-size 4 -j 4 --warmup-epochs 3\n```\n### Notice\n**1.** One common problem when train yolo is gradient explosion, try more epoches to warmup or use smaller learning rate.  \n**2.** Much time spent on dataset loading with CPU, set \"-j\" number bigger if you have multi-core CPU and will improve train speed.  \n**3.** If train on Windows, sometimes program may blocked, see https:\u002F\u002Fdiscuss.gluon.ai\u002Ft\u002Ftopic\u002F9388\u002F11, if train on Linux make sure you have enough share memory.\n## Demo\n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_2ff624d799a1.jpg\" width = 50% height = 50%>\n\u003C\u002Fp>  \n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_13b43ebecc66.jpg\" width = 50% height = 50%>\n\u003C\u002Fp> \n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_cf1b68836c6c.jpg\" width = 50% height = 50%>\n\u003C\u002Fp> \n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_09753b6980f6.jpg\" width = 50% height = 50%>\n\u003C\u002Fp> \n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_0a76f0b40164.jpg\" width = 50% height = 50%>\n\u003C\u002Fp> \n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_0b27840ddd6c.jpg\" width = 50% height = 50%>\n\u003C\u002Fp> \n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_ef86ed49e1ac.jpg\" width = 50% height = 50%>\n\u003C\u002Fp>  \n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_a8aa224d2d60.jpg\" width = 50% height = 50%>\n\u003C\u002Fp> \n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_c751e5acc901.jpg\" width = 50% height = 50%>\n\u003C\u002Fp> \n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_fc529781bd56.jpg\" width = 50% height = 50%>\n\u003C\u002Fp> \n","# 安全帽佩戴检测数据集\n安全帽佩戴检测数据集（SHWD）。我们还提供了预训练模型。\n\n## 简介\nSHWD 提供了用于安全帽佩戴检测和人体头部检测的数据集。它包含 7581 张图像，其中 9044 个是佩戴安全帽的人体目标（正样本），111514 个是未佩戴安全帽的正常头部目标（负样本）。正样本来自 Google 或 Baidu，我们使用 LabelImg 手动标注。部分负样本来自 [SCUT-HEAD](https:\u002F\u002Fgithub.com\u002FHCIILAB\u002FSCUT-HEAD-Dataset-Release) 数据集。我们修复了 SCUT-HEAD 原始数据集中的若干问题，使其可以直接以标准 Pascal VOC 格式加载。此外，我们还提供了基于 MXNet GluonCV 的一些预训练模型。\n\n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_e2e37ad20388.jpg\" width = 70% height = 70%>\n\u003C\u002Fp>  \n\n## 数据集和模型下载\n### 数据集\n[BaiduDrive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1UbFkGm4EppdAU660Vu7SdQ)\n[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1qWm7rrwvjAWs1slymbrLaCf7Q-wnGLEX)\n### 模型\n[BaiduDrive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1dWNU_q59sw1a3TVtV7VXEg)\n[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1_0A-bQbsprzStefQOMiQpLn8JZBchqho)\n### 基准测试\n模型 | darknet | mobile1.0 | mobile0.25\n--------- | ------------- | ------------- | ------------- \nmap   |  88.5 |  86.3 |  75.0\n\n## 如何使用数据集\n我们按照 Pascal VOC 格式对数据进行标注：\n```\n---VOC2028    \n    ---Annotations    \n    ---ImageSets    \n    ---JPEGImages   \n```\n该任务有两个目标类别名称：“hat”表示正样本，“person”表示负样本。\n## 如何运行\n### 依赖项\n请确保已安装 MXNet、GluonCV 和 OpenCV。\n### 使用预训练模型进行推理\n有两种方式进行推理。\n#### 第一种方式\n从链接 [BaiduDrive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1dWNU_q59sw1a3TVtV7VXEg) 下载模型。\n```\n运行“python test_yolo.py”，使用默认设置，或更改以下选项：\n--network：选择 darknet\u002Fmobile1.0\u002Fmobile0.25 网络，默认为 darknet53；\n--threshold：过滤目标的置信度阈值；\n--gpu：使用 GPU 还是 CPU，默认为 GPU；\n--short：原始图像输入的短边尺寸。\n```\n#### 第二种方式，使用 MXNet 符号进行推理\n从 [BaiduDrive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1EEdsjECJy_y00dekRre0eA)（或 [GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=19iS7fdVneX1HTYQb3iQAbDJnpa0W9asB)）下载符号模型，然后使用符号进行推理：\n```\npython test_symbol.py\n```\n### 注意事项\n**1.** 本仓库提供了三种不同大小的 YOLO 模型，默认为 darknet53。\n**2.** 参数 “short” 表示原始图像短边的输入尺寸，如果需要检测密集目标或大尺寸图像，可以尝试增大该值。\n**3.** 超参数 threshold 表示检测的置信度，可根据不同任务调整。\n\n## 如何训练\n您可以在文件 “train_yolo.py” 中查看函数 “get_dataset”，以设置数据集路径。例如，下载数据集并解压到类似 “D:\\VOCdevkit\\VOC2028” 的路径，训练集和验证集可以这样设置：\n```\ntrain_dataset = VOCLike(root='D:\\VOCdevkit', splits=[(2028, 'trainval')])\nval_dataset = VOCLike(root='D:\\VOCdevkit', splits=[(2028, 'test')])\n```\n然后检查 train_yolo.py 文件以设置选项并开始训练，例如：\n```\npython train_yolo.py --batch-size 4 -j 4 --warmup-epochs 3\n```\n### 注意事项\n**1.** 训练 YOLO 时常见的问题是梯度爆炸，可以尝试增加预热轮数或使用更小的学习率。\n**2.** 使用 CPU 加载数据集会耗费大量时间，如果有多核 CPU，可将 “-j” 参数设置得更大，以提高训练速度。\n**3.** 如果在 Windows 上训练，程序有时可能会卡住，请参考 https:\u002F\u002Fdiscuss.gluon.ai\u002Ft\u002Ftopic\u002F9388\u002F11；如果在 Linux 上训练，请确保系统有足够的共享内存。\n## 示例\n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_2ff624d799a1.jpg\" width = 50% height = 50%>\n\u003C\u002Fp>  \n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_13b43ebecc66.jpg\" width = 50% height = 50%>\n\u003C\u002Fp> \n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_cf1b68836c6c.jpg\" width = 50% height = 50%>\n\u003C\u002Fp> \n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_09753b6980f6.jpg\" width = 50% height = 50%>\n\u003C\u002Fp> \n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_0a76f0b40164.jpg\" width = 50% height = 50%>\n\u003C\u002Fp> \n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_0b27840ddd6c.jpg\" width = 50% height = 50%>\n\u003C\u002Fp> \n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_ef86ed49e1ac.jpg\" width = 50% height = 50%>\n\u003C\u002Fp>  \n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_a8aa224d2d60.jpg\" width = 50% height = 50%>\n\u003C\u002Fp> \n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_c751e5acc901.jpg\" width = 50% height = 50%>\n\u003C\u002Fp> \n\u003Cp align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_readme_fc529781bd56.jpg\" width = 50% height = 50%>\n\u003C\u002Fp>","# Safety-Helmet-Wearing-Dataset 快速上手指南\n\n## 环境准备\n\n### 系统要求\n- 支持 Python 3.6 及以上版本的系统（Windows\u002FLinux\u002FmacOS）\n- 推荐使用 Linux 或 macOS 系统进行训练和推理\n\n### 前置依赖\n确保已安装以下依赖库：\n- MXNet\n- GluonCV\n- OpenCV\n\n可通过 pip 安装（推荐使用国内镜像源加速）：\n```bash\npip install mxnet gluoncv opencv-python -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 安装步骤\n\n1. 下载数据集和预训练模型  \n   数据集下载地址：  \n   [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1UbFkGm4EppdAU660Vu7SdQ)  \n   [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1qWm7rrwvjAWs1slymbrLaCf7Q-wnGLEX)\n\n   预训练模型下载地址：  \n   [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1dWNU_q59sw1a3TVtV7VXEg)  \n   [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1_0A-bQbsprzStefQOMiQpLn8JZBchqho)\n\n2. 解压数据集到指定路径，例如：\n   ```\n   D:\\VOCdevkit\\VOC2028\n   ```\n\n## 基本使用\n\n### 使用预训练模型进行推理\n1. 下载预训练模型并放置在项目目录中。\n2. 运行测试脚本：\n   ```bash\n   python test_yolo.py --network darknet --threshold 0.5 --gpu 0 --short 416\n   ```\n\n### 使用符号模型进行推理\n1. 下载符号模型文件。\n2. 运行符号推理脚本：\n   ```bash\n   python test_symbol.py\n   ```\n\n### 训练模型\n1. 修改 `train_yolo.py` 中的数据集路径为实际解压路径。\n2. 运行训练命令：\n   ```bash\n   python train_yolo.py --batch-size 4 -j 4 --warmup-epochs 3\n   ```","某建筑工地的安全部门需要实时检测工人是否佩戴安全帽，以确保施工安全。他们计划部署一套自动识别系统，但缺乏合适的训练数据和模型。\n\n### 没有 Safety-Helmet-Wearing-Dataset 时  \n- 缺乏专门针对安全帽佩戴的标注数据，手动标注成本高且耗时  \n- 现有通用目标检测模型在安全帽识别上准确率低，误检率高  \n- 需要从零开始训练模型，开发周期长，技术门槛高  \n- 模型部署后难以适应不同光照、角度和遮挡情况  \n\n### 使用 Safety-Helmet-Wearing-Dataset 后  \n- 直接使用预标注数据集，节省大量数据准备时间  \n- 利用提供的预训练模型快速实现高精度检测，减少训练时间  \n- 支持多种模型架构选择，可根据硬件条件灵活部署  \n- 数据集包含多样化的场景样本，提升模型泛化能力  \n\nSafety-Helmet-Wearing-Dataset 显著降低了安全帽检测系统的开发难度和成本，提升了实际应用中的检测效果与可靠性。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnjvisionpower_Safety-Helmet-Wearing-Dataset_63935751.png","njvisionpower",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fnjvisionpower_eaa91b5e.jpg","Algorithm engineer at Nanjing, focusing on face recognition, object detection, image process etc.","Nan Jing","https:\u002F\u002Fgithub.com\u002Fnjvisionpower",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,1681,419,"2026-04-05T08:48:17","MIT","Windows, Linux","需要 NVIDIA GPU，显存 8GB+，CUDA 11.7+","16GB+",{"notes":94,"python":95,"dependencies":96},"训练时需注意梯度爆炸问题，建议增加 warmup 时长或降低学习率；若在 Windows 上训练，可能遇到程序卡顿问题，可参考相关讨论；数据集需解压至指定路径","3.8+",[97,98,99],"mxnet","gluoncv","opencv-python",[34,14],[102,103,104,105,98],"helmet","hardhat","dataset","detection",5,"2026-03-27T02:49:30.150509","2026-04-06T05:44:14.722933",[110,115,120,125,130,135],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},5227,"在 Windows 上运行程序时，进入 train() 函数后立即退出，可能是什么原因？","可能是 CUDA 版本不兼容。您的显卡是 NVIDIA NVS 5400M，算力为 2.1，无法支持 CUDA 9.0 及以上版本。建议使用与显卡算力兼容的 CUDA 版本，并确认 mxnet、gluoncv 和 opencv 的版本是否匹配。","https:\u002F\u002Fgithub.com\u002Fnjvisionpower\u002FSafety-Helmet-Wearing-Dataset\u002Fissues\u002F10",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},5228,"如何解决训练时出现 'AssertionError: Failed loading Parameter' 错误？","该错误通常由类别数量不一致导致。请确保训练时定义的 classes 与预训练模型的类别数一致。例如，如果预训练模型是针对 1000 类的，而您只定义了 ['hat', 'person']，则会报错。修改 classes 参数以匹配模型要求。","https:\u002F\u002Fgithub.com\u002Fnjvisionpower\u002FSafety-Helmet-Wearing-Dataset\u002Fissues\u002F21",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},5229,"训练自己的数据集时出现 'IndexError: too many indices for array' 错误，如何解决？","此错误通常由标注文件中的标签格式不一致引起。请检查 VOC 格式的数据集，确保所有标签文件中的类别名称与定义的 classes 一致。例如，若定义的是 'hat' 和 'person'，但部分标签中写成了 'hat_' 或 'person-'，则会导致错误。","https:\u002F\u002Fgithub.com\u002Fnjvisionpower\u002FSafety-Helmet-Wearing-Dataset\u002Fissues\u002F16",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},5230,"训练过程中出现 'Failed loading Parameter' 错误，如何解决？","请确保加载的预训练模型与当前网络结构一致。例如，如果使用的是 yolo3_darknet53_voc 模型，但加载的参数是针对其他类别的（如 1000 类），则会出现形状不匹配问题。请使用与当前类别数一致的预训练模型。","https:\u002F\u002Fgithub.com\u002Fnjvisionpower\u002FSafety-Helmet-Wearing-Dataset\u002Fissues\u002F34",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},5231,"如何解决模型文件下载链接失效的问题？","原链接失效时，可以尝试通过百度网盘下载模型文件。维护者提供了新的下载链接：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1dWNU_q59sw1a3TVtV7VXEg 或 https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1EEdsjECJy_y00dekRre0eA。请直接访问这些链接下载模型。","https:\u002F\u002Fgithub.com\u002Fnjvisionpower\u002FSafety-Helmet-Wearing-Dataset\u002Fissues\u002F24",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},5232,"训练速度特别慢，如何优化？","可尝试调整 batch_size 和数据增强方式。例如，将 batch_size 设置为 2 并关闭 mixup 增强，有助于提高训练速度。此外，确保 GPU 驱动和 CUDA 版本正确，避免硬件资源浪费。","https:\u002F\u002Fgithub.com\u002Fnjvisionpower\u002FSafety-Helmet-Wearing-Dataset\u002Fissues\u002F12",[]]