[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-gliese581gg--YOLO_tensorflow":3,"tool-gliese581gg--YOLO_tensorflow":64},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,2,"2026-04-06T11:32:50",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[43,15,13,14],"语言模型",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,52],"视频",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,"2026-04-06T11:09:19",[15,16,52,61,13,62,43,14,63],"插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":82,"owner_website":82,"owner_url":83,"languages":84,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":93,"env_os":94,"env_gpu":95,"env_ram":95,"env_deps":96,"category_tags":101,"github_topics":82,"view_count":32,"oss_zip_url":82,"oss_zip_packed_at":82,"status":17,"created_at":102,"updated_at":103,"faqs":104,"releases":145},5390,"gliese581gg\u002FYOLO_tensorflow","YOLO_tensorflow","tensorflow implementation of 'YOLO : Real-Time Object Detection'","YOLO_tensorflow 是经典实时目标检测算法 YOLO 的 TensorFlow 版本实现。它成功将原本基于 Darknet 框架的模型迁移至 TensorFlow 生态，让开发者能够利用熟悉的 TensorFlow 环境快速运行预训练模型，对图像中的人脸及常见物体进行高效识别与定位。\n\n该工具主要解决了早期 YOLO 模型在 TensorFlow 平台上缺乏原生支持的问题，降低了技术栈统一团队的使用门槛。用户只需下载对应的权重文件（支持 YOLO_small、YOLO_tiny 及人脸检测专用模型），即可通过命令行或 Python 脚本直接调用，灵活配置是否显示结果、保存图片或输出包含坐标与置信度的文本数据。其独特亮点在于提供了从 Darknet 权重文件到 TensorFlow 检查点文件的转换工具，方便社区复用现有资源。\n\n需要注意的是，YOLO_tensorflow 目前仅支持推理预测，不包含训练功能，模型训练仍需依赖原始的 Darknet 框架。因此，它非常适合希望快速集成目标检测功能的软件工程师、进行算法验证的研究人员，以及需要在 TensorFlow 项目中演示","YOLO_tensorflow 是经典实时目标检测算法 YOLO 的 TensorFlow 版本实现。它成功将原本基于 Darknet 框架的模型迁移至 TensorFlow 生态，让开发者能够利用熟悉的 TensorFlow 环境快速运行预训练模型，对图像中的人脸及常见物体进行高效识别与定位。\n\n该工具主要解决了早期 YOLO 模型在 TensorFlow 平台上缺乏原生支持的问题，降低了技术栈统一团队的使用门槛。用户只需下载对应的权重文件（支持 YOLO_small、YOLO_tiny 及人脸检测专用模型），即可通过命令行或 Python 脚本直接调用，灵活配置是否显示结果、保存图片或输出包含坐标与置信度的文本数据。其独特亮点在于提供了从 Darknet 权重文件到 TensorFlow 检查点文件的转换工具，方便社区复用现有资源。\n\n需要注意的是，YOLO_tensorflow 目前仅支持推理预测，不包含训练功能，模型训练仍需依赖原始的 Darknet 框架。因此，它非常适合希望快速集成目标检测功能的软件工程师、进行算法验证的研究人员，以及需要在 TensorFlow 项目中演示实时检测效果的技术爱好者。鉴于其非商业授权的许可限制，建议主要用于学习研究或非营利性项目开发。","# YOLO_tensorflow\n\n(Version 0.3, Last updated :2017.02.21)\n\n### 1.Introduction\n\nThis is tensorflow implementation of the YOLO:Real-Time Object Detection\n\nIt can only do predictions using pretrained YOLO_small & YOLO_tiny network for now.\n\n(+ YOLO_face detector from https:\u002F\u002Fgithub.com\u002Fquanhua92\u002Fdarknet )\n\nI extracted weight values from darknet's (.weight) files.\n\nMy code does not support training. Use darknet for training.\n\nOriginal code(C implementation) & paper : http:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F\n\n### 2.Install\n(1) Download code\n\n(2) Download YOLO weight file from\n\nYOLO_small : https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B2JbaJSrWLpza08yS2FSUnV2dlE\u002Fview?usp=sharing\n\nYOLO_tiny  : https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B2JbaJSrWLpza0FtQlc3ejhMTTA\u002Fview?usp=sharing\n\nYOLO_face : https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B2JbaJSrWLpzMzR5eURGN2dMTk0\u002Fview?usp=sharing\n\n(3) Put the 'YOLO_(version).ckpt' in the 'weight' folder of downloaded code\n\n### 3.Usage\n\n(1) direct usage with default settings (display on console, show output image, no output file writing)\n\n\tpython YOLO_(small or tiny)_tf.py -fromfile (input image filename)\n\n(2) direct usage with custom settings\n\n\tpython YOLO_(small or tiny)_tf.py argvs\n\n\twhere argvs are\n\n\t-fromfile (input image filename) : input image file\n\t-disp_console (0 or 1) : whether display results on terminal or not\n\t-imshow (0 or 1) : whether display result image or not\n\t-tofile_img (output image filename) : output image file\n\t-tofile_txt (output txt filename) : output text file (contains class, x, y, w, h, probability)\n\n(3) import on other scripts\n\n\timport YOLO_(small or tiny)_tf\n\tyolo = YOLO_(small or tiny)_tf.YOLO_TF()\n\n\tyolo.disp_console = (True or False, default = True)\n\tyolo.imshow = (True or False, default = True)\n\tyolo.tofile_img = (output image filename)\n\tyolo.tofile_txt = (output txt filename)\n\tyolo.filewrite_img = (True or False, default = False)\n\tyolo.filewrite_txt = (True of False, default = False)\n\n\tyolo.detect_from_file(filename)\n\tyolo.detect_from_cvmat(cvmat)\n\n### 4.Requirements\n\n- Tensorflow\n- Opencv2\n\n### 5.Copyright\n\nAccording to the LICENSE file of the original code, \n- Me and original author hold no liability for any damages\n- Do not use this on commercial!\n\n### 6.Changelog\n2016\u002F02\u002F15 : First upload!\n\n2016\u002F02\u002F16 : Added YOLO_tiny, Fixed bug that ignores one of the boxes in grid when both boxes detected valid objects\n\n2016\u002F08\u002F26 : Uploaded weight file converter! (darknet weight -> tensorflow ckpt)\n\n2017\u002F02\u002F21 : Added YOLO_face (Thanks https:\u002F\u002Fgithub.com\u002Fquanhua92\u002Fdarknet)\n","# YOLO_tensorflow\n\n（版本 0.3，最后更新：2017年2月21日）\n\n### 1. 简介\n\n这是 YOLO：实时目标检测的 TensorFlow 实现。\n\n目前仅支持使用预训练的 YOLO_small 和 YOLO_tiny 网络进行预测。\n\n（+ 来自 https:\u002F\u002Fgithub.com\u002Fquanhua92\u002Fdarknet 的 YOLO_face 检测器）\n\n我从 Darknet 的 (.weight) 文件中提取了权重值。\n\n我的代码不支持训练。请使用 Darknet 进行训练。\n\n原始代码（C 实现）及论文：http:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolo\u002F\n\n### 2. 安装\n(1) 下载代码\n\n(2) 从以下链接下载 YOLO 权重文件：\n\nYOLO_small：https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B2JbaJSrWLpza08yS2FSUnV2dlE\u002Fview?usp=sharing\n\nYOLO_tiny：https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B2JbaJSrWLpza0FtQlc3ejhMTTA\u002Fview?usp=sharing\n\nYOLO_face：https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B2JbaJSrWLpzMzR5eURGN2dMTk0\u002Fview?usp=sharing\n\n(3) 将 'YOLO_(version).ckpt' 放入下载代码的 'weight' 文件夹中。\n\n### 3. 使用方法\n(1) 直接使用默认设置（在控制台显示结果、显示输出图像、不写入输出文件）\n\npython YOLO_(small 或 tiny)_tf.py -fromfile (输入图像文件名)\n\n(2) 直接使用自定义设置\n\npython YOLO_(small 或 tiny)_tf.py argvs\n\n其中 argvs 包括：\n\n-fromfile（输入图像文件名）：输入图像文件  \n-disp_console（0 或 1）：是否在终端显示结果  \n-imshow（0 或 1）：是否显示结果图像  \n-tofile_img（输出图像文件名）：输出图像文件  \n-tofile_txt（输出文本文件名）：输出文本文件（包含类别、x、y、w、h、置信度）\n\n(3) 在其他脚本中导入使用\n\nimport YOLO_(small 或 tiny)_tf\nyolo = YOLO_(small 或 tiny)_tf.YOLO_TF()\n\nyolo.disp_console = （True 或 False，默认为 True）\nyolo.imshow = （True 或 False，默认为 True）\nyolo.tofile_img = （输出图像文件名）\nyolo.tofile_txt = （输出文本文件名）\nyolo.filewrite_img = （True 或 False，默认为 False）\nyolo.filewrite_txt = （True 或 False，默认为 False）\n\nyolo.detect_from_file(filename)\nyolo.detect_from_cvmat(cvmat)\n\n### 4. 系统要求\n- TensorFlow\n- OpenCV 2\n\n### 5. 版权声明\n根据原始代码的 LICENSE 文件：\n- 我与原作者对任何损害不承担任何责任。\n- 请勿将此代码用于商业用途！\n\n### 6. 更新日志\n2016年2月15日：首次上传！\n\n2016年2月16日：添加 YOLO_tiny，并修复了一个 bug：当网格中同时检测到两个有效目标时，会忽略其中一个框。\n\n2016年8月26日：上传了权重文件转换工具！（Darknet 权重 -> TensorFlow ckpt）\n\n2017年2月21日：添加 YOLO_face（感谢 https:\u002F\u002Fgithub.com\u002Fquanhua92\u002Fdarknet）","# YOLO_tensorflow 快速上手指南\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux \u002F macOS \u002F Windows (需配置好 Python 环境)\n*   **核心依赖**：\n    *   `Tensorflow`\n    *   `Opencv2` (python-opencv)\n\n您可以使用 pip 安装所需依赖：\n```bash\npip install tensorflow opencv-python\n```\n> **提示**：国内用户建议使用清华源或阿里源加速安装，例如：`pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple tensorflow opencv-python`\n\n## 安装步骤\n\n本项目不支持训练，仅支持使用预训练权重进行推理。请按以下步骤完成部署：\n\n1.  **下载代码**\n    克隆或下载本项目的源代码到本地。\n\n2.  **下载预训练权重**\n    根据需求选择对应的模型权重文件（由于原链接为 Google Drive，国内访问可能较慢，建议自行寻找国内镜像或使用代理下载）：\n    *   **YOLO_small**: [下载链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B2JbaJSrWLpza08yS2FSUnV2dlE\u002Fview?usp=sharing)\n    *   **YOLO_tiny**: [下载链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B2JbaJSrWLpza0FtQlc3ejhMTTA\u002Fview?usp=sharing)\n    *   **YOLO_face**: [下载链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B2JbaJSrWLpzMzR5eURGN2dMTk0\u002Fview?usp=sharing)\n\n3.  **放置权重文件**\n    将下载好的权重文件重命名为 `YOLO_(version).ckpt` 格式（例如 `YOLO_small.ckpt`），并放入代码目录下的 `weight` 文件夹中。\n\n## 基本使用\n\n### 命令行直接运行\n\n最简单的使用方式是直接对单张图片进行检测，默认会在终端输出结果并弹窗显示检测后的图片。\n\n**示例命令：**\n```bash\npython YOLO_small_tf.py -fromfile test.jpg\n```\n*(注：请将 `YOLO_small_tf.py` 替换为您实际使用的模型脚本，如 `YOLO_tiny_tf.py`，将 `test.jpg` 替换为您的输入图片路径)*\n\n### 自定义参数运行\n\n如需控制输出行为（如保存结果文件、关闭弹窗等），可添加以下参数：\n\n```bash\npython YOLO_small_tf.py -fromfile test.jpg -disp_console 1 -imshow 1 -tofile_img result.jpg -tofile_txt result.txt\n```\n\n**常用参数说明：**\n*   `-fromfile`: 输入图片文件名\n*   `-disp_console`: 是否在终端打印结果 (0 或 1)\n*   `-imshow`: 是否弹出窗口显示结果图片 (0 或 1)\n*   `-tofile_img`: 输出带标注的图片文件名\n*   `-tofile_txt`: 输出检测结果文本文件名 (包含类别、坐标及概率)\n\n### 在 Python 脚本中调用\n\n您也可以将该工具作为模块导入到其他 Python 脚本中使用：\n\n```python\nimport YOLO_small_tf\n\n# 初始化对象\nyolo = YOLO_small_tf.YOLO_TF()\n\n# 配置选项\nyolo.disp_console = True      # 终端输出\nyolo.imshow = True            # 显示图片\nyolo.tofile_img = 'out.jpg'   # 保存图片路径\nyolo.filewrite_img = True     # 开启图片写入\nyolo.filewrite_txt = False    # 关闭文本写入\n\n# 执行检测\nyolo.detect_from_file('test.jpg')\n# 或者检测 OpenCV 矩阵对象\n# yolo.detect_from_cvmat(cvmat_image)\n```\n\n> **注意**：根据原作者许可，本代码仅供学习研究，**严禁用于商业用途**。","某高校计算机视觉实验室的研究团队正在构建一个基于 TensorFlow 的实时行人监控原型系统，需要快速验证目标检测算法在现有架构中的可行性。\n\n### 没有 YOLO_tensorflow 时\n- **框架迁移困难**：团队熟悉 TensorFlow 生态，但 YOLO 原始代码基于 C\u002FDarknet 编写，重新实现网络结构耗时且容易出错。\n- **无法直接推理**：手头只有 Darknet 格式的 `.weight` 权重文件，无法直接在 TensorFlow 环境中加载进行预测测试。\n- **集成开发受阻**：由于缺乏原生 TensorFlow 接口，难以将检测模块嵌入到现有的 Python 数据处理流水线中。\n- **调试成本高昂**：若手动转换权重或重写代码，需花费数周时间排查维度不匹配和数值精度问题，严重拖慢科研进度。\n\n### 使用 YOLO_tensorflow 后\n- **无缝环境兼容**：直接利用提取好的 TensorFlow 检查点文件（.ckpt），无需修改底层架构即可在现有环境中运行 YOLO_small 或 YOLO_tiny 模型。\n- **即时推理验证**：通过简单的命令行参数（如 `-fromfile`）或 Python 脚本导入，几分钟内即可完成对监控视频帧的实时物体检测。\n- **灵活结果输出**：支持自定义配置，既能直接在终端打印坐标和概率，也能将带标注的图像和结构化文本结果自动保存，便于后续分析。\n- **专注核心逻辑**：研究人员跳过了繁琐的底层移植工作，直接将精力集中在上层应用逻辑优化和场景适应性调整上。\n\nYOLO_tensorflow 通过提供现成的 TensorFlow 权重转换与推理接口，消除了跨框架部署的壁垒，让研究团队能以最低成本快速实现从算法理论到原机验证的闭环。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgliese581gg_YOLO_tensorflow_b03a838e.png","gliese581gg","Jinyoung Choi","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgliese581gg_854d783a.png","HI!","Seoul National Univercity","Seoul, South Korea",null,"https:\u002F\u002Fgithub.com\u002Fgliese581gg",[85],{"name":86,"color":87,"percentage":88},"Python","#3572A5",100,1716,644,"2026-02-11T12:44:31","NOASSERTION",4,"","未说明",{"notes":97,"python":95,"dependencies":98},"该工具仅支持使用预训练模型（YOLO_small, YOLO_tiny, YOLO_face）进行预测，不支持训练功能。需手动从 Google Drive 下载权重文件 (.ckpt) 并放入 'weight' 文件夹。根据版权说明，禁止用于商业用途。代码最后更新时间为 2017 年，可能与现代版本的 TensorFlow 和 OpenCV 存在兼容性问题。",[99,100],"tensorflow","opencv2",[15],"2026-03-27T02:49:30.150509","2026-04-08T13:57:53.690955",[105,110,115,120,125,130,135,140],{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},24438,"为什么代码中没有使用 Softmax 函数？","YOLO 架构在分数函数层（score function layer）采用了不同的设计，它更像是在计算一个张量，而不是传统的分类 Softmax。对于每个网格单元的 P(Object) 概率计算，它们通常与边界框的 IOU（交并比）对齐。具体实现细节建议参考原始论文，该代码主要用于测试运行。","https:\u002F\u002Fgithub.com\u002Fgliese581gg\u002FYOLO_tensorflow\u002Fissues\u002F29",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},24439,"使用 YOLO_weight_extractor 时，为什么没有生成最大池化（Max-Pool）层？","这是正常现象。权重提取器（weight extractor）的作用是提取权重（weights）和偏置（biases）的值。由于最大池化层不包含任何权重或偏置参数，因此不需要在权重提取过程中生成对应的层。当使用 YOLO.py 构建 TensorFlow 网络时，程序会自动正确地构建池化层。","https:\u002F\u002Fgithub.com\u002Fgliese581gg\u002FYOLO_tensorflow\u002Fissues\u002F27",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},24440,"如何配置单类别（one class）的 cfg 和 .weights 文件以避免断言错误？","出现 `Assertion side*side*((1 + l.coords)*l.n + l.classes) == inputs' failed` 错误是因为输出维度不匹配。解决方法是确保最后一个 [connected] 层的 output 数值等于公式 `side * side * ((1 + coords) * num + classes)` 的计算结果。例如，如果 side=7, coords=4, num=2, classes=1，则 output 应设置为 1470。","https:\u002F\u002Fgithub.com\u002Fgliese581gg\u002FYOLO_tensorflow\u002Fissues\u002F41",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},24441,"非极大值抑制（NMS）代码中，为什么要移除高 IOU 的框而不是低 IOU 的？","代码逻辑是正确的。在非极大值抑制过程中，如果两个框的 IOU 超过阈值（iou_threshold），说明它们检测的是同一个物体。此时应保留置信度（probability）较高的框，并将重叠度高（高 IOU）且置信度较低的框的概率设为 0 以进行过滤。","https:\u002F\u002Fgithub.com\u002Fgliese581gg\u002FYOLO_tensorflow\u002Fissues\u002F37",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},24442,"如何将 Darknet 的 .weights 文件转换为 TensorFlow 的 .ckpt 文件？","可以使用项目中的 `YOLO_weight_extractor` 脚本来提取 Darknet 权重文件中的权重和偏置值，然后结合 `YOLO_builder.py` 重建 TensorFlow 网络结构并保存为 .ckpt 格式。注意：生成的 .ckpt 通常包含 `.data` 和 `.meta` 两个文件，加载模型时需同时使用这两个文件。","https:\u002F\u002Fgithub.com\u002Fgliese581gg\u002FYOLO_tensorflow\u002Fissues\u002F24",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},24443,"从 Darknet 提取权重时，文件大小对不上（例如原文件 172M，提取后仅 123M）是什么原因？","这通常是因为提取脚本未完全覆盖 Darknet 权重文件的所有部分，或者对网络结构的理解有偏差（如忽略了某些层或参数）。请仔细核对提取脚本中定义的网络层级顺序、滤波器数量是否与原始的 cfg 文件完全一致。Darknet 的 .weight 文件可能包含额外的头部信息或特定格式数据，需确保解析逻辑正确。","https:\u002F\u002Fgithub.com\u002Fgliese581gg\u002FYOLO_tensorflow\u002Fissues\u002F6",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},24444,"运行 darknet 命令时提示“找不到命令”（command not found）怎么办？","该错误表明系统无法找到 `darknet` 可执行文件。请确保你已经编译了 Darknet 框架（运行 `make`），并且 `darknet` 二进制文件位于当前目录下或在系统的环境变量 PATH 中。如果是相对路径执行，请尝试使用 `.\u002Fdarknet` 或提供绝对路径。","https:\u002F\u002Fgithub.com\u002Fgliese581gg\u002FYOLO_tensorflow\u002Fissues\u002F40",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},24445,"如何使用该模型检测图像中的多个目标？","YOLO 算法本身支持多目标检测。只需将图像输入模型，模型会输出多个边界框及其对应的类别概率。通过设置合适的置信度阈值和非极大值抑制（NMS）阈值，即可过滤掉低质量的重叠框，从而得到图像中所有检测到的目标。无需特殊配置，默认代码已包含处理多个目标的逻辑。","https:\u002F\u002Fgithub.com\u002Fgliese581gg\u002FYOLO_tensorflow\u002Fissues\u002F39",[]]