[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Hzzone--pytorch-openpose":3,"tool-Hzzone--pytorch-openpose":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",152630,2,"2026-04-12T23:33:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":76,"owner_email":77,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":90,"forks":91,"last_commit_at":92,"license":78,"difficulty_score":10,"env_os":93,"env_gpu":94,"env_ram":93,"env_deps":95,"category_tags":101,"github_topics":102,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":106,"updated_at":107,"faqs":108,"releases":144},7074,"Hzzone\u002Fpytorch-openpose","pytorch-openpose","pytorch implementation of openpose including Hand and Body Pose Estimation.","pytorch-openpose 是经典姿态估计项目 OpenPose 的 PyTorch 版本，专注于实现高精度的**人体与手部关键点检测**。它解决了原始 OpenPose 主要基于 Caffe 框架、在主流深度学习生态中集成不便的问题，让开发者能更轻松地在 PyTorch 环境中调用强大的多人员姿态识别能力。\n\n该工具特别适合**AI 研究人员、计算机视觉开发者**以及需要快速验证姿态算法原型的工程师使用。其核心亮点在于模型并非重新训练，而是通过专用脚本直接将官方发布的 Caffe 模型权重转换为 PyTorch 格式（.pth），从而在保留原始算法精度的同时，实现了框架的无缝迁移。此外，它延续了 OpenPose 的独特逻辑，利用手腕和手肘位置自动推算手部区域，无需额外标注即可实现连贯的“身体 + 手部”联合检测。\n\n项目提供了完善的演示代码，支持实时摄像头输入、静态图片分析及视频文件处理，并附带详细的安装指南。对于希望深入研究 2D 姿态估计、动作分析或人机交互应用的团队来说，pytorch-openpose 是一个开箱即用且易于二次开发的高质量基础工具。","## pytorch-openpose\n\npytorch implementation of [openpose](https:\u002F\u002Fgithub.com\u002FCMU-Perceptual-Computing-Lab\u002Fopenpose) including **Body and Hand Pose Estimation**, and the pytorch model is directly converted from [openpose](https:\u002F\u002Fgithub.com\u002FCMU-Perceptual-Computing-Lab\u002Fopenpose) caffemodel by [caffemodel2pytorch](https:\u002F\u002Fgithub.com\u002Fvadimkantorov\u002Fcaffemodel2pytorch). You could implement face keypoint detection in the same way if you are interested in. Pay attention to that the face keypoint detector was trained using the procedure described in [Simon et al. 2017] for hands.\n\nopenpose detects hand by the result of body pose estimation, please refer to the code of [handDetector.cpp](https:\u002F\u002Fgithub.com\u002FCMU-Perceptual-Computing-Lab\u002Fopenpose\u002Fblob\u002Fmaster\u002Fsrc\u002Fopenpose\u002Fhand\u002FhandDetector.cpp).\nIn the paper, it states as:\n```\nThis is an important detail: to use the keypoint detector in any practical situation, \nwe need a way to generate this bounding box. \nWe directly use the body pose estimation models from [29] and [4], \nand use the wrist and elbow position to approximate the hand location, \nassuming the hand extends 0.15 times the length of the forearm in the same direction.\n```\n\nIf anybody wants a pure python wrapper, please refer to my [pytorch implementation](https:\u002F\u002Fgithub.com\u002FHzzone\u002Fpytorch-openpose) of openpose, maybe it helps you to implement a standalone hand keypoint detector.\n\nDon't be mean to star this repo if it helps your research.\n\n### Getting Started\n\n#### Install Requriements\n\nCreate a python 3.7 environement, eg:\n\n    conda create -n pytorch-openpose python=3.7\n    conda activate pytorch-openpose\n\nInstall pytorch by following the quick start guide here (use pip) https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html\n\nInstall other requirements with pip\n\n    pip install -r requirements.txt\n\n#### Download the Models\n\n* [dropbox](https:\u002F\u002Fwww.dropbox.com\u002Fsh\u002F7xbup2qsn7vvjxo\u002FAABWFksdlgOMXR_r5v3RwKRYa?dl=0)\n* [baiduyun](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1IlkvuSi0ocNckwbnUe7j-g)\n* [google drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1JsvI4M4ZTg98fmnCZLFM-3TeovnCRElG?usp=sharing)\n\n`*.pth` files are pytorch model, you could also download caffemodel file if you want to use caffe as backend.\n\nDownload the pytorch models and put them in a directory named `model` in the project root directory\n\n#### Run the Demo\n\nRun:\n\n    python demo_camera.py\n\nto run a demo with a feed from your webcam or run\n\n    python demo.py\n\nto use a image from the images folder or run \n\n    python demo_video.py \u003Cvideo-file>\n\nto process a video file (requires [ffmpeg-python][ffmpeg]).\n\n[ffmpeg]: https:\u002F\u002Fpypi.org\u002Fproject\u002Fffmpeg-python\u002F\n\n### Todo list\n- [x] convert caffemodel to pytorch.\n- [x] Body Pose Estimation.\n- [x] Hand Pose Estimation.\n- [ ] Performance test.\n- [ ] Speed up.\n\n### Demo\n#### Skeleton\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHzzone_pytorch-openpose_readme_ae1f8f052cb9.jpg)\n#### Body Pose Estimation\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHzzone_pytorch-openpose_readme_a21c56644b1c.jpg)\n\n#### Hand Pose Estimation\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHzzone_pytorch-openpose_readme_7cf50f3c928e.png)\n\n#### Body + Hand\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHzzone_pytorch-openpose_readme_4a2df47db89a.png)\n\n#### Video Body\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHzzone_pytorch-openpose_readme_0b78a9daf4d2.gif)\n\nAttribution: [this video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=kc-e129SBb4).\n\n#### Video Hand\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHzzone_pytorch-openpose_readme_216c2e173df9.gif)\n\nAttribution: [this video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=yOAmYSW3WyU).\n\n### Citation\nPlease cite these papers in your publications if it helps your research (the face keypoint detector was trained using the procedure described in [Simon et al. 2017] for hands):\n\n```\n@inproceedings{cao2017realtime,\n  author = {Zhe Cao and Tomas Simon and Shih-En Wei and Yaser Sheikh},\n  booktitle = {CVPR},\n  title = {Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields},\n  year = {2017}\n}\n\n@inproceedings{simon2017hand,\n  author = {Tomas Simon and Hanbyul Joo and Iain Matthews and Yaser Sheikh},\n  booktitle = {CVPR},\n  title = {Hand Keypoint Detection in Single Images using Multiview Bootstrapping},\n  year = {2017}\n}\n\n@inproceedings{wei2016cpm,\n  author = {Shih-En Wei and Varun Ramakrishna and Takeo Kanade and Yaser Sheikh},\n  booktitle = {CVPR},\n  title = {Convolutional pose machines},\n  year = {2016}\n}\n```\n","## pytorch-openpose\n\n基于 PyTorch 的 [OpenPose](https:\u002F\u002Fgithub.com\u002FCMU-Perceptual-Computing-Lab\u002Fopenpose) 实现，包括 **人体和手部姿态估计**。该 PyTorch 模型直接由 [OpenPose](https:\u002F\u002Fgithub.com\u002FCMU-Perceptual-Computing-Lab\u002Fopenpose) 的 Caffe 模型通过 [caffemodel2pytorch](https:\u002F\u002Fgithub.com\u002Fvadimkantorov\u002Fcaffemodel2pytorch) 转换而来。如果您感兴趣，也可以用同样的方法实现人脸关键点检测。需要注意的是，人脸关键点检测器是按照 [Simon et al. 2017] 中针对手部描述的流程进行训练的。\n\nOpenPose 是通过人体姿态估计的结果来检测手部的，请参考 [handDetector.cpp](https:\u002F\u002Fgithub.com\u002FCMU-Perceptual-Computing-Lab\u002Fopenpose\u002Fblob\u002Fmaster\u002Fsrc\u002Fopenpose\u002Fhand\u002FhandDetector.cpp) 的代码。论文中这样写道：\n\n```\n这是一个重要的细节：要在任何实际场景中使用关键点检测器，我们需要一种生成边界框的方法。我们直接使用来自 [29] 和 [4] 的人体姿态估计模型，并利用手腕和肘部的位置来近似手部位置，假设手部沿同一方向延伸至前臂长度的 0.15 倍。\n```\n\n如果有人想要一个纯 Python 封装，可以参考我的 OpenPose [PyTorch 实现](https:\u002F\u002Fgithub.com\u002FHzzone\u002Fpytorch-openpose)，或许能帮助您实现一个独立的手部关键点检测器。\n\n如果您觉得这个项目对研究有帮助，请不要吝啬给它点个 Star！\n\n### 快速开始\n\n#### 安装依赖\n\n创建一个 Python 3.7 环境，例如：\n\n    conda create -n pytorch-openpose python=3.7\n    conda activate pytorch-openpose\n\n按照这里的快速入门指南安装 PyTorch（使用 pip）：https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html\n\n然后使用 pip 安装其他依赖：\n\n    pip install -r requirements.txt\n\n#### 下载模型\n\n* [Dropbox](https:\u002F\u002Fwww.dropbox.com\u002Fsh\u002F7xbup2qsn7vvjxo\u002FAABWFksdlgOMXR_r5v3RwKRYa?dl=0)\n* [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1IlkvuSi0ocNckwbnUe7j-g)\n* [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1JsvI4M4ZTg98fmnCZLFM-3TeovnCRElG?usp=sharing)\n\n`.pth` 文件是 PyTorch 模型，您也可以下载 Caffe 模型文件，以便使用 Caffe 作为后端。\n\n将 PyTorch 模型下载并放置在项目根目录下的 `model` 文件夹中。\n\n#### 运行示例\n\n运行以下命令以使用您的摄像头进行演示：\n\n    python demo_camera.py\n\n或者运行：\n\n    python demo.py\n\n以使用 `images` 文件夹中的图片；也可以运行：\n\n    python demo_video.py \u003Cvideo-file>\n\n来处理视频文件（需要 [ffmpeg-python][ffmpeg]）。\n\n[ffmpeg]: https:\u002F\u002Fpypi.org\u002Fproject\u002Fffmpeg-python\u002F\n\n### 待办事项\n- [x] 将 Caffe 模型转换为 PyTorch 格式。\n- [x] 人体姿态估计。\n- [x] 手部姿态估计。\n- [ ] 性能测试。\n- [ ] 加快速度。\n\n### 示例\n#### 骨骼图\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHzzone_pytorch-openpose_readme_ae1f8f052cb9.jpg)\n#### 人体姿态估计\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHzzone_pytorch-openpose_readme_a21c56644b1c.jpg)\n\n#### 手部姿态估计\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHzzone_pytorch-openpose_readme_7cf50f3c928e.png)\n\n#### 人体 + 手部\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHzzone_pytorch-openpose_readme_4a2df47db89a.png)\n\n#### 视频中的人体\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHzzone_pytorch-openpose_readme_0b78a9daf4d2.gif)\n\n鸣谢：[此视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=kc-e129SBb4)。\n\n#### 视频中的手部\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHzzone_pytorch-openpose_readme_216c2e173df9.gif)\n\n鸣谢：[此视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=yOAmYSW3WyU)。\n\n### 引用\n如果您在论文或研究中使用了本项目，请引用以下文献（人脸关键点检测器是按照 [Simon et al. 2017] 中针对手部描述的流程训练的）：\n\n```\n@inproceedings{cao2017realtime,\n  author = {Zhe Cao and Tomas Simon and Shih-En Wei and Yaser Sheikh},\n  booktitle = {CVPR},\n  title = {Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields},\n  year = {2017}\n}\n\n@inproceedings{simon2017hand,\n  author = {Tomas Simon and Hanbyul Joo and Iain Matthews and Yaser Sheikh},\n  booktitle = {CVPR},\n  title = {Hand Keypoint Detection in Single Images using Multiview Bootstrapping},\n  year = {2017}\n}\n\n@inproceedings{wei2016cpm,\n  author = {Shih-En Wei and Varun Ramakrishna and Takeo Kanade and Yaser Sheikh},\n  booktitle = {CVPR},\n  title = {Convolutional pose machines},\n  year = {2016}\n}\n```","# pytorch-openpose 快速上手指南\n\n`pytorch-openpose` 是 OpenPose 的 PyTorch 实现版本，支持**人体姿态估计**和**手部姿态估计**。该项目的模型直接由官方 Caffe 模型转换而来，可轻松集成到 Python 项目中。\n\n## 环境准备\n\n*   **操作系统**: Linux \u002F macOS \u002F Windows\n*   **Python 版本**: 推荐 3.7\n*   **核心依赖**: PyTorch, OpenCV, NumPy\n*   **可选依赖**: `ffmpeg-python` (用于处理视频文件)\n\n## 安装步骤\n\n### 1. 创建虚拟环境\n建议使用 Conda 创建独立的 Python 3.7 环境：\n\n```bash\nconda create -n pytorch-openpose python=3.7\nconda activate pytorch-openpose\n```\n\n### 2. 安装 PyTorch\n请根据你的 CUDA 版本访问 [PyTorch 官网](https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html) 获取安装命令。若无需 GPU 加速或使用默认配置，可使用 pip 安装：\n\n```bash\npip install torch torchvision torchaudio\n```\n\n> **国内加速提示**：如遇下载缓慢，可使用清华源或阿里源：\n> `pip install torch torchvision torchaudio -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n### 3. 安装其他依赖\n克隆本项目后，进入目录并安装 requirements：\n\n```bash\npip install -r requirements.txt\n```\n\n若需处理视频文件，请额外安装 ffmpeg-python：\n```bash\npip install ffmpeg-python\n```\n*(注意：系统层面仍需安装 FFmpeg 工具)*\n\n### 4. 下载预训练模型\n将下载的模型文件放入项目根目录下的 `model` 文件夹中。\n\n*   **百度网盘 (推荐国内用户)**: [点击下载](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1IlkvuSi0ocNckwbnUe7j-g)\n*   Dropbox: [链接](https:\u002F\u002Fwww.dropbox.com\u002Fsh\u002F7xbup2qsn7vvjxo\u002FAABWFksdlgOMXR_r5v3RwKRYa?dl=0)\n*   Google Drive: [链接](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1JsvI4M4ZTg98fmnCZLFM-3TeovnCRElG?usp=sharing)\n\n确保目录结构如下：\n```text\npytorch-openpose\u002F\n├── model\u002F\n│   ├── pose_iter_440000.pth  (示例文件名，具体以实际下载为准)\n│   └── ...\n├── demo.py\n└── ...\n```\n\n## 基本使用\n\n安装完成后，可通过以下命令运行演示：\n\n**1. 调用摄像头实时检测**\n```bash\npython demo_camera.py\n```\n\n**2. 检测单张图片**\n将图片放入 `images` 文件夹，然后运行：\n```bash\npython demo.py\n```\n\n**3. 处理视频文件**\n```bash\npython demo_video.py \u003Cvideo-file>\n```\n*例如：`python demo_video.py input.mp4`*\n\n运行成功后，程序将输出包含人体骨架和手部关键点标注的结果图像或视频。","某智能健身教练初创团队正在开发一款能实时纠正用户深蹲和手部动作的移动端应用。\n\n### 没有 pytorch-openpose 时\n- **开发门槛极高**：团队需手动复现复杂的 OpenPose Caffe 模型，或在 Python 与 C++ 之间搭建繁琐的接口，导致原型验证周期长达数周。\n- **手部细节丢失**：现有的轻量级人体姿态库仅能识别躯干关键点，无法精准捕捉手指关节，导致无法判断用户握持哑铃的姿势是否标准。\n- **部署环境割裂**：由于依赖 Caffe 后端，算法难以直接融入基于 PyTorch 的主流深度学习流水线，增加了服务器端的维护成本和推理延迟。\n- **多模态数据不同步**：身体与手部检测需要运行两套独立逻辑，难以利用手腕和手肘位置自动推导手部区域，造成算力浪费和坐标对齐困难。\n\n### 使用 pytorch-openpose 后\n- **快速集成落地**：直接加载转换好的 `.pth` 模型文件，团队在一天内就完成了从摄像头采集到骨骼点输出的全流程 Demo 构建。\n- **精细化动作捕捉**：借助其内置的手部姿态估计功能，系统能精确识别 21 个手部关键点，成功实现了对“握拳”、“张开”等细微健身动作的量化评分。\n- **原生生态兼容**：作为纯 PyTorch 实现，该工具无缝对接团队现有的模型优化与部署方案，显著降低了工程复杂度并提升了推理效率。\n- **联动检测机制**：利用其基于身体姿态自动定位手部的算法逻辑，无需额外训练检测器即可实现“身体 + 手部”的联合高精度输出，确保了动作分析的连贯性。\n\npytorch-openpose 通过提供原生 PyTorch 支持的高精度全身及手部姿态估计，将复杂的多模态动作分析研发周期从数周缩短至数天。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHzzone_pytorch-openpose_ae1f8f05.jpg","Hzzone","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FHzzone_37a1169c.jpg","Everything is easy when someone tells you how.","Fudan University","Shanghai, China","zhizhonghwang@gmail.com",null,"https:\u002F\u002Fhzzone.github.io\u002F","https:\u002F\u002Fgithub.com\u002FHzzone",[82,86],{"name":83,"color":84,"percentage":85},"Jupyter Notebook","#DA5B0B",95.9,{"name":87,"color":88,"percentage":89},"Python","#3572A5",4.1,2311,415,"2026-04-02T08:23:05","未说明","未说明（基于 PyTorch 实现，通常建议使用 NVIDIA GPU 以加速推理，但 README 未明确指定型号、显存或 CUDA 版本）",{"notes":96,"python":97,"dependencies":98},"建议使用 conda 创建 Python 3.7 环境。模型文件需单独下载（提供 Dropbox、百度云和 Google Drive 链接），并放置在项目根目录下的 'model' 文件夹中。该工具支持人体和手部姿态估计，视频处理功能依赖 ffmpeg-python。面部关键点检测需参考相关论文自行实现。","3.7",[99,100],"torch","ffmpeg-python",[14],[103,104,105],"openpose","pytorch","pose-estimation","2026-03-27T02:49:30.150509","2026-04-13T17:51:16.125821",[109,114,119,124,129,134,139],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},31826,"运行 demo.py 时遇到 'ZeroDivisionError: float division by zero' 错误怎么办？","该错误通常发生在 body.py 文件中计算归一化向量时。解决方法是在导致错误的 norm 变量上添加一个极小值（如 1e-6）以避免除以零。具体修改建议：在相关代码行将 norm 替换为 (norm + 1e-6)。","https:\u002F\u002Fgithub.com\u002FHzzone\u002Fpytorch-openpose\u002Fissues\u002F42",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},31827,"该项目可以用于商业用途吗？","不可以直接用于商业用途。由于该项目是 CMU OpenPose 的衍生作品，其预训练模型和代码遵循 CMU 的许可协议。如果需要用于商业项目，必须向 CMU-Perceptual-Computing-Lab 申请商业许可证。","https:\u002F\u002Fgithub.com\u002FHzzone\u002Fpytorch-openpose\u002Fissues\u002F30",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},31828,"如何生成只有骨架连线而没有背景图像的效果图？","可以通过修改 src\u002Fbody.py 文件中的绘图代码来实现。找到第 216 行左右的代码，将原始图像替换为零矩阵。具体代码修改为：\ncanvas = util.draw_bodypose(np.zeros_like(oriImg), candidate, subset)\n这样生成的 canvas 将只包含绘制在黑色背景上的骨架。","https:\u002F\u002Fgithub.com\u002FHzzone\u002Fpytorch-openpose\u002Fissues\u002F78",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},31829,"body_estimation() 函数返回的 candidate 和 subset 数组中各列代表什么含义？","返回数据的含义如下：\n1. candidate 数组：每一行代表一个检测到的关键点候选，列含义依次为 [x 坐标，y 坐标，置信度分数 (score), id]。\n2. subset 数组：是一个 N*20 的数组。其中第 0-17 列表示对应身体部位在 candidate 数组中的索引；第 18 列是该人的总得分；第 19 列是检测到的身体部位总数。","https:\u002F\u002Fgithub.com\u002FHzzone\u002Fpytorch-openpose\u002Fissues\u002F61",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},31830,"模型权重转换与 3D 三角测量功能有什么关系？如何实现 3D 检测？","模型权重转换（从 Caffe 到 PyTorch）与 3D 三角测量功能无关。实现 3D 检测的逻辑是：首先使用模型对多个视角的图像进行推理得到 2D 关键点，然后根据这些检测到的关键点进行 3D 三角测量计算。你需要自行实现多视角推理后的三角测量算法部分。","https:\u002F\u002Fgithub.com\u002FHzzone\u002Fpytorch-openpose\u002Fissues\u002F9",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},31831,"视频流处理第一帧正常，后续帧报错 'TypeError: str object is not callable' 是什么原因？","这通常是因为命名冲突导致的。检查代码中是否定义了名为 'label' 的变量，它覆盖了 scipy.ndimage 或类似库中的 'label' 函数。确保不要使用 'label' 作为变量名，或者在调用函数时使用完整的模块路径（例如 scipy.ndimage.label）。","https:\u002F\u002Fgithub.com\u002FHzzone\u002Fpytorch-openpose\u002Fissues\u002F6",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},31832,"model.bodypose_model 中的 'no_relu_layers' 列表最后一个元素定义是否有误？","是的，原本定义为 'Mconv7_stage6_L1' 可能是一个笔误，理论上应该是 'Mconv7_stage6_L2'。不过根据维护者反馈，这个小的负值差异对最终结果影响不大，但为了逻辑正确性建议修正。","https:\u002F\u002Fgithub.com\u002FHzzone\u002Fpytorch-openpose\u002Fissues\u002F62",[]]