[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Daniil-Osokin--lightweight-human-pose-estimation-3d-demo.pytorch":3,"tool-Daniil-Osokin--lightweight-human-pose-estimation-3d-demo.pytorch":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":77,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":77,"owner_website":82,"owner_url":83,"languages":84,"stars":97,"forks":98,"last_commit_at":99,"license":100,"difficulty_score":101,"env_os":102,"env_gpu":103,"env_ram":104,"env_deps":105,"category_tags":116,"github_topics":117,"view_count":23,"oss_zip_url":77,"oss_zip_packed_at":77,"status":16,"created_at":129,"updated_at":130,"faqs":131,"releases":161},2601,"Daniil-Osokin\u002Flightweight-human-pose-estimation-3d-demo.pytorch","lightweight-human-pose-estimation-3d-demo.pytorch","Real-time 3D multi-person pose estimation demo in PyTorch. OpenVINO backend can be used for fast inference on CPU.","lightweight-human-pose-estimation-3d-demo.pytorch 是一款基于 PyTorch 开发的开源工具，专注于实现实时的多人三维姿态估计。它能够从普通的单目 RGB 视频流中，精准检测并重建多达 18 种人体关键点（如眼、鼻、四肢关节等）的三维空间坐标，将二维图像信息转化为立体的动作数据。\n\n该工具主要解决了在缺乏深度相机等专业硬件的情况下，如何低成本、高效率地获取高质量人体三维运动数据的难题。通过结合 Lightweight OpenPose 等前沿算法，它在 CMU Panoptic 数据集上实现了平均 100 毫米的关节位置误差精度，兼顾了速度与准确性。\n\n其独特的技术亮点在于灵活的推理后端支持：除了标准的 PyTorch 环境外，还特别集成了 Intel OpenVINO 和 NVIDIA TensorRT 加速方案。这使得用户不仅能在高性能 GPU 上运行，也能在普通 CPU 或 Jetson 边缘设备上实现流畅的实时推断，极大地降低了部署门槛。\n\n这款工具非常适合计算机视觉开发者、人工智能研究人员以及需要动作捕捉技术的工程师使用。无论","lightweight-human-pose-estimation-3d-demo.pytorch 是一款基于 PyTorch 开发的开源工具，专注于实现实时的多人三维姿态估计。它能够从普通的单目 RGB 视频流中，精准检测并重建多达 18 种人体关键点（如眼、鼻、四肢关节等）的三维空间坐标，将二维图像信息转化为立体的动作数据。\n\n该工具主要解决了在缺乏深度相机等专业硬件的情况下，如何低成本、高效率地获取高质量人体三维运动数据的难题。通过结合 Lightweight OpenPose 等前沿算法，它在 CMU Panoptic 数据集上实现了平均 100 毫米的关节位置误差精度，兼顾了速度与准确性。\n\n其独特的技术亮点在于灵活的推理后端支持：除了标准的 PyTorch 环境外，还特别集成了 Intel OpenVINO 和 NVIDIA TensorRT 加速方案。这使得用户不仅能在高性能 GPU 上运行，也能在普通 CPU 或 Jetson 边缘设备上实现流畅的实时推断，极大地降低了部署门槛。\n\n这款工具非常适合计算机视觉开发者、人工智能研究人员以及需要动作捕捉技术的工程师使用。无论是用于构建智能监控、人机交互系统，还是进行学术算法验证，它都提供了一套轻量且高效的解决方案，帮助用户快速搭建起自己的 3D 姿态分析应用。","# Real-time 3D Multi-person Pose Estimation Demo\n\nThis repository contains 3D multi-person pose estimation demo in PyTorch. Intel OpenVINO&trade; backend can be used for fast inference on CPU. This demo is based on [Lightweight OpenPose](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.12004.pdf) and [Single-Shot Multi-Person 3D Pose Estimation From Monocular RGB](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1712.03453.pdf) papers. It detects 2D coordinates of up to 18 types of keypoints: ears, eyes, nose, neck, shoulders, elbows, wrists, hips, knees, and ankles, as well as their 3D coordinates. It was trained on [MS COCO](http:\u002F\u002Fcocodataset.org\u002F#home) and [CMU Panoptic](http:\u002F\u002Fdomedb.perception.cs.cmu.edu\u002F) datasets and achieves 100 mm MPJPE (mean per joint position error) on CMU Panoptic subset. *This repository significantly overlaps with https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopen_model_zoo\u002F, however contains just the necessary code for 3D human pose estimation demo.*\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDaniil-Osokin_lightweight-human-pose-estimation-3d-demo.pytorch_readme_6a6cf75f7a84.jpg\" \u002F>\n\u003C\u002Fp>\n\n> The major part of this work was done by [Mariia Ageeva](https:\u002F\u002Fgithub.com\u002Fmarrmar), when she was the :top::rocket::fire: intern at Intel.\n\n## Table of Contents\n\n* [Requirements](#requirements)\n* [Prerequisites](#prerequisites)\n* [Pre-trained model](#pre-trained-model)\n* [Running](#running)\n* [Inference with OpenVINO](#inference-openvino)\n* [Inference with TensorRT](#inference-tensorrt)\n\n## Requirements\n* Python 3.5 (or above)\n* CMake 3.10 (or above)\n* C++ Compiler (g++ or MSVC)\n* OpenCV 4.0 (or above)\n\n> [Optional] [Intel OpenVINO](https:\u002F\u002Fsoftware.intel.com\u002Fen-us\u002Fopenvino-toolkit) for fast inference on CPU.\n> [Optional] [NVIDIA TensorRT](https:\u002F\u002Fdocs.nvidia.com\u002Fdeeplearning\u002Ftensorrt\u002Finstall-guide\u002Findex.html) for fast inference on Jetson.\n\n## Prerequisites\n1. Install requirements:\n```\npip install -r requirements.txt\n```\n2. Build `pose_extractor` module:\n```\npython setup.py build_ext\n```\n3. Add build folder to `PYTHONPATH`:\n```\nexport PYTHONPATH=pose_extractor\u002Fbuild\u002F:$PYTHONPATH\n```\n\n## Pre-trained model \u003Ca name=\"pre-trained-model\"\u002F>\n\nPre-trained model is available at [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1niBUbUecPhKt3GyeDNukobL4OQ3jqssH\u002Fview?usp=sharing).\n\n## Running\n\nTo run the demo, pass path to the pre-trained checkpoint and camera id (or path to video file):\n```\npython demo.py --model human-pose-estimation-3d.pth --video 0\n```\n> Camera can capture scene under different view angles, so for correct scene visualization, please pass camera extrinsics and focal length with `--extrinsics` and `--fx` options correspondingly (extrinsics sample format can be found in data folder). In case no camera parameters provided, demo will use the default ones.\n\n## Inference with OpenVINO \u003Ca name=\"inference-openvino\"\u002F>\n\nTo run with OpenVINO, it is necessary to convert checkpoint to OpenVINO format:\n1. Set OpenVINO environment variables:\n    ```\n\tsource \u003COpenVINO_INSTALL_DIR>\u002Fbin\u002Fsetupvars.sh\n\t```\n2. Convert checkpoint to ONNX:\n    ```\n\tpython scripts\u002Fconvert_to_onnx.py --checkpoint-path human-pose-estimation-3d.pth\n\t```\n3. Convert to OpenVINO format:\n    ```\n\tpython \u003COpenVINO_INSTALL_DIR>\u002Fdeployment_tools\u002Fmodel_optimizer\u002Fmo.py --input_model human-pose-estimation-3d.onnx --input=data --mean_values=data[128.0,128.0,128.0] --scale_values=data[255.0,255.0,255.0] --output=features,heatmaps,pafs\n\t```\n\nTo run the demo with OpenVINO inference, pass `--use-openvino` option and specify device to infer on:\n```\npython demo.py --model human-pose-estimation-3d.xml --device CPU --use-openvino --video 0\n```\n\n## Inference with TensorRT \u003Ca name=\"inference-tensorrt\"\u002F>\n\nTo run with TensorRT, it is necessary to install it properly. Please, follow the [official guide](https:\u002F\u002Fdocs.nvidia.com\u002Fdeeplearning\u002Ftensorrt\u002Finstall-guide\u002Findex.html), these steps work for me:\n1. [Install](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-downloads) CUDA 11.1.\n2. [Install](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcudnn) cuDNN 8 (runtime library, then developer).\n3. Install `nvidia-tensorrt`:\n    ```\n    python -m pip install nvidia-pyindex\n    pip install nvidia-tensorrt==7.2.1.6\n    ```\n4. [Install](https:\u002F\u002Fgithub.com\u002FNVIDIA-AI-IOT\u002Ftorch2trt) `torch2trt`.\n\nConvert checkpoint to TensorRT format:\n```\npython scripts\u002Fconvert_to_trt.py --checkpoint-path human-pose-estimation-3d.pth\n```\n> TensorRT does not support dynamic network input size reshape.\n  Make sure you have set proper network input height, width with `--height` and `--width` options during conversion (if not, there will be no detections).\n  Default values work for a usual video with 16:9 aspect ratio (1280x720, 1920x1080).\n  You can check the network input size with `print(scaled_img.shape)` in the demo.py\n\nTo run the demo with TensorRT inference, pass `--use-tensorrt` option:\n```\npython demo.py --model human-pose-estimation-3d-trt.pth --use-tensorrt --video 0\n```\n\nI have observed ~10x network inference speedup on RTX 2060 (in comparison with default PyTorch 1.6.0+cu101 inference).","# 实时3D多人姿态估计演示\n\n本仓库包含基于PyTorch的3D多人姿态估计演示。可以使用Intel OpenVINO&trade;后端在CPU上实现快速推理。该演示基于《Lightweight OpenPose》和《单目RGB图像中的单次多人3D姿态估计》两篇论文，能够检测最多18种关键点的2D坐标——包括耳朵、眼睛、鼻子、颈部、肩膀、肘部、手腕、髋部、膝盖和脚踝——以及它们的3D坐标。模型在MS COCO和CMU Panoptic数据集上进行训练，在CMU Panoptic子集上的MPJPE（平均关节位置误差）达到100毫米。*本仓库与https:\u002F\u002Fgithub.com\u002Fopencv\u002Fopen_model_zoo\u002F有较大重叠，但仅包含用于3D人体姿态估计演示的必要代码。*\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDaniil-Osokin_lightweight-human-pose-estimation-3d-demo.pytorch_readme_6a6cf75f7a84.jpg\" \u002F>\n\u003C\u002Fp>\n\n> 该项目的主要工作由Mariia Ageeva完成，当时她正在Intel实习。\n\n## 目录\n\n* [要求](#requirements)\n* [前提条件](#prerequisites)\n* [预训练模型](#pre-trained-model)\n* [运行](#running)\n* [使用OpenVINO推理](#inference-openvino)\n* [使用TensorRT推理](#inference-tensorrt)\n\n## 要求\n* Python 3.5（或更高版本）\n* CMake 3.10（或更高版本）\n* C++编译器（g++或MSVC）\n* OpenCV 4.0（或更高版本）\n\n> [可选] 使用Intel OpenVINO加速CPU上的推理。\n> [可选] 使用NVIDIA TensorRT加速Jetson平台上的推理。\n\n## 前提条件\n1. 安装依赖：\n```\npip install -r requirements.txt\n```\n2. 构建`pose_extractor`模块：\n```\npython setup.py build_ext\n```\n3. 将构建目录添加到`PYTHONPATH`：\n```\nexport PYTHONPATH=pose_extractor\u002Fbuild\u002F:$PYTHONPATH\n```\n\n## 预训练模型 \u003Ca name=\"pre-trained-model\"\u002F>\n\n预训练模型可在[Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1niBUbUecPhKt3GyeDNukobL4OQ3jqssH\u002Fview?usp=sharing)下载。\n\n## 运行\n\n要运行演示，请指定预训练检查点路径和摄像头ID（或视频文件路径）：\n```\npython demo.py --model human-pose-estimation-3d.pth --video 0\n```\n> 摄像头可能从不同角度捕捉场景，因此为了正确可视化场景，需通过`--extrinsics`和`--fx`选项分别传入相机外参和焦距（外参示例格式可在data文件夹中找到）。若未提供相机参数，演示将使用默认值。\n\n## 使用OpenVINO推理 \u003Ca name=\"inference-openvino\"\u002F>\n\n要使用OpenVINO运行，需先将检查点转换为OpenVINO格式：\n1. 设置OpenVINO环境变量：\n    ```\n\tsource \u003COpenVINO_INSTALL_DIR>\u002Fbin\u002Fsetupvars.sh\n\t```\n2. 将检查点转换为ONNX格式：\n    ```\n\tpython scripts\u002Fconvert_to_onnx.py --checkpoint-path human-pose-estimation-3d.pth\n\t```\n3. 转换为OpenVINO格式：\n    ```\n\tpython \u003COpenVINO_INSTALL_DIR>\u002Fdeployment_tools\u002Fmodel_optimizer\u002Fmo.py --input_model human-pose-estimation-3d.onnx --input=data --mean_values=data[128.0,128.0,128.0] --scale_values=data[255.0,255.0,255.0] --output=features,heatmaps,pafs\n\t```\n\n要使用OpenVINO推理运行演示，请添加`--use-openvino`选项，并指定推理设备：\n```\npython demo.py --model human-pose-estimation-3d.xml --device CPU --use-openvino --video 0\n```\n\n## 使用TensorRT推理 \u003Ca name=\"inference-tensorrt\"\u002F>\n\n要使用TensorRT运行，需正确安装它。请按照官方指南操作，以下步骤对我有效：\n1. [安装](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-downloads)CUDA 11.1。\n2. [安装](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcudnn)cuDNN 8（先安装运行时库，再安装开发者版）。\n3. 安装`nvidia-tensorrt`：\n    ```\n    python -m pip install nvidia-pyindex\n    pip install nvidia-tensorrt==7.2.1.6\n    ```\n4. [安装](https:\u002F\u002Fgithub.com\u002FNVIDIA-AI-IOT\u002Ftorch2trt) `torch2trt`。\n\n将检查点转换为TensorRT格式：\n```\npython scripts\u002Fconvert_to_trt.py --checkpoint-path human-pose-estimation-3d.pth\n```\n> TensorRT不支持动态网络输入尺寸的重塑。\n  确保在转换过程中通过`--height`和`--width`选项设置正确的网络输入高度和宽度（否则将无法检测到任何结果）。\n  默认值适用于常见的16:9比例视频（1280x720、1920x1080）。\n  可以在demo.py中通过`print(scaled_img.shape)`查看网络输入尺寸。\n\n要使用TensorRT推理运行演示，请添加`--use-tensorrt`选项：\n```\npython demo.py --model human-pose-estimation-3d-trt.pth --use-tensorrt --video 0\n```\n\n我在RTX 2060显卡上观察到，与默认的PyTorch 1.6.0+cu101推理相比，网络推理速度提升了约10倍。","# lightweight-human-pose-estimation-3d-demo.pytorch 快速上手指南\n\n本指南帮助开发者快速部署基于 PyTorch 的实时 3D 多人姿态估计 Demo。该工具可检测 18 种关键点的 2D 及 3D 坐标，支持 CPU (OpenVINO) 和 GPU (TensorRT) 加速推理。\n\n## 环境准备\n\n### 系统要求\n*   **Python**: 3.5 或更高版本\n*   **CMake**: 3.10 或更高版本\n*   **编译器**: g++ (Linux) 或 MSVC (Windows)\n*   **OpenCV**: 4.0 或更高版本\n\n### 可选加速后端\n*   **CPU 加速**: Intel OpenVINO Toolkit\n*   **Jetson\u002F边缘端加速**: NVIDIA TensorRT (需 CUDA 11.1 + cuDNN 8)\n\n## 安装步骤\n\n### 1. 安装依赖\n建议使用国内镜像源加速安装：\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 2. 构建扩展模块\n编译 `pose_extractor` C++ 模块：\n```bash\npython setup.py build_ext\n```\n\n### 3. 配置环境变量\n将构建目录添加到 `PYTHONPATH`：\n```bash\nexport PYTHONPATH=pose_extractor\u002Fbuild\u002F:$PYTHONPATH\n```\n*(Windows PowerShell 用户请使用：`$env:PYTHONPATH = \"pose_extractor\\build;\" + $env:PYTHONPATH`)*\n\n### 4. 下载预训练模型\n从 Google Drive 下载模型文件 `human-pose-estimation-3d.pth`：\n[下载链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1niBUbUecPhKt3GyeDNukobL4OQ3jqssH\u002Fview?usp=sharing)\n\n*(注：如无法访问 Google Drive，请自行寻找国内网盘搬运资源)*\n\n## 基本使用\n\n### 运行摄像头演示\n将 `\u003Cpath_to_model>` 替换为实际下载的模型路径，`0` 代表默认摄像头 ID（也可替换为视频文件路径）：\n\n```bash\npython demo.py --model human-pose-estimation-3d.pth --video 0\n```\n\n### 高级参数说明\n*   **相机校准**：若摄像头角度特殊，建议通过 `--extrinsics` (外参) 和 `--fx` (焦距) 传入参数以获得准确的 3D 可视化效果。若不传参，将使用默认值。\n    ```bash\n    python demo.py --model human-pose-estimation-3d.pth --video 0 --extrinsics data\u002Fextrinsics_sample.txt --fx 900.0\n    ```\n\n### 开启加速推理 (可选)\n*   **OpenVINO (CPU)**: 需先将模型转换为 `.xml` 格式，运行时添加 `--use-openvino --device CPU`。\n*   **TensorRT (GPU)**: 需先将模型转换为 TensorRT 格式，运行时添加 `--use-tensorrt`。注意转换时需指定固定的输入宽高 (`--height`, `--width`)。","某智能健身镜研发团队需要在普通摄像头下实时捕捉多名用户的深蹲动作，以纠正姿态并预防运动损伤。\n\n### 没有 lightweight-human-pose-estimation-3d-demo.pytorch 时\n- **硬件成本高昂**：为了获取准确的 3D 关节坐标，团队被迫采购昂贵的深度相机（如 Kinect 或 RealSense），导致产品量产成本居高不下。\n- **多人识别困难**：现有开源方案在多人同框时极易发生骨骼点混淆，无法区分相邻用户的动作，导致纠错指令张冠李戴。\n- **普通电脑运行卡顿**：依赖重型深度学习模型，仅在高端 GPU 服务器上能勉强达到实时帧率，无法在用户家中的普通 PC 或嵌入式设备上流畅运行。\n- **开发周期漫长**：从零复现论文算法并适配不同后端耗时数月，且难以在保证精度的同时优化推理速度。\n\n### 使用 lightweight-human-pose-estimation-3d-demo.pytorch 后\n- **仅需普通摄像头**：利用单目 RGB 摄像头即可通过算法推算出高精度的 3D 人体关键点（误差低至 100mm），彻底省去了深度传感器硬件。\n- **精准的多人体态分析**：基于 Lightweight OpenPose 架构，能稳定追踪画面中多达数人的 18 类关键骨骼点，即使多人并排深蹲也能清晰区分。\n- **CPU 端实时推理**：结合 Intel OpenVINO 后端加速，模型可在普通 CPU 上实现低延迟推理，让家用健身镜无需配备独立显卡也能流畅运行。\n- **快速落地部署**：提供完整的 PyTorch 演示代码及预训练模型，支持一键转换 ONNX 和 TensorRT 格式，将原本数月的算法集成工作缩短至数天。\n\n该工具通过轻量级算法与高效后端加速，成功将原本依赖昂贵专用硬件的 3D 动作捕捉能力，下沉到了普及型消费电子设备中。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDaniil-Osokin_lightweight-human-pose-estimation-3d-demo.pytorch_6a6cf75f.jpg","Daniil-Osokin",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FDaniil-Osokin_ea8cfbe3.png","OpenCV.AI","Russia, Nizhny Novgorod","daniil.osokin@gmail.com","https:\u002F\u002Fwww.youtube.com\u002Fchannel\u002FUCpRd2pU-0_fHVutdregb8XQ","https:\u002F\u002Fgithub.com\u002FDaniil-Osokin",[85,89,93],{"name":86,"color":87,"percentage":88},"Python","#3572A5",69.3,{"name":90,"color":91,"percentage":92},"C++","#f34b7d",29.1,{"name":94,"color":95,"percentage":96},"CMake","#DA3434",1.6,685,138,"2026-03-10T02:36:13","Apache-2.0",4,"Linux, Windows","非必需。若使用 TensorRT 加速需 NVIDIA GPU（文中测试机型为 RTX 2060），需安装 CUDA 11.1 和 cuDNN 8；若使用 OpenVINO 可在 CPU 上运行。显存大小未说明。","未说明",{"notes":106,"python":107,"dependencies":108},"1. 需要编译 C++ 模块 'pose_extractor' 并配置 PYTHONPATH 环境变量。\n2. 支持三种推理后端：默认 PyTorch、Intel OpenVINO（适用于 CPU 加速）和 NVIDIA TensorRT（适用于 Jetson 或 NVIDIA GPU）。\n3. 使用 TensorRT 时不支持动态输入尺寸，转换模型时必须指定固定的高宽（--height 和 --width），否则无法检测到姿态。\n4. 若摄像头视角特殊，运行演示时需通过 --extrinsics 和 --fx 参数提供相机外参和焦距，否则使用默认值。","3.5+",[109,110,111,112,113,114,115],"PyTorch","OpenCV>=4.0","CMake>=3.10","g++ 或 MSVC","Intel OpenVINO (可选)","NVIDIA TensorRT (可选)","torch2trt (可选，用于 TensorRT)",[13,54,14],[118,119,120,121,122,123,124,125,126,127,128],"human-pose-estimation","real-time","3d-human-pose","multi-person-pose-estimation","lightweight","pytorch","openvino","deep-learning","keypoint-estimation","cmu-panoptic","computer-vision","2026-03-27T02:49:30.150509","2026-04-06T10:27:35.860091",[132,137,142,147,152,157],{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},12051,"在 Windows 10 上安装时遇到 CMake 配置错误或 DLL 加载失败（找不到指定模块）怎么办？","如果编译 C++ 扩展模块失败，程序会自动切换到纯 Python 实现（虽然速度较慢），您可以直接运行演示脚本无需额外操作。若必须解决 DLL 加载问题，通常是因为环境配置不匹配，建议检查是否安装了正确的 Visual C++ 运行库，或者直接使用默认的纯 Python 模式即可正常运行。","https:\u002F\u002Fgithub.com\u002FDaniil-Osokin\u002Flightweight-human-pose-estimation-3d-demo.pytorch\u002Fissues\u002F5",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},12052,"运行 setup.py 时提示 'NumPy headers not found' 错误如何解决？","该错误通常由 Python 版本不一致引起（例如系统默认 Python 与虚拟环境 Python 版本不同，导致链接错误的共享库）。解决方案是创建一个与系统 Python 版本一致的虚拟环境。例如，如果系统使用 Python 3.6，请执行：`virtualenv -p \u002Fusr\u002Fbin\u002Fpython3.6 venv_pose3d`，激活该环境后再进行构建。避免混用不同版本的 Python 头文件。","https:\u002F\u002Fgithub.com\u002FDaniil-Osokin\u002Flightweight-human-pose-estimation-3d-demo.pytorch\u002Fissues\u002F71",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},12053,"如何在 Jetson Nano 或 Raspberry Pi 摄像头等非标准视频源上运行演示？","默认参数 `--video 0` 通常用于普通 webcam。对于 Jetson Nano 配合 Raspberry Pi 摄像头出现的 GStreamer 管道错误，通常需要指定正确的 GStreamer 管道字符串作为视频输入源，而不是简单的设备索引。此外，如果遇到 TensorRT 推理时的形状不匹配警告，是因为 TensorRT 不支持动态输入尺寸，需要在转换模型时固定输入分辨率（默认适用于 16:9 比例）。您可以在代码第 95 行附近打印 `scaled_img.shape` 来获取正确的网络输入尺寸并在转换时指定。","https:\u002F\u002Fgithub.com\u002FDaniil-Osokin\u002Flightweight-human-pose-estimation-3d-demo.pytorch\u002Fissues\u002F41",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},12054,"如何对自定义图像序列进行处理并获取输出的 3D 关键点坐标？","默认演示脚本主要设计用于可视化显示，可能无法直接处理通配符形式的图像序列或输出坐标数据到文件。若要处理图像序列并保存 3D 坐标，需要修改 `demo.py` 源码。维护者提供了 diff 补丁文件，您需要将补丁中标记为 `+` 的行添加到 `demo.py` 中对应位置（或使用 `git apply \u003Cdiff-file>` 应用更改）。修改后，脚本将支持读取图像序列并将 3D 关键点坐标输出为 JSON 格式或其他指定格式，而不仅仅是弹出显示窗口。","https:\u002F\u002Fgithub.com\u002FDaniil-Osokin\u002Flightweight-human-pose-estimation-3d-demo.pytorch\u002Fissues\u002F56",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},12055,"将 checkpoints 转换为 OpenVino 格式时出错怎么办？","虽然具体报错信息被截断，但此类问题通常与模型输入尺寸固定化有关。在使用 OpenVino 或 TensorRT 进行模型转换时，必须明确指定固定的输入张量形状，因为推理引擎不支持动态 reshape。请确保在转换脚本中设置的输入分辨率与实际推理时的预处理尺寸一致（通常默认为 16:9 的比例，如 1920x1080 或缩放后的尺寸）。","https:\u002F\u002Fgithub.com\u002FDaniil-Osokin\u002Flightweight-human-pose-estimation-3d-demo.pytorch\u002Fissues\u002F23",{"id":158,"question_zh":159,"answer_zh":160,"source_url":151},12056,"为什么在应用维护者提供的代码补丁（diff）时出现语法错误？","出现 `SyntaxError: invalid syntax` 通常是因为用户直接将 diff 文件的头部信息（如 `diff --git a\u002Fdemo.py b\u002Fdemo.py`）复制粘贴到了 Python 代码文件中。正确的做法是只提取 diff 内容中以 `+` 开头的新增代码行，并将其插入到原文件对应的上下文中；或者如果您使用了 git，可以直接在项目根目录运行 `git apply \u003Cdiff-file-path>` 命令自动应用补丁，避免手动复制粘贴导致的格式错误。",[]]