[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ZheC--Realtime_Multi-Person_Pose_Estimation":3,"tool-ZheC--Realtime_Multi-Person_Pose_Estimation":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",154349,2,"2026-04-13T23:32:16",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":101,"forks":102,"last_commit_at":103,"license":104,"difficulty_score":105,"env_os":106,"env_gpu":107,"env_ram":108,"env_deps":109,"category_tags":119,"github_topics":120,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":131,"updated_at":132,"faqs":133,"releases":164},7300,"ZheC\u002FRealtime_Multi-Person_Pose_Estimation","Realtime_Multi-Person_Pose_Estimation","Code repo for realtime multi-person pose estimation in CVPR'17 (Oral)","Realtime_Multi-Person_Pose_Estimation 是一款专注于实时多人姿态估计的开源项目，由卡内基梅隆大学等机构的研究团队开发。它曾荣获 2016 年 MSCOCO 关键点挑战赛冠军及 CVPR 2017 最佳论文口头报告奖。\n\n该工具主要解决在复杂场景中同时检测多人身体关键点（如关节位置）的难题。与传统方法不同，它创新性地采用了“自底向上”的技术路线：无需预先使用人员检测器来框选每个人，而是先检测图像中所有的身体部位，再通过算法将其智能组合成完整的人体骨架。这一设计不仅大幅提升了处理速度，实现了真正的实时运行，还有效避免了多人重叠时的检测遗漏问题。\n\n该项目非常适合计算机视觉领域的研究人员、算法工程师以及希望集成人体动作分析功能的开发者使用。无论是进行学术研究、视频内容分析，还是开发互动应用，都能从中获益。虽然原始代码库提供了基于 Caffe 和 MATLAB 的实现，但社区已衍生出包括 OpenPose（C++）、TensorFlow、PyTorch 等多种主流框架的版本，极大地降低了使用和二次开发的门槛。如果你需要高效、精准地捕捉视频中多人的动作细节，这","Realtime_Multi-Person_Pose_Estimation 是一款专注于实时多人姿态估计的开源项目，由卡内基梅隆大学等机构的研究团队开发。它曾荣获 2016 年 MSCOCO 关键点挑战赛冠军及 CVPR 2017 最佳论文口头报告奖。\n\n该工具主要解决在复杂场景中同时检测多人身体关键点（如关节位置）的难题。与传统方法不同，它创新性地采用了“自底向上”的技术路线：无需预先使用人员检测器来框选每个人，而是先检测图像中所有的身体部位，再通过算法将其智能组合成完整的人体骨架。这一设计不仅大幅提升了处理速度，实现了真正的实时运行，还有效避免了多人重叠时的检测遗漏问题。\n\n该项目非常适合计算机视觉领域的研究人员、算法工程师以及希望集成人体动作分析功能的开发者使用。无论是进行学术研究、视频内容分析，还是开发互动应用，都能从中获益。虽然原始代码库提供了基于 Caffe 和 MATLAB 的实现，但社区已衍生出包括 OpenPose（C++）、TensorFlow、PyTorch 等多种主流框架的版本，极大地降低了使用和二次开发的门槛。如果你需要高效、精准地捕捉视频中多人的动作细节，这是一个极具参考价值的经典方案。","# Realtime Multi-Person Pose Estimation\nBy [Zhe Cao](https:\u002F\u002Fpeople.eecs.berkeley.edu\u002F~zhecao\u002F), [Tomas Simon](http:\u002F\u002Fwww.cs.cmu.edu\u002F~tsimon\u002F), [Shih-En Wei](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=sFQD3k4AAAAJ&hl=en), [Yaser Sheikh](http:\u002F\u002Fwww.cs.cmu.edu\u002F~yaser\u002F).\n\n## Introduction\nCode repo for winning 2016 MSCOCO Keypoints Challenge, 2016 ECCV Best Demo Award, and 2017 CVPR Oral paper.  \n\nWatch our video result in [YouTube](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=pW6nZXeWlGM&t=77s) or [our website](http:\u002F\u002Fposefs1.perception.cs.cmu.edu\u002FUsers\u002FZheCao\u002Fhumanpose.mp4). \n\nWe present a bottom-up approach for realtime multi-person pose estimation, without using any person detector. For more details, refer to our [CVPR'17 paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.08050), our [oral presentation video recording](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=OgQLDEAjAZ8&list=PLvsYSxrlO0Cl4J_fgMhj2ElVmGR5UWKpB) at CVPR 2017 or our [presentation slides](http:\u002F\u002Fimage-net.org\u002Fchallenges\u002Ftalks\u002F2016\u002FMulti-person%20pose%20estimation-CMU.pdf) at ILSVRC and COCO workshop 2016.\n\n\u003Cp align=\"left\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZheC_Realtime_Multi-Person_Pose_Estimation_readme_0c165cae44e6.gif\", width=\"720\">\n\u003C\u002Fp>\n\n\u003Cp align=\"left\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZheC_Realtime_Multi-Person_Pose_Estimation_readme_be6aa6767561.gif\", width=\"720\">\n\u003C\u002Fp>\n\nThis project is licensed under the terms of the [license](LICENSE).\n\n## Other Implementations\nThank you all for the efforts for the reimplementation! If you have new implementation and want to share with others, feel free to make a pull request or email me! \n- Our new C++ library [OpenPose](https:\u002F\u002Fgithub.com\u002FCMU-Perceptual-Computing-Lab\u002Fopenpose) (testing only)\n- Tensorflow [[version 1]](https:\u002F\u002Fgithub.com\u002Fildoonet\u002Ftf-openpose) | [[version 2]](https:\u002F\u002Fgithub.com\u002Fmichalfaber\u002Fkeras_Realtime_Multi-Person_Pose_Estimation) | [[version 3]](https:\u002F\u002Fgithub.com\u002Fanatolix\u002Fkeras_Realtime_Multi-Person_Pose_Estimation) | [[version 4]](https:\u002F\u002Fgithub.com\u002Fraymon-tian\u002Fkeras_Realtime_Multi-Person_Pose_Estimation) | [[version 5]](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002Fopenpose) | [[version 6]](https:\u002F\u002Fgithub.com\u002FYangZeyu95\u002Funofficial-implement-of-openpose)  | [[version 7 - TF2.1]](https:\u002F\u002Fgithub.com\u002FMikeOfZen\u002FYet-Another-Openpose-Implementation) \n- Pytorch [[version 1]](https:\u002F\u002Fgithub.com\u002Ftensorboy\u002Fpytorch_Realtime_Multi-Person_Pose_Estimation) | [[version 2]](https:\u002F\u002Fgithub.com\u002Flast-one\u002FPytorch_Realtime_Multi-Person_Pose_Estimation) | [[version 3]](https:\u002F\u002Fgithub.com\u002FCVBox\u002FPyTorchCV) \n- Caffe2 [[version 1]](https:\u002F\u002Fgithub.com\u002Feddieyi\u002Fcaffe2-pose-estimation)\n- Chainer [[version 1]](https:\u002F\u002Fgithub.com\u002FDeNA\u002FChainer_Realtime_Multi-Person_Pose_Estimation)\n- MXnet [[version 1]](https:\u002F\u002Fgithub.com\u002Fdragonfly90\u002Fmxnet_Realtime_Multi-Person_Pose_Estimation)\n- MatConvnet [[version 1]](https:\u002F\u002Fgithub.com\u002Fcoocoky\u002Fmatconvnet_Realtime_Multi-Person_Pose_Estimation)\n- CNTK [[version 1]](https:\u002F\u002Fgithub.com\u002FHzzone\u002FCNTK_Realtime_Multi-Person_Pose_Estimation)\n\n\n## Contents\n1. [Testing](#testing)\n2. [Training](#training)\n3. [Citation](#citation)\n\n## Testing\n\n### C++ (realtime version, for demo purpose)\n- Please use [OpenPose](https:\u002F\u002Fgithub.com\u002FCMU-Perceptual-Computing-Lab\u002Fopenpose), now it can run in CPU\u002F GPU and windows \u002FUbuntu.\n- Three input options: images, video, webcam\n\n### Matlab (slower, for COCO evaluation)\n- Compatible with general [Caffe](http:\u002F\u002Fcaffe.berkeleyvision.org\u002F). Compile matcaffe. \n- Run `cd testing; get_model.sh` to retrieve our latest MSCOCO model from our web server.\n- Change the caffepath in the `config.m` and run `demo.m` for an example usage.\n\n### Python\n- `cd testing\u002Fpython`\n- `ipython notebook`\n- Open `demo.ipynb` and execute the code\n\n## Training\n\n### Network Architecture\n![Teaser?](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZheC_Realtime_Multi-Person_Pose_Estimation_readme_24256ca12b4e.png)\n\n### Training Steps \n- Run `cd training; bash getData.sh` to obtain the COCO images in `dataset\u002FCOCO\u002Fimages\u002F`, keypoints annotations in `dataset\u002FCOCO\u002Fannotations\u002F` and [COCO official toolbox](https:\u002F\u002Fgithub.com\u002Fpdollar\u002Fcoco) in `dataset\u002FCOCO\u002Fcoco\u002F`. \n- Run `getANNO.m` in matlab to convert the annotation format from json to mat in `dataset\u002FCOCO\u002Fmat\u002F`.\n- Run `genCOCOMask.m` in matlab to obatin the mask images for unlabeled person. You can use 'parfor' in matlab to speed up the code.\n- Run `genJSON('COCO')` to generate a json file in `dataset\u002FCOCO\u002Fjson\u002F` folder. The json files contain raw informations needed for training.\n- Run `python genLMDB.py` to generate your LMDB. (You can also download our LMDB for the COCO dataset (189GB file) by: `bash get_lmdb.sh`)\n- Download our modified caffe: [caffe_train](https:\u002F\u002Fgithub.com\u002FCMU-Perceptual-Computing-Lab\u002Fcaffe_train). Compile pycaffe. It will be merged with caffe_rtpose (for testing) soon.\n- Run `python setLayers.py --exp 1` to generate the prototxt and shell file for training.\n- Download [VGG-19 model](https:\u002F\u002Fgist.github.com\u002Fksimonyan\u002F3785162f95cd2d5fee77), we use it to initialize the first 10 layers for training.\n- Run `bash train_pose.sh 0,1` (generated by setLayers.py) to start the training with two gpus. \n\n## Citation\nPlease cite the paper in your publications if it helps your research:\n\n    \n    \n    @inproceedings{cao2017realtime,\n      author = {Zhe Cao and Tomas Simon and Shih-En Wei and Yaser Sheikh},\n      booktitle = {CVPR},\n      title = {Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields},\n      year = {2017}\n      }\n\t  \n    @inproceedings{wei2016cpm,\n      author = {Shih-En Wei and Varun Ramakrishna and Takeo Kanade and Yaser Sheikh},\n      booktitle = {CVPR},\n      title = {Convolutional pose machines},\n      year = {2016}\n      }\n","# 实时多人姿态估计\n作者：[Zhe Cao](https:\u002F\u002Fpeople.eecs.berkeley.edu\u002F~zhecao\u002F)、[Tomas Simon](http:\u002F\u002Fwww.cs.cmu.edu\u002F~tsimon\u002F)、[Shih-En Wei](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=sFQD3k4AAAAJ&hl=en)、[Yaser Sheikh](http:\u002F\u002Fwww.cs.cmu.edu\u002F~yaser\u002F)。\n\n## 简介\n本代码库曾荣获2016年MSCOCO关键点挑战赛冠军、2016年ECCV最佳演示奖以及2017年CVPR口头报告论文。  \n\n请观看我们的视频演示：[YouTube](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=pW6nZXeWlGM&t=77s) 或 [我们的网站](http:\u002F\u002Fposefs1.perception.cs.cmu.edu\u002FUsers\u002FZheCao\u002Fhumanpose.mp4)。  \n\n我们提出了一种自下而上的实时多人姿态估计方法，无需使用任何人体检测器。更多细节请参阅我们的 [CVPR'17论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.08050)、我们在CVPR 2017的 [口头报告视频录像](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=OgQLDEAjAZ8&list=PLvsYSxrlO0Cl4J_fgMhj2ElVmGR5UWKpB)，或我们在ILSVRC和COCO研讨会2016上的 [演示幻灯片](http:\u002F\u002Fimage-net.org\u002Fchallenges\u002Ftalks\u002F2016\u002FMulti-person%20pose%20estimation-CMU.pdf)。\n\n\u003Cp align=\"left\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZheC_Realtime_Multi-Person_Pose_Estimation_readme_0c165cae44e6.gif\", width=\"720\">\n\u003C\u002Fp>\n\n\u003Cp align=\"left\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZheC_Realtime_Multi-Person_Pose_Estimation_readme_be6aa6767561.gif\", width=\"720\">\n\u003C\u002Fp>\n\n本项目遵循 [LICENSE](LICENSE) 中的条款进行许可。\n\n## 其他实现\n感谢大家为重新实现所做的努力！如果您有新的实现并希望与他人分享，请随时提交拉取请求或发送邮件给我！  \n- 我们的全新C++库 [OpenPose](https:\u002F\u002Fgithub.com\u002FCMU-Perceptual-Computing-Lab\u002Fopenpose)（仅测试中）  \n- Tensorflow [[版本1]](https:\u002F\u002Fgithub.com\u002Fildoonet\u002Ftf-openpose) | [[版本2]](https:\u002F\u002Fgithub.com\u002Fmichalfaber\u002Fkeras_Realtime_Multi-Person_Pose_Estimation) | [[版本3]](https:\u002F\u002Fgithub.com\u002Fanatolix\u002Fkeras_Realtime_Multi-Person_Pose_Estimation) | [[版本4]](https:\u002F\u002Fgithub.com\u002Fraymon-tian\u002Fkeras_Realtime_Multi-Person_Pose_Estimation) | [[版本5]](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002Fopenpose) | [[版本6]](https:\u002F\u002Fgithub.com\u002FYangZeyu95\u002Funofficial-implement-of-openpose) | [[版本7 - TF2.1]](https:\u002F\u002Fgithub.com\u002FMikeOfZen\u002FYet-Another-Openpose-Implementation)  \n- Pytorch [[版本1]](https:\u002F\u002Fgithub.com\u002Ftensorboy\u002Fpytorch_Realtime_Multi-Person_Pose_Estimation) | [[版本2]](https:\u002F\u002Fgithub.com\u002Flast-one\u002FPytorch_Realtime_Multi-Person_Pose_Estimation) | [[版本3]](https:\u002F\u002Fgithub.com\u002FCVBox\u002FPyTorchCV)  \n- Caffe2 [[版本1]](https:\u002F\u002Fgithub.com\u002Feddieyi\u002Fcaffe2-pose-estimation)  \n- Chainer [[版本1]](https:\u002F\u002Fgithub.com\u002FDeNA\u002FChainer_Realtime_Multi-Person_Pose_Estimation)  \n- MXnet [[版本1]](https:\u002F\u002Fgithub.com\u002Fdragonfly90\u002Fmxnet_Realtime_Multi-Person_Pose_Estimation)  \n- MatConvnet [[版本1]](https:\u002F\u002Fgithub.com\u002Fcoocoky\u002Fmatconvnet_Realtime_Multi-Person_Pose_Estimation)  \n- CNTK [[版本1]](https:\u002F\u002Fgithub.com\u002FHzzone\u002FCNTK_Realtime_Multi-Person_Pose_Estimation)\n\n\n## 目录\n1. [测试](#testing)  \n2. [训练](#training)  \n3. [引用](#citation)\n\n## 测试\n\n### C++（实时版本，用于演示）\n- 请使用 [OpenPose](https:\u002F\u002Fgithub.com\u002FCMU-Perceptual-Computing-Lab\u002Fopenpose)，目前支持CPU\u002FGPU以及Windows\u002FLinux系统。  \n- 输入选项包括：图片、视频、网络摄像头。\n\n### Matlab（较慢，用于COCO评估）\n- 兼容通用的 [Caffe](http:\u002F\u002Fcaffe.berkeleyvision.org\u002F)。编译matcaffe。  \n- 运行 `cd testing; get_model.sh` 以从我们的服务器获取最新的MSCOCO模型。  \n- 修改 `config.m` 中的caffepath路径，并运行 `demo.m` 以查看示例用法。\n\n### Python\n- `cd testing\u002Fpython`  \n- `ipython notebook`  \n- 打开 `demo.ipynb` 并执行代码。\n\n## 训练\n\n### 网络架构\n![Teaser?](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZheC_Realtime_Multi-Person_Pose_Estimation_readme_24256ca12b4e.png)\n\n### 训练步骤  \n- 运行 `cd training; bash getData.sh` 以获取COCO数据集中的图像文件（`dataset\u002FCOCO\u002Fimages\u002F`）、关键点标注文件（`dataset\u002FCOCO\u002Fannotations\u002F`）以及[COCO官方工具箱](https:\u002F\u002Fgithub.com\u002Fpdollar\u002Fcoco)（`dataset\u002FCOCO\u002Fcoco\u002F`）。  \n- 在Matlab中运行 `getANNO.m` 将标注格式从json转换为mat格式，并保存至 `dataset\u002FCOCO\u002Fmat\u002F`。  \n- 在Matlab中运行 `genCOCOMask.m` 以生成未标记人员的掩码图像。可使用Matlab的`parfor`加速计算。  \n- 运行 `genJSON('COCO')` 以在 `dataset\u002FCOCO\u002Fjson\u002F` 文件夹中生成一个json文件。该文件包含训练所需的基础信息。  \n- 运行 `python genLMDB.py` 以生成LMDB文件。（您也可以通过运行 `bash get_lmdb.sh` 下载我们提供的COCO数据集LMDB文件，大小为189GB）  \n- 下载我们修改过的Caffe：[caffe_train](https:\u002F\u002Fgithub.com\u002FCMU-Perceptual-Computing-Lab\u002Fcaffe_train)。编译pycaffe。它将很快与用于测试的caffe_rtpose合并。  \n- 运行 `python setLayers.py --exp 1` 以生成用于训练的prototxt和shell脚本。  \n- 下载 [VGG-19模型](https:\u002F\u002Fgist.github.com\u002Fksimonyan\u002F3785162f95cd2d5fee77)，我们将用其初始化前10层以开始训练。  \n- 运行 `bash train_pose.sh 0,1`（由setLayers.py生成）以使用两块GPU启动训练。\n\n## 引用\n如果本文对您的研究有所帮助，请在您的出版物中引用以下文献：\n\n    \n    \n    @inproceedings{cao2017realtime,\n      author = {Zhe Cao and Tomas Simon and Shih-En Wei and Yaser Sheikh},\n      booktitle = {CVPR},\n      title = {Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields},\n      year = {2017}\n      }\n\t  \n    @inproceedings{wei2016cpm,\n      author = {Shih-En Wei and Varun Ramakrishna and Takeo Kanade and Yaser Sheikh},\n      booktitle = {CVPR},\n      title = {Convolutional pose machines},\n      year = {2016}\n      }","# Realtime Multi-Person Pose Estimation 快速上手指南\n\n本指南基于 Zhe Cao 等人提出的实时多人姿态估计项目（OpenPose 前身），帮助开发者快速在本地运行演示或复现训练流程。\n\n## 1. 环境准备\n\n### 系统要求\n- **操作系统**: Linux (Ubuntu 推荐) 或 macOS。Windows 用户建议直接使用后续提到的 C++ 版本 [OpenPose](https:\u002F\u002Fgithub.com\u002FCMU-Perceptual-Computing-Lab\u002Fopenpose)。\n- **硬件**: NVIDIA GPU (用于加速推理和训练)，显存建议 4GB 以上。\n- **软件依赖**:\n  - CUDA & cuDNN (需与 Caffe 版本匹配)\n  - Caffe (官方原版或修改版 `caffe_train`)\n  - MATLAB (用于数据预处理和部分测试脚本)\n  - Python 2.7\u002F3.x (配合 IPython Notebook 使用)\n  - OpenCV, Protobuf, LMDB, Glog, Gflags\n\n### 前置依赖安装 (Ubuntu 示例)\n```bash\nsudo apt-get update\nsudo apt-get install -y libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev \\\nlibhdf5-serial-dev protobuf-compiler libatlas-base-dev libboost-all-dev \\\nlibgflags-dev libgoogle-glog-dev liblmdb-dev git wget\n```\n\n## 2. 安装步骤\n\n本项目主要提供 Matlab、Python 和 C++ 三种接口。以下为各接口的快速配置流程。\n\n### 方案 A：C++ 版本 (推荐，性能最佳)\n原作者已将该算法重构为独立的 C++ 库 **OpenPose**，支持 CPU\u002FGPU 及 Windows\u002FLinux\u002FMac，适合生产环境和实时演示。\n- **获取代码**:\n  ```bash\n  git clone https:\u002F\u002Fgithub.com\u002FCMU-Perceptual-Computing-Lab\u002Fopenpose.git\n  cd openpose\n  ```\n- **编译与运行**: 请参考 OpenPose 官方文档进行 CMake 编译。编译完成后可直接通过命令行调用摄像头或视频文件。\n\n### 方案 B：Matlab 版本 (适合 COCO 评估)\n1. **克隆仓库**:\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FZheC\u002FMulti-Person-Pose-Estimation.git\n   cd Multi-Person-Pose-Estimation\n   ```\n2. **下载模型**:\n   ```bash\n   cd testing\n   bash get_model.sh\n   ```\n   *注：若下载速度慢，可手动从项目发布页下载模型并放入对应目录。*\n3. **配置路径**:\n   编辑 `config.m` 文件，将 `caffepath` 修改为你本地编译好的 Caffe 路径。\n4. **编译 MatCaffe**:\n   确保你的 Caffe 已开启 `MATLAB_INTERFACE := 1` 并编译成功。\n\n### 方案 C：Python 版本 (适合快速验证)\n1. **进入目录**:\n   ```bash\n   cd testing\u002Fpython\n   ```\n2. **启动 Notebook**:\n   ```bash\n   ipython notebook\n   ```\n3. **运行示例**:\n   在浏览器中打开 `demo.ipynb`，按顺序执行单元格即可加载模型并测试图片。\n\n## 3. 基本使用\n\n### 使用 Matlab 运行演示\n完成上述“方案 B\"配置后，在 MATLAB 命令行中运行：\n```matlab\ncd testing\ndemo.m\n```\n该脚本将加载预训练的 MSCOCO 模型，对示例图像进行多人关键点检测并可视化结果。\n\n### 使用 Python 运行演示\n在 `demo.ipynb` 中，核心调用逻辑如下（保持原代码风格）：\n```python\n# 加载网络\nnet = caffe.Net('pose_deploy.prototxt', 'pose_iter_440000.caffemodel', caffe.TEST)\n\n# 预处理输入图像\ninput_image = ... \ntransformed_image = transformer.preprocess('data', input_image)\n\n# 前向传播\nnet.blobs['data'].data[...] = transformed_image\noutput = net.forward()\n\n# 解析输出热力图并进行关联 (Part Affinity Fields)\n# 具体解析逻辑请参阅 demo.ipynb 中的完整代码\n```\n\n### 使用 C++ (OpenPose) 运行实时检测\n编译完 OpenPose 后，在终端执行以下命令调用摄像头：\n```bash\n.\u002Fbuild\u002Fexamples\u002Fopenpose\u002Fopenpose.bin --display 1 --write_json output\u002F\n```\n或使用视频文件：\n```bash\n.\u002Fbuild\u002Fexamples\u002Fopenpose\u002Fopenpose.bin --video examples\u002Fmedia\u002Fvideo.avi --display 1\n```\n\n---\n*提示：如需重新训练模型，请参照原文档 \"Training\" 章节，依次执行 `getData.sh` 获取 COCO 数据集，使用 Matlab 脚本转换标注格式，生成 LMDB 数据库，最后使用修改版的 `caffe_train` 进行训练。*","某智能健身镜开发团队正在构建一套能同时识别多名用户动作并实时纠正姿势的家庭健身系统。\n\n### 没有 Realtime_Multi-Person_Pose_Estimation 时\n- **多人识别困难**：传统自上而下的方法需先检测每个人再估算姿态，当家庭成员同时入镜时，检测器容易漏人或混淆身份，导致无法同步分析。\n- **延迟严重**：分步处理流程计算量大，在普通硬件上帧率极低，用户做完动作几秒后屏幕才反馈错误，完全失去指导意义。\n- **依赖昂贵算力**：为保证基本流畅度，必须部署高性能服务器或专用加速卡，大幅推高了消费级产品的硬件成本。\n- **复杂场景失效**：一旦用户发生肢体遮挡或快速舞动，算法极易丢失关键点跟踪，导致动作评分系统频繁报错中断。\n\n### 使用 Realtime_Multi-Person_Pose_Estimation 后\n- **原生多人支持**：采用自底向上架构，无需预先检测人物，直接从图像中提取所有关键点并组装，完美支持全家一起跳操的场景。\n- **真正实时反馈**：算法针对实时性优化，在单块 GPU 甚至部分 CPU 环境下即可达到高帧率运行，用户动作偏差能被毫秒级捕捉并语音提示。\n- **降低部署门槛**：高效的推理性能使得该方案可运行于嵌入式设备或中端显卡上，显著降低了智能硬件的量产成本。\n- **鲁棒性增强**：即使面对肢体交叉、快速旋转等复杂动态，仍能稳定输出连贯的人体骨架，确保健身课程流畅不卡顿。\n\nRealtime_Multi-Person_Pose_Estimation 通过高效的自底向上架构，将多人体态识别从“离线分析”带入了“实时交互”时代，让低成本设备也能拥有精准的动作捕捉能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZheC_Realtime_Multi-Person_Pose_Estimation_b4d4fcf0.png","ZheC","Zhe Cao","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FZheC_f43c7aec.png","Research Scientist, Google","UC Berkeley",null,"https:\u002F\u002Fpeople.eecs.berkeley.edu\u002F~zhecao\u002F","https:\u002F\u002Fgithub.com\u002FZheC",[82,86,90,94,98],{"name":83,"color":84,"percentage":85},"Jupyter Notebook","#DA5B0B",98.3,{"name":87,"color":88,"percentage":89},"MATLAB","#e16737",1.5,{"name":91,"color":92,"percentage":93},"Python","#3572A5",0.2,{"name":95,"color":96,"percentage":97},"Shell","#89e051",0,{"name":99,"color":100,"percentage":97},"Gnuplot","#f0a9f0",5127,1357,"2026-04-13T06:38:24","NOASSERTION",4,"Linux, Windows","训练和实时演示推荐需要 NVIDIA GPU（支持多卡并行，示例命令为双卡），具体型号和显存未说明；C++ 版本支持 CPU 运行但速度较慢","未说明（注：生成的 LMDB 数据集文件约为 189GB，暗示需要大量存储和内存）",{"notes":110,"python":111,"dependencies":112},"该项目主要基于 Caffe 框架和 Matlab。训练流程复杂，需先使用 Matlab 脚本转换 COCO 数据集标注格式并生成掩码，再转换为 LMDB 格式。官方推荐的实时演示请使用其后续的 C++ 项目 OpenPose。若使用 Python 接口需编译 pycaffe。初始化训练需下载 VGG-19 模型权重。","未说明（需配合 pycaffe 使用，通常对应 Python 2.7 或早期 Python 3 版本）",[113,114,115,116,117,118],"Caffe (修改版 caffe_train)","Matlab (用于数据预处理和测试)","LMDB","VGG-19 预训练模型","COCO API","OpenPose (C++ 库)",[15,14],[121,122,123,124,125,126,127,128,129,130],"human-pose-estimation","realtime","caffe","human-behavior-understanding","deep-learning","computer-vision","matlab","python","cpp11","cvpr-2017","2026-03-27T02:49:30.150509","2026-04-14T12:28:00.136237",[134,139,144,149,154,159],{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},32874,"运行 demo.ipynb 时出现 'ValueError: operands could not be broadcast together' 形状不匹配错误，如何解决？","这是因为在 Python 3 中字典键的顺序是随机的。解决方法是将代码中通过索引获取键的方式（如 `list(output_blobs.keys())[0]`）改为直接使用具体的层名称字符串。例如，将代码修改为显式指定 `'Mconv7_stage6_L2'` 和 `'Mconv7_stage6_L1'`，而不是依赖列表索引顺序。","https:\u002F\u002Fgithub.com\u002FZheC\u002FRealtime_Multi-Person_Pose_Estimation\u002Fissues\u002F90",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},32875,"运行 genANNO.m 时提示 'undefine function gasonMex' 错误怎么办？","该错误是因为缺少编译好的 Mex 文件。需要在 MATLAB 环境中使用 `mex` 命令编译 `gasonMex.cpp` 源文件（例如运行 `mex gasonMex.cpp`）。如果编译过程中出现 `mxCreateDoubleScalar` 未声明等错误，通常是因为 MATLAB 版本与 C++ 代码不兼容或缺少相应的头文件路径，需确保安装了正确的 MATLAB C++ 支持包或调整编译参数。","https:\u002F\u002Fgithub.com\u002FZheC\u002FRealtime_Multi-Person_Pose_Estimation\u002Fissues\u002F110",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},32876,"如何使用 ResNet-50 等其他骨干网络替换默认的 VGG-19 进行训练？效果如何？","可以成功替换。有用户经验表明，将 VGG-19 替换为 ResNet-50 后，评估结果从 48% 提升到了 51%。关键配置建议：1. 不需要在 CPM 结构中使用残差连接，直接替换骨干网即可；2. **不要冻结批归一化（BN）层**。实验发现冻结 BN 会导致网络难以收敛且性能极低（约 8%），而开启 BN 则能显著提升性能。","https:\u002F\u002Fgithub.com\u002FZheC\u002FRealtime_Multi-Person_Pose_Estimation\u002Fissues\u002F131",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},32877,"微调模型时损失很高且检测效果差，对于不可见的关键点（invisible keypoints）应该如何标注？","对于不可见的关键点，有两种处理策略：1. 将其坐标设置为 (0, 0)；2. 设置为一个远离图像区域的极大值（如 1000, 1000）。具体选择取决于应用场景。例如在红外图像等低质量图像中，即使关键点不可见也建议进行标注（使用极大值占位），以帮助网络更好地学习关键点检测特征。","https:\u002F\u002Fgithub.com\u002FZheC\u002FRealtime_Multi-Person_Pose_Estimation\u002Fissues\u002F244",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},32878,"遇到 'AttributeError: LayerParameter object has no attribute cpm_transform_param' 错误如何解决？","这是由于 Caffe 版本过旧导致的兼容性问题。作者已修复该问题并更新了 caffe_train 代码库。解决方案是拉取最新的 `CMU-Perceptual-Computing-Lab\u002Fcaffe_train` 代码，新版本兼容 CUDA 7.5\u002F8.0 和 cuDNN v5，并包含了缺失的参数定义。","https:\u002F\u002Fgithub.com\u002FZheC\u002FRealtime_Multi-Person_Pose_Estimation\u002Fissues\u002F1",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},32879,"在 setLayers.py 中配置数据路径时，dataFolder、directory 和 base_folder 分别代表什么？","配置说明如下：1. `dataFolder` 应指向包含 .mdb 数据库文件的目录；2. `directory` 是生成 prototxt 文件的目标路径（可保持默认）；3. `source` 变量通常是死代码，可以删除；4. 如果注释掉第 492 行的第二次 writePrototxts 调用，则不需要设置 `serverFolder`。如果路径设置正确但仍报错，通常意味着 LMDB 数据库创建过程出了问题。","https:\u002F\u002Fgithub.com\u002FZheC\u002FRealtime_Multi-Person_Pose_Estimation\u002Fissues\u002F47",[]]