[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ilovepose--DarkPose":3,"tool-ilovepose--DarkPose":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,2,"2026-04-06T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":103,"forks":104,"last_commit_at":105,"license":106,"difficulty_score":10,"env_os":107,"env_gpu":108,"env_ram":107,"env_deps":109,"category_tags":117,"github_topics":118,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":124,"updated_at":125,"faqs":126,"releases":157},4648,"ilovepose\u002FDarkPose","DarkPose","Distribution-Aware Coordinate Representation for Human Pose Estimation","DarkPose 是一款专注于提升人体姿态估计精度的开源算法插件。在基于热图的人体关键点检测任务中，传统方法往往直接将热图上的最大响应点坐标作为最终结果，这种简单的离散化处理忽略了关键点在像素间的亚像素级分布信息，从而限制了模型的精度上限。\n\nDarkPose 通过引入“分布感知坐标表示”（Distribution-Aware Coordinate Representation, DARK）技术，巧妙地将热图视为概率分布，利用数学推导还原出更精确的亚像素级关键点坐标。其核心亮点在于“模型无关”的设计思路：它不需要重新训练骨干网络，也不改变原有模型结构，仅需作为一个即插即用的后处理模块，就能显著适配并提升各类主流姿态估计模型（如 Hourglass、SimpleBaseline、HRNet 等）的性能。实验数据显示，集成 DarkPose 后，多个基准模型在 COCO 数据集上的精度均有大幅提升，曾助力团队获得 ICCV 2019 COCO 关键点挑战赛第二名，并收录于 CVPR 2020。\n\n这款工具非常适合计算机视觉领域的研究人员和算法工程师使用。对于希望在不增加额外训练成本的前提下","DarkPose 是一款专注于提升人体姿态估计精度的开源算法插件。在基于热图的人体关键点检测任务中，传统方法往往直接将热图上的最大响应点坐标作为最终结果，这种简单的离散化处理忽略了关键点在像素间的亚像素级分布信息，从而限制了模型的精度上限。\n\nDarkPose 通过引入“分布感知坐标表示”（Distribution-Aware Coordinate Representation, DARK）技术，巧妙地将热图视为概率分布，利用数学推导还原出更精确的亚像素级关键点坐标。其核心亮点在于“模型无关”的设计思路：它不需要重新训练骨干网络，也不改变原有模型结构，仅需作为一个即插即用的后处理模块，就能显著适配并提升各类主流姿态估计模型（如 Hourglass、SimpleBaseline、HRNet 等）的性能。实验数据显示，集成 DarkPose 后，多个基准模型在 COCO 数据集上的精度均有大幅提升，曾助力团队获得 ICCV 2019 COCO 关键点挑战赛第二名，并收录于 CVPR 2020。\n\n这款工具非常适合计算机视觉领域的研究人员和算法工程师使用。对于希望在不增加额外训练成本的前提下，快速优化现有姿态估计系统精度的开发者而言，DarkPose 是一个高效且易于集成的解决方案。","# Distribution Aware Coordinate Representation for Human Pose Estimation\n\n\u003Cp align=\"center\">\n\u003Cb>\u003Ci>Serving as a model-agnostic plug-in, DARK significantly improves the performance of a variety of state-of-the-art human pose estimation models! \u003C\u002Fi>\u003C\u002Fb>\n\u003C\u002Fp>\n\n## News\n* \\[2019\u002F10\u002F14\\] DarkPose is now on [ArXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F1910.06278).\n* \\[2019\u002F10\u002F15\\] [Project page](https:\u002F\u002Filovepose.github.io\u002Fcoco\u002F) is created.\n* \\[2019\u002F10\u002F27\\] DarkPose achieve **76.4** on the COCO test-challenge (**2nd place entry** of COCO Keypoints Challenge ICCV 2019)!\n* \\[2020\u002F02\u002F24\\] DarkPose accepted by CVPR2020.\n* \\[2020\u002F06\u002F17\\] Code is released.\n* \\[2020\u002F08\u002F07\\] [Pretrained models](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F14kAA1zXuKODYgrRiQmKnVcipbY7RedVV?usp=sharing) are provided.\n\n\n## Introduction\n&ensp; &ensp; This work fills the gap by studying the coordinate representation with a particular focus on the heatmap. We formulate a novel Distribution-Aware coordinate Representation of Keypoint (DARK) method. Serving as a model-agnostic plug-in, DARK significantly improves the performance of a variety of state-of-the-art human pose estimation models!\n\n![Illustrating the architecture of the proposed DARK](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Filovepose_DarkPose_readme_26b165ad3b70.png)\n\n Our CVPR2019 work Fast Human Pose Estimation can work seamlessly with DARK, which is available at [Github](https:\u002F\u002Fgithub.com\u002Filovepose\u002Ffast-human-pose-estimation.pytorch)\n\n## Main Results\n\n### Results on COCO val2017 with detector having human AP of 56.4 on COCO val2017 dataset\n| Baseline           | Input size | #Params | GFLOPs |    AP | Ap .5 | AP .75 | AP (M) | AP (L) |    AR |\n|--------------------|------------|---------|--------|-------|-------|--------|--------|--------|-------|\n| Hourglass(4 Blocks)             |  128×96 | 13.0M | 2.7 | 66.2 | 87.6 | 75.1 | 63.8 | 71.4 | 72.8 |\n| **Hourglass(4 Blocks) + DARK**  |  128×96 | 13.0M | 2.7 | 69.6 | 87.8 | 77.0 | 67.0 | 75.4 | 75.7 |\n| Hourglass(8 Blocks)             |  128×96 | 25.1M | 4.9 | 67.6 | 88.3 | 77.4 | 65.2 | 73.0 | 74.0 |\n| **Hourglass(8 Blocks) + DARK**  |  128×96 | 25.1M | 4.9 | 70.8 | 87.9 | 78.3 | 68.3 | 76.4 | 76.6 |\n| SimpleBaseline-R50              |  128×96 | 34.0M | 2.3 | 59.3 | 85.5 | 67.4 | 57.8 | 63.8 | 66.6 |\n| **SimpleBaseline-R50 + DARK**   |  128×96 | 34.0M | 2.3 | 62.6 | 86.1 | 70.4 | 60.4 | 67.9 | 69.5 |\n| SimpleBaseline-R101             |  128×96 | 53.0M | 3.1 | 58.8 | 85.3 | 66.1 | 57.3 | 63.4 | 66.1 |\n| **SimpleBaseline-R101 + DARK**  |  128×96 | 53.0M | 3.1 | 63.2 | 86.2 | 71.1 | 61.2 | 68.5 | 70.0 |\n| SimpleBaseline-R152             |  128×96 | 68.6M | 3.9 | 60.7 | 86.0 | 69.6 | 59.0 | 65.4 | 68.0 |\n| **SimpleBaseline-R152 + DARK**  |  128×96 | 68.6M | 3.9 | 63.1 | 86.2 | 71.6 | 61.3 | 68.1 | 70.0 |\n| HRNet-W32                       |  128×96 | 28.5M | 1.8 | 66.9 | 88.7 | 76.3 | 64.6 | 72.3 | 73.7 |\n| **HRNet-W32 + DARK**            |  128×96 | 28.5M | 1.8 | 70.7 | 88.9 | 78.4 | 67.9 | 76.6 | 76.7 |\n| HRNet-W48                       |  128×96 | 63.6M | 3.6 | 68.0 | 88.9 | 77.4 | 65.7 | 73.7 | 74.7 |\n| **HRNet-W48 + DARK**            |  128×96 | 63.6M | 3.6 | 71.9 | 89.1 | 79.6 | 69.2 | 78.0 | 77.9 |\n| HRNet-W32                       | 256×192 | 28.5M | 7.1 | 74.4 | 90.5 | 81.9 | 70.8 | 81.0 | 79.8 |\n| **HRNet-W32 + DARK**            | 256×192 | 28.5M | 7.1 | 75.6 | 90.5 | 82.1 | 71.8 | 82.8 | 80.8 |\n| HRNet-W32                       | 384×288 | 28.5M | 16.0 | 75.8 | 90.6 | 82.5 | 72.0 | 82.7 | 80.9 |\n| **HRNet-W32 + DARK**            | 384×288 | 28.5M | 16.0 | 76.6 | 90.7 | 82.8 | 72.7 | 83.9 | 81.5 |\n| HRNet-W48                       | 384×288 | 63.6M | 32.9 | 76.3 | 90.8 | 82.9 | 72.3 | 83.4 | 81.2 |\n| **HRNet-W48 + DARK**            | 384×288 | 63.6M | 32.9 | 76.8 | 90.6 | 83.2 | 72.8 | 84.0 | 81.7 |\n\n### Note:\n- Flip test is used.\n- Person detector has person AP of 56.4 on COCO val2017 dataset.\n- GFLOPs is for convolution and linear layers only.\n\n### Results on COCO test-dev2017 with detector having human AP of 60.9 on COCO test-dev2017 dataset\n| Baseline                   | Input size | #Params | GFLOPs |   AP | Ap.5 | AP.75 | AP(M) | AP(L) |   AR |\n|----------------------------|------------|---------|--------|------|------|-------|-------|-------|------|\n| HRNet-W48                  |    384x288 | 63.6M   |   32.9 | 75.5 | 92.5 |  83.3 |  71.9 |  81.5 | 80.5 |\n| **HRNet-W48 + DARK**       |    384x288 | 63.6M   |   32.9 | 76.2 | 92.5 |  83.6 |  72.5 |  82.4 | 81.1 |\n| HRNet-W48\\*                |    384x288 | 63.6M   |   32.9 | 77.0 | 92.7 |  84.5 |  73.4 |  83.1 | 82.0 |\n| **HRNet-W48 + DARK\\***     |    384x288 | 63.6M   |   32.9 | 77.4 | 92.6 |  84.6 |  73.6 |  83.7 | 82.3 |\n| **HRNet-W48 + DARK\\*\\-**   |    384x288 | 63.6M   |   32.9 | 78.2 | 93.5 |  85.5 |  74.4 |  84.2 | 83.5 |\n| **HRNet-W48 + DARK\\*\\-\\+** |    384x288 | 63.6M   |   32.9 | 78.9 | 93.8 |  86.0 |  75.1 |  84.4 | 83.5 |\n\n### Note:\n- Flip test is used.\n- Person detector has person AP of 60.9 on COCO test-dev2017 dataset.\n- GFLOPs is for convolution and linear layers only.\n- \\* means using additional data from [AI challenger](https:\u002F\u002Fchallenger.ai\u002Fdataset\u002Fkeypoint) for training.\n- \\- means the detector ensemble with [HTC](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection) and [SNIPER](https:\u002F\u002Fgithub.com\u002Fmahyarnajibi\u002FSNIPER).\n- \\+ means using model ensemble.\n\n### Results on MPII val\n| PCKh | Baseline             | Head | Shoulder | Elbow | Wrist |  Hip | Knee | Ankle | Mean  |\n|------|----------------------|------|----------|-------|-------|------|------|-------|-------|\n| 0.5  | HRNet_w32            | 97.1 |   95.9   | 90.3  | 86.5  | 89.1 | 87.1 | 83.3  | 90.3  |\n| 0.5  | **HRNet_w32 + DARK** | 97.2 |   95.9   | 91.2  | 86.7  | 89.7 | 86.7 | 84.0  | 90.6  |\n| 0.1  | HRNet_w32            | 51.1 |   42.7   | 42.0  | 41.6  | 17.9 | 29.9 | 31.0  | 37.7  |\n| 0.1  | **HRNet_w32 + DARK** | 55.2 |   47.8   | 47.4  | 45.2  | 20.1 | 33.4 | 35.4  | 42.0  |\n\n### Note:\n- Flip test is used.\n- Input size is 256x256\n- GFLOPs is for convolution and linear layers only.\n\n\n## Quick start\n\n### 1. Preparation\n\n#### 1.1 Prepare the dataset\nFor the MPII dataset, the original annotation files are in matlab format. We have converted them into json format, you also need to download them from [OneDrive](https:\u002F\u002F1drv.ms\u002Ff\u002Fs!AhIXJn_J-blW00SqrairNetmeVu4) or [GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1En_VqmStnsXMdldXA6qpqEyDQulnmS3a?usp=sharing).\nExtract them under `{POSE_ROOT}\u002Fdata`, your directory tree should look like this:   \n```\n${POSE_ROOT}\u002Fdata\u002Fmpii\n├── images\n└── mpii_human_pose_v1_u12_1.mat\n|—— annot\n|   |—— gt_valid.mat\n└── |—— test.json\n    |   |—— train.json\n    |   |—— trainval.json\n    |   |—— valid.json\n    └── images\n        |—— 000001163.jpg\n        |—— 000003072.jpg\n```\n\nFor the COCO dataset, your directory tree should look like this:   \n```\n${POSE_ROOT}\u002Fdata\u002Fcoco\n├── annotations\n├── images\n│   ├── test2017\n│   ├── train2017\n│   └── val2017\n└── person_detection_results\n````\n\n### 1.2 Download the pretrained models\n\n[Pretrained models](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F14kAA1zXuKODYgrRiQmKnVcipbY7RedVV?usp=sharing) are provided.\n\n### 1.3 Prepare the environment\nSetting the parameters in the file `prepare_env.sh` as follows:\n\n```bash\n# DATASET_ROOT=$HOME\u002Fdatasets\n# COCO_ROOT=${DATASET_ROOT}\u002FMSCOCO\n# MPII_ROOT=${DATASET_ROOT}\u002FMPII\n# MODELS_ROOT=${DATASET_ROOT}\u002Fmodels\n```\n\nThen execute:\n\n```bash\nbash prepare_env.sh\n```\n\nIf you like, you can [**prepare the environment step by step**](https:\u002F\u002Fgithub.com\u002Fleoxiaobin\u002Fdeep-high-resolution-net.pytorch)\n\n\n\n### Citation\n\nIf you use our code or models in your research, please cite with:\n\n```\n@InProceedings{Zhang_2020_CVPR,\n    author = {Zhang, Feng and Zhu, Xiatian and Dai, Hanbin and Ye, Mao and Zhu, Ce},\n    title = {Distribution-Aware Coordinate Representation for Human Pose Estimation},\n    booktitle = {IEEE\u002FCVF Conference on Computer Vision and Pattern Recognition (CVPR)},\n    month = {June},\n    year = {2020}\n}\n```\n\n## Acknowledgement\nThanks for the open-source HRNet\n* [Deep High-Resolution Representation Learning for Human Pose Estimation, Sun, Ke and Xiao, Bin and Liu, Dong and Wang, Jingdong](https:\u002F\u002Fgithub.com\u002Fleoxiaobin\u002Fdeep-high-resolution-net.pytorch\u002F)\n","# 用于人体姿态估计的分布感知坐标表示\n\n\u003Cp align=\"center\">\n\u003Cb>\u003Ci>作为一款与模型无关的插件，DARK 能显著提升多种最先进的人体姿态估计模型的性能！\u003C\u002Fi>\u003C\u002Fb>\n\u003C\u002Fp>\n\n## 新闻\n* \\[2019\u002F10\u002F14\\] DarkPose 现已在 [ArXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F1910.06278) 上发布。\n* \\[2019\u002F10\u002F15\\] 创建了 [项目页面](https:\u002F\u002Filovepose.github.io\u002Fcoco\u002F)。\n* \\[2019\u002F10\u002F27\\] DarkPose 在 COCO 测试挑战赛中取得了 **76.4** 的成绩（COCO 关键点挑战赛 ICCV 2019 第二名）！\n* \\[2020\u002F02\u002F24\\] DarkPose 被 CVPR2020 接受。\n* \\[2020\u002F06\u002F17\\] 代码正式发布。\n* \\[2020\u002F08\u002F07\\] 提供了 [预训练模型](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F14kAA1zXuKODYgrRiQmKnVcipbY7RedVV?usp=sharing)。\n\n\n## 简介\n&ensp; &ensp; 本工作通过研究以热图为核心的坐标表示方法，填补了这一领域的空白。我们提出了一种新颖的关键点分布感知坐标表示方法（DARK）。作为一种与模型无关的插件，DARK 能显著提升多种最先进的人体姿态估计模型的性能！\n\n![展示所提出的 DARK 架构](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Filovepose_DarkPose_readme_26b165ad3b70.png)\n\n 我们在 CVPR2019 上发表的快速人体姿态估计工作可以与 DARK 无缝配合，相关代码可在 [Github](https:\u002F\u002Fgithub.com\u002Filovepose\u002Ffast-human-pose-estimation.pytorch) 上找到。\n\n## 主要结果\n\n### 在 COCO val2017 数据集上的结果，检测器在该数据集上的人体 AP 为 56.4\n| 基线           | 输入尺寸 | 参数量 | GFLOPs |    AP | Ap .5 | AP .75 | AP (M) | AP (L) |    AR |\n|--------------------|------------|---------|--------|-------|-------|--------|--------|--------|-------|\n| Hourglass(4 层)             |  128×96 | 13.0M | 2.7 | 66.2 | 87.6 | 75.1 | 63.8 | 71.4 | 72.8 |\n| **Hourglass(4 层) + DARK**  |  128×96 | 13.0M | 2.7 | 69.6 | 87.8 | 77.0 | 67.0 | 75.4 | 75.7 |\n| Hourglass(8 层)             |  128×96 | 25.1M | 4.9 | 67.6 | 88.3 | 77.4 | 65.2 | 73.0 | 74.0 |\n| **Hourglass(8 层) + DARK**  |  128×96 | 25.1M | 4.9 | 70.8 | 87.9 | 78.3 | 68.3 | 76.4 | 76.6 |\n| SimpleBaseline-R50              |  128×96 | 34.0M | 2.3 | 59.3 | 85.5 | 67.4 | 57.8 | 63.8 | 66.6 |\n| **SimpleBaseline-R50 + DARK**   |  128×96 | 34.0M | 2.3 | 62.6 | 86.1 | 70.4 | 60.4 | 67.9 | 69.5 |\n| SimpleBaseline-R101             |  128×96 | 53.0M | 3.1 | 58.8 | 85.3 | 66.1 | 57.3 | 63.4 | 66.1 |\n| **SimpleBaseline-R101 + DARK**  |  128×96 | 53.0M | 3.1 | 63.2 | 86.2 | 71.1 | 61.2 | 68.5 | 70.0 |\n| SimpleBaseline-R152             |  128×96 | 68.6M | 3.9 | 60.7 | 86.0 | 69.6 | 59.0 | 65.4 | 68.0 |\n| **SimpleBaseline-R152 + DARK**  |  128×96 | 68.6M | 3.9 | 63.1 | 86.2 | 71.6 | 61.3 | 68.1 | 70.0 |\n| HRNet-W32                       |  128×96 | 28.5M | 1.8 | 66.9 | 88.7 | 76.3 | 64.6 | 72.3 | 73.7 |\n| **HRNet-W32 + DARK**            |  128×96 | 28.5M | 1.8 | 70.7 | 88.9 | 78.4 | 67.9 | 76.6 | 76.7 |\n| HRNet-W48                       |  128×96 | 63.6M | 3.6 | 68.0 | 88.9 | 77.4 | 65.7 | 73.7 | 74.7 |\n| **HRNet-W48 + DARK**            |  128×96 | 63.6M | 3.6 | 71.9 | 89.1 | 79.6 | 69.2 | 78.0 | 77.9 |\n| HRNet-W32                       | 256×192 | 28.5M | 7.1 | 74.4 | 90.5 | 81.9 | 70.8 | 81.0 | 79.8 |\n| **HRNet-W32 + DARK**            | 256×192 | 28.5M | 7.1 | 75.6 | 90.5 | 82.1 | 71.8 | 82.8 | 80.8 |\n| HRNet-W32                       | 384×288 | 28.5M | 16.0 | 75.8 | 90.6 | 82.5 | 72.0 | 82.7 | 80.9 |\n| **HRNet-W32 + DARK**            | 384×288 | 28.5M | 16.0 | 76.6 | 90.7 | 82.8 | 72.7 | 83.9 | 81.5 |\n| HRNet-W48                       | 384×288 | 63.6M | 32.9 | 76.3 | 90.8 | 82.9 | 72.3 | 83.4 | 81.2 |\n| **HRNet-W48 + DARK**            | 384×288 | 63.6M | 32.9 | 76.8 | 90.6 | 83.2 | 72.8 | 84.0 | 81.7 |\n\n### 注意：\n- 使用了翻转测试。\n- 人体检测器在 COCO val2017 数据集上的 AP 为 56.4。\n- GFLOPs 仅计算卷积和全连接层。\n\n### 在 COCO test-dev2017 数据集上的结果，检测器在该数据集上的人体 AP 为 60.9\n| 基线                   | 输入尺寸 | 参数量 | GFLOPs |   AP | Ap.5 | AP.75 | AP(M) | AP(L) |   AR |\n|----------------------------|------------|---------|--------|------|------|-------|-------|-------|------|\n| HRNet-W48                  |    384x288 | 63.6M   |   32.9 | 75.5 | 92.5 |  83.3 |  71.9 |  81.5 | 80.5 |\n| **HRNet-W48 + DARK**       |    384x288 | 63.6M   |   32.9 | 76.2 | 92.5 |  83.6 |  72.5 |  82.4 | 81.1 |\n| HRNet-W48\\*                |    384x288 | 63.6M   |   32.9 | 77.0 | 92.7 |  84.5 |  73.4 |  83.1 | 82.0 |\n| **HRNet-W48 + DARK\\***     |    384x288 | 63.6M   |   32.9 | 77.4 | 92.6 |  84.6 |  73.6 |  83.7 | 82.3 |\n| **HRNet-W48 + DARK\\*\\-**   |    384x288 | 63.6M   |   32.9 | 78.2 | 93.5 |  85.5 |  74.4 |  84.2 | 83.5 |\n| **HRNet-W48 + DARK\\*\\-\\+** |    384x288 | 63.6M   |   32.9 | 78.9 | 93.8 |  86.0 |  75.1 |  84.4 | 83.5 |\n\n### 注意：\n- 使用了翻转测试。\n- 人体检测器在 COCO test-dev2017 数据集上的 AP 为 60.9。\n- GFLOPs 仅计算卷积和全连接层。\n- \\* 表示使用来自 [AI challenger](https:\u002F\u002Fchallenger.ai\u002Fdataset\u002Fkeypoint) 的额外数据进行训练。\n- \\- 表示将检测器与 [HTC](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection) 和 [SNIPER](https:\u002F\u002Fgithub.com\u002Fmahyarnajibi\u002FSNIPER) 进行集成。\n- \\+ 表示使用模型集成。\n\n### 在 MPII 验证集上的结果\n| PCKh | 基线             | 头部 | 肩部 | 肘部 | 手腕 |  髋部 | 膝部 | 踝部 | 平均  |\n|------|----------------------|------|----------|-------|-------|------|------|-------|-------|\n| 0.5  | HRNet_w32            | 97.1 |   95.9   | 90.3  | 86.5  | 89.1 | 87.1 | 83.3  | 90.3  |\n| 0.5  | **HRNet_w32 + DARK** | 97.2 |   95.9   | 91.2  | 86.7  | 89.7 | 86.7 | 84.0  | 90.6  |\n| 0.1  | HRNet_w32            | 51.1 |   42.7   | 42.0  | 41.6  | 17.9 | 29.9 | 31.0  | 37.7  |\n| 0.1  | **HRNet_w32 + DARK** | 55.2 |   47.8   | 47.4  | 45.2  | 20.1 | 33.4 | 35.4  | 42.0  |\n\n### 注意：\n- 使用了翻转测试。\n- 输入尺寸为 256x256。\n- GFLOPs 仅计算卷积和全连接层。\n\n\n## 快速入门\n\n### 1. 准备工作\n\n#### 1.1 准备数据集\n对于 MPII 数据集，原始标注文件为 MATLAB 格式。我们已将其转换为 JSON 格式，您也可以从 [OneDrive](https:\u002F\u002F1drv.ms\u002Ff\u002Fs!AhIXJn_J-blW00SqrairNetmeVu4) 或 [GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1En_VqmStnsXMdldXA6qpqEyDQulnmS3a?usp=sharing) 下载。\n请将这些文件解压到 `{POSE_ROOT}\u002Fdata` 目录下，您的目录结构应如下所示：   \n```\n${POSE_ROOT}\u002Fdata\u002Fmpii\n├── images\n└── mpii_human_pose_v1_u12_1.mat\n|—— annot\n|   |—— gt_valid.mat\n└── |—— test.json\n    |   |—— train.json\n    |   |—— trainval.json\n    |   |—— valid.json\n    └── images\n        |—— 000001163.jpg\n        |—— 000003072.jpg\n```\n\n对于 COCO 数据集，您的目录结构应如下所示：   \n```\n${POSE_ROOT}\u002Fdata\u002Fcoco\n├── annotations\n├── images\n│   ├── test2017\n│   ├── train2017\n│   └── val2017\n└── person_detection_results\n```\n\n### 1.2 下载预训练模型\n\n提供了[预训练模型](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F14kAA1zXuKODYgrRiQmKnVcipbY7RedVV?usp=sharing)。\n\n### 1.3 准备环境\n按照如下方式设置文件 `prepare_env.sh` 中的参数：\n\n```bash\n# DATASET_ROOT=$HOME\u002Fdatasets\n# COCO_ROOT=${DATASET_ROOT}\u002FMSCOCO\n# MPII_ROOT=${DATASET_ROOT}\u002FMPII\n# MODELS_ROOT=${DATASET_ROOT}\u002Fmodels\n```\n\n然后执行：\n\n```bash\nbash prepare_env.sh\n```\n\n如果你愿意，也可以[**逐步准备环境**](https:\u002F\u002Fgithub.com\u002Fleoxiaobin\u002Fdeep-high-resolution-net.pytorch)。\n\n### 引用\n如果你在研究中使用了我们的代码或模型，请引用以下文献：\n\n```\n@InProceedings{Zhang_2020_CVPR,\n    author = {Zhang, Feng and Zhu, Xiatian and Dai, Hanbin and Ye, Mao and Zhu, Ce},\n    title = {Distribution-Aware Coordinate Representation for Human Pose Estimation},\n    booktitle = {IEEE\u002FCVF Conference on Computer Vision and Pattern Recognition (CVPR)},\n    month = {June},\n    year = {2020}\n}\n```\n\n## 致谢\n感谢开源的 HRNet：\n* [Deep High-Resolution Representation Learning for Human Pose Estimation, Sun, Ke and Xiao, Bin and Liu, Dong and Wang, Jingdong](https:\u002F\u002Fgithub.com\u002Fleoxiaobin\u002Fdeep-high-resolution-net.pytorch\u002F)","# DarkPose 快速上手指南\n\nDarkPose (Distribution-Aware Coordinate Representation) 是一个模型无关的插件，旨在显著提升各类先进人体姿态估计模型（如 HRNet, SimpleBaseline, Hourglass 等）的性能。它通过改进热图到坐标的解码方式，在不增加额外参数和计算量的情况下提高精度。\n\n## 1. 环境准备\n\n### 系统要求\n- **操作系统**: Linux (推荐 Ubuntu 16.04\u002F18.04\u002F20.04)\n- **Python**: 3.6+\n- **深度学习框架**: PyTorch 1.4+ (建议与原版 HRNet 环境兼容)\n- **GPU**: 支持 CUDA 的 NVIDIA 显卡\n\n### 前置依赖\n确保已安装以下基础库：\n```bash\npip install numpy opencv-python scipy pandas pyyaml tqdm\n```\n\n> **注意**：本项目基于 `deep-high-resolution-net.pytorch` 架构开发，建议参考其环境配置进行底层依赖安装。\n\n## 2. 安装步骤\n\n### 2.1 克隆代码库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Filovepose\u002FDarkPose.git\ncd DarkPose\nexport POSE_ROOT=$(pwd)\n```\n\n### 2.2 配置环境变量\n编辑 `prepare_env.sh` 文件，设置数据集和模型的路径：\n\n```bash\n# 修改以下路径为你本地的实际路径\n# DATASET_ROOT=$HOME\u002Fdatasets\n# COCO_ROOT=${DATASET_ROOT}\u002FMSCOCO\n# MPII_ROOT=${DATASET_ROOT}\u002FMPII\n# MODELS_ROOT=${DATASET_ROOT}\u002Fmodels\n```\n\n执行配置脚本：\n```bash\nbash prepare_env.sh\n```\n\n### 2.3 下载预训练模型\n从 Google Drive 下载官方提供的预训练模型，并放置于配置好的 `MODELS_ROOT` 目录下：\n- [预训练模型链接](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F14kAA1zXuKODYgrRiQmKnVcipbY7RedVV?usp=sharing)\n\n*(注：国内用户若下载困难，可尝试使用第三方谷歌云盘加速工具或寻找国内镜像源)*\n\n### 2.4 准备数据集\n\n#### MPII 数据集\n原始标注为 matlab 格式，需下载转换后的 JSON 文件。\n- **下载地址**: [OneDrive](https:\u002F\u002F1drv.ms\u002Ff\u002Fs!AhIXJn_J-blW00SqrairNetmeVu4) 或 [GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1En_VqmStnsXMdldXA6qpqEyDQulnmS3a?usp=sharing)\n- **目录结构要求**:\n```text\n${POSE_ROOT}\u002Fdata\u002Fmpii\n├── images\n├── mpii_human_pose_v1_u12_1.mat\n└── annot\n    ├── gt_valid.mat\n    └── test.json\n    └── train.json\n    └── trainval.json\n    └── valid.json\n```\n\n#### COCO 数据集\n- **目录结构要求**:\n```text\n${POSE_ROOT}\u002Fdata\u002Fcoco\n├── annotations\n├── images\n│   ├── test2017\n│   ├── train2017\n│   └── val2017\n└── person_detection_results\n```\n*请确保 `person_detection_results` 中包含对应的人体检测框结果文件。*\n\n## 3. 基本使用\n\nDarkPose 主要作为解码策略集成在现有的姿态估计网络中。以下是基于测试脚本的运行示例。\n\n### 测试评估 (Evaluation)\n假设你已下载了 `HRNet-W32` 的 DarkPose 版本预训练模型，并在 COCO 验证集上进行测试：\n\n```bash\npython tools\u002Ftest.py \\\n    --cfg experiments\u002Fcoco\u002Fhrnet\u002Fw32_384x284_dark.yaml \\\n    --modelDir models\u002Fcoco\u002Fhrnet\u002Fw32_384x284_dark.pth.tar \\\n    --logDir log \\\n    --dataDir data\n```\n\n### 关键配置说明\n要启用 DarkPose，只需在模型的配置文件 (`.yaml`) 中将 `DARK` 相关参数设为 `True`。例如在 `experiments\u002Fcoco\u002Fhrnet\u002Fw32_384x284_dark.yaml` 中：\n\n```yaml\nDARK:\n  ENABLE: True\n  POST_PROCESS: True\n  KERNEL_SIZE: 3\n```\n\n相比传统的高斯热图取最大值法，开启 `DARK` 后无需重新训练骨干网络（Backbone），即可直接利用现有的权重获得更高的 AP 精度（通常提升 1%~3%）。\n\n### 训练 (Training)\n如果你需要从头训练集成了 DarkPose 的模型，使用标准的训练命令即可，配置文件需指定包含 Dark 解码策略：\n\n```bash\npython tools\u002Ftrain.py \\\n    --cfg experiments\u002Fcoco\u002Fhrnet\u002Fw32_384x284_dark.yaml\n```","某智能健身镜研发团队正在优化其核心算法，旨在通过摄像头实时捕捉用户深蹲、瑜伽等动作的关键点，以提供精准的姿态纠正反馈。\n\n### 没有 DarkPose 时\n- **关键点定位模糊**：在用户快速移动或肢体发生遮挡时，模型输出的热力图峰值存在量化误差，导致关节坐标定位不准，动作分析出现偏差。\n- **小目标检测失效**：当用户距离摄像头较远（输入分辨率受限）时，手腕、脚踝等细小关键点的识别率大幅下降，系统频繁丢失跟踪。\n- **升级成本高昂**：为了提升精度，团队被迫尝试更换更大的骨干网络或增加模型层数，导致显存占用激增，无法在边缘设备上流畅运行。\n- **调优周期漫长**：工程师需花费大量时间手动调整热力图解码策略和后处理阈值，却难以突破精度瓶颈。\n\n### 使用 DarkPose 后\n- **亚像素级精准定位**：DarkPose 作为即插即用模块，利用分布感知坐标表示法修正了热力图解码偏差，即使在快速运动中也能锁定精确的关节坐标。\n- **低分辨率下表现卓越**：在不增加输入图像尺寸的前提下，显著提升了远距离或小尺度人体的关键点检测能力，大幅减少跟踪丢失情况。\n- **零成本性能跃升**：无需修改模型结构或增加参数量与计算量（GFLOPs 不变），直接在现有 Hourglass 或 HRNet 模型上集成，AP 指标平均提升 3-4 个点。\n- **部署效率翻倍**：团队省去了繁琐的后处理调优过程，直接复用预训练策略，快速将高精度模型部署到算力有限的健身镜硬件上。\n\nDarkPose 以“零额外计算成本”实现了人体姿态估计精度的显著突破，让轻量级模型在边缘设备上也能达到竞赛级的表现。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Filovepose_DarkPose_5f68d7f2.png","ilovepose","ILovePose","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Filovepose_9a4b075e.jpg","Focus on Human Pose Estimation Research",null,"http:\u002F\u002Fwww.ilovepose.com","https:\u002F\u002Fgithub.com\u002Filovepose",[81,85,89,93,96,100],{"name":82,"color":83,"percentage":84},"Cuda","#3A4E3A",67.7,{"name":86,"color":87,"percentage":88},"Python","#3572A5",30.7,{"name":90,"color":91,"percentage":92},"Cython","#fedf5b",0.8,{"name":94,"color":95,"percentage":92},"Shell","#89e051",{"name":97,"color":98,"percentage":99},"C++","#f34b7d",0,{"name":101,"color":102,"percentage":99},"Makefile","#427819",565,82,"2026-03-03T01:15:14","Apache-2.0","未说明","未说明 (基于 PyTorch 和 HRNet 架构，通常建议 NVIDIA GPU)",{"notes":110,"python":107,"dependencies":111},"README 中未直接列出具体的版本依赖，但该项目是基于 deep-high-resolution-net.pytorch 构建的插件，因此环境配置可参考其上游项目。需要预先准备 COCO 或 MPII 数据集并按指定目录结构存放。提供了一些预训练模型供下载。",[112,113,114,115,116],"torch","numpy","opencv-python","yacs","tqdm",[14,16],[119,120,121,122,123],"human-pose-estimation","deep-learning","coco-dataset","mpii-dataset","mscoco-keypoint","2026-03-27T02:49:30.150509","2026-04-07T06:36:41.539390",[127,132,137,142,147,152],{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},21144,"代码何时开源？预训练模型在哪里下载？","代码已经发布。预训练模型可以通过以下 Google Drive 链接下载：https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F14kAA1zXuKODYgrRiQmKnVcipbY7RedVV?usp=sharing","https:\u002F\u002Fgithub.com\u002Filovepose\u002FDarkPose\u002Fissues\u002F1",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},21145,"为什么在 HRNet 上使用 DarkPose 后测试结果没有提升，与不使用 DARK 时一样？","如果您使用的是微软亚洲研究院（MSRA）提供的原始 HRNet 模型，某些未指明的修改可能会抵消 DARK 带来的性能提升。建议对比官方 HRNet 代码与该仓库中修改后的 HRNet 代码（例如使用 diff 工具），确保模型结构一致。如果修改后的模型本身性能不如官方模型，那么加上 DARK 也可能无法超越官方模型的表现。","https:\u002F\u002Fgithub.com\u002Filovepose\u002FDarkPose\u002Fissues\u002F9",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},21146,"无法复现论文中 'Model + Dark' 的得分，只复现了基础模型的分数，原因是什么？","确保在测试时正确调用了泰勒展开解码函数 `taylor(hm, coord)`（位于 `lib\u002Fcore\u002Finference.py`）。此外，必须使用作者提供的特定预训练模型文件，并严格按照提供的配置文件和命令运行测试。例如：`python tools\u002Ftest.py --cfg experiments\u002Fcoco\u002Fhrnet\u002Fw32_256x192_adam_lr1e-3.yaml TEST.MODEL_FILE \u003CMODEL_PATH> TEST.USE_GT_BBOX False`。如果仍无法复现，可能是由于环境差异或模型文件版本问题。","https:\u002F\u002Fgithub.com\u002Filovepose\u002FDarkPose\u002Fissues\u002F4",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},21147,"在生成热力图时，为什么坐标没有除以步长（feat_stride）？代码是否有误？","代码没有错误。在 `JointsDataset.py` 中，关节点坐标在进入热力图生成步骤前，已经通过仿射变换（affine_transform）映射到了热力图空间。因此，此时的 x, y 坐标已经是针对热力图尺寸（如 72, 96）的，不需要再除以 `feat_stride`。DarkPose 与 HRNet 在 `affine_transform` 处理上存在差异，导致坐标空间不同。","https:\u002F\u002Fgithub.com\u002Filovepose\u002FDarkPose\u002Fissues\u002F14",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},21148,"训练 Hourglass 模型时报错 'The size of tensor a must match the size of tensor b' 或 TensorBoard 绘图错误，如何解决？","这是因为公共仓库中的 Hourglass 模型文件（hourglass.py）未及时更新，导致维度不匹配。维护者已修复该问题。请拉取最新的代码，特别是更新后的 `hourglass.py` 文件（参考提交记录：0185b427f34a08d93ea7e948ccc3e7fdc78d88c5），然后重新尝试训练。","https:\u002F\u002Fgithub.com\u002Filovepose\u002FDarkPose\u002Fissues\u002F33",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},21149,"作为初学者，如何获取项目的代码以进行学习？","项目代码已经完全开源。您可以直接访问 GitHub 仓库主页克隆代码：`git clone https:\u002F\u002Fgithub.com\u002Filovepose\u002FDarkPose.git`。代码发布后，社区也提供了一些第三方实现和博客教程作为参考。","https:\u002F\u002Fgithub.com\u002Filovepose\u002FDarkPose\u002Fissues\u002F3",[]]