[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-facebookresearch--sapiens":3,"tool-facebookresearch--sapiens":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,2,"2026-04-18T11:18:24",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":32,"env_os":106,"env_gpu":107,"env_ram":106,"env_deps":108,"category_tags":114,"github_topics":78,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":116,"updated_at":117,"faqs":118,"releases":154},9456,"facebookresearch\u002Fsapiens","sapiens","High-resolution models for human tasks.","Sapiens 是一套专为人体视觉任务打造的高分辨率基础模型系列，由 Meta Reality Labs 团队研发并入选 ECCV 2024 最佳论文候选。它能够精准处理 2D 人体姿态估计、身体部位分割、深度图生成及法线贴图估算等多种复杂任务。\n\n针对现有模型在真实复杂场景下表现不稳定、细节丢失严重的问题，Sapiens 通过在 3 亿张“野生”（即非受控环境）人体图像上进行预训练，展现了极强的泛化能力。无论光线如何变化或人物姿态多么扭曲，它都能保持出色的识别精度。其核心技术亮点在于原生支持 1024x1024 高分辨率输入，并采用 16 像素的小补丁尺寸进行训练，从而能捕捉到更细微的人体特征。此外，项目提供的 Lite 版本仅需少量依赖即可运行，推理速度提升达 4 倍。\n\nSapiens 非常适合计算机视觉研究人员、AI 开发者以及数字内容创作者使用。研究人员可将其作为强大的基线模型探索新算法；开发者能轻松将其集成到虚拟试衣、动作捕捉或健身辅助等应用中；设计师则可利用其生成的精细几何信息优化 3D 角色建模与特效制作。无论是学术探索还是工程落地，Sapiens 都为理解人体视觉提供","Sapiens 是一套专为人体视觉任务打造的高分辨率基础模型系列，由 Meta Reality Labs 团队研发并入选 ECCV 2024 最佳论文候选。它能够精准处理 2D 人体姿态估计、身体部位分割、深度图生成及法线贴图估算等多种复杂任务。\n\n针对现有模型在真实复杂场景下表现不稳定、细节丢失严重的问题，Sapiens 通过在 3 亿张“野生”（即非受控环境）人体图像上进行预训练，展现了极强的泛化能力。无论光线如何变化或人物姿态多么扭曲，它都能保持出色的识别精度。其核心技术亮点在于原生支持 1024x1024 高分辨率输入，并采用 16 像素的小补丁尺寸进行训练，从而能捕捉到更细微的人体特征。此外，项目提供的 Lite 版本仅需少量依赖即可运行，推理速度提升达 4 倍。\n\nSapiens 非常适合计算机视觉研究人员、AI 开发者以及数字内容创作者使用。研究人员可将其作为强大的基线模型探索新算法；开发者能轻松将其集成到虚拟试衣、动作捕捉或健身辅助等应用中；设计师则可利用其生成的精细几何信息优化 3D 角色建模与特效制作。无论是学术探索还是工程落地，Sapiens 都为理解人体视觉提供了可靠的高效工具。","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_sapiens_readme_4d0a9af7f481.gif\" alt=\"Sapiens\" title=\"Sapiens\" width=\"500\"\u002F>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n   \u003Ch2 align=\"center\">Foundation for Human Vision Models\u003C\u002Fh2>\n   \u003Cp align=\"center\">\n      \u003Ca href=\"https:\u002F\u002Frawalkhirodkar.github.io\u002F\">\u003Cstrong>Rawal Khirodkar\u003C\u002Fstrong>\u003C\u002Fa>\n      ·\n      \u003Ca href=\"https:\u002F\u002Fscholar.google.ch\u002Fcitations?user=oLi7xJ0AAAAJ&hl=en\">\u003Cstrong>Timur Bagautdinov\u003C\u002Fstrong>\u003C\u002Fa>\n      ·\n      \u003Ca href=\"https:\u002F\u002Funa-dinosauria.github.io\u002F\">\u003Cstrong>Julieta Martinez\u003C\u002Fstrong>\u003C\u002Fa>\n      ·\n      \u003Ca href=\"https:\u002F\u002Fabout.meta.com\u002Frealitylabs\u002F\">\u003Cstrong>Su Zhaoen\u003C\u002Fstrong>\u003C\u002Fa>\n      ·\n      \u003Ca href=\"https:\u002F\u002Fabout.meta.com\u002Frealitylabs\u002F\">\u003Cstrong>Austin James\u003C\u002Fstrong>\u003C\u002Fa>\n      \u003Cbr>\n      \u003Ca href=\"https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fpeter-selednik-05036499\u002F\">\u003Cstrong>Peter Selednik\u003C\u002Fstrong>\u003C\u002Fa>\n      .\n      \u003Ca href=\"https:\u002F\u002Fscholar.google.fr\u002Fcitations?user=8orqBsYAAAAJ&hl=ja\">\u003Cstrong>Stuart Anderson\u003C\u002Fstrong>\u003C\u002Fa>\n      .\n      \u003Ca href=\"https:\u002F\u002Fshunsukesaito.github.io\u002F\">\u003Cstrong>Shunsuke Saito\u003C\u002Fstrong>\u003C\u002Fa>\n   \u003C\u002Fp>\n   \u003Ch3 align=\"center\">ECCV 2024 - Best Paper Candidate\u003C\u002Fh3>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n   \u003Ca href='https:\u002F\u002Fabout.meta.com\u002Frealitylabs\u002Fcodecavatars\u002Fsapiens\u002F'>\n      \u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSapiens-Page-azure?style=for-the-badge&logo=Google%20chrome&logoColor=white&labelColor=000080&color=007FFF' alt='Project Page'>\n   \u003C\u002Fa>\n\n   \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.12569\">\n      \u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper-PDF-green?style=for-the-badge&logo=adobeacrobatreader&logoWidth=20&logoColor=white&labelColor=66cc00&color=94DD15' alt='Paper PDF'>\n   \u003C\u002Fa>\n\n   \u003Ca href='https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Ffacebook\u002Fsapiens-66d22047daa6402d565cb2fc'>\n      \u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHuggingFace-Demo-orange?style=for-the-badge&logo=huggingface&logoColor=white&labelColor=FF5500&color=orange' alt='Spaces'>\n   \u003C\u002Fa>\n\n   \u003Ca href='https:\u002F\u002Frawalkhirodkar.github.io\u002Fsapiens\u002F'>\n      \u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FMore-Results-ffffff?style=for-the-badge&logo=data:image\u002Fsvg+xml;base64,PHN2ZyB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciIHZpZXdCb3g9IjAgMCAyNCAyNCIgZmlsbD0id2hpdGUiIHdpZHRoPSIxOCIgaGVpZ2h0PSIxOCI+PHBhdGggZD0iTTAgMGgyNHYyNEgweiIgZmlsbD0ibm9uZSIvPjxwYXRoIGQ9Ik0xOSAzSDVjLTEuMSAwLTIgLjktMiAydjE0YzAgMS4xLjkgMiAyIDJoMTRjMS4xIDAgMi0uOSAyLTJWNWMwLTEuMS0uOS0yLTItMnpNOSAxN0g3di01aDJ2NXptNCAwaC0ydi03aDJ2N3ptNCAwaC0yVjhoMnY5eiIvPjwvc3ZnPg==&logoColor=white&labelColor=8A2BE2&color=9370DB' alt='Results'>\n   \u003C\u002Fa>\n\u003C\u002Fp>\n\nSapiens offers a comprehensive suite for human-centric vision tasks (e.g., 2D pose, part segmentation, depth, normal, etc.). The model family is pretrained on 300 million in-the-wild human images and shows excellent generalization to unconstrained conditions. These models are also designed for extracting high-resolution features, having been natively trained at a 1024 x 1024 image resolution with a 16-pixel patch size.\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_sapiens_readme_0c971e1f8bb7.gif\" alt=\"01\" title=\"01\" width=\"400\"\u002F>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_sapiens_readme_c8516647ade7.gif\" alt=\"03\" title=\"03\" width=\"400\"\u002F>\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_sapiens_readme_369c5afd1e97.gif\" alt=\"02\" title=\"02\" width=\"400\"\u002F>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_sapiens_readme_0b9b3cf8a8b5.gif\" alt=\"04\" title=\"04\" width=\"400\"\u002F>\n\u003C\u002Fp>\n\n\n## 🚀 Getting Started\n\n### Clone the Repository\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fsapiens.git\n   export SAPIENS_ROOT=\u002Fpath\u002Fto\u002Fsapiens\n   ```\n\n### Recommended: Lite Installation (Inference-only)\n   For users setting up their own environment primarily for running existing models in inference mode, we recommend the [Sapiens-Lite installation](lite\u002FREADME.md).\\\n   This setup offers optimized inference (4x faster) with minimal dependencies (only PyTorch + numpy + cv2).\n\n### Full Installation\n   To replicate our complete training setup, run the provided installation script. \\\n   This will create a new conda environment named `sapiens` and install all necessary dependencies.\n\n   ```bash\n   cd $SAPIENS_ROOT\u002F_install\n   .\u002Fconda.sh\n   ```\n\n   Please download the **original** checkpoints from [hugging-face](https:\u002F\u002Fhuggingface.co\u002Ffacebook\u002Fsapiens). \\\n   You can be selective about only downloading the checkpoints of interest.\\\n   Set `$SAPIENS_CHECKPOINT_ROOT` to be the path to the `sapiens_host` folder. Place the checkpoints following this directory structure:\n   ```plaintext\n   sapiens_host\u002F\n   ├── detector\u002F\n   │   └── checkpoints\u002F\n   │       └── rtmpose\u002F\n   ├── pretrain\u002F\n   │   └── checkpoints\u002F\n   │       ├── sapiens_0.3b\u002F\n               ├── sapiens_0.3b_epoch_1600_clean.pth\n   │       ├── sapiens_0.6b\u002F\n               ├── sapiens_0.6b_epoch_1600_clean.pth\n   │       ├── sapiens_1b\u002F\n   │       └── sapiens_2b\u002F\n   ├── pose\u002F\n      └── checkpoints\u002F\n         ├── sapiens_0.3b\u002F\n   └── seg\u002F\n   └── depth\u002F\n   └── normal\u002F\n   ```\n\n## 🌟 Human-Centric Vision Tasks\nWe finetune sapiens for multiple human-centric vision tasks. Please checkout the list below.\n\n- ###  [Image Encoder](docs\u002FPRETRAIN_README.md) \u003Csup>\u003Csmall>\u003Ca href=\"lite\u002Fdocs\u002FPRETRAIN_README.md\" style=\"color: #FFA500;\">[lite]\u003C\u002Fa>\u003C\u002Fsmall>\u003C\u002Fsup>\n- ### [Pose Estimation](docs\u002FPOSE_README.md) \u003Csup>\u003Csmall>\u003Ca href=\"lite\u002Fdocs\u002FPOSE_README.md\" style=\"color: #FFA500;\">[lite]\u003C\u002Fa>\u003C\u002Fsmall>\u003C\u002Fsup>\n- ### [Body Part Segmentation](docs\u002FSEG_README.md) \u003Csup>\u003Csmall>\u003Ca href=\"lite\u002Fdocs\u002FSEG_README.md\" style=\"color: #FFA500;\">[lite]\u003C\u002Fa>\u003C\u002Fsmall>\u003C\u002Fsup>\n- ### [Depth Estimation](docs\u002FDEPTH_README.md) \u003Csup>\u003Csmall>\u003Ca href=\"lite\u002Fdocs\u002FDEPTH_README.md\" style=\"color: #FFA500;\">[lite]\u003C\u002Fa>\u003C\u002Fsmall>\u003C\u002Fsup>\n- ### [Surface Normal Estimation](docs\u002FNORMAL_README.md) \u003Csup>\u003Csmall>\u003Ca href=\"lite\u002Fdocs\u002FNORMAL_README.md\" style=\"color: #FFA500;\">[lite]\u003C\u002Fa>\u003C\u002Fsmall>\u003C\u002Fsup>\n\n## 🎯 Easy Steps to Finetuning Sapiens\nFinetuning our models is super-easy! Here is a detailed training guide for the following tasks.\n- ### [Pose Estimation](docs\u002Ffinetune\u002FPOSE_README.md)\n- ### [Body-Part Segmentation](docs\u002Ffinetune\u002FSEG_README.md)\n- ### [Depth Estimation](docs\u002Ffinetune\u002FDEPTH_README.md)\n- ### [Surface Normal Estimation](docs\u002Ffinetune\u002FNORMAL_README.md)\n\n## 📈 Quantitative Evaluations\n- ### [Pose Estimation](docs\u002Fevaluate\u002FPOSE_README.md)\n\n## 🤝 Acknowledgements & Support & Contributing\nWe would like to acknowledge the work by [OpenMMLab](https:\u002F\u002Fgithub.com\u002Fopen-mmlab) which this project benefits from.\\\nFor any questions or issues, please open an issue in the repository.\\\nSee [contributing](CONTRIBUTING.md) and the [code of conduct](CODE_OF_CONDUCT.md).\n\n## License\nThis project is licensed under [LICENSE](LICENSE).\\\nPortions derived from open-source projects are licensed under [Apache 2.0](https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0).\n\n## 📚 Citation\nIf you use Sapiens in your research, please consider citing us.\n```bibtex\n@article{khirodkar2024sapiens,\n  title={Sapiens: Foundation for Human Vision Models},\n  author={Khirodkar, Rawal and Bagautdinov, Timur and Martinez, Julieta and Zhaoen, Su and James, Austin and Selednik, Peter and Anderson, Stuart and Saito, Shunsuke},\n  journal={arXiv preprint arXiv:2408.12569},\n  year={2024}\n}\n```\n","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_sapiens_readme_4d0a9af7f481.gif\" alt=\"Sapiens\" title=\"Sapiens\" width=\"500\"\u002F>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n   \u003Ch2 align=\"center\">人类视觉模型的基础\u003C\u002Fh2>\n   \u003Cp align=\"center\">\n      \u003Ca href=\"https:\u002F\u002Frawalkhirodkar.github.io\u002F\">\u003Cstrong>Rawal Khirodkar\u003C\u002Fstrong>\u003C\u002Fa>\n      ·\n      \u003Ca href=\"https:\u002F\u002Fscholar.google.ch\u002Fcitations?user=oLi7xJ0AAAAJ&hl=en\">\u003Cstrong>Timur Bagautdinov\u003C\u002Fstrong>\u003C\u002Fa>\n      ·\n      \u003Ca href=\"https:\u002F\u002Funa-dinosauria.github.io\u002F\">\u003Cstrong>Julieta Martinez\u003C\u002Fstrong>\u003C\u002Fa>\n      ·\n      \u003Ca href=\"https:\u002F\u002Fabout.meta.com\u002Frealitylabs\u002F\">\u003Cstrong>Su Zhaoen\u003C\u002Fstrong>\u003C\u002Fa>\n      ·\n      \u003Ca href=\"https:\u002F\u002Fabout.meta.com\u002Frealitylabs\u002F\">\u003Cstrong>Austin James\u003C\u002Fstrong>\u003C\u002Fa>\n      \u003Cbr>\n      \u003Ca href=\"https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fpeter-selednik-05036499\u002F\">\u003Cstrong>Peter Selednik\u003C\u002Fstrong>\u003C\u002Fa>\n      .\n      \u003Ca href=\"https:\u002F\u002Fscholar.google.fr\u002Fcitations?user=8orqBsYAAAAJ&hl=ja\">\u003Cstrong>Stuart Anderson\u003C\u002Fstrong>\u003C\u002Fa>\n      .\n      \u003Ca href=\"https:\u002F\u002Fshunsukesaito.github.io\u002F\">\u003Cstrong>Shunsuke Saito\u003C\u002Fstrong>\u003C\u002Fa>\n   \u003C\u002Fp>\n   \u003Ch3 align=\"center\">ECCV 2024 - 最佳论文候选\u003C\u002Fh3>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n   \u003Ca href='https:\u002F\u002Fabout.meta.com\u002Frealitylabs\u002Fcodecavatars\u002Fsapiens\u002F'>\n      \u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSapiens-Page-azure?style=for-the-badge&logo=Google%20chrome&logoColor=white&labelColor=000080&color=007FFF' alt='项目页面'>\n   \u003C\u002Fa>\n\n   \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.12569\">\n      \u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper-PDF-green?style=for-the-badge&logo=adobeacrobatreader&logoWidth=20&logoColor=white&labelColor=66cc00&color=94DD15' alt='论文PDF'>\n   \u003C\u002Fa>\n\n   \u003Ca href='https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Ffacebook\u002Fsapiens-66d22047daa6402d565cb2fc'>\n      \u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHuggingFace-Demo-orange?style=for-the-badge&logo=huggingface&logoColor=white&labelColor=FF5500&color=orange' alt='Spaces'>\n   \u003C\u002Fa>\n\n   \u003Ca href='https:\u002F\u002Frawalkhirodkar.github.io\u002Fsapiens\u002F'>\n      \u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FMore-Results-ffffff?style=for-the-badge&logo=data:image\u002Fsvg+xml;base64,PHN2ZyB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciIHZpZXdCb3g9IjAgMCAyNCAyNCIgZmlsbD0id2hpdGUiIHdpZHRoPSIxOCIgaGVpZ2h0PSIxOCI+PHBhdGggZD0iTTAgMGgyNHYyNEhweiIgZmlsbD0ibm9uZSIvPjxwYXRoIGQ9Ik0xOSAzSDVjLTEuMSAwLTIgLjktMiAydjE0YzAgMS4xLjkgMiAyIDJoMTRjMS4xIDAgMi0uOSAyLTJWNWMwLTEuMS0uOS0yLTItMnpNOSAxN0g3di01aDJ2NXptNCAwaC0ydi03aDJ2N3ptNCAwaC0yVjhoMnY5eiIvPjwvc3ZnPg==&logoColor=white&labelColor=8A2BE2&color=9370DB' alt='结果'>\n   \u003C\u002Fa>\n\u003C\u002Fp>\n\nSapiens 提供了一套全面的人类中心视觉任务解决方案（例如，2D 姿态估计、部位分割、深度、法线等）。该模型系列在 3 亿张野外采集的人类图像上进行了预训练，并在非约束条件下表现出色的泛化能力。这些模型还专为提取高分辨率特征而设计，原生以 1024×1024 的图像分辨率和 16 像素的补丁大小进行训练。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_sapiens_readme_0c971e1f8bb7.gif\" alt=\"01\" title=\"01\" width=\"400\"\u002F>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_sapiens_readme_c8516647ade7.gif\" alt=\"03\" title=\"03\" width=\"400\"\u002F>\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_sapiens_readme_369c5afd1e97.gif\" alt=\"02\" title=\"02\" width=\"400\"\u002F>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_sapiens_readme_0b9b3cf8a8b5.gif\" alt=\"04\" title=\"04\" width=\"400\"\u002F>\n\u003C\u002Fp>\n\n\n## 🚀 快速入门\n\n### 克隆仓库\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fsapiens.git\n   export SAPIENS_ROOT=\u002Fpath\u002Fto\u002Fsapiens\n   ```\n\n### 推荐：精简安装（仅推理）\n   对于主要为了在推理模式下运行现有模型而搭建环境的用户，我们推荐使用 [Sapiens-Lite 安装](lite\u002FREADME.md)。\\\n   此设置提供了优化的推理性能（快 4 倍），且依赖项极少（仅 PyTorch + numpy + cv2）。\n\n### 完整安装\n   若要复现我们的完整训练环境，请运行提供的安装脚本。\\\n   这将创建一个名为 `sapiens` 的新 conda 环境，并安装所有必要的依赖项。\n\n   ```bash\n   cd $SAPIENS_ROOT\u002F_install\n   .\u002Fconda.sh\n   ```\n\n   请从 [hugging-face](https:\u002F\u002Fhuggingface.co\u002Ffacebook\u002Fsapiens) 下载**原始**检查点。\\\n   您可以选择性地只下载感兴趣的检查点。\\\n   将 `$SAPIENS_CHECKPOINT_ROOT` 设置为 `sapiens_host` 文件夹的路径。请按照以下目录结构放置检查点：\n   ```plaintext\n   sapiens_host\u002F\n   ├── detector\u002F\n   │   └── checkpoints\u002F\n   │       └── rtmpose\u002F\n   ├── pretrain\u002F\n   │   └── checkpoints\u002F\n   │       ├── sapiens_0.3b\u002F\n               ├── sapiens_0.3b_epoch_1600_clean.pth\n   │       ├── sapiens_0.6b\u002F\n               ├── sapiens_0.6b_epoch_1600_clean.pth\n   │       ├── sapiens_1b\u002F\n   │       └── sapiens_2b\u002F\n   ├── pose\u002F\n      └── checkpoints\u002F\n         ├── sapiens_0.3b\u002F\n   └── seg\u002F\n   └── depth\u002F\n   └── normal\u002F\n   ```\n\n## 🌟 人类中心视觉任务\n我们针对多项人类中心视觉任务对 Sapiens 进行了微调。请查看下面的列表。\n\n- ###  [图像编码器](docs\u002FPRETRAIN_README.md) \u003Csup>\u003Csmall>\u003Ca href=\"lite\u002Fdocs\u002FPRETRAIN_README.md\" style=\"color: #FFA500;\">[精简]\u003C\u002Fa>\u003C\u002Fsmall>\u003C\u002Fsup>\n- ### [姿态估计](docs\u002FPOSE_README.md) \u003Csup>\u003Csmall>\u003Ca href=\"lite\u002Fdocs\u002FPOSE_README.md\" style=\"color: #FFA500;\">[精简]\u003C\u002Fa>\u003C\u002Fsmall>\u003C\u002Fsup>\n- ### [身体部位分割](docs\u002FSEG_README.md) \u003Csup>\u003Csmall>\u003Ca href=\"lite\u002Fdocs\u002FSEG_README.md\" style=\"color: #FFA500;\">[精简]\u003C\u002Fa>\u003C\u002Fsmall>\u003C\u002Fsup>\n- ### [深度估计](docs\u002FDEPTH_README.md) \u003Csup>\u003Csmall>\u003Ca href=\"lite\u002Fdocs\u002FDEPTH_README.md\" style=\"color: #FFA500;\">[精简]\u003C\u002Fa>\u003C\u002Fsmall>\u003C\u002Fsup>\n- ### [表面法线估计](docs\u002FNORMAL_README.md) \u003Csup>\u003Csmall>\u003Ca href=\"lite\u002Fdocs\u002FNORMAL_README.md\" style=\"color: #FFA500;\">[精简]\u003C\u002Fa>\u003C\u002Fsmall>\u003C\u002Fsup>\n\n## 🎯 微调 Sapiens 的简单步骤\n微调我们的模型非常简单！以下是针对以下任务的详细训练指南。\n- ### [姿态估计](docs\u002Ffinetune\u002FPOSE_README.md)\n- ### [身体部位分割](docs\u002Ffinetune\u002FSEG_README.md)\n- ### [深度估计](docs\u002Ffinetune\u002FDEPTH_README.md)\n- ### [表面法线估计](docs\u002Ffinetune\u002FNORMAL_README.md)\n\n## 📈 定量评估\n- ### [姿态估计](docs\u002Fevaluate\u002FPOSE_README.md)\n\n## 🤝 致谢、支持与贡献\n我们感谢 [OpenMMLab](https:\u002F\u002Fgithub.com\u002Fopen-mmlab) 的工作，本项目从中受益良多。\\\n如有任何问题或疑问，请在仓库中提交 issue。\\\n详情请参阅 [贡献说明](CONTRIBUTING.md) 和 [行为准则](CODE_OF_CONDUCT.md)。\n\n## 许可证\n本项目采用 [LICENSE](LICENSE) 许可证。\\\n源自开源项目的部分代码则采用 [Apache 2.0](https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0) 许可证。\n\n## 📚 引用\n如果您在研究中使用 Sapiens，请考虑引用我们的工作。\n```bibtex\n@article{khirodkar2024sapiens,\n  title={Sapiens：人类视觉模型的基础},\n  author={Khirodkar, Rawal 和 Bagautdinov, Timur 和 Martinez, Julieta 和 Zhaoen, Su 和 James, Austin 和 Selednik, Peter 和 Anderson, Stuart 和 Saito, Shunsuke},\n  journal={arXiv 预印本 arXiv:2408.12569},\n  year={2024}\n}\n```","# Sapiens 快速上手指南\n\nSapiens 是一套专注于人体视觉任务的基础模型系列，支持 2D 姿态估计、身体部位分割、深度估计和法线估计等任务。该模型在 3 亿张野生人体图像上预训练，原生支持 1024x1024 高分辨率输入，具有极强的泛化能力。\n\n## 环境准备\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04+)\n*   **硬件要求**: NVIDIA GPU (建议显存 16GB 以上以运行大尺寸模型)\n*   **软件依赖**:\n    *   Python 3.8+\n    *   CUDA 11.8+ (根据 PyTorch 版本匹配)\n    *   Git\n    *   Conda (推荐用于环境管理)\n\n> **注意**：本项目由 Meta Reality Labs 开发，国内用户访问 HuggingFace 下载模型时可能需要配置网络代理或使用镜像站。\n\n## 安装步骤\n\n### 1. 克隆仓库\n首先将代码库克隆到本地并设置环境变量：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fsapiens.git\nexport SAPIENS_ROOT=$(pwd)\u002Fsapiens\n```\n\n### 2. 选择安装方式\n\n#### 方案 A：轻量级安装（推荐仅推理用户）\n如果您只需要运行现有模型进行推理，推荐使用 Lite 版本。该方案依赖极少（仅需 PyTorch + numpy + cv2），推理速度提升约 4 倍。\n\n请参考官方轻量版文档进行安装：\n```bash\n# 进入 lite 目录查看具体安装说明\ncd $SAPIENS_ROOT\u002Flite\n# 具体命令请参阅 lite\u002FREADME.md\n```\n\n#### 方案 B：完整安装（包含训练与微调）\n如果您需要复现训练流程或进行微调，请运行以下脚本创建名为 `sapiens` 的 Conda 环境：\n\n```bash\ncd $SAPIENS_ROOT\u002F_install\n.\u002Fconda.sh\n```\n\n激活环境：\n```bash\nconda activate sapiens\n```\n\n### 3. 下载预训练权重\n从 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Ffacebook\u002Fsapiens) 下载所需的检查点文件。\n*(国内用户若下载缓慢，可尝试使用 HuggingFace 镜像站如 `hf-mirror.com`)*\n\n假设您将下载的权重存放在 `$SAPIENS_CHECKPOINT_ROOT` 目录下，请确保目录结构如下：\n\n```plaintext\nsapiens_host\u002F\n├── detector\u002F\n│   └── checkpoints\u002F\n│       └── rtmpose\u002F\n├── pretrain\u002F\n│   └── checkpoints\u002F\n│       ├── sapiens_0.3b\u002F\n│       │   └── sapiens_0.3b_epoch_1600_clean.pth\n│       ├── sapiens_0.6b\u002F\n│       │   └── sapiens_0.6b_epoch_1600_clean.pth\n│       ├── sapiens_1b\u002F\n│       └── sapiens_2b\u002F\n├── pose\u002F\n│   └── checkpoints\u002F\n│       └── sapiens_0.3b\u002F\n├── seg\u002F\n├── depth\u002F\n└── normal\u002F\n```\n\n设置环境变量指向该目录：\n```bash\nexport SAPIENS_CHECKPOINT_ROOT=\u002Fpath\u002Fto\u002Fsapiens_host\n```\n\n## 基本使用\n\nSapiens 提供了针对不同任务的独立脚本。以下是以最常用的 **姿态估计 (Pose Estimation)** 为例的基本使用流程。\n\n### 运行姿态估计推理\n\n确保已激活环境并设置了正确的检查点路径，运行以下命令（具体参数请参考 `docs\u002FPOSE_README.md`）：\n\n```bash\ncd $SAPIENS_ROOT\n\n# 示例：运行姿态估计推理\n# 请根据实际下载的模型版本调整 config 和 checkpoint 路径\npython tools\u002Finfer_pose.py \\\n    --config configs\u002Fpose\u002Fsapiens_0.3b.yaml \\\n    --checkpoint $SAPIENS_CHECKPOINT_ROOT\u002Fpose\u002Fcheckpoints\u002Fsapiens_0.3b\u002Flatest.pth \\\n    --input assets\u002Fdemo.jpg \\\n    --output_dir outputs\u002Fpose\n```\n\n### 其他任务快速入口\n\n*   **身体部位分割**: 参考 `docs\u002FSEG_README.md`\n*   **深度估计**: 参考 `docs\u002FDEPTH_README.md`\n*   **表面法线估计**: 参考 `docs\u002FNORMAL_README.md`\n\n所有任务均支持高分辨率输入，建议在推理时保持图片原始分辨率或调整为 1024x1024 以获得最佳效果。","某虚拟时尚电商团队正在构建一套自动试衣系统，需要将用户上传的生活照精准转化为带有深度信息和人体分割掩码的 3D 模型数据。\n\n### 没有 sapiens 时\n- **细节丢失严重**：传统模型通常基于低分辨率（如 256x256）训练，导致用户照片中复杂的衣物褶皱、发丝边缘在分割时变得模糊不清。\n- **复杂场景失效**：当用户背景杂乱或光线不均时，旧模型对人体姿态的估计经常发生漂移，无法准确识别被部分遮挡的四肢。\n- **多任务流程繁琐**：为了同时获取深度图、法线图和分割掩码，工程师需要串联多个专用小模型，导致推理延迟高且显存占用巨大。\n- **泛化能力不足**：面对非标准姿势或特殊体型的人群，模型表现极不稳定，需大量人工后期修图补救。\n\n### 使用 sapiens 后\n- **高清特征还原**：sapiens 原生支持 1024x1024 高分辨率输入，能精准捕捉衣物纹理和人体微小轮廓，生成的分割掩码边缘锐利自然。\n- **鲁棒性显著提升**：得益于 3 亿张野外图像的预训练，sapiens 在复杂背景和极端光照下仍能稳定输出精确的 2D 姿态和部位分割。\n- **一站式高效推理**：单个 sapiens 模型即可并行输出姿态、分割、深度及法线等多种几何属性，大幅简化了技术栈并提升了处理速度。\n- **通用性强无需微调**：面对各种体型和非典型动作，sapiens 展现出卓越的泛化能力，直接部署即可满足生产级精度要求。\n\nsapiens 通过其高分辨率感知与强大的泛化能力，将原本繁琐且低质的人体视觉分析流程转变为高效、精准的自动化生产线。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_sapiens_0c971e1f.gif","facebookresearch","Meta Research","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ffacebookresearch_449342bd.png","",null,"https:\u002F\u002Fopensource.fb.com","https:\u002F\u002Fgithub.com\u002Ffacebookresearch",[82,86,90,94,98],{"name":83,"color":84,"percentage":85},"Python","#3572A5",89.9,{"name":87,"color":88,"percentage":89},"C++","#f34b7d",5.8,{"name":91,"color":92,"percentage":93},"Cuda","#3A4E3A",3.5,{"name":95,"color":96,"percentage":97},"Shell","#89e051",0.8,{"name":99,"color":100,"percentage":101},"Objective-C++","#6866fb",0,5325,316,"2026-04-18T09:57:18","NOASSERTION","未说明","需要 NVIDIA GPU（基于 PyTorch 和高分辨率训练需求推断），具体显存大小未说明（原生训练分辨率为 1024x1024，建议大显存），CUDA 版本未说明",{"notes":109,"python":106,"dependencies":110},"提供两种安装模式：'Lite 安装'仅用于推理，依赖极少（仅需 PyTorch + numpy + cv2），速度优化 4 倍；'完整安装'用于复现训练环境，需通过脚本创建 conda 环境。模型需在 Hugging Face 下载检查点并按特定目录结构放置。原生支持 1024x1024 高分辨率输入。",[111,112,113],"torch","numpy","cv2",[15,115],"其他","2026-03-27T02:49:30.150509","2026-04-19T15:38:03.873862",[119,124,129,134,139,144,149],{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},42418,"推理速度太慢（例如处理视频耗时过长），如何优化？","如果是高分辨率图像，可以禁用 YOLO 检测步骤以加快推理速度。对于低分辨率图像（如 110x126），可能需要保留检测步骤。此外，建议使用轻量级模型（如 0.3B 或 0.6B 版本），在高端 GPU（如 RTX 4090）上可达约 20 FPS。如果使用的是完整模型，请尝试切换到 lite 模式（TorchScript）以获得更快的速度。","https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fsapiens\u002Fissues\u002F110",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},42419,"遇到 'ModuleNotFoundError: No module named mmcv._ext' 错误如何解决？","这通常是 MMCV 版本兼容性问题。维护者已修复了相关演示代码中的问题。如果遇到此错误，请确保参考最新的 demo 代码（如 vis_seg.py）。对于环境配置，推荐使用 openmim 工具安装依赖：\n1. pip install -U openmim\n2. mim install mmengine\n3. mim install \"mmcv==2.1.0\"\n4. mim install mmdet","https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fsapiens\u002Fissues\u002F25",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},42420,"是否支持摄像头（Webcam）实时模式？性能如何？","目前主要通过图像或视频工作流进行，但用户可以自行模拟摄像头模式。测试显示，在 1024x768 分辨率下，0.3B 模型约为 17 FPS，0.6B 模型约为 11 FPS（使用 RTX 4090）。虽然精度可能优于 MediaPipe 等方案，但速度相对较慢。建议查看关于边缘设备部署的讨论以获取更多优化信息。","https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fsapiens\u002Fissues\u002F91",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},42421,"运行脚本时出现 'TypeError: init_model() got an unexpected keyword argument override_ckpt_meta' 错误怎么办？","这是因为参数不匹配导致的。解决方法有两种：\n1. 将项目 pose 目录下的 `mmpose` 文件夹复制到 `demo` 文件夹中。\n2. 或者，直接改用 lite 脚本进行推理（点击任务链接查看 lite readme 中的说明），这是推荐的推理方式。","https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fsapiens\u002Fissues\u002F15",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},42422,"在 Windows 或 WSL 上安装失败或遇到 CUDA 相关错误（如 'Torch not compiled with CUDA enabled'）如何解决？","安装失败通常是由于包版本不兼容。推荐以下步骤：\n1. 使用 openmim 安装核心依赖：`pip install -U openmim`，然后依次安装 `mmengine`, `mmcv==2.1.0`, `mmdet`。\n2. 确保 CUDA 版本与 PyTorch 版本匹配（例如 CUDA 12.1）。\n3. 如果在 Windows 上运行脚本报错，请检查 Torch 是否正确编译了 CUDA 支持，并参考社区成员成功在 Windows 11 上运行的经验贴排查环境冲突。","https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fsapiens\u002Fissues\u002F210",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},42423,"微调（Finetune）Normal 模型时对数据分辨率和模型大小有什么要求？","1. 训练数据不需要必须是 4K 图像，即使模型输入限制为 1024x768，使用更高分辨率的图像进行训练也是可选的，主要为了提供更好的数据增强效果，并非强制。\n2. 关于模型大小，2B 模型理论上能提供更好结果，但如果显存不足（OOM），可以尝试增大 `patch_size` 参数（例如从默认的 16 改为 32），但这可能会导致推理结果变模糊，需权衡调整。","https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fsapiens\u002Fissues\u002F92",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},42424,"运行 lite 环境下的 pose_keypoints 脚本时卡在加载检测模型（Loads checkpoint...）不动怎么办？","这个问题可以通过移除脚本中的检测配置参数来解决。编辑对应的 shell 脚本（如 `pose_keypoints17.sh` 或 `pose_keypoints308.sh`），删除 `--det-config` 和 `--det-checkpoint` 参数后重新运行即可正常完成推理。","https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fsapiens\u002Fissues\u002F42",[]]