[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-mkocabas--EpipolarPose":3,"tool-mkocabas--EpipolarPose":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":10,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":110,"github_topics":111,"view_count":10,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":122,"updated_at":123,"faqs":124,"releases":155},428,"mkocabas\u002FEpipolarPose","EpipolarPose","Self-Supervised Learning of 3D Human Pose using Multi-view Geometry (CVPR2019)","EpipolarPose 是一个用于 3D 人体姿态估计的开源工具，基于 CVPR 2019 发表的论文《Self-Supervised Learning of 3D Human Pose using Multi-view Geometry》。它最大的特点是无需依赖任何 3D 标注数据或相机外参信息，仅通过多视角图像之间的几何关系（极线几何）实现自监督训练。在训练阶段，模型从多个视角预测 2D 关键点，并利用这些信息重建出合理的 3D 姿态；而在测试时，只需输入单张 RGB 图像即可输出对应的 3D 姿态结果。\n\n这一方法有效缓解了传统 3D 姿态估计对昂贵且难以获取的 3D 标注数据的依赖，降低了数据准备门槛。EpipolarPose 主要面向计算机视觉领域的研究人员和开发者，尤其适合希望探索自监督学习、多视角几何或人体姿态估计方向的人群。项目提供了完整的 PyTorch 实现、预训练模型和演示 Notebook，便于快速复现实验或进行二次开发。其核心亮点在于巧妙结合经典多视图几何与深度学习，实现了高质量的无监督 3D 姿态建模。","[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fself-supervised-learning-of-3d-human-pose\u002F3d-human-pose-estimation-human36m)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002F3d-human-pose-estimation-human36m?p=self-supervised-learning-of-3d-human-pose)\n\n# Self-Supervised Learning of 3D Human Pose using Multi-view Geometry (CVPR2019) [[project page](https:\u002F\u002Fmkocabas.github.io\u002Fepipolarpose.html)]\n\n## Introduction\nThis is a pytorch implementation of \n[*Self-Supervised Learning of 3D Human Pose using Multi-view Geometry*](https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.02330) paper.\n\n> [**Self-Supervised Learning of 3D Human Pose using Multi-view Geometry**](https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.02330),            \n> [Muhammed Kocabas](http:\u002F\u002Fuser.ceng.metu.edu.tr\u002F~e2270981\u002F)\\*, [Salih Karagoz](https:\u002F\u002Fsalihkaragoz.github.io\u002F)\\*, \n[Emre Akbas](http:\u002F\u002Fuser.ceng.metu.edu.tr\u002F~emre\u002F),        \n> *IEEE Computer Vision and Pattern Recognition, 2019* (\\*equal contribution)   \n\nIn this work, we present **_EpipolarPose_**, a self-supervised learning method for \n3D human pose estimation, which does not need any 3D ground-truth data or camera extrinsics.\n\nDuring training, EpipolarPose estimates 2D poses from multi-view images, and then, utilizes epipolar geometry \nto obtain a 3D pose and camera geometry which are subsequently used to train a 3D pose estimator.\n\nIn the test time, it only takes an RGB image to produce a 3D pose result. Check out [`demo.ipynb`](demo.ipynb) to\nrun a simple demo.\n\nHere we show some sample outputs from our model on the Human3.6M dataset. \nFor each set of results we first show the input image, followed by the ground truth, \nfully supervised model and self supervised model outputs.\n\n\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Fi.imgur.com\u002FjZph53h.png\" width=\"100%\" alt=\"\"\u002F>\u003C\u002Fp>\n\n### Video Demo\n\u003Cp align=\"center\">\u003Ca target=_blank href=\"http:\u002F\u002Fwww.youtube.com\u002Fwatch?v=lkXBiKRfRDw\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmkocabas_EpipolarPose_readme_7746af354d5c.jpg\" width=\"50%\" alt=\"\" \u002F>\u003C\u002Fa>\u003C\u002Fp>\n\n\n\n## Overview\n- `scripts\u002F`: includes training and validation scripts.\n- `lib\u002F`: contains data preparation, model definition, and some utility functions.\n- `refiner\u002F`: includes the implementation of _refinement unit_ explained in the paper Section 3.3.\n- `experiments\u002F`: contains `*.yaml` configuration files to run experiments.\n- `sample_images\u002F`: images from Human3.6M dataset to run demo notebook.\n\n\n## Requirements\nThe code is developed using python 3.7.1 on Ubuntu 16.04. NVIDIA GPUs ared needed to train and test. \nSee [`requirements.txt`](requirements.txt) or [`environment.yml`](environment.yml) for other dependencies.\n\n## Quick start\n### Installation\n1. Install pytorch >= v1.0.0 following [official instructions](https:\u002F\u002Fpytorch.org\u002F).\n   _Note that if you use pytorch's version \u003C v1.0.0, you should follow the instructions at \n   \u003Chttps:\u002F\u002Fgithub.com\u002FMicrosoft\u002Fhuman-pose-estimation.pytorch> to disable cudnn's implementation of \n   BatchNorm layer. We encourage you to use higher pytorch's version(>=v1.0.0)_\n2. Clone this repo, and we will call the directory that you cloned as `${ROOT}`\n3. Install dependencies using `pip`.\n   ```\n   pip install -r requirements.txt\n   ```\n   or create a new `conda` env:\n   ```\n   conda env create -f environment.yml\n   ```\n4. Download annotation files from [GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=147AlIWRv9QDmp5pGjwG2yMWEG_2-E2ai) \n(150 MB) as a zip file under `${ROOT}` folder. Run below commands to unzip them.\n   ```\n   unzip data.zip\n   rm data.zip\n   ```\n5. Finally prepare your workspace by running:\n    ```bash\n    mkdir output\n    mkdir models\n    ```\n    Optionally you can download pretrained weights using the links in the below table. You can put them under `models`\n    directory. At the end, your directory tree should like this.\n\n   ```\n   ${ROOT}\n   ├── data\u002F\n   ├── experiments\u002F\n   ├── lib\u002F\n   ├── models\u002F\n   ├── output\u002F\n   ├── refiner\u002F\n   ├── sample_images\u002F\n   ├── scripts\u002F\n   ├── demo.ipynb\n   ├── README.md\n   └── requirements.txt\n   ```\n6. Yep, you are ready to run [`demo.ipynb`](demo.ipynb).\n### Data preparation\nYou would need Human3.6M data to train or test our model. **For Human3.6M data**, please download from \n[Human 3.6 M dataset](http:\u002F\u002Fvision.imar.ro\u002Fhuman3.6m\u002Fdescription.php). \nYou would need to create an account to get download permission. After downloading video files, you can run \n[our script](https:\u002F\u002Fgist.github.com\u002Fmkocabas\u002F5669c12debec54b172797743a3c0b778) to extract images.\nThen run `ln -s \u003Cpath_to_extracted_h36m_images> ${ROOT}\u002Fdata\u002Fh36m\u002Fimages` to create a soft link to images folder.\nCurrently you can use annotation files we provided in step 4, however we will release the annotation preparation\nscript soon after cleaning and proper testing.    \n\nIf you would like to pretrain an EpipolarPose model on MPII data, \nplease download image files from \n[MPII Human Pose Dataset](https:\u002F\u002Fdatasets.d2.mpi-inf.mpg.de\u002Fandriluka14cvpr\u002Fmpii_human_pose_v1.tar.gz) (12.9 GB).\nExtract it under `${ROOT}\u002Fdata\u002Fmpii` directory. If you already have the MPII dataset, you can create a soft link to images:\n`ln -s \u003Cpath_to_mpii_images> ${ROOT}\u002Fdata\u002Fmpii\u002Fimages`\n\nDuring training, we make use of [synthetic-occlusion](https:\u002F\u002Fgithub.com\u002Fisarandi\u002Fsynthetic-occlusion). If you want to use it please download the Pascal VOC dataset as instructed in their [repo](https:\u002F\u002Fgithub.com\u002Fisarandi\u002Fsynthetic-occlusion#getting-started) and update the `VOC` parameter in configuration files.\n\nAfter downloading the datasets your `data` directory tree should look like this: \n```\n${ROOT}\n|── data\u002F\n├───├── mpii\u002F\n|   └───├── annot\u002F\n|       └── images\u002F\n|       \n└───├── h36m\u002F\n    └───├── annot\u002F\n        └── images\u002F\n            ├── S1\u002F\n            └── S5\u002F\n            ...\n```\n### Pretrained Models\n\n#### Human3.6M\nDownload pretrained models using the given links, and put them under indicated paths.\n\n| Model                        | Backbone               | MPJPE on Human3.6M (mm) |    Link   | Directory                                 |\n|------------------------------|:----------------------:|:-----------------------:|:---------:|------------------------------------------|\n| Fully Supervised             | resnet18               | 63.0                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1b_1o-gTriiypZlVeZkvoqQfRIqZhpD5T) | `models\u002Fh36m\u002Ffully_supervised_resnet18.pth.tar`        |\n| Fully Supervised             | resnet34               | 59.6                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1pDLqOoUjgC-UI979l_u-AV5hJHcFNaOB) | `models\u002Fh36m\u002Ffully_supervised_resnet34.pth.tar`        |\n| Fully Supervised             | resnet50               | 51.8                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1TCiUCwyNKviO_-_f6WaOJe3b4pI9uPDh) | `models\u002Fh36m\u002Ffully_supervised.pth.tar`        |\n| Self Supervised R\u002Ft          | resnet50               | 76.6                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1OVKnQy_TCJXemsAxA9rdEToYVBG4JL4j) | `models\u002Fh36m\u002Fself_supervised_with_rt.pth.tar` |\n| Self Supervised without R\u002Ft  | resnet50               | 78.8 (NMPJPE)           | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1iJT0b5vWgdGyseO-ZNMn9S5ATMuutmac) | `models\u002Fh36m\u002Fself_supervised_wo_rt.pth.tar`   |\n| Self Supervised (2D GT)      | resnet50               | 55.0                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1RZ32GmikfixiQ6C-CTuccq5qfuxAJj8R) | `models\u002Fh36m\u002Fself_supervised_2d_gt.pth.tar`   |\n| Self Supervised (Subject 1)  | resnet50               | 65.3                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1Zo78GY4itUm2fQ85M-v1tYmwoSDkRrW1) | `models\u002Fh36m\u002Fself_supervised_s1.pth.tar`      |\n| Self Supervised + refinement | MLP-baseline           | 60.5                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1oW0PYNVd63G1BkRLmYczqqCsUVEsstPJ) | `models\u002Fh36m\u002Frefiner.pth.tar`                 |\n\n- **Fully Supervised:** trained using ground truth data.\n- **Self Supervised R\u002Ft:** trained using only camera extrinsic parameters.\n- **Self Supervised without R\u002Ft:** trained without any ground truth data or camera parameters.\n- **Self Supervised (2D GT):** trained with triangulations from ground truth 2D keypoints provided by the dataset.\n- **Self Supervised (Subject 1):** trained with only ground truth data of Subject #1.\n- **Self Supervised + refinement:** trained with a refinement module. For details of this setting please refer to\n[`refiner\u002FREADME.md`](refiner\u002FREADME.md)\n\nCheck out the [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.02330) for more details about training strategies of each model.\n\n#### MPII\nTo train an EpipolarPose model from scratch, you would need the model pretrained on MPII dataset.\n\n| Model         | Backbone| Mean PCK (%) |    Link   | Directory                                 |\n|---------------|:------------:|:-----------------------:|:---------:|------------------------------------------|\n| MPII Integral | resnet18       | 84.7                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1ygdMG5bHcgFSkNCIMJbyDkKhUQebXaoY) | `models\u002Fmpii\u002Fmpii_integral_r18.pth.tar`|\n| MPII Integral | resnet34       | 86.3                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1MFzLysHRq8SbO3V6L8o0ZMTKCIsDDGMW) | `models\u002Fmpii\u002Fmpii_integral_r34.pth.tar`|\n| MPII Integral | resnet50       | 88.3                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=19ee09gyyPOyrAzarQgM_YXqpaCthAfED) | `models\u002Fmpii\u002Fmpii_integral.pth.tar`|\n| MPII heatmap | resnet50       | 88.5                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1R4-3uA1o10Gm7zPEemSE2gUBrEF46D1O) | `models\u002Fmpii\u002Fmpii_heatmap.pth.tar`|\n\n\n### Validation on H36M using pretrained models\nIn order to run validation script with a self supervised model, update the `MODEL.RESUME` field of \n[`experiments\u002Fh36m\u002Fvalid-ss.yaml`](experiments\u002Fh36m\u002Fvalid-ss.yaml) with the path to the pretrained weight and run:\n```\npython scripts\u002Fvalid.py --cfg experiments\u002Fh36m\u002Fvalid-ss.yaml\n```\nTo run a fully supervised model on validation set, update the `MODEL.RESUME` field of \n[`experiments\u002Fh36m\u002Fvalid.yaml`](experiments\u002Fh36m\u002Fvalid.yaml) with the path to the pretrained weight and run:\n```\npython scripts\u002Fvalid.py --cfg experiments\u002Fh36m\u002Fvalid.yaml\n```\n\n### Training on H36M\nTo train a self supervised model, try:\n```\npython scripts\u002Ftrain.py --cfg experiments\u002Fh36m\u002Ftrain-ss.yaml\n```\nFully supervised model:\n```\npython scripts\u002Ftrain.py --cfg experiments\u002Fh36m\u002Ftrain.yaml\n```\n### Citation\nIf this work is useful for your research, please cite our [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.02330):\n```\n@inproceedings{kocabas2019epipolar,\n    author = {Kocabas, Muhammed and Karagoz, Salih and Akbas, Emre},\n    title = {Self-Supervised Learning of 3D Human Pose using Multi-view Geometry},\n    booktitle = {The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},\n    month = {June},\n    year = {2019}\n}\n```\n### References\n\n- [Integral Human Pose](https:\u002F\u002Fgithub.com\u002FJimmySuen\u002Fintegral-human-pose)\n- [Simple Baselines for Human Pose Estimation](https:\u002F\u002Fgithub.com\u002FMicrosoft\u002Fhuman-pose-estimation.pytorch\u002F)  \n- [3d-pose-baseline](https:\u002F\u002Fgithub.com\u002Funa-dinosauria\u002F3d-pose-baseline)\n- [Synthetic-occlusion](https:\u002F\u002Fgithub.com\u002Fisarandi\u002Fsynthetic-occlusion)\n\nWe thank to the authors for releasing their codes. Please also consider citing their works.\n\n### License\nThis code is freely available for free non-commercial use, and may be redistributed under these conditions. \nPlease, see the [LICENSE](LICENSE) for further details. \nThird-party datasets and softwares are subject to their respective licenses. \n","[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fself-supervised-learning-of-3d-human-pose\u002F3d-human-pose-estimation-human36m)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002F3d-human-pose-estimation-human36m?p=self-supervised-learning-of-3d-human-pose)\n\n# 基于多视角几何的 3D 人体姿态自监督学习（CVPR2019）[[项目页面](https:\u002F\u002Fmkocabas.github.io\u002Fepipolarpose.html)]\n\n## 简介\n这是论文 [*Self-Supervised Learning of 3D Human Pose using Multi-view Geometry*](https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.02330) 的 PyTorch 实现。\n\n> [**基于多视角几何的 3D 人体姿态自监督学习**](https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.02330),            \n> [Muhammed Kocabas](http:\u002F\u002Fuser.ceng.metu.edu.tr\u002F~e2270981\u002F)\\*, [Salih Karagoz](https:\u002F\u002Fsalihkaragoz.github.io\u002F)\\*, \n[Emre Akbas](http:\u002F\u002Fuser.ceng.metu.edu.tr\u002F~emre\u002F),        \n> *IEEE 计算机视觉与模式识别会议（CVPR），2019* （\\*同等贡献）   \n\n在本工作中，我们提出了 **_EpipolarPose_**，一种用于 3D 人体姿态估计的自监督学习方法，该方法无需任何 3D 真值（ground-truth）数据或相机外参（camera extrinsics）。\n\n在训练过程中，EpipolarPose 从多视角图像中估计 2D 姿态，然后利用对极几何（epipolar geometry）来获得 3D 姿态和相机几何信息，进而用于训练 3D 姿态估计器。\n\n在测试阶段，它仅需一张 RGB 图像即可输出 3D 姿态结果。请查看 [`demo.ipynb`](demo.ipynb) 运行一个简单的演示。\n\n下图展示了我们的模型在 Human3.6M 数据集上的一些示例输出。  \n每组结果依次显示输入图像、真值（ground truth）、全监督模型（fully supervised model）和自监督模型（self-supervised model）的输出。\n\n\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Fi.imgur.com\u002FjZph53h.png\" width=\"100%\" alt=\"\"\u002F>\u003C\u002Fp>\n\n### 视频演示\n\u003Cp align=\"center\">\u003Ca target=_blank href=\"http:\u002F\u002Fwww.youtube.com\u002Fwatch?v=lkXBiKRfRDw\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmkocabas_EpipolarPose_readme_7746af354d5c.jpg\" width=\"50%\" alt=\"\" \u002F>\u003C\u002Fa>\u003C\u002Fp>\n\n\n\n## 概览\n- `scripts\u002F`: 包含训练和验证脚本。\n- `lib\u002F`: 包含数据准备、模型定义和一些工具函数。\n- `refiner\u002F`: 包含论文第 3.3 节所述的 _refinement unit_（精炼单元）的实现。\n- `experiments\u002F`: 包含用于运行实验的 `*.yaml` 配置文件。\n- `sample_images\u002F`: 来自 Human3.6M 数据集的图像，用于运行演示 notebook。\n\n\n## 依赖要求\n代码基于 Ubuntu 16.04 上的 Python 3.7.1 开发。训练和测试需要 NVIDIA GPU。  \n其他依赖项请参见 [`requirements.txt`](requirements.txt) 或 [`environment.yml`](environment.yml)。\n\n## 快速开始\n### 安装\n1. 按照 [官方说明](https:\u002F\u002Fpytorch.org\u002F) 安装 PyTorch >= v1.0.0。  \n   _注意：如果你使用的是 PyTorch 版本 \u003C v1.0.0，请按照 \u003Chttps:\u002F\u002Fgithub.com\u002FMicrosoft\u002Fhuman-pose-estimation.pytorch> 的说明禁用 cuDNN 的 BatchNorm 层实现。我们建议使用更高版本的 PyTorch（>=v1.0.0）_\n2. 克隆本仓库，并将克隆后的目录记为 `${ROOT}`\n3. 使用 `pip` 安装依赖：\n   ```\n   pip install -r requirements.txt\n   ```\n   或创建一个新的 `conda` 环境：\n   ```\n   conda env create -f environment.yml\n   ```\n4. 从 [GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=147AlIWRv9QDmp5pGjwG2yMWEG_2-E2ai) 下载标注文件（150 MB）的 zip 文件，并将其放在 `${ROOT}` 目录下。运行以下命令解压：\n   ```\n   unzip data.zip\n   rm data.zip\n   ```\n5. 最后，通过运行以下命令准备你的工作空间：\n    ```bash\n    mkdir output\n    mkdir models\n    ```\n    你也可以选择从下表中的链接下载预训练权重，并将其放入 `models` 目录。最终，你的目录结构应如下所示：\n\n   ```\n   ${ROOT}\n   ├── data\u002F\n   ├── experiments\u002F\n   ├── lib\u002F\n   ├── models\u002F\n   ├── output\u002F\n   ├── refiner\u002F\n   ├── sample_images\u002F\n   ├── scripts\u002F\n   ├── demo.ipynb\n   ├── README.md\n   └── requirements.txt\n   ```\n6. 没错，你现在可以运行 [`demo.ipynb`](demo.ipynb) 了。\n### 数据准备\n你需要 Human3.6M 数据来训练或测试我们的模型。**对于 Human3.6M 数据**，请从 [Human 3.6 M dataset](http:\u002F\u002Fvision.imar.ro\u002Fhuman3.6m\u002Fdescription.php) 下载。  \n你需要注册账户以获得下载权限。下载视频文件后，你可以运行 [我们的脚本](https:\u002F\u002Fgist.github.com\u002Fmkocabas\u002F5669c12debec54b172797743a3c0b778) 来提取图像。  \n然后运行 `ln -s \u003Cpath_to_extracted_h36m_images> ${ROOT}\u002Fdata\u002Fh36m\u002Fimages` 创建指向图像文件夹的软链接。  \n目前你可以使用我们在第 4 步中提供的标注文件，但我们将在清理和充分测试后尽快发布标注准备脚本。\n\n如果你想在 MPII 数据上预训练 EpipolarPose 模型，  \n请从 [MPII Human Pose Dataset](https:\u002F\u002Fdatasets.d2.mpi-inf.mpg.de\u002Fandriluka14cvpr\u002Fmpii_human_pose_v1.tar.gz)（12.9 GB）下载图像文件。  \n将其解压到 `${ROOT}\u002Fdata\u002Fmpii` 目录下。如果你已经拥有 MPII 数据集，可以创建一个软链接指向图像目录：  \n`ln -s \u003Cpath_to_mpii_images> ${ROOT}\u002Fdata\u002Fmpii\u002Fimages`\n\n在训练过程中，我们使用了 [synthetic-occlusion](https:\u002F\u002Fgithub.com\u002Fisarandi\u002Fsynthetic-occlusion)。如果你想使用它，请按照其 [仓库说明](https:\u002F\u002Fgithub.com\u002Fisarandi\u002Fsynthetic-occlusion#getting-started) 下载 Pascal VOC 数据集，并更新配置文件中的 `VOC` 参数。\n\n下载完数据集后，你的 `data` 目录结构应如下所示： \n```\n${ROOT}\n|── data\u002F\n├───├── mpii\u002F\n|   └───├── annot\u002F\n|       └── images\u002F\n|       \n└───├── h36m\u002F\n    └───├── annot\u002F\n        └── images\u002F\n            ├── S1\u002F\n            └── S5\u002F\n            ...\n```\n\n### 预训练模型\n\n#### Human3.6M\n使用下方提供的链接下载预训练模型，并将其放置在指定路径下。\n\n| 模型                        | Backbone（主干网络）               | Human3.6M 上的 MPJPE (mm) |    链接   | 目录                                 |\n|------------------------------|:----------------------:|:-----------------------:|:---------:|------------------------------------------|\n| 全监督（Fully Supervised）             | resnet18               | 63.0                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1b_1o-gTriiypZlVeZkvoqQfRIqZhpD5T) | `models\u002Fh36m\u002Ffully_supervised_resnet18.pth.tar`        |\n| 全监督（Fully Supervised）             | resnet34               | 59.6                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1pDLqOoUjgC-UI979l_u-AV5hJHcFNaOB) | `models\u002Fh36m\u002Ffully_supervised_resnet34.pth.tar`        |\n| 全监督（Fully Supervised）             | resnet50               | 51.8                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1TCiUCwyNKviO_-_f6WaOJe3b4pI9uPDh) | `models\u002Fh36m\u002Ffully_supervised.pth.tar`        |\n| 自监督 R\u002Ft（Self Supervised R\u002Ft）          | resnet50               | 76.6                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1OVKnQy_TCJXemsAxA9rdEToYVBG4JL4j) | `models\u002Fh36m\u002Fself_supervised_with_rt.pth.tar` |\n| 自监督无 R\u002Ft（Self Supervised without R\u002Ft） | resnet50               | 78.8 (NMPJPE)           | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1iJT0b5vWgdGyseO-ZNMn9S5ATMuutmac) | `models\u002Fh36m\u002Fself_supervised_wo_rt.pth.tar`   |\n| 自监督（2D GT）（Self Supervised (2D GT)）      | resnet50               | 55.0                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1RZ32GmikfixiQ6C-CTuccq5qfuxAJj8R) | `models\u002Fh36m\u002Fself_supervised_2d_gt.pth.tar`   |\n| 自监督（Subject 1）（Self Supervised (Subject 1)）  | resnet50               | 65.3                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1Zo78GY4itUm2fQ85M-v1tYmwoSDkRrW1) | `models\u002Fh36m\u002Fself_supervised_s1.pth.tar`      |\n| 自监督 + 精炼（Self Supervised + refinement） | MLP-baseline           | 60.5                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1oW0PYNVd63G1BkRLmYczqqCsUVEsstPJ) | `models\u002Fh36m\u002Frefiner.pth.tar`                 |\n\n- **全监督（Fully Supervised）**：使用真实标注（ground truth）数据训练。\n- **自监督 R\u002Ft（Self Supervised R\u002Ft）**：仅使用相机外参（camera extrinsic parameters）训练。\n- **自监督无 R\u002Ft（Self Supervised without R\u002Ft）**：不使用任何真实标注数据或相机参数训练。\n- **自监督（2D GT）（Self Supervised (2D GT)）**：使用数据集提供的真实 2D 关键点三角化结果训练。\n- **自监督（Subject 1）（Self Supervised (Subject 1)）**：仅使用 Subject #1 的真实标注数据训练。\n- **自监督 + 精炼（Self Supervised + refinement）**：使用精炼模块（refinement module）训练。有关此设置的详细信息，请参阅 [`refiner\u002FREADME.md`](refiner\u002FREADME.md)。\n\n更多关于各模型训练策略的细节，请参阅我们的[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.02330)。\n\n#### MPII\n若要从头开始训练 EpipolarPose 模型，你需要在 MPII 数据集上预训练的模型。\n\n| 模型         | Backbone（主干网络）| Mean PCK (%) |    链接   | 目录                                 |\n|---------------|:------------:|:-----------------------:|:---------:|------------------------------------------|\n| MPII Integral | resnet18       | 84.7                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1ygdMG5bHcgFSkNCIMJbyDkKhUQebXaoY) | `models\u002Fmpii\u002Fmpii_integral_r18.pth.tar`|\n| MPII Integral | resnet34       | 86.3                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1MFzLysHRq8SbO3V6L8o0ZMTKCIsDDGMW) | `models\u002Fmpii\u002Fmpii_integral_r34.pth.tar`|\n| MPII Integral | resnet50       | 88.3                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=19ee09gyyPOyrAzarQgM_YXqpaCthAfED) | `models\u002Fmpii\u002Fmpii_integral.pth.tar`|\n| MPII heatmap | resnet50       | 88.5                    | [model](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1R4-3uA1o10Gm7zPEemSE2gUBrEF46D1O) | `models\u002Fmpii\u002Fmpii_heatmap.pth.tar`|\n\n\n### 使用预训练模型在 H36M 上进行验证\n若要使用自监督模型运行验证脚本，请更新 [`experiments\u002Fh36m\u002Fvalid-ss.yaml`](experiments\u002Fh36m\u002Fvalid-ss.yaml) 中的 `MODEL.RESUME` 字段为预训练权重的路径，然后运行：\n```\npython scripts\u002Fvalid.py --cfg experiments\u002Fh36m\u002Fvalid-ss.yaml\n```\n若要在验证集上运行全监督模型，请更新 [`experiments\u002Fh36m\u002Fvalid.yaml`](experiments\u002Fh36m\u002Fvalid.yaml) 中的 `MODEL.RESUME` 字段为预训练权重的路径，然后运行：\n```\npython scripts\u002Fvalid.py --cfg experiments\u002Fh36m\u002Fvalid.yaml\n```\n\n### 在 H36M 上训练\n训练一个自监督模型，可运行：\n```\npython scripts\u002Ftrain.py --cfg experiments\u002Fh36m\u002Ftrain-ss.yaml\n```\n全监督模型：\n```\npython scripts\u002Ftrain.py --cfg experiments\u002Fh36m\u002Ftrain.yaml\n```\n### 引用\n如果本工作对您的研究有所帮助，请引用我们的[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.02330)：\n```\n@inproceedings{kocabas2019epipolar,\n    author = {Kocabas, Muhammed and Karagoz, Salih and Akbas, Emre},\n    title = {Self-Supervised Learning of 3D Human Pose using Multi-view Geometry},\n    booktitle = {The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},\n    month = {June},\n    year = {2019}\n}\n```\n### 参考资料\n\n- [Integral Human Pose](https:\u002F\u002Fgithub.com\u002FJimmySuen\u002Fintegral-human-pose)\n- [Simple Baselines for Human Pose Estimation](https:\u002F\u002Fgithub.com\u002FMicrosoft\u002Fhuman-pose-estimation.pytorch\u002F)  \n- [3d-pose-baseline](https:\u002F\u002Fgithub.com\u002Funa-dinosauria\u002F3d-pose-baseline)\n- [Synthetic-occlusion](https:\u002F\u002Fgithub.com\u002Fisarandi\u002Fsynthetic-occlusion)\n\n感谢上述作者公开其代码。也请考虑引用他们的工作。\n\n### 许可证\n本代码可免费用于非商业用途，并可在相同条件下重新分发。更多详情请参见 [LICENSE](LICENSE) 文件。第三方数据集和软件受其各自许可证的约束。","# EpipolarPose 快速上手指南\n\n## 环境准备\n\n- **操作系统**：Ubuntu 16.04（推荐），或其他 Linux 发行版\n- **Python 版本**：3.7.1 或更高\n- **GPU**：需 NVIDIA GPU（训练和测试必需）\n- **PyTorch**：≥ v1.0.0（建议使用最新稳定版）\n\n> 💡 国内用户建议使用清华源或阿里云镜像加速依赖安装：\n> ```bash\n> pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n1. **安装 PyTorch**\n   ```bash\n   # 推荐从官网选择对应 CUDA 版本安装：https:\u002F\u002Fpytorch.org\u002F\n   pip install torch torchvision\n   ```\n\n2. **克隆代码仓库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fmkocabas\u002FEpipolarPose.git\n   cd EpipolarPose\n   export ROOT=$(pwd)\n   ```\n\n3. **安装依赖**\n   ```bash\n   # 方式一：pip 安装\n   pip install -r requirements.txt\n\n   # 方式二：conda 创建环境（推荐）\n   conda env create -f environment.yml\n   conda activate epipolarpose\n   ```\n\n4. **下载标注文件**\n   ```bash\n   # 下载 data.zip（约 150MB）到 ${ROOT} 目录\n   wget -O data.zip \"https:\u002F\u002Fdrive.google.com\u002Fuc?id=147AlIWRv9QDmp5pGjwG2yMWEG_2-E2ai\"\n   unzip data.zip && rm data.zip\n   ```\n\n5. **创建必要目录**\n   ```bash\n   mkdir output models\n   ```\n\n6. **（可选）下载预训练模型**\n   将 [预训练模型](#预训练模型) 下载并放入 `models\u002F` 对应子目录，例如：\n   ```bash\n   mkdir -p models\u002Fh36m\n   # 下载 self-supervised 模型示例\n   gdown --id 1OVKnQy_TCJXemsAxA9rdEToYVBG4JL4j -O models\u002Fh36m\u002Fself_supervised_with_rt.pth.tar\n   ```\n\n7. **准备数据集（如需训练\u002F验证）**\n   - **Human3.6M**：从[官网](http:\u002F\u002Fvision.imar.ro\u002Fhuman3.6m\u002Fdescription.php)申请下载，解压后建立软链接：\n     ```bash\n     ln -s \u003C你的H36M图像路径> ${ROOT}\u002Fdata\u002Fh36m\u002Fimages\n     ```\n   - **MPII**（用于预训练）：\n     ```bash\n     mkdir -p ${ROOT}\u002Fdata\u002Fmpii\n     wget -O mpii_human_pose_v1.tar.gz https:\u002F\u002Fdatasets.d2.mpi-inf.mpg.de\u002Fandriluka14cvpr\u002Fmpii_human_pose_v1.tar.gz\n     tar -xzf mpii_human_pose_v1.tar.gz -C ${ROOT}\u002Fdata\u002Fmpii\n     ln -s ${ROOT}\u002Fdata\u002Fmpii\u002Fmpii_human_pose_v1\u002Fimages ${ROOT}\u002Fdata\u002Fmpii\u002Fimages\n     ```\n\n最终目录结构应类似：\n```\n${ROOT}\n├── data\u002F\n├── models\u002F\n├── output\u002F\n├── demo.ipynb\n└── ...\n```\n\n## 基本使用\n\n### 运行演示 Notebook\n```bash\njupyter notebook demo.ipynb\n```\n该 Notebook 展示了如何加载预训练模型并对单张 RGB 图像进行 3D 姿态估计。\n\n### 验证预训练模型（Human3.6M）\n1. 编辑配置文件，指定模型路径：\n   ```yaml\n   # experiments\u002Fh36m\u002Fvalid-ss.yaml\n   MODEL:\n     RESUME: 'models\u002Fh36m\u002Fself_supervised_with_rt.pth.tar'\n   ```\n2. 执行验证：\n   ```bash\n   python scripts\u002Fvalid.py --cfg experiments\u002Fh36m\u002Fvalid-ss.yaml\n   ```\n\n### 训练模型（示例）\n- **自监督训练**：\n  ```bash\n  python scripts\u002Ftrain.py --cfg experiments\u002Fh36m\u002Ftrain-ss.yaml\n  ```\n- **全监督训练**：\n  ```bash\n  python scripts\u002Ftrain.py --cfg experiments\u002Fh36m\u002Ftrain.yaml\n  ```\n\n> 📌 注意：训练前请确保已正确配置数据路径和预训练权重（如需）。","某体育科技公司正在开发一套基于普通手机摄像头的居家健身动作纠正系统，需要从单张 RGB 图像中实时估计用户的 3D 人体姿态，但缺乏带 3D 标注的真实用户数据，也难以获取多视角同步拍摄设备。\n\n### 没有 EpipolarPose 时\n- 必须依赖昂贵的动捕设备或人工标注大量 3D 姿态数据，成本高且难以覆盖多样化的家庭场景。\n- 若使用传统监督模型，在真实用户图像上泛化能力差，因训练数据（如 Human3.6M）与实际光照、视角差异大。\n- 部署多视角摄像头方案不现实，普通用户家中通常只有单目设备（如手机或笔记本摄像头）。\n- 自行构建自监督流程技术门槛高，需深入理解多视角几何与 3D 重建，研发周期长。\n\n### 使用 EpipolarPose 后\n- 利用公开的多视角视频数据集（如 Human3.6M）进行自监督预训练，无需任何 3D 标注或相机参数即可获得可靠的 3D 姿态先验。\n- 在测试阶段仅需单张 RGB 图像即可输出 3D 姿态，完美适配手机等单目设备的部署需求。\n- 模型在真实场景中表现更鲁棒，因训练过程隐式学习了跨视角一致性约束，提升了泛化能力。\n- 团队可快速集成其预训练模型或微调 pipeline，大幅缩短产品迭代周期，降低算法研发门槛。\n\nEpipolarPose 让开发者无需 3D 标注和多视角硬件，就能构建实用的单目 3D 人体姿态估计系统。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmkocabas_EpipolarPose_2c6a1279.png","mkocabas","Muhammed Kocabas","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmkocabas_460da1ac.jpg",null,"Max Planck Institute for Intelligent Systems","https:\u002F\u002Fps.is.mpg.de\u002Fperson\u002Fmkocabas","https:\u002F\u002Fgithub.com\u002Fmkocabas",[83,87],{"name":84,"color":85,"percentage":86},"Jupyter Notebook","#DA5B0B",50.4,{"name":88,"color":89,"percentage":90},"Python","#3572A5",49.6,610,95,"2026-03-17T15:07:59","NOASSERTION","Linux","需要 NVIDIA GPU，未说明具体型号、显存大小和 CUDA 版本","未说明",{"notes":99,"python":100,"dependencies":101},"建议使用 conda 环境（提供 environment.yml）或 pip 安装依赖；需下载 Human3.6M 和\u002F或 MPII 数据集并按指定结构组织；训练时可选使用 synthetic-occlusion，需额外下载 Pascal VOC 数据集；首次运行需下载预训练模型和注释文件（约150MB）","3.7.1",[102,103,104,105,106,107,108,109],"torch>=1.0.0","numpy","opencv-python","matplotlib","pyyaml","tensorboardX","scipy","tqdm",[13,54,14],[112,113,114,115,116,117,118,119,120,121],"human-pose-estimation","3d-pose-estimation","pytorch","computer-vision","cvpr2019","cvpr-2019","cvpr","cvpr19","self-supervised-learning","machine-learning","2026-03-27T02:49:30.150509","2026-04-06T07:12:48.167081",[125,130,135,140,145,150],{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},1632,"为什么我在 Human3.6M 上重新训练模型无法复现论文中 51.8mm 的 MPJPE？","可能的原因包括：1）使用的 2D 关键点检测器精度不够，建议使用在 Human3.6M 上微调过的 HRNet（如 EvoSkeleton 项目提供的）；2）数据集中存在少量标注错误（如 S9_SittingDown 中的部分帧），但这些通常不是主因；3）PyTorch 或 CUDA 版本差异也可能影响结果。维护者建议尝试更高精度的 2D 检测器以提升性能。","https:\u002F\u002Fgithub.com\u002Fmkocabas\u002FEpipolarPose\u002Fissues\u002F36",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},1633,"训练时 train.yaml 中的 OCCLUSION 参数是什么作用？是否必须启用？","OCCLUSION 控制是否使用遮挡增强策略。若未提供相关文件而设为 True，会导致训练失败。维护者确认其提供的预训练模型使用了该设置，并建议用户下载更新后的 data.zip（包含修正后的 train-fs.pkl，约 49K 样本而非 80K），同时重新下载最新的 MPII 预训练权重以确保兼容性。","https:\u002F\u002Fgithub.com\u002Fmkocabas\u002FEpipolarPose\u002Fissues\u002F1",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},1634,"为什么用自己拍摄的图片测试时结果很差？对输入图片有什么要求？","预训练模型仅在 Human3.6M 或 MPII 数据集上训练，无法直接泛化到野外（in-the-wild）图像。若需处理真实场景图片，建议使用作者后续发布的 VIBE 模型（https:\u002F\u002Fgithub.com\u002Fmkocabas\u002FVIBE），该模型支持野外视频的 3D 姿态与形状估计。此外，在 3DHP 等其他数据集上测试也会因域差异导致失败，需自行编写数据加载器并重新训练。","https:\u002F\u002Fgithub.com\u002Fmkocabas\u002FEpipolarPose\u002Fissues\u002F9",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},1635,"MPII 和 Human3.6M 数据集中的胸腔（thorax）关节点是如何对齐的？处理方式不同会影响结果吗？","Human3.6M 原始标注中已包含 thorax 关节（对应 Spine1），而 MPII 通常通过左右肩中点构造 thorax。不同项目（如 Integral Pose、pytorch-pose-hg-3d）处理方式不一，有的构造新 thorax，有的直接使用原始标注。作者在代码中直接使用 Human3.6M 自带的 thorax，未做额外构造。关节定义差异确实存在（如 H36M 无 upper neck，MPII 有 thorax 而 H36M 只有 neck），建议仔细核对原始标注以确保一致性。","https:\u002F\u002Fgithub.com\u002Fmkocabas\u002FEpipolarPose\u002Fissues\u002F20",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},1636,"项目是否支持 Ubuntu 18.04？对 CUDA 和 PyTorch 版本有何要求？","支持 Ubuntu 18.04。关键在于使用 PyTorch 1.0 或更高版本。只要通过官方指南安装 PyTorch，系统会自动配置兼容的 cudatoolkit，因此 CUDA 具体版本（如 10.0 或 10.1）不是问题，无需单独匹配。","https:\u002F\u002Fgithub.com\u002Fmkocabas\u002FEpipolarPose\u002Fissues\u002F13",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},1637,"如何获取 Human3.6M 数据集？遇到账号审核长时间未通过怎么办？","必须通过 Human3.6M 官网（vision.imar.ro\u002Fhuman3.6m）注册账号并申请权限，审核由数据集所有者负责，项目维护者无法协助。申请后需耐心等待审核激活。下载视频后，需运行项目脚本提取图像，并执行 ln -s \u003Cpath_to_extracted_h36m_images> ${ROOT}\u002Fdata\u002Fh36m\u002Fimages 创建软链接。","https:\u002F\u002Fgithub.com\u002Fmkocabas\u002FEpipolarPose\u002Fissues\u002F4",[]]