[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-una-dinosauria--3d-pose-baseline":3,"tool-una-dinosauria--3d-pose-baseline":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":79,"owner_website":82,"owner_url":83,"languages":84,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":93,"env_os":94,"env_gpu":95,"env_ram":96,"env_deps":97,"category_tags":103,"github_topics":104,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":111,"updated_at":112,"faqs":113,"releases":149},414,"una-dinosauria\u002F3d-pose-baseline","3d-pose-baseline","A simple baseline for 3d human pose estimation in tensorflow. Presented at ICCV 17.","3d-pose-baseline 是一个用于三维人体姿态估计的开源项目，基于 TensorFlow 实现，源自 ICCV 2017 的一篇论文。它通过输入二维关节点坐标，预测对应的三维人体姿态，为该领域提供了一个简洁而有效的基准模型。该项目旨在帮助研究人员理解当前方法的局限性，并提供一个轻量、透明且易于复现的代码基础。\n\n3d-pose-baseline 主要面向计算机视觉领域的研究人员和开发者，尤其适合希望快速入门三维姿态估计或在此基础上进行改进的用户。普通用户或设计师使用门槛较高，因其需要一定的深度学习和 Python 编程基础。\n\n其技术亮点包括结构简单、训练高效，并在 Human3.6M 数据集上取得了具有竞争力的结果（约 56 毫米的平均误差）。项目强调代码的可读性和复现性，不依赖复杂的模块，便于理解和扩展。需要注意的是，目前仅支持使用真实（GT）二维关节点进行训练，不再维护对 Stacked Hourglass 检测结果的支持。","## 3d-pose-baseline\n\nThis is the code for the paper\n\nJulieta Martinez, Rayat Hossain, Javier Romero, James J. Little.\n_A simple yet effective baseline for 3d human pose estimation._\nIn ICCV, 2017. https:\u002F\u002Farxiv.org\u002Fpdf\u002F1705.03098.pdf.\n\nThe code in this repository was mostly written by\n[Julieta Martinez](https:\u002F\u002Fgithub.com\u002Funa-dinosauria),\n[Rayat Hossain](https:\u002F\u002Fgithub.com\u002Frayat137) and\n[Javier Romero](https:\u002F\u002Fgithub.com\u002Flibicocco).\n\nWe provide a strong baseline for 3d human pose estimation that also sheds light\non the challenges of current approaches. Our model is lightweight and we strive\nto make our code transparent, compact, and easy-to-understand.\n\n### Dependencies\n\n* Python ≥ 3.5\n* [cdflib](https:\u002F\u002Fgithub.com\u002FMAVENSDC\u002Fcdflib)\n* [tensorflow](https:\u002F\u002Fwww.tensorflow.org\u002F) 1.0 or later\n\n### First of all\n1. Watch our video: https:\u002F\u002Fyoutu.be\u002FHmi3Pd9x1BE\n\n2. Clone this repository\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Funa-dinosauria\u002F3d-pose-baseline.git\ncd 3d-pose-baseline\nmkdir -p data\u002Fh36m\u002F\n```\n\n3. Get the data\n\nGo to http:\u002F\u002Fvision.imar.ro\u002Fhuman3.6m\u002F, log in, and download the `D3 Positions` files for subjects `[1, 5, 6, 7, 8, 9, 11]`,\nand put them under the folder `data\u002Fh36m`. Your directory structure should look like this\n```bash\nsrc\u002F\nREADME.md\nLICENCE\n...\ndata\u002F\n  └── h36m\u002F\n    ├── Poses_D3_Positions_S1.tgz\n    ├── Poses_D3_Positions_S11.tgz\n    ├── Poses_D3_Positions_S5.tgz\n    ├── Poses_D3_Positions_S6.tgz\n    ├── Poses_D3_Positions_S7.tgz\n    ├── Poses_D3_Positions_S8.tgz\n    └── Poses_D3_Positions_S9.tgz\n```\n\nNow, move to the data folder, and uncompress all the data\n\n```bash\ncd data\u002Fh36m\u002F\nfor file in *.tgz; do tar -xvzf $file; done\n```\n\nFinally, download the `code-v1.2.zip` file, unzip it, and copy the `metadata.xml` file under `data\u002Fh36m\u002F`\n\nNow, your data directory should look like this:\n\n```bash\ndata\u002F\n  └── h36m\u002F\n    ├── metadata.xml\n    ├── S1\u002F\n    ├── S11\u002F\n    ├── S5\u002F\n    ├── S6\u002F\n    ├── S7\u002F\n    ├── S8\u002F\n    └── S9\u002F\n\n```\n\nThere is one little fix we need to run for the data to have consistent names:\n\n```bash\nmv h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FTakingPhoto.cdf \\\n   h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FPhoto.cdf\n\nmv h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FTakingPhoto\\ 1.cdf \\\n   h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FPhoto\\ 1.cdf\n\nmv h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FWalkingDog.cdf \\\n   h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FWalkDog.cdf\n\nmv h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FWalkingDog\\ 1.cdf \\\n   h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FWalkDog\\ 1.cdf\n```\n\nAnd you are done!\n\nPlease note that we are currently not supporting SH detections anymore, only training from GT 2d detections is possible now.\n\n### Quick demo\n\nFor a quick demo, you can train for one epoch and visualize the results. To train, run\n\n`python src\u002Fpredict_3dpose.py --camera_frame --residual --batch_norm --dropout 0.5 --max_norm --evaluateActionWise --epochs 1`\n\nThis should take about \u003C5 minutes to complete on a GTX 1080, and give you around 56 mm of error on the test set.\n\nNow, to visualize the results, simply run\n\n`python src\u002Fpredict_3dpose.py --camera_frame --residual --batch_norm --dropout 0.5 --max_norm --evaluateActionWise --epochs 1 --sample --load 24371`\n\nThis will produce a visualization similar to this:\n\n![Visualization example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Funa-dinosauria_3d-pose-baseline_readme_3029ae01e62a.png)\n\n### Training\n\nTo train a model with clean 2d detections, run:\n\n\u003C!-- `python src\u002Fpredict_3dpose.py --camera_frame --residual` -->\n`python src\u002Fpredict_3dpose.py --camera_frame --residual --batch_norm --dropout 0.5 --max_norm --evaluateActionWise`\n\nThis corresponds to Table 2, bottom row. `Ours (GT detections) (MA)`\n\n\u003C!--\nTo train on Stacked Hourglass detections, run\n\n`python src\u002Fpredict_3dpose.py --camera_frame --residual --batch_norm --dropout 0.5 --max_norm --evaluateActionWise --use_sh`\n\nThis corresponds to Table 2, next-to-last row. `Ours (SH detections) (MA)`\n\nOn a GTX 1080 GPU, this takes \u003C8 ms for forward+backward computation, and\n\u003C6 ms for forward-only computation per batch of 64.\n-->\n\n\u003C!--\n### Pre-trained model\n\nWe also provide a model pre-trained on ground truth 2d detections, available through [google drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0BxWzojlLp259MF9qSFpiVjl0cU0\u002Fview?usp=sharing).\n\nTo test the model, decompress the file at the top level of this project, and call\n\n`python src\u002Fpredict_3dpose.py --camera_frame --residual --batch_norm --dropout 0.5 --max_norm --evaluateActionWise --epochs 200 --sample --load 4874200`\n-->\n\n\u003C!--\n### Fine-tuned stacked-hourglass detections\n\nYou can find the detections produced by Stacked Hourglass after fine-tuning on the H3.6M dataset on [google drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0BxWzojlLp259S2FuUXJ6aUNxZkE).\n-->\n\n### Citing\n\nIf you use our code, please cite our work\n\n```\n@inproceedings{martinez_2017_3dbaseline,\n  title={A simple yet effective baseline for 3d human pose estimation},\n  author={Martinez, Julieta and Hossain, Rayat and Romero, Javier and Little, James J.},\n  booktitle={ICCV},\n  year={2017}\n}\n```\n\n### Other implementations\n\n* [Pytorch](https:\u002F\u002Fgithub.com\u002Fweigq\u002F3d_pose_baseline_pytorch) by [@weigq](https:\u002F\u002Fgithub.com\u002Fweigq)\n* [MXNet\u002FGluon](https:\u002F\u002Fgithub.com\u002Flck1201\u002Fsimple-effective-3Dpose-baseline) by [@lck1201](https:\u002F\u002Fgithub.com\u002Flck1201)\n\n### Extensions\n\n* [@ArashHosseini](https:\u002F\u002Fgithub.com\u002FArashHosseini) maintains [a fork](https:\u002F\u002Fgithub.com\u002FArashHosseini\u002F3d-pose-baseline) for estimating 3d human poses using the 2d poses estimated by either [OpenPose](https:\u002F\u002Fgithub.com\u002FArashHosseini\u002Fopenpose) or [tf-pose-estimation](https:\u002F\u002Fgithub.com\u002Fildoonet\u002Ftf-pose-estimation) as input.\n\n### License\nMIT\n","## 3d-pose-baseline\n\n这是以下论文的代码：\n\nJulieta Martinez, Rayat Hossain, Javier Romero, James J. Little.  \n_A simple yet effective baseline for 3d human pose estimation._  \nIn ICCV, 2017. https:\u002F\u002Farxiv.org\u002Fpdf\u002F1705.03098.pdf.\n\n本仓库中的代码主要由  \n[Julieta Martinez](https:\u002F\u002Fgithub.com\u002Funa-dinosauria)、  \n[Rayat Hossain](https:\u002F\u002Fgithub.com\u002Frayat137) 和  \n[Javier Romero](https:\u002F\u002Fgithub.com\u002Flibicocco) 编写。\n\n我们提供了一个用于 3D 人体姿态估计（3D human pose estimation）的强大基线模型，同时也揭示了当前方法所面临的挑战。我们的模型轻量，并力求使代码透明、简洁且易于理解。\n\n### 依赖项\n\n* Python ≥ 3.5\n* [cdflib](https:\u002F\u002Fgithub.com\u002FMAVENSDC\u002Fcdflib)\n* [tensorflow](https:\u002F\u002Fwww.tensorflow.org\u002F) 1.0 或更高版本\n\n### 首先\n\n1. 观看我们的视频：https:\u002F\u002Fyoutu.be\u002FHmi3Pd9x1BE\n\n2. 克隆本仓库\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Funa-dinosauria\u002F3d-pose-baseline.git\ncd 3d-pose-baseline\nmkdir -p data\u002Fh36m\u002F\n```\n\n3. 获取数据\n\n访问 http:\u002F\u002Fvision.imar.ro\u002Fhuman3.6m\u002F，登录后下载 subjects `[1, 5, 6, 7, 8, 9, 11]` 的 `D3 Positions` 文件，  \n并将它们放入 `data\u002Fh36m` 文件夹中。你的目录结构应如下所示：\n\n```bash\nsrc\u002F\nREADME.md\nLICENCE\n...\ndata\u002F\n  └── h36m\u002F\n    ├── Poses_D3_Positions_S1.tgz\n    ├── Poses_D3_Positions_S11.tgz\n    ├── Poses_D3_Positions_S5.tgz\n    ├── Poses_D3_Positions_S6.tgz\n    ├── Poses_D3_Positions_S7.tgz\n    ├── Poses_D3_Positions_S8.tgz\n    └── Poses_D3_Positions_S9.tgz\n```\n\n现在进入 data 文件夹并解压所有数据：\n\n```bash\ncd data\u002Fh36m\u002F\nfor file in *.tgz; do tar -xvzf $file; done\n```\n\n最后，下载 `code-v1.2.zip` 文件，解压后将其中的 `metadata.xml` 文件复制到 `data\u002Fh36m\u002F` 目录下。\n\n此时，你的 data 目录结构应如下所示：\n\n```bash\ndata\u002F\n  └── h36m\u002F\n    ├── metadata.xml\n    ├── S1\u002F\n    ├── S11\u002F\n    ├── S5\u002F\n    ├── S6\u002F\n    ├── S7\u002F\n    ├── S8\u002F\n    └── S9\u002F\n\n```\n\n还需要对数据做一点小修正，以确保文件名一致：\n\n```bash\nmv h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FTakingPhoto.cdf \\\n   h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FPhoto.cdf\n\nmv h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FTakingPhoto\\ 1.cdf \\\n   h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FPhoto\\ 1.cdf\n\nmv h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FWalkingDog.cdf \\\n   h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FWalkDog.cdf\n\nmv h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FWalkingDog\\ 1.cdf \\\n   h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FWalkDog\\ 1.cdf\n```\n\n至此，准备工作完成！\n\n请注意，我们目前不再支持 Stacked Hourglass（SH）检测结果，仅支持使用真实（GT）2D 检测进行训练。\n\n### 快速演示\n\n要快速演示，你可以训练一个 epoch 并可视化结果。运行以下命令开始训练：\n\n`python src\u002Fpredict_3dpose.py --camera_frame --residual --batch_norm --dropout 0.5 --max_norm --evaluateActionWise --epochs 1`\n\n在 GTX 1080 上，这应该不到 5 分钟即可完成，并在测试集上获得约 56 mm 的误差。\n\n接下来，只需运行以下命令即可可视化结果：\n\n`python src\u002Fpredict_3dpose.py --camera_frame --residual --batch_norm --dropout 0.5 --max_norm --evaluateActionWise --epochs 1 --sample --load 24371`\n\n这将生成类似如下的可视化效果：\n\n![Visualization example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Funa-dinosauria_3d-pose-baseline_readme_3029ae01e62a.png)\n\n### 训练\n\n要使用干净的 2D 检测结果训练模型，请运行：\n\n\u003C!-- `python src\u002Fpredict_3dpose.py --camera_frame --residual` -->\n`python src\u002Fpredict_3dpose.py --camera_frame --residual --batch_norm --dropout 0.5 --max_norm --evaluateActionWise`\n\n这对应于论文中 Table 2 的最后一行：`Ours (GT detections) (MA)`\n\n\u003C!--\n若要在 Stacked Hourglass 检测结果上训练，请运行：\n\n`python src\u002Fpredict_3dpose.py --camera_frame --residual --batch_norm --dropout 0.5 --max_norm --evaluateActionWise --use_sh`\n\n这对应于 Table 2 的倒数第二行：`Ours (SH detections) (MA)`\n\n在 GTX 1080 GPU 上，每个 batch（大小为 64）的前向+反向计算耗时 \u003C8 ms，仅前向计算耗时 \u003C6 ms。\n-->\n\n\u003C!--\n### 预训练模型\n\n我们还提供了一个在真实 2D 检测结果上预训练的模型，可通过 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0BxWzojlLp259MF9qSFpiVjl0cU0\u002Fview?usp=sharing) 下载。\n\n要测试该模型，请将下载的文件解压到项目根目录，并运行：\n\n`python src\u002Fpredict_3dpose.py --camera_frame --residual --batch_norm --dropout 0.5 --max_norm --evaluateActionWise --epochs 200 --sample --load 4874200`\n-->\n\n\u003C!--\n### 微调后的 Stacked Hourglass 检测结果\n\n你可以在 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0BxWzojlLp259S2FuUXJ6aUNxZkE) 找到在 H3.6M 数据集上微调后的 Stacked Hourglass 检测结果。\n-->\n\n### 引用\n\n如果你使用了我们的代码，请引用我们的工作：\n\n```\n@inproceedings{martinez_2017_3dbaseline,\n  title={A simple yet effective baseline for 3d human pose estimation},\n  author={Martinez, Julieta and Hossain, Rayat and Romero, Javier and Little, James J.},\n  booktitle={ICCV},\n  year={2017}\n}\n```\n\n### 其他实现\n\n* [Pytorch](https:\u002F\u002Fgithub.com\u002Fweigq\u002F3d_pose_baseline_pytorch) 版本，作者 [@weigq](https:\u002F\u002Fgithub.com\u002Fweigq)\n* [MXNet\u002FGluon](https:\u002F\u002Fgithub.com\u002Flck1201\u002Fsimple-effective-3Dpose-baseline) 版本，作者 [@lck1201](https:\u002F\u002Fgithub.com\u002Flck1201)\n\n### 扩展\n\n* [@ArashHosseini](https:\u002F\u002Fgithub.com\u002FArashHosseini) 维护了一个 [fork](https:\u002F\u002Fgithub.com\u002FArashHosseini\u002F3d-pose-baseline)，该版本使用 [OpenPose](https:\u002F\u002Fgithub.com\u002FArashHosseini\u002Fopenpose) 或 [tf-pose-estimation](https:\u002F\u002Fgithub.com\u002Fildoonet\u002Ftf-pose-estimation) 估计出的 2D 姿态作为输入，来估计 3D 人体姿态。\n\n### 许可证\nMIT","# 3d-pose-baseline 快速上手指南\n\n## 环境准备\n\n- **操作系统**：Linux \u002F macOS（Windows 未官方支持）\n- **Python 版本**：≥ 3.5\n- **依赖库**：\n  - [cdflib](https:\u002F\u002Fgithub.com\u002FMAVENSDC\u002Fcdflib)\n  - [TensorFlow](https:\u002F\u002Fwww.tensorflow.org\u002F) ≥ 1.0\n\n> 💡 建议使用国内 PyPI 镜像加速安装依赖，例如：\n> ```bash\n> pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple cdflib tensorflow\n> ```\n\n## 安装步骤\n\n1. **克隆仓库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Funa-dinosauria\u002F3d-pose-baseline.git\n   cd 3d-pose-baseline\n   mkdir -p data\u002Fh36m\u002F\n   ```\n\n2. **下载 Human3.6M 数据集**\n   - 访问 [http:\u002F\u002Fvision.imar.ro\u002Fhuman3.6m\u002F](http:\u002F\u002Fvision.imar.ro\u002Fhuman3.6m\u002F)（需注册登录）\n   - 下载以下文件并放入 `data\u002Fh36m\u002F` 目录：\n     - `Poses_D3_Positions_S1.tgz`\n     - `Poses_D3_Positions_S5.tgz`\n     - `Poses_D3_Positions_S6.tgz`\n     - `Poses_D3_Positions_S7.tgz`\n     - `Poses_D3_Positions_S8.tgz`\n     - `Poses_D3_Positions_S9.tgz`\n     - `Poses_D3_Positions_S11.tgz`\n\n3. **解压数据**\n   ```bash\n   cd data\u002Fh36m\u002F\n   for file in *.tgz; do tar -xvzf $file; done\n   ```\n\n4. **下载元数据**\n   - 从 Human3.6M 网站下载 `code-v1.2.zip`\n   - 解压后将其中的 `metadata.xml` 复制到 `data\u002Fh36m\u002F` 目录\n\n5. **修复文件名（确保路径一致）**\n   ```bash\n   mv h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FTakingPhoto.cdf \\\n      h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FPhoto.cdf\n\n   mv h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FTakingPhoto\\ 1.cdf \\\n      h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FPhoto\\ 1.cdf\n\n   mv h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FWalkingDog.cdf \\\n      h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FWalkDog.cdf\n\n   mv h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FWalkingDog\\ 1.cdf \\\n      h36m\u002FS1\u002FMyPoseFeatures\u002FD3_Positions\u002FWalkDog\\ 1.cdf\n   ```\n\n完成后目录结构应为：\n```\ndata\u002F\n  └── h36m\u002F\n    ├── metadata.xml\n    ├── S1\u002F\n    ├── S5\u002F\n    ├── S6\u002F\n    ├── S7\u002F\n    ├── S8\u002F\n    ├── S9\u002F\n    └── S11\u002F\n```\n\n## 基本使用\n\n### 快速演示（训练 1 轮并可视化）\n\n1. **训练模型（约 5 分钟，GTX 1080）**\n   ```bash\n   python src\u002Fpredict_3dpose.py --camera_frame --residual --batch_norm --dropout 0.5 --max_norm --evaluateActionWise --epochs 1\n   ```\n\n2. **可视化结果**\n   ```bash\n   python src\u002Fpredict_3dpose.py --camera_frame --residual --batch_norm --dropout 0.5 --max_norm --evaluateActionWise --epochs 1 --sample --load 24371\n   ```\n\n> ✅ 此命令将生成 3D 姿态可视化图像，误差约为 56 mm（在测试集上）。\n\n### 完整训练（使用真实 2D 关键点）\n\n```bash\npython src\u002Fpredict_3dpose.py --camera_frame --residual --batch_norm --dropout 0.5 --max_norm --evaluateActionWise\n```\n\n> ⚠️ 注意：当前版本仅支持从真实（GT）2D 检测结果训练，不再支持 Stacked Hourglass 检测输入。","某高校计算机视觉实验室正在开发一个基于单目摄像头的运动康复评估系统，需要从2D视频中重建患者三维人体姿态，用于量化动作标准度。\n\n### 没有 3d-pose-baseline 时\n- 团队需从零搭建3D姿态估计算法，复现论文细节复杂，调试周期长达数周  \n- 缺乏在Human3.6M等标准数据集上的可靠基线，难以判断模型性能瓶颈是来自数据还是架构  \n- 自研模型结构臃肿，在普通GPU上训练缓慢，单次实验耗时超过一天  \n- 代码可读性差，新成员难以快速理解并参与迭代  \n- 可视化结果不直观，无法快速验证预测姿态是否合理  \n\n### 使用 3d-pose-baseline 后\n- 直接基于ICCV 2017公开代码启动项目，5分钟内完成环境配置与首次训练  \n- 利用其在Human3.6M上预设的评估流程，快速验证2D输入质量对3D输出的影响  \n- 轻量级网络结构在GTX 1080上单轮训练仅需几分钟，显著加速算法迭代  \n- 代码结构清晰、注释完整，研究生新生两天内即可修改损失函数并测试新想法  \n- 内置可视化脚本一键生成3D姿态动画，便于向康复医师直观展示系统效果  \n\n3d-pose-baseline 以简洁可靠的实现，大幅降低了3D人体姿态估计的技术门槛和研发周期。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Funa-dinosauria_3d-pose-baseline_3029ae01.png","una-dinosauria","Julieta","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Funa-dinosauria_3b153b16.png","Not affiliated with the University of Toronto",null,"Toronto, Canada","jltmtzc@gmail.com","https:\u002F\u002Funa-dinosauria.github.io\u002F","https:\u002F\u002Fgithub.com\u002Funa-dinosauria",[85],{"name":86,"color":87,"percentage":88},"Python","#3572A5",100,1456,355,"2026-04-02T08:35:15","MIT",4,"Linux, macOS, Windows","推荐 NVIDIA GPU（如 GTX 1080），但非必需；未说明显存大小和 CUDA 版本","未说明",{"notes":98,"python":99,"dependencies":100},"需手动下载 Human3.6M 数据集并按指定目录结构放置，包括 D3 Positions 文件和 metadata.xml；需对部分文件名进行重命名以保证一致性；目前仅支持使用 GT 2D 检测进行训练，不再支持 SH 检测。","≥3.5",[101,102],"cdflib","tensorflow>=1.0",[13,54,14],[105,106,107,108,109,110],"tensorflow","computer-vision","3d-vision","baseline","iccv-2017","iccv-17","2026-03-27T02:49:30.150509","2026-04-06T07:16:14.970694",[114,119,124,129,134,139,144],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},1556,"为什么生成的 3D 动画中腿部姿态不准确？","请确认使用的 2D 关键点格式是否正确。Issue #101 指出，在使用 tf-pose-estimation 替代 OpenPose 后问题得到解决，并且需要确保输入数组不含置信度分数（仅保留 x, y 坐标）。相关修复见提交 2861831。","https:\u002F\u002Fgithub.com\u002Funa-dinosauria\u002F3d-pose-baseline\u002Fissues\u002F101",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},1557,"能否使用 HRNet 作为 2D 检测器来提升 3D 姿态估计精度？","可以，但需注意 HRNet 输出的是 COCO 关键点顺序（17 个点），而本项目默认使用 Human3.6M 的 32 关节格式。需要对关键点顺序和数量进行映射转换，具体可参考 maya_skeleton.py 中的关节对应关系。","https:\u002F\u002Fgithub.com\u002Funa-dinosauria\u002F3d-pose-baseline\u002Fissues\u002F155",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},1558,"为什么生成的 3d_data.json 中有 32 个关节点？它们分别对应哪些身体部位？","32 个关节点是基于 Maya 骨骼层级定义的，具体映射关系可在 maya\u002Fmaya_skeleton.py 文件第 119 行查看。每个索引对应 3d_data.json 中的一个三维坐标点，详细结构可参考项目中的 maya.png 示意图。","https:\u002F\u002Fgithub.com\u002Funa-dinosauria\u002F3d-pose-baseline\u002Fissues\u002F154",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},1553,"如何使用 YouTube 视频或自己的图片进行测试？","可以参考 Issue #155 中关于使用 HRNet 或 OpenPose 提取 2D 关键点并转换为指定 JSON 格式的方法。此外，Issue #123 提供了将关键点坐标导出为所需 JSON 格式的代码示例。","https:\u002F\u002Fgithub.com\u002Funa-dinosauria\u002F3d-pose-baseline\u002Fissues\u002F114",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},1554,"运行 openpose_3dpose_sandbox.py 时出现路径或绘图错误怎么办？","确保已创建输出目录（如 gif_output），并检查 matplotlib 是否有权限写入该目录。相关讨论可参考 Issue #154，其中提到生成的 3d_data.json 包含 32 个关节点，并可通过 maya_skeleton.py 查看关节映射关系。","https:\u002F\u002Fgithub.com\u002Funa-dinosauria\u002F3d-pose-baseline\u002Fissues\u002F125",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},1555,"如何实现实时摄像头的 3D 骨骼点获取？","首先使用 Stacked Hourglass（Lua 实现）或 tf-pose-estimation 等工具从实时视频中提取 2D 姿态关键点，然后将这些关键点输入到本项目的模型中转换为 3D 姿态。","https:\u002F\u002Fgithub.com\u002Funa-dinosauria\u002F3d-pose-baseline\u002Fissues\u002F14",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},1559,"为什么在可视化时忽略 Neck\u002FNose 关节？","该项目使用的 3D 姿态模型基于 Human3.6M 数据集，其原始标注不包含 Nose 关节，Neck 的定义也与 COCO 等 2D 数据集不同，因此在 2D 到 3D 映射过程中未使用这些点，以避免不一致导致的误差。","https:\u002F\u002Fgithub.com\u002Funa-dinosauria\u002F3d-pose-baseline\u002Fissues\u002F31",[]]