[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-hassony2--manopth":3,"tool-hassony2--manopth":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":10,"env_os":92,"env_gpu":93,"env_ram":92,"env_deps":94,"category_tags":101,"github_topics":102,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":107,"updated_at":108,"faqs":109,"releases":140},2648,"hassony2\u002Fmanopth","manopth","MANO layer for PyTorch, generating hand meshes as a differentiable layer","manopth 是一个专为 PyTorch 框架设计的开源工具，它将经典的 MANO 手部模型转化为可微分的神经网络层。简单来说，它能接收手部的姿态和形状参数，自动计算出对应的 3D 手部关节坐标和网格顶点，从而生成逼真的三维手部模型。\n\n在计算机视觉研究中，让神经网络直接“理解”并重建复杂的手部结构一直是个难点。manopth 通过提供可微分接口，完美解决了这一痛点：开发者可以将其无缝嵌入到深度学习架构中，利用反向传播算法端到端地训练模型，实现从图像或视频中高精度地预测和重建 3D 手部动作。\n\n这款工具主要面向人工智能研究人员、计算机视觉开发者以及从事手势识别、虚拟现实（VR）和增强现实（AR）应用的技术人员。它的核心亮点在于确定性地将参数映射为网格，且支持批量数据处理，极大地提升了训练效率。此外，manopth 复用了 SMPL 人体模型中成熟的旋转计算逻辑，并保留了原始 MANO 模型的核心算法，确保了数学上的严谨性与结果的可靠性。如果你正在探索手部与物体交互的重建任务，manopth 将是一个坚实可靠的基础组件。","Manopth\n=======\n\n[MANO](http:\u002F\u002Fmano.is.tue.mpg.de) layer for [PyTorch](https:\u002F\u002Fpytorch.org\u002F) (tested with v0.4 and v1.x)\n\nManoLayer is a differentiable PyTorch layer that deterministically maps from pose and shape parameters to hand joints and vertices.\nIt can be integrated into any architecture as a differentiable layer to predict hand meshes.\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhassony2_manopth_readme_e733f017656a.png)\n\nManoLayer takes **batched** hand pose and shape vectors and outputs corresponding hand joints and vertices.\n\nThe code is mostly a PyTorch port of the original [MANO](http:\u002F\u002Fmano.is.tue.mpg.de) model from [chumpy](https:\u002F\u002Fgithub.com\u002Fmattloper\u002Fchumpy) to [PyTorch](https:\u002F\u002Fpytorch.org\u002F).\nIt therefore builds directly upon the work of Javier Romero, Dimitrios Tzionas and Michael J. Black.\n\nThis layer was developped and used for the paper *Learning joint reconstruction of hands and manipulated objects* for CVPR19.\nSee [project page](https:\u002F\u002Fgithub.com\u002Fhassony2\u002Fobman) and [demo+training code](https:\u002F\u002Fgithub.com\u002Fhassony2\u002Fobman_train).\n\n\nIt [reuses](https:\u002F\u002Fgithub.com\u002Fhassony2\u002Fmanopth\u002Fblob\u002Fmaster\u002Fmanopth\u002Frodrigues_layer.py) [part of the great code](https:\u002F\u002Fgithub.com\u002FMandyMo\u002Fpytorch_HMR\u002Fblob\u002Fmaster\u002Fsrc\u002Futil.py) from the  [Pytorch layer for the SMPL body model](https:\u002F\u002Fgithub.com\u002FMandyMo\u002Fpytorch_HMR\u002Fblob\u002Fmaster\u002FREADME.md) by Zhang Xiong ([MandyMo](https:\u002F\u002Fgithub.com\u002FMandyMo)) to compute the rotation utilities !\n\nIt also includes in `mano\u002Fwebuser` partial content of files from the original [MANO](http:\u002F\u002Fmano.is.tue.mpg.de) code ([posemapper.py](mano\u002Fwebuser\u002Fposemapper.py), [serialization.py](mano\u002Fwebuser\u002Fserialization.py), [lbs.py](mano\u002Fwebuser\u002Flbs.py), [verts.py](mano\u002Fwebuser\u002Fverts.py), [smpl_handpca_wrapper_HAND_only.py](mano\u002Fwebuser\u002Fsmpl_handpca_wrapper_HAND_only.py)).\n\nIf you find this code useful for your research, consider citing:\n\n- the original [MANO](http:\u002F\u002Fmano.is.tue.mpg.de) publication:\n\n```\n@article{MANO:SIGGRAPHASIA:2017,\n  title = {Embodied Hands: Modeling and Capturing Hands and Bodies Together},\n  author = {Romero, Javier and Tzionas, Dimitrios and Black, Michael J.},\n  journal = {ACM Transactions on Graphics, (Proc. SIGGRAPH Asia)},\n  publisher = {ACM},\n  month = nov,\n  year = {2017},\n  url = {http:\u002F\u002Fdoi.acm.org\u002F10.1145\u002F3130800.3130883},\n  month_numeric = {11}\n}\n```\n\n- the publication this PyTorch port was developped for:\n\n```\n@INPROCEEDINGS{hasson19_obman,\n  title     = {Learning joint reconstruction of hands and manipulated objects},\n  author    = {Hasson, Yana and Varol, G{\\\"u}l and Tzionas, Dimitris and Kalevatykh, Igor and Black, Michael J. and Laptev, Ivan and Schmid, Cordelia},\n  booktitle = {CVPR},\n  year      = {2019}\n}\n```\n\nThe training code associated with this paper, compatible with manopth can be found [here](https:\u002F\u002Fgithub.com\u002Fhassony2\u002Fobman_train). The release includes a model trained on a variety of hand datasets.\n\n# Installation\n\n## Get code and dependencies\n\n- `git clone https:\u002F\u002Fgithub.com\u002Fhassony2\u002Fmanopth`\n- `cd manopth`\n- Install the dependencies listed in [environment.yml](environment.yml)\n  - In an existing conda environment, `conda env update -f environment.yml`\n  - In a new environment, `conda env create -f environment.yml`, will create a conda environment named `manopth`\n\n## Download MANO pickle data-structures\n\n- Go to [MANO website](http:\u002F\u002Fmano.is.tue.mpg.de\u002F)\n- Create an account by clicking *Sign Up* and provide your information\n- Download Models and Code (the downloaded file should have the format `mano_v*_*.zip`). Note that all code and data from this download falls under the [MANO license](http:\u002F\u002Fmano.is.tue.mpg.de\u002Flicense).\n- unzip and copy the `models` folder into the `manopth\u002Fmano` folder\n- Your folder structure should look like this:\n```\nmanopth\u002F\n  mano\u002F\n    models\u002F\n      MANO_LEFT.pkl\n      MANO_RIGHT.pkl\n      ...\n  manopth\u002F\n    __init__.py\n    ...\n```\n\nTo check that everything is going well, run `python examples\u002Fmanopth_mindemo.py`, which should generate from a random hand using the MANO layer !\n\n## Install `manopth` package\n\nTo be able to import and use `ManoLayer` in another project, go to your `manopth` folder and run `pip install .`\n\n\n`cd \u002Fpath\u002Fto\u002Fother\u002Fproject`\n\nYou can now use `from manopth import ManoLayer` in this other project!\n\n# Usage \n\n## Minimal usage script\n\nSee [examples\u002Fmanopth_mindemo.py](examples\u002Fmanopth_mindemo.py)\n\nSimple forward pass with random pose and shape parameters through MANO layer\n\n```python\nimport torch\nfrom manopth.manolayer import ManoLayer\nfrom manopth import demo\n\nbatch_size = 10\n# Select number of principal components for pose space\nncomps = 6\n\n# Initialize MANO layer\nmano_layer = ManoLayer(mano_root='mano\u002Fmodels', use_pca=True, ncomps=ncomps)\n\n# Generate random shape parameters\nrandom_shape = torch.rand(batch_size, 10)\n# Generate random pose parameters, including 3 values for global axis-angle rotation\nrandom_pose = torch.rand(batch_size, ncomps + 3)\n\n# Forward pass through MANO layer\nhand_verts, hand_joints = mano_layer(random_pose, random_shape)\ndemo.display_hand({'verts': hand_verts, 'joints': hand_joints}, mano_faces=mano_layer.th_faces)\n```\n\nResult :\n\n![random hand](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhassony2_manopth_readme_f13589d63124.png)\n\n## Demo \n\nWith more options, forward and backward pass, and a loop for quick profiling, look at [examples\u002Fmanopth_demo.py](examples\u002Fmanopth_demo.py).\n\nYou can run it locally with:\n\n`python examples\u002Fmanopth_demo.py`\n\n","Manopth\n=======\n\n适用于 [PyTorch](https:\u002F\u002Fpytorch.org\u002F) 的 [MANO](http:\u002F\u002Fmano.is.tue.mpg.de) 层（已在 v0.4 和 v1.x 上测试）\n\nManoLayer 是一个可微分的 PyTorch 层，它以确定性的方式将姿态和形状参数映射到手部关节和顶点。它可以作为可微分层集成到任何架构中，用于预测手部网格。\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhassony2_manopth_readme_e733f017656a.png)\n\nManoLayer 接受**批量**的手部姿态和形状向量，并输出对应的手部关节和顶点。\n\n该代码主要是将原始 [MANO](http:\u002F\u002Fmano.is.tue.mpg.de) 模型从 [chumpy](https:\u002F\u002Fgithub.com\u002Fmattloper\u002Fchumpy) 移植到 [PyTorch](https:\u002F\u002Fpytorch.org\u002F) 的实现。因此，它直接建立在 Javier Romero、Dimitrios Tzionas 和 Michael J. Black 的工作基础上。\n\n该层是为 CVPR19 论文 *学习手与被操纵物体的联合重建* 开发并使用的。请参阅 [项目页面](https:\u002F\u002Fgithub.com\u002Fhassony2\u002Fobman) 和 [演示及训练代码](https:\u002F\u002Fgithub.com\u002Fhassony2\u002Fobman_train)。\n\n它[复用](https:\u002F\u002Fgithub.com\u002Fhassony2\u002Fmanopth\u002Fblob\u002Fmaster\u002Fmanopth\u002Frodrigues_layer.py)了 [MandyMo](https:\u002F\u002Fgithub.com\u002FMandyMo) 的 Zhang Xiong 编写的 [PyTorch SMPL 身体模型层](https:\u002F\u002Fgithub.com\u002FMandyMo\u002Fpytorch_HMR\u002Fblob\u002Fmaster\u002FREADME.md)中的[优秀代码的一部分](https:\u002F\u002Fgithub.com\u002FMandyMo\u002Fpytorch_HMR\u002Fblob\u002Fmaster\u002Fsrc\u002Futil.py)，用于计算旋转相关工具！\n\n此外，`mano\u002Fwebuser` 目录下还包含了原始 [MANO](http:\u002F\u002Fmano.is.tue.mpg.de) 代码的部分文件内容（[posemapper.py](mano\u002Fwebuser\u002Fposemapper.py)、[serialization.py](mano\u002Fwebuser\u002Fserialization.py)、[lbs.py](mano\u002Fwebuser\u002Flbs.py)、[verts.py](mano\u002Fwebuser\u002Fverts.py)、[smpl_handpca_wrapper_HAND_only.py](mano\u002Fwebuser\u002Fsmpl_handpca_wrapper_HAND_only.py)）。\n\n如果您觉得此代码对您的研究有帮助，请考虑引用以下文献：\n\n- 原始 [MANO](http:\u002F\u002Fmano.is.tue.mpg.de) 出版物：\n\n```\n@article{MANO:SIGGRAPHASIA:2017,\n  title = {Embodied Hands: Modeling and Capturing Hands and Bodies Together},\n  author = {Romero, Javier and Tzionas, Dimitrios and Black, Michael J.},\n  journal = {ACM Transactions on Graphics, (Proc. SIGGRAPH Asia)},\n  publisher = {ACM},\n  month = nov,\n  year = {2017},\n  url = {http:\u002F\u002Fdoi.acm.org\u002F10.1145\u002F3130800.3130883},\n  month_numeric = {11}\n}\n```\n\n- 本 PyTorch 移植所基于的论文：\n\n```\n@INPROCEEDINGS{hasson19_obman,\n  title     = {Learning joint reconstruction of hands and manipulated objects},\n  author    = {Hasson, Yana and Varol, G{\\\"u}l and Tzionas, Dimitris and Kalevatykh, Igor and Black, Michael J. and Laptev, Ivan and Schmid, Cordelia},\n  booktitle = {CVPR},\n  year      = {2019}\n}\n```\n\n与该论文相关的、兼容 manopth 的训练代码可在 [这里](https:\u002F\u002Fgithub.com\u002Fhassony2\u002Fobman_train)找到。该发布包含一个在多种手部数据集上训练的模型。\n\n# 安装\n\n## 获取代码和依赖项\n\n- `git clone https:\u002F\u002Fgithub.com\u002Fhassony2\u002Fmanopth`\n- `cd manopth`\n- 安装 [environment.yml](environment.yml) 中列出的依赖项：\n  - 在现有 conda 环境中，运行 `conda env update -f environment.yml`\n  - 在新环境中，运行 `conda env create -f environment.yml` 将创建名为 `manopth` 的 conda 环境\n\n## 下载 MANO pickle 数据结构\n\n- 访问 [MANO 官网](http:\u002F\u002Fmano.is.tue.mpg.de\u002F)\n- 点击 *Sign Up* 创建账户并提供信息\n- 下载 Models and Code（下载的文件应为 `mano_v*_*.zip` 格式）。请注意，此次下载的所有代码和数据均受 [MANO 许可协议](http:\u002F\u002Fmano.is.tue.mpg.de\u002Flicense)约束。\n- 解压并将 `models` 文件夹复制到 `manopth\u002Fmano` 文件夹中\n- 您的文件夹结构应如下所示：\n```\nmanopth\u002F\n  mano\u002F\n    models\u002F\n      MANO_LEFT.pkl\n      MANO_RIGHT.pkl\n      ...\n  manopth\u002F\n    __init__.py\n    ...\n```\n\n为检查是否安装成功，可运行 `python examples\u002Fmanopth_mindemo.py`，该脚本将使用 MANO 层生成一个随机手部模型！\n\n## 安装 `manopth` 包\n\n要能够在其他项目中导入并使用 `ManoLayer`，请进入您的 `manopth` 文件夹并运行 `pip install .`\n\n\n`cd \u002Fpath\u002Fto\u002Fother\u002Fproject`\n\n现在您可以在该项目中使用 `from manopth import ManoLayer`！\n\n# 使用方法\n\n## 最小化使用示例\n\n请参阅 [examples\u002Fmanopth_mindemo.py](examples\u002Fmanopth_mindemo.py)\n\n通过 MANO 层进行简单的前向传播，使用随机的姿态和形状参数\n\n```python\nimport torch\nfrom manopth.manolayer import ManoLayer\nfrom manopth import demo\n\nbatch_size = 10\n# 选择姿态空间的主成分数量\nncomps = 6\n\n# 初始化 MANO 层\nmano_layer = ManoLayer(mano_root='mano\u002Fmodels', use_pca=True, ncomps=ncomps)\n\n# 生成随机形状参数\nrandom_shape = torch.rand(batch_size, 10)\n# 生成随机姿态参数，包括 3 个全局轴角旋转值\nrandom_pose = torch.rand(batch_size, ncomps + 3)\n\n# 通过 MANO 层进行前向传播\nhand_verts, hand_joints = mano_layer(random_pose, random_shape)\ndemo.display_hand({'verts': hand_verts, 'joints': hand_joints}, mano_faces=mano_layer.th_faces)\n```\n\n结果：\n\n![random hand](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhassony2_manopth_readme_f13589d63124.png)\n\n## 演示\n\n更多选项、前向和反向传播以及快速性能分析循环，请查看 [examples\u002Fmanopth_demo.py](examples\u002Fmanopth_demo.py)。\n\n您可以在本地运行：\n\n`python examples\u002Fmanopth_demo.py`","# Manopth 快速上手指南\n\nManopth 是 [MANO](http:\u002F\u002Fmano.is.tue.mpg.de) 手部模型的 PyTorch 可微分层实现。它能够将手部的姿态（pose）和形状（shape）参数确定性地映射为手部关节点和顶点网格，适用于手部重建、抓取分析等深度学习任务。\n\n## 环境准备\n\n*   **系统要求**：Linux 或 macOS（Windows 需自行配置编译环境）。\n*   **核心依赖**：\n    *   Python 3.x\n    *   PyTorch (测试版本 v0.4 及 v1.x+)\n    *   Conda (推荐用于管理依赖)\n*   **前置数据**：需要手动下载官方的 MANO 模型数据（`.pkl` 文件）。\n\n## 安装步骤\n\n### 1. 获取代码与安装依赖\n\n克隆仓库并使用 Conda 创建环境：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fhassony2\u002Fmanopth\ncd manopth\n\n# 方式一：在现有环境中更新依赖\nconda env update -f environment.yml\n\n# 方式二：创建名为 'manopth' 的新环境\nconda env create -f environment.yml\nconda activate manopth\n```\n\n> **提示**：如果 `environment.yml` 中的源下载缓慢，可手动编辑该文件，将 `pip` 或 `conda` 源替换为国内镜像（如清华源或阿里源），或直接使用 `pip install -r requirements.txt` 配合 `-i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple` 安装。\n\n### 2. 下载 MANO 模型数据\n\n由于版权限制，模型数据需手动下载：\n\n1.  访问 [MANO 官网](http:\u002F\u002Fmano.is.tue.mpg.de\u002F) 并注册账号。\n2.  下载 **Models and Code** (文件格式为 `mano_v*_*.zip`)。\n3.  解压文件，将其中的 `models` 文件夹复制到项目目录下的 `manopth\u002Fmano\u002F` 路径中。\n\n最终目录结构应如下所示：\n\n```text\nmanopth\u002F\n  mano\u002F\n    models\u002F\n      MANO_LEFT.pkl\n      MANO_RIGHT.pkl\n      ...\n  manopth\u002F\n    __init__.py\n    ...\n```\n\n### 3. 安装 Python 包\n\n为了方便在其他项目中导入，执行以下命令进行本地安装：\n\n```bash\npip install .\n```\n\n### 4. 验证安装\n\n运行官方提供的最小化示例脚本，若能生成随机手部网格则代表安装成功：\n\n```bash\npython examples\u002Fmanopth_mindemo.py\n```\n\n## 基本使用\n\n以下是最简化的使用示例，展示如何初始化层并进行前向传播：\n\n```python\nimport torch\nfrom manopth.manolayer import ManoLayer\nfrom manopth import demo\n\nbatch_size = 10\n# 选择姿态空间的主成分数量 (PCA)\nncomps = 6\n\n# 初始化 MANO 层\n# mano_root 指向包含 models 文件夹的父目录\nmano_layer = ManoLayer(mano_root='mano\u002Fmodels', use_pca=True, ncomps=ncomps)\n\n# 生成随机形状参数 (batch_size, 10)\nrandom_shape = torch.rand(batch_size, 10)\n\n# 生成随机姿态参数 (batch_size, ncomps + 3)\n# 包含 3 个全局旋转轴角值 + ncomps 个 PCA 系数\nrandom_pose = torch.rand(batch_size, ncomps + 3)\n\n# 前向传播：输入姿态和形状，输出顶点和关节点\nhand_verts, hand_joints = mano_layer(random_pose, random_shape)\n\n# 可视化结果 (可选，需安装 matplotlib 等绘图库)\ndemo.display_hand({'verts': hand_verts, 'joints': hand_joints}, mano_faces=mano_layer.th_faces)\n```\n\n**说明：**\n*   `hand_verts`: 输出的手部网格顶点坐标。\n*   `hand_joints`: 输出的手部关节点坐标。\n*   该层完全可微，可直接嵌入神经网络中进行端到端训练。","某计算机视觉团队正在开发一款用于工业装配线的 AR 辅助系统，需要实时重建工人手部三维模型以指导精密操作。\n\n### 没有 manopth 时\n- **训练流程割裂**：手部姿态估计网络与网格生成模块分离，无法通过端到端反向传播优化整体误差，导致预测结果不够精准。\n- **计算效率低下**：依赖传统的非微分 CPU 库（如 Chumpy）生成网格，每次迭代需在不同设备间转换数据，严重拖慢训练速度。\n- **集成复杂度高**：开发者需手动编写复杂的矩阵运算代码来实现从姿态参数到顶点的映射，极易出错且难以维护。\n- **缺乏批量处理**：原有方案难以高效支持 Batch 级数据并行处理，限制了模型在大规模数据集上的训练效果。\n\n### 使用 manopth 后\n- **实现端到端训练**：manopth 作为可微分层直接嵌入 PyTorch 架构，梯度可从最终网格顶点直接回传至姿态预测网络，显著提升重建精度。\n- **GPU 加速推理**：完全基于 PyTorch 实现，所有网格生成计算均在 GPU 上流畅运行，消除了数据搬运瓶颈，训练效率提升数倍。\n- **开发大幅简化**：只需输入姿态和形状向量，manopth 即可自动输出对应的手部关节点和网格顶点，让团队能专注于核心算法而非底层数学推导。\n- **原生批量支持**：天然支持批量化数据处理，完美适配现代深度学习训练流水线，轻松应对海量工业场景数据。\n\nmanopth 通过将复杂的手部参数化模型转化为高效的 PyTorch 可微分层，彻底打通了从二维图像到三维手部重建的端到端优化路径。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhassony2_manopth_e733f017.png","hassony2","Yana","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhassony2_da53dbf0.jpg","Research Scientist at DeepMind\r\nPreviously at Inria Paris","@willowsierra ",null,"https:\u002F\u002Fhassony2.github.io\u002F","https:\u002F\u002Fgithub.com\u002Fhassony2",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,685,116,"2026-03-24T11:01:17","GPL-3.0","未说明","未说明 (基于 PyTorch，通常支持 CPU 或 GPU)",{"notes":95,"python":96,"dependencies":97},"1. 该工具是原始 MANO 模型从 chumpy 到 PyTorch 的移植版本。2. 必须手动前往 MANO 官网注册账号并下载 'mano_v*_*.zip' 数据包，解压后将 models 文件夹放入项目目录方可运行。3. 安装建议使用 conda 根据提供的 environment.yml 文件创建环境。4. 代码已在 PyTorch v0.4 和 v1.x 版本上测试通过。","未说明 (需配合 Conda 环境使用)",[98,99,100],"torch (v0.4 或 v1.x)","chumpy (间接依赖，用于原始模型逻辑)","conda (用于环境管理)",[13],[103,104,105,106],"mano","pytorch","layer","hand","2026-03-27T02:49:30.150509","2026-04-06T07:11:54.710387",[110,115,120,125,130,135],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},12264,"为什么预测的关节点会位于网格模型外部？","这通常是因为错误地启用了 `mano_adapt_skeleton` 参数。请尝试将该参数设置为 `False`。此外，根据 SMPL 和 MANO 论文的公式（Eq.10），关节回归器应在应用形状混合变形之后、姿态混合变形之前应用。如果回归器的应用顺序与训练时不一致，也会导致此问题。","https:\u002F\u002Fgithub.com\u002Fhassony2\u002Fmanopth\u002Fissues\u002F10",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},12265,"是否有基于自有数据集进行训练的示例或代码？","可以前往 [obman_train](https:\u002F\u002Fgithub.com\u002Fhassony2\u002Fobman_train) 仓库找到训练代码，用于执行从 RGB 图像到 MANO 形状\u002F姿态的估计。训练完成后，您可以逐帧将模型应用于视频。如果您遵循该仓库的说明，还可以使用预训练模型 `release_models\u002Fhands_only\u002Fcheckpoint.pth.tar`。","https:\u002F\u002Fgithub.com\u002Fhassony2\u002Fmanopth\u002Fissues\u002F4",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},12266,"如何使用左手 MANO 模型？旋转方向似乎与右手相反。","这是正常现象，因为左手的旋转轴需要镜像处理。您可以使用以下代码将右手的轴角旋转参数转换为左手参数：\n\n```python\nimport numpy as np\nfrom cv2 import Rodrigues as Rod\n\ndef right2left_aangle(right_aangle):\n    xmirror = np.asarray([[-1, 0, 0], [0, 1, 0], [0, 0, 1]])\n    return(Rod((xmirror.dot(Rod(right_aangle)[0])).dot(xmirror))[0].ravel())\n\ndef fullrightpose2leftpose(rightpose):\n    return(np.asarray([right2left_aangle(right_aangle)\n                       for right_aangle in rightpose.reshape(-1, 3)]).ravel())\n\n# 用法：leftpose = fullrightpose2leftpose(rightpose)\n```\n直观理解：想象双臂呈 T 字型，将左右手食指向下弯曲，它们的旋转方向在坐标系中是相反的。","https:\u002F\u002Fgithub.com\u002Fhassony2\u002Fmanopth\u002Fissues\u002F25",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},12267,"遇到 'No module named chumpy' 错误，Python 3 环境下如何安装 chumpy？","`chumpy` 原本是为 Python 2 设计的，但在 Python 3 中可以通过安装特定的 Git 分支来解决。请使用以下命令安装：\n\n`pip3 install git+https:\u002F\u002Fgithub.com\u002Fscottandrews\u002Fchumpy.git@fe51783e0364bf1e9b705541e7d77f894dd2b1ac`","https:\u002F\u002Fgithub.com\u002Fhassony2\u002Fmanopth\u002Fissues\u002F12",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},12268,"为什么零姿态输入（pose 向量全为 0）生成的手模型手指是弯曲的，而不是平直的 T-pose？","这是因为 MANO 模型的默认平均姿态并非完全平直。如果您希望零姿态输入生成平直的手掌，需要在初始化模型时将 `flat_hand_mean` 参数设置为 `True`。","https:\u002F\u002Fgithub.com\u002Fhassony2\u002Fmanopth\u002Fissues\u002F22",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},12269,"相关的训练代码和数据集在哪里可以下载？","训练代码和数据集已经发布。您可以访问项目主页 [https:\u002F\u002Fhassony2.github.io\u002Fobman.html](https:\u002F\u002Fhassony2.github.io\u002Fobman.html) 查找所有相关链接和资源。","https:\u002F\u002Fgithub.com\u002Fhassony2\u002Fmanopth\u002Fissues\u002F6",[]]