[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-PinataFarms--DAD-3DHeads":3,"tool-PinataFarms--DAD-3DHeads":61},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":24,"last_commit_at":59,"category_tags":60,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":101,"forks":102,"last_commit_at":103,"license":104,"difficulty_score":10,"env_os":105,"env_gpu":105,"env_ram":105,"env_deps":106,"category_tags":111,"github_topics":114,"view_count":24,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":134,"updated_at":135,"faqs":136,"releases":167},10012,"PinataFarms\u002FDAD-3DHeads","DAD-3DHeads","Official repo for DAD-3DHeads: A Large-scale Dense, Accurate and Diverse Dataset for 3D Head Alignment from a Single Image (CVPR 2022).","DAD-3DHeads 是一个专注于单张图像 3D 头部对齐的大规模数据集及配套工具库，源自 CVPR 2022 的研究成果。它旨在解决现有数据在密度、准确性和多样性上的不足，为从单一照片重建高精度 3D 头部模型提供坚实基础。\n\n通过提供包含密集关键点标注、详细属性（如年龄、性别、姿态、遮挡情况）及高质量纹理信息的海量数据，DAD-3DHeads 有效提升了算法在复杂现实场景下的鲁棒性。其独特亮点在于支持多种密度的 2D 面部 landmarks（68\u002F191\u002F445 点）可视化，并集成了 UV 纹理预测与 PNCC 估计功能，能够生成细致的面部网格和头部姿态分析。\n\n这套工具非常适合计算机视觉领域的研究人员和开发者使用，特别是那些从事人脸重建、表情分析、虚拟现实角色驱动或生物特征识别工作的团队。借助其完善的训练框架和基准测试代码，用户可以快速复现前沿算法或基于此开发新的应用原型。虽然主要面向专业技术人群，但其生成的直观 3D 可视化结果也为数字内容创作者提供了宝贵的参考资源。","\u003Cdiv align=\"center\">\n\n# DAD-3DHeads: A Large-scale Dense, Accurate and Diverse Dataset for 3D Head Alignment from a Single Image\n\n[![Paper](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2204.03688-brightgreen)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.03688)\n[![Conference](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCVPR-2022-blue)](https:\u002F\u002Fcvpr2022.thecvf.com)\n[![Project WebPage](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-webpage-%23fc4d5d)](https:\u002F\u002Fwww.pinatafarm.com\u002Fresearch\u002Fdad-3dheads\u002F)\n[![Dataset](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHugging_Face-dataset-fed91b)](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Ft-martyniuk\u002FDAD-3DHeadsDataset)\n[![CC BY-NC-SA 4.0][cc-by-nc-sa-shield]][cc-by-nc-sa]\n\n\u003C\u002Fdiv>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPinataFarms_DAD-3DHeads_readme_663ecd154df6.png)\n\nThis is an official repository for the paper\n```\nDAD-3DHeads: A Large-scale Dense, Accurate and Diverse Dataset for 3D Head Alignment from a Single Image\nTetiana Martyniuk, Orest Kupyn, Yana Kurlyak, Igor Krashenyi, Jiři Matas, Viktoriia Sharmanska\nCVPR 2022\n```\n\n## 📰 News\n\n- **2026-01-23** - [DAD-3DHeads dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Ft-martyniuk\u002FDAD-3DHeadsDataset) is now available on Hugging Face.\n- **2024-08-27** - Added UV Texture predictor and PNCC estimator.\n- **2022-11-08** - [DAD-3DHeads benchmark](https:\u002F\u002Fgithub.com\u002FPinataFarms\u002FDAD-3DHeads\u002Ftree\u002Fmain\u002Fdad_3dheads_benchmark) evaluation code is released.\n- **2022-05-11** - Initial code release.\n\n## 📚 Table of Contents\n\n- [Installation](#installation)\n- [Training](#training)\n- [Demo](#demo)\n- [DAD-3DHeads Benchmark](#dad-3dheads-benchmark)\n- [License](#license)\n- [Citation](#citation)\n\n## Installation\n\nThe code uses **Python 3.8**.\n\n#### Create a Conda virtual environment:\n\n```bash\nconda create --name DAD-3DHeads python=3.8\nconda activate DAD-3DHeads\n```\n#### Clone the project and install requirements:\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FPinataFarms\u002FDAD-3DHeads.git\ncd DAD-3DHeads\n\npip install -r requirements.txt\n```\n## Training\n\n#### Prepare the DAD-3DHeads dataset:\n\nFirst, you need to download the [DAD-3DHeads dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Ft-martyniuk\u002FDAD-3DHeadsDataset) and extract it to the `dataset\u002FDAD-3DHeadsDataset` directory. \n\nThe dataset directory structure should be the following:\n```\n.\u002Fdataset\n--DAD-3DHeadsDataset\n----train\n------images\n--------\u003CID>.png\n------annotations\n--------\u003CID>.json\n------train.json\n----val\n------images\u002F\u003CID>.png\n------annotations\u002F\u003CID>.json\n------val.json\n----test\n------images\u002F\u003CID>.png\n------test.json\n```\n\nAnnotations ```\u003CID>.json``` file structure:\n```\n--vertices\n--model_view_matrix\n--projection_matrix\n```\n\nMetadata ```[train|val|test].json``` file structure:\n```\n--item_id\n--annotation_path\n--img_path\n--bbox #[x, y, w, h] format\n----0\n----1\n----2\n----3\n--attributes\n----quality #[hq, lq]\n----gender #[female, male, undefined]\n----expression #[true, false]\n----age #[child, young, middle_aged, senior]\n----occlusions #[true, false]\n----pose #[front, sided, atypical]\n----standard light #[true, false]\n```\n\nThe training code uses [hydra](https:\u002F\u002Fhydra.cc\u002Fdocs\u002Fintro\u002F). To change the training setup, add a new or edit the existing `.yaml` file in the `model_training\u002Fconfig` folder.\n\n#### Visualize the ground-truth labels:\n```bash\npython visualize.py \u003Csubset> \u003Cid>\n```\nPick `subset` from the `train, val, test` options, and the corresponding `item_id` (without file extension).\n\n#### Run training code:\n\n```bash\npython train.py\n```\n\n## Demo\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPinataFarms_DAD-3DHeads_readme_e447e7cb4664.png)\n\nFirst row (from left to right): input image, 68 2D face landmarks visualization, 191 2D face landmarks visualization, 445 2D face landmarks visualization.  \nSecond row (from left to right): face mesh visualization, head mesh visualization, head pose visualization, 3D head mesh.\n\n#### Run demo:\n```bash\npython demo.py \u003Cpath\u002Fto\u002Finput\u002Fimage.png> \u003Cpath\u002Fto\u002Foutput\u002Ffolder> \u003Ctype_of_output>\n\n# Visualize 68 2D face landmarks\npython demo.py images\u002Fdemo_heads\u002F1.jpeg outputs 68_landmarks\n\n# Visualize 191 2D face landmarks\npython demo.py images\u002Fdemo_heads\u002F1.jpeg outputs 191_landmarks\n\n# Visualize 445 2D face landmarks\npython demo.py images\u002Fdemo_heads\u002F1.jpeg outputs 445_landmarks\n\n# Visualize face mesh\npython demo.py images\u002Fdemo_heads\u002F1.jpeg outputs face_mesh\n\n# Visualize head mesh\npython demo.py images\u002Fdemo_heads\u002F1.jpeg outputs head_mesh\n\n# Visualize head pose\npython demo.py images\u002Fdemo_heads\u002F1.jpeg outputs pose\n\n# Get 3D mesh .obj file\npython demo.py images\u002Fdemo_heads\u002F1.jpeg outputs 3d_mesh\n\n# Get flame parameters .json file\npython demo.py images\u002Fdemo_heads\u002F1.jpeg outputs flame_params\n```\n\n## DAD-3DHeads Benchmark\n\nPlease refer to the `dad_3dheads_benchmark` directory for the evaluation protocol.\n\n## License\n\nThis work is licensed under a\n[Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License][cc-by-nc-sa].\n\n[![CC BY-NC-SA 4.0][cc-by-nc-sa-image]][cc-by-nc-sa]\n\n[cc-by-nc-sa]: http:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0\u002F\n[cc-by-nc-sa-image]: https:\u002F\u002Flicensebuttons.net\u002Fl\u002Fby-nc-sa\u002F4.0\u002F88x31.png\n[cc-by-nc-sa-shield]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-CC%20BY--NC--SA%204.0-lightgrey.svg\n\nBy using this code, you acknowledge that you have read the license terms, understand them, and agree to be bound by them. If you do not agree with these terms and conditions, you must not use the code.\n\n## Citation\n\nIf you use the DAD-3DHeads dataset or this code for your research projects, please cite the following paper:\n\n```\n@inproceedings{dad3dheads,\n    title={DAD-3DHeads: A Large-scale Dense, Accurate and Diverse Dataset for 3D Head Alignment from a Single Image},\n    author={Martyniuk, Tetiana and Kupyn, Orest and Kurlyak, Yana and Krashenyi, Igor and Matas, Ji\\v{r}i and Sharmanska, Viktoriia},\n    booktitle = {Proc. IEEE Conf. on Computer Vision and Pattern Recognition (CVPR)},\n    year={2022}\n}\n```\n","\u003Cdiv align=\"center\">\n\n# DAD-3DHeads：一个大规模、密集、准确且多样化的单张图像3D头部对齐数据集\n\n[![论文](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2204.03688-brightgreen)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.03688)\n[![会议](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCVPR-2022-blue)](https:\u002F\u002Fcvpr2022.thecvf.com)\n[![项目主页](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-webpage-%23fc4d5d)](https:\u002F\u002Fwww.pinatafarm.com\u002Fresearch\u002Fdad-3dheads\u002F)\n[![数据集](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHugging_Face-dataset-fed91b)](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Ft-martyniuk\u002FDAD-3DHeadsDataset)\n[![CC BY-NC-SA 4.0][cc-by-nc-sa-shield]][cc-by-nc-sa]\n\n\u003C\u002Fdiv>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPinataFarms_DAD-3DHeads_readme_663ecd154df6.png)\n\n这是论文\n```\nDAD-3DHeads：一个大规模、密集、准确且多样化的单张图像3D头部对齐数据集\nTetiana Martyniuk, Orest Kupyn, Yana Kurlyak, Igor Krashenyi, Jiři Matas, Viktoriia Sharmanska\nCVPR 2022\n```\n的官方代码仓库。\n\n## 📰 新闻\n\n- **2026-01-23** - [DAD-3DHeads数据集](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Ft-martyniuk\u002FDAD-3DHeadsDataset)现已在Hugging Face上发布。\n- **2024-08-27** - 添加了UV纹理预测器和PNCC估计器。\n- **2022-11-08** - [DAD-3DHeads基准测试](https:\u002F\u002Fgithub.com\u002FPinataFarms\u002FDAD-3DHeads\u002Ftree\u002Fmain\u002Fdad_3dheads_benchmark)的评估代码已发布。\n- **2022-05-11** - 初始代码发布。\n\n## 📚 目录\n\n- [安装](#installation)\n- [训练](#training)\n- [演示](#demo)\n- [DAD-3DHeads基准测试](#dad-3dheads-benchmark)\n- [许可证](#license)\n- [引用](#citation)\n\n## 安装\n\n代码使用 **Python 3.8**。\n\n#### 创建Conda虚拟环境：\n\n```bash\nconda create --name DAD-3DHeads python=3.8\nconda activate DAD-3DHeads\n```\n\n#### 克隆项目并安装依赖：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FPinataFarms\u002FDAD-3DHeads.git\ncd DAD-3DHeads\n\npip install -r requirements.txt\n```\n\n## 训练\n\n#### 准备DAD-3DHeads数据集：\n\n首先，你需要下载[该数据集](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Ft-martyniuk\u002FDAD-3DHeadsDataset)，并将其解压到`dataset\u002FDAD-3DHeadsDataset`目录下。\n\n数据集的目录结构应如下所示：\n```\n.\u002Fdataset\n--DAD-3DHeadsDataset\n----train\n------images\n--------\u003CID>.png\n------annotations\n--------\u003CID>.json\n------train.json\n----val\n------images\u002F\u003CID>.png\n------annotations\u002F\u003CID>.json\n------val.json\n----test\n------images\u002F\u003CID>.png\n------test.json\n```\n\n注释文件 ```\u003CID>.json``` 的结构：\n```\n--vertices\n--model_view_matrix\n--projection_matrix\n```\n\n元数据文件 ```[train|val|test].json``` 的结构：\n```\n--item_id\n--annotation_path\n--img_path\n--bbox #[x, y, w, h] 格式\n----0\n----1\n----2\n----3\n--attributes\n----quality #[hq, lq]\n----gender #[female, male, undefined]\n----expression #[true, false]\n----age #[child, young, middle_aged, senior]\n----occlusions #[true, false]\n----pose #[front, sided, atypical]\n----standard light #[true, false]\n```\n\n训练代码使用 [hydra](https:\u002F\u002Fhydra.cc\u002Fdocs\u002Fintro\u002F)。要更改训练设置，可以在 `model_training\u002Fconfig` 文件夹中添加新的或编辑现有的 `.yaml` 文件。\n\n#### 可视化真实标签：\n```bash\npython visualize.py \u003Csubset> \u003Cid>\n```\n从 `train, val, test` 中选择 `subset`，并指定对应的 `item_id`（不带文件扩展名）。\n\n#### 运行训练代码：\n\n```bash\npython train.py\n```\n\n## 演示\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPinataFarms_DAD-3DHeads_readme_e447e7cb4664.png)\n\n第一行（从左到右）：输入图像、68个2D人脸关键点可视化、191个2D人脸关键点可视化、445个2D人脸关键点可视化。  \n第二行（从左到右）：面部网格可视化、头部网格可视化、头部姿态可视化、3D头部网格。\n\n#### 运行演示：\n```bash\npython demo.py \u003Cpath\u002Fto\u002Finput\u002Fimage.png> \u003Cpath\u002Fto\u002Foutput\u002Ffolder> \u003Ctype_of_output>\n\n# 可视化68个2D人脸关键点\npython demo.py images\u002Fdemo_heads\u002F1.jpeg outputs 68_landmarks\n\n# 可视化191个2D人脸关键点\npython demo.py images\u002Fdemo_heads\u002F1.jpeg outputs 191_landmarks\n\n# 可视化445个2D人脸关键点\npython demo.py images\u002Fdemo_heads\u002F1.jpeg outputs 445_landmarks\n\n# 可视化面部网格\npython demo.py images\u002Fdemo_heads\u002F1.jpeg outputs face_mesh\n\n# 可视化头部网格\npython demo.py images\u002Fdemo_heads\u002F1.jpeg outputs head_mesh\n\n# 可视化头部姿态\npython demo.py images\u002Fdemo_heads\u002F1.jpeg outputs pose\n\n# 获取3D网格.obj文件\npython demo.py images\u002Fdemo_heads\u002F1.jpeg outputs 3d_mesh\n\n# 获取flame参数.json文件\npython demo.py images\u002Fdemo_heads\u002F1.jpeg outputs flame_params\n```\n\n## DAD-3DHeads基准测试\n\n请参阅 `dad_3dheads_benchmark` 目录以获取评估协议。\n\n## 许可证\n\n本作品采用\n[知识共享署名-非商业性使用-相同方式共享4.0国际许可协议][cc-by-nc-sa] 许可。\n\n[![CC BY-NC-SA 4.0][cc-by-nc-sa-image]][cc-by-nc-sa]\n\n[cc-by-nc-sa]: http:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0\u002F\n[cc-by-nc-sa-image]: https:\u002F\u002Flicensebuttons.net\u002Fl\u002Fby-nc-sa\u002F4.0\u002F88x31.png\n[cc-by-nc-sa-shield]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-CC%20BY--NC--SA%204.0-lightgrey.svg\n\n通过使用此代码，您即表示已阅读并理解许可条款，并同意受其约束。如果您不同意这些条款和条件，请勿使用该代码。\n\n## 引用\n\n如果您在研究项目中使用了DAD-3DHeads数据集或此代码，请引用以下论文：\n\n```\n@inproceedings{dad3dheads,\n    title={DAD-3DHeads: A Large-scale Dense, Accurate and Diverse Dataset for 3D Head Alignment from a Single Image},\n    author={Martyniuk, Tetiana and Kupyn, Orest and Kurlyak, Yana and Krashenyi, Igor and Matas, Ji\\v{r}i and Sharmanska, Viktoriia},\n    booktitle = {Proc. IEEE Conf. on Computer Vision and Pattern Recognition (CVPR)},\n    year={2022}\n}\n```","# DAD-3DHeads 快速上手指南\n\nDAD-3DHeads 是一个用于单图 3D 头部对齐的大规模、高密度、高精度且多样化的数据集及工具库。本指南将帮助你快速搭建环境并运行演示。\n\n## 环境准备\n\n*   **操作系统**: Linux \u002F macOS (Windows 需使用 WSL)\n*   **Python 版本**: 3.8 (必须)\n*   **依赖管理**: Conda (推荐)\n*   **硬件要求**: 建议配备 NVIDIA GPU 以进行训练或加速推理\n\n## 安装步骤\n\n### 1. 创建虚拟环境\n使用 Conda 创建并激活名为 `DAD-3DHeads` 的 Python 3.8 环境：\n\n```bash\nconda create --name DAD-3DHeads python=3.8\nconda activate DAD-3DHeads\n```\n\n### 2. 克隆项目与安装依赖\n拉取代码仓库并安装所需依赖包。国内用户若遇到下载慢的问题，可配置 pip 使用清华或阿里镜像源。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FPinataFarms\u002FDAD-3DHeads.git\ncd DAD-3DHeads\n\n# 可选：使用国内镜像源加速安装\n# pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\npip install -r requirements.txt\n```\n\n### 3. 准备数据集（仅训练需要）\n若仅需运行演示（Demo），可跳过此步。若需训练模型，请从 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Ft-martyniuk\u002FDAD-3DHeadsDataset) 下载数据集，并解压至 `dataset\u002FDAD-3DHeadsDataset` 目录，确保目录结构如下：\n\n```text\n.\u002Fdataset\n--DAD-3DHeadsDataset\n----train\n------images\u002F\u003CID>.png\n------annotations\u002F\u003CID>.json\n------train.json\n----val\n------images\u002F\u003CID>.png\n------annotations\u002F\u003CID>.json\n------val.json\n----test\n------images\u002F\u003CID>.png\n------test.json\n```\n\n## 基本使用\n\n### 运行演示 (Demo)\n无需训练即可直接对单张图片进行 3D 头部重建和关键点检测。\n\n**命令格式：**\n```bash\npython demo.py \u003C输入图片路径> \u003C输出文件夹路径> \u003C输出类型>\n```\n\n**常用示例：**\n\n1.  **可视化 68 个 2D 人脸关键点**：\n    ```bash\n    python demo.py images\u002Fdemo_heads\u002F1.jpeg outputs 68_landmarks\n    ```\n\n2.  **可视化人脸网格 (Face Mesh)**：\n    ```bash\n    python demo.py images\u002Fdemo_heads\u002F1.jpeg outputs face_mesh\n    ```\n\n3.  **可视化头部姿态 (Head Pose)**：\n    ```bash\n    python demo.py images\u002Fdemo_heads\u002F1.jpeg outputs pose\n    ```\n\n4.  **导出 3D 网格文件 (.obj)**：\n    ```bash\n    python demo.py images\u002Fdemo_heads\u002F1.jpeg outputs 3d_mesh\n    ```\n\n5.  **导出 FLAME 模型参数 (.json)**：\n    ```bash\n    python demo.py images\u002Fdemo_heads\u002F1.jpeg outputs flame_params\n    ```\n\n运行完成后，结果将保存在指定的 `outputs` 文件夹中。\n\n### 开始训练\n若已准备好数据集并需要微调模型，可直接运行训练脚本（默认读取 `model_training\u002Fconfig` 下的配置）：\n\n```bash\npython train.py\n```\n\n> **注意**：本项目采用 CC BY-NC-SA 4.0 许可协议，仅限非商业性使用。如在研究中使用该数据集或代码，请务必引用 CVPR 2022 的相关论文。","某影视特效团队正在开发一款基于单张照片自动生成高精度 3D 数字人替身的工具，以加速电影预演流程。\n\n### 没有 DAD-3DHeads 时\n- **模型泛化能力差**：训练数据缺乏多样性，导致模型在处理侧脸、大角度姿态或特殊光照下的面部时，关键点检测经常失效。\n- **细节还原度低**：现有数据集标注稀疏（通常仅 68 个点），无法捕捉细微的面部肌肉运动和复杂的几何结构，生成的 3D 头部网格显得僵硬且失真。\n- **遮挡处理薄弱**：缺乏针对头发、手部遮挡等复杂场景的密集标注数据，使得算法在人物部分面部被遮挡时无法准确推断完整头型。\n- **研发周期漫长**：团队需耗费数月时间手动清洗和标注私有数据，严重拖慢了从算法验证到实际落地的进度。\n\n### 使用 DAD-3DHeads 后\n- **全姿态鲁棒性强**：利用其大规模、多样化的数据集（涵盖不同年龄、性别及极端姿态），模型能稳定处理各种刁钻角度的输入图像，大幅减少检测失败率。\n- **高密度精准重建**：借助数据集中密集的 445+ 关键点标注和精确的 3D 顶点信息，生成的头部网格纹理细腻、几何结构逼真，完美还原微表情。\n- **抗遮挡能力提升**：得益于数据集中丰富的遮挡样本训练，算法能智能补全被遮挡区域，输出完整的 3D 头部模型，无需人工后期修补。\n- **快速迭代上线**：直接复用高质量的基准数据集和评估代码，团队将模型训练与调优周期从数月缩短至数周，迅速达到生产级精度标准。\n\nDAD-3DHeads 通过提供大规模、高密度且多样化的标注数据，彻底解决了单图 3D 头部重建中精度不足与泛化困难的瓶颈，让高保真数字人生成变得高效可靠。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPinataFarms_DAD-3DHeads_663ecd15.png","PinataFarms","Piñata Farms","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FPinataFarms_f642f21a.png","",null,"pinatafarms","https:\u002F\u002Fpinatafarm.com\u002F","https:\u002F\u002Fgithub.com\u002FPinataFarms",[81,85,89,93,97],{"name":82,"color":83,"percentage":84},"Python","#3572A5",82.1,{"name":86,"color":87,"percentage":88},"C++","#f34b7d",14.3,{"name":90,"color":91,"percentage":92},"Cython","#fedf5b",3.3,{"name":94,"color":95,"percentage":96},"CMake","#DA3434",0.2,{"name":98,"color":99,"percentage":100},"Shell","#89e051",0,499,44,"2026-04-18T02:47:05","NOASSERTION","未说明",{"notes":107,"python":108,"dependencies":109},"项目使用 Conda 进行环境管理。需手动下载 DAD-3DHeads 数据集并放置于指定目录 (dataset\u002FDAD-3DHeadsDataset)。训练配置通过 Hydra 框架管理，需编辑 model_training\u002Fconfig 下的 YAML 文件。许可证为 CC BY-NC-SA 4.0（非商业用途）。","3.8",[110],"hydra-core",[15,112,16,113,14],"其他","视频",[115,116,117,118,119,120,121,122,123,124,125,126,127,128,129,130,131,132,133],"3d-computer-vision","3d-face-alignment","3d-face-modelling","3d-face-reconstruction","3d-head","3d-reconstruction","computer-vision","cvpr","cvpr2022","machine-learning","papers-with-code","pytorch","3dmm","dataset","face-alignment","face-reenactment","first-order-motion-model","flame","head-pose-estimation","2026-03-27T02:49:30.150509","2026-04-20T16:47:37.614765",[137,142,147,152,157,162],{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},44967,"提交数据集申请后没有收到回复怎么办？","请确保您使用了机构邮箱（institutional email）进行申请，并在申请表中填写了所属机构信息。如果仍未收到回复，可能是邮件被遗漏，请直接发送邮件至 dad3dheads@gmail.com 说明情况（最好使用申请时的邮箱发送），维护者会手动处理并核实日志。","https:\u002F\u002Fgithub.com\u002FPinataFarms\u002FDAD-3DHeads\u002Fissues\u002F37",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},44968,"运行代码时遇到 'TypeError: TensorBoardLogger object is not iterable' 错误如何解决？","该问题通常与 tensorboard 版本有关（推荐版本为 tensorboard==2.12.0）。临时解决方法是修改代码：将 `for logger in self.logger:` 改为 `for logger in [self.logger]:`，即可绕过迭代错误继续训练。","https:\u002F\u002Fgithub.com\u002FPinataFarms\u002FDAD-3DHeads\u002Fissues\u002F36",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},44969,"如何获取模型的替代下载链接或不同格式的权重文件？","官方已提供替代下载链接（详见相关 Issue 评论）。此外，发布的模型是使用 `torch.jit.save` 保存的，如果需要用于自定义网络训练，可以自行从释放的模型中提取 state_dict，或请求维护者提供由 `torch.save` 保存的版本。","https:\u002F\u002Fgithub.com\u002FPinataFarms\u002FDAD-3DHeads\u002Fissues\u002F1",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},44970,"申请数据集时被拒绝或未通过审核的原因是什么？","数据集仅限非商业研究和教育用途。申请时必须使用机构邮箱（institutional email），并在 Hugging Face 用户资料或申请表的“Affiliation”字段明确填写所属机构。如果使用个人邮箱注册且未填写机构信息，申请可能会被忽略或拒绝。如遇问题，请直接发邮件联系作者解决。","https:\u002F\u002Fgithub.com\u002FPinataFarms\u002FDAD-3DHeads\u002Fissues\u002F54",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},44971,"使用多 GPU 训练效果不如单 GPU 是什么原因？","开发过程中发现，严格遵循原作者选择的超参数（包括 Batch Size）能获得最佳结果。虽然总 Batch Size 相似，但多卡分布可能导致训练动态变化。建议优先复现原论文的单卡配置和超参数作为基线，不要随意更改 Batch Size 等关键设置。","https:\u002F\u002Fgithub.com\u002FPinataFarms\u002FDAD-3DHeads\u002Fissues\u002F40",{"id":163,"question_zh":164,"answer_zh":165,"source_url":166},44972,"如何为验证集\u002F测试集生成 'rotation_matrix' 和 '7_landmarks_3d'？","可以使用代码中的辅助函数生成：`get_68_landmarks` 用于从 5023 个顶点中提取 68 个关键点，`get_7_landmarks_from_68` 用于从 68 个关键点中进一步提取 7 个关键点。旋转矩阵（rotation_matrix）取决于具体方法，在该项目中是从 FLAME 参数计算得出的。","https:\u002F\u002Fgithub.com\u002FPinataFarms\u002FDAD-3DHeads\u002Fissues\u002F22",[]]