[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-WIKI2020--FacePose_pytorch":3,"tool-WIKI2020--FacePose_pytorch":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":78,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":10,"env_os":89,"env_gpu":90,"env_ram":89,"env_deps":91,"category_tags":100,"github_topics":102,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":108,"updated_at":109,"faqs":110,"releases":141},9642,"WIKI2020\u002FFacePose_pytorch","FacePose_pytorch","🔥🔥The pytorch implement of the head pose estimation(yaw,roll,pitch) and emotion detection with SOTA performance in real time.Easy to deploy, easy to use, and high accuracy.Solve all problems of face detection at one time.(极简，极快，高效是我们的宗旨)","FacePose_pytorch 是一款基于 PyTorch 开发的高效开源工具，专注于实时人脸头部姿态估计（包括偏航角、翻滚角和俯仰角）及七种情绪识别。它旨在解决传统方案中检测速度慢、部署复杂或精度不足的问题，能够一次性完成从人脸检测到关键点定位，再到姿态与表情分析的全流程任务。\n\n该工具特别适合计算机视觉开发者、算法研究人员以及需要集成人脸分析功能的应用工程师使用。其核心亮点在于极简的架构设计与卓越的性能表现：通过结合 RetinaFace 检测器与 PFLD 关键点算法，并创新性地采用线性回归模型拟合角度，FacePose_pytorch 在 NVIDIA V100 GPU 上可实现每秒 90 帧的处理速度，角度误差控制在±3°以内，同时在多个权威数据集上达到了业界领先的情绪识别准确率。此外，项目还更新了支持 468 个 3D 面部关键点的 MediaPipe 方案，使其即便在 CPU 或移动设备上也能流畅运行。无论是用于在线教育中的专注度监测，还是会议场景下的演讲质量评估，FacePose_pytorch 都提供了一个高精度、易部署且开箱即用的优质选择。","# FacePose_pytorch\n\nThe pytorch implement of the head pose estimation(yaw,roll,pitch) and emotion detection with SOTA performance in real time.Easy to deploy, easy to use, and high accuracy.Solve all problems of face detection at one time.(极简，极快，高效是我们的宗旨)\n\n## Update Log\n[2020\u002F12]We found a better algorithm for face key points(estimates 468 3D face landmarks in real-time even on CPU or mobile devices).  \n#First install Anaconda3, python 3.7  \npip install mediapipe   \npython newdectect.y  (run on cpu)  \nYou can replace the pfld algorithm(this GitHub) by yourself.  \n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWIKI2020_FacePose_pytorch_readme_19b6f5d4fbb5.gif) \n \n[2020\u002F11]congratulate! The algorithm has been applied to the following two products: online education for children, which is used to identify whether children listen carefully; on-site meeting or school classroom, to judge the quality of speech.  \n\nThe head angle, especially the accuracy of facial emotion recognition, has reached the world's top level. However, for some reasons, we only open source prediction code.  \n \nWe will release the ultra-high precision model in future(Including angles and emotion). If you need, please add a github star and leave email, I will send it to you separately.  \n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWIKI2020_FacePose_pytorch_readme_19379db196fd.jpg)\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWIKI2020_FacePose_pytorch_readme_24c09dde62b0.jpg)\n\n\n## Demo\n\n    # install requirements\n    First install Anaconda3, python 3.7,and then:\n    pip install numpy opencv-python \n    pip install torch==1.4.0\n    pip install torchvision==0.5.0\n    Download the emoticon model (the angle model is already in the code):[https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1oxznkRcP5w8lzYMAjj87-w],accesscode:WIKI\n\t\n\t\n    # run the simple inference script(angel)\n    Take a video of face rotation with a computer camera,and put it into video file\n    CUDA_VISIBLE_DEVICE=0 python video.py --video_name .\u002Fvideo\u002Fyour_video_name.mp4\n    (tips:You can modify video.py file to infer pictures)\n\n    # run the simple inference script(emotion)\n    Download the emoticon model into checkpoint file,and(If you use your own photo, you need to cut out the face from the picture or use Retinaface to detection the face first. You can look at it in video.py)\n    CUDA_VISIBLE_DEVICE=0 python emotion.py --img .\u002Fimg\u002Fsurprise.jpg\n    \n    At present, only one face is supported. You can try to modify the code to support the angle and expression recognition of multiple faces. It may be a bit complicated.\n\n## Training\n\nThere is no need to model train(Using my model is enough)\n\n## Introduction\n\n1. Firstly, the Retinaface is used to extract the face frame, and then PFLD is used to identify the key points of the face. Finally, the key points are followed up to estimate the face pose. It is very easy to deploy and use, with high precision and fast speed.\n2. We collected our own facial angle conversion data from hundreds of people and fit a simple linear model through the rotation key points of hundreds of people's faces.Experiments show that the simple mathematical linear point model is more efficient and accurate(You can also use GBDT or other algorithms to regression).\n3. At the same time, referring to several papers published in the United States summit in 2020, we developed a highly accurate emotion recognition model. Results show that the methods with 95% on raf-db, 80% on affectnet, and 98% on ferplus.At present, we predict seven kinds of expressions: \"surprise\", \"fear\", \"strange\", \"happiness\", \"Sadness\", \"anger\" and \"neutral\".\n\n\n## Performance\n\t\n    GPU type     | fps\u002Fs  | Angle error(yaw,roll,pitch)| emotion\n    Nvidia-V100  | 90     | -3°~+3°                    | 95% on average\n\n## Example\n   ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWIKI2020_FacePose_pytorch_readme_e1ad44254e75.jpg)\n   ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWIKI2020_FacePose_pytorch_readme_bc6159ddedf2.jpg)\n   ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWIKI2020_FacePose_pytorch_readme_1913c9ab690b.jpg)\n   ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWIKI2020_FacePose_pytorch_readme_3a947fcc7974.jpg)\n\n## Other Project\nThe following is a list of some classic face pose detection items, you can compare the effect by yourself  \nOpenFace:[https:\u002F\u002Fgithub.com\u002FTadasBaltrusaitis\u002FOpenFace]  \nDlib:[https:\u002F\u002Fgithub.com\u002FKeeganRen\u002FFaceReconstruction]  \n3DDFA_V2:[https:\u002F\u002Fgithub.com\u002Fcleardusk\u002F3DDFA_V2]  \n\n\n## FAQ\n\n\n**Q1. Why implement this while there are several FacePose projects already.**\n\nA1: Because the existing open source project identification error is big.And this is a Key point detection and expression detection integration project.\n\n**Q2: What exactly is the difference among this repository and the others?**\n\nA2: For example, Here are some of the common methods used by other open source projects:\n1. Dlib:It is not accurate for face key points recognition, and the error is large when the face is rotated or roll.\n2. Virtual 3D model:it is very inaccurate to compare the recognition of key points with a \"2D to 3D Virtual fix model\",because everyone has a different face.\n3. Through the convolution network statistics face key point bitmap, the angle is also very inaccurate.\n\n\n**Q3: What should I do when I find a bug?**\n\nA3: Check out the update log if it's been fixed, then pull the latest code to try again. If it doesn't help, create a new issue and describe it in detail.\n\n\n## Contribution\nMany thanks to ElonMusk,huangwj and wangz for contributing and revising to the code and English documentation.\n\n","# FacePose_pytorch\n\n基于 PyTorch 的头部姿态估计（偏航角、滚动角、俯仰角）与情绪检测实现，在实时场景下达到 SOTA 性能。部署简单、使用便捷、精度高，一次性解决人脸检测的所有问题。（极简、极快、高效是我们的宗旨）\n\n## 更新日志\n[2020\u002F12] 我们发现了一种更优的人脸关键点算法，能够在 CPU 或移动设备上实时估计 468 个 3D 人脸地标。\n\n# 首先安装 Anaconda3 和 Python 3.7  \npip install mediapipe   \npython newdectect.y  (在 CPU 上运行)  \n你可以自行替换此 GitHub 中的 PFLD 算法。  \n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWIKI2020_FacePose_pytorch_readme_19b6f5d4fbb5.gif) \n \n[2020\u002F11] 恭喜！该算法已应用于以下两款产品：面向儿童的在线教育平台，用于识别孩子是否认真听讲；以及现场会议或学校课堂，用于评估发言质量。  \n\n头部角度，尤其是面部情绪识别的准确性，已达到世界顶尖水平。然而，由于某些原因，我们仅开源预测代码。  \n\n未来我们将发布超高精度模型（包括角度和情绪）。如有需要，请给本项目加星并留下邮箱，我们会单独发送给您。  \n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWIKI2020_FacePose_pytorch_readme_19379db196fd.jpg)\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWIKI2020_FacePose_pytorch_readme_24c09dde62b0.jpg)\n\n\n## 示例\n\n    # 安装依赖\n    首先安装 Anaconda3 和 Python 3.7，然后：\n    pip install numpy opencv-python \n    pip install torch==1.4.0\n    pip install torchvision==0.5.0\n    下载表情模型（角度模型已在代码中）：[https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1oxznkRcP5w8lzYMAjj87-w]，提取码：WIKI\n\t\n\t\n    # 运行简单的推理脚本（角度）\n    使用电脑摄像头录制一段人脸旋转的视频，并将其放入 video 文件夹。\n    CUDA_VISIBLE_DEVICE=0 python video.py --video_name .\u002Fvideo\u002Fyour_video_name.mp4\n    （提示：可以修改 video.py 文件以对图片进行推理）\n\n    # 运行简单的推理脚本（情绪）\n    将下载的表情模型放入 checkpoint 文件中，并且（如果你使用自己的照片，需要先将人脸裁剪出来，或者使用 Retinaface 先进行人脸检测。可以在 video.py 中查看相关操作）。\n    CUDA_VISIBLE_DEVICE=0 python emotion.py --img .\u002Fimg\u002Fsurprise.jpg\n    \n    目前仅支持单人脸部。你可以尝试修改代码，以支持多人的脸部角度和表情识别，不过可能会稍显复杂。\n\n## 训练\n\n无需进行模型训练（直接使用我们的模型即可）。\n\n## 介绍\n\n1. 首先使用 Retinaface 提取人脸框，再利用 PFLD 识别人脸关键点，最后根据这些关键点估算出人脸姿态。部署和使用都非常简单，精度高、速度快。\n2. 我们收集了数百人的面部角度转换数据，并通过数百人面部的关键点旋转情况拟合了一个简单的线性模型。实验表明，这种简单的数学线性点模型效率更高、精度也更好（你也可以使用 GBDT 或其他算法进行回归）。\n3. 同时，参考了 2020 年美国峰会发表的几篇论文，我们开发了一套高精度的情绪识别模型。结果显示，在 RAF-DB 数据集上的准确率为 95%，在 AffectNet 数据集上的准确率为 80%，而在 FERPlus 数据集上的准确率为 98%。目前我们能够预测七种表情：“惊讶”、“恐惧”、“疑惑”、“快乐”、“悲伤”、“愤怒”和“中性”。\n\n\n## 性能\n\t\n    GPU 型号     | fps\u002Fs  | 角度误差（yaw, roll, pitch）| 情绪\n    Nvidia-V100  | 90     | -3°~+3°                    | 平均 95%\n\n## 示例\n   ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWIKI2020_FacePose_pytorch_readme_e1ad44254e75.jpg)\n   ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWIKI2020_FacePose_pytorch_readme_bc6159ddedf2.jpg)\n   ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWIKI2020_FacePose_pytorch_readme_1913c9ab690b.jpg)\n   ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWIKI2020_FacePose_pytorch_readme_3a947fcc7974.jpg)\n\n## 其他项目\n以下是一些经典的人脸姿态检测项目列表，你可以自行对比效果：  \nOpenFace：[https:\u002F\u002Fgithub.com\u002FTadasBaltrusaitis\u002FOpenFace]  \nDlib：[https:\u002F\u002Fgithub.com\u002FKeeganRen\u002FFaceReconstruction]  \n3DDFA_V2：[https:\u002F\u002Fgithub.com\u002Fcleardusk\u002F3DDFA_V2]  \n\n\n## 常见问题解答\n\n\n**Q1. 为什么要在已有多个 FacePose 项目的情况下再实现一个？**\n\nA1：因为现有的开源项目识别误差较大。而本项目是一个集关键点检测与表情检测于一体的方案。\n\n**Q2：这个仓库与其他项目到底有什么不同？**\n\nA2：例如，其他开源项目常用的一些方法如下：\n1. Dlib：其人脸关键点识别不够准确，尤其在人脸旋转或翻滚时误差较大。\n2. 虚拟 3D 模型：通过将关键点识别结果与“2D 到 3D 虚拟固定模型”进行比对的方式非常不精确，因为每个人的脸部特征都不同。\n3. 通过卷积网络统计人脸关键点位图来计算角度，同样存在较大的误差。\n\n\n**Q3：如果我发现了一个 bug，应该怎么办？**\n\nA3：请先查看更新日志，确认是否已修复；若已修复，则拉取最新代码重新尝试。如果问题仍未解决，请创建一个新的 issue，并详细描述问题。\n\n## 贡献\n特别感谢 ElonMusk、huangwj 和 wangz 对代码及英文文档的贡献和修订。","# FacePose_pytorch 快速上手指南\n\nFacePose_pytorch 是一个基于 PyTorch 的开源工具，能够实时、高精度地估计人脸头部姿态（Yaw, Roll, Pitch）并检测面部情绪。该工具部署简单，推理速度快，适合在 CPU 或移动设备上运行。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux \u002F Windows \u002F macOS\n*   **Python 版本**：3.7 (强烈建议使用 Anaconda3 管理环境)\n*   **硬件要求**：\n    *   **CPU**：支持实时运行（配合 MediaPipe 方案）\n    *   **GPU**：NVIDIA 显卡（推荐用于高精度模型推理，需安装 CUDA）\n\n## 2. 安装步骤\n\n### 第一步：创建并激活环境\n建议先安装 **Anaconda3**，然后创建一个新的 Python 3.7 环境：\n\n```bash\nconda create -n facepose python=3.7\nconda activate facepose\n```\n\n### 第二步：安装基础依赖\n安装必要的计算机视觉和深度学习库：\n\n```bash\npip install numpy opencv-python\npip install torch==1.4.0\npip install torchvision==0.5.0\n```\n> **提示**：国内用户若下载缓慢，可添加清华源加速：`-i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n### 第三步：获取模型文件\n角度估计模型已包含在代码中，但**情绪识别模型**需要单独下载：\n\n1.  下载地址：[百度网盘链接](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1oxznkRcP5w8lzYMAjj87-w)\n2.  提取码：`WIKI`\n3.  操作：将下载好的模型文件放入项目根目录下的 `checkpoint` 文件夹中。\n\n*(可选更新)*：如果您希望使用更先进的关键点检测算法（支持 468 个 3D 人脸 landmark，CPU\u002F移动端实时运行），可额外安装 MediaPipe：\n```bash\npip install mediapipe\n```\n\n## 3. 基本使用\n\n本项目目前主要支持单张人脸或单个视频流的推理。\n\n### 场景一：视频头部姿态估计 (Head Pose)\n录制一段包含人脸旋转的视频，将其放入 `video` 文件夹，然后运行以下命令：\n\n```bash\nCUDA_VISIBLE_DEVICE=0 python video.py --video_name .\u002Fvideo\u002Fyour_video_name.mp4\n```\n> **提示**：如需对静态图片进行姿态估计，可修改 `video.py` 脚本适配图片输入。\n\n### 场景二：单图情绪识别 (Emotion Detection)\n准备一张包含人脸的图片（如果图片背景复杂，建议先使用 RetinaFace 裁剪出人脸区域），然后运行：\n\n```bash\nCUDA_VISIBLE_DEVICE=0 python emotion.py --img .\u002Fimg\u002Fsurprise.jpg\n```\n\n系统将输出该人脸的情绪分类结果（支持：surprise, fear, strange, happiness, sadness, anger, neutral 七种表情）。","某在线教育平台希望实时评估网课中学生的专注度与情绪状态，以优化教学互动质量。\n\n### 没有 FacePose_pytorch 时\n- **多模型串联复杂**：需分别部署人脸检测、关键点定位、姿态估计和表情识别多个独立模型，系统集成难度大，维护成本高。\n- **实时性差**：传统方案在普通 CPU 服务器上推理速度慢，无法支撑大班课并发场景，视频分析延迟高达数秒。\n- **数据维度单一**：往往只能获取简单的“是否在线”状态，缺乏头部转角（Yaw\u002FRoll\u002FPitch）等细粒度行为数据，难以判断学生是否在低头玩手机或走神。\n- **情绪识别不准**：通用模型在真实课堂光照和角度变化下准确率低下，常将“思考”误判为“困惑”，导致学情分析报告失真。\n\n### 使用 FacePose_pytorch 后\n- **一站式高效部署**：FacePose_pytorch 集成了从人脸检测到姿态、情绪分析的全流程，仅需一个模型即可输出所有关键指标，极大简化了后端架构。\n- **毫秒级实时响应**：凭借极简算法设计，即使在 CPU 环境下也能实现高帧率推理，完美适配直播课的低延迟要求，即时反馈学生状态。\n- **多维行为量化**：直接输出精确到±3°的头部姿态角，系统能精准识别“低头”、“侧头”等动作，结合 95% 准确率的七类情绪识别，构建精细的专注度画像。\n- **抗干扰能力强**：基于大规模真实数据训练的线性回归模型，有效克服了教室复杂光线和学生大幅度转头带来的识别误差，确保数据可靠。\n\nFacePose_pytorch 通过极简高效的端到端方案，将复杂的课堂行为分析转化为可落地的实时数据流，显著提升了智能化教学的精准度与响应速度。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWIKI2020_FacePose_pytorch_5c08844c.png","WIKI2020","WIKI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FWIKI2020_38a018ca.png","AI Scientist,interested in Machine Learning, Deep Learning and Data Science in general","Google","United States",null,"https:\u002F\u002Fgithub.com\u002FWIKI2020",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,768,117,"2026-04-15T09:25:30","MIT","未说明","非必需（支持 CPU 运行）。若使用 GPU，示例命令指定了 CUDA_VISIBLE_DEVICE=0，性能测试基于 Nvidia-V100。未明确具体显存和 CUDA 版本要求，但依赖的 torch==1.4.0 通常对应较旧的 CUDA 版本（如 10.1\u002F10.2）。",{"notes":92,"python":93,"dependencies":94},"1. 建议首先安装 Anaconda3。2. 情绪识别模型需单独下载（提供百度网盘链接），角度模型已包含在代码中。3. 默认仅支持单张人脸检测，多人脸需自行修改代码。4. 项目提到可使用 Retinaface 进行人脸检测，或使用 MediaPipe 提取 468 个 3D 关键点作为替代方案。","3.7",[95,96,97,98,99],"numpy","opencv-python","torch==1.4.0","torchvision==0.5.0","mediapipe",[15,101,14],"视频",[103,104,105,106,107],"pytorch","facepose-pytorch","headpose","emotion-detection","emotion-recognition","2026-03-27T02:49:30.150509","2026-04-20T04:04:31.909716",[111,116,121,126,131,136],{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},43303,"Yaw（偏航）和 Pitch（俯仰）的计算原理及公式中的经验值是如何得出的？","这些参数是基于项目作者自己的数据集生成的，并非通用标准公式。具体的计算逻辑（如 `yaw = int(yaw * 71.58 + 0.7037)`）是通过对特定数据集进行回归分析或拟合得到的经验值。由于未公开具体数据集细节和推导代码，建议用户在自己的数据集上重新校准这些参数以获得最佳效果。","https:\u002F\u002Fgithub.com\u002FWIKI2020\u002FFacePose_pytorch\u002Fissues\u002F11",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},43304,"模型是否支持佩戴口罩的人脸进行姿态估计？准确率如何？","目前版本不支持口罩人脸的精确预测。维护者明确指出：\"目前不支持口罩人脸（mask face is not supported at present）\"。在测试中，佩戴口罩会导致 Pitch（俯仰角，特别是抬头动作）无法被正确预测，虽然 Yaw（偏航角）可能表现尚可，但整体稳定性会下降。官方计划在未来版本中提高对此场景的准确率。","https:\u002F\u002Fgithub.com\u002FWIKI2020\u002FFacePose_pytorch\u002Fissues\u002F13",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},43305,"如何在代码中获取并打印眼睛的关键点（Landmarks）坐标？","直接对 `NormalizedLandmarkList` 对象使用 `len()` 会报错。正确的做法是遍历 `results.multi_face_landmarks`，并通过索引访问具体的关键点。例如，获取左眼和右眼关键点的代码如下：\n```python\nfor face_landmarks in results.multi_face_landmarks:\n    # 构建包含左右眼关键点的列表\n    landmark_choose = landmark_pb2.NormalizedLandmarkList(\n        landmark = [\n            # 左眼关键点索引示例\n            face_landmarks.landmark[7],\n            face_landmarks.landmark[33],\n            face_landmarks.landmark[144],\n            # ... (其他左眼索引)\n            # 右眼关键点索引示例\n            face_landmarks.landmark[263],\n            # ... (其他右眼索引)\n        ]\n    )\n    # 随后即可遍历 landmark_choose.landmark 获取具体 x, y, z 坐标\n```","https:\u002F\u002Fgithub.com\u002FWIKI2020\u002FFacePose_pytorch\u002Fissues\u002F59",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},43306,"能否提供超高精度模型（ultra-high precision model）的权重文件或训练代码？","根据多个 Issue 的反馈，维护者目前未在公开仓库中直接提供所谓的“超高精度模型”权重或完整的训练代码。许多用户通过邮件请求获取，但并未在 Issue 评论区看到维护者公开发布这些资源。建议用户直接使用仓库中现有的预训练模型，或参考现有代码结构自行训练。","https:\u002F\u002Fgithub.com\u002FWIKI2020\u002FFacePose_pytorch\u002Fissues\u002F152",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},43307,"Readme 文档中出现的女孩是谁？是否有相关个人信息？","出于对个人隐私和数据保护法律的尊重，维护者不会透露演示图片中人物的姓名或个人信息。正如社区成员所指出的，保护个人数据免受过度关注是必要的，因此这类信息不予公开。","https:\u002F\u002Fgithub.com\u002FWIKI2020\u002FFacePose_pytorch\u002Fissues\u002F25",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},43308,"在使用 OpenCV 4.1.1 时遇到 Caffe prototxt 某层不支持的问题怎么办？","这是一个已知的环境兼容性问题。虽然该 Issue 中没有给出具体的修复代码，但表明在较旧版本的 OpenCV（如 4.1.1）中可能存在对特定 Caffe 层的支持缺失。建议尝试升级 OpenCV 到最新版本，或者检查 prototxt 文件中是否使用了该版本 OpenCV 尚未实现的自定义层或新特性。","https:\u002F\u002Fgithub.com\u002FWIKI2020\u002FFacePose_pytorch\u002Fissues\u002F2",[]]