[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-610265158--Peppa_Pig_Face_Landmark":3,"tool-610265158--Peppa_Pig_Face_Landmark":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":80,"owner_website":80,"owner_url":83,"languages":84,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":23,"env_os":97,"env_gpu":97,"env_ram":97,"env_deps":98,"category_tags":104,"github_topics":105,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":112,"updated_at":113,"faqs":114,"releases":155},2527,"610265158\u002FPeppa_Pig_Face_Landmark","Peppa_Pig_Face_Landmark","A simple face detect and alignment method, which is easy and stable.","Peppa_Pig_Face_Landmark 是一个轻量级且稳定的人脸检测与对齐开源项目。它主要致力于解决在复杂场景下快速、精准地定位人脸关键点的问题，能够实时捕捉面部特征并进行标准化对齐，为后续的面部分析或特效处理提供基础数据支持。\n\n从技术实现来看，Peppa_Pig_Face_Landmark 结合了 YOLOv5-face 作为人脸检测器，并采用了优化的关键点检测模型。其独特亮点在于提供了“学生-教师”网络架构的不同预训练模型选择，用户可以根据对精度或速度的需求，灵活切换不同参数量级的模型（如 Student@256 或 Teacher@256）。这种设计在保证较高检测精度（NME 低至 3.95）的同时，有效控制了计算资源消耗，使其在普通硬件上也能流畅运行。此外，项目还展示了结合人脸面具的趣味应用 demo，证明了其在实时视频流处理中的稳定性。\n\n该工具基于 PyTorch、ONNX Runtime 和 OpenCV 构建，安装简便，提供了清晰的 Python API 接口，支持对图片目录、视频文件甚至摄像头实时画面进行一键检测。因此，Peppa_Pig_Face_Land","Peppa_Pig_Face_Landmark 是一个轻量级且稳定的人脸检测与对齐开源项目。它主要致力于解决在复杂场景下快速、精准地定位人脸关键点的问题，能够实时捕捉面部特征并进行标准化对齐，为后续的面部分析或特效处理提供基础数据支持。\n\n从技术实现来看，Peppa_Pig_Face_Landmark 结合了 YOLOv5-face 作为人脸检测器，并采用了优化的关键点检测模型。其独特亮点在于提供了“学生-教师”网络架构的不同预训练模型选择，用户可以根据对精度或速度的需求，灵活切换不同参数量级的模型（如 Student@256 或 Teacher@256）。这种设计在保证较高检测精度（NME 低至 3.95）的同时，有效控制了计算资源消耗，使其在普通硬件上也能流畅运行。此外，项目还展示了结合人脸面具的趣味应用 demo，证明了其在实时视频流处理中的稳定性。\n\n该工具基于 PyTorch、ONNX Runtime 和 OpenCV 构建，安装简便，提供了清晰的 Python API 接口，支持对图片目录、视频文件甚至摄像头实时画面进行一键检测。因此，Peppa_Pig_Face_Landmark 非常适合计算机视觉领域的初学者、应用开发者以及需要快速集成人脸对齐功能的研究人员使用。无论是用于构建美颜滤镜、虚拟试戴应用，还是作为人脸识别系统的前置预处理模块，它都是一个易于上手且性能可靠的参考方案。对于希望深入了解模型训练过程的进阶用户，项目也公开了完整的训练代码与文档，便于二次开发与优化。","# Peppa_Pig_Face_Engine\n[![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002F206305226.svg)](https:\u002F\u002Fzenodo.org\u002Fbadge\u002Flatestdoi\u002F206305226)\n\n\n\n## introduction\n\nIt is a simple demo including face detection and face aligment, and some optimizations were made to make the result better.\n\nclick the gif to see the video:\n[![demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002F610265158_Peppa_Pig_Face_Landmark_readme_baefcdad2779.gif)](https:\u002F\u002Fv.youku.com\u002Fv_show\u002Fid_XNDM3MTY4MTM2MA==.html?spm=a2h3j.8428770.3416059.1)\n\nand with face mask:\n![face mask](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002F610265158_Peppa_Pig_Face_Landmark_readme_7aa767884d17.gif)\n\n## requirment\n\n+ PyTorch\n+ onnxruntime  \n+ opencv\n\n## model\n\n### 1 face detector\n\n  [yolov5-face](https:\u002F\u002Fgithub.com\u002Fdeepcam-cn\u002Fyolov5-face)\n\n### 2 landmark detector\n\nSimple keypoints detector.\n\n| WFLW        | NME      | Flops(G) | Params(M) | Pose | Exp. | Ill. | Mu.  | Occ. | Blur | pretrained                                                                                      |\n|-------------|----------|----------|-----------|------|------|------|------|------|------|-------------------------------------------------------------------------------------------------|\n| Student@128 | **4.80** | 0.35     | 3.25      | 8.53 | 5.00 | 4.61 | 4.81 | 5.80 | 5.36 | [skps](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1JktGIKohpeLO14a6eJqNlZort_46qVC0?usp=share_link) |\n| Teacher@128 | **4.17** | 1.38     | 11.53     | 7.14 | 4.32 | 4.01 | 4.03 | 4.98 | 4.68 | [skps](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1JktGIKohpeLO14a6eJqNlZort_46qVC0?usp=share_link) |\n| Student@256 | **4.35** | 1.39     | 3.25      | 7.53 | 4.52 | 4.16 | 4.21 | 5.34 | 4.93 | [skps](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1Y8FvJV1X5YTUkwt5MywVFvqzStpxRK_S?usp=sharing)    |\n| Teacher@256 | **3.95** | 5.53     | 11.53     | 7.00 | 4.00 | 3.81 | 3.78 | 4.85 | 4.54 | [skps](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1Y8FvJV1X5YTUkwt5MywVFvqzStpxRK_S?usp=sharing)    |\n\n  I will release new model when there is better one.\n\n**By default student@256 is used in this project** \n\n\n\n## install\n```\ngit clone https:\u002F\u002Fgithub.com\u002F610265158\u002FPeppa_Pig_Face_Landmark\npython setup.py install\n```\n\n## useage\n\n```python\n# by code:\n\nfrom Skps import FaceAna\nfacer = FaceAna()\n\nresult= facer.run(image)\n\n## detect images, tracing is not used, add\n##  facer.reset()\n```\n\nMore details refer to demo.py\n\nrun `python demo.py --cam_id 0` use a camera    \nor  `python demo.py --video test.mp4`  detect for a video    \nor  `python demo.py --img_dir .\u002Ftest`  detect for images dir no track\n\n\n## How to train\n  The codes are placed in folder [TRAIN\u002Fface_landmark]( https:\u002F\u002Fgithub.com\u002F610265158\u002FPeppa_Pig_Face_Landmark\u002Ftree\u002Fmaster\u002FTRAIN\u002Fface_landmark) \n\n  Refer to [TRAIN\u002Fface_landmark\u002FREADME.md](https:\u002F\u002Fgithub.com\u002F610265158\u002FPeppa_Pig_Face_Landmark\u002Fblob\u002Fmaster\u002FTRAIN\u002Fface_landmark\u002FREADME.md) to train the model.\n\n\n\n\n","# 佩奇猪脸引擎\n[![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002F206305226.svg)](https:\u002F\u002Fzenodo.org\u002Fbadge\u002Flatestdoi\u002F206305226)\n\n\n\n## 简介\n\n这是一个简单的演示程序，包含人脸检测和人脸对齐功能，并进行了一些优化以提升效果。\n\n点击动图查看视频：\n[![demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002F610265158_Peppa_Pig_Face_Landmark_readme_baefcdad2779.gif)](https:\u002F\u002Fv.youku.com\u002Fv_show\u002Fid_XNDM3MTY4MTM2MA==.html?spm=a2h3j.8428770.3416059.1)\n\n加上口罩的效果：\n![带口罩](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002F610265158_Peppa_Pig_Face_Landmark_readme_7aa767884d17.gif)\n\n## 环境要求\n\n+ PyTorch\n+ onnxruntime  \n+ opencv\n\n## 模型\n\n### 1 人脸检测器\n\n  [yolov5-face](https:\u002F\u002Fgithub.com\u002Fdeepcam-cn\u002Fyolov5-face)\n\n### 2 人脸关键点检测器\n\n简单的关键点检测器。\n\n| WFLW        | NME      | 浮点运算量(G) | 参数量(M) | 姿势 | 表情 | 照明 | 年龄 | 遮挡 | 模糊 | 预训练模型                                                                                      |\n|-------------|----------|----------|-----------|------|------|------|------|------|------|-------------------------------------------------------------------------------------------------|\n| 学生版@128  | **4.80** | 0.35     | 3.25      | 8.53 | 5.00 | 4.61 | 4.81 | 5.80 | 5.36 | [skps](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1JktGIKohpeLO14a6eJqNlZort_46qVC0?usp=share_link) |\n| 教师版@128  | **4.17** | 1.38     | 11.53     | 7.14 | 4.32 | 4.01 | 4.03 | 4.98 | 4.68 | [skps](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1JktGIKohpeLO14a6eJqNlZort_46qVC0?usp=share_link) |\n| 学生版@256  | **4.35** | 1.39     | 3.25      | 7.53 | 4.52 | 4.16 | 4.21 | 5.34 | 4.93 | [skps](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1Y8FvJV1X5YTUkwt5MywVFvqzStpxRK_S?usp=sharing)    |\n| 教师版@256  | **3.95** | 5.53     | 11.53     | 7.00 | 4.00 | 3.81 | 3.78 | 4.85 | 4.54 | [skps](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1Y8FvJV1X5YTUkwt5MywVFvqzStpxRK_S?usp=sharing)    |\n\n  当有更好的模型时，我会发布新的版本。\n\n**默认情况下，本项目使用学生版@256** \n\n\n\n## 安装\n```\ngit clone https:\u002F\u002Fgithub.com\u002F610265158\u002FPeppa_Pig_Face_Landmark\npython setup.py install\n```\n\n## 使用方法\n\n```python\n# 通过代码：\n\nfrom Skps import FaceAna\nfacer = FaceAna()\n\nresult= facer.run(image)\n\n## 检测图片时，不使用跟踪功能，需添加\n##  facer.reset()\n```\n\n更多细节请参考 demo.py\n\n运行 `python demo.py --cam_id 0` 使用摄像头    \n或  `python demo.py --video test.mp4` 对视频进行检测    \n或  `python demo.py --img_dir .\u002Ftest` 对图片文件夹中的图片进行检测，不启用跟踪功能\n\n\n## 如何训练\n  相关代码位于 [TRAIN\u002Fface_landmark]( https:\u002F\u002Fgithub.com\u002F610265158\u002FPeppa_Pig_Face_Landmark\u002Ftree\u002Fmaster\u002FTRAIN\u002Fface_landmark) 文件夹中 \n\n  请参考 [TRAIN\u002Fface_landmark\u002FREADME.md](https:\u002F\u002Fgithub.com\u002F610265158\u002FPeppa_Pig_Face_Landmark\u002Fblob\u002Fmaster\u002FTRAIN\u002Fface_landmark\u002FREADME.md) 来训练模型。","# Peppa_Pig_Face_Landmark 快速上手指南\n\n## 环境准备\n\n在开始之前，请确保您的系统已安装以下依赖库：\n\n*   **PyTorch**\n*   **onnxruntime**\n*   **opencv** (OpenCV-Python)\n\n> **提示**：建议使用 Python 3.7+ 环境。如需加速依赖安装，可配置国内镜像源（如清华源或阿里源）。\n\n## 安装步骤\n\n1. 克隆项目仓库到本地：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002F610265158\u002FPeppa_Pig_Face_Landmark\n```\n\n2. 进入目录并安装：\n```bash\ncd Peppa_Pig_Face_Landmark\npython setup.py install\n```\n\n## 基本使用\n\n### 1. Python 代码调用\n\n以下是通过代码进行人脸检测和对齐的最小示例：\n\n```python\nfrom Skps import FaceAna\n\n# 初始化面部分析器\nfacer = FaceAna()\n\n# 执行检测，image 为输入图像数据\nresult = facer.run(image)\n\n# 注意：如果不使用追踪功能，建议在每次处理新序列前调用\n# facer.reset()\n```\n\n更多细节请参考项目中的 `demo.py` 文件。\n\n### 2. 运行演示脚本\n\n项目提供了多种模式的演示脚本，您可以根据需求选择运行方式：\n\n*   **调用摄像头实时检测**：\n```bash\npython demo.py --cam_id 0\n```\n\n*   **检测视频文件**：\n```bash\npython demo.py --video test.mp4\n```\n\n*   **批量检测图片目录（无追踪）**：\n```bash\npython demo.py --img_dir .\u002Ftest\n```\n\n### 模型说明\n默认情况下，项目使用 **Student@256** 模型。该模型在精度和速度之间取得了较好的平衡。如需更高精度或更快速度，可参考 README 中的模型表格自行替换预训练模型。","某短视频特效团队正在开发一款实时“卡通面具”滤镜，需要在移动端或低配服务器上实现稳定的人脸追踪与贴图对齐。\n\n### 没有 Peppa_Pig_Face_Landmark 时\n- **部署门槛高且依赖复杂**：传统高精度人脸关键点模型往往依赖庞大的深度学习框架，难以在资源受限的边缘设备或轻量级服务中快速集成，环境配置耗时耗力。\n- **极端姿态下易丢失目标**：当用户快速转头、侧脸或出现部分遮挡时，常规检测器容易丢失面部特征点，导致虚拟面具“漂移”或突然消失，严重影响用户体验。\n- **推理延迟高，卡顿明显**：为了追求精度而使用大参数量模型，导致单帧处理时间过长，无法维持流畅的实时视频流处理，画面出现明显掉帧。\n- **对齐效果生硬**：缺乏有效的面部对齐优化，贴图无法紧密贴合人脸轮廓，尤其在表情变化时，面具与五官错位严重，显得虚假且滑稽。\n\n### 使用 Peppa_Pig_Face_Landmark 后\n- **轻量化集成，开箱即用**：基于 ONNX Runtime 和 PyTorch，模型参数极小（如 Student@256 仅 3.25M），依赖简单，可轻松嵌入现有 Python 服务或转换为端侧格式，大幅缩短开发周期。\n- **鲁棒性强，稳定追踪**：得益于 YOLOv5-face 检测器与优化的关键点算法，即使在侧脸、模糊或轻微遮挡情况下，仍能保持稳定的关键点定位，确保面具始终“粘”在脸上。\n- **实时性显著提升**：极低的计算量（Flops 仅 1.39G）使得在普通 CPU 或入门级 GPU 上也能实现高帧率运行，保证视频流流畅无卡顿。\n- **自然贴合，体验升级**：内置的面部对齐优化机制，使虚拟贴图能根据人脸姿态和表情动态调整，实现更自然的视觉融合效果，提升用户互动乐趣。\n\nPeppa_Pig_Face_Landmark 以极简的架构实现了高性能的人脸对齐，为轻量级实时人脸特效应用提供了兼具速度与稳定性的理想解决方案。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002F610265158_Peppa_Pig_Face_Landmark_ad02605a.png","610265158","Lz","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002F610265158_8e79b1ab.png","Looking for a job.",null,"CN","2120140200@mail.nankai.edu.cn","https:\u002F\u002Fgithub.com\u002F610265158",[85,89],{"name":86,"color":87,"percentage":88},"Python","#3572A5",99.9,{"name":90,"color":91,"percentage":92},"Shell","#89e051",0.1,547,113,"2026-03-15T07:35:12","Apache-2.0","未说明",{"notes":99,"python":97,"dependencies":100},"README中未明确指定Python版本、操作系统及具体的硬件配置要求。主要依赖为PyTorch、onnxruntime和opencv。默认使用Student@256模型进行关键点检测，人脸检测基于yolov5-face。安装方式为克隆仓库后运行 python setup.py install。",[101,102,103],"PyTorch","onnxruntime","opencv",[14,13],[106,107,108,109,110,111],"facedetect","face-alignment","face-keypoint","face-mask","keypoint","pytorch","2026-03-27T02:49:30.150509","2026-04-06T07:14:50.794193",[115,120,125,130,135,140,145,150],{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},11662,"如何提高人脸检测的准确率并减少误检？","该项目使用 OpenCV DNN 进行人脸检测，然后将检测到的框传递给关键点检测方法。如果检测到非人脸物体，可以通过调整检测阈值或使用更严格的检测器来优化。维护者指出 `judge_boxs` 函数用于细化检测结果。建议集成 OpenCV DNN 人脸检测以获得更好的效果。","https:\u002F\u002Fgithub.com\u002F610265158\u002FPeppa_Pig_Face_Landmark\u002Fissues\u002F22",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},11663,"是否有 C++ 版本的实现？TF1 和 TF2 模型精度有差异吗？","可以参考 C++ 接口进行实现。关于 TensorFlow 1.x 和 2.0 训练的模型，维护者表示两者在精度上应该没有太大差异，但未进行具体比对。如果使用 TF 1.13.1 加载 TF 2.0 训练的模型报错，建议尝试使用 tf1 分支的模型，通常可以成功加载。","https:\u002F\u002Fgithub.com\u002F610265158\u002FPeppa_Pig_Face_Landmark\u002Fissues\u002F16",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},11664,"视频中关键点抖动问题如何解决？归一化对抖动有影响吗？","关键点抖动的主要原因来自数据标注的质量以及输入数据的信噪比，而非坐标是否归一化。维护者认为归一化（0-1 映射）对 CNN 拟合影响不大。虽然代码中利用前一帧结果做了平滑处理，但若仍有抖动，建议检查数据质量或尝试使用 L1 Loss 替代 Wing Loss，因为 L1 Loss 对小误差有较强的惩罚，可能有助于稳定结果。","https:\u002F\u002Fgithub.com\u002F610265158\u002FPeppa_Pig_Face_Landmark\u002Fissues\u002F3",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},11665,"如何将模型转换为 TensorFlow Lite (TFLite) 格式？","转换检测器模型为 TFLite 时，需指定固定的输入形状，例如 `[1, 160, 160, 3]`，这样可以避免形状动态导致的错误，并在单人脸检测场景下提升约 3 倍以上的推理速度。如果需要减小关键点模型的输入形状，则需要重新训练模型。","https:\u002F\u002Fgithub.com\u002F610265158\u002FPeppa_Pig_Face_Landmark\u002Fissues\u002F4",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},11666,"模型输出的 Headpose（头部姿态）参数顺序是什么？为何要重新计算？","模型中直接输出的 headpose 参数顺序应与重新计算的顺序一致（通常为 Yaw, Pitch, Roll），但维护者建议通过测试确认。重新计算头部旋转角度并没有特殊原因，直接使用模型输出与重新计算的结果差异很小。如果关注具体实现，可以对比两者结果。","https:\u002F\u002Fgithub.com\u002F610265158\u002FPeppa_Pig_Face_Landmark\u002Fissues\u002F7",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},11667,"为什么 TFLite 模型在 GPU 上运行不快？如何优化部署性能？","TFLite 在该模型结构下性能不佳是一个工程问题。当前模型中的 Shuffle 操作包含 Pack OP，这在某些推理框架中耗时较多。建议在部署前对模型结构进行调优。如果追求高性能，建议使用 MobileNet 等更适合的结构，或者尝试使用 MNN、NCNN 等推理框架，并根据目标设备进行模型结构调整。维护者后续计划训练 MBV3 模型以提升性能。","https:\u002F\u002Fgithub.com\u002F610265158\u002FPeppa_Pig_Face_Landmark\u002Fissues\u002F25",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},11668,"人脸被遮挡时程序崩溃或出现 Bug 如何处理？","当人脸突然被遮挡时，可能会导致传入的数据为 None 或异常，从而引发错误。目前的 Demo 版本未对遮挡情况进行完善处理。临时解决方案是在预处理阶段添加人脸大小判断，过滤掉无效的人脸框。维护者承认这是已知问题，后续版本会增加对遮挡的判断和处理逻辑。","https:\u002F\u002Fgithub.com\u002F610265158\u002FPeppa_Pig_Face_Landmark\u002Fissues\u002F10",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},11669,"如何提高头部姿态估计（Head Pose Estimation）的鲁棒性？","如果头部姿态估计不够稳健（例如 yaw 变化时 pitch\u002Froll 也异常变化），可能是因为使用的关键点数量不足或算法局限。维护者建议使用更多的关键点参与计算，或者采用更先进的头部姿态估计算法来提升结果准确性。此外，确保摄像头校准准确以减少镜头畸变也有帮助。","https:\u002F\u002Fgithub.com\u002F610265158\u002FPeppa_Pig_Face_Landmark\u002Fissues\u002F5",[156,161],{"id":157,"version":158,"summary_zh":159,"released_at":160},62154,"1.0.0","新的基线","2023-05-04T05:03:29",{"id":162,"version":163,"summary_zh":164,"released_at":165},62155,"0.0.1","第一条基线","2023-05-04T03:53:51"]