[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-xinntao--facexlib":3,"tool-xinntao--facexlib":61},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":24,"last_commit_at":59,"category_tags":60,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":24,"env_os":92,"env_gpu":93,"env_ram":92,"env_deps":94,"category_tags":99,"github_topics":101,"view_count":24,"oss_zip_url":80,"oss_zip_packed_at":80,"status":17,"created_at":113,"updated_at":114,"faqs":115,"releases":151},10157,"xinntao\u002Ffacexlib","facexlib","FaceXlib aims at providing ready-to-use face-related functions based on current STOA open-source methods.","facexlib 是一个专为开发者打造的 Python 工具库，旨在提供开箱即用的人脸处理功能。它基于当前业界最先进的开源算法，将人脸检测、关键点定位（对齐）、身份识别、语义分割、人像抠图、头部姿态估计、目标跟踪以及图像质量评估等复杂任务封装成简洁的接口，让用户无需深入研究底层模型即可快速集成到项目中。\n\n在人脸识别与处理应用中，从零复现或整合多个独立算法往往耗时且容易遇到环境兼容问题。facexlib 有效解决了这一痛点，它统一了依赖管理，并支持在首次运行时自动下载预训练模型，极大地降低了部署门槛。虽然它主要提供推理代码而非训练框架，但其模块化设计非常适合需要快速验证想法或构建原型的场景。\n\n该工具特别适合计算机视觉领域的软件工程师、算法研究人员以及 AI 应用开发者使用。只要具备基础的 PyTorch 环境，即可轻松调用其强大功能。值得一提的是，facexlib 并非单一算法，而是精心集成了如 RetinaFace、MODNet、SORT 等多个知名开源项目的核心能力，并在尊重原始许可证的前提下提供了统一的调用体验。如果你正在开发涉及人脸分析的应用程序，facexlib 能帮助你节","facexlib 是一个专为开发者打造的 Python 工具库，旨在提供开箱即用的人脸处理功能。它基于当前业界最先进的开源算法，将人脸检测、关键点定位（对齐）、身份识别、语义分割、人像抠图、头部姿态估计、目标跟踪以及图像质量评估等复杂任务封装成简洁的接口，让用户无需深入研究底层模型即可快速集成到项目中。\n\n在人脸识别与处理应用中，从零复现或整合多个独立算法往往耗时且容易遇到环境兼容问题。facexlib 有效解决了这一痛点，它统一了依赖管理，并支持在首次运行时自动下载预训练模型，极大地降低了部署门槛。虽然它主要提供推理代码而非训练框架，但其模块化设计非常适合需要快速验证想法或构建原型的场景。\n\n该工具特别适合计算机视觉领域的软件工程师、算法研究人员以及 AI 应用开发者使用。只要具备基础的 PyTorch 环境，即可轻松调用其强大功能。值得一提的是，facexlib 并非单一算法，而是精心集成了如 RetinaFace、MODNet、SORT 等多个知名开源项目的核心能力，并在尊重原始许可证的前提下提供了统一的调用体验。如果你正在开发涉及人脸分析的应用程序，facexlib 能帮助你节省大量重复造轮子的时间，让创作过程更加流畅高效。","# ![icon](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxinntao_facexlib_readme_6781854fb7a3.png) FaceXLib\n\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Ffacexlib)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ffacexlib\u002F)\n[![download](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdownloads\u002Fxinntao\u002Ffacexlib\u002Ftotal.svg)](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Freleases)\n[![Open issue](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fxinntao\u002Ffacexlib)](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fissues)\n[![Closed issue](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-closed\u002Fxinntao\u002Ffacexlib)](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fissues)\n[![LICENSE](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fxinntao\u002Ffacexlib.svg)](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fblob\u002Fmaster\u002FLICENSE)\n[![python lint](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Factions\u002Fworkflows\u002Fpylint.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fblob\u002Fmaster\u002F.github\u002Fworkflows\u002Fpylint.yml)\n[![Publish-pip](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Factions\u002Fworkflows\u002Fpublish-pip.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fblob\u002Fmaster\u002F.github\u002Fworkflows\u002Fpublish-pip.yml)\n\n[English](README.md) **|** [简体中文](README_CN.md)\n\n---\n\n**facexlib** aims at providing ready-to-use **face-related** functions based on current SOTA open-source methods. \u003Cbr>\nOnly PyTorch reference codes are available. For training or fine-tuning, please refer to their original repositories listed below. \u003Cbr>\nNote that we just provide a collection of these algorithms. You need to refer to their original LICENCEs for your intended use.\n\nIf facexlib is helpful in your projects, please help to :star: this repo. Thanks:blush: \u003Cbr>\nOther recommended projects: &emsp; :arrow_forward: [Real-ESRGAN](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FReal-ESRGAN) &emsp; :arrow_forward: [GFPGAN](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN) &emsp; :arrow_forward: [BasicSR](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR)\n\n---\n\n## :sparkles: Functions\n\n| Function | Sources  | Original LICENSE |\n| :--- | :---:        |     :---:      |\n| [Detection](facexlib\u002Fdetection\u002FREADME.md) | [Pytorch_Retinaface](https:\u002F\u002Fgithub.com\u002Fbiubug6\u002FPytorch_Retinaface) | MIT |\n| [Alignment](facexlib\u002Falignment\u002FREADME.md) |[AdaptiveWingLoss](https:\u002F\u002Fgithub.com\u002Fprotossw512\u002FAdaptiveWingLoss) | Apache 2.0 |\n| [Recognition](facexlib\u002Frecognition\u002FREADME.md) | [InsightFace_Pytorch](https:\u002F\u002Fgithub.com\u002FTreB1eN\u002FInsightFace_Pytorch) | MIT |\n| [Parsing](facexlib\u002Fparsing\u002FREADME.md) | [face-parsing.PyTorch](https:\u002F\u002Fgithub.com\u002Fzllrunning\u002Fface-parsing.PyTorch) | MIT |\n| [Matting](facexlib\u002Fmatting\u002FREADME.md) | [MODNet](https:\u002F\u002Fgithub.com\u002FZHKKKe\u002FMODNet) | CC 4.0 |\n| [Headpose](facexlib\u002Fheadpose\u002FREADME.md) | [deep-head-pose](https:\u002F\u002Fgithub.com\u002Fnatanielruiz\u002Fdeep-head-pose) | Apache 2.0  |\n| [Tracking](facexlib\u002Ftracking\u002FREADME.md) |  [SORT](https:\u002F\u002Fgithub.com\u002Fabewley\u002Fsort) | GPL 3.0 |\n| [Assessment](facexlib\u002Fassessment\u002FREADME.md) | [hyperIQA](https:\u002F\u002Fgithub.com\u002FSSL92\u002FhyperIQA) | - |\n| [Utils](facexlib\u002Futils\u002FREADME.md) | Face Restoration Helper | - |\n\n## :eyes: Demo and Tutorials\n\n## :wrench: Dependencies and Installation\n\n- Python >= 3.7 (Recommend to use [Anaconda](https:\u002F\u002Fwww.anaconda.com\u002Fdownload\u002F#linux) or [Miniconda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002Fminiconda.html))\n- [PyTorch >= 1.7](https:\u002F\u002Fpytorch.org\u002F)\n- Option: NVIDIA GPU + [CUDA](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-downloads)\n\n### Installation\n\n```bash\npip install facexlib\n```\n\n### Pre-trained models\n\nIt will **automatically** download pre-trained models at the first inference. \u003Cbr>\nIf your network is not stable, you can download in advance (may with other download tools), and put them in the folder: `PACKAGE_ROOT_PATH\u002Ffacexlib\u002Fweights`.\n\n## :scroll: License and Acknowledgement\n\nThis project is released under the MIT license. \u003Cbr>\n\n## :e-mail: Contact\n\nIf you have any question, open an issue or email `xintao.wang@outlook.com`.\n","# ![icon](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxinntao_facexlib_readme_6781854fb7a3.png) FaceXLib\n\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Ffacexlib)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ffacexlib\u002F)\n[![下载量](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdownloads\u002Fxinntao\u002Ffacexlib\u002Ftotal.svg)](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Freleases)\n[![未解决的问题](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fxinntao\u002Ffacexlib)](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fissues)\n[![已解决的问题](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-closed\u002Fxinntao\u002Ffacexlib)](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fissues)\n[![许可证](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fxinntao\u002Ffacexlib.svg)](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fblob\u002Fmaster\u002FLICENSE)\n[![Python 代码风格检查](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Factions\u002Fworkflows\u002Fpylint.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fblob\u002Fmaster\u002F.github\u002Fworkflows\u002Fpylint.yml)\n[![发布到 PyPI](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Factions\u002Fworkflows\u002Fpublish-pip.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fblob\u002Fmaster\u002F.github\u002Fworkflows\u002Fpublish-pip.yml)\n\n[English](README.md) **|** [简体中文](README_CN.md)\n\n---\n\n**facexlib** 的目标是基于当前最先进的开源方法，提供开箱即用的 **人脸相关** 功能。 \u003Cbr>\n目前仅提供 PyTorch 参考代码。如需训练或微调，请参考下方列出的原始仓库。 \u003Cbr>\n请注意，我们仅对这些算法进行了整理和集成，具体使用时请务必参考其原始许可证。\n\n如果 facexlib 对您的项目有所帮助，请为本仓库点个赞 :star: 。感谢您 :blush: \u003Cbr>\n其他推荐项目： &emsp; :arrow_forward: [Real-ESRGAN](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FReal-ESRGAN) &emsp; :arrow_forward: [GFPGAN](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN) &emsp; :arrow_forward: [BasicSR](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR)\n\n---\n\n## :sparkles: 功能\n\n| 功能 | 来源  | 原始许可证 |\n| :--- | :---:        |     :---:      |\n| [检测](facexlib\u002Fdetection\u002FREADME.md) | [Pytorch_Retinaface](https:\u002F\u002Fgithub.com\u002Fbiubug6\u002FPytorch_Retinaface) | MIT |\n| [对齐](facexlib\u002Falignment\u002FREADME.md) |[AdaptiveWingLoss](https:\u002F\u002Fgithub.com\u002Fprotossw512\u002FAdaptiveWingLoss) | Apache 2.0 |\n| [识别](facexlib\u002Frecognition\u002FREADME.md) | [InsightFace_Pytorch](https:\u002F\u002Fgithub.com\u002FTreB1eN\u002FInsightFace_Pytorch) | MIT |\n| [分割](facexlib\u002Fparsing\u002FREADME.md) | [face-parsing.PyTorch](https:\u002F\u002Fgithub.com\u002Fzllrunning\u002Fface-parsing.PyTorch) | MIT |\n| [抠图](facexlib\u002Fmatting\u002FREADME.md) | [MODNet](https:\u002F\u002Fgithub.com\u002FZHKKKe\u002FMODNet) | CC 4.0 |\n| [头部姿态估计](facexlib\u002Fheadpose\u002FREADME.md) | [deep-head-pose](https:\u002F\u002Fgithub.com\u002Fnatanielruiz\u002Fdeep-head-pose) | Apache 2.0  |\n| [跟踪](facexlib\u002Ftracking\u002FREADME.md) |  [SORT](https:\u002F\u002Fgithub.com\u002Fabewley\u002Fsort) | GPL 3.0 |\n| [质量评估](facexlib\u002Fassessment\u002FREADME.md) | [hyperIQA](https:\u002F\u002Fgithub.com\u002FSSL92\u002FhyperIQA) | - |\n| [工具](facexlib\u002Futils\u002FREADME.md) | 人脸修复助手 | - |\n\n## :eyes: 演示与教程\n\n## :wrench: 依赖与安装\n\n- Python >= 3.7（建议使用 [Anaconda](https:\u002F\u002Fwww.anaconda.com\u002Fdownload\u002F#linux) 或 [Miniconda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002Fminiconda.html)）\n- [PyTorch >= 1.7](https:\u002F\u002Fpytorch.org\u002F)\n- 可选：NVIDIA GPU + [CUDA](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-downloads)\n\n### 安装\n\n```bash\npip install facexlib\n```\n\n### 预训练模型\n\n首次推理时会 **自动** 下载预训练模型。 \u003Cbr>\n如果网络不稳定，您可以提前下载（可使用其他下载工具），并将模型文件放置在 `PACKAGE_ROOT_PATH\u002Ffacexlib\u002Fweights` 目录下。\n\n## :scroll: 许可证与致谢\n\n本项目采用 MIT 许可证发布。 \u003Cbr>\n\n## :e-mail: 联系方式\n\n如有任何问题，请提交 Issue 或发送邮件至 `xintao.wang@outlook.com`。","# FaceXLib 快速上手指南\n\nFaceXLib 是一个基于当前最先进（SOTA）开源方法的面部相关功能库，提供开箱即用的检测、对齐、识别、解析、抠图、姿态估计、跟踪及质量评估等功能。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux \u002F Windows \u002F macOS\n*   **Python**: >= 3.7 (推荐使用 [Anaconda](https:\u002F\u002Fwww.anaconda.com\u002F) 或 [Miniconda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002Fminiconda.html) 管理环境)\n*   **深度学习框架**: PyTorch >= 1.7\n*   **硬件加速 (可选)**: NVIDIA GPU + CUDA (推荐安装以显著提升推理速度)\n\n## 安装步骤\n\n### 1. 安装依赖\n建议使用国内镜像源加速安装过程。\n\n```bash\npip install facexlib -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n如果需要手动安装 PyTorch（未安装情况下），请访问 [PyTorch 官网](https:\u002F\u002Fpytorch.org\u002F) 获取适合您环境的命令，或使用清华源：\n\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n```\n*(注：`cu118` 仅为示例，请根据实际 CUDA 版本调整)*\n\n### 2. 预训练模型说明\n首次运行推理代码时，库会**自动下载**所需的预训练模型。\n*   **网络不稳定用户**：可提前手动下载模型文件，并放置于 `PACKAGE_ROOT_PATH\u002Ffacexlib\u002Fweights` 目录下。\n*   模型下载地址通常可在各功能模块的 README 或 GitHub Releases 页面找到。\n\n## 基本使用\n\n以下是一个最简单的人脸检测示例：\n\n```python\nfrom facexlib.detection import init_detection_model, detect_face\n\n# 1. 初始化检测模型 (自动下载权重)\ndet_net = init_detection_model('retinaface_resnet50', half=False)\n\n# 2. 准备图像 (假设 img 为 numpy 数组，格式为 HxWxC, RGB)\n# img = cv2.imread('test.jpg') \n# img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)\n\n# 3. 执行检测\nbboxes, scores, landmarks = detect_face(img, 0.95, det_net, 'cuda')\n\n# 输出结果\nprint(f\"检测到人脸数量：{len(bboxes)}\")\nprint(f\"边界框坐标：{bboxes}\")\n```\n\n**其他功能模块**（如对齐、识别、解析等）的使用方式类似，均需先通过 `init_xxx_model` 初始化模型，再调用对应的处理函数。具体参数请参考各子模块文档。","某智能会议系统开发团队需要为线上会议平台构建自动化的参会者身份核验与注意力分析功能。\n\n### 没有 facexlib 时\n- **集成繁琐**：开发者需分别寻找人脸检测、关键点定位、识别等不同算法的独立仓库，逐一配置环境并解决依赖冲突，耗时数天。\n- **接口不一**：各开源项目输入输出格式差异巨大，需要编写大量“胶水代码”进行数据转换，导致系统架构臃肿且难以维护。\n- **效果参差不齐**：自行筛选的模型在复杂光照或侧脸场景下表现不稳定，缺乏统一的评估标准，难以保证生产环境的鲁棒性。\n- **授权风险**：不同算法的许可证（License）混杂（如 GPL、Apache 2.0 等），人工核查合规性极易疏漏，存在法律隐患。\n\n### 使用 facexlib 后\n- **一键调用**：通过 `pip install facexlib` 即可集成检测、对齐、识别、头部姿态估计等全套 SOTA 算法，将原本数周的集成工作缩短至几小时。\n- **统一规范**：所有功能模块提供标准化的 PyTorch 接口，输入输出一致，开发者无需关注底层实现细节，代码清晰度显著提升。\n- **性能可靠**：直接复用经过验证的业界领先模型（如 RetinaFace、InsightFace），在遮挡和姿态变化场景下依然保持高精度识别。\n- **权责清晰**：工具明确列出了每个功能模块对应的原始许可证，帮助团队快速完成合规性审查，规避知识产权风险。\n\nfacexlib 将分散的人脸算法整合为标准化的“工具箱”，让开发者从重复的模型集成中解放出来，专注于核心业务逻辑的创新。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxinntao_facexlib_7ceddc9e.png","xinntao","Xintao","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fxinntao_f13bf2bf.jpg","Researcher at Tencent ARC Lab, (Applied Research Center)","Tencent","Shenzhen, China","xintao.alpha@gmail.com",null,"https:\u002F\u002Fxinntao.github.io\u002F","https:\u002F\u002Fgithub.com\u002Fxinntao",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,976,167,"2026-04-17T04:40:37","MIT","未说明","可选（Option）：需要 NVIDIA GPU 及 CUDA；未明确具体型号、显存大小或 CUDA 版本",{"notes":95,"python":96,"dependencies":97},"建议使用 Anaconda 或 Miniconda 管理环境。首次推理时会自动下载预训练模型，若网络不稳定可手动下载并放置于 `PACKAGE_ROOT_PATH\u002Ffacexlib\u002Fweights` 目录。本项目仅包含 PyTorch 参考代码，训练或微调需参考原始仓库。不同功能模块遵循不同的原始许可证（如 MIT, Apache 2.0, GPL 3.0 等），使用前请查阅对应许可。",">=3.7",[98],"PyTorch>=1.7",[100,14,15],"音频",[102,103,104,105,106,107,108,109,110,111,112],"pytorch","deep-learning","face","detection","alignment","recognition","parsing","matting","headpose","tracking","assessment","2026-03-27T02:49:30.150509","2026-04-20T19:32:32.137148",[116,121,126,131,136,141,146],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},45611,"如何安装 facexlib？README 中的链接失效了怎么办？","这是一个 Python 包，可以直接通过 pip 安装：\npip install facexlib\n\n如果 README 中的链接失效，可以直接浏览仓库目录获取示例脚本，例如：\n- 推理脚本：https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Ftree\u002Fmaster\u002Finference\n- 其他脚本：https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Ftree\u002Fmaster\u002Fscripts","https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fissues\u002F12",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},45612,"facexlib 是否支持在没有 CUDA（仅 CPU）的环境下运行？","是的，可以支持。虽然原始的 StyleGAN 模型需要自定义 CUDA 扩展，但作者已更新版本不再强制依赖这些扩展，因此 GFPGAN 可以在 CPU 或 Windows 上运行。\n\n注意事项：\n1. 确保不使用特定的 CUDA 扩展（如 deform_conv），BasicSR 本身支持纯 CPU 模式。\n2. 如果遇到 \"CUDA_HOME environment variable is not set\" 错误，请检查代码中是否有设备检查逻辑，建议添加 CPU 支持选项或直接使用更新后的代码库。","https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fissues\u002F5",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},45613,"face_template 中的坐标数值是如何计算出来的？","这些数值是基于人脸对齐标准计算的。对于 FFHQ 数据集，使用的是 dlib 库，其人脸对齐基于 68 个关键点（landmarks）。\n\n具体背景：\n- dlib 的人脸检测器使用 HOG 特征和线性分类器。\n- 姿态估计器基于论文《One Millisecond Face Alignment with an Ensemble of Regression Trees》实现，并在 iBUG 300-W 人脸关键点数据集上训练。\n- 这些坐标代表了标准人脸模板中眼睛、鼻子和嘴唇等关键部位的位置。","https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fissues\u002F14",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},45614,"FaceRestoreHelper 在多线程环境下是否安全？如何解决线程冲突问题？","FaceRestoreHelper 默认不是线程安全的。在多线程环境（如结合 GFPGAN 使用时）会导致性能限制或报错（如 'numpy.ndarray' object has no attribute 'append'）。\n\n解决方案：\n在使用实例之前，需要通过 threading.Lock() 或 threading.Semaphore() 进行保护。\n参考实现代码（来自 roop 项目）：\nhttps:\u002F\u002Fgithub.com\u002Fs0md3v\u002Froop\u002Fblob\u002Fmain\u002Froop\u002Fprocessors\u002Fframe\u002Fface_enhancer.py\n\n简而言之，请在创建或使用 FaceRestoreHelper 实例时包裹在线程锁中。","https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fissues\u002F42",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},45615,"遇到 \"can't convert cuda:0 device type tensor to numpy\" 错误如何解决？","该错误通常发生在尝试直接将 CUDA 设备上的 Tensor 转换为 NumPy 数组时。\n\n错误信息示例：\nTypeError: can't convert cuda:0 device type tensor to numpy. Use Tensor.cpu() to copy the tensor to host memory first.\n\n解决方法：\n在代码中将 Tensor 先转移到 CPU 再转换。例如，在 retinaface.py 或相关检测代码中，确保在调用 .numpy() 之前执行 .cpu()：\ntensor.cpu().numpy()\n\n注意：这通常与特定环境配置无关，而是代码中设备处理逻辑的问题。","https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fissues\u002F36",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},45616,"过滤小角度或小人脸的代码逻辑是否有误？眼睛距离计算是否正确？","是的，此前代码中存在 Bug。在 `face_restoration_helper.py` 中计算眼睛距离时，索引使用错误。\n\n原始错误代码使用了错误的索引来计算眼距，导致无法正确过滤侧脸或过小的人脸。\n\n修复方案：\n应使用正确的关键点索引来计算距离。根据 bbox 数组结构 `[x1, y1, x2, y2, score, eye1_x, eye1_y, eye2_x, eye2_y, ...]`，计算两眼距离的正确代码应为：\nnp.linalg.norm([bbox[5] - bbox[7], bbox[6] - bbox[8]])\n\n该问题已被维护者确认并合并修复。","https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fissues\u002F28",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},45617,"为什么示例脚本中导入的 ResNetArcFace 等模块找不到？","示例脚本 `inference\u002Finference_recognition.py` 中引用的 `ResNetArcFace`, `cosin_metric`, `load_image` 等功能在当前版本的 `facexlib.recognition` 中可能已被移除或重构。\n\n建议查看相关讨论（如 Issue #11）以获取最新的人脸嵌入（face embeddings）提取演示脚本，或者直接查阅仓库最新的 inference 目录下的可用示例。","https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fissues\u002F57",[152,157,162,167,172],{"id":153,"version":154,"summary_zh":155,"released_at":156},360483,"v0.2.5","🚀 好久不见 ☄️\n\n✨ **亮点**\n✅ [支持更改模型根路径以保存模型](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fcommit\u002F7655b7cde3073c641efc91414c230e81002ce285)，这样 facexlib 就不需要将模型保存在 `site-pacakge` 路径下了。\n✅ [支持 FaceRestoreHelper 的 CPU 模式](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fcommit\u002F4f7e851b934825123229449bfe2f033d871b7de7)\n✅ [向 face_restoration_helper 中添加 Parsenet](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fcommit\u002Fd0ea779a00ca945fbfbbdcdec4ddb895ee878be7)\n\n\n\u003Cp align=\"center\">\n   \u003Cimg src=\"https:\u002F\u002Fraw.githubusercontent.com\u002Fxinntao\u002Ffacexlib\u002Fmaster\u002Fassets\u002Ficon.png\" height=150>\n\u003C\u002Fp>","2022-08-31T09:46:01",{"id":158,"version":159,"summary_zh":160,"released_at":161},360484,"v0.2.2","🚀 祝您有美好的一天\n\n:sparkles: **亮点** \n\n- [增强] 我们更新了 [face_restoration_helper.py](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fcommit\u002Fb62be220b87cfb87cc926c36296b39400e1f38cd#diff-a0499d9baa6a7010f5cc5c2be2d3a7bb4c3a4816699554013cc8f9af56609455)。现在它在 `cv2.estimateAffinePartial2D` 中使用 cv2.LMEDS 方法，从而能够产生与 skimage transform 相同的结果。\n- 我们为低质量人脸输入添加了一个人脸解析网络。\n\n本次发布还存储了以下预训练模型 ;-)\n1. parsing_parsenet.pth","2022-02-13T14:46:39",{"id":163,"version":164,"summary_zh":165,"released_at":166},360485,"v0.2.1.0","🚀 祝您有美好的一天！\n\n✨ **亮点**\n\n修复 FaceRestoreHelper 中的 bug：\n1. 修复 FaceRestoreHelper 中粘贴回原图时对齐不准确的问题：https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fcommit\u002Fa3395607634bb1ab9455621eaedb41ceab346466\n2. 移除双眼间距过小的人脸，例如侧脸或过小的脸：https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fcommit\u002F24493fc888acb03ca627ed07cd75376ab56c85bc，示例见：https:\u002F\u002Fgithub.com\u002Fxinntao\u002FReal-ESRGAN\u002Fissues\u002F72\n\nFaceRestoreHelper 的增强功能\n1. 支持 Alpha 通道和灰度图像：https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\u002Fcommit\u002F3c06885f8b12b47863a2be4c258397fc1ef23974","2021-09-10T08:21:03",{"id":168,"version":169,"summary_zh":170,"released_at":171},360486,"v0.2.0","🚀\n\n:sparkles: **亮点** \n\n我们进行了大量更新！\n\n1. `face_restoration_helper` 支持对多张人脸进行 `pad_blur` 处理\n2. 新增人脸抠图功能\n3. 新增人脸解析功能\n4. 新增人脸头部姿态估计功能\n5. 新增评估功能\n\n本次发布还存储了以下预训练模型 ;-)\n1. assessment_hyperIQA.pth\n2. matting_modnet_portrait.pth\n3. parsing_bisenet.pth\n4. headpose_hopenet.pth","2021-08-06T06:53:32",{"id":173,"version":174,"summary_zh":175,"released_at":176},360487,"v0.1.0","🚀\n\n:sparkles: **亮点** \n\n哇，我们有一个新的库——facexlib。 \n\n这次发布主要是用于存储以下预训练模型；-）\n\n1. alignment_WFLW_4HG.pth\n2. detection_mobilenet0.25_Final.pth\n3. detection_Resnet50_Final.pth\n4. recognition_arcface_ir_se50.pth\n","2021-06-07T12:53:02"]