[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-TencentARC--GFPGAN":3,"tool-TencentARC--GFPGAN":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":76,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":10,"env_os":89,"env_gpu":90,"env_ram":91,"env_deps":92,"category_tags":100,"github_topics":101,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":109,"updated_at":110,"faqs":111,"releases":141},8827,"TencentARC\u002FGFPGAN","GFPGAN","GFPGAN aims at developing Practical Algorithms for Real-world Face Restoration.","GFPGAN 是一款专注于现实世界人脸修复的开源 AI 工具，由腾讯 ARC 实验室研发。它主要解决老照片模糊、低分辨率视频人脸不清或因压缩导致的面部细节丢失等难题，能够将受损严重的人脸图像恢复得清晰自然。\n\n与传统的修复方法不同，GFPGAN 的独特之处在于巧妙利用了预训练人脸生成对抗网络（如 StyleGAN2）中蕴含的丰富先验知识。这种“盲脸修复”技术让模型即使在没有清晰原图参考的情况下，也能智能推测并重建出符合人体结构的高保真五官细节，有效避免了修复后人脸失真或僵硬的问题。项目持续迭代，最新模型在极低画质输入下也能呈现更自然的肤色与纹理，甚至支持动漫风格图像的优化。\n\nGFPGAN 既适合研究人员和开发者进行算法探索与二次开发（提供 PyPI 包及 Colab 演示），也方便设计师用于老旧影像资料的数字化修复。对于普通用户，通过 Hugging Face 或 Replicate 等平台提供的在线演示，无需配置复杂环境即可一键体验高清人脸修复效果。无论是挽救家庭老照片，还是提升影视素材画质，GFPGAN 都提供了一个高效且实用的解决方案。","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencentARC_GFPGAN_readme_34445e8889ce.png\" height=130>\n\u003C\u002Fp>\n\n## \u003Cdiv align=\"center\">\u003Cb>\u003Ca href=\"README.md\">English\u003C\u002Fa> | \u003Ca href=\"README_CN.md\">简体中文\u003C\u002Fa>\u003C\u002Fb>\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\u003C!-- \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002F_Xintao_\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencentARC_GFPGAN_readme_73d902a97e57.png\" width=\"4%\" alt=\"\" \u002F>\n\u003C\u002Fa> -->\n\n[![download](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdownloads\u002FTencentARC\u002FGFPGAN\u002Ftotal.svg)](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases)\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fgfpgan)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fgfpgan\u002F)\n[![Open issue](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FTencentARC\u002FGFPGAN)](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fissues)\n[![Closed issue](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-closed\u002FTencentARC\u002FGFPGAN)](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fissues)\n[![LICENSE](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache%202.0-blue.svg)](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fblob\u002Fmaster\u002FLICENSE)\n[![python lint](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Factions\u002Fworkflows\u002Fpylint.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fblob\u002Fmaster\u002F.github\u002Fworkflows\u002Fpylint.yml)\n[![Publish-pip](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Factions\u002Fworkflows\u002Fpublish-pip.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fblob\u002Fmaster\u002F.github\u002Fworkflows\u002Fpublish-pip.yml)\n\u003C\u002Fdiv>\n\n1. :boom: **Updated** online demo: [![Replicate](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=Demo&message=Replicate&color=blue)](https:\u002F\u002Freplicate.com\u002Ftencentarc\u002Fgfpgan). Here is the [backup](https:\u002F\u002Freplicate.com\u002Fxinntao\u002Fgfpgan).\n1. :boom: **Updated** online demo: [![Huggingface Gradio](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=Demo&message=Huggingface%20Gradio&color=orange)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FXintao\u002FGFPGAN)\n1. [Colab Demo](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo) for GFPGAN \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"google colab logo\">\u003C\u002Fa>; (Another [Colab Demo](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1Oa1WwKB4M4l1GmR7CtswDVgOCOeSLChA?usp=sharing) for the original paper model)\n\n\u003C!-- 3. Online demo: [Replicate.ai](https:\u002F\u002Freplicate.com\u002Fxinntao\u002Fgfpgan) (may need to sign in, return the whole image)\n4. Online demo: [Baseten.co](https:\u002F\u002Fapp.baseten.co\u002Fapplications\u002FQ04Lz0d\u002Foperator_views\u002F8qZG6Bg) (backed by GPU, returns the whole image)\n5. We provide a *clean* version of GFPGAN, which can run without CUDA extensions. So that it can run in **Windows** or on **CPU mode**. -->\n\n> :rocket: **Thanks for your interest in our work. You may also want to check our new updates on the *tiny models* for *anime images and videos* in [Real-ESRGAN](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FReal-ESRGAN\u002Fblob\u002Fmaster\u002Fdocs\u002Fanime_video_model.md)** :blush:\n\nGFPGAN aims at developing a **Practical Algorithm for Real-world Face Restoration**.\u003Cbr>\nIt leverages rich and diverse priors encapsulated in a pretrained face GAN (*e.g.*, StyleGAN2) for blind face restoration.\n\n:question: Frequently Asked Questions can be found in [FAQ.md](FAQ.md).\n\n:triangular_flag_on_post: **Updates**\n\n- :white_check_mark: Add [RestoreFormer](https:\u002F\u002Fgithub.com\u002Fwzhouxiff\u002FRestoreFormer) inference codes.\n- :white_check_mark: Add [V1.4 model](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv1.3.0\u002FGFPGANv1.4.pth), which produces slightly more details and better identity than V1.3.\n- :white_check_mark: Add **[V1.3 model](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv1.3.0\u002FGFPGANv1.3.pth)**, which produces **more natural** restoration results, and better results on *very low-quality* \u002F *high-quality* inputs. See more in [Model zoo](#european_castle-model-zoo), [Comparisons.md](Comparisons.md)\n- :white_check_mark: Integrated to [Huggingface Spaces](https:\u002F\u002Fhuggingface.co\u002Fspaces) with [Gradio](https:\u002F\u002Fgithub.com\u002Fgradio-app\u002Fgradio). See [Gradio Web Demo](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fakhaliq\u002FGFPGAN).\n- :white_check_mark: Support enhancing non-face regions (background) with [Real-ESRGAN](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FReal-ESRGAN).\n- :white_check_mark: We provide a *clean* version of GFPGAN, which does not require CUDA extensions.\n- :white_check_mark: We provide an updated model without colorizing faces.\n\n---\n\nIf GFPGAN is helpful in your photos\u002Fprojects, please help to :star: this repo or recommend it to your friends. Thanks:blush:\nOther recommended projects:\u003Cbr>\n:arrow_forward: [Real-ESRGAN](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FReal-ESRGAN): A practical algorithm for general image restoration\u003Cbr>\n:arrow_forward: [BasicSR](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR): An open-source image and video restoration toolbox\u003Cbr>\n:arrow_forward: [facexlib](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib): A collection that provides useful face-relation functions\u003Cbr>\n:arrow_forward: [HandyView](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FHandyView): A PyQt5-based image viewer that is handy for view and comparison\u003Cbr>\n\n---\n\n### :book: GFP-GAN: Towards Real-World Blind Face Restoration with Generative Facial Prior\n\n> [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.04061)] &emsp; [[Project Page](https:\u002F\u002Fxinntao.github.io\u002Fprojects\u002Fgfpgan)] &emsp; [Demo] \u003Cbr>\n> [Xintao Wang](https:\u002F\u002Fxinntao.github.io\u002F), [Yu Li](https:\u002F\u002Fyu-li.github.io\u002F), [Honglun Zhang](https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=en&user=KjQLROoAAAAJ), [Ying Shan](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=4oXBp9UAAAAJ&hl=en) \u003Cbr>\n> Applied Research Center (ARC), Tencent PCG\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencentARC_GFPGAN_readme_32865e7e2374.jpg\">\n\u003C\u002Fp>\n\n---\n\n## :wrench: Dependencies and Installation\n\n- Python >= 3.7 (Recommend to use [Anaconda](https:\u002F\u002Fwww.anaconda.com\u002Fdownload\u002F#linux) or [Miniconda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002Fminiconda.html))\n- [PyTorch >= 1.7](https:\u002F\u002Fpytorch.org\u002F)\n- Option: NVIDIA GPU + [CUDA](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-downloads)\n- Option: Linux\n\n### Installation\n\nWe now provide a *clean* version of GFPGAN, which does not require customized CUDA extensions. \u003Cbr>\nIf you want to use the original model in our paper, please see [PaperModel.md](PaperModel.md) for installation.\n\n1. Clone repo\n\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN.git\n    cd GFPGAN\n    ```\n\n1. Install dependent packages\n\n    ```bash\n    # Install basicsr - https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR\n    # We use BasicSR for both training and inference\n    pip install basicsr\n\n    # Install facexlib - https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\n    # We use face detection and face restoration helper in the facexlib package\n    pip install facexlib\n\n    pip install -r requirements.txt\n    python setup.py develop\n\n    # If you want to enhance the background (non-face) regions with Real-ESRGAN,\n    # you also need to install the realesrgan package\n    pip install realesrgan\n    ```\n\n## :zap: Quick Inference\n\nWe take the v1.3 version for an example. More models can be found [here](#european_castle-model-zoo).\n\nDownload pre-trained models: [GFPGANv1.3.pth](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv1.3.0\u002FGFPGANv1.3.pth)\n\n```bash\nwget https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv1.3.0\u002FGFPGANv1.3.pth -P experiments\u002Fpretrained_models\n```\n\n**Inference!**\n\n```bash\npython inference_gfpgan.py -i inputs\u002Fwhole_imgs -o results -v 1.3 -s 2\n```\n\n```console\nUsage: python inference_gfpgan.py -i inputs\u002Fwhole_imgs -o results -v 1.3 -s 2 [options]...\n\n  -h                   show this help\n  -i input             Input image or folder. Default: inputs\u002Fwhole_imgs\n  -o output            Output folder. Default: results\n  -v version           GFPGAN model version. Option: 1 | 1.2 | 1.3. Default: 1.3\n  -s upscale           The final upsampling scale of the image. Default: 2\n  -bg_upsampler        background upsampler. Default: realesrgan\n  -bg_tile             Tile size for background sampler, 0 for no tile during testing. Default: 400\n  -suffix              Suffix of the restored faces\n  -only_center_face    Only restore the center face\n  -aligned             Input are aligned faces\n  -ext                 Image extension. Options: auto | jpg | png, auto means using the same extension as inputs. Default: auto\n```\n\nIf you want to use the original model in our paper, please see [PaperModel.md](PaperModel.md) for installation and inference.\n\n## :european_castle: Model Zoo\n\n| Version | Model Name  | Description |\n| :---: | :---:        |     :---:      |\n| V1.3 | [GFPGANv1.3.pth](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv1.3.0\u002FGFPGANv1.3.pth) | Based on V1.2; **more natural** restoration results; better results on very low-quality \u002F high-quality inputs. |\n| V1.2 | [GFPGANCleanv1-NoCE-C2.pth](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv0.2.0\u002FGFPGANCleanv1-NoCE-C2.pth) | No colorization; no CUDA extensions are required. Trained with more data with pre-processing. |\n| V1 | [GFPGANv1.pth](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv0.1.0\u002FGFPGANv1.pth) | The paper model, with colorization. |\n\nThe comparisons are in [Comparisons.md](Comparisons.md).\n\nNote that V1.3 is not always better than V1.2. You may need to select different models based on your purpose and inputs.\n\n| Version | Strengths  | Weaknesses |\n| :---: | :---:        |     :---:      |\n|V1.3 |  ✓ natural outputs\u003Cbr> ✓better results on very low-quality inputs \u003Cbr> ✓ work on relatively high-quality inputs \u003Cbr>✓ can have repeated (twice) restorations | ✗ not very sharp \u003Cbr> ✗ have a slight change on identity |\n|V1.2 |  ✓ sharper output \u003Cbr> ✓ with beauty makeup | ✗ some outputs are unnatural |\n\nYou can find **more models (such as the discriminators)** here: [[Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F17rLiFzcUMoQuhLnptDsKolegHWwJOnHu?usp=sharing)], OR [[Tencent Cloud 腾讯微云](https:\u002F\u002Fshare.weiyun.com\u002FShYoCCoc)]\n\n## :computer: Training\n\nWe provide the training codes for GFPGAN (used in our paper). \u003Cbr>\nYou could improve it according to your own needs.\n\n**Tips**\n\n1. More high quality faces can improve the restoration quality.\n2. You may need to perform some pre-processing, such as beauty makeup.\n\n**Procedures**\n\n(You can try a simple version ( `options\u002Ftrain_gfpgan_v1_simple.yml`) that does not require face component landmarks.)\n\n1. Dataset preparation: [FFHQ](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fffhq-dataset)\n\n1. Download pre-trained models and other data. Put them in the `experiments\u002Fpretrained_models` folder.\n    1. [Pre-trained StyleGAN2 model: StyleGAN2_512_Cmul1_FFHQ_B12G4_scratch_800k.pth](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv0.1.0\u002FStyleGAN2_512_Cmul1_FFHQ_B12G4_scratch_800k.pth)\n    1. [Component locations of FFHQ: FFHQ_eye_mouth_landmarks_512.pth](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv0.1.0\u002FFFHQ_eye_mouth_landmarks_512.pth)\n    1. [A simple ArcFace model: arcface_resnet18.pth](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv0.1.0\u002Farcface_resnet18.pth)\n\n1. Modify the configuration file `options\u002Ftrain_gfpgan_v1.yml` accordingly.\n\n1. Training\n\n> python -m torch.distributed.launch --nproc_per_node=4 --master_port=22021 gfpgan\u002Ftrain.py -opt options\u002Ftrain_gfpgan_v1.yml --launcher pytorch\n\n## :scroll: License and Acknowledgement\n\nGFPGAN is released under Apache License Version 2.0.\n\n## BibTeX\n\n    @InProceedings{wang2021gfpgan,\n        author = {Xintao Wang and Yu Li and Honglun Zhang and Ying Shan},\n        title = {Towards Real-World Blind Face Restoration with Generative Facial Prior},\n        booktitle={The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},\n        year = {2021}\n    }\n\n## :e-mail: Contact\n\nIf you have any question, please email `xintao.wang@outlook.com` or `xintaowang@tencent.com`.\n","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencentARC_GFPGAN_readme_34445e8889ce.png\" height=130>\n\u003C\u002Fp>\n\n## \u003Cdiv align=\"center\">\u003Cb>\u003Ca href=\"README.md\">English\u003C\u002Fa> | \u003Ca href=\"README_CN.md\">简体中文\u003C\u002Fa>\u003C\u002Fb>\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\u003C!-- \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002F_Xintao_\" style=\"text-decoration:none;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencentARC_GFPGAN_readme_73d902a97e57.png\" width=\"4%\" alt=\"\" \u002F>\n\u003C\u002Fa> -->\n\n[![download](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdownloads\u002FTencentARC\u002FGFPGAN\u002Ftotal.svg)](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases)\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fgfpgan)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fgfpgan\u002F)\n[![Open issue](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FTencentARC\u002FGFPGAN)](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fissues)\n[![Closed issue](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-closed\u002FTencentARC\u002FGFPGAN)](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fissues)\n[![LICENSE](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache%202.0-blue.svg)](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fblob\u002Fmaster\u002FLICENSE)\n[![python lint](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Factions\u002Fworkflows\u002Fpylint.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fblob\u002Fmaster\u002F.github\u002Fworkflows\u002Fpylint.yml)\n[![Publish-pip](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Factions\u002Fworkflows\u002Fpublish-pip.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fblob\u002Fmaster\u002F.github\u002Fworkflows\u002Fpublish-pip.yml)\n\u003C\u002Fdiv>\n\n1. :boom: **更新**了在线演示：[![Replicate](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=Demo&message=Replicate&color=blue)](https:\u002F\u002Freplicate.com\u002Ftencentarc\u002Fgfpgan)。这里还有一个[备份](https:\u002F\u002Freplicate.com\u002Fxinntao\u002Fgfpgan)。\n1. :boom: **更新**了在线演示：[![Huggingface Gradio](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=Demo&message=Huggingface%20Gradio&color=orange)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FXintao\u002FGFPGAN)\n1. GFPGAN的[Colab演示](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo)\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"google colab logo\">\u003C\u002Fa>；（另一个[Colab演示](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1Oa1WwKB4M4l1GmR7CtswDVgOCOeSLChA?usp=sharing)用于原始论文中的模型）\n\n\u003C!-- 3. 在线演示：[Replicate.ai](https:\u002F\u002Freplicate.com\u002Fxinntao\u002Fgfpgan)（可能需要登录，返回完整图像）\n4. 在线演示：[Baseten.co](https:\u002F\u002Fapp.baseten.co\u002Fapplications\u002FQ04Lz0d\u002Foperator_views\u002F8qZG6Bg)（由GPU支持，返回完整图像）\n5. 我们提供了一个*干净*版本的GFPGAN，无需CUDA扩展即可运行。因此它可以在**Windows**系统或**CPU模式**下运行。 -->\n\n> :rocket: **感谢您对我们工作的关注。您可能还想查看我们在[Real-ESRGAN](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FReal-ESRGAN\u002Fblob\u002Fmaster\u002Fdocs\u002Fanime_video_model.md)中针对*动漫图像和视频*推出的*小型模型*的新更新** :blush:\n\nGFPGAN旨在开发一种**适用于真实场景的人脸修复实用算法**。\u003Cbr>\n它利用预训练人脸GAN（如StyleGAN2）中封装的丰富多样的先验知识，实现盲人像修复。\n\n:question: 常见问题解答可在[FAQ.md](FAQ.md)中找到。\n\n:triangular_flag_on_post: **更新**\n\n- :white_check_mark: 添加了[RestoreFormer](https:\u002F\u002Fgithub.com\u002Fwzhouxiff\u002FRestoreFormer)的推理代码。\n- :white_check_mark: 添加了[V1.4模型](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv1.3.0\u002FGFPGANv1.4.pth)，该模型比V1.3生成的细节略多，且身份保持更好。\n- :white_check_mark: 添加了**[V1.3模型](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv1.3.0\u002FGFPGANv1.3.pth)**，它能产生**更自然**的修复效果，并在*极低质量*或*高质量*输入上表现更佳。更多信息请参见[模型库](#european_castle-model-zoo)、[Comparisons.md](Comparisons.md)。\n- :white_check_mark: 集成到[Huggingface Spaces](https:\u002F\u002Fhuggingface.co\u002Fspaces)中，使用[Gradio](https:\u002F\u002Fgithub.com\u002Fgradio-app\u002Fgradio)。请参阅[Gradio网页演示](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fakhaliq\u002FGFPGAN)。\n- :white_check_mark: 支持使用[Real-ESRGAN](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FReal-ESRGAN)增强非人脸区域（背景）。\n- :white_check_mark: 我们提供了一个*干净*版本的GFPGAN，不需要CUDA扩展。\n- :white_check_mark: 我们提供了一个不进行人脸着色的更新模型。\n\n---\n\n如果GFPGAN对您的照片或项目有所帮助，请为本仓库点赞或推荐给您的朋友。谢谢：blush:\n其他推荐项目：\u003Cbr>\n:arrow_forward: [Real-ESRGAN](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FReal-ESRGAN)：一种用于通用图像修复的实用算法\u003Cbr>\n:arrow_forward: [BasicSR](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR)：一个开源的图像和视频修复工具箱\u003Cbr>\n:arrow_forward: [facexlib](https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib)：一个提供有用人脸相关功能的集合\u003Cbr>\n:arrow_forward: [HandyView](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FHandyView)：一款基于PyQt5的图像查看器，便于查看和比较\u003Cbr>\n\n---\n\n### :book: GFP-GAN：基于生成式人脸先验的真实世界盲人像修复\n\n> [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.04061)] &emsp; [[项目页面](https:\u002F\u002Fxinntao.github.io\u002Fprojects\u002Fgfpgan)] &emsp; [演示] \u003Cbr>\n> [王鑫涛](https:\u002F\u002Fxinntao.github.io\u002F)、[李宇](https:\u002F\u002Fyu-li.github.io\u002F)、[张洪伦](https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=en&user=KjQLROoAAAAJ)、[山英](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=4oXBp9UAAAAJ&hl=en) \u003Cbr>\n> 腾讯PCG应用研究中心（ARC）\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencentARC_GFPGAN_readme_32865e7e2374.jpg\">\n\u003C\u002Fp>\n\n---\n\n## :wrench: 依赖与安装\n\n- Python >= 3.7（建议使用[Anaconda](https:\u002F\u002Fwww.anaconda.com\u002Fdownload\u002F#linux)或[Miniconda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002Fminiconda.html)）\n- [PyTorch >= 1.7](https:\u002F\u002Fpytorch.org\u002F)\n- 可选：NVIDIA GPU + [CUDA](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-downloads)\n- 可选：Linux\n\n### 安装\n\n我们现在提供了一个*干净*版本的GFPGAN，不需要自定义的CUDA扩展。\u003Cbr>\n如果您想使用我们论文中的原始模型，请参阅[PaperModel.md](PaperModel.md)了解安装方法。\n\n1. 克隆仓库\n\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN.git\n    cd GFPGAN\n    ```\n\n1. 安装依赖包\n\n    ```bash\n    # 安装basicsr - https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR\n    # 我们在训练和推理中都使用BasicSR\n    pip install basicsr\n\n    # 安装facexlib - https:\u002F\u002Fgithub.com\u002Fxinntao\u002Ffacexlib\n    # 我们在facexlib包中使用人脸检测和修复辅助工具\n    pip install facexlib\n\n    pip install -r requirements.txt\n    python setup.py develop\n\n    # 如果你想用Real-ESRGAN增强背景（非人脸）区域，\n    # 还需要安装realesrgan包\n    pip install realesrgan\n    ```\n\n## :zap: 快速推理\n\n我们以 v1.3 版本为例。更多模型请参见 [这里](#european_castle-model-zoo)。\n\n下载预训练模型：[GFPGANv1.3.pth](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv1.3.0\u002FGFPGANv1.3.pth)\n\n```bash\nwget https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv1.3.0\u002FGFPGANv1.3.pth -P experiments\u002Fpretrained_models\n```\n\n**开始推理！**\n\n```bash\npython inference_gfpgan.py -i inputs\u002Fwhole_imgs -o results -v 1.3 -s 2\n```\n\n```console\n用法：python inference_gfpgan.py -i inputs\u002Fwhole_imgs -o results -v 1.3 -s 2 [选项]...\n\n  -h                   显示帮助信息\n  -i input             输入图像或文件夹。默认：inputs\u002Fwhole_imgs\n  -o output            输出文件夹。默认：results\n  -v version           GFPGAN 模型版本。可选：1 | 1.2 | 1.3。默认：1.3\n  -s upscale           图像的最终上采样倍数。默认：2\n  -bg_upsampler        背景超分辨率模型。默认：realesrgan\n  -bg_tile             背景超分辨率模型的分块大小，测试时设为 0 表示不分块。默认：400\n  -suffix              修复后人脸的后缀\n  -only_center_face    只修复中心人脸\n  -aligned             输入为已对齐的人脸\n  -ext                 图像扩展名。可选：auto | jpg | png，auto 表示使用与输入相同的扩展名。默认：auto\n```\n\n如果您想使用我们论文中的原始模型，请参阅 [PaperModel.md](PaperModel.md)，了解安装和推理方法。\n\n## :european_castle: 模型库\n\n| 版本 | 模型名称  | 描述 |\n| :---: | :---:        |     :---:      |\n| V1.3 | [GFPGANv1.3.pth](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv1.3.0\u002FGFPGANv1.3.pth) | 基于 V1.2；**更自然**的修复效果；在极低质量\u002F高质量输入上表现更好。 |\n| V1.2 | [GFPGANCleanv1-NoCE-C2.pth](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv0.2.0\u002FGFPGANCleanv1-NoCE-C2.pth) | 不含色彩化；无需 CUDA 扩展。使用更多经过预处理的数据进行训练。 |\n| V1 | [GFPGANv1.pth](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv0.1.0\u002FGFPGANv1.pth) | 论文中的原始模型，包含色彩化功能。 |\n\n对比结果请参见 [Comparisons.md](Comparisons.md)。\n\n请注意，V1.3 并不总是优于 V1.2。您可能需要根据自己的用途和输入选择不同的模型。\n\n| 版本 | 优势  | 劣势 |\n| :---: | :---:        |     :---:      |\n|V1.3 |  ✓ 自然的输出\u003Cbr> ✓ 在极低质量输入上的表现更好 \u003Cbr> ✓ 对相对高质量输入也有效 \u003Cbr>✓ 可以进行重复（两次）修复 | ✗ 锐度不够 \u003Cbr> ✗ 身份特征会有轻微变化 |\n|V1.2 |  ✓ 输出更锐利 \u003Cbr> ✓ 带有美颜效果 | ✗ 部分输出显得不自然 |\n\n您可以在这里找到 **更多模型（例如判别器）**：[[Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F17rLiFzcUMoQuhLnptDsKolegHWwJOnHu?usp=sharing)]，或者 [[腾讯微云](https:\u002F\u002Fshare.weiyun.com\u002FShYoCCoc)]\n\n## :computer: 训练\n\n我们提供了 GFPGAN 的训练代码（用于我们的论文）。\u003Cbr>\n您可以根据自身需求对其进行改进。\n\n**提示**\n\n1. 更多高质量人脸数据可以提升修复效果。\n2. 您可能需要进行一些预处理，例如美颜处理。\n\n**流程**\n\n（您可以尝试一个简单的版本 (`options\u002Ftrain_gfpgan_v1_simple.yml`)，该版本不需要人脸关键点标注。）\n\n1. 数据集准备：[FFHQ](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fffhq-dataset)\n\n1. 下载预训练模型及其他数据，并将其放入 `experiments\u002Fpretrained_models` 文件夹。\n    1. [预训练 StyleGAN2 模型：StyleGAN2_512_Cmul1_FFHQ_B12G4_scratch_800k.pth](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv0.1.0\u002FStyleGAN2_512_Cmul1_FFHQ_B12G4_scratch_800k.pth)\n    1. [FFHQ 人脸关键点数据：FFHQ_eye_mouth_landmarks_512.pth](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv0.1.0\u002FFFHQ_eye_mouth_landmarks_512.pth)\n    1. [一个简单的 ArcFace 模型：arcface_resnet18.pth](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv0.1.0\u002Farcface_resnet18.pth)\n\n1. 相应地修改配置文件 `options\u002Ftrain_gfpgan_v1.yml`。\n\n1. 开始训练\n\n> python -m torch.distributed.launch --nproc_per_node=4 --master_port=22021 gfpgan\u002Ftrain.py -opt options\u002Ftrain_gfpgan_v1.yml --launcher pytorch\n\n## :scroll: 许可证与致谢\n\nGFPGAN 采用 Apache License Version 2.0 许可证发布。\n\n## BibTeX\n\n    @InProceedings{wang2021gfpgan,\n        author = {Xintao Wang and Yu Li and Honglun Zhang and Ying Shan},\n        title = {利用生成式人脸先验实现真实场景下的盲人像修复},\n        booktitle={IEEE 计算机视觉与模式识别会议 (CVPR)},\n        year = {2021}\n    }\n\n## :e-mail: 联系方式\n\n如有任何问题，请发送邮件至 `xintao.wang@outlook.com` 或 `xintaowang@tencent.com`。","# GFPGAN 快速上手指南\n\nGFPGAN 是一款实用的盲人脸修复算法，利用预训练的人脸 GAN（如 StyleGAN2）中丰富的先验知识，对真实世界中的低质量人脸图像进行高质量修复。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐) 或 Windows (需使用无需 CUDA 扩展的 clean 版本)。\n*   **Python**: >= 3.7 (推荐使用 Anaconda 或 Miniconda 管理环境)。\n*   **PyTorch**: >= 1.7。\n*   **硬件**: 可选 NVIDIA GPU + CUDA (加速推理)，也支持 CPU 模式运行。\n\n## 2. 安装步骤\n\n本项目提供无需自定义 CUDA 扩展的 *clean* 版本，兼容性好且安装简便。\n\n### 2.1 克隆仓库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN.git\ncd GFPGAN\n```\n\n### 2.2 安装依赖\n建议先配置国内 pip 源以加速下载（例如清华源）：\n```bash\npip config set global.index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n依次安装核心依赖包：\n```bash\n# 安装 basicsr (训练和推理基础库)\npip install basicsr\n\n# 安装 facexlib (人脸检测与修复辅助工具)\npip install facexlib\n\n# 安装其他 requirements\npip install -r requirements.txt\n\n# 安装当前项目\npython setup.py develop\n\n# (可选) 如果需要增强背景区域，需安装 realesrgan\npip install realesrgan\n```\n\n## 3. 基本使用\n\n以下以效果更自然的 **V1.3 模型**为例进行演示。\n\n### 3.1 下载预训练模型\n将模型下载到指定目录：\n```bash\nwget https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv1.3.0\u002FGFPGANv1.3.pth -P experiments\u002Fpretrained_models\n```\n*(注：如果下载速度慢，可手动从浏览器下载后放入 `experiments\u002Fpretrained_models` 文件夹)*\n\n### 3.2 执行推理\n准备一张或多张人脸图片放入 `inputs\u002Fwhole_imgs` 文件夹（或指定其他路径），然后运行：\n\n```bash\npython inference_gfpgan.py -i inputs\u002Fwhole_imgs -o results -v 1.3 -s 2\n```\n\n**参数说明：**\n*   `-i`: 输入图片或文件夹路径。\n*   `-o`: 输出结果文件夹路径。\n*   `-v`: 模型版本 (可选 `1`, `1.2`, `1.3`，默认 `1.3`)。\n    *   **V1.3**: 结果更自然，适应极低质或较高质量输入。\n    *   **V1.2**: 输出更锐利，带美颜效果，无颜色化，无需 CUDA 扩展。\n*   `-s`: 最终放大倍数 (默认 `2`)。\n*   `-bg_upsampler`: 背景放大器 (默认 `realesrgan`，若无需背景增强可调整)。\n\n运行完成后，修复后的图片将保存在 `results` 文件夹中。","一位数字档案管理员正在处理一批上世纪 90 年代的家庭录像带截图，这些图像因年代久远而面临严重的人脸模糊和噪点问题，急需修复以用于家族纪念册的数字化出版。\n\n### 没有 GFPGAN 时\n- **细节丢失严重**：传统插值放大算法（如双三次插值）仅能增加像素数量，无法还原五官纹理，人脸依旧模糊成一团马赛克。\n- **人工成本高昂**：若聘请专业修图师逐张手工重绘五官，面对数千张截图，耗时数月且费用远超项目预算。\n- **身份特征失真**：通用去噪模型容易过度平滑，导致人物面部特征“塑料化”，甚至改变原本的面部轮廓，让家属难以辨认。\n- **低质输入束手无策**：面对极低分辨率或高压缩伪影的源文件，常规 AI 工具往往产生奇怪的伪影或直接失败。\n\n### 使用 GFPGAN 后\n- **纹理智能重建**：GFPGAN 利用预训练 StyleGAN2 的丰富先验知识，能从模糊色块中“幻觉”出逼真的皮肤毛孔、发丝等高频细节。\n- **批量高效处理**：通过命令行或 Colab 脚本一键批量运行，数千张老照片的修复工作从数月缩短至几小时，极大提升交付效率。\n- **身份高度保真**：专为盲人脸复原设计的架构，在增强清晰度的同时，精准锁定并保留人物独有的生物特征，确保“修旧如旧”。\n- **鲁棒性极强**：即使是分辨率极低或受损严重的输入，GFPGAN v1.3\u002Fv1.4 模型也能输出自然、连贯的高质量人脸结果。\n\nGFPGAN 将原本不可能低成本完成的老照片人脸复原任务，转化为可自动化、高保真的标准化流程，让珍贵记忆得以清晰重现。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencentARC_GFPGAN_32865e7e.jpg","TencentARC","ARC Lab, Tencent PCG","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FTencentARC_c0126c65.png","",null,"arc@tencent.com","https:\u002F\u002Farc.tencent.com","https:\u002F\u002Fgithub.com\u002FTencentARC",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,37430,6278,"2026-04-17T16:09:56","NOASSERTION","Linux, Windows","可选。推荐使用 NVIDIA GPU + CUDA 以加速运行；提供无需 CUDA 扩展的“纯净版”模型，支持在 CPU 模式或 Windows 上运行。具体显存和 CUDA 版本未说明。","未说明",{"notes":93,"python":94,"dependencies":95},"项目提供无需自定义 CUDA 扩展的‘纯净版’，可在 Windows 或纯 CPU 环境下运行。若需使用论文原始模型或进行训练，则可能需要 Linux 环境和 CUDA 支持。建议使用 Anaconda 或 Miniconda 管理环境。推理前需下载预训练模型文件（如 GFPGANv1.3.pth）。若需增强背景区域，需额外安装 realesrgan。",">=3.7",[96,97,98,99],"PyTorch>=1.7","basicsr","facexlib","realesrgan",[14,15],[102,103,104,105,106,107,108],"pytorch","gan","deep-learning","super-resolution","face-restoration","image-restoration","gfpgan","2026-03-27T02:49:30.150509","2026-04-18T09:20:15.418896",[112,117,122,127,132,137],{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},39584,"训练时减少 GPU 数量（如从 4 卡改为 2 卡）导致不输出日志或结果，如何解决？","这通常是由于 BasicSR 版本不匹配导致的。请尝试重新安装特定版本的 BasicSR。维护者指出该问题已修复在 master 分支，并发布了新版本。解决方法是升级或重装 BasicSR 到最新版本（例如 1.3.3.6 或更高）：\npip install basicsr==1.3.3.6\n或者直接从 GitHub 安装最新版：\npip install git+https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR.git","https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fissues\u002F13",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},39585,"运行时遇到 'NameError: name fused_act_ext is not defined' 错误怎么办？","该错误通常是因为 BasicSR 的扩展模块未正确编译或安装。请确保你安装了正确版本的 BasicSR，并且编译环境完整（包括 CUDA 和对应的编译器）。如果是 Windows 用户，可能需要使用特定的 Docker 镜像（如 nvcr.io\u002Fnvidia\u002Fpytorch:20.11-py3）来避免环境兼容性问题。此外，检查是否设置了必要的环境变量 BASICSR_EXT。","https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fissues\u002F5",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},39586,"如何在人脸修复时不进行色彩增强（保持灰度图原色）？","如果你不希望模型对灰度图像进行上色，可以在配置文件中设置 color_jitter_prob 为无效值（如 ~ 或注释掉），但更彻底的方法是直接使用维护者发布的无色彩增强版本的模型。维护者已更新了一个不带色彩增强功能的模型，可以通过以下 Colab 演示试用：\nhttps:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo\n或者等待官方发布该版本权重文件。","https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fissues\u002F11",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},39587,"在 Windows 上运行推理时报错 'ImportError: No module named deform_conv' 如何解决？","这是由于 Windows 环境下难以正确编译 BasicSR 中的可变形卷积（deformable convolution）扩展模块。推荐的解决方案是使用预配置的 Docker 容器来规避环境编译问题。可以使用 NVIDIA 提供的 PyTorch 镜像：\ndocker pull nvcr.io\u002Fnvidia\u002Fpytorch:20.11-py3\n在该容器中安装 GFPGAN 即可正常运行。如果必须在本机运行，建议切换到 Linux 环境或 WSL2 并安装完整的编译工具链。","https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fissues\u002F21",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},39588,"如何将 GFPGAN 模型导出为 ONNX 格式以用于其他引擎（如 Barracuda）？","由于模型中包含动态权重的卷积操作（ModulatedConv2d），直接导出 ONNX 会失败。解决方法是修改代码，将对权重（weight）的动态操作转换为对输入（input）的操作，从而使卷积权重变为静态常量。具体做法是重写 ModulatedConv2d 类，将 style 调制逻辑应用到输入特征图上，而不是卷积核权重上。这样模型就可以被成功导出为静态 ONNX 模型。","https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fissues\u002F184",{"id":138,"question_zh":139,"answer_zh":140,"source_url":121},39589,"遇到 'BASICSR_EXT is not recognized as an internal or external command' 错误怎么处理？","BASICSR_EXT 是 BasicSR 包使用的一个环境变量，用于定位编译后的扩展模块。如果出现此错误，说明扩展模块未正确编译或路径未配置。请确保你已经成功编译了 BasicSR（运行 python setup.py develop），并且当前环境中包含了编译生成的 .so 或 .pyd 文件。如果是在 Windows 下，强烈建议使用 Docker 或 Linux 子系统以避免此类路径和编译问题。",[142,147,152,157,162,167,172,177],{"id":143,"version":144,"summary_zh":145,"released_at":146},315541,"v1.3.8","🚀 再见啦 😸\n\n✨ **亮点**\n✅ [移除 CodeFormer](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fcommit\u002Fbc5a5deb95a4a9653851177985d617af1b9bfa8b)\n\n\u003Cp align=\"center\">\n   \u003Cimg src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FTencentARC\u002FGFPGAN\u002Fmaster\u002Fassets\u002Fgfpgan_logo.png\" height=150>\n\u003C\u002Fp>","2022-09-16T11:35:50",{"id":148,"version":149,"summary_zh":150,"released_at":151},315542,"v1.3.7","\r\n✨ **亮点**\r\n✅[添加 RestoreFormer 和 CodeFormer 推理代码](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fcommit\u002F126c55c68d9edf96ecac575a277affc33ddb3770)\r\n✅[更新 cog 预测](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fcommit\u002F3fd33abc47ba796c4ba9e37dbffa1d848fc10c03)\r\n\r\n\u003Cp align=\"center\">\r\n   \u003Cimg src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FTencentARC\u002FGFPGAN\u002Fmaster\u002Fassets\u002Fgfpgan_logo.png\" height=150>\r\n\u003C\u002Fp>","2022-09-16T11:31:30",{"id":153,"version":154,"summary_zh":155,"released_at":156},315543,"v1.3.4","🚀祝您有美好的一天 😸\n\n🐛 **Bug 修复**\n✅ [修复 basicsr 损失函数的导入问题](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fcommit\u002F7d657f26b66c3e01a969d1598b41ce65c9883c55)\n\n🌴 **改进**\n✅ [更新 facelib；使用分割结果进行图像拼接](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fcommit\u002Fc7ccc098a7e3120eb666050e991ae111dcdadf34)\n✅ [为 GFPGANer 添加设备参数，支持多 GPU](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fcommit\u002Fbc3f0c4d91293fdadd0ecbcce3a18a7a93abe50a)\n\n\u003Cp align=\"center\">\n   \u003Cimg src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FTencentARC\u002FGFPGAN\u002Fmaster\u002Fassets\u002Fgfpgan_logo.png\" height=150>\n\u003C\u002Fp>","2022-07-13T02:30:41",{"id":158,"version":159,"summary_zh":160,"released_at":161},315544,"v1.3.2","祝你今天愉快 😸，也祝你每天开心 😃  \n\n我很高兴为 GFPGAN 加上了一个简单的 logo 😋（是我自己设计的！灵感来自 [4K logo](https:\u002F\u002Fwww.google.com\u002Fsearch?q=4k+logo)）。于是就发布了新版本~\n\n你可以在 [ReadMe](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN) 中看到它。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FTencentARC\u002FGFPGAN\u002Fmaster\u002Fassets\u002Fgfpgan_logo.png\" height=150>\n\u003C\u002Fp>\n\n其实，这次的发布说明是照搬了 [Real-ESRGAN](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FReal-ESRGAN) 的，哈哈。","2022-02-15T16:35:36",{"id":163,"version":164,"summary_zh":165,"released_at":166},315545,"v1.3.1","今天又见面啦 🐱\n\nV1.3.0 版本中有一个代码文件丢失，导致导入报错。\n\n我们已经在本版本中修复了这个问题。😃","2022-02-14T07:59:55",{"id":168,"version":169,"summary_zh":170,"released_at":171},315546,"v1.3.0","🚀 祝您有美好的一天\n\n✨ 亮点\n\n- 新增 [V1.3 模型](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Freleases\u002Fdownload\u002Fv1.3.0\u002FGFPGANv1.3.pth)，该模型生成的修复结果更加自然，并且在极低质量或高质量输入上都能取得更好的效果。更多信息请参见 [模型库](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN#european_castle-model-zoo) 和 [Comparisons.md](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fblob\u002Fmaster\u002FComparisons.md)。\n- 新增“双线性”架构，这是原始干净架构的基础，以便我们能够对使用干净架构的模型进行微调。\n- 新增由 https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN\u002Fcommit\u002Fc068e4d113ebbca1f624e4e90854d21601f9c2ef 提供的 [baseten.co 演示](https:\u002F\u002Fapp.baseten.co\u002Fapplications\u002FQ04Lz0d\u002Foperator_views\u002F8qZG6Bg)。\n\n本次发布还包含了以下预训练模型 ;-)\n- GFPGANv1.3.pth","2022-02-14T05:25:41",{"id":173,"version":174,"summary_zh":175,"released_at":176},315547,"v0.2.0","✅ 我们提供一个无需 CUDA 扩展的纯净版 GFPGAN。 ✅ 我们提供一个不进行人脸上色的更新模型。","2021-08-06T12:07:49",{"id":178,"version":179,"summary_zh":180,"released_at":181},315548,"v0.1.0","此版本主要用于存储预训练模型等。","2021-06-15T06:19:53"]