[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-HRLTY--TP-GAN":3,"tool-HRLTY--TP-GAN":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",153609,2,"2026-04-13T11:34:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":94,"forks":95,"last_commit_at":96,"license":97,"difficulty_score":98,"env_os":99,"env_gpu":100,"env_ram":99,"env_deps":101,"category_tags":107,"github_topics":110,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":116,"updated_at":117,"faqs":118,"releases":148},7117,"HRLTY\u002FTP-GAN","TP-GAN","Official TP-GAN Tensorflow implementation for paper \"Beyond Face Rotation: Global and Local Perception GAN for Photorealistic and Identity Preserving Frontal View Synthesis\"","TP-GAN 是一款基于 TensorFlow 实现的开源深度学习模型，源自 ICCV 2017 的学术论文。它的核心功能是将任意角度拍摄的人脸照片，自动合成为高质量、保真的正面人脸图像，同时严格保留人物的原始身份特征。\n\n这项技术主要解决了传统人脸转正方法中常见的画质模糊、身份信息丢失以及光照不自然等难题。无论是侧脸 45 度还是接近 90 度的极端角度，TP-GAN 都能生成细节丰富且逼真的正面视图。其独特的技术亮点在于采用了“全局与局部感知”相结合的生成对抗网络架构：既关注面部整体结构的连贯性，又通过独立处理眼睛、嘴巴等局部区域来确保关键特征的清晰度。此外，项目还配套提供了关键点检测脚本及预训练权重，方便用户快速上手。\n\nTP-GAN 非常适合计算机视觉领域的研究人员、算法工程师以及需要处理人脸数据的开发者使用。对于从事安防监控、证件照制作或数字内容创作的专业人士而言，它也是一个极具参考价值的技术基线。需要注意的是，由于涉及底层模型训练与数据预处理，使用该工具通常需要具备一定的编程基础和深度学习环境配置能力。","# TP-GAN\n\nOfficial TP-GAN Tensorflow implementation for the ICCV17 paper \"[Beyond Face Rotation: Global and Local Perception GAN for Photorealistic and Identity Preserving Frontal View Synthesis](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2017\u002Fpapers\u002FHuang_Beyond_Face_Rotation_ICCV_2017_paper.pdf)\" by [Huang, Rui](http:\u002F\u002Fwww.andrew.cmu.edu\u002Fuser\u002Fruih2\u002F) and Zhang, Shu and Li, Tianyu and [He, Ran](http:\u002F\u002Fwww.nlpr.ia.ac.cn\u002Fenglish\u002Firds\u002FPeople\u002Frhe.html).\n\nThe goal is to **recover a frontal face image of the same person from a single face image under any poses**.\n\nHere are some examples from the paper.![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHRLTY_TP-GAN_readme_b189bfac16b1.jpg)\n\n### Testing images\n\nSynthesized  testing images of all poses, corresponding illumination in Setting 2 (and its cropped input) in MultiPIE can be obtained here [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1Kx0sMjFTzLX3-rZ03TAVBAj-gcd9rJrd\u002Fview?usp=sharing). \n\nFAQ: **Synthesized**(not the original) images for other illumination condition and\u002For training set can be obtained upon request. Unfortunately, I cannot redistribute the original dataset due to copyright. If you would like to access the original MultiPIE dataset, please contact [MultiPIE](http:\u002F\u002Fwww.cs.cmu.edu\u002Fafs\u002Fcs\u002Fproject\u002FPIE\u002FMultiPie\u002FMulti-Pie\u002FHome.html).\n\n### Random examples\n\nHere are random examples of 10 testing image pairs for each degree.\n\n15 and 30 degrees: \n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHRLTY_TP-GAN_readme_c73ed76c30d4.png\", width=\"300\", border=\"10\">   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHRLTY_TP-GAN_readme_4168ce21d76e.png\", width=\"300\", border=\"10\">\n\u003C\u002Fp> \n\n45 and 60 degrees:\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHRLTY_TP-GAN_readme_78f890f8ed2c.png\", width=\"300\", border=\"10\">   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHRLTY_TP-GAN_readme_0b405d1bc929.png\", width=\"304\", border=\"10\">\n\u003C\u002Fp> \n\n75 and 90 degrees:\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHRLTY_TP-GAN_readme_76cc7d396856.png\", width=\"300\", border=\"10\">   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHRLTY_TP-GAN_readme_f854fec447d3.png\", width=\"306\", border=\"10\">\n\u003C\u002Fp> \n\n### Note\n\nIt was initially written in Tensorflow 0.12. If you have implemented another version, I'll be happy to reference it here.\n\nThis is an initial release of code, which may not be fully tested.\n\nThe input is cropped with the Matlab script `face_db_align_single_custom.m`, which accepts 5 keypoints and outputs a cropped image and transformed keypoints.\n\nSome example cropping outputs is shown in folder `data-example`.\n\nOur 90-degree model only used 45-90 degree images for training. Other models we trained didn't use 90 degree images. 90 degree images' left and right eye patches coincide.\n\nThe 5 keypoints can be extracted from off-the-shelf landmark detectors, e.g. 'Zhang et al. Combining Data-driven and Model-driven Methods for Robust Facial Landmark Detection, 2016'. The synthesis performance is similar to using manually labelled keypoints. See released keypoint files below.\n\nWe thank Xiang Wu for providing the [face feature network](https:\u002F\u002Fgithub.com\u002FAlfredXiangWu\u002Fface_verification_experiment). We load it as `DeepFace` in the code, the weights are from a custom Light-CNN cafeemodel file. Our implementation borrowed code from the [dcgan repo](https:\u002F\u002Fgithub.com\u002Fcarpedm20\u002FDCGAN-tensorflow).\n\nUpdate 0.11:\n\n- Releasing *5 keypoint locations* for MultiPIE Session 1-4 dataset. Please download from [here](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1bbMH71SNnX09r7kZj7ExqRLTEUHZVkno). Most of the 60-90 degrees images are labelled manually, others come from MTCNNv2 detector. If you like it, please consider citing our paper.\n- Adding `DeepFace168.pickle` weights file for Light-CNN. Please note this is an improved version than the one originally used in the experiment.\n\n### Citation and Contact\n\nIf you like our work or find our code useful, welcome to cite our paper!\n\nAny suggestion and\u002For comment would be valuable. Please send an email to Rui at huangrui@cmu.edu or other authors.\n\n      @InProceedings{Huang_2017_ICCV,\n      author = {Huang, Rui and Zhang, Shu and Li, Tianyu and He, Ran},\n      title = {Beyond Face Rotation: Global and Local Perception GAN for Photorealistic and Identity Preserving Frontal View Synthesis},\n      booktitle = {The IEEE International Conference on Computer Vision (ICCV)},\n      month = {Oct},\n      year = {2017}\n      }\n\n### License\n\nThis code is freely available for free non-commercial use, and may be redistributed under the conditions set by the license. Please, see the [license](https:\u002F\u002Fgithub.com\u002FHRLTY\u002FTP-GAN\u002Fblob\u002Fmaster\u002FLICENSE) for further details. For commercial queries, please contact [Rui Huang](http:\u002F\u002Fwww.andrew.cmu.edu\u002Fuser\u002Fruih2\u002F) and [Ran He](https:\u002F\u002Frhe-web.github.io\u002F).\n\n","# TP-GAN\n\n这是 ICCV17 论文“超越人脸旋转：用于照片级真实感且保持身份一致的正面视图合成的全局与局部感知 GAN”（作者：Huang, Rui、Zhang, Shu、Li, Tianyu 和 He, Ran）的官方 TP-GAN TensorFlow 实现。该论文发表于 [http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2017\u002Fpapers\u002FHuang_Beyond_Face_Rotation_ICCV_2017_paper.pdf](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2017\u002Fpapers\u002FHuang_Beyond_Face_Rotation_ICCV_2017_paper.pdf)。\n\n目标是 **从任意姿态的单张人脸图像中恢复出同一人的正面人脸图像**。\n\n以下是论文中的示例图片：![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHRLTY_TP-GAN_readme_b189bfac16b1.jpg)\n\n### 测试图像\n\n在 MultiPIE 数据集的设置 2 中，所有姿态及对应光照条件下的合成测试图像（以及其裁剪后的输入）可在此处获取：[Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1Kx0sMjFTzLX3-rZ03TAVBAj-gcd9rJrd\u002Fview?usp=sharing)。\n\n常见问题解答：**合成的**（而非原始的）其他光照条件和\u002F或训练集的图像可根据需求提供。遗憾的是，由于版权限制，我无法重新分发原始数据集。如需访问原始 MultiPIE 数据集，请联系 [MultiPIE](http:\u002F\u002Fwww.cs.cmu.edu\u002Fafs\u002Fcs\u002Fproject\u002FPIE\u002FMultiPie\u002FMulti-Pie\u002FHome.html)。\n\n### 随机示例\n\n以下是每个角度的 10 对随机测试图像示例。\n\n15 度和 30 度：\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHRLTY_TP-GAN_readme_c73ed76c30d4.png\", width=\"300\", border=\"10\">   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHRLTY_TP-GAN_readme_4168ce21d76e.png\", width=\"300\", border=\"10\">\n\u003C\u002Fp> \n\n45 度和 60 度：\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHRLTY_TP-GAN_readme_78f890f8ed2c.png\", width=\"300\", border=\"10\">   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHRLTY_TP-GAN_readme_0b405d1bc929.png\", width=\"304\", border=\"10\">\n\u003C\u002Fp> \n\n75 度和 90 度：\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHRLTY_TP-GAN_readme_76cc7d396856.png\", width=\"300\", border=\"10\">   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHRLTY_TP-GAN_readme_f854fec447d3.png\", width=\"306\", border=\"10\">\n\u003C\u002Fp> \n\n### 注意事项\n\n本代码最初使用 TensorFlow 0.12 编写。如果您使用了其他版本实现，欢迎在此处引用。\n\n此为代码的初始版本，可能尚未经过全面测试。\n\n输入图像通过 MATLAB 脚本 `face_db_align_single_custom.m` 进行裁剪，该脚本接受 5 个关键点并输出裁剪后的图像及变换后的关键点。\n\n示例裁剪结果位于 `data-example` 文件夹中。\n\n我们的 90 度模型仅使用 45–90 度图像进行训练。而我们训练的其他模型并未使用 90 度图像。90 度图像的左右眼区域存在重叠。\n\n这 5 个关键点可从现成的地标检测器中提取，例如 Zhang 等人于 2016 年提出的“结合数据驱动与模型驱动方法的鲁棒人脸地标检测”。使用这些自动检测的关键点与手动标注的关键点相比，合成效果相似。已发布的关键点文件如下。\n\n我们感谢 Xiang Wu 提供的 [人脸特征网络](https:\u002F\u002Fgithub.com\u002FAlfredXiangWu\u002Fface_verification_experiment)。我们在代码中将其加载为 `DeepFace`，其权重来自自定义的 Light-CNN cafeemodel 文件。我们的实现借鉴了 [dcgan 仓库](https:\u002F\u002Fgithub.com\u002Fcarpedm20\u002FDCGAN-tensorflow)中的部分代码。\n\n更新 0.11：\n\n- 发布 MultiPIE Session 1–4 数据集的 *5 个关键点位置*。请从 [此处](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1bbMH71SNnX09r7kZj7ExqRLTEUHZVkno)下载。其中大部分 60–90 度图像由人工标注，其余则来自 MTCNNv2 检测器。如果您喜欢这项工作，请考虑引用我们的论文。\n- 添加 Light-CNN 的 `DeepFace168.pickle` 权重文件。请注意，这比实验中最初使用的版本有所改进。\n\n### 引用与联系方式\n\n如果您喜欢我们的工作或认为我们的代码有用，请引用我们的论文！\n\n任何建议和\u002F或评论都将非常有价值。请发送邮件至 Rui Huang 的邮箱 huangrui@cmu.edu 或其他作者。\n\n      @InProceedings{Huang_2017_ICCV,\n      author = {Huang, Rui and Zhang, Shu and Li, Tianyu and He, Ran},\n      title = {Beyond Face Rotation: Global and Local Perception GAN for Photorealistic and Identity Preserving Frontal View Synthesis},\n      booktitle = {The IEEE International Conference on Computer Vision (ICCV)},\n      month = {Oct},\n      year = {2017}\n      }\n\n### 许可协议\n\n本代码可供非商业用途免费使用，并可在许可协议规定的条件下重新分发。详情请参阅 [许可证](https:\u002F\u002Fgithub.com\u002FHRLTY\u002FTP-GAN\u002Fblob\u002Fmaster\u002FLICENSE)。如需商业用途，请联系 [Rui Huang](http:\u002F\u002Fwww.andrew.cmu.edu\u002Fuser\u002Fruih2\u002F) 和 [Ran He](https:\u002F\u002Frhe-web.github.io\u002F)。","# TP-GAN 快速上手指南\n\nTP-GAN 是一个基于 TensorFlow 的生成对抗网络（GAN），旨在从任意姿态的单张人脸图像中合成具有照片级真实感且保留身份信息的正面人脸图像。本项目是 ICCV 2017 论文《Beyond Face Rotation》的官方实现。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux 或 macOS (Windows 需自行配置兼容环境)\n*   **Python**: 建议 Python 3.x (原代码基于 TensorFlow 0.12 编写，现代环境可能需要适配或使用兼容版本)\n*   **深度学习框架**: TensorFlow (推荐版本 0.12 - 1.x，若使用新版 TF 需修改代码以适配 `tf.compat` 或重写部分 API)\n*   **前置依赖**:\n    *   `numpy`\n    *   `scipy`\n    *   `matplotlib`\n    *   `Pillow`\n    *   `h5py`\n*   **数据处理工具**: MATLAB (用于运行面部裁剪脚本 `face_db_align_single_custom.m`)\n*   **硬件**: 推荐使用 NVIDIA GPU 以加速训练和推理过程\n\n## 安装步骤\n\n1.  **克隆仓库**\n    将项目代码克隆到本地：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FHRLTY\u002FTP-GAN.git\n    cd TP-GAN\n    ```\n\n2.  **安装 Python 依赖**\n    创建虚拟环境并安装所需库（假设已安装 pip）：\n    ```bash\n    pip install -r requirements.txt\n    ```\n    *注：若仓库中无 `requirements.txt`，请手动安装上述列出的前置依赖包。*\n\n3.  **下载预训练模型与数据**\n    *   **关键点数据**: 下载 MultiPIE 数据集的 5 个关键点坐标文件 [Google Drive 链接](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1bbMH71SNnX09r7kZj7ExqRLTEUHZVkno)。\n    *   **DeepFace 权重**: 下载改进版的 Light-CNN 权重文件 `DeepFace168.pickle` (通常在发布页或联系作者获取)。\n    *   **测试图像**: 如需测试合成效果，可从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1Kx0sMjFTzLX3-rZ03TAVBAj-gcd9rJrd\u002Fview?usp=sharing) 下载合成的测试图像示例。\n\n    将下载的文件放置在代码指定的目录中（通常为 `data\u002F` 或 `checkpoint\u002F`，具体请参考代码中的路径配置）。\n\n4.  **准备输入数据 (可选)**\n    如果您有自己的数据集，需要使用提供的 MATLAB 脚本进行预处理。该脚本接受 5 个关键点，输出裁剪后的人脸图像和变换后的关键点。\n    *   脚本路径：`face_db_align_single_custom.m`\n    *   示例输出参考：`data-example` 文件夹\n\n## 基本使用\n\n由于这是一个研究性质的初始代码发布，具体的运行命令可能依赖于您配置的模型路径和数据集结构。以下是通用的使用逻辑：\n\n1.  **配置路径**\n    在主程序或配置文件中，设置以下路径：\n    *   预训练模型权重路径 (`.pickle` 或 `.ckpt` 文件)\n    *   输入图像或关键点数据路径\n    *   输出保存路径\n\n2.  **运行推理\u002F测试**\n    根据项目结构，通常运行类似以下的命令进行测试（具体文件名请以仓库实际入口为准，例如 `test.py` 或 `main.py`）：\n\n    ```bash\n    python main.py --phase=test --model_dir=.\u002Fcheckpoint --data_dir=.\u002Fdata\n    ```\n\n    *注意：原代码基于 TensorFlow 0.12。如果您使用的是较新版本的 TensorFlow，可能会遇到 API 不兼容问题。您可能需要：*\n    *   *安装 TensorFlow 1.x 版本 (如 `pip install tensorflow==1.15`)*\n    *   *或者手动修改代码中将 `tf.variable_scope`, `tf.get_variable` 等旧 API 迁移至新版本语法。*\n\n3.  **查看结果**\n    运行完成后，生成的正面人脸图像将保存在指定的输出目录中。您可以对比输入的非正面图像与合成的正面图像，评估姿态校正和身份保留的效果。\n\n---\n*提示：本指南基于官方 README 整理。由于代码较早，建议在运行前仔细检查 `main.py` 或相关脚本中的参数定义，以确保路径和配置正确。*","某安防团队在处理监控录像时，需要从大量侧脸或大角度偏转的人脸图像中提取清晰的正面照，以进行身份核验。\n\n### 没有 TP-GAN 时\n- **识别率极低**：传统人脸识别算法严重依赖正面图像，面对 45 度甚至 90 度的侧脸监控截图，系统无法提取有效特征，导致匹配失败。\n- **人工成本高昂**：为了获取嫌疑人或目标人员的正面照，安保人员必须手动翻阅海量不同角度的视频帧，效率低下且容易遗漏关键线索。\n- **图像质量失真**：尝试使用简单的几何旋转或早期修复工具强行“摆正”人脸，往往会导致五官变形、模糊，丢失关键的生物特征细节。\n- **身份信息丢失**：在转换视角的过程中，生成的图像常常无法保留原始人物的身份特征（如痣、疤痕或特定五官比例），造成“换脸”般的错误结果。\n\n### 使用 TP-GAN 后\n- **全角度正面合成**：TP-GAN 能直接从单张任意角度（包括极端的 90 度侧脸）的输入图中，生成高保真的正面人脸图像，大幅提升了后续识别系统的通过率。\n- **自动化流程提速**：无需人工筛选视频帧，系统可自动批量处理监控截图并输出标准正面照，将原本数小时的人工排查工作缩短至分钟级。\n- ** photorealistic 细节还原**：得益于全局与局部感知机制，TP-GAN 生成的图像不仅光照自然，还能清晰还原皮肤纹理和五官细节，避免了机械旋转带来的模糊感。\n- **身份特征强保持**：该工具在合成过程中严格锁定人物身份特征，确保生成的正面照与原始侧脸属于同一人，为刑侦比对提供了可靠依据。\n\nTP-GAN 通过深度学习实现了从任意姿态到标准正面的高质量重构，彻底解决了非配合场景下人脸身份核验的难题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHRLTY_TP-GAN_b189bfac.jpg","HRLTY","Rui","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FHRLTY_8a9eda75.png","machine learning engineer","@google","USA",null,"https:\u002F\u002Fsites.google.com\u002Fview\u002Fruihuang","https:\u002F\u002Fgithub.com\u002FHRLTY",[82,86,90],{"name":83,"color":84,"percentage":85},"Python","#3572A5",95.1,{"name":87,"color":88,"percentage":89},"MATLAB","#e16737",4.9,{"name":91,"color":92,"percentage":93},"Roff","#ecdebe",0,511,129,"2026-04-08T05:42:42","NOASSERTION",4,"未说明","需要 NVIDIA GPU (隐含，因使用 TensorFlow 和 GAN 训练)，具体型号和显存大小未说明，CUDA 版本未说明",{"notes":102,"python":103,"dependencies":104},"该代码最初基于 TensorFlow 0.12 编写，版本较老，现代环境可能需要降级 TensorFlow 或修改代码以适配新版本。输入图像需先通过提供的 Matlab 脚本 (`face_db_align_single_custom.m`) 进行裁剪和对齐（需要 5 个关键点）。代码引用了外部的 Light-CNN 模型权重和 DCGAN 实现。由于版权原因，原始 MultiPIE 数据集需自行联系获取，作者仅提供合成图像和部分关键点数据。","未说明 (基于 TensorFlow 0.12 推断可能为 Python 2.7 或 3.5\u002F3.6)",[105,106],"tensorflow==0.12","Matlab (用于人脸裁剪脚本)",[15,14,108,109],"音频","视频",[111,112,113,114,115],"tensorflow","computer-vision","face-recognition","generative-adversarial-network","synthesis","2026-03-27T02:49:30.150509","2026-04-13T22:44:34.954865",[119,124,129,134,139,144],{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},31972,"训练过程中损失值变为 NaN 且输出图像变黑，如何解决？","这通常是因为使用了新初始化的权重而不是预训练权重导致的。建议检查是否正确加载了预训练模型（如 DeepFace168.pickle）。如果必须从头训练，可能需要调整学习率或数据预处理方式。此外，确保使用的代码版本与模型定义一致，部分用户通过重新定义 LCNN 模型结构解决了兼容性问题。","https:\u002F\u002Fgithub.com\u002FHRLTY\u002FTP-GAN\u002Fissues\u002F3",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},31973,"在 Multi-PIE 数据集上测试预训练模型效果不佳怎么办？","如果在 Multi-PIE 数据集上测试结果不理想（如大角度识别率低），主要原因可能是使用了新初始化的权重而非官方提供的预训练权重。请确保正确加载了 DeepFace168.pickle 文件。同时，检查测试脚本是否与原作者使用的版本一致，可以参考社区分享的测试代码进行对比调试。","https:\u002F\u002Fgithub.com\u002FHRLTY\u002FTP-GAN\u002Fissues\u002F10",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},31974,"训练集中使用了多少个身份（identities）？","根据作者回复，训练集中使用的身份数量为 200 个。虽然代码函数 \"FeaturePredict\" 中可能出现 340 这个数字，但请以论文和作者确认的 200 为准（针对 Setting2 配置）。","https:\u002F\u002Fgithub.com\u002FHRLTY\u002FTP-GAN\u002Fissues\u002F4",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},31975,"运行时报错找不到 'DeepFacePath' 文件或路径错误怎么办？","该错误是因为缺少必要的预训练权重文件。维护者已上传了相关文件的一个版本，请务必查看项目根目录下的 README 文档，其中包含了下载链接和文件放置的具体路径说明。确保文件名为 DeepFace168.pickle 并放置在代码指定的目录下。","https:\u002F\u002Fgithub.com\u002FHRLTY\u002FTP-GAN\u002Fissues\u002F2",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},31976,"TP-GAN 训练数据预处理时，使用什么工具生成人脸关键点？","关于人脸关键点（如 5 点特征）的生成工具和方法，作者已在更新后的 README 文件中提供了详细说明。请查阅最新的 README 文档以获取具体的预处理脚本、工具名称及操作步骤。","https:\u002F\u002Fgithub.com\u002FHRLTY\u002FTP-GAN\u002Fissues\u002F5",{"id":145,"question_zh":146,"answer_zh":147,"source_url":123},31977,"如何在不使用预训练权重的情况下运行模型？","若需不使用预训练权重运行，需要对模型结构进行重新定义（model redefinition）。有用户尝试结合其他仓库的 LCNN 实现进行修改，但这通常需要深入理解源码。建议优先参考社区中成功修改者的代码对比原始源码，理解模型重定义的具体差异，或者直接请求分享修改后的代码以便比对学习。",[]]