[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-D-X-Y--landmark-detection":3,"tool-D-X-Y--landmark-detection":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":94,"forks":95,"last_commit_at":96,"license":97,"difficulty_score":98,"env_os":99,"env_gpu":100,"env_ram":100,"env_deps":101,"category_tags":105,"github_topics":106,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":111,"updated_at":112,"faqs":113,"releases":148},8760,"D-X-Y\u002Flandmark-detection","landmark-detection","Four landmark detection algorithms, implemented in PyTorch.","landmark-detection 是一个基于 PyTorch 构建的开源项目，专注于面部关键点检测任务。它集成了四种在计算机视觉领域具有影响力的先进算法，旨在精准定位人脸上的关键特征点（如眼角、鼻尖、嘴角等），为表情分析、人脸对齐及三维重建等应用提供基础支持。\n\n该项目主要解决了复杂场景下关键点检测精度不足以及标注数据稀缺的难题。通过引入风格聚合网络（SAN）、注册监督（SBR）、师生半监督学习（TS3）以及注册与三角测量联合监督（SRT）等创新机制，landmark-detection 不仅能有效应对光照变化和姿态遮挡，还能利用无标签或部分标注的数据提升模型性能，显著降低了高质量训练数据的依赖门槛。\n\n此工具非常适合计算机视觉研究人员、AI 开发者及相关领域的工程师使用。对于希望复现顶级会议（如 CVPR、ICCV、TPAMI）论文成果的研究者，或需要在项目中集成高精度人脸关键点检测功能的开发者而言，landmark-detection 提供了结构清晰、经过验证的代码实现，是探索前沿算法与落地应用的理想选择。","# Landmark Detection\n\nThis project contains three landmark detection algorithms, implemented in [PyTorch](pytorch.org).\n\n- Style Aggregated Network for Facial Landmark Detection, CVPR 2018\n- Supervision-by-Registration: An Unsupervised Approach to Improve the Precision of Facial Landmark Detectors, CVPR 2018\n- Teacher Supervises Students How to Learn from Partially Labeled Images for Facial Landmark Detection, ICCV 2019\n- Supervision by Registration and Triangulation for Landmark Detection, TPAMI 2020\n\n\n## Style Aggregated Network for Facial Landmark Detection\n\nThe training and testing codes for [SAN (CVPR 2018)](https:\u002F\u002Fxuanyidong.com\u002Fpublication\u002Fcvpr-2018-san\u002F) are located in the [SAN directory](https:\u002F\u002Fgithub.com\u002FD-X-Y\u002Flandmark-detection\u002Ftree\u002Fmaster\u002FSAN).\n\n## Supervision-by-Registration: An Unsupervised Approach to Improve the Precision of Facial Landmark Detectors\n\nThe training and testing codes for [Supervision-by-Registration (CVPR 2018)](https:\u002F\u002Fxuanyidong.com\u002Fpublication\u002Fcvpr-2018-sbr\u002F) are located in the [SBR directory](https:\u002F\u002Fgithub.com\u002FD-X-Y\u002Flandmark-detection\u002Ftree\u002Fmaster\u002FSBR).\n\n## Teacher Supervises Students How to Learn from Partially Labeled Images for Facial Landmark Detection\n\nThe model codes for [Teacher Supervises Students (TS3) (ICCV 2019)](https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.02116) are located in the [TS3 directory](https:\u002F\u002Fgithub.com\u002FD-X-Y\u002Flandmark-detection\u002Ftree\u002Fmaster\u002FTS3).\n\n## Supervision by Registration and Triangulation for Landmark Detection\n\nThe training and testing codes for [SRT (TPAMI) 2020](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F9050873) are located in the [SRT directory](https:\u002F\u002Fgithub.com\u002FD-X-Y\u002Flandmark-detection\u002Ftree\u002Fmaster\u002FSRT).\n\n## Citation\nIf this project helps your research, please cite the following papers:\n```\n@inproceedings{dong2018san,\n   title={Style Aggregated Network for Facial Landmark Detection},\n   author={Dong, Xuanyi and Yan, Yan and Ouyang, Wanli and Yang, Yi},\n   booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},\n   pages={379--388},\n   doi={10.1109\u002FCVPR.2018.00047},\n   year={2018}\n}\n@inproceedings{dong2018sbr,\n  title={{Supervision-by-Registration}: An Unsupervised Approach to Improve the Precision of Facial Landmark Detectors},\n  author={Dong, Xuanyi and Yu, Shoou-I and Weng, Xinshuo and Wei, Shih-En and Yang, Yi and Sheikh, Yaser},\n  booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},\n  pages={360--368},\n  doi={10.1109\u002FCVPR.2018.00045},\n  year={2018}\n}\n@inproceedings{dong2019teacher,\n  title={Teacher Supervises Students How to Learn from Partially Labeled Images for Facial Landmark Detection},\n  author={Dong, Xuanyi and Yang, Yi},\n  booktitle={Proceedings of the IEEE International Conference on Computer Vision (ICCV)},\n  pages={783--792},\n  doi={10.1109\u002FICCV.2019.00087},\n  year={2019}\n}\n@inproceedings{dong2020srt,\n  title     = {Supervision by Registration and Triangulation for Landmark Detection},\n  author    = {Dong, Xuanyi and Yang, Yi and Wei, Shih-En and Weng, Xinshuo and Sheikh, Yaser and Yu, Shoou-I},\n  journal   = {IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI)},\n  volume    = {},\n  number    = {},\n  keywords  = {Landmark Detection;Optical Flow;Triangulation;Deep Learning},\n  doi       = {10.1109\u002FTPAMI.2020.2983935},\n  ISSN      = {1939-3539},\n  year      = {2020},\n  month     = {},\n  note      = {\\mbox{doi}:\\url{10.1109\u002FTPAMI.2020.2983935}}\n}\n```\n\n\n## Contact\nTo ask questions or report issues, please open an issue on the [issues tracker](https:\u002F\u002Fgithub.com\u002FD-X-Y\u002Flandmark-detection\u002Fissues).\n","# 人脸关键点检测\n\n本项目包含三种人脸关键点检测算法，均使用 [PyTorch](pytorch.org) 实现。\n\n- 面部关键点检测中的风格聚合网络，CVPR 2018\n- 基于配准的监督：一种无监督方法，用于提升面部关键点检测器的精度，CVPR 2018\n- 教师指导学生如何从部分标注图像中学习用于面部关键点检测，ICCV 2019\n- 基于配准与三角剖分的关键点检测监督，TPAMI 2020\n\n\n## 面部关键点检测中的风格聚合网络\n\n[SAN（CVPR 2018）](https:\u002F\u002Fxuanyidong.com\u002Fpublication\u002Fcvpr-2018-san\u002F) 的训练和测试代码位于 [SAN 目录](https:\u002F\u002Fgithub.com\u002FD-X-Y\u002Flandmark-detection\u002Ftree\u002Fmaster\u002FSAN)。\n\n## 基于配准的监督：一种无监督方法，用于提升面部关键点检测器的精度\n\n[Supervision-by-Registration（CVPR 2018）](https:\u002F\u002Fxuanyidong.com\u002Fpublication\u002Fcvpr-2018-sbr\u002F) 的训练和测试代码位于 [SBR 目录](https:\u002F\u002Fgithub.com\u002FD-X-Y\u002Flandmark-detection\u002Ftree\u002Fmaster\u002FSBR)。\n\n## 教师指导学生如何从部分标注图像中学习用于面部关键点检测\n\n[Teacher Supervises Students (TS3)（ICCV 2019）](https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.02116) 的模型代码位于 [TS3 目录](https:\u002F\u002Fgithub.com\u002FD-X-Y\u002Flandmark-detection\u002Ftree\u002Fmaster\u002FTS3)。\n\n## 基于配准与三角剖分的关键点检测监督\n\n[SRT（TPAMI 2020）](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F9050873) 的训练和测试代码位于 [SRT 目录](https:\u002F\u002Fgithub.com\u002FD-X-Y\u002Flandmark-detection\u002Ftree\u002Fmaster\u002FSRT)。\n\n## 引用\n如果本项目对您的研究有所帮助，请引用以下论文：\n```\n@inproceedings{dong2018san,\n   title={Style Aggregated Network for Facial Landmark Detection},\n   author={Dong, Xuanyi and Yan, Yan and Ouyang, Wanli and Yang, Yi},\n   booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},\n   pages={379--388},\n   doi={10.1109\u002FCVPR.2018.00047},\n   year={2018}\n}\n@inproceedings{dong2018sbr,\n  title={{Supervision-by-Registration}: An Unsupervised Approach to Improve the Precision of Facial Landmark Detectors},\n  author={Dong, Xuanyi and Yu, Shoou-I and Weng, Xinshuo and Wei, Shih-En and Yang, Yi and Sheikh, Yaser},\n  booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},\n  pages={360--368},\n  doi={10.1109\u002FCVPR.2018.00045},\n  year={2018}\n}\n@inproceedings{dong2019teacher,\n  title={Teacher Supervises Students How to Learn from Partially Labeled Images for Facial Landmark Detection},\n  author={Dong, Xuanyi and Yang, Yi},\n  booktitle={Proceedings of the IEEE International Conference on Computer Vision (ICCV)},\n  pages={783--792},\n  doi={10.1109\u002FICCV.2019.00087},\n  year={2019}\n}\n@inproceedings{dong2020srt,\n  title     = {Supervision by Registration and Triangulation for Landmark Detection},\n  author    = {Dong, Xuanyi and Yang, Yi and Wei, Shih-En and Weng, Xinshuo and Sheikh, Yaser and Yu, Shoou-I},\n  journal   = {IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI)},\n  volume    = {},\n  number    = {},\n  keywords  = {Landmark Detection;Optical Flow;Triangulation;Deep Learning},\n  doi       = {10.1109\u002FTPAMI.2020.2983935},\n  ISSN      = {1939-3539},\n  year      = {2020},\n  month     = {},\n  note      = {\\mbox{doi}:\\url{10.1109\u002FTPAMI.2020.2983935}}\n}\n```\n\n\n## 联系方式\n如需提问或报告问题，请在 [问题跟踪器](https:\u002F\u002Fgithub.com\u002FD-X-Y\u002Flandmark-detection\u002Fissues) 中提交 issue。","# Landmark Detection 快速上手指南\n\n本项目基于 PyTorch 实现了四种先进的人脸关键点检测算法，涵盖从风格聚合网络到无监督注册监督等多种前沿技术。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04+) 或 macOS\n*   **Python**: 3.6 或更高版本\n*   **深度学习框架**: PyTorch (建议版本 >= 1.0)\n*   **硬件**: 推荐使用 NVIDIA GPU 以加速训练和推理过程\n\n**前置依赖安装：**\n\n建议使用 `pip` 安装核心依赖。国内用户可使用清华源或阿里源加速下载：\n\n```bash\npip install torch torchvision -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\npip install opencv-python numpy scipy matplotlib\n```\n\n## 安装步骤\n\n克隆仓库并进入对应算法目录。本项目将不同算法分置于独立文件夹中，请根据需求选择：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FD-X-Y\u002Flandmark-detection.git\ncd landmark-detection\n\n# 示例：进入 SAN (CVPR 2018) 算法目录\ncd SAN\n\n# 其他算法目录同理：\n# cd SBR  (Supervision-by-Registration)\n# cd TS3  (Teacher Supervises Students)\n# cd SRT  (Supervision by Registration and Triangulation)\n```\n\n*注意：各子目录可能包含特定的 `requirements.txt`，如有请执行 `pip install -r requirements.txt` 安装额外依赖。*\n\n## 基本使用\n\n由于不同算法（SAN, SBR, TS3, SRT）的训练和测试脚本略有差异，以下以最常用的 **SAN (Style Aggregated Network)** 为例展示基本流程。其他算法请参考对应目录下的具体脚本说明。\n\n### 1. 数据准备\n确保已下载并预处理好人脸数据集（如 WFLW, 300W 等），并将数据路径配置在相应的 `.sh` 脚本或配置文件中。\n\n### 2. 运行测试（推理）\n使用预训练模型进行关键点检测测试：\n\n```bash\n# 在 SAN 目录下执行\n.\u002Fscripts\u002Ftest.sh\n```\n\n### 3. 运行训练\n从头开始训练模型（需准备数据集）：\n\n```bash\n# 在 SAN 目录下执行\n.\u002Fscripts\u002Ftrain.sh\n```\n\n**切换其他算法：**\n若需使用 **SBR**, **TS3**, 或 **SRT** 算法，只需进入对应目录（如 `cd ..\u002FSBR`），并运行该目录下的 `scripts\u002F` 中的相应脚本即可。\n\n---\n*如需引用本项目研究成果，请在您的论文中参考 README 中提供的 BibTeX  citation。遇到问题请访问 GitHub Issues 页面反馈。*","某短视频特效团队正在开发一款需要实时追踪用户面部表情的 AR 滤镜应用，要求在不同光照和角度下都能精准定位五官关键点。\n\n### 没有 landmark-detection 时\n- 传统算法在用户快速转头或侧脸时极易丢失跟踪点，导致虚拟面具“漂移”或脱落，用户体验极差。\n- 面对强光、逆光或低照度环境，模型泛化能力弱，无法稳定识别面部轮廓，需人工逐帧修复大量失效数据。\n- 缺乏半监督学习机制，团队必须耗费数周时间标注海量全量数据集才能训练出可用模型，研发周期被严重拉长。\n- 不同风格的人脸（如妆容浓淡、遮挡物）导致检测精度波动大，难以统一输出高质量的关键点坐标。\n\n### 使用 landmark-detection 后\n- 集成 SAN（风格聚合网络）算法后，即便在剧烈运动或极端角度下，landmark-detection 也能保持关键点高度稳定，彻底消除“漂移”现象。\n- 利用 SBR（注册监督）和 SRT（三角测量监督）技术，模型在无标签视频流中自我优化，显著提升了复杂光照下的鲁棒性，无需人工干预。\n- 借助 TS3（教师 - 学生）架构，团队仅需少量部分标注图像即可训练出高精度模型，将数据准备时间从数周缩短至几天。\n- 四种前沿算法覆盖了从静态图片到动态视频的全场景需求，确保在各种人脸风格下均能输出像素级精度的定位结果。\n\nlandmark-detection 通过引入多项顶会前沿算法，以低成本实现了高鲁棒性的面部关键点检测，大幅降低了 AR 应用的开发门槛并提升了最终交付质量。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FD-X-Y_landmark-detection_3a66f4a4.png","D-X-Y","Barry (Xuanyi) Dong","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FD-X-Y_61eeccbb.jpg","Member of Technical Staff@OpenAI","OpenAI ← Augment ← Google DeepMind","Mountain View, CA, USA",null,"https:\u002F\u002Fd-x-y.github.io\u002F","https:\u002F\u002Fgithub.com\u002FD-X-Y",[82,86,90],{"name":83,"color":84,"percentage":85},"Python","#3572A5",81.7,{"name":87,"color":88,"percentage":89},"Shell","#89e051",18.2,{"name":91,"color":92,"percentage":93},"C++","#f34b7d",0.1,922,180,"2026-04-07T09:17:00","MIT",4,"","未说明",{"notes":102,"python":100,"dependencies":103},"该项目包含四种面部关键点检测算法（SAN, SBR, TS3, SRT），均基于 PyTorch 实现。README 中未提供具体的操作系统、GPU 型号、显存大小、内存需求或 Python 版本要求。代码按算法分为 SAN、SBR、TS3 和 SRT 四个独立目录，需分别查看各子目录以获取可能的详细安装指令。",[104],"PyTorch",[14],[107,108,109,64,110],"facial-landmarks","pytorch","style-transfer","keypoint-detection","2026-03-27T02:49:30.150509","2026-04-18T09:20:55.588543",[114,119,124,129,134,139,144],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},39287,"加载预训练模型时出现 'TypeError: invalid file' 错误，如何解决？","这通常是由 Python 版本不兼容引起的。作者使用 Python 3.6 保存模型，如果您使用 Python 3.5 或其他版本加载，可能会报错。建议尝试切换到 Python 3.6 环境来运行代码和加载模型。","https:\u002F\u002Fgithub.com\u002FD-X-Y\u002Flandmark-detection\u002Fissues\u002F28",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},39288,"CycleGAN 是如何在无监督情况下通过聚合特征学习的？测试时如何生成聚合图像？","训练 CycleGAN 不需要配对的真值（ground truth）。实验中为了效率，仅在两个最大的聚类簇（假设为 A 和 B）上训练，得到两个生成模型 A->B 和 B->A。测试时，对输入图像 I 同时运行这两个模型，聚合图像的计算公式为：(model-1(I) + model-2(I)) \u002F 2。虽然也可以训练三个簇之间的所有组合（共 6 个模型），但这会显著增加推理时间且性能提升相似。","https:\u002F\u002Fgithub.com\u002FD-X-Y\u002Flandmark-detection\u002Fissues\u002F26",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},39289,"如果想结合 SBR 方法或使用基于回归的检测器，有什么推荐方案？","由于扩展版本的回归模型尚未发布，最简单的替代方案是使用 MobileNet 作为骨干网络（参考代码：https:\u002F\u002Fgithub.com\u002Ftonylins\u002Fpytorch-mobilenet-v2\u002Fblob\u002Fmaster\u002FMobileNetV2.py），并将其分类器替换为一个维度为 (关键点数量 * 2) 的全连接层（FC layer）来实现回归检测。","https:\u002F\u002Fgithub.com\u002FD-X-Y\u002Flandmark-detection\u002Fissues\u002F30",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},39290,"在 SAN 项目中运行 gen_mean_face.py 时遇到文件不存在或路径错误怎么办？","错误通常是因为缺少聚类列表文件（如 'BASE-CLUSTER...'）。这些文件是由脚本 `scripts\u002F300W\u002F300W_Base_Cluster.sh` 生成的。如果您在 Windows 上运行，需要修改该 shell 脚本以适配 Windows 环境，或者手动运行聚类步骤生成所需的 .lst 文件后再执行 gen_mean_face.py。","https:\u002F\u002Fgithub.com\u002FD-X-Y\u002Flandmark-detection\u002Fissues\u002F52",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},39291,"SAN 模型的当前性能状态及数据标注情况如何？","该项目完成于两年前，其精度低于当前的最先进（SOTA）方法。如果追求极致精度，建议尝试更新的方法。关于数据，作者仅在 300W 和 AFLW 数据集上进行过测试，未测试侧脸（profile faces）的鲁棒性。原始的 PS 模板已丢失，建议使用其他方法生成不同风格的图像进行增强。","https:\u002F\u002Fgithub.com\u002FD-X-Y\u002Flandmark-detection\u002Fissues\u002F50",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},39292,"如何将 SBR 的 PyTorch 模型转换为 TorchScript 格式？遇到 'stages' 属性访问错误如何处理？","遇到 'Tried to access nonexistent attribute or method stages' 错误通常与代码结构或 TorchScript 的追踪方式有关。输入尺寸由 `crop_height` 和 `crop_width` 定义（参考代码：SBR\u002Fexps\u002Fbasic_main.py#L57），默认裁剪尺寸为 256。网络本身没有固定的默认输入大小，可以处理任意尺寸的图像。若需转换，请确保模型定义符合 TorchScript 规范，可能需要检查 `cpm_vgg16.py` 中配置属性的访问方式。","https:\u002F\u002Fgithub.com\u002FD-X-Y\u002Flandmark-detection\u002Fissues\u002F60",{"id":145,"question_zh":146,"answer_zh":147,"source_url":138},39293,"如果没有原始的 PS 模板，直接用自有数据训练 ResNet 并聚类是否有意义？","原始 PS 模板已丢失，但如果您生成的风格多样，直接用自己的数据进行聚类和训练是有意义的。如果效果不佳，可能是 GAN 训练错误或检测模型训练错误，建议对比官方日志与您自己的训练日志。此外，原代码基于 PyTorch 0.4，若使用新版（如 1.3.1+），需对代码进行相应修改。",[]]