[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-yinguobing--cnn-facial-landmark":3,"tool-yinguobing--cnn-facial-landmark":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":79,"owner_website":82,"owner_url":83,"languages":84,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":23,"env_os":93,"env_gpu":93,"env_ram":93,"env_deps":94,"category_tags":101,"github_topics":102,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":107,"updated_at":108,"faqs":109,"releases":149},3518,"yinguobing\u002Fcnn-facial-landmark","cnn-facial-landmark","Training code for facial landmark detection based on deep convolutional neural network.","cnn-facial-landmark 是一个基于深度卷积神经网络的人脸关键点检测开源项目。它主要解决如何精准定位人脸五官及轮廓特征点的问题，广泛应用于人脸对齐、表情分析及虚拟试妆等场景。\n\n该项目非常适合希望入门深度学习人脸技术的开发者、学生及研究人员。其最大亮点在于提供了完整且易懂的“从零到一”解决方案：不仅包含基于 TensorFlow 和 Keras 构建的模型训练代码，还配套了详尽的教程，涵盖数据预处理、模型架构设计、训练策略到最终部署的全流程。用户可以直接使用预训练模型进行推理，也能利用自己的数据集轻松训练定制化模型。\n\n在技术实现上，cnn-facial-landmark 支持将模型导出为标准的 SavedModel 格式用于云端或 PC 端应用，同时也为移动端轻量化部署预留了接口。对于追求更高精度的进阶用户，作者还指引了基于 HRNet 架构的升级版本。整体而言，这是一个代码结构清晰、文档友好且极具实践价值的学习与实践工具。","\n# cnn-facial-landmark\n\nFacial landmarks detection based on convolution neural network.\n\nHere is a sample gif showing the detection result.\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyinguobing_cnn-facial-landmark_readme_3c5c755a01a7.gif)\n\n\nThe model is build with TensorFlow, and training code is provided so you can train your own model with your own datasets. The companion tutorial is also [available](https:\u002F\u002Fyinguobing.com\u002Ffacial-landmark-localization-by-deep-learning-background\u002F), which includes background, dataset, preprocessing, model architecture, training and deployment. I tried my best to make them simple and easy to understand for beginners. Feel free to open issues when you are stuck or have some wonderful ideas to share.\n\n\n## Getting Started\n\nThese instructions will get you a copy of the project up and running on your local machine for development and testing purposes.\n\n### Prerequisites\n\n![TensorFlow](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTensorFlow-v2.3-brightgreen)\n![OpenCV](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FOpenCV-v4.3-brightgreen)\n![Numpy](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FNumpy-v1.17-brightgreen)\n\n### Installing\n\nJust git clone this repo and you are good to go.\n\n```bash\n# From your favorite development directory\ngit clone https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fcnn-facial-landmark.git\n```\n\n## Train & evaluate\n\nThe following command shows how to train the model for 10 epochs.\n\n```bash\n# From the repo's root directory\npython3 landmark.py \\\n    --train_record=train.record \\\n    --val_record=validation.record \\\n    --batch_size=32 \\\n    --epochs=10\n```\nTraining and testing files are required to be stored as TensorFlow Record files. You can generate them by yourself, or checkout the branch `features\u002Ftfrecord-marks-68` in this repository: [face-mesh-generator](https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fface-mesh-generator).\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fface-mesh-generator.git\ngit checkout features\u002Ftfrecord-marks-68\n```\n\n## Export\n\n### For PC\u002FCloud applications\n\nTensorFlow's [SavedModel](https:\u002F\u002Fwww.tensorflow.org\u002Fguide\u002Fsaved_model) is recommended and is the default option. Use the argument `--export_only` to save the model.\n\n```bash\n# From the repo's root directory\npython3 landmark.py --export_only=True\n```\n\n### For Mobile\u002FEmbedded\u002FIoT devices\n\nThese devices tend to have constrained resource and TensorFlow Lite is most suitable for this situation. However this is beyond the scope of this project. But don't worry, you will find a more comprehensive project in the next section.\n\n## Where to go next?\n\nOnce you have accomplished all the applications above, it's a good time to move on to a more advanced repo with following features:\n\n- Support multiple public dataset: WFLW, IBUG, etc.\n- Advanced model architecture: HRNet v2\n- Data augmentation: randomly scale\u002Frotate\u002Fflip\n- Model optimization: quantization, pruning\n\nWatch this demo video: [HRNet Facial Landmark Detection (bilibili)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Vy4y1C79p\u002F)\n\nAnd build a better one: https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Ffacial-landmark-detection-hrnet\n\n\n## Authors\n\nYin Guobing (尹国冰) - [yinguobing](https:\u002F\u002Fgithub.com\u002Fyinguobing\u002F)\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyinguobing_cnn-facial-landmark_readme_e3afad54810c.png)\n\n\n## License\n\n![GitHub](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fyinguobing\u002Fcnn-facial-landmark)\n\n## Acknowledgments\n\n* The TensorFlow team for their comprehensive tutorial.\n* The iBUG team for their public dataset.\n\n## Changelog\n\n### Update 2021-03-09\nA preprocessing layer was added and new model weights provided.\n\n### Update 2020-06-20\nMaking `Keras` the default way of building models.\n\n### Update 2019-08-08\nA new input function is added to export the model to take raw tensor input. Use the `--raw_input` argument in the exporting command. This is useful if you want to \"freeze\" the model later.\n\nFor those who are interested in inference with frozen model on image\u002Fvideo\u002Fwebcam, there is a lightweight module here:https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fbutterfly, check it out.\n\n\n### Update 2019-06-24\nGood news! The code is updated. Issue #11 #13 #38 #45 and many others have been resolved. No more `key error x` in training, and exporting model looks fine now.\n\n### Update 2019-05-22\nThanks for your patience. I have managed to updated the repo that is used to extract face annotations and generate TFRecord file. Some bugs have been fixed and some minimal sample files have been added. Check it out [here](https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fimage_utility) and [here](https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Ftfrecord_utility).\n\nThe training part(this repo) is about to be updated. I'm working on it.\n\n### Update 2019-04-22\nThis repository now has 199 github stars that is totally beyond my expectation. Whoever you are, wherever you are from and whichever language you speak, I want to say \"Thank you!\" to you 199 github friends for your interest.\n\nHuman facial landmark detection is easy to get hands on but also hard enough to demonstrates the power of deep neural networks, that is the reason I chose for my learning project. Even I had tried my best to keep a exhaustive record that turned into this repository and the companion tutorial, they are still sloppy and confusing in some parts.\n\nThe code is published a year ago and during this time a lot things have changed. TensorFlow 2.0 is coming and the exported model seems not working in the latest release of tf1.13. I think it's better to make this project up to date and keep being beneficial to the community.\n\nI've got a full time job which costs nearly 12 hours(including traffic time) in my daily life, but I will try my best to keep the pace.\n\nFeel free to open issues so that we can discuss in detail.\n","# cnn-facial-landmark\n\n基于卷积神经网络的人脸关键点检测。\n\n这里有一个展示检测结果的示例动图。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyinguobing_cnn-facial-landmark_readme_3c5c755a01a7.gif)\n\n\n该模型使用 TensorFlow 构建，并提供了训练代码，以便您可以使用自己的数据集训练模型。配套教程也[可在此处](https:\u002F\u002Fyinguobing.com\u002Ffacial-landmark-localization-by-deep-learning-background\u002F)找到，内容包括背景知识、数据集、预处理、模型架构、训练和部署等。我尽力使这些内容简单易懂，适合初学者阅读。如果您遇到困难或有好的想法想要分享，欢迎随时提出问题。\n\n## 快速开始\n\n本指南将帮助您在本地机器上克隆并运行该项目，以进行开发和测试。\n\n### 前提条件\n\n![TensorFlow](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTensorFlow-v2.3-brightgreen)\n![OpenCV](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FOpenCV-v4.3-brightgreen)\n![Numpy](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FNumpy-v1.17-brightgreen)\n\n### 安装\n\n只需克隆此仓库即可开始使用。\n\n```bash\n# 从您喜欢的开发目录\ngit clone https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fcnn-facial-landmark.git\n```\n\n## 训练与评估\n\n以下命令展示了如何训练模型 10 个周期。\n\n```bash\n# 从仓库根目录\npython3 landmark.py \\\n    --train_record=train.record \\\n    --val_record=validation.record \\\n    --batch_size=32 \\\n    --epochs=10\n```\n\n训练和测试文件需要存储为 TensorFlow Record 文件。您可以自行生成，也可以查看此仓库中的 `features\u002Ftfrecord-marks-68` 分支：[face-mesh-generator](https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fface-mesh-generator)。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fface-mesh-generator.git\ngit checkout features\u002Ftfrecord-marks-68\n```\n\n## 导出\n\n### 用于 PC\u002F云端应用\n\n推荐使用 TensorFlow 的 [SavedModel](https:\u002F\u002Fwww.tensorflow.org\u002Fguide\u002Fsaved_model)，这也是默认选项。使用 `--export_only` 参数保存模型。\n\n```bash\n# 从仓库根目录\npython3 landmark.py --export_only=True\n```\n\n### 用于移动设备\u002F嵌入式\u002FIoT 设备\n\n这些设备通常资源受限，TensorFlow Lite 是最适合的选择。然而，这超出了本项目的范围。不过不用担心，下一节将介绍一个更全面的项目。\n\n## 接下来做什么？\n\n完成上述所有步骤后，您可以继续探索一个更高级的仓库，它具备以下特性：\n\n- 支持多个公开数据集：WFLW、IBUG 等。\n- 先进的模型架构：HRNet v2。\n- 数据增强：随机缩放\u002F旋转\u002F翻转。\n- 模型优化：量化、剪枝。\n\n观看演示视频：[HRNet 人脸关键点检测（bilibili）](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Vy4y1C79p\u002F)\n\n并构建更好的模型：https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Ffacial-landmark-detection-hrnet\n\n\n## 作者\n\n尹国冰 - [yinguobing](https:\u002F\u002Fgithub.com\u002Fyinguobing\u002F)\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyinguobing_cnn-facial-landmark_readme_e3afad54810c.png)\n\n\n## 许可证\n\n![GitHub](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fyinguobing\u002Fcnn-facial-landmark)\n\n## 致谢\n\n* TensorFlow 团队提供的详尽教程。\n* iBUG 团队提供的公开数据集。\n\n## 更改记录\n\n### 更新 2021-03-09\n添加了预处理层，并提供了新的模型权重。\n\n### 更新 2020-06-20\n将 `Keras` 设置为默认的模型构建方式。\n\n### 更新 2019-08-08\n新增了一个输入函数，用于导出接受原始张量输入的模型。在导出命令中使用 `--raw_input` 参数。如果您希望稍后“冻结”模型，这将非常有用。\n\n对于那些有兴趣使用冻结模型对图像\u002F视频\u002F摄像头进行推理的人，这里有一个轻量级模块：https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fbutterfly，请查看。\n\n### 更新 2019-06-24\n好消息！代码已更新。解决了 #11、#13、#38、#45 等多个问题。训练过程中不再出现 `key error x` 错误，导出模型也正常工作了。\n\n### 更新 2019-05-22\n感谢您的耐心等待。我已经成功更新了用于提取人脸标注并生成 TFRecord 文件的仓库。修复了一些错误，并添加了一些最小化的示例文件。请查看[这里](https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fimage_utility)和[这里](https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Ftfrecord_utility)。\n\n训练部分（本仓库）即将更新，我正在努力。\n\n### 更新 2019-04-22\n该仓库目前已有 199 颗 GitHub 星标，这完全超出了我的预期。无论您是谁、来自哪里、使用何种语言，我都想对这 199 位 GitHub 朋友表示感谢，感谢你们的关注。\n\n人脸关键点检测既容易上手，又能很好地展示深度神经网络的强大能力，这也是我选择将其作为学习项目的原因。尽管我尽力记录了完整的过程，并整理成这个仓库和配套教程，但其中仍有一些地方显得粗糙和混乱。\n\n该代码发布于一年前，在这段时间里发生了许多变化。TensorFlow 2.0 即将推出，而导出的模型在最新版本的 tf1.13 中似乎无法正常工作。我认为最好能将该项目更新到最新状态，使其继续为社区带来价值。\n\n我现在有一份全职工作，每天几乎要花费 12 小时（包括通勤时间），但我仍会尽力保持进度。\n\n欢迎随时提出问题，让我们深入讨论。","# cnn-facial-landmark 快速上手指南\n\n基于卷积神经网络（CNN）的人脸关键点检测工具，使用 TensorFlow 构建，支持模型训练与导出。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下版本要求：\n\n*   **TensorFlow**: v2.3\n*   **OpenCV**: v4.3\n*   **Numpy**: v1.17\n\n> **提示**：国内开发者建议使用清华源或阿里源加速 Python 依赖安装：\n> `pip install tensorflow==2.3 opencv-python==4.3 numpy==1.17 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n## 安装步骤\n\n克隆项目仓库到本地即可直接使用：\n\n```bash\n# 进入您常用的开发目录\ngit clone https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fcnn-facial-landmark.git\n```\n\n## 基本使用\n\n### 1. 准备数据集\n训练和评估需要 TensorFlow Record (`.record`) 格式的数据文件。您可以自行生成，或使用作者提供的辅助工具生成包含 68 个关键点的标准数据：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fface-mesh-generator.git\ncd face-mesh-generator\ngit checkout features\u002Ftfrecord-marks-68\n# 请参考该仓库文档生成 train.record 和 validation.record\n```\n\n### 2. 训练模型\n在项目根目录下运行以下命令开始训练（示例为训练 10 个 epoch）：\n\n```bash\n# 从项目根目录执行\npython3 landmark.py \\\n    --train_record=train.record \\\n    --val_record=validation.record \\\n    --batch_size=32 \\\n    --epochs=10\n```\n\n### 3. 导出模型\n训练完成后，可将模型导出以便部署：\n\n**PC\u002F云端应用 (SavedModel 格式):**\n```bash\npython3 landmark.py --export_only=True\n```\n\n**移动端\u002F嵌入式设备:**\n本项目主要侧重于训练与 PC 端导出。若需部署到资源受限设备（如手机、IoT），建议转换为 TensorFlow Lite 格式，或参考作者的高级项目 [facial-landmark-detection-hrnet](https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Ffacial-landmark-detection-hrnet) 获取量化与剪枝等优化支持。","某智能会议系统开发团队需要为线上视频会议软件添加“发言人专注度分析”功能，以实时检测参会者是否注视屏幕或分心。\n\n### 没有 cnn-facial-landmark 时\n- **算法精度不足**：传统计算机视觉方法在侧脸、遮挡或光线变化剧烈时，无法稳定定位眼角和嘴角，导致注意力判断频繁误报。\n- **定制成本高昂**：现有闭源 SDK 不支持针对特定会议室场景的数据微调，团队无法利用内部采集的独家数据集优化模型表现。\n- **部署流程割裂**：从模型训练到导出 TensorFlow SavedModel 缺乏统一脚本，工程师需手动编写大量转换代码，耗时且容易出错。\n- **学习门槛过高**：缺乏系统的深度学习教程，初级开发人员难以理解从数据预处理到架构设计的完整链路，项目推进缓慢。\n\n### 使用 cnn-facial-landmark 后\n- **鲁棒性显著提升**：基于深度卷积神经网络的模型能精准捕捉 68 个面部关键点，即使在复杂光照和部分遮挡下也能保持高稳定性。\n- **支持自主训练**：提供完整的训练代码和 TensorFlow Record 生成工具，团队可快速利用自有数据微调模型，完美适配特定业务场景。\n- **一键导出部署**：内置 `--export_only` 参数可直接生成适用于云端服务的 SavedModel，大幅简化了从实验到生产环境的落地流程。\n- **上手简单快捷**：配套详细的中文教程涵盖了背景原理到实战部署的全流程，帮助团队成员迅速掌握核心技术并投入开发。\n\ncnn-facial-landmark 通过提供端到端的训练与部署方案，让开发团队能以低成本构建出高精度、可定制的面部关键点检测服务。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyinguobing_cnn-facial-landmark_fd69661e.png","yinguobing","Yin Guobing","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fyinguobing_fff1deaf.jpg","AI engineer. Rust enthusiast. Simplifying the complex.",null,"China","yinguobing@gmail.com","https:\u002F\u002Fyinguobing.com","https:\u002F\u002Fgithub.com\u002Fyinguobing",[85],{"name":86,"color":87,"percentage":88},"Python","#3572A5",100,646,179,"2026-03-22T13:02:47","MIT","未说明",{"notes":95,"python":96,"dependencies":97},"训练和测试数据需预先转换为 TensorFlow Record (.record) 格式，可参考作者提供的 face-mesh-generator 项目生成。模型默认导出为 SavedModel 格式，适用于 PC\u002F云端；移动端需自行转换为 TensorFlow Lite。README 提到代码已更新以支持 Keras 作为默认构建方式，并修复了旧版本 TensorFlow (tf1.13) 的兼容性问题。","3.x (命令示例使用 python3)",[98,99,100],"TensorFlow>=2.3","OpenCV>=4.3","Numpy>=1.17",[13],[103,104,105,106],"tensorflow","cnn","deep-neural-networks","convolution-neural-network","2026-03-27T02:49:30.150509","2026-04-06T08:46:46.342935",[110,115,120,125,129,134,139,144],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},16124,"如何使用自己的数据集进行训练并转换为 TFRecord 格式？","可以使用项目提供的工具将图片和标注文件（pts）转换为 TFRecord。在导出模型准备冻结时，务必注意添加 `--raw_input` 参数。如果遇到问题，请确保使用的是最新版本的代码，并参考 `tfrecord_utility` 仓库中的 `generate_tfrecord.py` 脚本逻辑。","https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fcnn-facial-landmark\u002Fissues\u002F92",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},16125,"重新训练新数据集后，加载 frozen_inference.pb 模型时报错 'logits\u002FBiasAdd:0' 不存在怎么办？","这通常是因为导出模型时参数设置不当或代码版本过旧。最新的提交已经添加了导出可冻结模型的功能。请在导出 saved model 时务必加上 `--raw_input` 参数。此外，检查标签目录名称，尝试将 `labels\\marks` 改为 `labels\\points` 看是否解决问题。","https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fcnn-facial-landmark\u002Fissues\u002F57",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},16126,"训练时出现 'Input to reshape is a tensor with X values, but the requested shape has Y values' 错误如何解决？","这个错误通常是由于提取的人脸图像尺寸与脚本中设定的目标尺寸（Target_size）不一致导致的。默认情况下，提取的图片尺寸可能是 128，而脚本中设定的目标尺寸是 112（或反之）。请检查 `pts_tools`、`extract_face_from_ibug` 中的 `Target_size` 以及 `landmark.py` 中的 `IMG_WIDTH` 和 `IMG_HEIGHT`，确保它们保持一致。","https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fcnn-facial-landmark\u002Fissues\u002F4",{"id":126,"question_zh":127,"answer_zh":128,"source_url":114},16127,"运行 demo.py 时遇到 'Cannot feed value of shape...' 的输入形状不匹配错误，input_node 应该设为什么？","该错误表明输入的张量形状与模型预期的占位符形状不符。通常是因为 `--input_node` 参数指定错误。如果模型期望接收原始图像字符串，节点名可能包含 `encoded_image_string_tensor`；如果模型期望接收预处理后的张量，则需对应相应的输入节点。建议打印模型所有节点名称，确认输入节点的正确名称，并确保传入图像的预处理流程（如缩放、归一化）与模型训练时一致。",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},16128,"使用 freeze_graph 冻结模型时提示 'AssertionError: logits\u002FBiasAdd:0 is not in graph' 怎么办？","这表示指定的输出节点名称在图中不存在。首先，不要直接导入 `freeze_graph` 模块，建议使用命令行方式运行：`python3 freeze_graph.py ...`。其次，确认 `--output_node_names` 参数填写的名称是否正确，可以通过查看 saved_model 或使用 `summarize_graph` 工具列出图中所有节点来验证。如果是从 checkpoint 冻结，确保 `output_node_names` 对应的是最终输出操作的名字（不带 :0 后缀有时也需尝试）。","https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fcnn-facial-landmark\u002Fissues\u002F17",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},16129,"在 Windows 环境下运行代码遇到 cv2.dnn 导入失败或其他环境相关错误如何解决？","这类问题通常由 TensorFlow 或 OpenCV 安装不完整引起。建议严格按照 TensorFlow 官方安装指南重新安装 TensorFlow（特别是 GPU 版本需匹配正确的 CUDA 和 cuDNN 版本）。对于 Windows 用户，推荐使用 Anaconda 管理 Python 环境（如 Python 3.6），并在其中安装兼容的 opencv-contrib-python 包以支持 dnn 模块。","https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fcnn-facial-landmark\u002Fissues\u002F35",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},16130,"如何获取预训练的 CNN 人脸关键点检测模型？","作者通常在项目的 Release 页面或 README 文档中提供预训练模型的下载链接。如果未找到，可以检查项目仓库的根目录或 `models` 文件夹。若需自己训练，请确保数据集标注格式正确，并参照上述关于自定义数据集训练的步骤进行操作。","https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fcnn-facial-landmark\u002Fissues\u002F1",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},16131,"使用 pts_tool.py 处理图片后生成的结果没有关键点，或者报错 'Fitting failed' 是什么原因？","这可能是由于人脸检测失败导致无法定位关键点，从而使用了最小边界框（minimal box）作为兜底策略。请检查输入图片中人脸是否清晰且完整，以及 `face_detector` 是否能正常工作。如果是批量处理，部分图片检测失败是正常现象，但大量失败可能需要调整检测器的阈值或更换检测模型。","https:\u002F\u002Fgithub.com\u002Fyinguobing\u002Fcnn-facial-landmark\u002Fissues\u002F9",[]]