[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-cmusatyalab--openface":3,"tool-cmusatyalab--openface":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":77,"owner_location":77,"owner_email":78,"owner_twitter":77,"owner_website":79,"owner_url":80,"languages":81,"stars":106,"forks":107,"last_commit_at":108,"license":109,"difficulty_score":110,"env_os":111,"env_gpu":112,"env_ram":113,"env_deps":114,"category_tags":124,"github_topics":125,"view_count":23,"oss_zip_url":77,"oss_zip_packed_at":77,"status":16,"created_at":129,"updated_at":130,"faqs":131,"releases":167},3186,"cmusatyalab\u002Fopenface","openface","Face recognition with deep neural networks.","OpenFace 是一个免费且开源的人脸识别工具，核心利用深度神经网络技术来实现高精度的人脸分析与比对。它主要解决了传统人脸识别方案中依赖昂贵商业授权、部署复杂或精度不足的痛点，为开发者提供了一套可自由定制、本地化运行的完整解决方案。\n\n该项目非常适合科研人员、软件开发者以及希望构建自定义人脸应用的技术团队使用。无论是需要批量处理图像数据、训练专属分类器，还是开发实时的网页或摄像头人脸识别演示，OpenFace 都提供了丰富的脚本和 Python 库支持。其独特的技术亮点在于不仅发布了预训练的高性能模型，还开放了从数据预处理、网络训练到评估的全流程代码，允许用户根据特定场景优化模型。此外，它对移动端应用的支持也展现了其在资源受限环境下的适应能力。作为由卡内基梅隆大学研究团队推出的成果，OpenFace 凭借 Apache 2.0 协议开放的源代码，已成为学术界和工业界探索人脸识别技术的重要基石。","# OpenFace • [![Build Status][travis-image]][travis] [![Release][release-image]][releases] [![License][license-image]][license] [![Gitter][gitter-image]][gitter]\n\n*Free and open source face recognition with\ndeep neural networks.*\n\n\n[travis-image]: https:\u002F\u002Ftravis-ci.org\u002Fcmusatyalab\u002Fopenface.svg?branch=master\n[travis]: http:\u002F\u002Ftravis-ci.org\u002Fcmusatyalab\u002Fopenface\n\n[release-image]: http:\u002F\u002Fimg.shields.io\u002Fbadge\u002Frelease-0.2.1-blue.svg?style=flat\n[releases]: https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Freleases\n\n[license-image]: http:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache--2-blue.svg?style=flat\n[license]: LICENSE\n\n[gitter-image]: https:\u002F\u002Fbadges.gitter.im\u002FJoin%20Chat.svg\n[gitter]: https:\u002F\u002Fgitter.im\u002Fcmusatyalab\u002Fopenface\n\n---\n\n+ Website: http:\u002F\u002Fcmusatyalab.github.io\u002Fopenface\u002F\n+ [API Documentation](http:\u002F\u002Fopenface-api.readthedocs.org\u002Fen\u002Flatest\u002Findex.html)\n+ Join the\n  [cmu-openface group](https:\u002F\u002Fgroups.google.com\u002Fforum\u002F#!forum\u002Fcmu-openface)\n  or the\n  [gitter chat](https:\u002F\u002Fgitter.im\u002Fcmusatyalab\u002Fopenface)\n  for discussions and installation issues.\n+ Development discussions and bugs reports are on the\n  [issue tracker](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Fissues).\n\n---\n\nThis research was supported by the National Science Foundation (NSF)\nunder grant number CNS-1518865.  Additional support\nwas provided by the Intel Corporation, Google, Vodafone, NVIDIA, and the\nConklin Kistler family fund.  Any opinions, findings, conclusions or\nrecommendations expressed in this material are those of the authors\nand should not be attributed to their employers or funding sources.\n\n# What's in this repository?\n+ [batch-represent](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Fbatch-represent): Generate representations from\n  a batch of images. [Example directory structure.](https:\u002F\u002Fgist.github.com\u002Fbamos\u002Ff03037f5df7e05ad0cc8)\n+ [demos\u002Fweb](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Fdemos\u002Fweb): Real-time web demo.\n+ [demos\u002Fcompare.py](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Fdemos\u002Fcompare.py): Demo to compare two images.\n+ [demos\u002Fvis-outputs.lua](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Fdemos\u002Fvis-outputs.lua): Demo to\n  visualize the network's outputs.\n+ [demos\u002Fclassifier.py](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Fdemos\u002Fclassifier.py): Demo to train and use classifiers.\n+ [demos\u002Fclassifier_webcam.py](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Fblob\u002Fmaster\u002Fdemos\u002Fclassifier_webcam.py): Demo to use a trained classifier on a webcam stream.\n+ [evaluation](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Fblob\u002Fmaster\u002Fevaluation): LFW accuracy evaluation scripts.\n+ [openface](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Fopenface): Python library code.\n+ [models](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Fmodels): Model directory for openface and 3rd party libraries.\n+ [tests](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Ftests): Tests for scripts and library code, including neural network training.\n+ [training](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Ftraining): Scripts to train new OpenFace neural network models.\n+ [util](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Futil): Utility scripts.\n\n# Citations\n\nPlease cite OpenFace in your publications if it helps your research.\nThe following is a [BibTeX](http:\u002F\u002Fwww.bibtex.org\u002F) and plaintext reference for our\n[OpenFace tech report](http:\u002F\u002Freports-archive.adm.cs.cmu.edu\u002Fanon\u002Fanon\u002F2016\u002FCMU-CS-16-118.pdf).\n\n```\n@techreport{amos2016openface,\n  title={OpenFace: A general-purpose face recognition\n    library with mobile applications},\n  author={Amos, Brandon and Bartosz Ludwiczuk and Satyanarayanan, Mahadev},\n  year={2016},\n  institution={CMU-CS-16-118, CMU School of Computer Science},\n}\n\nB. Amos, B. Ludwiczuk, M. Satyanarayanan,\n\"Openface: A general-purpose face recognition library with mobile applications,\"\nCMU-CS-16-118, CMU School of Computer Science, Tech. Rep., 2016.\n```\n\n# Licensing\nUnless otherwise stated, the source code and trained Torch and Python\nmodel files are copyright Carnegie Mellon University and licensed\nunder the [Apache 2.0 License](.\u002FLICENSE).\nPortions from the following third party sources have\nbeen modified and are included in this repository.\nThese portions are noted in the source files and are\ncopyright their respective authors with\nthe licenses listed.\n\nProject | Modified | License\n---|---|---|\n[Atcold\u002Ftorch-TripletEmbedding](https:\u002F\u002Fgithub.com\u002FAtcold\u002Ftorch-TripletEmbedding) | No | MIT\n[facebook\u002Ffbnn](https:\u002F\u002Fgithub.com\u002Ffacebook\u002Ffbnn) | Yes | BSD\n[dlib-models](https:\u002F\u002Fgithub.com\u002Fdavisking\u002Fdlib-models) (68 face landmark detector) | No | CC0\n","# OpenFace • [![构建状态][travis-image]][travis] [![发布][release-image]][releases] [![许可证][license-image]][license] [![Gitter][gitter-image]][gitter]\n\n*基于深度神经网络的免费开源人脸识别工具。*\n\n\n[travis-image]: https:\u002F\u002Ftravis-ci.org\u002Fcmusatyalab\u002Fopenface.svg?branch=master\n[travis]: http:\u002F\u002Ftravis-ci.org\u002Fcmusatyalab\u002Fopenface\n\n[release-image]: http:\u002F\u002Fimg.shields.io\u002Fbadge\u002Frelease-0.2.1-blue.svg?style=flat\n[releases]: https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Freleases\n\n[license-image]: http:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache--2-blue.svg?style=flat\n[license]: LICENSE\n\n[gitter-image]: https:\u002F\u002Fbadges.gitter.im\u002FJoin%20Chat.svg\n[gitter]: https:\u002F\u002Fgitter.im\u002Fcmusatyalab\u002Fopenface\n\n---\n\n+ 官网：http:\u002F\u002Fcmusatyalab.github.io\u002Fopenface\u002F\n+ [API 文档](http:\u002F\u002Fopenface-api.readthedocs.org\u002Fen\u002Flatest\u002Findex.html)\n+ 加入\n  [cmu-openface 论坛](https:\u002F\u002Fgroups.google.com\u002Fforum\u002F#!forum\u002Fcmu-openface)\n  或\n  [gitter 聊天室](https:\u002F\u002Fgitter.im\u002Fcmusatyalab\u002Fopenface)\n  参与讨论及解决安装问题。\n+ 开发讨论和 bug 报告请提交至\n  [issue 追踪器](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Fissues)。\n\n---\n\n本研究得到了美国国家科学基金会（NSF）CNS-1518865 号资助的支持。此外，英特尔公司、谷歌、沃达丰、英伟达以及康克林·基斯勒家族基金也提供了支持。本文中所表达的观点、发现、结论或建议均属作者个人意见，不应归因于其雇主或资助机构。\n\n# 本仓库包含哪些内容？\n+ [batch-represent](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Fbatch-represent): 从一批图像中生成特征表示。[示例目录结构。](https:\u002F\u002Fgist.github.com\u002Fbamos\u002Ff03037f5df7e05ad0cc8)\n+ [demos\u002Fweb](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Fdemos\u002Fweb): 实时网页演示。\n+ [demos\u002Fcompare.py](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Fdemos\u002Fcompare.py): 比较两张图片的演示。\n+ [demos\u002Fvis-outputs.lua](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Fdemos\u002Fvis-outputs.lua): 可视化网络输出的演示。\n+ [demos\u002Fclassifier.py](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Fdemos\u002Fclassifier.py): 训练和使用分类器的演示。\n+ [demos\u002Fclassifier_webcam.py](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Fblob\u002Fmaster\u002Fdemos\u002Fclassifier_webcam.py): 在网络摄像头流上使用已训练分类器的演示。\n+ [evaluation](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Fblob\u002Fmaster\u002Fevaluation): LFW 准确率评估脚本。\n+ [openface](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Fopenface): Python 库代码。\n+ [models](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Fmodels): OpenFace 及第三方库的模型目录。\n+ [tests](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Ftests): 脚本和库代码的测试，包括神经网络训练。\n+ [training](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Ftraining): 用于训练新的 OpenFace 神经网络模型的脚本。\n+ [util](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002Fmaster\u002Futil): 工具脚本。\n\n# 引用\n\n如果您认为 OpenFace 对您的研究有帮助，请在您的出版物中引用它。以下是针对我们\n[OpenFace 技术报告](http:\u002F\u002Freports-archive.adm.cs.cmu.edu\u002Fanon\u002Fanon\u002F2016\u002FCMU-CS-16-118.pdf) 的\n[BibTeX](http:\u002F\u002Fwww.bibtex.org\u002F) 和纯文本参考。\n\n```\n@techreport{amos2016openface,\n  title={OpenFace: A general-purpose face recognition\n    library with mobile applications},\n  author={Amos, Brandon and Bartosz Ludwiczuk and Satyanarayanan, Mahadev},\n  year={2016},\n  institution={CMU-CS-16-118, CMU School of Computer Science},\n}\n\nB. Amos, B. Ludwiczuk, M. Satyanarayanan,\n\"Openface: A general-purpose face recognition library with mobile applications,\"\nCMU-CS-16-118, CMU School of Computer Science, Tech. Rep., 2016.\n```\n\n# 许可协议\n除非另有说明，源代码以及训练好的 Torch 和 Python 模型文件均受卡内基梅隆大学版权保护，并根据\n[Apache 2.0 许可证](.\u002FLICENSE) 授权使用。来自以下第三方来源的部分内容已被修改并包含在本仓库中。\n这些部分已在源文件中注明，版权归各自作者所有，并遵循所列许可协议。\n\n项目 | 修改情况 | 许可协议\n---|---|---\n[Atcold\u002Ftorch-TripletEmbedding](https:\u002F\u002Fgithub.com\u002FAtcold\u002Ftorch-TripletEmbedding) | 无 | MIT\n[facebook\u002Ffbnn](https:\u002F\u002Fgithub.com\u002Ffacebook\u002Ffbnn) | 是 | BSD\n[dlib-models](https:\u002F\u002Fgithub.com\u002Fdavisking\u002Fdlib-models)（68点人脸关键点检测器） | 无 | CC0","# OpenFace 快速上手指南\n\nOpenFace 是一个基于深度神经网络的免费开源人脸识别库，支持面部特征提取、比对及分类器训练。\n\n## 1. 环境准备\n\n### 系统要求\n- **操作系统**: Linux (推荐 Ubuntu 14.04\u002F16.04) 或 macOS。Windows 支持有限，建议使用 Docker 或虚拟机。\n- **硬件**: 推荐使用 NVIDIA GPU 以加速神经网络推理和训练（需安装 CUDA）。\n\n### 前置依赖\n在开始之前，请确保系统已安装以下基础工具：\n- Git\n- CMake\n- Boost\n- OpenCV\n- LuaJIT\n- Torch (深度学习框架)\n- Python 2.7 或 3.x (取决于具体脚本版本，旧版 OpenFace 主要基于 Python 2.7 + Torch)\n\n> **注意**: OpenFace 强依赖 Torch 框架。国内用户安装 Torch 时若遇到网络问题，可尝试配置国内镜像或使用代理。\n\n## 2. 安装步骤\n\n### 第一步：克隆仓库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface.git\ncd openface\n```\n\n### 第二步：安装依赖\n运行官方提供的依赖安装脚本（以 Ubuntu 为例）：\n```bash\n.\u002Futil\u002Finstall-deps.sh\n```\n*注：如果是 macOS，请运行 `.\u002Futil\u002Finstall-deps-osx.sh`。*\n\n### 第三步：安装 Python 包\n进入项目目录并安装所需的 Python 库：\n```bash\npip install -r requirements.txt\n```\n*(若在国内下载缓慢，可指定清华源：`pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`)*\n\n### 第四步：下载预训练模型\nOpenFace 需要预训练的神经网络模型才能工作。运行以下脚本自动下载：\n```bash\n.\u002Futil\u002Fdownload-models.sh\n```\n该脚本会将模型下载到 `models\u002F` 目录下。如果自动下载失败，可手动从 [GitHub Releases](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Freleases) 页面下载对应版本的模型文件并解压至 `models\u002F` 目录。\n\n### 第五步：构建与测试 (可选)\n验证安装是否成功：\n```bash\npython demos\u002Fcompare.py images\u002Fexamples\u002F{lennon-1.jpg,lennon-2.jpg}\n```\n\n## 3. 基本使用\n\n### 场景一：批量生成面部特征向量\n使用 `batch-represent` 工具将图像文件夹中的人脸转换为数学表示（向量），用于后续比对或聚类。\n\n假设你有一个包含人脸图像的目录 `images\u002F`，结构如下：\n```text\nimages\u002F\n├── personA\u002F\n│   ├── 1.jpg\n│   └── 2.jpg\n└── personB\u002F\n    └── 1.jpg\n```\n\n执行命令生成特征：\n```bash\n.\u002Futil\u002Falign-dlib.py images\u002F align outerEyesAndNose aligned-images\u002F --size 96\npython batch-represent\u002Fmain.lua -outDir output\u002F -data aligned-images\u002F\n```\n*说明：第一步先进行人脸对齐（Align），第二步生成特征向量。结果将保存在 `output\u002F` 目录的 `.csv` 文件中。*\n\n### 场景二：比较两张图片的人脸相似度\n直接使用 `compare.py` 脚本计算两张图片中人脸的距离（距离越小越相似）：\n\n```bash\npython demos\u002Fcompare.py images\u002Fexamples\u002Flennon-1.jpg images\u002Fexamples\u002Flennon-2.jpg\n```\n输出示例：\n```text\nDistance: 0.45 (Threshold: 0.7) -> Same person\n```\n\n### 场景三：训练并使用简单分类器\n如果你希望识别特定人物（如“张三”、“李四”），可以使用提供的分类器演示脚本。\n\n1. **准备数据**：按人名建立文件夹，放入对应照片（参考场景一的目录结构）。\n2. **训练分类器**：\n   ```bash\n   python demos\u002Fclassifier.py training-set\u002F output-classifier\u002F\n   ```\n3. **预测单张图片**：\n   ```bash\n   python demos\u002Fclassifier.py predict output-classifier\u002F images\u002Fexamples\u002Ftest.jpg\n   ```\n\n---\n*更多高级功能（如实时 Webcam 演示、Web 接口部署）请参考项目 `demos\u002F` 目录下的其他脚本及官方 API 文档。*","某智慧园区安保团队正试图升级门禁系统，希望用自动化人脸识别替代传统工牌验证，以提升通行效率并防止尾随进入。\n\n### 没有 openface 时\n- 依赖人工核对监控画面或实体证件，高峰期闸口拥堵严重，员工平均等待时间超过 30 秒。\n- 传统图像匹配算法对光照变化、侧脸角度极其敏感，导致误识率高，经常需要保安手动干预放行。\n- 若要引入商业人脸识别 SDK，不仅授权费用昂贵，且数据需上传至第三方云端，存在隐私泄露合规风险。\n- 系统无法在本地边缘设备（如树莓派或嵌入式工控机）上流畅运行，必须铺设高成本的后端服务器集群。\n\n### 使用 openface 后\n- 部署基于深度神经网络的实时识别模型，员工刷脸通行时间缩短至 2 秒内，早高峰通行效率提升 80%。\n- 利用 openface 生成的 128 维人脸特征向量，即使在逆光或大角度侧脸情况下，也能保持极高的识别准确率，基本无需人工介入。\n- 依托其开源免费的 Apache 2.0 协议，所有面部特征数据仅在园区本地服务器处理，彻底消除了数据出域的合规隐患。\n- 借助其轻量化的 Python 库和预训练模型，成功将识别服务部署在现有的边缘网关上，节省了数十万元的硬件升级预算。\n\nopenface 通过提供高精度、可本地化部署的开源人脸识别方案，帮助企业在零授权成本下实现了安全与效率的双重飞跃。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcmusatyalab_openface_df91c154.png","cmusatyalab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fcmusatyalab_052e10d1.png",null,"satya@cs.cmu.edu","http:\u002F\u002Fwww.cs.cmu.edu\u002F~satya\u002F","https:\u002F\u002Fgithub.com\u002Fcmusatyalab",[82,86,90,94,98,102],{"name":83,"color":84,"percentage":85},"Lua","#000080",47.4,{"name":87,"color":88,"percentage":89},"Python","#3572A5",46.3,{"name":91,"color":92,"percentage":93},"Makefile","#427819",2.5,{"name":95,"color":96,"percentage":97},"Shell","#89e051",2.4,{"name":99,"color":100,"percentage":101},"Dockerfile","#384d54",1.2,{"name":103,"color":104,"percentage":105},"JavaScript","#f1e05a",0.1,15413,3577,"2026-04-02T08:07:58","Apache-2.0",4,"Linux, macOS","需要 NVIDIA GPU (基于 Torch 和 CUDA)，具体型号和显存未说明","未说明",{"notes":115,"python":116,"dependencies":117},"该项目较旧（v0.2.1），核心依赖 Lua 版的 Torch 框架而非现代 PyTorch，安装环境配置复杂。包含人脸 landmark 检测器（dlib）和神经网络模型。建议参考官方文档解决具体的依赖编译问题，Windows 原生支持较差。","2.7 或 3.x (基于 Python 库和 Lua\u002FTorch 混合架构，具体版本未明确限定)",[118,119,120,121,122,123],"Torch (Lua)","dlib","OpenCV","scikit-learn","pandas","numpy",[13,14],[126,127,128],"deep-learning","face-recognition","facenet","2026-03-27T02:49:30.150509","2026-04-06T07:13:19.768060",[132,137,142,147,152,157,162],{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},14684,"如何解决 torch.load 加载模型时出现的 'table index is nil' 错误？","该错误通常与环境配置有关，特别是 Lua 的动态库支持问题。报错信息 'dynamic libraries not enabled; check your Lua installation' 表明 Lua 安装未启用动态库。需要重新编译或配置 Lua\u002FTorch 环境以确保支持动态库加载，或者检查 treplutils 模块是否正确安装。","https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Fissues\u002F42",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},14680,"如何检测未训练过的人脸并将其标记为“未知”？","目前 OpenFace 原生不直接支持将未训练人脸标记为“未知”。社区讨论建议可以参考 dlib 的 Python 封装（如 Adam Geitgey 的 face_recognition 库），或者采用 FaceNet、SphereFace 等架构来实现更鲁棒的特征比对和阈值判断，从而区分已知和未知人脸。","https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Fissues\u002F144",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},14681,"如何获取清洗后的 CASIA-WebFace 数据集用于训练？","用户已上传清洗后的数据集到 OneDrive。下载链接为：https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AjMP8wpvXdkfhMhnmNDEdj5oor7M_A。如果无法访问该链接，可以尝试将域名中的 '1drv.ms' 替换为 '1drv.ws' 后再次尝试下载。","https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Fissues\u002F119",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},14682,"如何在纯 Python 环境中加载 Torch 模型或实现前向传播？","完全在 Python 中实现较为复杂，有两种主要方案：1. 编写独立的 Python 库，基于 Torch 的文件格式解析逻辑加载模型并映射到 Python 深度学习库；2. 通过 FFI（外部函数接口）如 lupa 库调用 Lua\u002FTorch，但这需要同时安装 Python 和 Lua 环境，会增加安装复杂度。此外，社区有用户尝试在 Chainer 或 Mxnet 中通过 Caffe 转换工具导入模型并进行微调。","https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Fissues\u002F1",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},14683,"训练大数据集时遇到 Luajit 内存限制（Memory PANIC）怎么办？","这是由于 Luajit 的对象数量限制导致的。当数据集过大时，原生的 Lua 表会触发内存错误。解决方案包括检查代码中是否存在存储图像目录的大表，并尝试将其替换为 C 语言的哈希表以绕过限制。另外，有用户反馈使用 Python 2 运行相关脚本可以避免部分兼容性问题。","https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Fissues\u002F132",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},14685,"是否有计划升级 Dlib 版本以提升人脸检测速度？","社区用户指出 Dlib 19.0 版本引入了 GPU 支持并能提升检测速度，询问是否升级 Docker 镜像。虽然维护者未直接在评论中确认升级时间表，但用户可以在自己的环境中手动编译新版 Dlib（例如在 IBM Power8 等平台）并集成到项目中以获得性能提升。","https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Fissues\u002F157",{"id":163,"question_zh":164,"answer_zh":165,"source_url":166},14686,"使用 VGG 数据集训练时准确率为何无法超过 90%？","仅使用当前的 OpenFace 代码和三元组损失（triplets）在 VGG 数据集上训练，可能无法在 LFW 基准上获得超过 90% 的准确率，尽管 VGG 数据集比 CASIA 或 FaceScrub 更大。这暗示可能需要调整网络架构、损失函数策略或数据预处理方式才能充分利用大规模数据集的优势。","https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Fissues\u002F103",[168,173,178,183,188],{"id":169,"version":170,"summary_zh":171,"released_at":172},81605,"0.2.2","Lua Coda 库的最终版本发布，在合并 #462 提交之前，该提交将迁移至 PyTorch 实现。","2024-10-04T12:56:15",{"id":174,"version":175,"summary_zh":176,"released_at":177},81606,"0.2.1","- 修复了一些小错误，并优化了错误提示信息。\n- 新增了 LFW 人脸识别分类实验和异常点检测脚本。","2016-02-25T17:42:46",{"id":179,"version":180,"summary_zh":181,"released_at":182},81607,"0.2.0","- 请参阅[这篇博客文章](http:\u002F\u002Fbamos.github.io\u002F2016\u002F01\u002F19\u002Fopenface-0.2.0\u002F)以获取概览，以及[GitHub 里程碑](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Fmilestones\u002Fv0.2.0)以查看高层次的问题摘要。\n- 通过训练方面的改进，准确率从**76.1% 提升至 92.9%**，这些改进源自 Bartosz Ludwiczuk 在[这封邮件列表讨论帖](https:\u002F\u002Fgroups.google.com\u002Fforum\u002F#!topic\u002Fcmu-openface\u002FdcPh883T1rk)中的想法和实现。同时，训练时间也从一周缩短至一天。\n- 在[Hervé Bredin](http:\u002F\u002Fherve.niderb.fr\u002F)的建议及图像对齐示例代码的帮助下，执行时间几乎缩短了一半，相关讨论见[Issue 50](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Fissues\u002F50)。\n- 已托管[Python API 文档](http:\u002F\u002Fopenface-api.readthedocs.org\u002Fen\u002Flatest\u002Findex.html)。\n- [Docker 自动构建](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fbamos\u002Fopenface)已上线。\n- 在[tests](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002F0.2.0\u002Ftests)目录下编写了初始的自动化测试。\n- 在 Travis 的 Docker 自动构建中，[测试成功通过](https:\u002F\u002Ftravis-ci.org\u002Fcmusatyalab\u002Fopenface\u002Fbranches)。\n- 添加了[util\u002Fprofile-pipeline.py](https:\u002F\u002Fgithub.com\u002Fcmusatyalab\u002Fopenface\u002Ftree\u002F0.2.0\u002Futil\u002Fprofile-pipeline.py)，用于分析单张图像的整体执行时间。","2016-01-19T11:20:41",{"id":184,"version":185,"summary_zh":186,"released_at":187},81608,"0.1.1","- 修复 NaiveDlib 对齐的调试模式。\n- 添加用于数据集处理的 util\u002Fprune-dataset.py 脚本。\n- 修正 Docker 依赖项。\n","2015-10-15T15:29:57",{"id":189,"version":190,"summary_zh":77,"released_at":191},81609,"0.1.0","2015-10-13T11:51:30"]