[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-minivision-ai--Silent-Face-Anti-Spoofing":3,"tool-minivision-ai--Silent-Face-Anti-Spoofing":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":10,"env_os":92,"env_gpu":93,"env_ram":94,"env_deps":95,"category_tags":101,"github_topics":102,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":108,"updated_at":109,"faqs":110,"releases":140},2097,"minivision-ai\u002FSilent-Face-Anti-Spoofing","Silent-Face-Anti-Spoofing","静默活体检测（Silent-Face-Anti-Spoofing）","Silent-Face-Anti-Spoofing 是由小视科技开源的一款静默活体检测工具，旨在帮助系统快速判断摄像头前的人脸是真实用户还是照片、屏幕回放或面具等伪造攻击。与传统需要用户配合眨眼、摇头的检测方式不同，它能在用户无感知的情况下完成校验，极大提升了身份验证的流畅度与安全性。\n\n该工具非常适合从事人脸识别系统开发的工程师、算法研究人员以及需要集成防伪功能的企业开发者。其核心技术亮点在于创新性地引入了傅里叶频谱图作为辅助监督信号，有效捕捉真假脸在频域上的细微差异。同时，项目采用了自研的模型剪枝技术，将原本 MobileFaceNet 的计算量大幅降低至原来的三分之一左右，在几乎不损失精度的前提下，实现了在移动端设备上的毫秒级快速推理。\n\n除了提供完整的模型训练架构、数据预处理方法及测试脚本外，官方还开源了安卓端 APK 及部署代码，方便开发者直接体验效果或进行二次开发。无论是希望深入研究活体检测算法的学者，还是寻求高效商用解决方案的团队，Silent-Face-Anti-Spoofing 都是一个值得参考的工业级开源项目。","**中文版**|[English Version](README_EN.md)  \n![静默活体检测](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminivision-ai_Silent-Face-Anti-Spoofing_readme_a11b47a3c0c6.jpg)  \n# 静默活体检测 (Silent-Face-Anti-Spoofing)   \n该项目为[小视科技](https:\u002F\u002Fwww.minivision.cn\u002F)的静默活体检测项目,您可以扫描下方的二维码获取安卓端APK,体验静默活体的检测效果.   \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminivision-ai_Silent-Face-Anti-Spoofing_readme_6ac902c52761.jpeg\" width=\"200\" height=\"200\" align=center \u002F>  \n## 更新  \n**2020-07-30:** 开源caffe模型，分享工业级静默活体检测算法技术解析直播视频以及相关文件。\n## 简介\n在本工程中我们开源了活体模型训练架构，数据预处理方法，模型训练和测试脚本以及开源的APK供大家测试使用。  \n\n活体检测技术主要是判别机器前出现的人脸是真实还是伪造的，其中借助其他媒介呈现的人脸都可以定义为虚假的人脸，包括打印的纸质照片、电子产品的显示屏幕、硅胶面具、立体的3D人像等。目前主流的活体解决方案分为配合式活体检测和非配合式活体检测（静默活体检测）。配合式活体检测需要用户根据提示完成指定的动作，然后再进行活体校验，静默活体则在用户无感的情况下直接进行活体校验。  \n \n因傅里叶频谱图一定程度上能够反应真假脸在频域的差异,因此我们采用了一种基于傅里叶频谱图辅助监督的静默活体检测方法, 模型架构由分类主分支和傅里叶频谱图辅助监督分支构成，整体架构如下图所示：  \n![整体架构图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminivision-ai_Silent-Face-Anti-Spoofing_readme_e7cd203c4e1d.jpg)  \n\n使用自研的模型剪枝方法，将MobileFaceNet的Flops从0.224G降低待了0.081G，在精度损失不大的情况下,明显提升模型的性能(降低计算量与参数量).  \n\n|Model|FLOPs|Params|\n| :------:|:-----:|:-----:| \n|MobileFaceNet|0.224G|0.991M|\n|MiniFASNetV1|0.081G|0.414M|\n|MiniFASNetV2|0.081G|0.435M|\n\n## APK\n### APK源码  \n开源了适用于安卓平台的部署代码：https:\u002F\u002Fgithub.com\u002Fminivision-ai\u002FSilent-Face-Anti-Spoofing-APK  \n\n### Demo\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminivision-ai_Silent-Face-Anti-Spoofing_readme_424a89f42868.gif\" width=\"300\" height=\"400\"\u002F>  \n \n### 关键指标  \n| Model(input 80x80)|FLOPs|Speed| FPR | TPR |备注 |\n| :------:|:-----:|:-----:| :----: | :----: | :----: |\n|   APK模型 |84M| 20ms | 1e-5|97.8%| 开源|\n| 高精度模型 |162M| 40ms| 1e-5 |99.7%| 未开源 |\n\n### 测试方法  \n- 显示信息:速度(ms), 置信度(0~1)以及活体检测结果(真脸or假脸)\n- 点击右上角图标可设置阈值,如果置信度大于阈值,为真脸,否则为假脸  \n\n### 测试须知 \n- 所有测试图片必须通过摄像头采集得到，否则不符合正常场景使用规范，算法效果也无法保证。\n- 因为RGB静默活体对摄像头型号和使用场景鲁棒性受限，所以实际使用体验会有一定差异。\n- 测试时，应保证有完整的人脸出现在视图中，并且人脸旋转角与竖直方向小于30度（符合正常刷脸场景），否则影响体验。　　\n\n**已测试型号**\n\n|型号|麒麟990 5G|麒麟990 |骁龙845 |麒麟810 |RK3288 |\n| :------:|:-----:|:-----:|:-----:|:-----:|:-----:|\n|速度\u002Fms|19|23|24|25|90|\n\n## 工程\n### 安装依赖库  \n```\npip install -r requirements.txt\n```\n### Clone\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fminivision-ai\u002FSilent-Face-Anti-Spoofing  \ncd Silent-Face-Anti-Spoofing\n```  \n### 数据预处理\n1.将训练集分为3类,将相同类别的图片放入一个文件夹;  \n2.因采用多尺度模型融合的方法,分别用原图和不同的patch训练模型,所以将数据分为原图和基于原图的patch;  \n- 原图(org_1_height**x**width),直接将原图resize到固定尺寸(width, height),如图1所示;  \n- 基于原图的patch(scale_height**x**width),采用人脸检测器人脸,获取人脸框,按照一定比例(scale)对人脸框进行扩边，为了保证模型的输入尺寸的一致性，将人脸框区域resize到固定尺寸(width, height),图2-4分别显示了scale为1,2.7和4的patch样例;  \n![patch demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminivision-ai_Silent-Face-Anti-Spoofing_readme_6b4bcbbaa92b.png)  \n\n3.采用傅里叶频谱图作为辅助监督,训练集图片在线生成对应的傅里叶频谱图.  \n**数据集的目录结构如下所示**\n```\n├── datasets\n    └── RGB_Images\n        ├── org_1_80x60\n            ├── 0\n\t\t├── aaa.png\n\t\t├── bbb.png\n\t\t└── ...\n            ├── 1\n\t\t├── ddd.png\n\t\t├── eee.png\n\t\t└── ...\n            └── 2\n\t\t├── ggg.png\n\t\t├── hhh.png\n\t\t└── ...\n        ├── 1_80x80\n        └── ...\n```  \n### 训练\n```\npython train.py --device_ids 0  --patch_info your_patch\n```  \n### 测试\n .\u002Fresources\u002Fanti_spoof_models 活体检测的融合模型  \n .\u002Fresources\u002Fdetection_model 检测器模型  \n .\u002Fimages\u002Fsample 测试图片  \n ```\n python test.py --image_name your_image_name\n ```      \n## 相关资源  \n[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1u3BPHIEU4GmTti0G3LIDGQ)提取码：6d8q  \n(1)工业级静默活体检测开源算法技术解析[直播回放视频](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1qZ4y1T7CH);  \n(2)直播视频中的思维导图文件，存放在files目录下;  \n(3)开源模型的caffemodel，存放在models目录下;  \n\n## 参考  \n- 检测器 [RetinaFace](https:\u002F\u002Fgithub.com\u002Fdeepinsight\u002Finsightface\u002Ftree\u002Fmaster\u002FRetinaFace)  \n\n针对此项目，为了方便开发者们的技术交流，创建了QQ群：1121178835，欢迎加入。  \n\n除了本次开源的静默活体检测算法外，小视科技还拥有多项人脸识别、人体识别相关的自研算法及商用SDK。有兴趣的个人开发者或企业开发者可登录[小视科技Mini-AI开放平台](https:\u002F\u002Fai.minivision.cn\u002F)了解和联系我们。\n","**中文版**|[English Version](README_EN.md)  \n![静默活体检测](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminivision-ai_Silent-Face-Anti-Spoofing_readme_a11b47a3c0c6.jpg)  \n# 静默活体检测 (Silent-Face-Anti-Spoofing)   \n该项目为[小视科技](https:\u002F\u002Fwww.minivision.cn\u002F)的静默活体检测项目,您可以扫描下方的二维码获取安卓端APK,体验静默活体的检测效果.   \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminivision-ai_Silent-Face-Anti-Spoofing_readme_6ac902c52761.jpeg\" width=\"200\" height=\"200\" align=center \u002F>  \n## 更新  \n**2020-07-30:** 开源caffe模型，分享工业级静默活体检测算法技术解析直播视频以及相关文件。\n## 简介\n在本工程中我们开源了活体模型训练架构，数据预处理方法，模型训练和测试脚本以及开源的APK供大家测试使用。  \n\n活体检测技术主要是判别机器前出现的人脸是真实还是伪造的，其中借助其他媒介呈现的人脸都可以定义为虚假的人脸，包括打印的纸质照片、电子产品的显示屏幕、硅胶面具、立体的3D人像等。目前主流的活体解决方案分为配合式活体检测和非配合式活体检测（静默活体检测）。配合式活体检测需要用户根据提示完成指定的动作，然后再进行活体校验，静默活体则在用户无感的情况下直接进行活体校验。  \n \n因傅里叶频谱图一定程度上能够反应真假脸在频域的差异,因此我们采用了一种基于傅里叶频谱图辅助监督的静默活体检测方法, 模型架构由分类主分支和傅里叶频谱图辅助监督分支构成，整体架构如下图所示：  \n![整体架构图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminivision-ai_Silent-Face-Anti-Spoofing_readme_e7cd203c4e1d.jpg)  \n\n使用自研的模型剪枝方法，将MobileFaceNet的Flops从0.224G降低待了0.081G，在精度损失不大的情况下,明显提升模型的性能(降低计算量与参数量).  \n\n|Model|FLOPs|Params|\n| :------:|:-----:|:-----:| \n|MobileFaceNet|0.224G|0.991M|\n|MiniFASNetV1|0.081G|0.414M|\n|MiniFASNetV2|0.081G|0.435M|\n\n## APK\n### APK源码  \n开源了适用于安卓平台的部署代码：https:\u002F\u002Fgithub.com\u002Fminivision-ai\u002FSilent-Face-Anti-Spoofing-APK  \n\n### Demo\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminivision-ai_Silent-Face-Anti-Spoofing_readme_424a89f42868.gif\" width=\"300\" height=\"400\"\u002F>  \n \n### 关键指标  \n| Model(input 80x80)|FLOPs|Speed| FPR | TPR |备注 |\n| :------:|:-----:|:-----:| :----: | :----: | :----: |\n|   APK模型 |84M| 20ms | 1e-5|97.8%| 开源|\n| 高精度模型 |162M| 40ms| 1e-5 |99.7%| 未开源 |\n\n### 测试方法  \n- 显示信息:速度(ms), 置信度(0~1)以及活体检测结果(真脸or假脸)\n- 点击右上角图标可设置阈值,如果置信度大于阈值,为真脸,否则为假脸  \n\n### 测试须知 \n- 所有测试图片必须通过摄像头采集得到，否则不符合正常场景使用规范，算法效果也无法保证。\n- 因为RGB静默活体对摄像头型号和使用场景鲁棒性受限，所以实际使用体验会有一定差异。\n- 测试时，应保证有完整的人脸出现在视图中，并且人脸旋转角与竖直方向小于30度（符合正常刷脸场景），否则影响体验。　　\n\n**已测试型号**\n\n|型号|麒麟990 5G|麒麟990 |骁龙845 |麒麟810 |RK3288 |\n| :------:|:-----:|:-----:|:-----:|:-----:|:-----:|\n|速度\u002Fms|19|23|24|25|90|\n\n## 工程\n### 安装依赖库  \n```\npip install -r requirements.txt\n```\n### Clone\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fminivision-ai\u002FSilent-Face-Anti-Spoofing  \ncd Silent-Face-Anti-Spoofing\n```  \n### 数据预处理\n1.将训练集分为3类,将相同类别的图片放入一个文件夹;  \n2.因采用多尺度模型融合的方法,分别用原图和不同的patch训练模型,所以将数据分为原图和基于原图的patch;  \n- 原图(org_1_height**x**width),直接将原图resize到固定尺寸(width, height),如图1所示;  \n- 基于原图的patch(scale_height**x**width),采用人脸检测器人脸,获取人脸框,按照一定比例(scale)对人脸框进行扩边，为了保证模型的输入尺寸的一致性，将人脸框区域resize到固定尺寸(width, height),图2-4分别显示了scale为1,2.7和4的patch样例;  \n![patch demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminivision-ai_Silent-Face-Anti-Spoofing_readme_6b4bcbbaa92b.png)  \n\n3.采用傅里叶频谱图作为辅助监督,训练集图片在线生成对应的傅里叶频谱图.  \n**数据集的目录结构如下所示**\n```\n├── datasets\n    └── RGB_Images\n        ├── org_1_80x60\n            ├── 0\n\t\t├── aaa.png\n\t\t├── bbb.png\n\t\t└── ...\n            ├── 1\n\t\t├── ddd.png\n\t\t├── eee.png\n\t\t└── ...\n            └── 2\n\t\t├── ggg.png\n\t\t├── hhh.png\n\t\t└── ...\n        ├── 1_80x80\n        └── ...\n```  \n### 训练\n```\npython train.py --device_ids 0  --patch_info your_patch\n```  \n### 测试\n .\u002Fresources\u002Fanti_spoof_models 活体检测的融合模型  \n .\u002Fresources\u002Fdetection_model 检测器模型  \n .\u002Fimages\u002Fsample 测试图片  \n ```\n python test.py --image_name your_image_name\n ```      \n## 相关资源  \n[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1u3BPHIEU4GmTti0G3LIDGQ)提取码：6d8q  \n(1)工业级静默活体检测开源算法技术解析[直播回放视频](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1qZ4y1T7CH);  \n(2)直播视频中的思维导图文件，存放在files目录下;  \n(3)开源模型的caffemodel，存放在models目录下;  \n\n## 参考  \n- 检测器 [RetinaFace](https:\u002F\u002Fgithub.com\u002Fdeepinsight\u002Finsightface\u002Ftree\u002Fmaster\u002FRetinaFace)  \n\n针对此项目，为了方便开发者们的技术交流，创建了QQ群：1121178835，欢迎加入。  \n\n除了本次开源的静默活体检测算法外，小视科技还拥有多项人脸识别、人体识别相关的自研算法及商用SDK。有兴趣的个人开发者或企业开发者可登录[小视科技Mini-AI开放平台](https:\u002F\u002Fai.minivision.cn\u002F)了解和联系我们。","# Silent-Face-Anti-Spoofing 快速上手指南\n\n本指南帮助开发者快速部署小视科技开源的静默活体检测项目，实现无需用户配合的人脸真伪判别。\n\n## 1. 环境准备\n\n*   **操作系统**: Linux \u002F macOS \u002F Windows (推荐 Linux)\n*   **Python 版本**: Python 3.6+\n*   **核心依赖**:\n    *   PyTorch (用于模型训练与测试)\n    *   OpenCV (用于图像处理)\n    *   NumPy, SciPy 等科学计算库\n*   **硬件要求**:\n    *   训练阶段：建议配备 NVIDIA GPU (支持 CUDA)\n    *   推理\u002F测试阶段：CPU 即可运行，GPU 可加速\n\n## 2. 安装步骤\n\n### 2.1 克隆项目代码\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fminivision-ai\u002FSilent-Face-Anti-Spoofing\ncd Silent-Face-Anti-Spoofing\n```\n\n### 2.2 安装 Python 依赖\n建议使用国内镜像源（如清华源）以加速下载：\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 2.3 获取模型文件\n项目所需的预训练模型（活体检测融合模型、人脸检测器模型）未直接包含在代码库中，需从百度网盘下载并放置到指定目录：\n*   **下载地址**: [百度网盘链接](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1u3BPHIEU4GmTti0G3LIDGQ) (提取码：`6d8q`)\n*   **文件存放**:\n    *   将活体检测模型放入 `.\u002Fresources\u002Fanti_spoof_models`\n    *   将人脸检测器模型放入 `.\u002Fresources\u002Fdetection_model`\n\n## 3. 基本使用\n\n### 3.1 单张图片测试\n完成上述步骤后，即可使用提供的脚本对单张图片进行活体检测。确保测试图片中包含完整且角度正常的人脸。\n\n**命令示例**:\n```bash\npython test.py --image_name images\u002Fsample\u002Ftest.png\n```\n*(注：请将 `images\u002Fsample\u002Ftest.png` 替换为你实际要测试的图片路径)*\n\n**输出说明**:\n程序运行后将输出以下关键信息：\n*   **速度**: 处理耗时 (ms)\n*   **置信度**: 0~1 之间的数值\n*   **结果**: 判定为“真脸”或“假脸”\n    *   若置信度 > 设定阈值，判定为真脸；否则为假脸。\n\n### 3.2 数据预处理与训练（进阶）\n如需使用自有数据重新训练模型，请按以下结构组织数据集：\n1.  将图片按类别（0: 攻击，1: 真人，2: 其他）分文件夹存放。\n2.  生成不同尺度的人脸裁剪图（Patch），包括原图尺寸及扩边后的尺寸（如 scale=1, 2.7, 4）。\n3.  目录结构参考：\n    ```text\n    datasets\u002F\n    └── RGB_Images\n        ├── org_1_80x60  (原图缩放)\n        │   ├── 0\n        │   ├── 1\n        │   └── 2\n        ├── 1_80x80      (Scale=1 Patch)\n        └── ...\n    ```\n\n**启动训练**:\n```bash\npython train.py --device_ids 0 --patch_info your_patch_info_config\n```","某金融科技公司正在开发一款手机银行 APP 的远程开户功能，需要在用户无感知的情况下快速验证操作者是否为真人，以防止黑产攻击。\n\n### 没有 Silent-Face-Anti-Spoofing 时\n- **用户体验割裂**：必须采用配合式活体检测，强制用户执行眨眼、摇头等指定动作，导致开户流程繁琐，大量用户在步骤中流失。\n- **防伪能力薄弱**：传统算法难以识别高清电子屏幕重放攻击或精细的硅胶面具，黑产极易利用打印照片或录屏视频通过校验。\n- **低端机型卡顿**：现有模型计算量过大（FLOPs 高），在骁龙 845 等中低端安卓手机上推理耗时超过 100ms，造成界面明显卡顿。\n- **开发门槛高昂**：缺乏成熟的工业级训练架构和数据预处理方案，自研算法需耗费数月收集数据并调优，且难以达到商用精度。\n\n### 使用 Silent-Face-Anti-Spoofing 后\n- **实现无感通关**：部署静默活体检测方案，用户无需做任何动作，系统在后台毫秒级完成校验，开户转化率显著提升。\n- **频域防御升级**：利用傅里叶频谱图辅助监督技术，精准捕捉真假脸在频域的细微差异，有效拦截照片、屏幕及 3D 面具攻击，误识率低至 1e-5。\n- **极致性能优化**：借助模型剪枝技术将计算量降低至 0.081G FLOPs，在麒麟 990 等主流芯片上推理速度仅需 20ms 左右，流畅运行于各类设备。\n- **快速落地商用**：直接复用开源的 Caffe 模型、训练脚本及安卓 APK 源码，团队仅需数天即可完成集成与测试，大幅缩短研发周期。\n\nSilent-Face-Anti-Spoofing 通过“无感体验”与“高频防御”的双重突破，为移动金融场景构建了兼顾安全与流畅的工业级身份防线。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminivision-ai_Silent-Face-Anti-Spoofing_8c587920.png","minivision-ai","Minivision_AI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fminivision-ai_7a7b384e.png","",null,"ai@minivision.cn","https:\u002F\u002Fwww.minivision.cn\u002F","https:\u002F\u002Fgithub.com\u002Fminivision-ai",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,1679,521,"2026-04-04T14:54:54","Apache-2.0","未说明, 推测支持 Linux\u002FWindows\u002FmacOS (基于 Python 和 Android 部署)","训练时建议使用 GPU (命令含 --device_ids)，具体型号\u002F显存\u002FCUDA 版本未说明；推理端 (APK) 可在移动端 NPU\u002FCPU 运行","未说明",{"notes":96,"python":97,"dependencies":98},"1. 项目提供安卓端 APK 及源码，支持移动端部署。2. 训练采用多尺度模型融合及傅里叶频谱图辅助监督。3. 测试图片必须通过摄像头采集以保证效果。4. 人脸旋转角需小于 30 度。5. 提供了自研剪枝模型 (MiniFASNet)，大幅降低计算量 (FLOPs 从 0.224G 降至 0.081G)。6. 开源了 Caffe 模型及相关直播解析视频。","未说明 (需支持 pip 安装 requirements.txt)",[99,100],"requirements.txt 中列出的库 (具体列表未在文本中展示)","RetinaFace (检测器依赖)",[13,14],[103,104,105,106,107],"computer-vision","deep-learning","face-anti-spoofing","android-app","sdk","2026-03-27T02:49:30.150509","2026-04-06T07:26:09.303342",[111,116,121,126,131,136],{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},9626,"如何将模型转换为 ONNX 格式并确保输出与 PyTorch 模型一致？","转换时需要注意去除状态字典中的 'module.' 前缀。如果使用的是 V1SE 模型且输出不一致，请检查加载权重的代码。参考以下代码片段：\n1. 加载权重后遍历键值对。\n2. 使用 `name = k[7:]` 去除 'module.' 前缀。\n3. 将处理后的状态字典加载到模型中。\n4. 确保导出时的输入尺寸（如 80x80）与模型训练时一致。\n示例代码：\n```python\nstate_dict = torch.load(model_path, map_location=torch.device('cpu'))\nnew_state_dict = OrderedDict()\nfor k, v in state_dict.items():\n    name = k[7:]  # remove `module.`\n    new_state_dict[name] = v\ntorch_model.load_state_dict(new_state_dict)\ntorch_model.eval()\ntorch.onnx.export(torch_model, torch_input, output_path, ...)\n```","https:\u002F\u002Fgithub.com\u002Fminivision-ai\u002FSilent-Face-Anti-Spoofing\u002Fissues\u002F13",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},9627,"如何使用提供的预训练权重进行微调（Finetuning），特别是遇到 'module.' 前缀问题时？","预训练权重通常包含 'module.' 前缀（来自 DataParallel），微调时需要移除该前缀并可能调整类别数。解决方案如下：\n1. 加载状态字典。\n2. 遍历键值，如果键包含 'module.'，则截取第 7 位之后的字符串作为新键。\n3. 如果键还包含 'model.'，也需相应截取。\n4. 初始化新模型时设置正确的参数（如 num_classes=2）。\n5. 使用 `strict=False` 加载状态字典以允许部分不匹配。\n示例代码：\n```python\nstate_dict = torch.load(model_path)\nnew_state_dict = OrderedDict()\nfor key, value in state_dict.items():\n    if key.find('module.') >= 0:\n        name_key = key[7:]\n    if name_key.find('model.') >= 0:\n        name_key = name_key[6:]\n    new_state_dict[name_key] = value\n\nparams = {'embedding_size': 128, 'conv6_kernel': (5,5), 'drop_p': 0.75, 'num_classes': 2, 'img_channel': 3}\nmodel = MiniFASNetV2SE(**params)\nmodel.load_state_dict(new_state_dict, strict=False)\n```","https:\u002F\u002Fgithub.com\u002Fminivision-ai\u002FSilent-Face-Anti-Spoofing\u002Fissues\u002F41",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},9628,"model_type、num_classes 和图像尺寸参数的具体含义是什么？如何自定义数据集进行二分类训练？","1. **model_type**: 指定使用的网络架构（如 MiniFASNetV1, V2, V1SE, V2SE），可根据需求选择或扩展。\n2. **num_classes**: 分类数量。默认可能是 3 或 4（对应不同的攻击类型或活体状态）。若只需二分类（真实脸\u002F假脸），可将此参数改为 2，并调整数据集结构为两个文件夹（如 Real\u002FFake）。\n3. **图像尺寸**: 必须与模型定义一致。如果原模型是 80x80，建议将输入图像 resize 到该尺寸，或者修改模型定义以适配新尺寸（如 230x230），并重命名保存的模型文件以反映尺寸变化（例如 `1_230x230_MiniFASNetV2.pth`）。\n注意：修改代码后需重新推理测试，确保输入预处理与模型期望一致。","https:\u002F\u002Fgithub.com\u002Fminivision-ai\u002FSilent-Face-Anti-Spoofing\u002Fissues\u002F43",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},9629,"为什么在 Windows 和 Ubuntu 双系统下，同一张图片和相同环境版本的推理结果不一致？","这是一个已知的环境差异问题。即使包版本相同，底层库（如 OpenCV, MKL, CUDA 驱动等）在不同操作系统上的实现或默认行为可能存在细微差异，导致浮点数计算精度不同，进而影响阈值判断（如 0.73 vs 0.55）。\n建议解决方案：\n1. 尽量统一部署环境，避免跨平台直接对比结果。\n2. 检查并固定随机种子。\n3. 确认两个系统下安装的依赖库（特别是 numpy, opencv-python, torch）是否完全一致，包括编译选项。\n4. 如果用于生产，建议在目标部署系统上重新验证阈值，不要直接沿用开发环境的阈值。","https:\u002F\u002Fgithub.com\u002Fminivision-ai\u002FSilent-Face-Anti-Spoofing\u002Fissues\u002F17",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},9630,"项目中傅里叶分支（Fourier branch）的原理是什么？Target 和 Pred 为何看起来不匹配？","傅里叶分支是一种辅助监督信号。其原理是将输入图像进行傅里叶变换并 Resize 后作为 Target（真值），而神经网络的中间层特征图作为 Pred（预测）。\n虽然直接对频谱图和特征图求 MSELoss 看似不符合常规分类逻辑，但这是一种新颖的尝试，旨在让网络学习频域特征以增强对伪造纹理的敏感度。\n目前该方法主要在作者内部数据集上迭代，由于攻击样本多样性不足，公开评估效果尚不明确。如果没有足够的攻击样本，该分支的效果可能受限。","https:\u002F\u002Fgithub.com\u002Fminivision-ai\u002FSilent-Face-Anti-Spoofing\u002Fissues\u002F12",{"id":137,"question_zh":138,"answer_zh":139,"source_url":115},9631,"在哪里可以找到 MiniFASNet.py 文件？","MiniFASNet.py 文件包含在项目的源代码中。通常位于 `src\u002Fmodel_lib\u002F` 目录下。请检查您的项目目录结构，确保完整克隆了仓库。如果找不到，请确认是否漏下载了子模块或特定文件夹。",[]]