[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Zielon--MICA":3,"tool-Zielon--MICA":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":94,"forks":95,"last_commit_at":96,"license":97,"difficulty_score":98,"env_os":99,"env_gpu":100,"env_ram":101,"env_deps":102,"category_tags":116,"github_topics":117,"view_count":23,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":125,"updated_at":126,"faqs":127,"releases":177},2013,"Zielon\u002FMICA","MICA","MICA - Towards Metrical Reconstruction of Human Faces [ECCV2022]","MICA 是一个用于从单张人脸图像中重建高精度三维面部几何结构的开源工具，由马克斯·普朗克智能系统研究所开发。它能根据一张照片自动生成带有真实尺寸的三维人脸网格（.ply 文件），并输出对应的 FLAME 面部参数，实现从二维图像到可度量三维模型的精准还原。传统方法往往只能恢复相对形状，而 MICA 首次在无需深度相机或多视角输入的前提下，实现了真正意义上的“度量级”重建，显著提升了模型在真实世界中的可用性，比如用于虚拟形象、医疗整形模拟或影视特效等需要精确尺寸的场景。该工具适合计算机视觉、图形学领域的研究人员和开发者使用，尤其适合希望在不依赖专业设备的情况下获取高精度人脸三维数据的团队。其核心技术亮点在于结合了深度学习与物理光照模型，通过大规模多源数据集训练，使模型能从单张图像中推断出真实的面部尺度与纹理细节。用户只需提供一张正面人脸照片，即可通过简单命令行快速获得结果，无需复杂配置。项目提供完整预训练模型与安装脚本，降低了使用门槛。","\u003Ch2 align=\"center\">\u003Cb>MICA - Towards Metrical Reconstruction of Human Faces\u003C\u002Fb>\u003C\u002Fh2>\n\n\u003Ch4 align=\"center\">\u003Cb>\u003Ca href=\"https:\u002F\u002Fzielon.github.io\u002F\" target=\"_blank\">Wojciech Zielonka\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fsites.google.com\u002Fsite\u002Fbolkartt\u002F\" target=\"_blank\">Timo Bolkart\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fjustusthies.github.io\u002F\" target=\"_blank\">Justus Thies\u003C\u002Fa>\u003C\u002Fb>\u003C\u002Fh4>\n\n\u003Ch6 align=\"center\">\u003Ci>Max Planck Institute for Intelligent Systems, Tübingen, Germany\u003C\u002Fi>\u003C\u002Fh6>\n\n\u003Ch4 align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FvzzEbvv08VA\" target=\"_blank\">Video&nbsp\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2204.06607.pdf\" target=\"_blank\">Paper&nbsp\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fzielon.github.io\u002Fmica\u002F\" target=\"_blank\">Project Website&nbsp\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZielon\u002Fmetrical-tracker\" target=\"_blank\">Face Tracker&nbsp\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA\u002Ftree\u002Fmaster\u002Fdatasets\u002F\" target=\"_blank\">\u003Cb>Dataset&nbsp\u003C\u002Fb>\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fkeeper.mpdl.mpg.de\u002Ff\u002F6b12c44378e64738b993\u002F\" target=\"_blank\">Supplemental&nbsp\u003C\u002Fa>\n\u003Ca href=\"mailto:&#109;&#105;&#099;&#097;&#064;&#116;&#117;&#101;&#046;&#109;&#112;&#103;&#046;&#100;&#101;\">Email\u003C\u002Fa>\n\u003C\u002Fh4>\n\n\u003Cdiv align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_MICA_readme_6a9a2c6759b1.jpg\">\n\u003Ci style=\"font-size: 1.05em;\">Official Repository for ECCV 2022 paper Towards Metrical Reconstruction of Human Faces\u003C\u002Fi>\n\u003C\u002Fdiv>\n\u003Cbr>\n\n\u003Cdiv align=\"center\"> \n&#x26A0 The face tracker is now available under \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZielon\u002Fmetrical-tracker\" target=\"_blank\">Metrical Photometric Tracker&nbsp\u003C\u002Fa> &#x26A0\n\u003C\u002Fdiv>\n\n### Installation\n\nAfter cloning the repository please install the environment by using attached conda `environment.yml` file with the command \n``conda env create -f environment.yml``. Additionally, the FLAME2020 model is needed. To obtain it please create an account at the [website](https:\u002F\u002Fflame.is.tue.mpg.de\u002F) download the model and place it in the `\u002Fdata\u002Fpretrained\u002FFLAME2020\u002F` folder. \n\nYou can also simply run the `install.sh` script:\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA.git\ncd MICA\n.\u002Finstall.sh\n```\nyou will be asked to provide `{flame_user}` and `{flame_password}` for your FLAME account in order to access the file server.\n\n### Pre-trained Models\n\nIf you decide to not use the installation script, the pretrained model can be found under the [link](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1bYsI_spptzyuFmfLYqYkcJA6GZWZViNt\u002Fview?usp=sharing). After downloading, please place it in the `\u002Fdata\u002Fpretrained\u002Fmica.tar` location. Additionally, you will need to provide models for `inisghtface`:\n1) [antelopev2](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F16PWKI_RjjbE4_kqpElG-YFqe8FpXjads\u002Fview?usp=sharing)\n2) [buffalo_l](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1navJMy0DTr1_DHjLWu1i48owCPvXWfYc\u002Fview?usp=sharing)\n\nthen you need to unzip them and place in `~\u002F.insightface\u002Fmodels\u002F`. The `install.sh` script does it for you.\n\n### How To Use\n\nTo use MICA you can simply run the `demo.py` file. It will process all the images from `demo\u002Finput\u002F` folder and create the output destination for each subject with `.ply` mesh, rendered image, and `.npy` FLAME parameters.\n\n### Dataset and Training\n\nThe MICA dataset consists of eight smaller datasets for about 2300 subjects under a common FLAME topology. Read more information about how to obtain and use it under the [link](https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA\u002Ftree\u002Fmaster\u002Fdatasets\u002F). To train MICA the images from all eight datasets are needed. The repository contains scripts how to generate the Arcface input images as well as the complete list of all the images used for the training. More information can be found [here](https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA\u002Ftree\u002Fmaster\u002Fdatasets).\n\nWhen you train from scratch for Arcface model initialization please download [Glint360K](https:\u002F\u002Fgithub.com\u002Fdeepinsight\u002Finsightface\u002Ftree\u002Fmaster\u002Frecognition\u002Farcface_torch) and specify the path to it in the config as `cfg.model.arcface_pretrained_model`.\n\n### Testing\n\nThe testing was done using two datasets, [Stirling](http:\u002F\u002Fpics.stir.ac.uk\u002FESRC\u002F) and [NoW](https:\u002F\u002Fnow.is.tue.mpg.de\u002F). In the [model folder](https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA\u002Ftree\u002Fmaster\u002Fmodels) you can find the corresponding scripts to run testing routine, which generates the meshes. To calculate the NoW challenge error you can use the following [repository](https:\u002F\u002Fgithub.com\u002Fsoubhiksanyal\u002Fnow_evaluation).   \n\n### Citation\nIf you use this project in your research please cite MICA:\n```bibtex\n@proceedings{zielonka22mica,\n  author = {Zielonka, Wojciech and Bolkart, Timo and Thies, Justus},\n  title = {Towards Metrical Reconstruction of Human Faces},\n  journal = {European Conference on Computer Vision},\n  year = {2022}\n}\n```\n","\u003Ch2 align=\"center\">\u003Cb>MICA - 人类面部度量重建研究\u003C\u002Fb>\u003C\u002Fh2>\n\n\u003Ch4 align=\"center\">\u003Cb>\u003Ca href=\"https:\u002F\u002Fzielon.github.io\u002F\" target=\"_blank\">沃伊切赫·齐埃隆卡\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fsites.google.com\u002Fsite\u002Fbolkartt\u002F\" target=\"_blank\">蒂莫·博尔卡尔特\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fjustusthies.github.io\u002F\" target=\"_blank\">尤斯图斯·蒂斯\u003C\u002Fa>\u003C\u002Fb>\u003C\u002Fh4>\n\n\u003Ch6 align=\"center\">\u003Ci>德国图宾根马克斯·普朗克智能系统研究所\u003C\u002Fi>\u003C\u002Fh6>\n\n\u003Ch4 align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FvzzEbvv08VA\" target=\"_blank\">视频&nbsp\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2204.06607.pdf\" target=\"_blank\">论文&nbsp\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fzielon.github.io\u002Fmica\u002F\" target=\"_blank\">项目网站&nbsp\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZielon\u002Fmetrical-tracker\" target=\"_blank\">人脸追踪器&nbsp\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA\u002Ftree\u002Fmaster\u002Fdatasets\u002F\" target=\"_blank\">\u003Cb>数据集&nbsp\u003C\u002Fb>\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fkeeper.mpdl.mpg.de\u002Ff\u002F6b12c44378e64738b993\u002F\" target=\"_blank\">补充材料&nbsp\u003C\u002Fa>\n\u003Ca href=\"mailto:&#109;&#105;&#099;&#097;&#064;&#116;&#117;&#101;&#046;&#109;&#112;&#103;&#046;&#100;&#101;\">电子邮件\u003C\u002Fa>\n\u003C\u002Fh4>\n\n\u003Cdiv align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_MICA_readme_6a9a2c6759b1.jpg\">\n\u003Ci style=\"font-size: 1.05em;\">ECCV 2022论文《人类面部度量重建研究》官方仓库\u003C\u002Fi>\n\u003C\u002Fdiv>\n\u003Cbr>\n\n\u003Cdiv align=\"center\"> \n&#x26A0 人脸追踪器现已发布于\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZielon\u002Fmetrical-tracker\" target=\"_blank\">度量光度追踪器&nbsp\u003C\u002Fa> &#x26A0\n\u003C\u002Fdiv>\n\n### 安装说明\n\n克隆仓库后，请使用附带的conda环境文件`environment.yml`，通过以下命令安装环境：\n``conda env create -f environment.yml``。此外，还需要FLAME2020模型。请访问[网站](https:\u002F\u002Fflame.is.tue.mpg.de\u002F)注册账号并下载该模型，然后将其放置于`\u002Fdata\u002Fpretrained\u002FFLAME2020\u002F`文件夹中。\n\n您也可以直接运行`install.sh`脚本：\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA.git\ncd MICA\n.\u002Finstall.sh\n```\n系统会提示您提供FLAME账户的`{flame_user}`和`{flame_password}`，以便访问文件服务器。\n\n### 预训练模型\n\n如果您决定不使用安装脚本，预训练模型可从[链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1bYsI_spptzyuFmfLYqYkcJA6GZWZViNt\u002Fview?usp=sharing)获取。下载后，请将其放置于`\u002Fdata\u002Fpretrained\u002Fmica.tar`位置。此外，您还需提供`inisghtface`的模型：\n1) [antelopev2](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F16PWKI_RjjbE4_kqpElG-YFqe8FpXjads\u002Fview?usp=sharing)\n2) [buffalo_l](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1navJMy0DTr1_DHjLWu1i48owCPvXWfYc\u002Fview?usp=sharing)\n\n然后解压并放置于`~\u002F.insightface\u002Fmodels\u002F`。`install.sh`脚本会为您完成这一操作。\n\n### 使用方法\n\n要使用MICA，只需运行`demo.py`文件即可。它将处理`demo\u002Finput\u002F`文件夹中的所有图像，并为每个被试生成输出文件，包括`.ply`网格、渲染图像以及`.npy`格式的FLAME参数。\n\n### 数据集与训练\n\nMICA数据集由八个较小的数据集组成，涵盖约2300名被试，采用共同的FLAME拓扑结构。更多关于如何获取和使用该数据集的信息，请参阅[链接](https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA\u002Ftree\u002Fmaster\u002Fdatasets\u002F)。训练MICA时需要使用全部八个数据集的图像。仓库中提供了生成Arcface输入图像的脚本，以及用于训练的所有图像列表。更多信息请见[这里](https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA\u002Ftree\u002Fmaster\u002Fdatasets)。\n\n如果您从头开始训练以初始化Arcface模型，请下载[Glint360K](https:\u002F\u002Fgithub.com\u002Fdeepinsight\u002Finsightface\u002Ftree\u002Fmaster\u002Frecognition\u002Farcface_torch)，并在配置文件中指定其路径为`cfg.model.arcface_pretrained_model`。\n\n### 测试\n\n测试使用了两个数据集：[Stirling](http:\u002F\u002Fpics.stir.ac.uk\u002FESRC\u002F)和[NoW](https:\u002F\u002Fnow.is.tue.mpg.de\u002F)。在[模型文件夹](https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA\u002Ftree\u002Fmaster\u002Fmodels)中，您可以找到相应的脚本以运行测试流程，生成网格。要计算NoW挑战赛误差，可使用以下[仓库](https:\u002F\u002Fgithub.com\u002Fsoubhiksanyal\u002Fnow_evaluation)。\n\n### 引用\n如果您在研究中使用本项目，请引用MICA：\n```bibtex\n@proceedings{zielonka22mica,\n  author = {齐埃隆卡，沃伊切赫；博尔卡尔特，蒂莫；蒂斯，尤斯图斯},\n  title = {迈向人类面部的度量重建},\n  journal = {欧洲计算机视觉大会},\n  year = {2022}\n}\n```","# MICA 快速上手指南\n\n## 环境准备\n\n- **系统要求**：Linux 或 macOS（推荐 Ubuntu 20.04+）\n- **前置依赖**：\n  - Python 3.8+\n  - Conda（推荐 Miniconda）\n  - NVIDIA GPU（推荐显存 ≥8GB）\n  - FLAME2020 模型（需注册 [FLAME 官网](https:\u002F\u002Fflame.is.tue.mpg.de\u002F) 获取）\n\n## 安装步骤\n\n1. 克隆仓库并进入目录：\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA.git\ncd MICA\n```\n\n2. 使用 `install.sh` 自动安装（推荐）：\n\n```shell\n.\u002Finstall.sh\n```\n\n> 安装过程中需输入你的 FLAME 账号 `{flame_user}` 和 `{flame_password}`。  \n> 脚本会自动下载并配置 MICA 预训练模型与 InsightFace 模型（antelopev2、buffalo_l）。\n\n3. 若手动安装：\n   - 创建环境：\n     ```shell\n     conda env create -f environment.yml\n     ```\n   - 下载 FLAME2020 模型，放入 `\u002Fdata\u002Fpretrained\u002FFLAME2020\u002F`\n   - 下载预训练模型并放置：\n     ```bash\n     # MICA 模型（Google Drive）\n     https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1bYsI_spptzyuFmfLYqYkcJA6GZWZViNt\u002Fview?usp=sharing\n     # 放至：\u002Fdata\u002Fpretrained\u002Fmica.tar\n     ```\n   - 下载 InsightFace 模型并解压至 `~\u002F.insightface\u002Fmodels\u002F`：\n     - [antelopev2](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F16PWKI_RjjbE4_kqpElG-YFqe8FpXjads\u002Fview?usp=sharing)\n     - [buffalo_l](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1navJMy0DTr1_DHjLWu1i48owCPvXWfYc\u002Fview?usp=sharing)\n\n## 基本使用\n\n运行演示脚本，自动处理 `demo\u002Finput\u002F` 中的所有图像，输出网格、渲染图和 FLAME 参数：\n\n```shell\npython demo.py\n```\n\n输出文件将保存在 `demo\u002Foutput\u002F` 目录下，包含：\n- `.ply` 3D 人脸网格\n- 渲染后的 `.png` 图像\n- `.npy` FLAME 参数文件\n\n> 所有模型和数据默认路径已配置，无需额外修改即可运行。","在一家专注于数字人驱动的影视特效公司，动画师团队正为一部历史剧制作18世纪贵族角色的高精度面部动画，需基于少量真人演员的视频素材重建可量化的面部几何与表情参数，以实现逼真的历史妆容还原。\n\n### 没有 MICA 时\n- 传统基于Blender或Faceware的重建方法只能获得相对形状，无法保证面部尺寸与真实人物的毫米级一致，导致数字角色与历史画像比例不符。\n- 表情参数依赖人工调整，每次微调需数小时，且难以复现演员细微的颧骨抬升或眉骨收缩等生理特征。\n- 多段视频素材的面部重建结果不一致，无法统一到同一FLAME拓扑空间，导致角色在不同镜头间“脸型漂移”。\n- 无法直接输出可被游戏引擎或VR应用直接使用的带真实度量的.ply网格，需额外进行繁琐的缩放与对齐。\n- 缺乏对光照变化鲁棒的重建能力，阴天或侧光视频中的面部细节丢失严重，导致后期渲染出现明显伪影。\n\n### 使用 MICA 后\n- 直接从原始视频中输出具有真实毫米级精度的面部网格，与历史肖像的鼻梁长度、眼距等关键指标误差小于1.5mm，还原度大幅提升。\n- 自动输出标准化FLAME参数，表情动画可直接驱动数字角色，无需手动校准，单段视频处理时间从8小时缩短至25分钟。\n- 所有重建结果统一在FLAME2020拓扑下，多镜头间面部结构完全对齐，角色在跨镜头切换时无几何突变。\n- 生成的.ply文件自带真实尺度，可直接导入Unreal Engine或Maya，省去人工缩放与配准环节。\n- 即使在低光照或非均匀照明条件下，仍能稳定恢复面部高阶几何细节，显著降低后期光照补偿的工作量。\n\nMICA 让数字人面部重建从“艺术猜测”变为“科学测量”，真正实现了影视级精度与工业级效率的统一。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_MICA_6a9a2c67.jpg","Zielon","Wojciech Zielonka","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FZielon_8aa2aa71.jpg","Ph.D. Candidate at MPI for Intelligent Systems interested in digital humans and computer graphics","MPI-IS","Munich, Germany",null,"w_zielonka","https:\u002F\u002Fzielon.github.io\u002F","https:\u002F\u002Fgithub.com\u002FZielon",[86,90],{"name":87,"color":88,"percentage":89},"Python","#3572A5",96.1,{"name":91,"color":92,"percentage":93},"Shell","#89e051",3.9,634,91,"2026-04-01T17:08:26","NOASSERTION",4,"Linux","需要 NVIDIA GPU，显存 8GB+，CUDA 11.7+","16GB+",{"notes":103,"python":104,"dependencies":105},"建议使用 conda 管理环境，首次运行需下载 FLAME2020 模型和 MICA 预训练模型（总计约 5GB），并需注册 FLAME 网站获取模型访问权限；InsightFace 模型需手动解压至 ~\u002F.insightface\u002Fmodels\u002F 目录；训练需下载 Glint360K 数据集。","3.8+",[106,107,108,109,110,111,112,113,114,115],"torch","torchvision","torchaudio","numpy","opencv-python","scipy","trimesh","tqdm","insightface","pytorch3d",[13,54,14],[118,119,120,121,122,123,124],"3dmm","computer-vision","machine-learning","neural-network","flame","fitting-algorithm","optimization","2026-03-27T02:49:30.150509","2026-04-06T09:46:58.126831",[128,133,138,143,148,153,158,163,168,173],{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},9113,"运行 demo.py 时出现 NumPy 版本不兼容错误，如何解决？","请使用 conda 环境并指定 NumPy 1.23.1 和 SciPy 1.9.1 版本。修改 environment.yaml 文件，将 numpy 和 numpy-base 设置为 1.23.1，并在 pip 部分添加 scipy==1.9.1。然后重新创建环境：`conda env create -f environment.yaml`。若已存在环境，可运行 `pip install --upgrade numpy==1.23.1 scipy==1.9.1`。","https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA\u002Fissues\u002F6",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},9114,"如何获取 FLAME 模型文件以避免 'No such file or directory: generic_model.pkl' 错误？","请访问 FLAME 官方网站 https:\u002F\u002Fflame.is.tue.mpg.de\u002F 下载 FLAME 2020 模型（固定嘴巴、改进表情），并将下载的 generic_model.pkl 文件放入项目目录下的 data\u002FFLAME2020\u002F 文件夹中。","https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA\u002Fissues\u002F56",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},9115,"如何获取 7 个面部关键点？","在最新版本中，运行 demo.py 后，7 个面部关键点会自动保存在输出文件夹中。确保使用最新代码，关键点保存逻辑位于 demo.py 第 140 行。","https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA\u002Fissues\u002F11",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},9116,"如何为 3D 头部网格添加纹理？","MICA 会输出 FLAME 模型的纹理。请查看代码中 FLAME.py 第 316 行的纹理生成逻辑。确保运行的是 tracker.py 或相关模块，而非仅 demo.py，以获取带纹理的 3D 网格输出。","https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA\u002Fissues\u002F57",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},9117,"CUDA 10.1 环境下如何避免 PyTorch3D 加载错误？","移除 environment.yaml 中的 pytorch3d-nightly 依赖，改为从 pytorch3d 官方通道安装与 CUDA 10.1 兼容的版本。同时将 cudatoolkit 版本降级为 10.1，例如：`conda install pytorch3d -c pytorch3d` 并调整 cudatoolkit 版本。","https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA\u002Fissues\u002F16",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},9118,"如何解决 Windows\u002FWSL 上的 _pickle.UnpicklingError: the STRING opcode argument must be quoted 错误？","此错误通常由 pickle 文件在不同平台间传输导致编码不兼容。请重新下载或在 Linux 环境中重新生成 masking 相关的 .pkl 文件（如 mask.pkl），确保文件在相同系统环境下创建和使用。","https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA\u002Fissues\u002F51",{"id":159,"question_zh":160,"answer_zh":161,"source_url":162},9119,"如何获取 MICA 格式的数据集（FLAME_parameters 和 registrations）？","当前数据集需直接联系原始数据提供方获取授权。MICA 团队已联系数据所有者，但尚未公开发布符合 MICA 格式的子集。请通过邮件联系项目维护者获取 FRGC 许可协议和数据传输方式。","https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA\u002Fissues\u002F10",{"id":164,"question_zh":165,"answer_zh":166,"source_url":167},9120,"如何解决面部跟踪中的抖动问题？","使用时间平滑技术（如移动平均）对表达参数进行滤波。可参考项目发布的 metrical-tracker 工具（https:\u002F\u002Fgithub.com\u002FZielon\u002Fmetrical-tracker），其中已集成平滑模块，能有效减少帧间抖动而不显著改变表达参数的准确性。","https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA\u002Fissues\u002F17",{"id":169,"question_zh":170,"answer_zh":171,"source_url":172},9121,"是否有视频人脸跟踪的演示代码？","是的，官方已发布视频人脸跟踪工具：https:\u002F\u002Fgithub.com\u002FZielon\u002Fmetrical-tracker。该工具支持从视频序列中进行高精度面部追踪，可直接用于动态场景。","https:\u002F\u002Fgithub.com\u002FZielon\u002FMICA\u002Fissues\u002F41",{"id":174,"question_zh":175,"answer_zh":176,"source_url":142},9122,"MICA 输出的 7 个关键点是否可以直接用于 NoW 基准测试？","是的，MICA 输出的 7 个关键点与 NoW 基准测试要求的面部关键点布局兼容，可直接用于评估。建议在使用前验证关键点顺序与 NoW 标准是否一致，必要时进行坐标映射。",[]]