[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Zielon--INSTA":3,"tool-Zielon--INSTA":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75832,"2026-04-17T21:58:25",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":82,"owner_email":83,"owner_twitter":84,"owner_website":85,"owner_url":86,"languages":87,"stars":127,"forks":128,"last_commit_at":129,"license":130,"difficulty_score":131,"env_os":132,"env_gpu":133,"env_ram":134,"env_deps":135,"category_tags":142,"github_topics":143,"view_count":10,"oss_zip_url":83,"oss_zip_packed_at":83,"status":22,"created_at":152,"updated_at":153,"faqs":154,"releases":195},8851,"Zielon\u002FINSTA","INSTA","INSTA - Instant Volumetric Head Avatars [CVPR2023]","INSTA（Instant Volumetric Head Avatars）是一款由马克斯·普朗克智能系统研究所开源的先进工具，专为快速生成高保真 3D 头部数字人而设计。它主要解决了传统方法在重建逼真人脸时训练耗时过长、难以实时渲染以及表情驱动不够自然的痛点。\n\n基于神经辐射场（NeRF）与瞬时神经图形基元（Instant NGP）技术，INSTA 能够从单目视频数据中高效学习头部的体积表示。其核心亮点在于极快的训练速度和卓越的渲染质量：用户仅需消费级显卡（如 RTX 3090）即可在短时间内完成模型训练，并实现实时的新视角合成与表情迁移。此外，项目还集成了 FLAME 网格光线投射功能，支持更精准的几何控制，并提供了 PyTorch 版本以降低研究门槛。\n\n这款工具非常适合计算机视觉研究人员、图形学开发者以及数字内容创作者使用。研究人员可利用其复现 CVPR 2023 的前沿成果；开发者能基于其开源代码构建虚拟主播、视频会议化身或影视特效应用；设计师则可借助其快速原型能力，低成本制作个性化的 3D 数字人资产。虽然普通用户直接上手需要一定的命令行基础，但其高效的性能表现让高质量的 ","INSTA（Instant Volumetric Head Avatars）是一款由马克斯·普朗克智能系统研究所开源的先进工具，专为快速生成高保真 3D 头部数字人而设计。它主要解决了传统方法在重建逼真人脸时训练耗时过长、难以实时渲染以及表情驱动不够自然的痛点。\n\n基于神经辐射场（NeRF）与瞬时神经图形基元（Instant NGP）技术，INSTA 能够从单目视频数据中高效学习头部的体积表示。其核心亮点在于极快的训练速度和卓越的渲染质量：用户仅需消费级显卡（如 RTX 3090）即可在短时间内完成模型训练，并实现实时的新视角合成与表情迁移。此外，项目还集成了 FLAME 网格光线投射功能，支持更精准的几何控制，并提供了 PyTorch 版本以降低研究门槛。\n\n这款工具非常适合计算机视觉研究人员、图形学开发者以及数字内容创作者使用。研究人员可利用其复现 CVPR 2023 的前沿成果；开发者能基于其开源代码构建虚拟主播、视频会议化身或影视特效应用；设计师则可借助其快速原型能力，低成本制作个性化的 3D 数字人资产。虽然普通用户直接上手需要一定的命令行基础，但其高效的性能表现让高质量的 3D 人脸建模变得更加触手可及。","\u003Ch2 align=\"center\">\u003Cb>INSTA - Instant Volumetric Head Avatars\u003C\u002Fb>\u003C\u002Fh2>\n\n\u003Ch4 align=\"center\">\u003Cb>\u003Ca href=\"https:\u002F\u002Fzielon.github.io\u002F\" target=\"_blank\">Wojciech Zielonka\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fsites.google.com\u002Fsite\u002Fbolkartt\u002F\" target=\"_blank\">Timo Bolkart\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fjustusthies.github.io\u002F\" target=\"_blank\">Justus Thies\u003C\u002Fa>\u003C\u002Fb>\u003C\u002Fh4>\n\n\u003Ch6 align=\"center\">\u003Ci>Max Planck Institute for Intelligent Systems, Tübingen, Germany\u003C\u002Fi>\u003C\u002Fh6>\n\n\u003Ch4 align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FHOgaeWTih7Q\" target=\"_blank\">Video&nbsp\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2211.12499v2.pdf\" target=\"_blank\">Paper&nbsp\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fzielon.github.io\u002Finsta\u002F\" target=\"_blank\">Project Website&nbsp\u003C\u002Fa>\n\u003Ca href=\"#dataset-and-training\">\u003Cb>Dataset&nbsp\u003C\u002Fb>\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZielon\u002Fmetrical-tracker\" target=\"_blank\">Face Tracker&nbsp\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZielon\u002FINSTA-pytorch\" target=\"_blank\">INSTA Pytorch&nbsp\u003C\u002Fa>\n\u003Ca href=\"mailto:&#105;&#110;&#115;&#116;&#97;&#64;&#116;&#117;&#101;&#46;&#109;&#112;&#103;&#46;&#100;&#101;\">Email\u003C\u002Fa>\n\u003C\u002Fh4>\n\n\u003Cdiv align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_a648f7a1f9db.gif\">\n\u003Cbr>\n\u003Ci style=\"font-size: 1.05em;\">Official Repository for CVPR 2023 paper Instant Volumetric Head Avatars\u003C\u002Fi>\n\u003C\u002Fdiv>\n\u003Cbr>\n\nThis repository is based on [instant-ngp](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Finstant-ngp), some of the features of the original code are not available in this work.\n\n\u003Cdiv align=\"center\"> \n&#x26A0 We also prepared a Pytorch demo version of the project \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZielon\u002FINSTA-pytorch\" target=\"_blank\">INSTA Pytorch&nbsp\u003C\u002Fa> &#x26A0\n\u003C\u002Fdiv>\n\n### Installation\n\nThe repository is based on `instant-ngp` [commit](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Finstant-ngp\u002Ftree\u002Fe7631da9fca9d0f3467f826fccd7a5849b3f6309). The requirements for the installation are the same, therefore please follow the [guide](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Finstant-ngp#building-instant-ngp-windows--linux).\nRemember to use the `--recursive` option during cloning.\n\n```shell\ngit clone --recursive https:\u002F\u002Fgithub.com\u002FZielon\u002FINSTA.git\ncd INSTA\ncmake . -B build\ncmake --build build --config RelWithDebInfo -j\n```\n\n### Usage and Requirements\n\nAfter building the project you can either start training an avatar from scratch or load a snapshot. For training, we recommend a graphics card higher or equal to `RTX3090 24GB` and `32 GB` of RAM memory. Training on a different hardware probably requires adjusting options in the config:\n```shell\n  \"max_cached_bvh\": 4000,            # How many BVH data structures are cached\n  \"max_images_gpu\": 1700,            # How many frames are loaded to GPU. Adjust for a given GPU memory size.\n  \"use_dataset_cache\": true,         # Load images to RAM memory\n  \"max_steps\": 33000,                # Max training steps after which test sequence will be recorded\n  \"render_novel_trajectory\": false,  # Dumps additional camera trajectories after max steps\n  \"render_from_snapshot\": false      # For --no-gui option to directly render sequences\n```\nRendering from a snapshot does not require a high-end GPU and can be performed even on a laptop. We have tested it on `RTX 3080 8GB` laptop version. For `--no-gui` option you can train and load snapshot for rendering by using the config in the same way as the one with `GUI`.\nThe viewer options are the same as in the case of [instant-ngp](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Finstant-ngp#keyboard-shortcuts-and-recommended-controls), with some additional key `F` to raycast the FLAME mesh.\n\nUsage example\n\n```shell\n# Run without GUI examples script\n.\u002Frun.sh\n\n# Run cross reenactment based on deformation gradient transfer\n.\u002Frun_transfer.sh\n\n# Training with GUI\n.\u002Fbuild\u002Frta --config insta.json --scene data\u002Fobama --height 512 --width 512\n\n# Loading from a checkpoint\n.\u002Fbuild\u002Frta --config insta.json --scene data\u002Fobama\u002Ftransforms_test.json --snapshot data\u002Fobama\u002Fsnapshot.msgpack\n```\n\n\u003Cdiv align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_a17f84ad1c50.gif\">\n\u003Cbr>\n\u003Ci style=\"font-size: 1.05em;\">For better visualization you can use our GUI application.\u003C\u002Fi>\n\u003C\u002Fdiv>\n\u003Cbr>\n\n### Dataset and Training\n\nWe are releasing part of our dataset together with publicly available preprocessed avatars from [NHA](https:\u002F\u002Fgithub.com\u002Fphilgras\u002Fneural-head-avatars), [NeRFace](https:\u002F\u002Fgithub.com\u002Fgafniguy\u002F4D-Facial-Avatars) and [IMAvatar](https:\u002F\u002Fgithub.com\u002Fzhengyuf\u002FIMavatar). Each participant whose data was recorded in this study provided written consent for its release by signing this [document](.\u002Fdocuments\u002FConsent_general_english_ncs_video.pdf). Access to those sequences can be requested via [Google Forms](https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLSecX-7Arzv_qVQWFdicNxcxmPmSQx46y6TxnBBN67m0hvkXiA\u002Fviewform?usp=sharing&ouid=114977764432146378365).\n\n[Available avatars](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1LsVvr7PPwGlyK0qiTuDVUz4ihreHJgut?usp=sharing). Click the selected avatar to download the training dataset and the checkpoint. The avatars have to be placed in the `data` folder.\n\u003Cdiv align=\"center\" dis>\n    \u003Ctable class=\"images\" width=\"100%\"  style=\"border:0px solid white; width:100%;\">\n        \u003Ctr style=\"border: 0px;\">\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1fUs_TkPE5dxuostXafBPIOnoGBGWMWdr\u002Fview?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_9a22de40fc24.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1OVMab86QiGJsXFK90owZ-Pnv1kxPn83v\u002Fview?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_e9bdeb888360.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1egl1Rg6b75T3hiuxFlkNZGfW745Fo0SZ\u002Fview?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_4f6183485617.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1RFsuzjfuZvUvhE2rrR-et41s7-6ZTRt0\u002Fview?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_67d3e8a436c0.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1xHiDH_B2Qv0a5wgrieD1WmoxBnOfuw9u\u002Fview?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_b5fd501a0ad2.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n    \u003C\u002Ftable>\n    \u003Ctable class=\"images\" width=\"100%\"  style=\"border:0px solid white; width:100%;\">\n        \u003Ctr style=\"border: 0px;\">\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F19clpdq6eQ4kcD9ndjrANu8q0iW774LYR\u002Fview?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_b191371b1f44.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLSecX-7Arzv_qVQWFdicNxcxmPmSQx46y6TxnBBN67m0hvkXiA\u002Fviewform?usp=sharing&ouid=114977764432146378365\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_2cc7c9a534f6.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLSecX-7Arzv_qVQWFdicNxcxmPmSQx46y6TxnBBN67m0hvkXiA\u002Fviewform?usp=sharing&ouid=114977764432146378365\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_cb4c6e8aa474.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLSecX-7Arzv_qVQWFdicNxcxmPmSQx46y6TxnBBN67m0hvkXiA\u002Fviewform?usp=sharing&ouid=114977764432146378365\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_2c7c93af583c.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1ttoQfGfa3eRETc1uxLo4unjvxOiRzcCY\u002Fview?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_0c7c003031ca.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n    \u003C\u002Ftable>\n\u003C\u002Fdiv>\n\nThe output of the training (**Record Video** in menu), including rendered frames, checkpoint, etc will be saved in the `.\u002Fdata\u002F{actor}\u002Fexperiments\u002F{config}\u002Fdebug`.\nAfter the specified number of max steps, the program will automatically either render frames using novel cameras (`All` option in GUI and `render_novel_trajectory` in config) or only the currently selected one in `Mode`, by default `Overlay\\Test`.\n\n### Dataset Generation\n\nFor the input generation, a conda environment is needed, and a few other repositories. Simply run `install.sh` from [scripts](https:\u002F\u002Fgithub.com\u002FZielon\u002FINSTA\u002Ftree\u002Fmaster\u002Fscripts) folder to prepare the workbench.\n\nNext, you can use [Metrical Photometric Tracker](https:\u002F\u002Fgithub.com\u002FZielon\u002Fmetrical-tracker) for the tracking of a sequence. After the processing is done run the `generate.sh` script to prepare the sequence. As input please specify the absolute path of the tracker output.\n\n**For training we recommend at least 1000 frames.**\n\n```shell\n# 1) Run the Metrical Photometric Tracker for a selected actor\npython tracker.py --cfg .\u002Fconfigs\u002Factors\u002Fduda.yml\n\n# 2) Generate a dataset using the script. Importantly, use the absolute path to tracker input and desired output.\n.\u002Fgenerate.sh \u002Fmetrical-tracker\u002Foutput\u002Fduda INSTA\u002Fdata\u002Fduda 100\n#                        {input}                {output}    {# of test frames from the end}\n```\n\n### Citation\n\nIf you use this project in your research please cite INSTA:\n\n```bibtex\n@proceedings{INSTA:CVPR2023,\n  author = {Zielonka, Wojciech and Bolkart, Timo and Thies, Justus},\n  title = {Instant Volumetric Head Avatars},\n  journal = {Conference on Computer Vision and Pattern Recognition},\n  year = {2023}\n}\n```\n","\u003Ch2 align=\"center\">\u003Cb>INSTA - 即时体积头部化身\u003C\u002Fb>\u003C\u002Fh2>\n\n\u003Ch4 align=\"center\">\u003Cb>\u003Ca href=\"https:\u002F\u002Fzielon.github.io\u002F\" target=\"_blank\">Wojciech Zielonka\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fsites.google.com\u002Fsite\u002Fbolkartt\u002F\" target=\"_blank\">Timo Bolkart\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fjustusthies.github.io\u002F\" target=\"_blank\">Justus Thies\u003C\u002Fa>\u003C\u002Fb>\u003C\u002Fh4>\n\n\u003Ch6 align=\"center\">\u003Ci>德国图宾根马克斯·普朗克智能系统研究所\u003C\u002Fi>\u003C\u002Fh6>\n\n\u003Ch4 align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FHOgaeWTih7Q\" target=\"_blank\">视频&nbsp\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2211.12499v2.pdf\" target=\"_blank\">论文&nbsp\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fzielon.github.io\u002Finsta\u002F\" target=\"_blank\">项目官网&nbsp\u003C\u002Fa>\n\u003Ca href=\"#dataset-and-training\">\u003Cb>数据集&nbsp\u003C\u002Fb>\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZielon\u002Fmetrical-tracker\" target=\"_blank\">人脸追踪器&nbsp\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZielon\u002FINSTA-pytorch\" target=\"_blank\">INSTA PyTorch&nbsp\u003C\u002Fa>\n\u003Ca href=\"mailto:&#105;&#110;&#115;&#116;&#97;&#64;&#116;&#117;&#101;&#46;&#109;&#112;&#103;&#46;&#100;&#101;\">邮箱\u003C\u002Fa>\n\u003C\u002Fh4>\n\n\u003Cdiv align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_a648f7a1f9db.gif\">\n\u003Cbr>\n\u003Ci style=\"font-size: 1.05em;\">CVPR 2023 论文《即时体积头部化身》官方仓库\u003C\u002Fi>\n\u003C\u002Fdiv>\n\u003Cbr>\n\n本仓库基于 [instant-ngp](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Finstant-ngp)，但原代码的部分功能在本工作中并未实现。\n\n\u003Cdiv align=\"center\"> \n&#x26A0 我们还准备了项目的 PyTorch 演示版本 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZielon\u002FINSTA-pytorch\" target=\"_blank\">INSTA PyTorch&nbsp\u003C\u002Fa> &#x26A0\n\u003C\u002Fdiv>\n\n### 安装\n\n本仓库基于 `instant-ngp` 的 [commit](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Finstant-ngp\u002Ftree\u002Fe7631da9fca9d0f3467f826fccd7a5849b3f6309)。安装要求与之相同，请按照 [指南](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Finstant-ngp#building-instant-ngp-windows--linux) 进行操作。请注意，在克隆时务必使用 `--recursive` 选项。\n\n```shell\ngit clone --recursive https:\u002F\u002Fgithub.com\u002FZielon\u002FINSTA.git\ncd INSTA\ncmake . -B build\ncmake --build build --config RelWithDebInfo -j\n```\n\n### 使用与要求\n\n构建完成后，您可以从头开始训练一个化身，也可以加载快照。对于训练，我们建议使用显卡不低于 `RTX3090 24GB` 以及 `32 GB` 内存的设备。在其他硬件上训练可能需要调整配置中的参数：\n```shell\n  \"max_cached_bvh\": 4000,            # 缓存的 BVH 数据结构数量\n  \"max_images_gpu\": 1700,            # 加载到 GPU 的帧数。请根据 GPU 显存大小进行调整。\n  \"use_dataset_cache\": true,         # 将图像加载到内存中\n  \"max_steps\": 33000,                # 最大训练步数，超过此步数后将记录测试序列\n  \"render_novel_trajectory\": false,  # 在达到最大步数后转储额外的相机轨迹\n  \"render_from_snapshot\": false      # 对于 --no-gui 选项，直接渲染序列\n```\n从快照渲染并不需要高端 GPU，甚至可以在笔记本电脑上完成。我们已在 `RTX 3080 8GB` 版本的笔记本上进行了测试。对于 `--no-gui` 选项，您可以像使用带有 GUI 的配置一样，通过配置文件进行训练和加载快照以进行渲染。\n\n查看器的选项与 [instant-ngp](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Finstant-ngp#keyboard-shortcuts-and-recommended-controls) 中的相同，并新增了一个 `F` 键用于射线投射 FLAME 网格。\n\n使用示例\n\n```shell\n# 不带 GUI 的示例脚本\n.\u002Frun.sh\n\n# 基于形变梯度传递的跨重演\n.\u002Frun_transfer.sh\n\n# 带 GUI 的训练\n.\u002Fbuild\u002Frta --config insta.json --scene data\u002Fobama --height 512 --width 512\n\n# 从检查点加载\n.\u002Fbuild\u002Frta --config insta.json --scene data\u002Fobama\u002Ftransforms_test.json --snapshot data\u002Fobama\u002Fsnapshot.msgpack\n```\n\n\u003Cdiv align=\"center\"> \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_a17f84ad1c50.gif\">\n\u003Cbr>\n\u003Ci style=\"font-size: 1.05em;\">为了更好的可视化效果，您可以使用我们的 GUI 应用程序。\u003C\u002Fi>\n\u003C\u002Fdiv>\n\u003Cbr>\n\n### 数据集与训练\n\n我们发布了部分数据集，并附带来自 [NHA](https:\u002F\u002Fgithub.com\u002Fphilgras\u002Fneural-head-avatars)、[NeRFace](https:\u002F\u002Fgithub.com\u002Fgafniguy\u002F4D-Facial-Avatars) 和 [IMAvatar](https:\u002F\u002Fgithub.com\u002Fzhengyuf\u002FIMavatar) 的公开预处理头像。本研究中每位参与者的数据均已获得其书面同意，可通过签署此 [文档](.\u002Fdocuments\u002FConsent_general_english_ncs_video.pdf) 进行发布。如需访问这些序列，请通过 [Google Forms](https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLSecX-7Arzv_qVQWFdicNxcxmPmSQx46y6TxnBBN67m0hvkXiA\u002Fviewform?usp=sharing&ouid=114977764432146378365) 提出申请。\n\n[可用头像](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1LsVvr7PPwGlyK0qiTuDVUz4ihreHJgut?usp=sharing)。点击所选头像即可下载训练数据集和检查点文件。请将这些头像放置于 `data` 文件夹中。\n\u003Cdiv align=\"center\" dis>\n    \u003Ctable class=\"images\" width=\"100%\"  style=\"border:0px solid white; width:100%;\">\n        \u003Ctr style=\"border: 0px;\">\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1fUs_TkPE5dxuostXafBPIOnoGBGWMWdr\u002Fview?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_9a22de40fc24.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1OVMab86QiGJsXFK90owZ-Pnv1kxPn83v\u002Fview?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_e9bdeb888360.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1egl1Rg6b75T3hiuxFlkNZGfW745Fo0SZ\u002Fview?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_4f6183485617.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1RFsuzjfuZvUvhE2rrR-et41s7-6ZTRt0\u002Fview?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_67d3e8a436c0.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1xHiDH_B2Qv0a5wgrieD1WmoxBnOfuw9u\u002Fview?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_b5fd501a0ad2.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n    \u003C\u002Ftable>\n    \u003Ctable class=\"images\" width=\"100%\"  style=\"border:0px solid white; width:100%;\">\n        \u003Ctr style=\"border: 0px;\">\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F19clpdq6eQ4kcD9ndjrANu8q0iW774LYR\u002Fview?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_b191371b1f44.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLSecX-7Arzv_qVQWFdicNxcxmPmSQx46y6TxnBBN67m0hvkXiA\u002Fviewform?usp=sharing&ouid=114977764432146378365\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_2cc7c9a534f6.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLSecX-7Arzv_qVQWFdicNxcxmPmSQx46y6TxnBBN67m0hvkXiA\u002Fviewform?usp=sharing&ouid=114977764432146378365\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_cb4c6e8aa474.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLSecX-7Arzv_qVQWFdicNxcxmPmSQx46y6TxnBBN67m0hvkXiA\u002Fviewform?usp=sharing&ouid=114977764432146378365\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_2c7c93af583c.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n            \u003Ctd style=\"border: 0px;\">\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1ttoQfGfa3eRETc1uxLo4unjvxOiRzcCY\u002Fview?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_readme_0c7c003031ca.gif\" height=\"128\" width=\"128\">\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n    \u003C\u002Ftable>\n\u003C\u002Fdiv>\n\n训练输出（菜单中的“录制视频”选项），包括渲染帧、检查点等，将保存在 `.\u002Fdata\u002F{actor}\u002Fexperiments\u002F{config}\u002Fdebug` 目录下。当达到指定的最大步数后，程序将自动使用新视角相机渲染帧（GUI 中的“全部”选项以及配置中的 `render_novel_trajectory` 参数）；或者仅渲染当前在“模式”中选定的视角，默认为“叠加\\测试”。\n\n### 数据集生成\n\n进行输入数据生成时，需要一个 conda 环境以及其他几个代码库。只需运行位于 [scripts](https:\u002F\u002Fgithub.com\u002FZielon\u002FINSTA\u002Ftree\u002Fmaster\u002Fscripts) 文件夹中的 `install.sh` 脚本，即可准备好工作环境。\n\n接下来，您可以使用 [度量光度跟踪器](https:\u002F\u002Fgithub.com\u002FZielon\u002Fmetrical-tracker) 对序列进行跟踪。处理完成后，运行 `generate.sh` 脚本以准备数据集。作为输入，请指定跟踪器输出的绝对路径。\n\n**建议用于训练的数据集至少包含 1000 帧。**\n\n```shell\n# 1) 使用度量光度跟踪器对选定的演员进行跟踪\npython tracker.py --cfg .\u002Fconfigs\u002Factors\u002Fduda.yml\n\n# 2) 使用脚本生成数据集。请注意，务必使用跟踪器输入和所需输出的绝对路径。\n.\u002Fgenerate.sh \u002Fmetrical-tracker\u002Foutput\u002Fduda INSTA\u002Fdata\u002Fduda 100\n#                        {输入}                {输出}    {从末尾截取的测试帧数量}\n```\n\n### 引用\n\n如果您在研究中使用本项目，请引用 INSTA：\n\n```bibtex\n@proceedings{INSTA:CVPR2023,\n  author = {Zielonka, Wojciech and Bolkart, Timo and Thies, Justus},\n  title = {即时体积化头部头像},\n  journal = {计算机视觉与模式识别会议},\n  year = {2023}\n}\n```","# INSTA 快速上手指南\n\nINSTA (Instant Volumetric Head Avatars) 是一个用于生成即时体积化头部头像的开源项目，基于 `instant-ngp` 构建，支持从单目视频中重建高保真 3D 头部模型。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux 或 Windows\n- **GPU**: 训练推荐 **NVIDIA RTX 3090 (24GB)** 或更高显存；推理\u002F渲染可在 **RTX 3080 (8GB)** 笔记本上进行。\n- **内存**: 建议 **32 GB** RAM。\n- **编译器**: 支持 CMake 的 C++ 编译环境。\n- **CUDA**: 需安装与显卡匹配的 CUDA Toolkit。\n\n### 前置依赖\n本项目依赖 `instant-ngp` 的特定版本，请确保已安装其所有基础依赖（如 Eigen, CUDA, GLFW 等）。具体依赖安装请参考 [instant-ngp 构建指南](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Finstant-ngp#building-instant-ngp-windows--linux)。\n\n## 安装步骤\n\n1. **克隆仓库**\n   务必使用 `--recursive` 参数以拉取子模块。\n   ```shell\n   git clone --recursive https:\u002F\u002Fgithub.com\u002FZielon\u002FINSTA.git\n   cd INSTA\n   ```\n\n2. **编译项目**\n   使用 CMake 进行配置和构建：\n   ```shell\n   cmake . -B build\n   cmake --build build --config RelWithDebInfo -j\n   ```\n\n## 基本使用\n\n### 1. 准备数据\n您可以下载官方提供的预处理数据集（包含 Obama、Justin 等人物），将其解压至项目根目录下的 `data` 文件夹中。\n- **数据集下载地址**: [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1LsVvr7PPwGlyK0qiTuDVUz4ihreHJgut?usp=sharing)\n- **目录结构示例**: `INSTA\u002Fdata\u002Fobama\u002F`\n\n> **注意**: 若需使用自定义视频，需先运行 [Metrical Photometric Tracker](https:\u002F\u002Fgithub.com\u002FZielon\u002Fmetrical-tracker) 进行跟踪，再使用 `scripts\u002Fgenerate.sh` 生成数据集（建议至少 1000 帧）。\n\n### 2. 启动训练（带图形界面）\n使用 GUI 进行训练和实时预览是最直观的方式。以下命令以 `obama` 数据集为例：\n\n```shell\n.\u002Fbuild\u002Frta --config insta.json --scene data\u002Fobama --height 512 --width 512\n```\n\n**操作提示**:\n- 启动后会在窗口中显示训练进度和渲染结果。\n- 按 `F` 键可切换 FLAME 网格的光线投射视图。\n- 其他快捷键参考 `instant-ngp` 的通用控制说明。\n\n### 3. 加载快照进行推理（无界面模式）\n如果您已有训练好的模型快照（`.msgpack` 文件），可以在低配设备上进行渲染，无需高端 GPU：\n\n```shell\n.\u002Fbuild\u002Frta --config insta.json --scene data\u002Fobama\u002Ftransforms_test.json --snapshot data\u002Fobama\u002Fsnapshot.msgpack\n```\n\n### 4. 脚本化运行\n项目提供了预设脚本方便快速测试：\n- 无 GUI 运行示例：\n  ```shell\n  .\u002Frun.sh\n  ```\n- 运行基于变形梯度传递的跨重演（Cross Reenactment）：\n  ```shell\n  .\u002Frun_transfer.sh\n  ```\n\n训练完成后，输出的视频、检查点等文件将保存在 `.\u002Fdata\u002F{actor}\u002Fexperiments\u002F{config}\u002Fdebug` 目录下。","某虚拟主播运营团队需要为旗下艺人快速构建高保真 3D 数字人，以支持直播中的实时表情驱动和多角度镜头切换。\n\n### 没有 INSTA 时\n- **建模周期漫长**：传统方法需数天甚至数周进行多视角拍摄、手工拓扑建模及材质绘制，无法响应紧急的直播排期。\n- **动态细节丢失**：基于网格的传统驱动方案难以还原细微的面部肌肉运动（如脸颊颤动、皱纹变化），导致数字人表情僵硬、“恐怖谷”效应明显。\n- **渲染算力瓶颈**：要实现电影级的体积感渲染，必须依赖昂贵的云端渲染农场，本地工作站无法实时运行，严重阻碍了实时互动直播的实现。\n- **视角受限严重**：一旦训练完成，很难自由生成未经过拍摄的新颖视角，镜头调度极其不灵活。\n\n### 使用 INSTA 后\n- **即时训练成型**：利用 INSTA 的瞬时神经图形基元技术，仅需单目视频数据，在 RTX 3090 显卡上数小时内即可完成高保真头部化身训练。\n- **微米级表情复现**：通过体素表示法完美捕捉并重建了皮肤下的细微形变与光照效果，数字人说话时的面部动态逼真自然。\n- **本地实时渲染**：优化后的架构支持在消费级显卡（如笔记本 RTX 3080）上实现实时推理，直接赋能低延迟的互动直播场景。\n- **自由视角漫游**：支持任意新颖轨迹的渲染，导播可随时切换特写、侧写等任意机位，无需额外补拍数据。\n\nINSTA 将高保真数字人的生产门槛从“电影工业级”降至“桌面级”，让实时、逼真的虚拟人互动成为日常可能。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZielon_INSTA_a648f7a1.gif","Zielon","Wojciech Zielonka","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FZielon_8aa2aa71.jpg","Ph.D. Candidate at MPI for Intelligent Systems interested in digital humans and computer graphics","MPI-IS","Munich, Germany",null,"w_zielonka","https:\u002F\u002Fzielon.github.io\u002F","https:\u002F\u002Fgithub.com\u002FZielon",[88,92,96,100,104,108,112,116,119,123],{"name":89,"color":90,"percentage":91},"C++","#f34b7d",38.1,{"name":93,"color":94,"percentage":95},"C","#555555",37.3,{"name":97,"color":98,"percentage":99},"Cuda","#3A4E3A",19.4,{"name":101,"color":102,"percentage":103},"Python","#3572A5",2.9,{"name":105,"color":106,"percentage":107},"CMake","#DA3434",1.1,{"name":109,"color":110,"percentage":111},"HTML","#e34c26",0.5,{"name":113,"color":114,"percentage":115},"Shell","#89e051",0.2,{"name":117,"color":118,"percentage":115},"PowerShell","#012456",{"name":120,"color":121,"percentage":122},"Makefile","#427819",0.1,{"name":124,"color":125,"percentage":126},"Lua","#000080",0,515,46,"2026-03-30T19:35:53","NOASSERTION",4,"Linux, Windows","训练必需：推荐 NVIDIA RTX 3090 (24GB) 或更高；渲染\u002F推理可选：支持 RTX 3080 (8GB) 笔记本版本。基于 instant-ngp，需支持 CUDA 的 NVIDIA 显卡。","推荐 32GB (训练时加载图像缓存)",{"notes":136,"python":137,"dependencies":138},"1. 该项目基于 instant-ngp 的特定 commit 版本，克隆时需使用 --recursive 参数。2. 核心功能通过 C++\u002FCMake 编译运行，而非纯 Python 环境。3. 数据集生成和预处理步骤需要 Conda 环境及额外的跟踪器仓库 (metrical-tracker)。4. 训练建议至少使用 1000 帧数据。5. 渲染快照可在较低配置设备（如笔记本）上运行。","未说明 (依赖 instant-ngp 构建环境)",[139,105,140,141],"instant-ngp (特定 commit)","CUDA Toolkit","Conda (用于数据集生成脚本)",[18],[144,145,146,147,148,149,150,151],"instant-ngp","avatars","cuda","flame","nerf","volumetric-rendering","3dmm","neural-network","2026-03-27T02:49:30.150509","2026-04-18T14:25:46.481049",[155,160,165,170,175,180,185,190],{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},39704,"如何在无头模式（--no-gui）下设置训练步数并可视化结果？","可以通过在 `insta.json` 配置文件中设置 `\"max_steps\": 33000` 来指定训练步数。如果无法开始训练且只显示录制帧，请尝试将 `\"render_from_snapshot\"` 设置为 `false`。在无头模式下，达到最大步数后录制应自动开始。","https:\u002F\u002Fgithub.com\u002FZielon\u002FINSTA\u002Fissues\u002F3",{"id":161,"question_zh":162,"answer_zh":163,"source_url":164},39705,"如何在启用 --no-gui 选项时导出渲染的 rgba、法线或深度图像？","深度数据通常保存为 `*.bin` 文件。可以使用以下 Python 代码读取深度文件：\n```python\ndef read_binary(path):\n    x = np.fromfile(path, dtype=np.uint32)\n    x = x.reshape((512, 512, 1)) \u002F 1000\n    return x\n```\n对于其他格式，需检查代码中是否调用了如 `rta::Recorder::save_depth` 等保存函数。","https:\u002F\u002Fgithub.com\u002FZielon\u002FINSTA\u002Fissues\u002F10",{"id":166,"question_zh":167,"answer_zh":168,"source_url":169},39706,"遇到 'Cannot load NeRF data from an empty set of paths' 错误怎么办？","该问题已被修复。请拉取最新的代码更改，然后尝试运行命令：`.\u002Fbuild\u002Frta --config insta.json --scene data\u002Fduda --height 512 --width 512`。或者，可以直接使用脚本 `.\u002Frun.sh` 运行（无需 GUI），并确保在 `run.sh` 中设置了要处理的演员（默认为 `duda` 和 `obama`）。","https:\u002F\u002Fgithub.com\u002FZielon\u002FINSTA\u002Fissues\u002F51",{"id":171,"question_zh":172,"answer_zh":173,"source_url":174},39707,"Windows 用户编译时遇到 CMake 错误该如何解决？","维护者表示从未在 Windows 原生环境下运行过该项目，建议在 Windows 上使用 WSL2 (Windows Subsystem for Linux) 进行编译和运行，以避免依赖项查找失败或线程库缺失等问题。","https:\u002F\u002Fgithub.com\u002FZielon\u002FINSTA\u002Fissues\u002F34",{"id":176,"question_zh":177,"answer_zh":178,"source_url":179},39708,"如何使用现有代码进行表情迁移（Expression Transfer）？","可以通过替换 `debug\u002Foverlay` 文件夹中的旧文件来实现表情迁移。但需注意，这种方法的渲染质量可能不如专门训练表情模型的效果好。","https:\u002F\u002Fgithub.com\u002FZielon\u002FINSTA\u002Fissues\u002F6",{"id":181,"question_zh":182,"answer_zh":183,"source_url":184},39709,"测试数据集中的颈部区域与训练数据集不一致导致指标较差，如何解决？","维护者已更新数据集，新版本包含了未经过颈部裁剪的原始图像，以确保训练集和测试集的颈部区域一致。请重新下载更新后的数据集。","https:\u002F\u002Fgithub.com\u002FZielon\u002FINSTA\u002Fissues\u002F39",{"id":186,"question_zh":187,"answer_zh":188,"source_url":189},39710,"论文中提到表情条件仅绑定到动态变化的嘴部区域，这是否意味着无法控制眼睛或颈部？","是的，根据论文描述，非嘴部区域的表情系数被设为常数向量。如果需要操纵头部其他部分（如眼睛或颈部），可能需要结合几何信息或其他方法。维护者曾提到会发布重演（reenactment）脚本以供参考。","https:\u002F\u002Fgithub.com\u002FZielon\u002FINSTA\u002Fissues\u002F9",{"id":191,"question_zh":192,"answer_zh":193,"source_url":194},39711,"驱动效果不佳（Bad Results）有什么改进建议？","如果遇到驱动效果不理想的情况，建议参考 Issue #37 中的讨论（虽然具体内容未在此处显示，但维护者指向了该链接）。此外，确保使用的数据集版本是最新的（特别是颈部区域一致性），并检查是否正确替换了 overlay 文件夹中的文件来进行表情迁移。","https:\u002F\u002Fgithub.com\u002FZielon\u002FINSTA\u002Fissues\u002F35",[]]