[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-wyhsirius--LIA":3,"tool-wyhsirius--LIA":64},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,2,"2026-04-06T11:32:50",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[43,15,13,14],"语言模型",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,52],"视频",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,"2026-04-06T11:09:19",[15,16,52,61,13,62,43,14,63],"插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":10,"env_os":94,"env_gpu":95,"env_ram":94,"env_deps":96,"category_tags":106,"github_topics":107,"view_count":32,"oss_zip_url":107,"oss_zip_packed_at":107,"status":17,"created_at":108,"updated_at":109,"faqs":110,"releases":141},5344,"wyhsirius\u002FLIA","LIA","[ICLR 22, TPAMI 24] LIA: Latent Image Animator","LIA（Latent Image Animator）是一款基于深度学习的开源图像动画化工具，能让静态图片“动”起来。它只需一张源图片和一段驱动视频，即可生成自然流畅的动态影像，广泛应用于人脸表情迁移、肢体动作模拟等场景。\n\n传统方法通常依赖复杂的结构信息提取模块来传递动作，一旦源图与视频外观差异较大，效果往往大打折扣。LIA 巧妙避开了这一瓶颈，采用自监督自编码器架构，无需额外提取结构特征，而是通过在潜在空间中进行线性导航来构建运动。其核心技术亮点在于学习了一组正交的运动方向，并通过它们的线性组合来表示潜在空间中的任意位移，从而在 VoxCeleb、Taichi 等多个数据集上实现了超越现有最先进方法的生成质量。\n\nLIA 非常适合计算机视觉研究人员、AI 开发者以及需要高效视频生成方案的技术团队使用。虽然普通用户也可通过预训练模型体验演示效果，但其主要价值在于为学术界和工业界提供了一个简洁、高效且无需复杂结构表示的动画生成新范式。项目基于 PyTorch 构建，代码开放，便于二次开发与实验验证。","## LIA: Latent Image Animator\nYaohui Wang, Di Yang, François Brémond, Antitza Dantcheva\n### [Project Page](https:\u002F\u002Fwyhsirius.github.io\u002FLIA-project\u002F) | [Paper](https:\u002F\u002Fopenreview.net\u002Fpdf?id=7r6kDq0mK_)\nThis is the official PyTorch implementation of the **ICLR 2022** paper \"Latent Image Animator: Learning to Animate Images via Latent Space Navigation\" and **TPAMI 2024** paper \"LIA: Latent Image Animator\".\n\n[![Replicate](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwyhsirius_LIA_readme_7dacf1cc5d87.png)](https:\u002F\u002Freplicate.com\u002Fwyhsirius\u002Flia)\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwyhsirius_LIA_readme_052a23318090.gif\" width=\"500\">\n\n\u003Ca href=\"https:\u002F\u002Fwww.inria.fr\u002F\">\u003Cimg height=\"80\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwyhsirius_LIA_readme_98647b8f0706.png\"> \u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Funiv-cotedazur.eu\u002F\">\u003Cimg height=\"80\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwyhsirius_LIA_readme_e63100c6b16a.png\"> \u003C\u002Fa>\n\nAbstract: *Due to the remarkable progress of deep generative models, animating images has become increasingly efficient, whereas associated results have become increasingly realistic. Current animation-approaches commonly exploit structure representation extracted from driving videos. Such structure representation is instrumental in transferring motion from driving videos to still images. However, such approaches fail in case the source image and driving video encompass large appearance variation. Moreover, the extraction of structure information requires additional modules that endow the animation-model with increased complexity. Deviating from such models, we here introduce the Latent Image Animator (LIA), a self-supervised autoencoder that evades need for structure representation. LIA is streamlined to animate images by linear navigation in the latent space. Specifically, motion in generated video is constructed by linear displacement of codes in the latent space. Towards this, we learn a set of orthogonal motion directions simultaneously, and use their linear combination, in order to represent any displacement in the latent space. Extensive quantitative and qualitative analysis suggests that our model systematically and significantly outperforms state-of-art methods on VoxCeleb, Taichi and TED-talk datasets w.r.t. generated quality.*\n\n## Requirements\n- Python 3.7\n- PyTorch 1.5+\n- tensorboard\n- moviepy\n- av\n- tqdm\n- lpips\n\n## 1. Animation demo\n\nDownload pre-trained checkpoints from [here](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1N4QcnqUQwKUZivFV-YeBuPyH4pGJHooc?usp=sharing) and put models under `.\u002Fcheckpoints`. We have provided several demo source images and driving videos in `.\u002Fdata`. \nTo obtain demos, you could run following commands, generated results will be saved under `.\u002Fres`.\n```shell script\npython run_demo.py --model vox --source_path .\u002Fdata\u002Fvox\u002Fmacron.png --driving_path .\u002Fdata\u002Fvox\u002Fdriving1.mp4 # using vox model\npython run_demo.py --model taichi --source_path .\u002Fdata\u002Ftaichi\u002Fsubject1.png --driving_path .\u002Fdata\u002Ftaichi\u002Fdriving1.mp4 # using taichi model\npython run_demo.py --model ted --source_path .\u002Fdata\u002Fted\u002Fsubject1.png --driving_path .\u002Fdata\u002Fted\u002Fdriving1.mp4 # using ted model\n```\nIf you would like to use your own image and video, indicate `\u003CSOURCE_PATH>` (source image), `\u003CDRIVING_PATH>` (driving video), `\u003CDATASET>` and run   \n```shell script\npython run_demo.py --model \u003CDATASET> --source_path \u003CSOURCE_PATH> --driving_path \u003CDRIVING_PATH>\n```\n\n## 2. Evaluation\nTo obtain reconstruction and LPIPS results, put checkpoints under `.\u002Fcheckpoints` and run\n```shell script\npython evaluation.py --dataset \u003CDATASET> --save_path \u003CSAVE_PATH>\n```\nGenerated videos will be save under `\u003CSAVE_PATH>`. For other evaluation metrics, we use the code from [here](https:\u002F\u002Fgithub.com\u002FAliaksandrSiarohin\u002Fpose-evaluation).\n## 3. Linear manipulation\nTo obtain linear manipulation results of a single image, run\n```shell script\npython linear_manipulation.py --model \u003CDATAET> --img_path \u003CIMAGE_PATH> --save_folder \u003CRESULTS_PATH>\n```\nBy default, results will be saved under `.\u002Fres_manipulation`.\n\n## Acknowledgement\nPart of the code is adapted from [FOMM](https:\u002F\u002Fgithub.com\u002FAliaksandrSiarohin\u002Ffirst-order-model) and [MRAA](https:\u002F\u002Fgithub.com\u002Fsnap-research\u002Farticulated-animation). We thank authors for their contribution to the community.\n\n## BibTex\n```bibtex\n@inproceedings{\nwang2022latent,\ntitle={Latent Image Animator: Learning to Animate Images via Latent Space Navigation},\nauthor={Yaohui Wang and Di Yang and Francois Bremond and Antitza Dantcheva},\nbooktitle={International Conference on Learning Representations},\nyear={2022}\n}\n\n@ARTICLE{10645735,\n  author={Wang, Yaohui and Yang, Di and Bremond, Francois and Dantcheva, Antitza},\n  journal={IEEE Transactions on Pattern Analysis and Machine Intelligence}, \n  title={LIA: Latent Image Animator}, \n  year={2024},\n  pages={1-16},\n}\n```\n","## LIA：潜在图像动画器\n王耀辉、杨迪、弗朗索瓦·布雷蒙、安蒂察·丹切娃\n### [项目页面](https:\u002F\u002Fwyhsirius.github.io\u002FLIA-project\u002F) | [论文](https:\u002F\u002Fopenreview.net\u002Fpdf?id=7r6kDq0mK_)\n这是 **ICLR 2022** 论文“潜在图像动画器：通过潜在空间导航学习图像动画”和 **TPAMI 2024** 论文“LIA：潜在图像动画器”的官方 PyTorch 实现。\n\n[![Replicate](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwyhsirius_LIA_readme_7dacf1cc5d87.png)](https:\u002F\u002Freplicate.com\u002Fwyhsirius\u002Flia)\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwyhsirius_LIA_readme_052a23318090.gif\" width=\"500\">\n\n\u003Ca href=\"https:\u002F\u002Fwww.inria.fr\u002F\">\u003Cimg height=\"80\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwyhsirius_LIA_readme_98647b8f0706.png\"> \u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Funiv-cotedazur.eu\u002F\">\u003Cimg height=\"80\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwyhsirius_LIA_readme_e63100c6b16a.png\"> \u003C\u002Fa>\n\n摘要：*得益于深度生成模型的显著进步，图像动画变得越来越高效，生成结果也愈发逼真。当前的动画方法通常利用从驱动视频中提取的结构表示来实现这一目标。这种结构表示在将运动从驱动视频迁移到静态图像方面起到了关键作用。然而，当源图像与驱动视频之间存在较大的外观差异时，这些方法往往失效。此外，结构信息的提取还需要额外的模块，这进一步增加了模型的复杂性。与此不同，我们提出了潜在图像动画器（LIA），这是一种自监督的自编码器，无需依赖结构表示。LIA 通过在潜在空间中进行线性导航来实现图像动画。具体而言，生成视频中的运动是通过潜在空间中编码的线性位移构建的。为此，我们同时学习一组正交的运动方向，并利用它们的线性组合来表示潜在空间中的任意位移。大量的定量和定性分析表明，在 VoxCeleb、Taichi 和 TED-talk 数据集上，我们的模型在生成质量方面系统性地显著优于现有最先进方法。*\n\n## 环境要求\n- Python 3.7\n- PyTorch 1.5+\n- tensorboard\n- moviepy\n- av\n- tqdm\n- lpips\n\n## 1. 动画演示\n从 [这里](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1N4QcnqUQwKUZivFV-YeBuPyH4pGJHooc?usp=sharing) 下载预训练检查点，并将模型文件放入 `.\u002Fcheckpoints` 目录下。我们在 `.\u002Fdata` 中提供了若干示例源图像和驱动视频。运行以下命令即可生成演示结果，结果将保存在 `.\u002Fres` 目录下：\n```shell script\npython run_demo.py --model vox --source_path .\u002Fdata\u002Fvox\u002Fmacron.png --driving_path .\u002Fdata\u002Fvox\u002Fdriving1.mp4 # 使用 vox 模型\npython run_demo.py --model taichi --source_path .\u002Fdata\u002Ftaichi\u002Fsubject1.png --driving_path .\u002Fdata\u002Ftaichi\u002Fdriving1.mp4 # 使用 taichi 模型\npython run_demo.py --model ted --source_path .\u002Fdata\u002Fted\u002Fsubject1.png --driving_path .\u002Fdata\u002Fted\u002Fdriving1.mp4 # 使用 ted 模型\n```\n如果您想使用自己的图像和视频，请指定 `\u003CSOURCE_PATH>`（源图像）、`\u003CDRIVING_PATH>`（驱动视频）以及 `\u003CDATASET>`，然后运行：\n```shell script\npython run_demo.py --model \u003CDATASET> --source_path \u003CSOURCE_PATH> --driving_path \u003CDRIVING_PATH>\n```\n\n## 2. 评估\n要获得重建效果和 LPIPS 结果，请将检查点放入 `.\u002Fcheckpoints` 目录下，然后运行：\n```shell script\npython evaluation.py --dataset \u003CDATASET> --save_path \u003CSAVE_PATH>\n```\n生成的视频将保存在 `\u003CSAVE_PATH>` 目录下。对于其他评估指标，我们使用了 [此处](https:\u002F\u002Fgithub.com\u002FAliaksandrSiarohin\u002Fpose-evaluation) 的代码。\n\n## 3. 线性操控\n要对单张图像进行线性操控并生成结果，请运行：\n```shell script\npython linear_manipulation.py --model \u003CDATASET> --img_path \u003CIMAGE_PATH> --save_folder \u003CRESULTS_PATH>\n```\n默认情况下，结果将保存在 `.\u002Fres_manipulation` 目录下。\n\n## 致谢\n部分代码改编自 [FOMM](https:\u002F\u002Fgithub.com\u002FAliaksandrSiarohin\u002Ffirst-order-model) 和 [MRAA](https:\u002F\u002Fgithub.com\u002Fsnap-research\u002Farticulated-animation)。感谢作者们为社区所做的贡献。\n\n## BibTex\n```bibtex\n@inproceedings{\nwang2022latent,\ntitle={Latent Image Animator: Learning to Animate Images via Latent Space Navigation},\nauthor={Yaohui Wang and Di Yang and Francois Bremond and Antitza Dantcheva},\nbooktitle={International Conference on Learning Representations},\nyear={2022}\n}\n\n@ARTICLE{10645735,\n  author={Wang, Yaohui and Yang, Di and Bremond, Francois and Dantcheva, Antitza},\n  journal={IEEE Transactions on Pattern Analysis and Machine Intelligence}, \n  title={LIA: Latent Image Animator}, \n  year={2024},\n  pages={1-16},\n}\n```","# LIA (Latent Image Animator) 快速上手指南\n\nLIA 是一个基于自监督自编码器的图像动画工具，无需提取结构表示，仅通过潜在空间的线性导航即可让静态图像动起来。该项目支持 VoxCeleb、Taichi 和 TED-talk 等数据集模型。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n- **操作系统**: Linux \u002F macOS \u002F Windows (推荐 Linux)\n- **Python**: 3.7+\n- **PyTorch**: 1.5+ (建议安装与 CUDA 版本匹配的 GPU 版本)\n- **其他依赖**:\n  - tensorboard\n  - moviepy\n  - av\n  - tqdm\n  - lpips\n\n> **国内加速建议**：\n> 推荐使用清华或阿里镜像源安装 Python 依赖，以加快下载速度：\n> ```bash\n> pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n1. **克隆仓库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fwyhsirius\u002FLIA-project.git\n   cd LIA-project\n   ```\n\n2. **安装依赖**\n   创建 `requirements.txt` 文件（如果项目中未直接提供），内容如下：\n   ```text\n   torch>=1.5\n   tensorboard\n   moviepy\n   av\n   tqdm\n   lpips\n   ```\n   然后执行安装命令：\n   ```bash\n   pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n   ```\n\n3. **下载预训练模型**\n   从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1N4QcnqUQwKUZivFV-YeBuPyH4pGJHooc?usp=sharing) 下载预训练检查点，并将其放入项目根目录下的 `.\u002Fcheckpoints` 文件夹中。\n   \n   > *注：若无法访问 Google Drive，需自行寻找国内网盘搬运资源或联系作者获取。*\n\n4. **准备数据**\n   项目已包含部分演示用的源图片和驱动视频，位于 `.\u002Fdata` 目录下。如需使用自定义素材，请准备好源图片（`.png`\u002F`.jpg`）和驱动视频（`.mp4`）。\n\n## 基本使用\n\n以下是最简单的动画生成示例，将使用预训练模型让一张静态图片根据驱动视频的动作进行动画化。\n\n### 运行演示 Demo\n\n使用项目自带的测试数据运行（以 VoxCeleb 模型为例）：\n\n```shell script\npython run_demo.py --model vox --source_path .\u002Fdata\u002Fvox\u002Fmacron.png --driving_path .\u002Fdata\u002Fvox\u002Fdriving1.mp4\n```\n\n生成的结果视频将保存在 `.\u002Fres` 目录下。\n\n### 使用自定义图片与视频\n\n如果您想使用自己的素材，请替换路径参数并指定对应的数据集模型类型（`vox`, `taichi`, 或 `ted`）：\n\n```shell script\npython run_demo.py --model \u003CDATASET> --source_path \u003CSOURCE_PATH> --driving_path \u003CDRIVING_PATH>\n```\n\n**示例**：\n```shell script\npython run_demo.py --model taichi --source_path .\u002Fmy_images\u002Fperson.png --driving_path .\u002Fmy_videos\u002Fdance.mp4\n```\n\n### 单图线性操控（可选）\n\n如果您只想对单张图片进行潜在空间的线性变换（如改变表情、姿态等），可运行：\n\n```shell script\npython linear_manipulation.py --model \u003CDATASET> --img_path \u003CIMAGE_PATH> --save_folder \u003CRESULTS_PATH>\n```\n\n默认结果保存于 `.\u002Fres_manipulation`。","一家数字营销机构需要为电商客户快速制作大量人物口播视频，但仅有单张产品代言人的静态照片和一段通用的驱动视频素材。\n\n### 没有 LIA 时\n- **外观一致性差**：传统方法依赖提取骨骼或关键点等结构信息，当源图片人物着装、发型与驱动视频差异较大时，生成结果容易出现面部扭曲或衣物错位。\n- **流程复杂冗长**：必须额外部署专门的结构提取模块来辅助运动迁移，增加了系统架构的复杂度和推理延迟。\n- **泛化能力受限**：一旦遇到大角度转头或复杂表情变化，模型往往无法正确处理，导致视频背景闪烁或人物特征丢失。\n- **调试成本高**：为了适配不同风格的数据集（如真人说话 vs 卡通动画），需要反复调整预处理参数甚至重新训练辅助网络。\n\n### 使用 LIA 后\n- **潜在空间线性导航**：LIA 摒弃了显式的结构表示，直接在潜在空间中通过代码的线性位移构建运动，即使源图与驱动视频外观差异巨大，也能保持人物特征高度一致。\n- **架构精简高效**：作为一个自监督自编码器，LIA 无需额外的结构提取模块，显著降低了模型复杂度，推理速度更快且易于部署。\n- **正交运动方向学习**：通过同时学习一组正交的运动方向并进行线性组合，LIA 能更稳健地处理大幅度的头部转动和细微的表情变化，生成视频质量显著提升。\n- **跨数据集通用性强**：在 VoxCeleb、Taichi 等多个数据集上的表现均优于现有最先进方法，一套模型即可灵活应对多种场景需求。\n\nLIA 通过创新的潜在空间线性导航技术，让静态图像动画化过程不再受限于外观差异和复杂结构提取，实现了高质量、低成本的视频内容自动生成。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwyhsirius_LIA_a303cedc.png","wyhsirius","Yaohui","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fwyhsirius_b2882a16.jpg","Research Scientist","Shanghai AI Laboratory","China","wyhsirius@gmail.com","yaohuiwang_yh","https:\u002F\u002Fwyhsirius.github.io","https:\u002F\u002Fgithub.com\u002Fwyhsirius",[86],{"name":87,"color":88,"percentage":89},"Python","#3572A5",100,650,69,"2026-03-15T05:37:37","NOASSERTION","未说明","需要支持 CUDA 的 NVIDIA GPU（因基于 PyTorch），具体型号和显存大小未说明",{"notes":97,"python":98,"dependencies":99},"该项目是 ICLR 2022 和 TPAMI 2024 论文的官方实现。运行演示前需从 Google Drive 下载预训练模型并放入 .\u002Fcheckpoints 目录。代码部分改编自 FOMM 和 MRAA 项目。","3.7",[100,101,102,103,104,105],"PyTorch>=1.5","tensorboard","moviepy","av","tqdm","lpips",[15,52],null,"2026-03-27T02:49:30.150509","2026-04-08T12:17:55.241410",[111,116,121,126,131,136],{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},24243,"使用 `--resume_ckpt` 恢复训练时出现显存溢出（OOM）或报错，而从零开始训练正常，如何解决？","这是因为加载 checkpoint 时默认占用了 GPU 显存。请在 `trainer.py` 文件中找到加载断点的代码，将 `ckpt = torch.load(resume_ckpt)` 修改为 `ckpt = torch.load(resume_ckpt, map_location='cpu')`，强制先在 CPU 上加载模型权重，从而避免显存溢出。","https:\u002F\u002Fgithub.com\u002Fwyhsirius\u002FLIA\u002Fissues\u002F9",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},24240,"运行 demo 时遇到 'numpy.float64' object has no attribute 'numerator' 错误或视频保存失败怎么办？","这通常是由于 torchvision 的视频写入功能兼容性问题导致的。建议改用 imageio 库来保存视频。请将代码中的 `torchvision.io.write_video(save_path, vid[0], fps=fps)` 替换为以下代码：\nwriter = imageio.get_writer(save_path, fps=int(fps))\nfor i in range(vid.size(1)):\n    frame = vid[0][i].numpy()\n    writer.append_data(frame)\nwriter.close()","https:\u002F\u002Fgithub.com\u002Fwyhsirius\u002FLIA\u002Fissues\u002F30",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},24241,"已安装 PyAV 但仍报错 \"ImportError: PyAV is not installed\" 如何解决？","如果确认已通过 `pip install av` 安装但报错依旧，可能是模块缓存或环境冲突问题。尝试手动删除相关的模块文件，重启计算机，然后重新安装依赖库，通常可以解决该问题。","https:\u002F\u002Fgithub.com\u002Fwyhsirius\u002FLIA\u002Fissues\u002F14",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},24242,"如果想使用单张图片而不是视频作为驱动源（driving source），应该如何设置？","可以将配置参数 `h_start` 设置为 `None`。这样模型就能正确处理单帧图像作为驱动输入，生成预期的动画效果。","https:\u002F\u002Fgithub.com\u002Fwyhsirius\u002FLIA\u002Fissues\u002F10",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},24244,"模型架构中 Fig.8 提到的 toRGB 层和 NoiseInjection 是否被实际使用？","根据社区用户的逆向分析，实际代码与论文描述存在细微差异：1. 注意力掩码 \"sigma\" 也被用作 \"1-sigma\" 与输入进行加权求和；2. ToFlow 块的 3x3 卷积输出存在一个额外的跳过连接（skip layer），该连接来自上一层并经过 2 倍上采样后相加。这些未文档化的细节对于复现结果可能很重要。","https:\u002F\u002Fgithub.com\u002Fwyhsirius\u002FLIA\u002Fissues\u002F13",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},24245,"目前是否有成功在 512x512 高分辨率下训练 LIA 模型的案例？","有用户尝试在 512x512 分辨率下训练并分享了检查点，但反馈结果显示效果非常差。目前仓库中尚未有公认的成功高分辨率训练方案或官方支持，建议暂时使用默认的 256x256 分辨率以获得最佳效果。","https:\u002F\u002Fgithub.com\u002Fwyhsirius\u002FLIA\u002Fissues\u002F25",[]]