[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-bcmi--Light-A-Video":3,"similar-bcmi--Light-A-Video":56},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":18,"owner_location":18,"owner_email":18,"owner_twitter":18,"owner_website":19,"owner_url":20,"languages":21,"stars":26,"forks":27,"last_commit_at":28,"license":29,"difficulty_score":30,"env_os":31,"env_gpu":32,"env_ram":31,"env_deps":33,"category_tags":45,"github_topics":47,"view_count":50,"oss_zip_url":18,"oss_zip_packed_at":18,"status":51,"created_at":52,"updated_at":53,"faqs":54,"releases":55},4308,"bcmi\u002FLight-A-Video","Light-A-Video","[ICCV 2025] Light-A-Video: Training-free Video Relighting via Progressive Light Fusion","Light-A-Video 是一款无需重新训练即可实现视频重光照（Relighting）的开源框架，旨在让用户轻松调整视频中任意片段的光照效果。传统方法若直接将图像重光照模型逐帧应用于视频，常因光源不一致或画面闪烁导致生成结果不自然，且高质量视频数据集稀缺、训练成本高昂。Light-A-Video 巧妙解决了这一痛点，它能在保持单帧图像重光照质量的同时，确保视频在时间维度上的光照过渡平滑连贯。\n\n该工具特别适合视频创作者、视觉设计师以及希望快速验证光照效果的 AI 研究人员使用。其核心亮点在于两项创新技术：一是“一致光注意力”（CLA）模块，通过增强帧间交互来稳定背景光源的生成；二是基于光线传输独立物理原理的“渐进式光融合”（PLF）策略，通过将原始视频外观与重光照结果进行线性混合，有效消除了画面闪烁。作为 ICCV 2025 的收录成果，Light-A-Video 已支持 CogVideoX 和 Wan2.1 等主流管线，并提供在线演示，让用户能以零样本（Zero-shot）方式即刻体验专业的视频布光控制。","\u003Cdiv align=\"center\">\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbcmi_Light-A-Video_readme_1d32f5eeec95.png'\u002F>\n\u003C\u002Fdiv>\n\n---\n### ⭐️ **Our team's works:** [[**HiFlow**](https:\u002F\u002Fbujiazi.github.io\u002Fhiflow.github.io\u002F)]  [[**MotionClone**](https:\u002F\u002Fbujiazi.github.io\u002Fmotionclone.github.io\u002F)]  [[**ByTheWay**](https:\u002F\u002Fgithub.com\u002FBujiazi\u002FByTheWay)] \n\n## Light-A-Video: Training-free Video Relighting via Progressive Light Fusion\nThis repository is the official implementation of Light-A-Video. It is a **training-free framework** that enables \nzero-shot illumination control of any given video sequences or foreground sequences.\n\n\u003Cdetails>\u003Csummary>Click for the full abstract of Light-A-Video\u003C\u002Fsummary>\n\n> Recent advancements in image relighting models, driven by large-scale datasets and pre-trained diffusion models, have enabled the imposition of consistent lighting. However, video relighting still lags, primarily due to the excessive training costs and the scarcity of diverse, high-quality video relighting datasets. A simple application of image relighting models on a frame-by-frame basis leads to several issues: lighting source inconsistency and relighted appearance inconsistency, resulting in flickers in the generated videos. In this work, we propose Light-A-Video, a training-free approach to achieve temporally smooth video relighting. Adapted from image relighting models, Light-A-Video introduces two key techniques to enhance lighting consistency. First, we design a Consistent Light Attention (CLA) module, which enhances cross-frame interactions within the self-attention layers of the image relight model to stabilize the generation of the background lighting source. Second, leveraging the physical principle of light transport independence, we apply linear blending between the source video's appearance and the relighted appearance, using a Progressive Light Fusion (PLF) strategy to ensure smooth temporal transitions in illumination. Experiments show that Light-A-Video improves the temporal consistency of relighted video while maintaining the relighted image quality, ensuring coherent lighting transitions across frames. \n\u003C\u002Fdetails>\n\n**[Light-A-Video: Training-free Video Relighting via Progressive Light Fusion]()** \n\u003C\u002Fbr>\n[Yujie Zhou*](https:\u002F\u002Fgithub.com\u002FYujieOuO\u002F),\n[Jiazi Bu*](https:\u002F\u002Fgithub.com\u002FBujiazi\u002F),\n[Pengyang Ling*](https:\u002F\u002Fgithub.com\u002FLPengYang\u002F),\n[Pan Zhang\u003Csup>†\u003C\u002Fsup>](https:\u002F\u002Fpanzhang0212.github.io\u002F),\n[Tong Wu](https:\u002F\u002Fwutong16.github.io\u002F),\n[Qidong Huang](https:\u002F\u002Fshikiw.github.io\u002F),\n[Jinsong Li](https:\u002F\u002Fli-jinsong.github.io\u002F),\n[Xiaoyi Dong](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=FscToE0AAAAJ&hl=en\u002F),\n[Yuhang Zang](https:\u002F\u002Fyuhangzang.github.io\u002F),\n[Yuhang Cao](https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=zh-CN&user=sJkqsqkAAAAJ),\n[Anyi Rao](https:\u002F\u002Fanyirao.com\u002F),\n[Jiaqi Wang](https:\u002F\u002Fmyownskyw7.github.io\u002F),\n[Li Niu\u003Csup>†\u003C\u002Fsup>](https:\u002F\u002Fwww.ustcnewly.com\u002F)  \n(*Equal Contribution)(\u003Csup>†\u003C\u002Fsup>Corresponding Author)\n\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2502.08590-b31b1b.svg)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.08590)\n[![Project Page](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-Website-green)](https:\u002F\u002Fbujiazi.github.io\u002Flight-a-video.github.io\u002F)\n[![Hugging Face](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Demo-red)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Ffffiloni\u002FLight-A-Video)\n\n## 💡 Demo\n[![]](https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fea5a01b9-a5a5-4159-a61b-7fef8e44e6db)\n\n## 📜 News\n\n**[2025\u002F6\u002F26]** Happy to announce that Light-A-Video is accepted by ICCV 2025!\n\n**[2025\u002F3\u002F14]** Support [CogVideoX](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCogVideo)!\n\n**[2025\u002F3\u002F11]** Support [Wan2.1](https:\u002F\u002Fgithub.com\u002FWan-Video\u002FWan2.1)!\n\n**[2025\u002F2\u002F11]** Code is available now!\n\n**[2025\u002F2\u002F10]** The paper and project page are released!\n\n## 🏗️ Todo\n- [x] Release a gradio demo.\n\n- [x] Release Light-A-Video code with CogVideoX-2B pipeline.\n\n## 📚 Gallery\nWe show more results in the [Project Page](https:\u002F\u002Fbujiazi.github.io\u002Flight-a-video.github.io\u002F).\n\n\u003Ctable class=\"center\">\n    \u003Ctr>\n      \u003Ctd>\u003Cp style=\"text-align: center\">..., red and blue neon light\u003C\u002Fp>\u003C\u002Ftd>\n      \u003Ctd>\u003Cp style=\"text-align: center\">..., sunset over sea\u003C\u002Fp>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbcmi_Light-A-Video_readme_ad8709e8ae4e.gif\">\u003C\u002Ftd>\n      \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbcmi_Light-A-Video_readme_6e55315b7fac.gif\">\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cp style=\"text-align: center\">..., sunlight through the blinds\u003C\u002Fp>\u003C\u002Ftd>\n      \u003Ctd>\u003Cp style=\"text-align: center\">..., in the forest, magic golden lit\u003C\u002Fp>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbcmi_Light-A-Video_readme_15df01ff3e7a.gif\">\u003C\u002Ftd>\n      \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbcmi_Light-A-Video_readme_d5a049c984eb.gif\">\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\n## 🚀 Method Overview\n\n\u003Cdiv align=\"center\">\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbcmi_Light-A-Video_readme_215939b396aa.png'\u002F>\n\u003C\u002Fdiv>\n\nLight-A-Video leverages the capabilities of image relighting models and VDM motion priors to achieve temporally consistent video relighting. \nBy integrating the **Consistent Light Attention** to stabilize lighting source generation and employ the **Progressive Light Fusion** strategy\nfor smooth appearance transitions.\n\n## 🔧 Installations\n\n### Setup repository and conda environment\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fbcmi\u002FLight-A-Video.git\ncd Light-A-Video\n\nconda create -n lav python=3.10\nconda activate lav\n\npip install -r requirements.txt\n```\n\n## 🔑 Pretrained Model Preparations\n- IC-Light: [Huggingface](https:\u002F\u002Fhuggingface.co\u002Flllyasviel\u002Fic-light)\n- SD RealisticVision: [Huggingface](https:\u002F\u002Fhuggingface.co\u002Fstablediffusionapi\u002Frealistic-vision-v51)\n- Animatediff Motion-Adapter-V-1.5.3: [Huggingface](https:\u002F\u002Fhuggingface.co\u002Fguoyww\u002Fanimatediff-motion-adapter-v1-5-3)\n\nModel downloading is automatic.\n\n## 🎈 Quick Start\n\n### Perform video relighting with customized illumination control\n```bash\n# relight\npython lav_relight.py --config \"configs\u002Frelight\u002Fcar.yaml\"\n```\n### Perform foreground sequences relighting with background generation\nA script based on [SAM2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fsam2) is provided to extract foreground sequences from videos. \n```bash\n# extract foreground sequence\npython sam2.py --video_name car --x 255 --y 255\n\n# inpaint and relight\npython lav_paint.py --config \"configs\u002Frelight_inpaint\u002Fcar.yaml\"\n```\n\n## 🚝 More Video Diffusion Model Support\n\nLight-A-Video now supports Wan2.1 backbone, a leading DiT-based video foundation model.\nLonger video relighting and diverse resolutions are enabled.\n\n### Update Diffusers from source\n```bash\nconda activate lav\n\ngit clone https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers.git\ncd diffusers\npip install .\n```\n\n### Perform video relighting with Wan2.1\nWan2.1 with Flow-Matching scheduler.\nThe VDM checkpoint is [Wan2.1-T2V-1.3B-Diffusers](https:\u002F\u002Fhuggingface.co\u002FWan-AI\u002FWan2.1-T2V-1.3B-Diffusers) and it will be downloaded automatically.\n```bash\npython lav_wan_relight.py --config \"configs\u002Fwan_relight\u002Fbear.yaml\"\n```\n### Perform video relighting with CogVideoX\nCogVideoX with DDIM scheduler.\nThe VDM checkpoint is [THUDM\u002FCogVideoX-2b](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002FCogVideoX-2b) and it will be downloaded automatically.\n```bash\npython lav_cog_relight.py --config \"configs\u002Fcog_relight\u002Fbear.yaml\"\n```\n\n## 📎 Citation \n\nIf you find our work helpful for your research, please consider giving a star ⭐ and citation 📝 \n```bibtex\n@InProceedings{Zhou_2025_ICCV,\n    author    = {Zhou, Yujie and Bu, Jiazi and Ling, Pengyang and Zhang, Pan and Wu, Tong and Huang, Qidong and Li, Jinsong and Dong, Xiaoyi and Zang, Yuhang and Cao, Yuhang and Rao, Anyi and Wang, Jiaqi and Niu, Li},\n    title     = {Light-A-Video: Training-free Video Relighting via Progressive Light Fusion},\n    booktitle = {Proceedings of the IEEE\u002FCVF International Conference on Computer Vision (ICCV)},\n    month     = {October},\n    year      = {2025},\n    pages     = {13315-13325}\n}\n```\n\n## 📣 Disclaimer\n\nThis is official code of Light-A-Video.\nAll the copyrights of the demo images and audio are from community users. \nFeel free to contact us if you would like remove them.\n\n## 💞 Acknowledgements\nThe code is built upon the below repositories, we thank all the contributors for open-sourcing.\n* [IC-Light](https:\u002F\u002Fgithub.com\u002Flllyasviel\u002FIC-Light)\n* [AnimateDiff](https:\u002F\u002Fgithub.com\u002Fguoyww\u002FAnimateDiff)\n* [CogVideoX](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCogVideo)\n* [Wan2.1](https:\u002F\u002Fgithub.com\u002FWan-Video\u002FWan2.1)\n\nIt is greatly appreciated that the community has contributed various extensions to Light-A-Video.\n* [ComfyUI_Light_A_Video](https:\u002F\u002Fgithub.com\u002Fsmthemex\u002FComfyUI_Light_A_Video)\n","\u003Cdiv align=\"center\">\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbcmi_Light-A-Video_readme_1d32f5eeec95.png'\u002F>\n\u003C\u002Fdiv>\n\n---\n### ⭐️ **我们团队的作品：** [[**HiFlow**](https:\u002F\u002Fbujiazi.github.io\u002Fhiflow.github.io\u002F)]  [[**MotionClone**](https:\u002F\u002Fbujiazi.github.io\u002Fmotionclone.github.io\u002F)]  [[**ByTheWay**](https:\u002F\u002Fgithub.com\u002FBujiazi\u002FByTheWay)] \n\n## Light-A-Video：基于渐进式光照融合的无训练视频重打光\n本仓库是 Light-A-Video 的官方实现。它是一个**无需训练的框架**，能够对任意给定的视频序列或前景序列进行零样本光照控制。\n\n\u003Cdetails>\u003Csummary>点击查看 Light-A-Video 的完整摘要\u003C\u002Fsummary>\n\n> 近年来，得益于大规模数据集和预训练扩散模型的发展，图像重打光技术取得了显著进展，实现了光照的一致性控制。然而，视频重打光仍相对滞后，主要原因在于高昂的训练成本以及缺乏多样化、高质量的视频重打光数据集。如果简单地将图像重打光模型逐帧应用于视频，就会出现光源不一致和重打光后外观不一致等问题，从而导致生成的视频中出现闪烁现象。在本工作中，我们提出了 Light-A-Video，这是一种无需训练的方法，用于实现时序平滑的视频重打光。Light-A-Video 借鉴了图像重打光模型，并引入了两项关键技术来提升光照一致性。首先，我们设计了一个一致光照注意力（CLA）模块，在图像重打光模型的自注意力层中增强了跨帧交互，以稳定背景光源的生成。其次，基于光线传输独立性的物理原理，我们在源视频的外观与重打光后的外观之间采用线性混合，并通过渐进式光照融合（PLF）策略确保光照的时序过渡平滑。实验结果表明，Light-A-Video 在保持重打光图像质量的同时，显著提升了重打光视频的时序一致性，确保各帧之间的光照过渡连贯。\n\u003C\u002Fdetails>\n\n**[Light-A-Video：基于渐进式光照融合的无训练视频重打光]()** \n\u003C\u002Fbr>\n[Yujie Zhou*](https:\u002F\u002Fgithub.com\u002FYujieOuO\u002F),\n[Jiazi Bu*](https:\u002F\u002Fgithub.com\u002FBujiazi\u002F),\n[Pengyang Ling*](https:\u002F\u002Fgithub.com\u002FLPengYang\u002F),\n[Pan Zhang\u003Csup>†\u003C\u002Fsup>](https:\u002F\u002Fpanzhang0212.github.io\u002F),\n[Tong Wu](https:\u002F\u002Fwutong16.github.io\u002F),\n[Qidong Huang](https:\u002F\u002Fshikiw.github.io\u002F),\n[Jinsong Li](https:\u002F\u002Fli-jinsong.github.io\u002F),\n[Xiaoyi Dong](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=FscToE0AAAAJ&hl=en\u002F),\n[Yuhang Zang](https:\u002F\u002Fyuhangzang.github.io\u002F),\n[Yuhang Cao](https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=zh-CN&user=sJkqsqkAAAAJ),\n[Anyi Rao](https:\u002F\u002Fanyirao.com\u002F),\n[Jiaqi Wang](https:\u002F\u002Fmyownskyw7.github.io\u002F),\n[Li Niu\u003Csup>†\u003C\u002Fsup>](https:\u002F\u002Fwww.ustcnewly.com\u002F)  \n(*贡献相等)(\u003Csup>†\u003C\u002Fsup>通讯作者)\n\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2502.08590-b31b1b.svg)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.08590)\n[![项目主页](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-Website-green)](https:\u002F\u002Fbujiazi.github.io\u002Flight-a-video.github.io\u002F)\n[![Hugging Face](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Demo-red)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Ffffiloni\u002FLight-A-Video)\n\n## 💡 演示\n[![]](https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fea5a01b9-a5a5-4159-a61b-7fef8e44e6db)\n\n## 📜 新闻\n\n**[2025\u002F6\u002F26]** 很高兴宣布，Light-A-Video 已被 ICCV 2025 接收！\n\n**[2025\u002F3\u002F14]** 支持 [CogVideoX](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCogVideo)！\n\n**[2025\u002F3\u002F11]** 支持 [Wan2.1](https:\u002F\u002Fgithub.com\u002FWan-Video\u002FWan2.1)！\n\n**[2025\u002F2\u002F11]** 代码现已发布！\n\n**[2025\u002F2\u002F10]** 论文和项目主页已上线！\n\n## 🏗️ 待办事项\n- [x] 发布 Gradio 演示。\n\n- [x] 发布包含 CogVideoX-2B 流程的 Light-A-Video 代码。\n\n## 📚 图库\n更多结果请参见[项目主页](https:\u002F\u002Fbujiazi.github.io\u002Flight-a-video.github.io\u002F)。\n\n\u003Ctable class=\"center\">\n    \u003Ctr>\n      \u003Ctd>\u003Cp style=\"text-align: center\">……，红蓝霓虹灯\u003C\u002Fp>\u003C\u002Ftd>\n      \u003Ctd>\u003Cp style=\"text-align: center\">……，海上日落\u003C\u002Fp>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbcmi_Light-A-Video_readme_ad8709e8ae4e.gif\">\u003C\u002Ftd>\n      \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbcmi_Light-A-Video_readme_6e55315b7fac.gif\">\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cp style=\"text-align: center\">……，阳光透过百叶窗\u003C\u002Fp>\u003C\u002Ftd>\n      \u003Ctd>\u003Cp style=\"text-align: center\">……，森林中，神奇的金色光芒\u003C\u002Fp>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbcmi_Light-A-Video_readme_15df01ff3e7a.gif\">\u003C\u002Ftd>\n      \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbcmi_Light-A-Video_readme_d5a049c984eb.gif\">\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\n## 🚀 方法概述\n\n\u003Cdiv align=\"center\">\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbcmi_Light-A-Video_readme_215939b396aa.png'\u002F>\n\u003C\u002Fdiv>\n\nLight-A-Video 利用图像重打光模型和 VDM 运动先验的能力，实现时序一致的视频重打光。通过集成**一致光照注意力**模块来稳定光源生成，并采用**渐进式光照融合**策略以实现外观的平滑过渡。\n\n## 🔧 安装步骤\n\n### 克隆仓库并设置 Conda 环境\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fbcmi\u002FLight-A-Video.git\ncd Light-A-Video\n\nconda create -n lav python=3.10\nconda activate lav\n\npip install -r requirements.txt\n```\n\n## 🔑 预训练模型准备\n- IC-Light：[Hugging Face](https:\u002F\u002Fhuggingface.co\u002Flllyasviel\u002Fic-light)\n- SD RealisticVision：[Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fstablediffusionapi\u002Frealistic-vision-v51)\n- Animatediff Motion-Adapter-V-1.5.3：[Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fguoyww\u002Fanimatediff-motion-adapter-v1-5-3)\n\n模型下载将自动完成。\n\n## 🎈 快速入门\n\n### 使用自定义光照控制进行视频重打光\n```bash\n# 重打光\npython lav_relight.py --config \"configs\u002Frelight\u002Fcar.yaml\"\n```\n### 对前景序列进行重打光并生成背景\n我们提供了一个基于 [SAM2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fsam2) 的脚本，用于从视频中提取前景序列。\n```bash\n# 提取前景序列\npython sam2.py --video_name car --x 255 --y 255\n\n# 上色并重打光\npython lav_paint.py --config \"configs\u002Frelight_inpaint\u002Fcar.yaml\"\n```\n\n## 🚝 更多视频扩散模型支持\n\nLight-A-Video 现在支持 Wan2.1 主干网络，这是一款领先的基于 DiT 的视频基础模型。现在可以处理更长的视频，并支持多种分辨率。\n\n### 从源码更新 Diffusers\n```bash\nconda activate lav\n\ngit clone https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers.git\ncd diffusers\npip install .\n```\n\n### 使用 Wan2.1 进行视频重打光\nWan2.1 配合 Flow-Matching 调度器使用。该 VDM 检查点为 [Wan2.1-T2V-1.3B-Diffusers](https:\u002F\u002Fhuggingface.co\u002FWan-AI\u002FWan2.1-T2V-1.3B-Diffusers)，并将自动下载。\n```bash\npython lav_wan_relight.py --config \"configs\u002Fwan_relight\u002Fbear.yaml\"\n```\n\n### 使用 CogVideoX 进行视频重光照\nCogVideoX 配合 DDIM 调度器。\nVDM 检查点为 [THUDM\u002FCogVideoX-2b](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002FCogVideoX-2b)，它将自动下载。\n```bash\npython lav_cog_relight.py --config \"configs\u002Fcog_relight\u002Fbear.yaml\"\n```\n\n## 📎 引用 \n\n如果您认为我们的工作对您的研究有所帮助，请考虑给项目点赞 ⭐ 并引用 📝 \n```bibtex\n@InProceedings{Zhou_2025_ICCV,\n    author    = {周宇杰、卜佳姿、凌鹏洋、张攀、吴桐、黄启东、李劲松、董晓毅、臧宇航、曹宇航、饶安怡、王佳琪、牛力},\n    title     = {Light-A-Video：通过渐进式光照融合实现无需训练的视频重光照},\n    booktitle = {IEEE\u002FCVF 国际计算机视觉会议（ICCV）论文集},\n    month     = {十月},\n    year      = {2025},\n    pages     = {13315-13325}\n}\n```\n\n## 📣 免责声明\n\n这是 Light-A-Video 的官方代码。\n演示图片和音频的所有版权均来自社区用户。如果您希望移除这些内容，请随时与我们联系。\n\n## 💞 致谢\n本代码基于以下仓库构建，我们感谢所有开源贡献者。\n* [IC-Light](https:\u002F\u002Fgithub.com\u002Flllyasviel\u002FIC-Light)\n* [AnimateDiff](https:\u002F\u002Fgithub.com\u002Fguoyww\u002FAnimateDiff)\n* [CogVideoX](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCogVideo)\n* [Wan2.1](https:\u002F\u002Fgithub.com\u002FWan-Video\u002FWan2.1)\n\n非常感谢社区为 Light-A-Video 贡献了多种扩展功能。\n* [ComfyUI_Light_A_Video](https:\u002F\u002Fgithub.com\u002Fsmthemex\u002FComfyUI_Light_A_Video)","# Light-A-Video 快速上手指南\n\nLight-A-Video 是一个**无需训练**的视频重照明框架，支持对任意视频序列或前景序列进行零样本（zero-shot）的光照控制。它通过“一致光注意力（CLA）”和“渐进式光融合（PLF）”技术，解决了逐帧处理导致的光源不一致和画面闪烁问题，实现时间上平滑的视频重照明效果。\n\n## 环境准备\n\n*   **操作系统**: Linux (推荐) 或 macOS\n*   **Python 版本**: 3.10\n*   **硬件要求**: 需要 NVIDIA GPU 以支持扩散模型推理（显存建议 8GB 以上，运行 Wan2.1 或 CogVideoX 等大模型时建议 16GB+）\n*   **前置依赖**:\n    *   Git\n    *   Conda (或 Mamba)\n\n## 安装步骤\n\n### 1. 克隆仓库并创建虚拟环境\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fbcmi\u002FLight-A-Video.git\ncd Light-A-Video\n\nconda create -n lav python=3.10\nconda activate lav\n```\n\n### 2. 安装依赖包\n\n```bash\npip install -r requirements.txt\n```\n\n> **提示**: 如果下载速度较慢，可添加国内镜像源加速，例如：\n> `pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n### 3. 模型准备\n\n项目所需的预训练模型（IC-Light, SD RealisticVision, Animatediff Motion-Adapter）将在首次运行时**自动下载**。确保网络连接畅通，或提前配置好 Hugging Face 镜像。\n\n如需使用更先进的视频生成底座（如 Wan2.1 或 CogVideoX），请参考下文“进阶使用”部分更新 `diffusers` 库。\n\n## 基本使用\n\n### 场景一：自定义光照的视频重照明\n\n这是最基础的用法，直接对完整视频进行光照调整。配置文件位于 `configs\u002Frelight\u002F` 目录下。\n\n```bash\npython lav_relight.py --config \"configs\u002Frelight\u002Fcar.yaml\"\n```\n\n*执行后，程序会自动加载模型并根据配置文件中的提示词（prompt）生成重照明视频。*\n\n### 场景二：前景提取与背景重绘重照明\n\n如果你只想改变视频中特定物体（前景）的光照，并重新生成背景，可以使用内置的 SAM2 脚本。\n\n**第一步：提取前景序列**\n```bash\n# --video_name: 视频文件名（不含后缀）\n# --x, --y: 点击前景物体的坐标点\npython sam2.py --video_name car --x 255 --y 255\n```\n\n**第二步：进行背景修复（Inpaint）并重照明**\n```bash\npython lav_paint.py --config \"configs\u002Frelight_inpaint\u002Fcar.yaml\"\n```\n\n## 进阶使用（支持 Wan2.1 与 CogVideoX）\n\nLight-A-Video 已支持 **Wan2.1** 和 **CogVideoX** 等主流视频扩散模型，可生成长视频及更多分辨率。\n\n### 1. 更新 Diffusers 库\n\n为了支持新模型，需要从源码安装最新版的 `diffusers`：\n\n```bash\nconda activate lav\n\ngit clone https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers.git\ncd diffusers\npip install .\n```\n\n### 2. 使用 Wan2.1 进行重照明\n基于 Flow-Matching 调度器，自动下载 `Wan2.1-T2V-1.3B-Diffusers` 模型。\n\n```bash\npython lav_wan_relight.py --config \"configs\u002Fwan_relight\u002Fbear.yaml\"\n```\n\n### 3. 使用 CogVideoX 进行重照明\n基于 DDIM 调度器，自动下载 `THUDM\u002FCogVideoX-2b` 模型。\n\n```bash\npython lav_cog_relight.py --config \"configs\u002Fcog_relight\u002Fbear.yaml\"\n```\n\n---\n*更多详细结果和演示请访问 [项目主页](https:\u002F\u002Fbujiazi.github.io\u002Flight-a-video.github.io\u002F) 或体验 [Hugging Face Demo](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Ffffiloni\u002FLight-A-Video)。*","某独立游戏开发者正在制作一款 2D 横版动作游戏的宣传短片，需要将白天拍摄的绿幕角色素材合成到夜晚的赛博朋克城市背景中，并确保角色身上的光影随镜头移动自然变化。\n\n### 没有 Light-A-Video 时\n- **光影闪烁严重**：逐帧使用图像重照明模型处理，导致每一帧的光源位置和强度微小抖动，播放时角色身上出现高频闪烁。\n- **光源逻辑混乱**：背景是动态变化的霓虹灯，但角色身上的高光点固定不变，无法随背景光源移动而实时响应，显得非常虚假。\n- **后期成本高昂**：为了修复闪烁和不一致，美术人员不得不手动在合成软件中逐帧绘制遮罩和调整曲线，耗时数天。\n- **训练数据缺失**：市面上缺乏高质量的“视频重照明”数据集，无法微调专用模型来适配这种特定的风格化场景。\n\n### 使用 Light-A-Video 后\n- **时间维度平滑**：利用渐进式光融合（PLF）策略，自动计算帧间线性混合，消除了光照突变，生成的视频光影过渡如丝绸般顺滑。\n- **跨帧光源一致**：通过一致性光注意力（CLA）模块，让模型“记住”背景光源在连续帧中的位置，角色高光和阴影随镜头运动精准同步。\n- **零样本即时可用**：无需收集数据或训练模型，直接加载预训练的图像重照明模型即可处理视频，将原本几天的工作缩短至几分钟。\n- **物理真实感强**：基于光传输独立性原理，完美保留了原始视频的纹理细节，仅改变光照分布，避免了生成式模型常见的画面崩坏。\n\nLight-A-Video 通过无需训练的渐进式融合技术，彻底解决了视频重照明中的时序闪烁难题，让单帧图像模型也能产出电影级的动态光影效果。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbcmi_Light-A-Video_1d32f5ee.png","bcmi","BCMI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbcmi_d1f2d7b1.png","Center for Brain-Like Computing and Machine Intelligence, Shanghai Jiao Tong University.",null,"www.ustcnewly.com","https:\u002F\u002Fgithub.com\u002Fbcmi",[22],{"name":23,"color":24,"percentage":25},"Python","#3572A5",100,510,34,"2026-03-27T08:10:40","Apache-2.0",3,"未说明","需要 NVIDIA GPU（基于扩散模型和 AnimateDiff\u002FCogVideoX\u002FWan2.1 架构推断），具体显存和 CUDA 版本未说明",{"notes":34,"python":35,"dependencies":36},"该工具为免训练框架，支持多种视频扩散模型后端（包括 CogVideoX-2B 和 Wan2.1）。首次运行会自动下载预训练模型（IC-Light, RealisticVision, AnimateDiff Motion Adapter 等）。若使用 Wan2.1 后端，需从源码更新安装 diffusers 库。提供基于 SAM2 的脚本用于提取前景序列。","3.10",[37,38,39,40,41,42,43,44],"torch","diffusers","transformers","accelerate","gradio","opencv-python","pillow","pyyaml",[46],"视频",[48,49],"video-editing","video-generation",2,"ready","2026-03-27T02:49:30.150509","2026-04-06T17:02:47.494210",[],[],[57,68,81,89,97,106],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":30,"last_commit_at":63,"category_tags":64,"status":51},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[65,66,67,46],"开发框架","图像","Agent",{"id":69,"name":70,"github_repo":71,"description_zh":72,"stars":73,"difficulty_score":50,"last_commit_at":74,"category_tags":75,"status":51},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[66,76,46,77,67,78,79,65,80],"数据工具","插件","其他","语言模型","音频",{"id":82,"name":83,"github_repo":84,"description_zh":85,"stars":86,"difficulty_score":30,"last_commit_at":87,"category_tags":88,"status":51},3833,"MoneyPrinterTurbo","harry0703\u002FMoneyPrinterTurbo","MoneyPrinterTurbo 是一款利用 AI 大模型技术，帮助用户一键生成高清短视频的开源工具。只需输入一个视频主题或关键词，它就能全自动完成从文案创作、素材匹配、字幕合成到背景音乐搭配的全过程，最终输出完整的竖屏或横屏短视频。\n\n这款工具主要解决了传统视频制作流程繁琐、门槛高以及素材版权复杂等痛点。无论是需要快速产出内容的自媒体创作者，还是希望尝试视频生成的普通用户，无需具备专业的剪辑技能或昂贵的硬件配置（普通电脑即可运行），都能轻松上手。同时，其清晰的 MVC 架构和对多种主流大模型（如 DeepSeek、Moonshot、通义千问等）的广泛支持，也使其成为开发者进行二次开发或技术研究的理想底座。\n\nMoneyPrinterTurbo 的独特亮点在于其高度的灵活性与本地化友好性。它不仅支持中英文双语及多种语音合成，允许用户精细调整字幕样式和画面比例，还特别优化了国内网络环境下的模型接入方案，让用户无需依赖 VPN 即可使用高性能国产大模型。此外，工具提供批量生成模式，可一次性产出多个版本供用户择优，极大地提升了内容创作的效率与质量。",54991,"2026-04-05T12:23:02",[65,79,67,46,66],{"id":90,"name":91,"github_repo":92,"description_zh":93,"stars":94,"difficulty_score":50,"last_commit_at":95,"category_tags":96,"status":51},2179,"oh-my-openagent","code-yeongyu\u002Foh-my-openagent","oh-my-openagent（简称 omo）是一款强大的开源智能体编排框架，前身名为 oh-my-opencode。它致力于打破单一模型供应商的生态壁垒，解决开发者在构建 AI 应用时面临的“厂商锁定”难题。不同于仅依赖特定模型的封闭方案，omo 倡导开放市场理念，支持灵活调度多种主流大模型：利用 Claude、Kimi 或 GLM 进行任务编排，调用 GPT 处理复杂推理，借助 Minimax 提升响应速度，或发挥 Gemini 的创意优势。\n\n这款工具特别适合希望摆脱平台限制、追求极致性能与成本平衡的开发者及研究人员使用。通过统一接口，用户可以轻松组合不同模型的长处，构建更高效、更具适应性的智能体系统。其独特的技术亮点在于“全模型兼容”架构，让用户不再受制于某一家公司的策略变动或定价调整，真正实现对前沿模型资源的自由驾驭。无论是构建自动化编码助手，还是开发多步骤任务处理流程，oh-my-openagent 都能提供灵活且稳健的基础设施支持，助力用户在快速演进的 AI 生态中保持技术主动权。",48557,"2026-04-05T23:30:46",[46,79,65,66,67],{"id":98,"name":99,"github_repo":100,"description_zh":101,"stars":102,"difficulty_score":103,"last_commit_at":104,"category_tags":105,"status":51},2483,"onlook","onlook-dev\u002Fonlook","Onlook 是一款专为设计师打造的开源 AI 优先设计工具，被誉为“设计师版的 Cursor”。它旨在打破设计与开发之间的壁垒，让用户能够以可视化的方式直接构建、样式化和编辑 React 应用。通过 Onlook，用户无需深入编写复杂代码，即可在类似 Figma 的直观界面中完成网页原型的搭建与调整，并实时预览最终效果。\n\n这款工具主要解决了传统工作流中设计稿到代码转换效率低、沟通成本高的问题。以往，设计师使用 Figma 等工具完成设计后，需要开发人员手动将其转化为代码，过程繁琐且容易出错。Onlook 允许用户直接在浏览器 DOM 中进行可视化编辑，底层自动生成基于 Next.js 和 TailwindCSS 的高质量代码，实现了“所见即所得”的开发体验。它不仅支持从文本或图像快速生成应用，还具备分支管理、资源管理及一键部署等功能，极大地简化了从创意到成品的流程。\n\nOnlook 特别适合前端开发者、UI\u002FUX 设计师以及希望快速验证产品创意的独立开发者使用。对于设计师而言，它降低了参与前端开发的门槛；对于开发者来说，它提供了一个高效的视觉化调试和原型构建环境。其核心技术亮点在于",25006,4,"2026-04-03T01:50:49",[67,66,46,65],{"id":107,"name":108,"github_repo":109,"description_zh":110,"stars":111,"difficulty_score":50,"last_commit_at":112,"category_tags":113,"status":51},3795,"serena","oraios\u002Fserena","Serena 是一款专为编程智能体（Coding Agent）打造的强大工具包，被誉为“智能体的集成开发环境（IDE）”。它通过模型上下文协议（MCP）与各类大语言模型及客户端无缝集成，旨在解决传统 AI 在复杂代码库中因依赖行号或简单文本搜索而导致的效率低下和准确性不足的问题。\n\n与传统方法不同，Serena 采用“智能体优先”的设计理念，提供基于语义的代码检索、编辑和重构能力。它能像资深开发者使用 IDE 一样，深入理解代码的符号层级和关联结构，从而让智能体在大型项目中运行得更快、更稳、更可靠。无论是终端用户（如 Claude Code）、IDE 插件（VSCode、Cursor）还是桌面应用，都能轻松接入 Serena 以扩展功能。\n\nSerena 特别适合需要处理大规模代码项目的开发者、研究人员以及希望提升 AI 编码能力的技术团队。其核心技术亮点在于灵活的后端支持：既默认集成了基于语言服务器协议（LSP）的开源方案，支持超过 40 种编程语言；也可选配强大的 JetBrains 插件，利用专业 IDE 的深度分析能力。这让 Serena 成为连接人工智能与复杂软件工程的高效桥",22488,"2026-04-05T10:53:54",[67,66,65,46]]