[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-SkyworkAI--SkyReels-A2":3,"similar-SkyworkAI--SkyReels-A2":88},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":18,"owner_location":18,"owner_email":18,"owner_twitter":18,"owner_website":19,"owner_url":20,"languages":21,"stars":26,"forks":27,"last_commit_at":28,"license":29,"difficulty_score":30,"env_os":31,"env_gpu":32,"env_ram":31,"env_deps":33,"category_tags":39,"github_topics":43,"view_count":47,"oss_zip_url":18,"oss_zip_packed_at":18,"status":48,"created_at":49,"updated_at":50,"faqs":51,"releases":87},8482,"SkyworkAI\u002FSkyReels-A2","SkyReels-A2","SkyReels-A2: Compose anything in video diffusion transformers","SkyReels-A2 是一款基于视频扩散 Transformer 架构的开源生成模型，旨在实现“任意内容”的视频创作。它突破了传统视频生成工具在主体控制和场景组合上的局限，能够灵活地将不同的人物、物体与背景进行高质量融合，轻松生成复杂动态的视频片段，有效解决了现有模型在处理多元素协同生成时往往出现的画面割裂或逻辑混乱问题。\n\n这款工具特别适合 AI 研究人员、视频创作者以及希望探索前沿生成技术的开发者使用。对于设计师而言，它能快速将创意草图转化为动态影像；对于技术人员，其开放的 PyTorch 实现提供了宝贵的研究基线。\n\nSkyReels-A2 的技术亮点显著：它不仅支持多显卡并行推理以加速生成过程，还集成了 TeaCache 技术进一步优化速度，甚至在单张 RTX4090 显卡上也能流畅运行，降低了使用门槛。此外，项目配套发布了专门的评测基准 A2-Bench，并提供了 ComfyUI 节点支持，方便用户将其无缝融入现有的工作流中。无论是用于学术探索还是实际的内容生产，SkyReels-A2 都提供了一个强大且灵活的解决方案。","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSkyworkAI_SkyReels-A2_readme_fcfb0a9bbc70.png\" alt=\"Skyreels Logo\" width=\"50%\">\n\u003C\u002Fp>\n\n\u003Ch1 align=\"center\">SkyReels-A2: Compose Anything in Video Diffusion Transformers\u003C\u002Fh1> \n\n\u003Cdiv align='center'>\n    \u003Ca href='https:\u002F\u002Fscholar.google.com\u002Fcitations?user=_43YnBcAAAAJ&hl=zh-CN' target='_blank'>Zhengcong Fei\u003Csup> * \u003C\u002Fsup>\u003C\u002Fa>&emsp;\n    \u003Ca href='https:\u002F\u002Fdebangli.github.io\u002F' target='_blank'>Debang Li\u003Csup> * &dagger;\u003C\u002Fsup>\u003C\u002Fa>&emsp;\n    \u003Ca href='https:\u002F\u002Fscholar.google.com\u002Fcitations?user=6D_nzucAAAAJ&hl=en' target='_blank'>Di Qiu\u003Csup> * &dagger;\u003C\u002Fsup>\u003C\u002Fa>&emsp;\n    \u003Ca href='' target='_blank'>Jiahua Wang\u003C\u002Fa>&emsp;\n    \u003Ca href='' target='_blank'>Yikun Dou\u003C\u002Fa>&emsp;\n    \u003Ca href='' target='_blank'>Rui Wang\u003C\u002Fa>&emsp;\n\u003C\u002Fdiv>\n\n\u003Cdiv align='center'>\n    \u003Ca href='https:\u002F\u002Fscholar.google.com\u002Fcitations?user=bL_o7I8AAAAJ&hl=en' target='_blank'>Jingtao Xu\u003C\u002Fa>&emsp;\n    \u003Ca href='' target='_blank'>Mingyuan Fan\u003C\u002Fa>&emsp;\n    \u003Ca href='https:\u002F\u002Fscholar.google.com.hk\u002Fcitations?hl=zh-CN&user=HukWSw4AAAAJ' target='_blank'>Guibin Chen\u003C\u002Fa>&emsp;\n    \u003Ca href='' target='_blank'>Yang Li\u003C\u002Fa>&emsp;\n    \u003Ca href='' target='_blank'>Yahui Zhou\u003C\u002Fa>&emsp;\n\u003C\u002Fdiv>\n\u003Cdiv align='center'>\n    \u003Cbr>\u003Csup> * \u003C\u002Fsup>Equal contribution,\u003Csup> &dagger; \u003C\u002Fsup>Project lead\n    \u003Cbr>\u003Cstrong>Skywork AI, Kunlun Inc.\u003C\u002Fstrong>\n\u003C\u002Fdiv>\n\u003Cbr>\n\n\u003Cdiv align=\"center\">\n  \u003C!-- \u003Ca href='LICENSE'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-MIT-yellow'>\u003C\u002Fa> -->\n  \u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F2504.02436'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-SkyReels A2-red'>\u003C\u002Fa>\n  \u003Ca href='https:\u002F\u002Fskyworkai.github.io\u002Fskyreels-a2.github.io\u002F'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-SkyReels A2-green'>\u003C\u002Fa>\n  \u003Ca href='https:\u002F\u002Fhuggingface.co\u002FSkywork\u002FSkyReels-A2'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Models-blue'>\u003C\u002Fa>\n  \u003Ca href='https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FSkywork\u002FA2-Bench'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-A2Bench-blue'>\u003C\u002Fa>\n  \u003Ca href='https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FSkywork\u002FSkyReels_A2_Bench'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FOnline-Leaderboard-purple'>\u003C\u002Fa>\n  \u003Ca href='https:\u002F\u002Fwww.skyreels.ai'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDemo-Spaces-yellow'>\u003C\u002Fa>\n  \u003Cbr>\n\u003C\u002Fdiv>\n\u003Cbr>\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSkyworkAI_SkyReels-A2_readme_5bb4682bf5e6.gif\" alt=\"showcase\" width=\"800\">\n  \u003Cbr>\n  🔥 For more results, visit our \u003Ca href=\"https:\u002F\u002Fskyworkai.github.io\u002Fskyreels-a2.github.io\u002F\">\u003Cstrong>homepage\u003C\u002Fstrong>\u003C\u002Fa> 🔥\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n    👋 Join our \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FPwM6NYtccQ\" target=\"_blank\">\u003Cstrong>Discord\u003C\u002Fstrong>\u003C\u002Fa> \n\u003C\u002Fp>\n\nThis repo, named **SkyReels-A2**, contains the official PyTorch implementation of our paper [SkyReels-A2: Compose Anything in Video Diffusion Transformers](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2504.02436).\n\n## 🎉 News\n\n* Jun 1, 2025: 🎉 We published the technical report, [SkyReels-Audio: Omni Audio-Conditioned Talking Portraits in Video Diffusion Transformers.](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2506.00830)\n* Apr 21, 2025: 👋 We release the Infinite-Length Film Generative Model, [SkyReels-V2](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FSkywork\u002Fskyreels-v2-6801b1b93df627d441d0d0d9) Series Models and the video captioning model [SkyCaptioner-V1](https:\u002F\u002Fhuggingface.co\u002FSkywork\u002FSkyCaptioner-V1) .\n* Apr 8, 2025: 🎉  We open the A2-Bench online evaluation and leaderboard. Test it on [A2-Bench Leaderboard](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FSkywork\u002FSkyReels_A2_Bench) !\n* Apr 7, 2025: 🔥 [ComfyUI](https:\u002F\u002Fgithub.com\u002FYuan-ManX\u002FComfyUI-SkyReels-A2) is now available.\n* Apr 3, 2025: 🔥 We release pre-view version of checkpoints, code of model inference and gradio demo.\n* Previously, we released [SkyReels-A1](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkyReels-A1). This is an open-sourced and effective framework for portrait image animation.\n\n## 📑 TODO List\n- [x] Support A2-Bench evaluation and leaderboard.\n- [x] ComfyUI\n- [x] Parallel Inference on Multi-GPUs\n- [x] [TeaCache](https:\u002F\u002Fgithub.com\u002Fali-vilab\u002FTeaCache) for faster inference\n- [x] User-Level GPU Inference on RTX4090\n- [ ] Release all model sequence, including infinity-long version.\n- [ ] Diffusers\n\n## 🪄 Models\n| Models                   | Download Link                                                                                                                                                                           | Video Size         |\n|--------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|-----------------------------------------------------------------------------------------------|\n| A2-Wan2.1-14B-Preview | [Huggingface](https:\u002F\u002Fhuggingface.co\u002FSkywork\u002FSkyReels-A2) 🤗                                                                                                                                                              | ~ 81 x 480 x 832    | \n| A2-Wan2.1-14B         | [To be released](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkyReels-A2)  | ~ 81 x 480 x 832    | \n| A2-Wan2.1-14B-Pro         | [To be released](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkyReels-A2)  | ~ 97 x 544 x 960    | \n| A2-Wan2.1-14B-Infinity         | [To be released](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkyReels-A2)  | ~ Inf x 720 x 1080   | \n\n\n\n\n## 1. Getting Started 🏁 \n\n### 1.1 Clone the code and prepare the environment 🛠️\n\nFirst git clone the repository with code: \n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkyReels-A2.git\ncd SkyReels-A2\n\n# create env using conda\nconda create -n skyreels-a2 python=3.10\nconda activate skyreels-a2\n```\nThen, install the remaining dependencies:\n```bash\npip install -r requirements.txt\n```\n\n### 1.2 Download pretrained weights 📥\n\nYou can download the pretrained weights from HuggingFace as:\n```bash\n# !pip install -U \"huggingface_hub[cli]\"\nhuggingface-cli download Skywork\u002FSkyReels-A2 --local-dir local_path --exclude \"*.git*\" \"README.md\" \"docs\"\n```\nor download from webpage mannually. \n\n\n### 1.3 Inference 🚀\n\nYou can first set the model path and reference images path and then simply run the inference scripts as: \n```bash\npython infer.py\n```\n\nIf the script runs successfully, you will get an output mp4 file. This file includes the following results: driving video, input image or video, and generated result.\n\n\nWe also support multi-GPU inference scripts for faster inference, as:\n```bash\ntorchrun --nproc_per_node=$GPU_NUM infer_MGPU.py\n```\nSet the offload_switch of infer_MGPU.py to True, and you can run it on RTX4090\n\n\n#### Gradio Interface 🤗\n\nWe also provide a [Gradio](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Fhub\u002Fspaces-sdks-gradio) interface for a better user experience, just run by:\n\n```bash\npython app.py\n```\n\nThe graphical interactive interface is shown as below.  \n\n\n\n## 2. A2-Bench Evaluation 👓\n\nWe public the evaluation data in [Huggingface](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FSkywork\u002FA2-Bench), you can infer with results and then submit to [leaderboard](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FSkywork\u002FSkyReels_A2_Bench) to obtain the results automatically. \nMore detail about metric computation code will coming soon.\n\n\n\n## Acknowledgements 💐\n\nWe would like to thank the contributors of [Wan](https:\u002F\u002Fgithub.com\u002FWan-Video\u002FWan2.1) and [finetrainers](https:\u002F\u002Fgithub.com\u002Fa-r-r-o-w\u002Ffinetrainers) repositories, for their open research and contributions. \n\n## Citation 💖\nIf you find SkyReels-A2 useful for your research, welcome to 🌟 this repo and cite our work using the following BibTeX:\n```bibtex\n@article{fei2025skyreels,\n  title={SkyReels-A2: Compose Anything in Video Diffusion Transformers},\n  author={Fei, Zhengcong and Li, Debang and Qiu, Di and Wang, Jiahua and Dou, Yikun and Wang, Rui and Xu, Jingtao and Fan, Mingyuan and Chen, Guibin and Li, Yang and others},\n  journal={arXiv preprint arXiv:2504.02436},\n  year={2025}\n}\n```\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSkyworkAI_SkyReels-A2_readme_af051d4c39ae.png)](https:\u002F\u002Fwww.star-history.com\u002F#SkyworkAI\u002FSkyReels-A2&Date)\n\n\n","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSkyworkAI_SkyReels-A2_readme_fcfb0a9bbc70.png\" alt=\"Skyreels Logo\" width=\"50%\">\n\u003C\u002Fp>\n\n\u003Ch1 align=\"center\">SkyReels-A2：在视频扩散Transformer中创作任何内容\u003C\u002Fh1> \n\n\u003Cdiv align='center'>\n    \u003Ca href='https:\u002F\u002Fscholar.google.com\u002Fcitations?user=_43YnBcAAAAJ&hl=zh-CN' target='_blank'>费正聪\u003Csup> * \u003C\u002Fsup>\u003C\u002Fa>&emsp;\n    \u003Ca href='https:\u002F\u002Fdebangli.github.io\u002F' target='_blank'>李德邦\u003Csup> * &dagger;\u003C\u002Fsup>\u003C\u002Fa>&emsp;\n    \u003Ca href='https:\u002F\u002Fscholar.google.com\u002Fcitations?user=6D_nzucAAAAJ&hl=en' target='_blank'>邱迪\u003Csup> * &dagger;\u003C\u002Fsup>\u003C\u002Fa>&emsp;\n    \u003Ca href='' target='_blank'>王嘉华\u003C\u002Fa>&emsp;\n    \u003Ca href='' target='_blank'>窦益坤\u003C\u002Fa>&emsp;\n    \u003Ca href='' target='_blank'>王睿\u003C\u002Fa>&emsp;\n\u003C\u002Fdiv>\n\n\u003Cdiv align='center'>\n    \u003Ca href='https:\u002F\u002Fscholar.google.com\u002Fcitations?user=bL_o7I8AAAAJ&hl=en' target='_blank'>徐景涛\u003C\u002Fa>&emsp;\n    \u003Ca href='' target='_blank'>范明远\u003C\u002Fa>&emsp;\n    \u003Ca href='https:\u002F\u002Fscholar.google.com.hk\u002Fcitations?hl=zh-CN&user=HukWSw4AAAAJ' target='_blank'>陈贵斌\u003C\u002Fa>&emsp;\n    \u003Ca href='' target='_blank'>李阳\u003C\u002Fa>&emsp;\n    \u003Ca href='' target='_blank'>周亚辉\u003C\u002Fa>&emsp;\n\u003C\u002Fdiv>\n\u003Cdiv align='center'>\n    \u003Cbr>\u003Csup> * \u003C\u002Fsup>共同第一作者,\u003Csup> &dagger; \u003C\u002Fsup>项目负责人\n    \u003Cbr>\u003Cstrong>Skywork AI, 昆仑科技\u003C\u002Fstrong>\n\u003C\u002Fdiv>\n\u003Cbr>\n\n\u003Cdiv align=\"center\">\n  \u003C!-- \u003Ca href='LICENSE'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-MIT-yellow'>\u003C\u002Fa> -->\n  \u003Ca href='https:\u002F\u002Farxiv.org\u002Fpdf\u002F2504.02436'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-SkyReels A2-red'>\u003C\u002Fa>\n  \u003Ca href='https:\u002F\u002Fskyworkai.github.io\u002Fskyreels-a2.github.io\u002F'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-SkyReels A2-green'>\u003C\u002Fa>\n  \u003Ca href='https:\u002F\u002Fhuggingface.co\u002FSkywork\u002FSkyReels-A2'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20 Face-Models-blue'>\u003C\u002Fa>\n  \u003Ca href='https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FSkywork\u002FA2-Bench'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-A2Bench-blue'>\u003C\u002Fa>\n  \u003Ca href='https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FSkywork\u002FSkyReels_A2_Bench'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FOnline-Leaderboard-purple'>\u003C\u002Fa>\n  \u003Ca href='https:\u002F\u002Fwww.skyreels.ai'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDemo-Spaces-yellow'>\u003C\u002Fa>\n  \u003Cbr>\n\u003C\u002Fdiv>\n\u003Cbr>\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSkyworkAI_SkyReels-A2_readme_5bb4682bf5e6.gif\" alt=\"showcase\" width=\"800\">\n  \u003Cbr>\n  🔥 更多结果，请访问我们的 \u003Ca href=\"https:\u002F\u002Fskyworkai.github.io\u002Fskyreels-a2.github.io\u002F\">\u003Cstrong>主页\u003C\u002Fstrong>\u003C\u002Fa> 🔥\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n    👋 欢迎加入我们的 \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FPwM6NYtccQ\" target=\"_blank\">\u003Cstrong>Discord\u003C\u002Fstrong>\u003C\u002Fa> \n\u003C\u002Fp>\n\n本仓库名为 **SkyReels-A2**，包含我们论文《SkyReels-A2：在视频扩散Transformer中创作任何内容》的官方PyTorch实现。\n\n## 🎉 最新消息\n\n* 2025年6月1日：🎉 我们发布了技术报告《SkyReels-Audio：视频扩散Transformer中的全音频条件驱动肖像动画》（https:\u002F\u002Farxiv.org\u002Fpdf\u002F2506.00830）。\n* 2025年4月21日：👋 我们发布了无限长度电影生成模型《SkyReels-V2》系列模型以及视频字幕生成模型《SkyCaptioner-V1》。\n* 2025年4月8日：🎉 我们开放了A2-Bench在线评测与排行榜。请在[A2-Bench排行榜](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FSkywork\u002FSkyReels_A2_Bench)上试用！\n* 2025年4月7日：🔥 [ComfyUI](https:\u002F\u002Fgithub.com\u002FYuan-ManX\u002FComfyUI-SkyReels-A2) 现已可用。\n* 2025年4月3日：🔥 我们发布了检查点预览版、模型推理代码及Gradio演示。\n* 此前，我们发布了[SkyReels-A1](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkyReels-A1)，这是一个开源且高效的肖像图像动画框架。\n\n## 📑 待办事项\n- [x] 支持A2-Bench评测与排行榜。\n- [x] ComfyUI。\n- [x] 多GPU并行推理。\n- [x] 使用[TeaCache](https:\u002F\u002Fgithub.com\u002Fali-vilab\u002FTeaCache)加速推理。\n- [x] 在RTX4090上进行用户级GPU推理。\n- [ ] 发布所有模型序列，包括无限长版本。\n- [ ] Diffusers。\n\n## 🪄 模型\n| 模型                   | 下载链接                                                                                                                                                                           | 视频尺寸         |\n|--------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|-----------------------------------------------------------------------------------------------|\n| A2-Wan2.1-14B-预览 | [HuggingFace](https:\u002F\u002Fhuggingface.co\u002FSkywork\u002FSkyReels-A2) 🤗                                                                                                                                                              | ~ 81 x 480 x 832    | \n| A2-Wan2.1-14B         | [待发布](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkyReels-A2)  | ~ 81 x 480 x 832    | \n| A2-Wan2.1-14B-Pro         | [待发布](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkyReels-A2)  | ~ 97 x 544 x 960    | \n| A2-Wan2.1-14B-无限         | [待发布](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkyReels-A2)  | ~ 无穷 x 720 x 1080   | \n\n\n\n\n## 1. 快速入门 🏁 \n\n### 1.1 克隆代码并准备环境 🛠️\n\n首先使用git克隆代码库：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkyReels-A2.git\ncd SkyReels-A2\n\n# 使用conda创建环境\nconda create -n skyreels-a2 python=3.10\nconda activate skyreels-a2\n```\n然后安装剩余依赖：\n```bash\npip install -r requirements.txt\n```\n\n### 1.2 下载预训练权重 📥\n\n您可以从HuggingFace下载预训练权重：\n```bash\n# !pip install -U \"huggingface_hub[cli]\"\nhuggingface-cli download Skywork\u002FSkyReels-A2 --local-dir local_path --exclude \"*.git*\" \"README.md\" \"docs\"\n```\n或者手动从网页下载。\n\n\n### 1.3 推理 🚀\n\n您可以先设置模型路径和参考图片路径，然后简单运行推理脚本：\n```bash\npython infer.py\n```\n\n如果脚本成功运行，您将得到一个输出的mp4文件。该文件包含以下内容：驱动视频、输入图像或视频，以及生成的结果。\n\n\n我们还支持多GPU推理脚本以加快速度：\n```bash\ntorchrun --nproc_per_node=$GPU_NUM infer_MGPU.py\n```\n将infer_MGPU.py中的offload_switch设置为True，即可在RTX4090上运行。\n\n\n#### Gradio界面 🤗\n\n我们还提供了一个[Gradio](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Fhub\u002Fspaces-sdks-gradio)界面，以提升用户体验，只需运行：\n\n```bash\npython app.py\n```\n\n图形化交互界面如下所示。\n\n## 2. A2-Bench 评估 👓\n\n我们已在 [Huggingface](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FSkywork\u002FA2-Bench) 上公开了评估数据，您可以使用这些结果进行推理，然后提交到 [leaderboard](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FSkywork\u002FSkyReels_A2_Bench)，以自动获取评估结果。关于指标计算代码的更多细节将很快发布。\n\n\n\n## 致谢 💐\n\n我们衷心感谢 [Wan](https:\u002F\u002Fgithub.com\u002FWan-Video\u002FWan2.1) 和 [finetrainers](https:\u002F\u002Fgithub.com\u002Fa-r-r-o-w\u002Ffinetrainers) 两个仓库的贡献者，感谢他们开放的研究成果和无私的贡献。\n\n## 引用 💖\n如果您在研究中使用了 SkyReels-A2，欢迎为本项目点赞，并使用以下 BibTeX 格式引用我们的工作：\n```bibtex\n@article{fei2025skyreels,\n  title={SkyReels-A2: 在视频扩散模型中创作任何内容},\n  author={Fei, Zhengcong and Li, Debang and Qiu, Di and Wang, Jiahua and Dou, Yikun and Wang, Rui and Xu, Jingtao and Fan, Mingyuan and Chen, Guibin and Li, Yang and others},\n  journal={arXiv 预印本 arXiv:2504.02436},\n  year={2025}\n}\n```\n## 星标历史\n\n[![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSkyworkAI_SkyReels-A2_readme_af051d4c39ae.png)](https:\u002F\u002Fwww.star-history.com\u002F#SkyworkAI\u002FSkyReels-A2&Date)","# SkyReels-A2 快速上手指南\n\nSkyReels-A2 是一个基于视频扩散 Transformer 的开源模型，旨在实现“任意组合”的视频生成能力。本指南将帮助开发者快速在本地部署并运行该模型。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐) 或 macOS\n*   **Python 版本**: 3.10\n*   **GPU**: 支持 CUDA 的 NVIDIA 显卡\n    *   **推荐配置**: RTX 4090 或更高显存显卡（支持单卡推理）\n    *   **多卡加速**: 支持多 GPU 并行推理\n*   **依赖管理工具**: Conda (推荐) 或 pip\n*   **网络环境**: 需能访问 Hugging Face 下载模型权重（如网络受限，建议配置镜像源或使用代理）\n\n## 2. 安装步骤\n\n### 2.1 克隆代码库\n\n首先，从 GitHub 克隆项目代码：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkyReels-A2.git\ncd SkyReels-A2\n```\n\n### 2.2 创建虚拟环境\n\n使用 Conda 创建并激活名为 `skyreels-a2` 的 Python 3.10 环境：\n\n```bash\nconda create -n skyreels-a2 python=3.10\nconda activate skyreels-a2\n```\n\n### 2.3 安装依赖\n\n安装项目所需的 Python 依赖包：\n\n```bash\npip install -r requirements.txt\n```\n\n> **提示**：如果下载速度较慢，可添加国内 pip 源加速，例如：\n> `pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n### 2.4 下载预训练模型\n\n从 Hugging Face 下载预训练权重。以下命令将模型下载到本地 `local_path` 目录：\n\n```bash\n# 确保已安装 huggingface_hub CLI 工具\n# !pip install -U \"huggingface_hub[cli]\"\n\nhuggingface-cli download Skywork\u002FSkyReels-A2 --local-dir local_path --exclude \"*.git*\" \"README.md\" \"docs\"\n```\n\n*注：目前主要提供 `A2-Wan2.1-14B-Preview` 版本，分辨率约为 81 帧 x 480 x 832。*\n\n## 3. 基本使用\n\n### 3.1 命令行推理\n\n在运行脚本前，请确保已在代码或配置文件中正确设置**模型路径**和**参考图像\u002F视频路径**。\n\n运行单卡推理脚本：\n\n```bash\npython infer.py\n```\n\n运行成功后，将在输出目录生成一个 MP4 文件，其中包含驱动视频、输入图像（或视频）以及生成的最终结果。\n\n#### 多 GPU 加速推理\n\n如果您拥有多张显卡，可以使用 `torchrun` 进行并行加速：\n\n```bash\n# 将 $GPU_NUM 替换为您的显卡数量，例如 2 或 4\ntorchrun --nproc_per_node=$GPU_NUM infer_MGPU.py\n```\n\n**RTX 4090 用户注意**：\n若要在单张 RTX 4090 上运行，请打开 `infer_MGPU.py` 文件，将 `offload_switch` 参数设置为 `True` 以启用显存优化策略。\n\n### 3.2 图形界面交互 (Gradio)\n\n项目提供了基于 Gradio 的 Web 界面，方便进行可视化操作和参数调整：\n\n```bash\npython app.py\n```\n\n运行后，终端会显示本地访问地址（通常为 `http:\u002F\u002F127.0.0.1:7860`），在浏览器中打开即可上传素材并生成视频。","某独立游戏开发团队正在为一款赛博朋克风格的冒险游戏制作动态过场动画，需要快速生成大量包含复杂角色动作与特定环境氛围的视频素材。\n\n### 没有 SkyReels-A2 时\n- **多元素控制困难**：传统视频生成模型难以同时精准控制角色姿态、镜头运镜及背景光影，导致生成的画面经常出现人物变形或背景闪烁。\n- **长镜头连贯性差**：在尝试生成超过 5 秒的连续剧情片段时，视频后半段往往出现严重的逻辑断裂或画面崩坏，无法直接用于叙事。\n- **迭代成本高昂**：为了修正一个细微的动作瑕疵，开发者不得不重新调整复杂的提示词并反复渲染数小时，严重拖慢美术管线进度。\n- **缺乏专业工作流支持**：现有开源方案难以无缝接入 ComfyUI 等主流节点式工作流，导致团队无法将视频生成与现有的后期特效处理自动化结合。\n\n### 使用 SkyReels-A2 后\n- **任意组合精准可控**：利用其 Video Diffusion Transformers 架构，团队能通过结构化指令同时锁定角色动作轨迹与环境细节，一次性生成符合分镜要求的高质量画面。\n- **无限长度流畅叙事**：借助其支持的无限长度影片生成能力，开发者可直接产出连贯的长镜头过场，角色行为逻辑在整个视频中保持一致，无需后期强行拼接。\n- **高效并行与加速推理**：通过集成 TeaCache 加速技术及多 GPU 并行推理功能，原本需要数小时的渲染任务缩短至分钟级，且在单张 RTX4090 上即可流畅运行，大幅降低硬件门槛。\n- **无缝融入生产管线**：依托原生支持的 ComfyUI 插件，美术人员能将 SkyReels-A2 作为标准节点嵌入现有流程，实现从文本脚本到最终视频输出的全自动化批处理。\n\nSkyReels-A2 通过将复杂的视频构图需求转化为可控的生成过程，彻底解决了游戏开发中动态素材“产不出、控不住、做得慢”的核心痛点。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSkyworkAI_SkyReels-A2_1cfc6452.png","SkyworkAI","Skywork ","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FSkyworkAI_347e666f.jpg","Transfer knowledge, Unlock creativity.",null,"https:\u002F\u002Fskywork.ai\u002F","https:\u002F\u002Fgithub.com\u002FSkyworkAI",[22],{"name":23,"color":24,"percentage":25},"Python","#3572A5",100,711,65,"2026-04-11T11:39:45","NOASSERTION",3,"未说明","需要 NVIDIA GPU。支持多 GPU 并行推理；针对单卡用户，明确提及可在 RTX 4090 (24GB 显存) 上运行（需开启 offload_switch 选项）。具体最低显存要求未在文本中明确给出，但模型为 14B 参数，建议大显存显卡。",{"notes":34,"python":35,"dependencies":36},"1. 建议使用 conda 创建名为 'skyreels-a2' 的虚拟环境。2. 项目基于 Wan2.1 和 finetrainers 开发。3. 提供 ComfyUI 支持和 TeaCache 加速推理功能。4. 目前发布的是预览版检查点 (Preview)，完整版本（包括无限长度版）待发布。5. 可通过设置 offload_switch 为 True 在消费级显卡 (如 RTX 4090) 上运行多 GPU 推理脚本。","3.10",[37,38],"torch","requirements.txt 中列出的其他依赖 (具体版本需查看文件)",[40,41,42],"图像","视频","语言模型",[44,45,46],"controllable-generation","image2video","video-diffusion-transformers",2,"ready","2026-03-27T02:49:30.150509","2026-04-17T21:32:29.646821",[52,57,62,67,72,77,82],{"id":53,"question_zh":54,"answer_zh":55,"source_url":56},37973,"多 GPU 推理（infer_MGPU.py）在设置 GPU_NUM > 2 时报错或效果变差，如何解决？","当前版本主要支持 2 张 GPU 进行推理。如果设置 GPU_NUM = 4 或更多，最终生成效果可能会有损耗。此外，该问题可能与显卡型号有关：在 L20 显卡上可能无法运行超过 2 卡，但在 A800 显卡上即使使用 8 张 GPU 也能成功运行。建议优先尝试 2 卡推理，或确认硬件兼容性。","https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkyReels-A2\u002Fissues\u002F19",{"id":58,"question_zh":59,"answer_zh":60,"source_url":61},37974,"模型是否支持仅使用单张参考图像进行视频生成？","是的，模型支持灵活输入 1 到 3 张参考图像。虽然代码库仍在积极开发中，但当前版本已具备处理单张参考图的能力。未来计划发布增强的开源版本以进一步提升多图合成任务的性能。","https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkyReels-A2\u002Fissues\u002F17",{"id":63,"question_zh":64,"answer_zh":65,"source_url":66},37975,"训练数据集是否会开源？","短期内没有开源训练数据集的计划。","https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkyReels-A2\u002Fissues\u002F18",{"id":68,"question_zh":69,"answer_zh":70,"source_url":71},37976,"论文中提到优化了推理速度，但在实际运行中感觉与旧版 WAN 相似，如何提升推理速度？","可以通过使用多 GPU 并行推理（Multi-GPUs Parallel Inference）来显著提升速度。请尝试运行 `infer_MGPU.py` 脚本并配置相应的 GPU 数量以利用此优化。","https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkyReels-A2\u002Fissues\u002F15",{"id":73,"question_zh":74,"answer_zh":75,"source_url":76},37977,"SkyReels-A2 与 VACE 相比性能如何？有哪些对比结果？","您可以访问 A2-Bench 评测榜单查看详细的对比结果和性能分析：https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FSkywork\u002FSkyReels_A2_Bench。该榜单提供了 SkyReels-A2 与其他模型（如 VACE）在参考图生成视频任务上的具体对比数据。","https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkyReels-A2\u002Fissues\u002F8",{"id":78,"question_zh":79,"answer_zh":80,"source_url":81},37978,"是否可以在显存较小的消费级显卡（如 RTX 3070 8GB）上运行 SkyReels-A2？","目前官方尚未完全支持低显存消费级显卡。团队即将支持在 RTX 4090 上进行用户级 GPU 推理，请关注后续更新。对于 RTX 3070 (8GB) 等更小显存的显卡，当前可能无法直接运行或需要大幅修改代码，建议等待官方对消费级显卡的进一步优化支持。","https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkyReels-A2\u002Fissues\u002F1",{"id":83,"question_zh":84,"answer_zh":85,"source_url":86},37979,"安装依赖时 requirements.txt 中的 torchao 版本报错怎么办？","requirements.txt 中指定的 `torchao==6.4` 版本不存在（最新正式版为 0.10.0），这会导致 `pip install -r requirements.txt` 失败。这是一个文件配置错误，建议手动安装可用的最新版本（如 `pip install torchao` 或指定存在的版本号），并忽略该错误的版本锁定，直到项目方修复该文件。","https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkyReels-A2\u002Fissues\u002F21",[],[89,100,108,116,124,133],{"id":90,"name":91,"github_repo":92,"description_zh":93,"stars":94,"difficulty_score":30,"last_commit_at":95,"category_tags":96,"status":48},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,"2026-04-06T06:32:30",[97,98,40,99],"Agent","开发框架","数据工具",{"id":101,"name":102,"github_repo":103,"description_zh":104,"stars":105,"difficulty_score":30,"last_commit_at":106,"category_tags":107,"status":48},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[98,40,97],{"id":109,"name":110,"github_repo":111,"description_zh":112,"stars":113,"difficulty_score":47,"last_commit_at":114,"category_tags":115,"status":48},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159267,"2026-04-17T11:29:14",[98,97,42],{"id":117,"name":118,"github_repo":119,"description_zh":120,"stars":121,"difficulty_score":47,"last_commit_at":122,"category_tags":123,"status":48},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[98,40,97],{"id":125,"name":126,"github_repo":127,"description_zh":128,"stars":129,"difficulty_score":47,"last_commit_at":130,"category_tags":131,"status":48},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[132,97,40,98],"插件",{"id":134,"name":135,"github_repo":136,"description_zh":137,"stars":138,"difficulty_score":30,"last_commit_at":139,"category_tags":140,"status":48},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[42,40,97,98]]