[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-hao-ai-lab--FastVideo":3,"tool-hao-ai-lab--FastVideo":61},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":24,"last_commit_at":59,"category_tags":60,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":119,"forks":120,"last_commit_at":121,"license":122,"difficulty_score":10,"env_os":123,"env_gpu":124,"env_ram":125,"env_deps":126,"category_tags":132,"github_topics":134,"view_count":24,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":141,"updated_at":142,"faqs":143,"releases":173},8105,"hao-ai-lab\u002FFastVideo","FastVideo","A unified inference and post-training framework for accelerated video generation.","FastVideo 是一个专为加速视频生成打造的统一框架，集推理优化与后训练技术于一体。它主要解决了当前高质量视频生成模型推理速度慢、显存占用高以及难以在单卡上实现实时生成的痛点，让用户能在消费级显卡（如 RTX 4090）甚至单张专业卡上，以秒级速度生成 1080p 高清视频。\n\n这款工具非常适合 AI 研究人员、开发者以及需要快速迭代视频内容的创作者使用。对于研究者，FastVideo 提供了完整的端到后训练支持，包括全量微调、LoRA 微调及数据预处理流水线；对于开发者，它提供了友好的 CLI 命令行和 Python API，并兼容 Linux、Windows 和 macOS 系统。\n\n其核心技术亮点在于创新的“稀疏蒸馏”（Sparse Distillation）技术，结合自强制因果蒸馏，能将去噪速度提升 50 倍以上。同时，FastVideo 支持双向和自回归模型，内置视频稀疏注意力机制（Video Sparse Attention），并利用序列并行等技术最大化硬件效率。无论是想复现最新算法的研究团队，还是希望将视频生成能力落地到实际应用中的工程师，FastVideo 都能提供","FastVideo 是一个专为加速视频生成打造的统一框架，集推理优化与后训练技术于一体。它主要解决了当前高质量视频生成模型推理速度慢、显存占用高以及难以在单卡上实现实时生成的痛点，让用户能在消费级显卡（如 RTX 4090）甚至单张专业卡上，以秒级速度生成 1080p 高清视频。\n\n这款工具非常适合 AI 研究人员、开发者以及需要快速迭代视频内容的创作者使用。对于研究者，FastVideo 提供了完整的端到后训练支持，包括全量微调、LoRA 微调及数据预处理流水线；对于开发者，它提供了友好的 CLI 命令行和 Python API，并兼容 Linux、Windows 和 macOS 系统。\n\n其核心技术亮点在于创新的“稀疏蒸馏”（Sparse Distillation）技术，结合自强制因果蒸馏，能将去噪速度提升 50 倍以上。同时，FastVideo 支持双向和自回归模型，内置视频稀疏注意力机制（Video Sparse Attention），并利用序列并行等技术最大化硬件效率。无论是想复现最新算法的研究团队，还是希望将视频生成能力落地到实际应用中的工程师，FastVideo 都能提供高效、灵活的解决方案。","\u003Cdiv align=\"center\">\n\u003Cimg src=assets\u002Flogos\u002Flogo.svg width=\"30%\"\u002F>\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n     | \u003Ca href=\"https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\">\u003Cb>Documentation\u003C\u002Fb>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Finference\u002Finference_quick_start\u002F\">\u003Cb> Quick Start\u003C\u002Fb>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fdiscussions\u002F982\"  target=\"_blank\">\u003Cb>Weekly Dev Meeting\u003C\u002Fb>\u003C\u002Fa>  | 🟣💬 \u003Ca href=\"https:\u002F\u002Fjoin.slack.com\u002Ft\u002Ffastvideo\u002Fshared_invite\u002Fzt-3f4lao1uq-u~Ipx6Lt4J27AlD2y~IdLQ\" target=\"_blank\"> \u003Cb>Slack\u003C\u002Fb> \u003C\u002Fa> |  🟣💬 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fdiscussions\u002F1097\" target=\"_blank\"> \u003Cb> WeChat \u003C\u002Fb> \u003C\u002Fa> |\n\u003C\u002Fp>\n\n**FastVideo is a unified post-training and real-time inference framework for accelerated video generation.**\n\n## NEWS\n- `2026\u002F03\u002F17`: Release Live demo: [Into the Dreamverse: Vibe Directing in FastVideo](https:\u002F\u002Fdreamverse.fastvideo.org\u002F), check out the [Blog](https:\u002F\u002Fhaoailab.com\u002Fblogs\u002Fdreamverse\u002F).\n- `2026\u002F03\u002F13`: Release Live demo: [Create a 5s 1080p Video in 4.5s with FastVideo on a Single GPU](https:\u002F\u002F1080p.fastvideo.org\u002F), check out the [Blog](https:\u002F\u002Fhaoailab.com\u002Fblogs\u002Ffastvideo_realtime_1080p\u002F).\n- `2025\u002F11\u002F19`: Release [CausalWan2.2 I2V A14B Preview](https:\u002F\u002Fhuggingface.co\u002FFastVideo\u002FCausalWan2.2-I2V-A14B-Preview-Diffusers) models, [Blog](https:\u002F\u002Fhao-ai-lab.github.io\u002Fblogs\u002Ffastvideo_causalwan_preview\u002F) and [Inference Code!](https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fblob\u002Fmain\u002Fexamples\u002Finference\u002Fbasic\u002Fbasic_self_forcing_causal_wan2_2_i2v.py).\n- `2025\u002F08\u002F04`: Release [FastWan](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fdistillation\u002Fdmd) models and [Sparse-Distillation](https:\u002F\u002Fhao-ai-lab.github.io\u002Fblogs\u002Ffastvideo_post_training\u002F).\n\n### More News\n\n- `2025\u002F06\u002F14`: Release finetuning and inference code for [VSA](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2505.13389).\n- `2025\u002F04\u002F24`: [FastVideo V1](https:\u002F\u002Fhao-ai-lab.github.io\u002Fblogs\u002Ffastvideo\u002F) is released!\n- `2025\u002F02\u002F18`: Release the inference code for [Sliding Tile Attention](https:\u002F\u002Fhao-ai-lab.github.io\u002Fblogs\u002Fsta\u002F).\n\n## Key Features\n\nFastVideo has the following features:\n\n- End-to-end post-training support for bidirectional and autoregressive models:\n  - Support full finetuning and LoRA finetuning for state-of-the-art open video DiTs\n  - Data preprocessing pipeline for video, image, and text data\n  - Distribution Matching Distillation (DMD2) stepwise distillation.\n  - Sparse attention with [Video Sparse Attention](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2505.13389)\n  - [Sparse distillation](https:\u002F\u002Fhao-ai-lab.github.io\u002Fblogs\u002Ffastvideo_post_training\u002F) to achieve >50x denoising speedup\n  - Scalable training with FSDP2, sequence parallelism, and selective activation checkpointing.\n  - Causal distillation through Self-Forcing\n  - See this [page](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Ftraining\u002Foverview\u002F) for full list of supported models and recipes.\n- State-of-the-art performance optimizations for inference\n  - Sequence Parallelism for distributed inference\n  - Multiple state-of-the-art attention backends\n  - User-friendly CLI and Python API\n  - See this [page](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Finference\u002Foptimizations\u002F) for full list of supported optimizations.\n- Diverse hardware and OS support\n  - Support H100, A100, 4090\n  - Support Linux, Windows, MacOS\n  - See this [page](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Finference\u002Fsupport_matrix\u002F) for full list of supported models, hardware assumptions, and optimization compatibility.\n\n## Getting Started\n\nWe recommend using [uv](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002F) to create a clean environment. If you previously used Conda, switching to uv generally gives faster and more stable installs.\n\n```bash\n# Create and activate a new uv environment\nuv venv --python 3.12 --seed\nsource .venv\u002Fbin\u002Factivate\n\n# Install FastVideo\nuv pip install fastvideo\n```\n\nPlease see our [docs](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fgetting_started\u002Finstallation\u002F) for more detailed installation instructions.\n\n## Sparse Distillation\n\nFor our sparse distillation techniques, please see our [distillation docs](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fdistillation\u002Fdmd\u002F) and check out our [blog](https:\u002F\u002Fhao-ai-lab.github.io\u002Fblogs\u002Ffastvideo_post_training\u002F).\n\nSee below for recipes and datasets:\n\n| Model                                                                                 | Sparse Distillation                                                                                             | Dataset                                                                                                  |\n| ------------------------------------------------------------------------------------- | --------------------------------------------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------------- |\n| [FastWan2.1-T2V-1.3B](https:\u002F\u002Fhuggingface.co\u002FFastVideo\u002FFastWan2.1-T2V-1.3B-Diffusers) | [Recipe](https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Ftree\u002Fmain\u002Fexamples\u002Fdistill\u002FWan2.1-T2V\u002FWan-Syn-Data-480P)       | [FastVideo Synthetic Wan2.1 480P](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FFastVideo\u002FWan-Syn_77x448x832_600k)     |\n| [FastWan2.2-TI2V-5B](https:\u002F\u002Fhuggingface.co\u002FFastVideo\u002FFastWan2.2-TI2V-5B-Diffusers)   | [Recipe](https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Ftree\u002Fmain\u002Fexamples\u002Fdistill\u002FWan2.2-TI2V-5B-Diffusers\u002FData-free) | [FastVideo Synthetic Wan2.2 720P](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FFastVideo\u002FWan2.2-Syn-121x704x1280_32k) |\n\n## Inference\n\n### Generating Your First Video\n\nHere's a minimal example to generate a video using the default settings. Make sure VSA kernels are [installed](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fattention\u002Fvsa\u002F#installation). Create a file called `example.py` with the following code:\n\n```python\nimport os\nfrom fastvideo import VideoGenerator\n\ndef main():\n    os.environ[\"FASTVIDEO_ATTENTION_BACKEND\"] = \"VIDEO_SPARSE_ATTN\"\n\n    # Create a video generator with a pre-trained model\n    generator = VideoGenerator.from_pretrained(\n        \"FastVideo\u002FFastWan2.1-T2V-1.3B-Diffusers\",\n        num_gpus=1,  # Adjust based on your hardware\n    )\n\n    # Define a prompt for your video\n    prompt = \"A curious raccoon peers through a vibrant field of yellow sunflowers, its eyes wide with interest.\"\n\n    # Generate the video\n    video = generator.generate_video(\n        prompt,\n        output_path=\"my_videos\u002F\",  # Controls where videos are saved\n        save_video=True\n    )\n\nif __name__ == '__main__':\n    main()\n```\n\nRun the script with:\n\n```bash\npython example.py\n```\n\nFor a more detailed guide, please see our [inference quick start](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Finference\u002Finference_quick_start\u002F).\n\n## More Guides\n\n- [Design Overview](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fdesign\u002Foverview\u002F)\n- [Distillation Guide](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fdistillation\u002Fdmd\u002F)\n- [Contribution Guide](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fcontributing\u002Foverview\u002F)\n\n## Awesome work using FastVideo or our research projects\n\n- [SGLang](https:\u002F\u002Fgithub.com\u002Fsgl-project\u002Fsglang\u002Ftree\u002Fmain\u002Fpython\u002Fsglang\u002Fmultimodal_gen): SGLang's diffusion inference functionality is based on a fork of FastVideo on Sept. 24, 2025.\n- [DanceGRPO](https:\u002F\u002Fgithub.com\u002FXueZeyue\u002FDanceGRPO): A unified framework to adapt Group Relative Policy Optimization (GRPO) to visual generation paradigms. Code based on FastVideo.\n- [SRPO](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FSRPO): A method to directly align the full diffusion trajectory with fine-grained human preference. Code based on FastVideo.\n- [DCM](https:\u002F\u002Fgithub.com\u002FVchitect\u002FDCM): Dual-expert consistency model for efficient and high-quality video generation. Code based on FastVideo.\n- [HY-WorldPlay](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHY-WorldPlay): An action-conditioned world model model trained using FastVideo framework.\n- [Hunyuan Video 1.5](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHunyuanVideo-1.5): A leading lightweight video generation model, where they proposed SSTA based on Sliding Tile Attention.\n- [Kandinsky-5.0](https:\u002F\u002Fgithub.com\u002Fkandinskylab\u002Fkandinsky-5): A family of diffusion models for video & image generation, where their NABLA attention includes a Sliding Tile Attention branch.\n- [LongCat Video](https:\u002F\u002Fgithub.com\u002Fmeituan-longcat\u002FLongCat-Video): A foundational video generation model with 13.6B parameters with block-sparse attention similar to Video Sparse Attention.\n\n## 🤝 Contributing\n\nWe welcome all contributions. Please check out our guide [here](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fcontributing\u002Foverview\u002F).\nSee details in [development roadmap](https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fissues\u002F899).\n\n## Acknowledgement\n\nWe learned the design and reused code from the following projects: [Wan-Video](https:\u002F\u002Fgithub.com\u002FWan-Video), [ThunderKittens](https:\u002F\u002Fgithub.com\u002FHazyResearch\u002FThunderKittens), [DMD2](https:\u002F\u002Fgithub.com\u002Ftianweiy\u002FDMD2), [diffusers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers), [xDiT](https:\u002F\u002Fgithub.com\u002Fxdit-project\u002FxDiT), [vLLM](https:\u002F\u002Fgithub.com\u002Fvllm-project\u002Fvllm), [SGLang](https:\u002F\u002Fgithub.com\u002Fsgl-project\u002Fsglang). We thank [MBZUAI](https:\u002F\u002Fifm.mbzuai.ac.ae\u002F), [Anyscale](https:\u002F\u002Fwww.anyscale.com\u002F), and [GMI Cloud](https:\u002F\u002Fwww.gmicloud.ai\u002F) for their support throughout this project.\n\n## Citation\n\nIf you find FastVideo useful, please consider citing our research work:\n\n```bibtex\n@article{zhang2025vsa,\n  title={Vsa: Faster video diffusion with trainable sparse attention},\n  author={Zhang, Peiyuan and Chen, Yongqi and Huang, Haofeng and Lin, Will and Liu, Zhengzhong and Stoica, Ion and Xing, Eric and Zhang, Hao},\n  journal={arXiv preprint arXiv:2505.13389},\n  year={2025}\n}\n\n@article{zhang2025fast,\n  title={Fast video generation with sliding tile attention},\n  author={Zhang, Peiyuan and Chen, Yongqi and Su, Runlong and Ding, Hangliang and Stoica, Ion and Liu, Zhengzhong and Zhang, Hao},\n  journal={arXiv preprint arXiv:2502.04507},\n  year={2025}\n}\n```\n","\u003Cdiv align=\"center\">\n\u003Cimg src=assets\u002Flogos\u002Flogo.svg width=\"30%\"\u002F>\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n     | \u003Ca href=\"https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\">\u003Cb>文档\u003C\u002Fb>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Finference\u002Finference_quick_start\u002F\">\u003Cb>快速入门\u003C\u002Fb>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fdiscussions\u002F982\"  target=\"_blank\">\u003Cb>每周开发会议\u003C\u002Fb>\u003C\u002Fa>  | 🟣💬 \u003Ca href=\"https:\u002F\u002Fjoin.slack.com\u002Ft\u002Ffastvideo\u002Fshared_invite\u002Fzt-3f4lao1uq-u~Ipx6Lt4J27AlD2y~IdLQ\" target=\"_blank\"> \u003Cb>Slack\u003C\u002Fb> \u003C\u002Fa> |  🟣💬 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fdiscussions\u002F1097\" target=\"_blank\"> \u003Cb> 微信 \u003C\u002Fb> \u003C\u002Fa> |\n\u003C\u002Fp>\n\n**FastVideo 是一个统一的后训练与实时推理框架，用于加速视频生成。**\n\n## 新闻\n- `2026\u002F03\u002F17`: 发布直播演示：[进入梦境宇宙：FastVideo 中的情绪引导](https:\u002F\u002Fdreamverse.fastvideo.org\u002F)，请查看 [博客](https:\u002F\u002Fhaoailab.com\u002Fblogs\u002Fdreamverse\u002F)。\n- `2026\u002F03\u002F13`: 发布直播演示：[使用 FastVideo 在单张 GPU 上 4.5 秒内创建一段 5 秒 1080p 视频](https:\u002F\u002F1080p.fastvideo.org\u002F)，请查看 [博客](https:\u002F\u002Fhaoailab.com\u002Fblogs\u002Ffastvideo_realtime_1080p\u002F)。\n- `2025\u002F11\u002F19`: 发布 [CausalWan2.2 I2V A14B 预览](https:\u002F\u002Fhuggingface.co\u002FFastVideo\u002FCausalWan2.2-I2V-A14B-Preview-Diffusers) 模型、[博客](https:\u002F\u002Fhao-ai-lab.github.io\u002Fblogs\u002Ffastvideo_causalwan_preview\u002F) 和 [推理代码！](https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fblob\u002Fmain\u002Fexamples\u002Finference\u002Fbasic\u002Fbasic_self_forcing_causal_wan2_2_i2v.py)。\n- `2025\u002F08\u002F04`: 发布 [FastWan](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fdistillation\u002Fdmd) 模型和 [稀疏蒸馏](https:\u002F\u002Fhao-ai-lab.github.io\u002Fblogs\u002Ffastvideo_post_training\u002F)。\n\n### 更多新闻\n\n- `2025\u002F06\u002F14`: 发布 [VSA](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2505.13389) 的微调与推理代码。\n- `2025\u002F04\u002F24`: [FastVideo V1](https:\u002F\u002Fhao-ai-lab.github.io\u002Fblogs\u002Ffastvideo\u002F) 正式发布！\n- `2025\u002F02\u002F18`: 发布 [滑动块注意力](https:\u002F\u002Fhao-ai-lab.github.io\u002Fblogs\u002Fsta\u002F) 的推理代码。\n\n## 核心特性\n\nFastVideo 具有以下特性：\n\n- 对双向及自回归模型提供端到端的后训练支持：\n  - 支持最先进的开源视频 DiT 模型的全量微调与 LoRA 微调。\n  - 提供针对视频、图像及文本数据的数据预处理流水线。\n  - 分布式匹配蒸馏（DMD2）分步蒸馏。\n  - 基于 [视频稀疏注意力](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2505.13389) 的稀疏注意力机制。\n  - 通过自强迫进行因果蒸馏，实现超过 50 倍的去噪加速。\n  - 可通过 FSDP2、序列并行以及选择性激活检查点技术进行可扩展训练。\n  - 完整的支持模型与配方列表，请参阅此页面：[https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Ftraining\u002Foverview\u002F](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Ftraining\u002Foverview\u002F)。\n- 最先进的推理性能优化：\n  - 面向分布式推理的序列并行技术。\n  - 多种最先进的注意力后端。\n  - 用户友好的命令行界面与 Python API。\n  - 完整的支持优化列表，请参阅此页面：[https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Finference\u002Foptimizations\u002F](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Finference\u002Foptimizations\u002F)。\n- 多样化的硬件与操作系统支持：\n  - 支持 H100、A100、4090 显卡。\n  - 支持 Linux、Windows、MacOS 系统。\n  - 完整的支持模型、硬件假设及优化兼容性列表，请参阅此页面：[https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Finference\u002Fsupport_matrix\u002F](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Finference\u002Fsupport_matrix\u002F)。\n\n## 开始使用\n\n我们推荐使用 [uv](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002F) 来创建一个干净的环境。如果您之前使用过 Conda，切换到 uv 通常能带来更快、更稳定的安装体验。\n\n```bash\n# 创建并激活一个新的 uv 环境\nuv venv --python 3.12 --seed\nsource .venv\u002Fbin\u002Factivate\n\n# 安装 FastVideo\nuv pip install fastvideo\n```\n\n更多详细的安装说明，请参阅我们的 [文档](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fgetting_started\u002Finstallation\u002F)。\n\n## 稀疏蒸馏\n\n有关我们的稀疏蒸馏技术，请参阅我们的 [蒸馏文档](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fdistillation\u002Fdmd\u002F) 并查看我们的 [博客](https:\u002F\u002Fhao-ai-lab.github.io\u002Fblogs\u002Ffastvideo_post_training\u002F)。\n\n以下是配方与数据集的示例：\n\n| 模型                                                                                 | 稀疏蒸馏                                                                                             | 数据集                                                                                                  |\n| ------------------------------------------------------------------------------------- | --------------------------------------------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------------- |\n| [FastWan2.1-T2V-1.3B](https:\u002F\u002Fhuggingface.co\u002FFastVideo\u002FFastWan2.1-T2V-1.3B-Diffusers) | [配方](https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Ftree\u002Fmain\u002Fexamples\u002Fdistill\u002FWan2.1-T2V\u002FWan-Syn-Data-480P)       | [FastVideo 合成 Wan2.1 480P](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FFastVideo\u002FWan-Syn_77x448x832_600k)     |\n| [FastWan2.2-TI2V-5B](https:\u002F\u002Fhuggingface.co\u002FFastVideo\u002FFastWan2.2-TI2V-5B-Diffusers)   | [配方](https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Ftree\u002Fmain\u002Fexamples\u002Fdistill\u002FWan2.2-TI2V-5B-Diffusers\u002FData-free) | [FastVideo 合成 Wan2.2 720P](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FFastVideo\u002FWan2.2-Syn-121x704x1280_32k) |\n\n## 推理\n\n### 生成你的第一段视频\n\n以下是一个使用默认设置生成视频的最小示例。请确保已安装 VSA 内核（[安装说明](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fattention\u002Fvsa\u002F#installation)）。创建一个名为 `example.py` 的文件，并写入以下代码：\n\n```python\nimport os\nfrom fastvideo import VideoGenerator\n\ndef main():\n    os.environ[\"FASTVIDEO_ATTENTION_BACKEND\"] = \"VIDEO_SPARSE_ATTN\"\n\n    # 使用预训练模型创建视频生成器\n    generator = VideoGenerator.from_pretrained(\n        \"FastVideo\u002FFastWan2.1-T2V-1.3B-Diffusers\",\n        num_gpus=1,  # 根据你的硬件调整\n    )\n\n    # 为你的视频定义提示词\n    prompt = \"一只好奇的浣熊探头看向一片生机勃勃的黄色向日葵田，眼睛里满是兴趣。\"\n\n    # 生成视频\n    video = generator.generate_video(\n        prompt,\n        output_path=\"my_videos\u002F\",  # 控制视频保存路径\n        save_video=True\n    )\n\nif __name__ == '__main__':\n    main()\n```\n\n运行脚本：\n\n```bash\npython example.py\n```\n\n如需更详细的指南，请参阅我们的 [推理快速入门](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Finference\u002Finference_quick_start\u002F)。\n\n## 更多指南\n\n- [设计概述](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fdesign\u002Foverview\u002F)\n- [蒸馏指南](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fdistillation\u002Fdmd\u002F)\n- [贡献指南](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fcontributing\u002Foverview\u002F)\n\n## 使用 FastVideo 或我们的研究项目所取得的出色成果\n\n- [SGLang](https:\u002F\u002Fgithub.com\u002Fsgl-project\u002Fsglang\u002Ftree\u002Fmain\u002Fpython\u002Fsglang\u002Fmultimodal_gen)：SGLang 的扩散推理功能基于 2025 年 9 月 24 日对 FastVideo 的一个分支。\n- [DanceGRPO](https:\u002F\u002Fgithub.com\u002FXueZeyue\u002FDanceGRPO)：一种将组相对策略优化（GRPO）适配到视觉生成范式的统一框架。代码基于 FastVideo。\n- [SRPO](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FSRPO)：一种直接将完整的扩散轨迹与细粒度的人类偏好对齐的方法。代码基于 FastVideo。\n- [DCM](https:\u002F\u002Fgithub.com\u002FVchitect\u002FDCM)：用于高效高质量视频生成的双专家一致性模型。代码基于 FastVideo。\n- [HY-WorldPlay](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHY-WorldPlay)：使用 FastVideo 框架训练的动作条件世界模型。\n- [Hunyuan Video 1.5](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHunyuanVideo-1.5)：一款领先的轻量级视频生成模型，其中他们提出了基于滑动瓦片注意力的 SSTA。\n- [Kandinsky-5.0](https:\u002F\u002Fgithub.com\u002Fkandinskylab\u002Fkandinsky-5)：一个用于视频和图像生成的扩散模型家族，其 NABLA 注意力包含一个滑动瓦片注意力分支。\n- [LongCat Video](https:\u002F\u002Fgithub.com\u002Fmeituan-longcat\u002FLongCat-Video)：一款具有 136 亿参数的基础视频生成模型，采用了类似于视频稀疏注意力的块稀疏注意力机制。\n\n## 🤝 贡献\n\n我们欢迎所有贡献。请查看我们的贡献指南 [这里](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fcontributing\u002Foverview\u002F)。\n更多详情请参阅[开发路线图](https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fissues\u002F899)。\n\n## 致谢\n\n我们在设计上借鉴并复用了以下项目的代码：[Wan-Video](https:\u002F\u002Fgithub.com\u002FWan-Video)、[ThunderKittens](https:\u002F\u002Fgithub.com\u002FHazyResearch\u002FThunderKittens)、[DMD2](https:\u002F\u002Fgithub.com\u002Ftianweiy\u002FDMD2)、[diffusers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers)、[xDiT](https:\u002F\u002Fgithub.com\u002Fxdit-project\u002FxDiT)、[vLLM](https:\u002F\u002Fgithub.com\u002Fvllm-project\u002Fvllm)、[SGLang](https:\u002F\u002Fgithub.com\u002Fsgl-project\u002Fsglang)。我们感谢 [MBZUAI](https:\u002F\u002Fifm.mbzuai.ac.ae\u002F)、[Anyscale](https:\u002F\u002Fwww.anyscale.com\u002F) 和 [GMI Cloud](https:\u002F\u002Fwww.gmicloud.ai\u002F) 在整个项目过程中给予的支持。\n\n## 引用\n\n如果您觉得 FastVideo 有用，请考虑引用我们的研究成果：\n\n```bibtex\n@article{zhang2025vsa,\n  title={Vsa: Faster video diffusion with trainable sparse attention},\n  author={Zhang, Peiyuan and Chen, Yongqi and Huang, Haofeng and Lin, Will and Liu, Zhengzhong and Stoica, Ion and Xing, Eric and Zhang, Hao},\n  journal={arXiv preprint arXiv:2505.13389},\n  year={2025}\n}\n\n@article{zhang2025fast,\n  title={Fast video generation with sliding tile attention},\n  author={Zhang, Peiyuan and Chen, Yongqi and Su, Runlong and Ding, Hangliang and Stoica, Ion and Liu, Zhengzhong and Zhang, Hao},\n  journal={arXiv preprint arXiv:2502.04507},\n  year={2025}\n}\n```","# FastVideo 快速上手指南\n\nFastVideo 是一个统一的视频生成后训练（Post-training）与实时推理框架，旨在加速视频生成过程。它支持双向和自回归模型的全量微调、LoRA 微调、稀疏蒸馏（速度提升超过 50 倍）以及多种硬件优化。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, Windows, 或 MacOS\n*   **Python 版本**：推荐 Python 3.12\n*   **硬件支持**：NVIDIA H100, A100, RTX 4090 等主流 GPU\n*   **依赖管理工具**：推荐使用 [`uv`](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002F) 替代 Conda，以获得更快、更稳定的安装体验。\n\n> **注意**：为了获得最佳推理性能，请确保已安装 VSA (Video Sparse Attention) 内核。详细安装说明请参考官方文档 [VSA Installation](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fattention\u002Fvsa\u002F#installation)。\n\n## 安装步骤\n\n我们建议使用 `uv` 创建独立的虚拟环境并安装 FastVideo。\n\n```bash\n# 1. 创建并激活一个新的 uv 环境 (指定 Python 3.12)\nuv venv --python 3.12 --seed\nsource .venv\u002Fbin\u002Factivate  # Windows 用户请使用: .venv\\Scripts\\activate\n\n# 2. 安装 FastVideo\nuv pip install fastvideo\n```\n\n*如需更详细的安装配置（如特定 CUDA 版本或从源码安装），请参阅 [官方安装文档](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fgetting_started\u002Finstallation\u002F)。*\n\n## 基本使用\n\n以下是最简单的视频生成示例。该脚本使用预训练的 `FastWan2.1` 模型，根据文本提示生成视频。\n\n1.  创建一个名为 `example.py` 的文件。\n2.  将以下代码复制进去：\n\n```python\nimport os\nfrom fastvideo import VideoGenerator\n\ndef main():\n    # 设置注意力后端为 VIDEO_SPARSE_ATTN 以启用加速\n    os.environ[\"FASTVIDEO_ATTENTION_BACKEND\"] = \"VIDEO_SPARSE_ATTN\"\n\n    # 加载预训练模型\n    # num_gpus 可根据您的硬件情况进行调整\n    generator = VideoGenerator.from_pretrained(\n        \"FastVideo\u002FFastWan2.1-T2V-1.3B-Diffusers\",\n        num_gpus=1,\n    )\n\n    # 定义视频生成提示词\n    prompt = \"A curious raccoon peers through a vibrant field of yellow sunflowers, its eyes wide with interest.\"\n\n    # 生成视频\n    video = generator.generate_video(\n        prompt,\n        output_path=\"my_videos\u002F\",  # 视频保存路径\n        save_video=True\n    )\n\nif __name__ == '__main__':\n    main()\n```\n\n3.  运行脚本：\n\n```bash\npython example.py\n```\n\n生成的视频将保存在 `my_videos\u002F` 目录下。\n\n> **进阶学习**：\n> *   [推理快速入门指南](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Finference\u002Finference_quick_start\u002F)\n> *   [稀疏蒸馏技术文档](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fdistillation\u002Fdmd\u002F)\n> *   [设计概览](https:\u002F\u002Fhao-ai-lab.github.io\u002FFastVideo\u002Fdesign\u002Foverview\u002F)","一家小型广告创意团队需要在单张消费级显卡（如 RTX 4090）上，为客户快速生成多条 1080p 高清短视频素材以进行 A\u002FB 测试。\n\n### 没有 FastVideo 时\n- **生成速度极慢**：传统视频扩散模型生成一段 5 秒的 1080p 视频往往需要数分钟甚至更久，严重拖慢创意迭代节奏。\n- **硬件门槛过高**：想要实现实时或近实时生成，通常必须租用昂贵的多卡 H100\u002FA100 云服务器，大幅推高项目成本。\n- **微调流程复杂**：若想针对特定品牌风格微调模型，缺乏统一的端到端后训练框架，数据预处理和分布式训练配置极其繁琐。\n- **显存容易溢出**：在有限显存下运行高分辨率视频生成，常因注意力机制占用过大而导致程序崩溃，无法完成长序列生成。\n\n### 使用 FastVideo 后\n- **实时生成体验**：借助稀疏蒸馏（Sparse Distillation）技术，FastVideo 能在单张 4090 上将 1080p 视频生成时间压缩至 4.5 秒左右，真正实现“所想即所得”。\n- **低成本部署**：无需依赖昂贵的集群，直接在本地工作站或普通游戏电脑上即可流畅运行高性能视频生成任务。\n- **一站式微调**：提供从数据预处理到 LoRA 微调及蒸馏的完整流水线，团队可轻松将模型适配为专属的品牌风格。\n- **显存高效优化**：通过视频稀疏注意力（Video Sparse Attention）和序列并行技术，显著降低显存占用，稳定支持高分辨率长视频输出。\n\nFastVideo 通过统一的推理与后训练框架，将高端视频生成能力从昂贵的云端集群下放至单张消费级显卡，彻底改变了创意内容的生产时效与成本结构。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhao-ai-lab_FastVideo_6d20b29b.png","hao-ai-lab","Hao AI Lab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhao-ai-lab_45215a02.png","",null,"haoailab","https:\u002F\u002Fhao-ai-lab.github.io","https:\u002F\u002Fgithub.com\u002Fhao-ai-lab",[82,86,90,94,98,102,105,108,112,116],{"name":83,"color":84,"percentage":85},"Python","#3572A5",94.2,{"name":87,"color":88,"percentage":89},"Svelte","#ff3e00",1.9,{"name":91,"color":92,"percentage":93},"Cuda","#3A4E3A",1.6,{"name":95,"color":96,"percentage":97},"C++","#f34b7d",0.8,{"name":99,"color":100,"percentage":101},"TypeScript","#3178c6",0.4,{"name":103,"color":104,"percentage":101},"Shell","#89e051",{"name":106,"color":107,"percentage":101},"JavaScript","#f1e05a",{"name":109,"color":110,"percentage":111},"CMake","#DA3434",0.1,{"name":113,"color":114,"percentage":115},"Dockerfile","#384d54",0,{"name":117,"color":118,"percentage":115},"CSS","#663399",3392,317,"2026-04-16T03:21:13","Apache-2.0","Linux, Windows, macOS","需要 NVIDIA GPU，支持 H100, A100, RTX 4090。显存需求取决于模型大小（如 1.3B 或 5B 模型），未明确具体最低显存数值。需安装 VSA kernels。","未说明",{"notes":127,"python":128,"dependencies":129},"推荐使用 uv 工具创建虚拟环境而非 Conda，以获得更快更稳定的安装体验。运行前必须安装 Video Sparse Attention (VSA) 内核。支持单卡及多卡（序列并行）推理。","3.12",[130,131],"fastvideo","uv",[133,15,14],"视频",[135,136,137,138,139,140],"diffusers","diffusion-models","video-generation","distillation","inference","post-training","2026-03-27T02:49:30.150509","2026-04-20T16:36:27.954692",[144,149,153,158,163,168],{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},36261,"运行蒸馏后的 WAN 模型时，生成的视频全是噪点，这是什么原因？","这是因为蒸馏代码已被完全重写，现在使用 DMD 方法替代了之前的 PCM 方法。请查阅官方博客获取最新的可用配方和详细说明：https:\u002F\u002Fhao-ai-lab.github.io\u002Fblogs\u002Ffastvideo_post_training\u002F。旧代码可能已不再适用。","https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fissues\u002F503",{"id":150,"question_zh":151,"answer_zh":152,"source_url":148},36262,"如何使用 fastvideo generate 命令加载训练好的检查点（checkpoint）？","目前 generate 命令可能不直接支持指定训练后的检查点。解决方法是：\n1. 将训练好的检查点文件放入 `wan1.3b-diffusers` 目录，替换原始的 transformer 目录。\n2. 修改该目录下的 `config.json` 文件，确保配置与模型匹配（例如 patch_size, num_attention_heads 等参数）。\n3. 不要使用 generate 命令，而是直接运行推理脚本，例如：`.\u002Fscripts\u002Finference\u002Fv1_inference_wan.sh`。",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},36263,"在预处理 I2V（图像到视频）数据时进程卡住不动，如何解决？","确保数据集格式正确。`load_dataset` 函数会自动识别视频数据集，它会从 `metadata.json` 中读取 `file_name` 列，并使用 `torchcodec` 的 `VideoDecoder` 来加载视频。如果你自定义了加载逻辑，请确认是否正确调用了 `VideoDecoder` 及其 `get_frames_at` 方法。对于 T2V 任务，直接使用 `VideoDecoder` 加载视频路径通常可以解决内存泄漏或卡死问题。","https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fissues\u002F565",{"id":159,"question_zh":160,"answer_zh":161,"source_url":162},36264,"运行 FastWan2.2-TI2V-5B-FullAttn-Diffusers 推理时报错“张量大小不匹配”或管道阶段错误，怎么办？","这通常是因为 `fastvideo\u002Fconfigs\u002Fpipelines\u002Fregistry.py` 中的 `PipelineConfig` 没有针对 `FastWan2.2-TI2V-5B-FullAttn-Diffusers` 模型进行正确设置。请检查该注册表文件，确保该模型对应的管道配置（如输入验证、提示编码、去噪等阶段）已正确定义且参数匹配。目前该功能可能仍在开发中，尚未完全稳定。","https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fissues\u002F762",{"id":164,"question_zh":165,"answer_zh":166,"source_url":167},36265,"运行 Hunyuan 推理脚本（inference_hunyuan.sh）时程序卡住无响应，如何解决？","尝试更改 text_encoder 的数据类型。将默认的 `fp16` 改为 `bf16` 或 `fp32` 通常可以解决此问题。此外，建议运行 `python fastvideo\u002Futils\u002Fenv_utils.py` 检查并列出当前的环境配置，以排除其他潜在的环境冲突。","https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fissues\u002F105",{"id":169,"question_zh":170,"answer_zh":171,"source_url":172},36266,"使用 WAN2.2 低噪声模型权重进行进一步的 VSA 训练时，Loss 变为 NaN，原因是什么？","调查表明，NaN 是在 VSA（Variable Sequence Attention）的反向传播过程中产生的。具体报错指向 `GeneratedBackwardFor_vsa_block_sparse_attn_triton_defaultBackward`。这通常意味着当前的 Triton 内核实现或在特定硬件\u002F精度配置下，VSA 块的稀疏注意力反向传播存在数值不稳定问题。建议检查是否使用了兼容的 CUDA\u002FTriton 版本，或暂时避免在该特定配置下进行低噪声 VSA 微调，直到官方修复该反向传播错误。","https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fissues\u002F886",[174,179,184,189,194,199,204],{"id":175,"version":176,"summary_zh":177,"released_at":178},289090,"v0.1.7","## 变更内容\n* [VSA] [STA] 由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F769 中修复了用于 PyPI 发布的目录结构\n* [bugfix] 由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F770 中修复了 STA 安装时 setup.py 的导入问题\n* [bugfix] [VSA] [STA] 由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F771 中修复了 VSA 和 STA 的 MANIFEST.in 文件；并将 tk 移至两个目录中\n* [misc] [VSA] [STA] 由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F772 中修复了 VSA 和 STA 的 setup.py 中的 tk_root\n* [Preprocess][Feat] 由 @Eigensystem 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F761 中支持使用 torchvision 加载视频进行新的预处理\n* [Preprocess][Fix] 由 @Eigensystem 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F773 中修复了视频质量问题\n* [misc] 由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F774 中改进了文本编码阶段\n* [CI] 由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F784 中为因果推断添加了 SSIM 测试\n* [misc] 由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F786 中更新了 Slack 邀请链接\n* fix: 由 @DataAIPlayer 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F781 中修复了 lora_B 的初始化为零的问题\n* [Feature] 由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F755 中支持 DMD 的 LoRA\n* [Backend][Vmoba] 由 @EricLina 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F778 中添加了 VMoba 的实现\n* [Self-forcing] [1\u002Fn] 由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F792 中处理时间嵌入中的额外维度，并添加了时间步扭曲功能\n* [preprocessing] [self-forcing] [2\u002Fn] 由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F794 中改进了预处理，并添加了 ODE 轨迹数据集模式\n* [bugfix] 由 @DataAIPlayer 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F796 中修复了 delta 的计算问题\n* [bugfix] 由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F798 中固定 Gradio 版本，并在 TrainingPipeline 中设置 current_vsa_sparsity\n* [self-forcing] [3\u002Fn] 由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F797 中仅对文本进行嵌入式预处理\n* [bugfix] 由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F800 中修复了 Wan2.2 A14B 的空 PipelineConfigs\n* [Bugfix] 由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F802 中修复了 VMoba 的依赖项问题\n* [bugfix] 由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F804 中修复了 Wan2.2 的边界比例问题\n* [self-forcing] [4\u002Fn] 由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F788 中进行了收集 ODE 轨迹的预处理\n* 由 @BrianChen1129 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F809 中更新了示例文件和 README\n* [self-forcing] [5\u002Fn] 由 @JerryZhou54 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F808 中添加了自激励蒸馏流水线\n* [bugfix] 由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpu 中更新了稀疏蒸馏配方的学习率","2026-01-05T21:47:55",{"id":180,"version":181,"summary_zh":182,"released_at":183},289091,"v0.1.6","## 变更内容\n* [杂项] 在 README 中加入我们的演示。由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F720 中完成。\n* [功能] 添加 Wan2.2 14B MoE。由 @JerryZhou54 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F688 中完成。\n* [杂项] 修改 VSA 的安装逻辑。由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F721 中完成。\n* [3\u002F3][预处理] 添加预处理工作流。由 @Eigensystem 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F645 中完成。\n* [修复] 修复训练流水线中的 pin_cpu_memory 问题。由 @Eigensystem 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F692 中完成。\n* 为发布 VSA 内核添加 CI\u002FCD 工作流。由 @Gary-ChenJL 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F723 中完成。\n* 移除所有 empty_cache 调用。由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F713 中完成。\n* 更新 VSA 工作流的版本选择。由 @Gary-ChenJL 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F725 中完成。\n* [bugfix] 修复 pyproject 安装和 VSA 精度测试问题。由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F726 中完成。\n* 修复从训练检查点加载 LoRA 的问题。由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F719 中完成。\n* [bugfix] [蒸馏] 移除蒸馏过程中 i2v 验证模式的导入。由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F728 中完成。\n* [功能] 添加 Gradio 实时服务演示代码。由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F727 中完成。\n* [bugfix] [dmd] 修复 wan_i2v_dmd_pipeline 中的反向模拟及命名问题。由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F731 中完成。\n* 修复 VSA 的 backward gQ 问题。由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F735 中完成。\n* 功能：仅在数据集存在时才进行验证集的预处理。由 @Eigensystem 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F734 中完成。\n* 更新微信群链接。由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F739 中完成。\n* [功能][预处理] i2v 预处理工作流。由 @Eigensystem 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F737 中完成。\n* [Docker] 添加 12.9 版本的 Docker 镜像，并修复 py3.10 和 py3.11 的 Dockerfile。由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F749 中完成。\n* [bugfix] 补齐 cuda12.9 的 Dockerfile。由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F750 中完成。\n* [bugfix] [dmd] 将反向模拟与 dmd2 示例对齐。由 @nappengman 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F744 中完成。\n* [修复] 修复 dmd 去噪循环中的 seed 问题。由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F736 中完成。\n* [bugfix] 在移除 model_index.json 模块之前，先检查其是否在 required_modules 列表中。由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F756 中完成。\n* 可选地使用未合并权重进行推理。由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F745 中完成。\n* [功能][预处理] 支持合并的数据集。由 @Eigensystem 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F752 中完成。\n* [功能][预处理] 支持多 GPU。由 @Eigensystem 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F753 中完成。\n* [杂项] [文档] 对 loggi 进行多项修复。","2025-08-29T03:57:11",{"id":185,"version":186,"summary_zh":187,"released_at":188},289092,"v0.1.5","## 变更内容\n* [CI] 添加 LoRA 推理测试，由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F546 中完成\n* [bugfix] [训练] 使用独立的生成器进行验证，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F610 中完成\n* [chore] 发布 0.1.2 版本，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F622 中完成\n* 视频生成在 Apple Silicon 上正常运行（修复了之前 PR 中的问题），由 @RandNMR73 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F595 中完成\n* [v0] 移除 V0 代码，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F621 中完成\n* [LoRA] 支持 v1 LoRA 训练，由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F576 中完成\n* Py\u002F添加 Triton 块稀疏实现，由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F593 中完成\n* 修复 LoRA 训练步数问题，由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F627 中完成\n* [bugfix] fa3 不再返回 lse，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F631 中完成\n* [CI] 修复针对非 main 分支的拉取请求的 CI 流程，由 @kevin314 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F632 中完成\n* [bugfix] 修复预处理流水线和夜间测试，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F633 中完成\n* [Bugfix] 修复 LoRA 可训练参数及训练检查点加载问题，由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F630 中完成\n* [Docs] 更新训练和 MPS 相关文档，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F641 中完成\n* [Feature] 添加 DMD 推理流水线，由 @BrianChen1129 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F637 中完成\n* [Feature] 多 LoRA 推理功能，由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F640 中完成\n* [Feature] 移除 V1 文件夹，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F642 中完成\n* [1\u002F3][Preprocess] 重构预处理配置，由 @Eigensystem 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F638 中完成\n* [misc] 使用 FASTVIDEO_STAGE_LOGGING 对阶段性能计时，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F644 中完成\n* [Feature] 为 CLI 推理添加 prompt_txt 支持；添加 DMD CLI 推理，由 @BrianChen1129 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F646 中完成\n* [core] 为 VAE 和图像编码器添加卸载功能，并重命名卸载参数，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F643 中完成\n* [CI] 为 ComfyUI 添加发布工作流，由 @kevin314 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F647 中完成\n* [CI] 修复 ComfyUI 发布者 ID，由 @kevin314 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F648 中完成\n* [bugfix] VideoGenerator 未能正确提取 output_video_name，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F649 中完成\n* [Feature] 添加 DMD T2V 训练流水线，由 @BrianChen1129 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F651 中完成\n* [Feature] 忽略 mypy 的 [union-attr] 和 [override] 检查，并从训练中移除相关代码，由 @BrianChen1129 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F652 中完成\n* [Feature] 添加 Wan-14B-T2V-VSA CLI 推理；添加 master ","2025-08-06T20:09:03",{"id":190,"version":191,"summary_zh":192,"released_at":193},289093,"v0.1.2","在移除 v0 代码之前的最后一次发布。\n\n## 变更内容\n* 修复 VAE 精度，由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F588 中完成\n* [LoRA] 修复 LoRA 合并权重，由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F579 中完成\n* 添加用于推理的 ComfyUI 自定义节点，由 @kevin314 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F596 中完成\n* [功能] 默认将所有文本编码器卸载到 CPU 上，由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F594 中完成\n* [训练] 在训练验证中使用推理流水线，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F585 中完成\n* [维护] 将最低 Python 版本从 3.8 升级至 3.10，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F597 中完成\n* [修复] [训练] 修复潜在数据集中的死锁问题以及多节点训练中的初始化错误，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F598 中完成\n* [文档] 更新 Slack 邀请链接，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F601 中完成\n* [文档] 将开发指南中的 RunPod 镜像更新为 Py3.12，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F602 中完成\n* 移除所有不必要的 torch.cuda.empty_cache 调用，由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F606 中完成\n* 将编码器的 TP 大小默认设置为 1，由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F569 中完成\n* [功能][训练] 更新示例微调脚本以启用梯度检查点，由 @BrianChen1129 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F618 中完成\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fcompare\u002Fv0.1.1...v0.1.2","2025-07-15T19:26:37",{"id":195,"version":196,"summary_zh":197,"released_at":198},289094,"v0.1.1","## 变更内容\n* [文档] 由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F406 中添加 CLI 文档\n* [文档] 由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F407 中修复图片\n* [Teacache] 允许在使用 teacache 时为 forward_context batch 设置 None 值，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F412 中实现\n* [V1] 移除 vLLM 依赖，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F413 中完成\n* 在中断时完成工作进程的响应，由 @kevin314 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F417 中实现\n* [bug] 修复 bs > 1 的问题，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F418 中完成\n* 修复版本号，由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F422 中完成\n* [测试] 不再针对 SSIM 运行 3.10 和 3.11 版本的测试，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F427 中实现\n* 使用 version.py 文件，由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F424 中完成\n* 统一 issue 模板中的环境报告脚本，由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F423 中完成\n* 为编码设置设备，由 @kevin314 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F420 中实现\n* [杂项] 对 Torch 代码进行小幅修复，由 @applesaucethebun 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F395 中完成\n* 杂项：触发 transformers CI 以应对 layers 和 attention 代码的变更，由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F434 中完成\n* [训练] [2\u002F共 n] 为 all2all 和 all_gather 添加反向传播，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F439 中完成\n* [训练] [3\u002F共 n] 添加训练参数和依赖项，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F440 中完成\n* [训练] [4\u002F共 n] 添加训练保存检查点功能，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F441 中完成\n* [训练] [1\u002F共 n] 添加潜在数据集，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F438 中完成\n* 更新 STA 掩码策略下载，由 @BrianChen1129 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F445 中完成\n* [训练] [5\u002F共 n] 添加单 GPU 训练流程，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F447 中完成\n* [训练] [0\u002F共 n] 添加预处理流程，由 @JerryZhou54 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F442 中完成\n* [训练] [6\u002F共 n] 实现混合精度训练，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F448 中完成\n* [训练] [7\u002F共 n] 实现梯度裁剪，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F449 中完成\n* [训练] [8\u002F共 n] 实现 SP 训练，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F450 中完成\n* 杂项：为调试工作进程添加远程 pdb 调试功能，由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F456 中完成\n* [杂项] 移除 InferenceEngine，由 @Edenzzzz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F455 中完成\n* [杂项] 禁用 cast_forward_inputs 功能，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F460 中完成\n* 将掩码文件放回 asset\u002F 目录下，并更新新的 Wan 掩码策略文件，由 @BrianChen1129 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo 中完成","2025-07-01T06:44:55",{"id":200,"version":201,"summary_zh":202,"released_at":203},289095,"v0.1.0","## 变更内容\n* [V1] 由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F400 中更新 README\n* [CLI] 默认使用管道配置文件，由 @kevin314 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F401 中实现\n* [V1] 文档更新，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F402 中完成\n* [V1] 更新 `num_frame` 四舍五入的处理位置，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F403 中完成\n* 发布版本 0.1.0，由 @SolitaryThinker 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F405 中完成\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fcompare\u002Fv0.0.5...v0.1.0","2025-05-12T18:55:20",{"id":205,"version":206,"summary_zh":207,"released_at":208},289096,"v0.0.5","## 变更内容\n* 与 yongqi-dev2 合并主分支，由 @BrianChen1129 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F70 中完成  \n* [清理] 由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F72 中完成  \n* 添加 Web 演示，由 @BrianChen1129 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F73 中完成  \n* 清理工作，由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F75 中完成  \n* 清理工作，由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F77 中完成  \n* Hunyuanvideo 功能，由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F78 中完成  \n* 添加 hunyuan adv 功能，由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F79 中完成  \n* 更新发布说明文档，由 @foreverpiano 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F81 中完成  \n* 清理 README 文件，由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F83 中完成  \n* 清理工作，由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F84 中完成  \n* Rlsu lora 的 README 更新，由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F85 和 \u002F86 中完成  \n* 添加 Replicate 演示和 API，由 @lucataco 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F93 中完成  \n* 修复 lora 检查点保存问题，由 @BrianChen1129 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F97 中完成  \n* [功能]：为 fasthunyuan 实现单卡 4090 推理，由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F104 中完成  \n* [小幅]：添加问题模板，由 @foreverpiano 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F114 中完成  \n* [功能]：将格式自动修复工具添加到主分支，由 @rlsu9 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F124 中完成  \n* [修复]：修复检查点保存及数据集相关 bug，由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F125 中完成  \n* [功能]：为 FastVideo 添加测试用例，由 @rlsu9 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F127 中完成  \n* 为 VAE 解码添加并行化支持，由 @rucnyz 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F134 中完成  \n* 更新 README.md，由 @foreverpiano 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F131 中完成  \n* 添加 hunyuan hf（支持 LoRA 微调）；统一 hunyuan hf 推理与量化方法，由 @BrianChen1129 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F135 中完成  \n* LoRA 的 README 更新，由 @BrianChen1129 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F155 中完成  \n* 创建 config.yml 文件，由 @foreverpiano 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F152 中完成  \n* 添加滑动窗口注意力机制，由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F182 中完成  \n* 添加 STA 和 teacache 前向传播模块，由 @BrianChen1129 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F184 中完成  \n* 修复内核相关问题，由 @BrianChen1129 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F185 中完成  \n* 使用 torch.compile 进行 sta tea 推理，由 @BrianChen1129 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F190 中完成  \n* [功能]：修复 README 演示部分，并在 README 中添加视频，由 @rlsu9 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F191 中完成  \n* 更新环境配置，由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F194 中完成  \n* 更新引用信息，由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpull\u002F195 中完成  \n* 修正错别字，由 @jzhang38 在 https:\u002F\u002Fgithub.com\u002Fhao-ai-lab\u002FFastVideo\u002Fpu","2025-05-11T23:26:11"]