[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-kijai--ComfyUI-DynamiCrafterWrapper":3,"tool-kijai--ComfyUI-DynamiCrafterWrapper":64},[4,17,26,35,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":10,"last_commit_at":32,"category_tags":33,"status":16},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[13,14,15,34],"视频",{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,43,34,44,15,45,46,13,47],"数据工具","插件","其他","语言模型","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,46,45],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[46,14,13,45],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":78,"owner_location":79,"owner_email":78,"owner_twitter":80,"owner_website":78,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":10,"env_os":91,"env_gpu":92,"env_ram":93,"env_deps":94,"category_tags":102,"github_topics":78,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":103,"updated_at":104,"faqs":105,"releases":135},4202,"kijai\u002FComfyUI-DynamiCrafterWrapper","ComfyUI-DynamiCrafterWrapper","Wrapper to use DynamiCrafter models in ComfyUI","ComfyUI-DynamiCrafterWrapper 是一款专为 ComfyUI 设计的扩展节点，旨在让用户能够直接在可视化工作流中调用强大的 DynamiCrafter 和 ToonCrafter 模型。它的核心功能是将静态图片转化为动态视频，或生成流畅的视频插帧动画，特别擅长处理开放域图像的动画化任务。\n\n这一工具主要解决了动态生成模型在本地部署难、显存占用高以及与其他 AI 工作流整合复杂的问题。通过深度重构，它显著优化了内存管理，使得在 10GB 左右显存的设备上也能运行 512x320 分辨率的生成任务，并支持 FP8 量化和 XFormers 加速以进一步降低资源门槛。此外，它还提供了专门的 ToonCrafter 节点，为卡通风格视频生成提供了高质量支持。\n\n适合希望将图像动画化纳入现有自动化流程的 AI 创作者、设计师及技术爱好者使用。无论是制作循环动画短片，还是进行视频帧率提升，用户都能通过拖拽节点轻松构建复杂的工作流，无需编写代码即可享受前沿视频扩散技术带来的创作自由。","## DynamiCrafter wrapper nodes for ComfyUI\n\n## Update2: Refactor\n\nChanged lots of things to better integrate this to ComfyUI, you can (and have to) use clip_vision and clip models, but memory usage is much better and I was able to do 512x320 under 10GB VRAM.\nNew example workflows are included, all old workflows will have to be updated.\n\n## Update: ToonCrafter\nInitial ToonCrafter support with it's own node. \n\nVRAM required for 512x320 seems to be slightly under 15GB for sampling, and peaks to ~17GB at decoding. Dropping the resolution a bit can reduce the memory use a lot.\n\nDecoding is the most memory hungry operation in all this, and currently REQUIRES XFORMERS for full quality results, however it is possible to use the standard Comfy VAE decoder for bit less quality but far less memory used.\nThe ToonCrafter model can also be used with the old Dynamicrafter I2V -node, quality then suffers a lot more, memory usage is halved, fitting under 8GB at best.\n\nFp8 option can also further reduce memory use by 1-2GB.\n\nhttps:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-DynamiCrafterWrapper\u002Fassets\u002F40791699\u002F96bf0902-40e6-42ad-beb9-a092f26c0458\n\n# Installing\nEither manager and install from git, or clone this repo to custom_nodes and run:\n\n`pip install -r requirements.txt`\n\nor if you use portable (run this in ComfyUI_windows_portable -folder):\n\n`python_embeded\\python.exe -m pip install -r ComfyUI\\custom_nodes\\ComfyUI-DynamiCrafterWrapper\\requirements.txt`\n\nCurrently even if this can run without xformers, the memory usage is huge. Recommended to use xformers if possible:\n\n`pip install xformers --no-deps`\n\nor with portable:\n\n`python_embeded\\python.exe -m pip install xformers --no-deps`\n\nUPDATE:\nConverted the models to bf16 and .safetensors format here:\nhttps:\u002F\u002Fhuggingface.co\u002FKijai\u002FDynamiCrafter_pruned\u002Ftree\u002Fmain\n\nModels go to `ComfyUI\u002Fmodels\u002Fcheckpoints` (can also be in subfolder, up to you)\n\nIf you want to use the original models, they are available here, they do need to be renamed to be used with the node:\nName this: `dynamicrafter_1024_v1.ckpt`\nhttps:\u002F\u002Fhuggingface.co\u002FDoubiiu\u002FDynamiCrafter_1024\n\nInterpolation model should be named: `dynamicrafter_512_interp_v1.ckpt`\nhttps:\u002F\u002Fhuggingface.co\u002FDoubiiu\u002FDynamiCrafter_512_Interp\u002F\n\nWith fp16 1024x576 uses bit under 10GB VRAM, and interpolation at 512p can be done with 8GB\n\nLooping example:\n\nhttps:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-DynamiCrafterWrapper\u002Fassets\u002F40791699\u002Fd1a83fac-d654-487f-a02e-be00509d38d5\n\n\n\nInterpolation example:\n\n\nhttps:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-DynamiCrafterWrapper\u002Fassets\u002F40791699\u002F96251573-4b15-4d51-becd-daf8a1e5eab5\n\n\nhttps:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-DynamiCrafterWrapper\u002Fassets\u002F40791699\u002F156aeb21-4936-4e9a-a9b4-1767a8f6bbee\n\n\n\n\n\n\n# ORIGINAL REPO:\nhttps:\u002F\u002Fgithub.com\u002FDoubiiu\u002FDynamiCrafter\n\n## ___***DynamiCrafter: Animating Open-domain Images with Video Diffusion Priors***___\n\u003C!-- ![](.\u002Fassets\u002Flogo_long.png#gh-light-mode-only){: width=\"50%\"} -->\n\u003C!-- ![](.\u002Fassets\u002Flogo_long_dark.png#gh-dark-mode-only=100x20) -->\n\u003Cdiv align=\"center\">\n\u003Cimg src='assets\u002Flogo_long.png' style=\"height:100px\">\u003C\u002Fimg>\n\n\n\n\n \u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12190'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2310.12190-b31b1b.svg'>\u003C\u002Fa> &nbsp;\n \u003Ca href='https:\u002F\u002Fdoubiiu.github.io\u002Fprojects\u002FDynamiCrafter\u002F'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-Page-Green'>\u003C\u002Fa> &nbsp;\n\u003Ca href='https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FDoubiiu\u002FDynamiCrafter'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Demo-blue'>\u003C\u002Fa> &nbsp;\n\u003Ca href='https:\u002F\u002Fyoutu.be\u002F0NfmIsNAg-g'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYoutube-Video-b31b1b.svg'>\u003C\u002Fa>\u003Cbr>\n[![Open in OpenXLab](https:\u002F\u002Fcdn-static.openxlab.org.cn\u002Fapp-center\u002Fopenxlab_app.svg)](https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002FJinboXING\u002FDynamiCrafter)&nbsp;&nbsp;\n\u003Ca href='https:\u002F\u002Freplicate.com\u002Fcamenduru\u002Fdynami-crafter-576x1024'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Freplicate-Demo-blue'>\u003C\u002Fa>&nbsp;&nbsp;\n\u003Ca href='https:\u002F\u002Fgithub.com\u002Fcamenduru\u002FDynamiCrafter-colab'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FColab-Demo-Green'>\u003C\u002Fa>&nbsp;\u003Ca href='https:\u002F\u002Fhuggingface.co\u002Fpapers\u002F2310.12190'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Page-blue'>\u003C\u002Fa>\n\n_**[Jinbo Xing](https:\u002F\u002Fdoubiiu.github.io\u002F), [Menghan Xia*](https:\u002F\u002Fmenghanxia.github.io), [Yong Zhang](https:\u002F\u002Fyzhang2016.github.io), [Haoxin Chen](), [Wangbo Yu](), \u003Cbr>[Hanyuan Liu](https:\u002F\u002Fgithub.com\u002Fhyliu), [Xintao Wang](https:\u002F\u002Fxinntao.github.io\u002F), [Tien-Tsin Wong*](https:\u002F\u002Fwww.cse.cuhk.edu.hk\u002F~ttwong\u002Fmyself.html), [Ying Shan](https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=en&user=4oXBp9UAAAAJ&view_op=list_works&sortby=pubdate)**_\n\u003Cbr>\u003Cbr>\n(* corresponding authors)\n\nFrom CUHK and Tencent AI Lab.\n\n\u003C\u002Fdiv>\n \n## 🔆 Introduction\n🔥🔥 Generative frame interpolation \u002F looping video generation model weights (320x512) have been released!\n\n🔥 New Update Rolls Out for DynamiCrafter! Better Dynamic, Higher Resolution, and Stronger Coherence! \u003Cbr>\n🤗 DynamiCrafter can animate open-domain still images based on \u003Cstrong>text prompt\u003C\u002Fstrong> by leveraging the pre-trained video diffusion priors. Please check our project page and paper for more information. \u003Cbr>\n😀 We will continue to improve the model's performance.\n\n👀 Seeking comparisons with [Stable Video Diffusion](https:\u002F\u002Fstability.ai\u002Fnews\u002Fstable-video-diffusion-open-ai-video-model) and [PikaLabs](https:\u002F\u002Fpika.art\u002F)? Click the image below.\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-DynamiCrafterWrapper_readme_a9ae50f8613e.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=0NfmIsNAg-g)\n\n\n### 1.1. Showcases (576x1024)\n\u003Ctable class=\"center\">\n  \u003C!-- \u003Ctr>\n    \u003Ctd colspan=\"1\">\"fireworks display\"\u003C\u002Ftd>\n    \u003Ctd colspan=\"1\">\"a robot is walking through a destroyed city\"\u003C\u002Ftd>\n  \u003C\u002Ftr> -->\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Ffirework03.gif width=\"340\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Frobot01.gif width=\"340\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\n  \u003C!-- \u003Ctr>\n    \u003Ctd colspan=\"1\">\"riding a bike under a bridge\"\u003C\u002Ftd>\n    \u003Ctd colspan=\"1\">\"\"\u003C\u002Ftd>\n  \u003C\u002Ftr> -->\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fbike_chineseink.gif width=\"340\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fgirl07.gif width=\"340\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\n### 1.2. Showcases (320x512)\n\u003Ctable class=\"center\">\n  \u003C!-- \u003Ctr>\n    \u003Ctd colspan=\"1\">\"fireworks display\"\u003C\u002Ftd>\n    \u003Ctd colspan=\"1\">\"a robot is walking through a destroyed city\"\u003C\u002Ftd>\n  \u003C\u002Ftr> -->\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fbloom2.gif width=\"340\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Ftrain_anime02.gif width=\"340\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\n  \u003C!-- \u003Ctr>\n    \u003Ctd colspan=\"1\">\"riding a bike under a bridge\"\u003C\u002Ftd>\n    \u003Ctd colspan=\"1\">\"\"\u003C\u002Ftd>\n  \u003C\u002Ftr> -->\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fpour_honey.gif width=\"340\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Flighthouse.gif width=\"340\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\n\n\n### 1.3. Showcases (256x256)\n\n\u003Ctable class=\"center\">\n  \u003Ctr>\n    \u003Ctd colspan=\"2\">\"bear playing guitar happily, snowing\"\u003C\u002Ftd>\n    \u003Ctd colspan=\"2\">\"boy walking on the street\"\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fguitar0.jpeg_00.png width=\"170\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fguitar0.gif width=\"170\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fwalk0.png_00.png width=\"170\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fwalk0.gif width=\"170\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\n\n  \u003C!-- \u003Ctr>\n    \u003Ctd colspan=\"2\">\"two people dancing\"\u003C\u002Ftd>\n    \u003Ctd colspan=\"2\">\"girl talking and blinking\"\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fdance1.jpeg_00.png width=\"170\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fdance1.gif width=\"170\">\n  \u003C\u002Ftd>\n\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fgirl3.jpeg_00.png width=\"170\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fgirl3.gif width=\"170\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr> -->\n\n\n  \u003C!-- \u003Ctr>\n    \u003Ctd colspan=\"2\">\"zoom-in, a landscape, springtime\"\u003C\u002Ftd>\n    \u003Ctd colspan=\"2\">\"A blonde woman rides on top of a moving \u003Cbr>washing machine into the sunset.\"\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002FUpscaled_Aime_Tribolet_springtime_landscape_golden_hour_morning_pale_yel_e6946f8d-37c1-4ce8-bf62-6ba90d23bd93.mp4_00.png width=\"170\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002FUpscaled_Aime_Tribolet_springtime_landscape_golden_hour_morning_pale_yel_e6946f8d-37c1-4ce8-bf62-6ba90d23bd93.gif width=\"170\">\n  \u003C\u002Ftd>\n\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002FUpscaled_Alex__State_Blonde_woman_riding_on_top_of_a_moving_washing_mach_c31acaa3-dd30-459f-a109-2d2eb4c00fe2.mp4_00.png width=\"170\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002FUpscaled_Alex__State_Blonde_woman_riding_on_top_of_a_moving_washing_mach_c31acaa3-dd30-459f-a109-2d2eb4c00fe2.gif width=\"170\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\n  \u003Ctr>\n    \u003Ctd colspan=\"2\">\"explode colorful smoke coming out\"\u003C\u002Ftd>\n    \u003Ctd colspan=\"2\">\"a bird on the tree branch\"\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fexplode0.jpeg_00.png width=\"170\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fexplode0.gif width=\"170\">\n  \u003C\u002Ftd>\n\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fbird000.jpeg width=\"170\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fbird000.gif width=\"170\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr> -->\n\u003C\u002Ftable >\n\n### 2. Applications\n#### 2.1 Storytelling video generation (see project page for more details)\n\u003Ctable class=\"center\">\n    \u003C!-- \u003Ctr style=\"font-weight: bolder;text-align:center;\">\n        \u003Ctd>Input\u003C\u002Ftd>\n        \u003Ctd>Output\u003C\u002Ftd>\n        \u003Ctd>Input\u003C\u002Ftd>\n        \u003Ctd>Output\u003C\u002Ftd>\n    \u003C\u002Ftr> -->\n  \u003Ctr>\n    \u003Ctd colspan=\"4\">\u003Cimg src=assets\u002Fapplication\u002Fstorytellingvideo.gif width=\"250\">\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable >\n\n#### 2.2 Generative frame interpolation\n\n\u003Ctable class=\"center\">\n    \u003Ctr style=\"font-weight: bolder;text-align:center;\">\n        \u003Ctd>Input starting frame\u003C\u002Ftd>\n        \u003Ctd>Input ending frame\u003C\u002Ftd>\n        \u003Ctd>Generated video\u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002FgkxX0kb8mE8_input_start.png width=\"250\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002FgkxX0kb8mE8_input_end.png width=\"250\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002FgkxX0kb8mE8.gif width=\"250\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\n\n   \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002Fsmile_start.png width=\"250\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002Fsmile_end.png width=\"250\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002Fsmile.gif width=\"250\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002Fstone01_start.png width=\"250\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002Fstone01_end.png width=\"250\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002Fstone01.gif width=\"250\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr> \n\u003C\u002Ftable >\n\n#### 2.3 Looping video generation\n\u003Ctable class=\"center\">\n\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002F60.gif width=\"300\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002F35.gif width=\"300\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002F36.gif width=\"300\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003C!-- \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002F05.gif width=\"300\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002F25.gif width=\"300\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002F34.gif width=\"300\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr> -->\n\u003C\u002Ftable >\n\n\n\n\n\n## 📝 Changelog\n- __[2024.03.14]__: 🔥🔥 Release generative frame interpolation and looping video models (320x512).\n- __[2024.02.05]__: Release high-resolution models (320x512 & 576x1024).\n- __[2023.12.02]__: Launch the local Gradio demo.\n- __[2023.11.29]__: Release the main model at a resolution of 256x256.\n- __[2023.11.27]__: Launch the project page and update the arXiv preprint.\n\u003Cbr>\n\n\n## 🧰 Models\n\n|Model|Resolution|GPU Mem. & Inference Time (A100, ddim 50steps)|Checkpoint|\n|:---------|:---------|:--------|:--------|\n|DynamiCrafter1024|576x1024|18.3GB & 75s (`perframe_ae=True`)|[Hugging Face](https:\u002F\u002Fhuggingface.co\u002FDoubiiu\u002FDynamiCrafter_1024\u002Fblob\u002Fmain\u002Fmodel.ckpt)|\n|DynamiCrafter512|320x512|12.8GB & 20s (`perframe_ae=True`)|[Hugging Face](https:\u002F\u002Fhuggingface.co\u002FDoubiiu\u002FDynamiCrafter_512\u002Fblob\u002Fmain\u002Fmodel.ckpt)|\n|DynamiCrafter256|256x256|11.9GB  & 10s (`perframe_ae=False`)|[Hugging Face](https:\u002F\u002Fhuggingface.co\u002FDoubiiu\u002FDynamiCrafter\u002Fblob\u002Fmain\u002Fmodel.ckpt)|\n|DynamiCrafter512_interp|320x512|12.8GB & 20s (`perframe_ae=True`)|[Hugging Face](https:\u002F\u002Fhuggingface.co\u002FDoubiiu\u002FDynamiCrafter_512_Interp\u002Fblob\u002Fmain\u002Fmodel.ckpt)|\n\n\nCurrently, our DynamiCrafter can support generating videos of up to 16 frames with a resolution of 576x1024. The inference time can be reduced by using fewer DDIM steps.\n\nGPU memory consumed on RTX 4090 reported by @noguchis in [Twitter](https:\u002F\u002Fx.com\u002Fnoguchis\u002Fstatus\u002F1754488826016432341?s=20): 18.3GB (576x1024), 12.8GB (320x512), 11.9GB (256x256).\n\u003C!-- It takes approximately 10 seconds and requires a peak GPU memory of 20 GB to animate an image using a single NVIDIA A100 (40G) GPU. -->\n\n## ⚙️ Setup\n\n### Install Environment via Anaconda (Recommended)\n```bash\nconda create -n dynamicrafter python=3.8.5\nconda activate dynamicrafter\npip install -r requirements.txt\n```\n\n\n## 💫 Inference\n### 1. Command line\n### Image-to-Video Generation\n1) Download pretrained models via Hugging Face, and put the `model.ckpt` with the required resolution in `checkpoints\u002Fdynamicrafter_[1024|512|256]_v1\u002Fmodel.ckpt`.\n2) Run the commands based on your devices and needs in terminal.\n```bash\n  # Run on a single GPU:\n  # Select the model based on required resolutions: i.e., 1024|512|320:\n  sh scripts\u002Frun.sh 1024\n  # Run on multiple GPUs for parallel inference:\n  sh scripts\u002Frun_mp.sh 1024\n```\n\n### Generative Frame Interpolation \u002F Looping Video Generation\nDownload pretrained model DynamiCrafter512_interp and put the `model.ckpt` in `checkpoints\u002Fdynamicrafter_512_interp_v1\u002Fmodel.ckpt`.\n```bash\n  sh scripts\u002Frun_application.sh interp # Generate frame interpolation\n  sh scripts\u002Frun_application.sh loop   # Looping video generation\n```\n\n\n### 2. Local Gradio demo\n### Image-to-Video Generation\n1. Download the pretrained models and put them in the corresponding directory according to the previous guidelines.\n2. Input the following commands in terminal (choose a model based on the required resolution: 1024, 512 or 256).\n```bash\n  python gradio_app.py --res 1024\n```\n\n### Generative Frame Interpolation \u002F Looping Video Generation\nDownload the pretrained model and put it in the corresponding directory according to the previous guidelines.\n```bash\n  python gradio_app_interp_and_loop.py \n```\n\nCommunity Extensions for Image-to-Video: [ComfyUI](https:\u002F\u002Fgithub.com\u002Fchaojie\u002FComfyUI-DynamiCrafter) (Thanks to [chaojie](https:\u002F\u002Fgithub.com\u002Fchaojie)).\n\n\n## 👨‍👩‍👧‍👦 Crafter Family\n[VideoCrafter1](https:\u002F\u002Fgithub.com\u002FAILab-CVC\u002FVideoCrafter): Framework for high-quality video generation.\n\n[ScaleCrafter](https:\u002F\u002Fgithub.com\u002FYingqingHe\u002FScaleCrafter): Tuning-free method for high-resolution image\u002Fvideo generation.\n\n[TaleCrafter](https:\u002F\u002Fgithub.com\u002FAILab-CVC\u002FTaleCrafter): An interactive story visualization tool that supports multiple characters.  \n\n[LongerCrafter](https:\u002F\u002Fgithub.com\u002Farthur-qiu\u002FLongerCrafter): Tuning-free method for longer high-quality video generation.  \n\n[MakeYourVideo, might be a Crafter:)](https:\u002F\u002Fdoubiiu.github.io\u002Fprojects\u002FMake-Your-Video\u002F): Video generation\u002Fediting with textual and structural guidance.\n\n[StyleCrafter](https:\u002F\u002Fgongyeliu.github.io\u002FStyleCrafter.github.io\u002F): Stylized-image-guided text-to-image and text-to-video generation.\n## 😉 Citation\n```bib\n@article{xing2023dynamicrafter,\n  title={DynamiCrafter: Animating Open-domain Images with Video Diffusion Priors},\n  author={Xing, Jinbo and Xia, Menghan and Zhang, Yong and Chen, Haoxin and Yu, Wangbo and Liu, Hanyuan and Wang, Xintao and Wong, Tien-Tsin and Shan, Ying},\n  journal={arXiv preprint arXiv:2310.12190},\n  year={2023}\n}\n```\n\n## 🙏 Acknowledgements\nWe would like to thank [AK(@_akhaliq)](https:\u002F\u002Ftwitter.com\u002F_akhaliq?lang=en) for the help of setting up hugging face online demo, and [camenduru](https:\u002F\u002Ftwitter.com\u002Fcamenduru) for providing the replicate & colab online demo.\n\n## 📢 Disclaimer\nWe develop this repository for RESEARCH purposes, so it can only be used for personal\u002Fresearch\u002Fnon-commercial purposes.\n****\n","## ComfyUI 的 DynamiCrafter 封装节点\n\n## 更新2：重构\n\n为了更好地与 ComfyUI 集成，我修改了许多内容。现在你可以（并且必须）使用 clip_vision 和 clip 模型，但内存占用大幅降低，在 512x320 分辨率下仅需不到 10GB 显存。新增了示例工作流，所有旧的工作流都需要更新。\n\n## 更新：ToonCrafter\n首次支持 ToonCrafter，并提供了专用节点。\n\n对于 512x320 分辨率的采样，显存需求略低于 15GB，解码时峰值会达到约 17GB。适当降低分辨率可以显著减少内存占用。\n\n在整个流程中，解码是最消耗显存的操作。目前，若要获得最佳质量，必须使用 XFORMERS；不过，也可以选择使用标准的 Comfy VAE 解码器，虽然画质会稍逊一些，但显存占用则大大降低。\n\nToonCrafter 模型同样可以与旧版 Dynamicrafter I2V 节点配合使用，不过画质会明显下降，而显存占用则减半，最好情况下可控制在 8GB 以内。\n\n此外，启用 fp8 精度选项还能进一步减少 1-2GB 的显存占用。\n\nhttps:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-DynamiCrafterWrapper\u002Fassets\u002F40791699\u002F96bf0902-40e6-42ad-beb9-a092f26c0458\n\n# 安装\n可以通过管理器从 Git 安装，或者将此仓库克隆到 custom_nodes 目录下并运行：\n\n`pip install -r requirements.txt`\n\n如果你使用的是便携版，请在 ComfyUI_windows_portable 文件夹内执行：\n\n`python_embeded\\python.exe -m pip install -r ComfyUI\\custom_nodes\\ComfyUI-DynamiCrafterWrapper\\requirements.txt`\n\n目前即使不使用 xformers，内存占用仍然很高。建议尽可能使用 xformers：\n\n`pip install xformers --no-deps`\n\n便携版则执行：\n\n`python_embeded\\python.exe -m pip install xformers --no-deps`\n\n更新：\n已将模型转换为 bf16 和 .safetensors 格式，地址如下：\nhttps:\u002F\u002Fhuggingface.co\u002FKijai\u002FDynamiCrafter_pruned\u002Ftree\u002Fmain\n\n请将模型放置于 `ComfyUI\u002Fmodels\u002Fcheckpoints` 目录下（也可放在子文件夹中，由你决定）。\n\n如果你想使用原始模型，它们也在此处提供，但需要重命名后才能与节点配合使用：\n\n命名为：`dynamicrafter_1024_v1.ckpt`\nhttps:\u002F\u002Fhuggingface.co\u002FDoubiiu\u002FDynamiCrafter_1024\n\n插值模型应命名为：`dynamicrafter_512_interp_v1.ckpt`\nhttps:\u002F\u002Fhuggingface.co\u002FDoubiiu\u002FDynamiCrafter_512_Interp\u002F\n\n采用 fp16 精度时，1024x576 分辨率的显存占用略低于 10GB，而 512p 分辨率下的插值操作则只需 8GB 显存即可完成。\n\n循环示例：\n\nhttps:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-DynamiCrafterWrapper\u002Fassets\u002F40791699\u002Fd1a83fac-d654-487f-a02e-be00509d38d5\n\n\n\n插值示例：\n\n\nhttps:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-DynamiCrafterWrapper\u002Fassets\u002F40791699\u002F96251573-4b15-4d51-becd-daf8a1e5eab5\n\n\nhttps:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-DynamiCrafterWrapper\u002Fassets\u002F40791699\u002F156aeb21-4936-4e9a-a9b4-1767a8f6bbee\n\n\n\n\n\n\n# 原始仓库：\nhttps:\u002F\u002Fgithub.com\u002FDoubiiu\u002FDynamiCrafter\n\n## ___***DynamiCrafter：基于视频扩散先验的开放域图像动画生成***___\n\u003C!-- ![](.\u002Fassets\u002Flogo_long.png#gh-light-mode-only){: width=\"50%\"} -->\n\u003C!-- ![](.\u002Fassets\u002Flogo_long_dark.png#gh-dark-mode-only=100x20) -->\n\u003Cdiv align=\"center\">\n\u003Cimg src='assets\u002Flogo_long.png' style=\"height:100px\">\u003C\u002Fimg>\n\n\n\n\n \u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12190'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2310.12190-b31b1b.svg'>\u003C\u002Fa> &nbsp;\n \u003Ca href='https:\u002F\u002Fdoubiiu.github.io\u002Fprojects\u002FDynamiCrafter\u002F'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-Page-Green'>\u003C\u002Fa> &nbsp;\n\u003Ca href='https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FDoubiiu\u002FDynamiCrafter'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Demo-blue'>\u003C\u002Fa> &nbsp;\n\u003Ca href='https:\u002F\u002Fyoutu.be\u002F0NfmIsNAg-g'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYoutube-Video-b31b1b.svg'>\u003C\u002Fa>\u003Cbr>\n[![在 OpenXLab 中打开](https:\u002F\u002Fcdn-static.openxlab.org.cn\u002Fapp-center\u002Fopenxlab_app.svg)](https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002FJinboXING\u002FDynamiCrafter)&nbsp;&nbsp;\n\u003Ca href='https:\u002F\u002Freplicate.com\u002Fcamenduru\u002Fdynami-crafter-576x1024'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Freplicate-Demo-blue'>\u003C\u002Fa>&nbsp;&nbsp;\n\u003Ca href='https:\u002F\u002Fgithub.com\u002Fcamenduru\u002FDynamiCrafter-colab'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FColab-Demo-Green'>\u003C\u002Fa>&nbsp;\u003Ca href='https:\u002F\u002Fhuggingface.co\u002Fpapers\u002F2310.12190'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Page-blue'>\u003C\u002Fa>\n\n_**[Jinbo Xing](https:\u002F\u002Fdoubiiu.github.io\u002F), [Menghan Xia*](https:\u002F\u002Fmenghanxia.github.io), [Yong Zhang](https:\u002F\u002Fyzhang2016.github.io), [Haoxin Chen](), [Wangbo Yu](), \u003Cbr>[Hanyuan Liu](https:\u002F\u002Fgithub.com\u002Fhyliu), [Xintao Wang](https:\u002F\u002Fxinntao.github.io\u002F), [Tien-Tsin Wong*](https:\u002F\u002Fwww.cse.cuhk.edu.hk\u002F~ttwong\u002Fmyself.html), [Ying Shan](https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=en&user=4oXBp9UAAAAJ&view_op=list_works&sortby=pubdate)**_\n\u003Cbr>\u003Cbr>\n(* 通讯作者)\n\n来自香港中文大学和腾讯 AI 实验室。\n\n\u003C\u002Fdiv>\n \n## 🔆 引言\n🔥🔥 已发布生成帧插值\u002F循环视频模型权重（320x512）！\n\n🔥 DynamiCrafter 新版本上线！动态效果更佳、分辨率更高、连贯性更强！\u003Cbr>\n🤗 DynamiCrafter 可以基于预先训练好的视频扩散先验，通过\u003Cstrong>文本提示\u003C\u002Fstrong>将开放域静态图像转化为动画。更多信息请访问我们的项目页面和论文。\u003Cbr>\n😀 我们将继续优化模型性能。\n\n👀 想要与 [Stable Video Diffusion](https:\u002F\u002Fstability.ai\u002Fnews\u002Fstable-video-diffusion-open-ai-video-model) 和 [PikaLabs](https:\u002F\u002Fpika.art\u002F) 进行对比吗？请点击下方图片。\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-DynamiCrafterWrapper_readme_a9ae50f8613e.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=0NfmIsNAg-g)\n\n\n### 1.1. 展示案例（576x1024）\n\u003Ctable class=\"center\">\n  \u003C!-- \u003Ctr>\n    \u003Ctd colspan=\"1\">\"烟花表演\"\u003C\u002Ftd>\n    \u003Ctd colspan=\"1\">\"一个机器人正在穿过一座被毁的城市\"\u003C\u002Ftd>\n  \u003C\u002Ftr> -->\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Ffirework03.gif width=\"340\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Frobot01.gif width=\"340\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\n  \u003C!-- \u003Ctr>\n    \u003Ctd colspan=\"1\">\"骑自行车穿过桥下\"\u003C\u002Ftd>\n    \u003Ctd colspan=\"1\">\"\"\u003C\u002Ftd>\n  \u003C\u002Ftr> -->\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fbike_chineseink.gif width=\"340\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fgirl07.gif width=\"340\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\n### 1.2. 展示案例（320x512）\n\u003Ctable class=\"center\">\n  \u003C!-- \u003Ctr>\n    \u003Ctd colspan=\"1\">\"烟花表演\"\u003C\u002Ftd>\n    \u003Ctd colspan=\"1\">\"一个机器人正在穿过一座被毁的城市\"\u003C\u002Ftd>\n  \u003C\u002Ftr> -->\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fbloom2.gif width=\"340\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Ftrain_anime02.gif width=\"340\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\n  \u003C!-- \u003Ctr>\n    \u003Ctd colspan=\"1\">\"骑自行车穿过桥下\"\u003C\u002Ftd>\n    \u003Ctd colspan=\"1\">\"\"\u003C\u002Ftd>\n  \u003C\u002Ftr> -->\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fpour_honey.gif width=\"340\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Flighthouse.gif width=\"340\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n### 1.3. 展示案例 (256x256)\n\n\u003Ctable class=\"center\">\n  \u003Ctr>\n    \u003Ctd colspan=\"2\">“熊快乐地弹吉他，下着雪”\u003C\u002Ftd>\n    \u003Ctd colspan=\"2\">“男孩在街上行走”\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fguitar0.jpeg_00.png width=\"170\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fguitar0.gif width=\"170\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fwalk0.png_00.png width=\"170\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fwalk0.gif width=\"170\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\n\n  \u003C!-- \u003Ctr>\n    \u003Ctd colspan=\"2\">\"两个人跳舞\"\u003C\u002Ftd>\n    \u003Ctd colspan=\"2\">\"女孩边说话边眨眼\"\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fdance1.jpeg_00.png width=\"170\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fdance1.gif width=\"170\">\n  \u003C\u002Ftd>\n\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fgirl3.jpeg_00.png width=\"170\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fgirl3.gif width=\"170\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr> -->\n\n\n  \u003C!-- \u003Ctr>\n    \u003Ctd colspan=\"2\">\"拉近镜头，一幅风景画，春天\"\u003C\u002Ftd>\n    \u003Ctd colspan=\"2\">\"一位金发女子骑在一台移动的洗衣机上，驶向夕阳。\"\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002FUpscaled_Aime_Tribolet_springtime_landscape_golden_hour_morning_pale_yel_e6946f8d-37c1-4ce8-bf62-6ba90d23bd93.mp4_00.png width=\"170\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002FUpscaled_Aime_Tribolet_springtime_landscape_golden_hour_morning_pale_yel_e6946f8d-37c1-4ce8-bf62-6ba90d23bd93.gif width=\"170\">\n  \u003C\u002Ftd>\n\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002FUpscaled_Alex__State_Blonde_woman_riding_on_top_of_a_moving_washing_mach_c31acaa3-dd30-459f-a109-2d2eb4c00fe2.mp4_00.png width=\"170\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002FUpscaled_Alex__State_Blonde_woman_riding_on_top_of_a_moving_washing_mach_c31acaa3-dd30-459f-a109-2d2eb4c00fe2.gif width=\"170\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\n  \u003Ctr>\n    \u003Ctd colspan=\"2\">\"五彩烟雾喷涌而出\"\u003C\u002Ftd>\n    \u003Ctd colspan=\"2\">\"树上的小鸟\"\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fexplode0.jpeg_00.png width=\"170\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fexplode0.gif width=\"170\">\n  \u003C\u002Ftd>\n\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fbird000.jpeg width=\"170\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fshowcase\u002Fbird000.gif width=\"170\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr> -->\n\u003C\u002Ftable >\n\n### 2. 应用\n#### 2.1 故事叙述视频生成（更多详情请参见项目页面）\n\u003Ctable class=\"center\">\n    \u003C!-- \u003Ctr style=\"font-weight: bolder;text-align:center;\">\n        \u003Ctd>输入\u003C\u002Ftd>\n        \u003Ctd>输出\u003C\u002Ftd>\n        \u003Ctd>输入\u003C\u002Ftd>\n        \u003Ctd>输出\u003C\u002Ftd>\n    \u003C\u002Ftr> -->\n  \u003Ctr>\n    \u003Ctd colspan=\"4\">\u003Cimg src=assets\u002Fapplication\u002Fstorytellingvideo.gif width=\"250\">\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable >\n\n#### 2.2 生成式帧插值\n\n\u003Ctable class=\"center\">\n    \u003Ctr style=\"font-weight: bolder;text-align:center;\">\n        \u003Ctd>起始帧输入\u003C\u002Ftd>\n        \u003Ctd>结束帧输入\u003C\u002Ftd>\n        \u003Ctd>生成的视频\u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002FgkxX0kb8mE8_input_start.png width=\"250\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002FgkxX0kb8mE8_input_end.png width=\"250\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002FgkxX0kb8mE8.gif width=\"250\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\n\n   \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002Fsmile_start.png width=\"250\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002Fsmile_end.png width=\"250\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002Fsmile.gif width=\"250\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002Fstone01_start.png width=\"250\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002Fstone01_end.png width=\"250\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002Fstone01.gif width=\"250\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr> \n\u003C\u002Ftable >\n\n#### 2.3 循环视频生成\n\u003Ctable class=\"center\">\n\n  \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002F60.gif width=\"300\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002F35.gif width=\"300\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002F36.gif width=\"300\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003C!-- \u003Ctr>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002F05.gif width=\"300\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002F25.gif width=\"300\">\n  \u003C\u002Ftd>\n  \u003Ctd>\n    \u003Cimg src=assets\u002Fapplication\u002F34.gif width=\"300\">\n  \u003C\u002Ftd>\n  \u003C\u002Ftr> -->\n\u003C\u002Ftable >\n\n\n\n\n\n## 📝 更改记录\n- __[2024.03.14]__: 🔥🔥 发布生成式帧插值和循环视频模型（320x512）。\n- __[2024.02.05]__: 发布高分辨率模型（320x512 和 576x1024）。\n- __[2023.12.02]__: 启动本地 Gradio 演示。\n- __[2023.11.29]__: 发布主模型，分辨率为 256x256。\n- __[2023.11.27]__: 启动项目页面并更新 arXiv 预印本。\n\u003Cbr>\n\n\n## 🧰 模型\n\n|模型|分辨率|GPU 内存与推理时间（A100，ddim 50步）|检查点|\n|:---------|:---------|:--------|:--------|\n|DynamiCrafter1024|576x1024|18.3GB 与 75秒（`perframe_ae=True`）|[Hugging Face](https:\u002F\u002Fhuggingface.co\u002FDoubiiu\u002FDynamiCrafter_1024\u002Fblob\u002Fmain\u002Fmodel.ckpt)|\n|DynamiCrafter512|320x512|12.8GB 与 20秒（`perframe_ae=True`）|[Hugging Face](https:\u002F\u002Fhuggingface.co\u002FDoubiiu\u002FDynamiCrafter_512\u002Fblob\u002Fmain\u002Fmodel.ckpt)|\n|DynamiCrafter256|256x256|11.9GB 与 10秒（`perframe_ae=False`）|[Hugging Face](https:\u002F\u002Fhuggingface.co\u002FDoubiiu\u002FDynamiCrafter\u002Fblob\u002Fmain\u002Fmodel.ckpt)|\n|DynamiCrafter512_interp|320x512|12.8GB 与 20秒（`perframe_ae=True`）|[Hugging Face](https:\u002F\u002Fhuggingface.co\u002FDoubiiu\u002FDynamiCrafter_512_Interp\u002Fblob\u002Fmain\u002Fmodel.ckpt)|\n\n\n目前，我们的 DynamiCrafter 可以支持生成最高 16 帧、分辨率为 576x1024 的视频。通过减少 DDIM 步数，可以缩短推理时间。\n\n@noguchis 在 [Twitter](https:\u002F\u002Fx.com\u002Fnoguchis\u002Fstatus\u002F1754488826016432341?s=20) 上报告的 RTX 4090 上消耗的 GPU 内存：576x1024 为 18.3GB，320x512 为 12.8GB，256x256 为 11.9GB。\n\u003C!-- 使用单个 NVIDIA A100（40G）GPU 动画化一张图像大约需要 10 秒，并且需要峰值 GPU 内存 20 GB。 -->\n\n## ⚙️ 设置\n\n### 通过 Anaconda 安装环境（推荐）\n```bash\nconda create -n dynamicrafter python=3.8.5\nconda activate dynamicrafter\npip install -r requirements.txt\n```\n\n\n## 💫 推理\n### 1. 命令行\n### 图像转视频生成\n1) 通过 Hugging Face 下载预训练模型，并将所需分辨率的 `model.ckpt` 放入 `checkpoints\u002Fdynamicrafter_[1024|512|256]_v1\u002Fmodel.ckpt`。\n2) 根据您的设备和需求，在终端中运行以下命令。\n```bash\n  # 在单个 GPU 上运行：\n  # 根据所需分辨率选择模型：例如，1024|512|320：\n  sh scripts\u002Frun.sh 1024\n  # 在多个 GPU 上进行并行推理：\n  sh scripts\u002Frun_mp.sh 1024\n```\n\n### 生成式帧插值 \u002F 循环视频生成\n下载预训练模型 DynamiCrafter512_interp，并将 `model.ckpt` 放入 `checkpoints\u002Fdynamicrafter_512_interp_v1\u002Fmodel.ckpt`。\n```bash\n  sh scripts\u002Frun_application.sh interp # 生成帧插值\n  sh scripts\u002Frun_application.sh loop   # 循环视频生成\n```\n\n\n### 2. 本地 Gradio 演示\n\n### 图像转视频生成\n1. 按照之前的指南下载预训练模型，并将其放置到相应的目录中。\n2. 在终端中输入以下命令（根据所需分辨率选择模型：1024、512 或 256）：\n```bash\n  python gradio_app.py --res 1024\n```\n\n### 生成式帧插值 \u002F 循环视频生成\n按照之前的指南下载预训练模型，并将其放置到相应的目录中。\n```bash\n  python gradio_app_interp_and_loop.py \n```\n\n图像转视频的社区扩展：[ComfyUI](https:\u002F\u002Fgithub.com\u002Fchaojie\u002FComfyUI-DynamiCrafter)（感谢 [chaojie](https:\u002F\u002Fgithub.com\u002Fchaojie)）。\n\n\n## 👨‍👩‍👧‍👦 Crafter 家族\n[VideoCrafter1](https:\u002F\u002Fgithub.com\u002FAILab-CVC\u002FVideoCrafter)：用于高质量视频生成的框架。\n\n[ScaleCrafter](https:\u002F\u002Fgithub.com\u002FYingqingHe\u002FScaleCrafter)：无需调优的高分辨率图像\u002F视频生成方法。\n\n[TaleCrafter](https:\u002F\u002Fgithub.com\u002FAILab-CVC\u002FTaleCrafter)：支持多角色的交互式故事可视化工具。\n\n[LongerCrafter](https:\u002F\u002Fgithub.com\u002Farthur-qiu\u002FLongerCrafter)：无需调优的更长高质量视频生成方法。\n\n[MakeYourVideo，或许也可以算作一个 Crafter：)](https:\u002F\u002Fdoubiiu.github.io\u002Fprojects\u002FMake-Your-Video\u002F)：基于文本和结构化指导的视频生成\u002F编辑工具。\n\n[StyleCrafter](https:\u002F\u002Fgongyeliu.github.io\u002FStyleCrafter.github.io\u002F)：基于风格化图像引导的文生图及文生视频生成。\n## 😉 引用\n```bib\n@article{xing2023dynamicrafter,\n  title={DynamiCrafter: 使用视频扩散先验动画化开放域图像},\n  author={Xing, Jinbo and Xia, Menghan and Zhang, Yong and Chen, Haoxin and Yu, Wangbo and Liu, Hanyuan and Wang, Xintao and Wong, Tien-Tsin and Shan, Ying},\n  journal={arXiv 预印本 arXiv:2310.12190},\n  year={2023}\n}\n```\n\n## 🙏 致谢\n我们感谢 [AK(@_akhaliq)](https:\u002F\u002Ftwitter.com\u002F_akhaliq?lang=en) 在搭建 Hugging Face 在线演示方面的帮助，以及 [camenduru](https:\u002F\u002Ftwitter.com\u002Fcamenduru) 提供的 Replicate 和 Colab 在线演示。\n\n## 📢 免责声明\n我们开发此仓库仅用于科研目的，因此它只能用于个人、研究或非商业用途。\n****","# ComfyUI-DynamiCrafterWrapper 快速上手指南\n\nComfyUI-DynamiCrafterWrapper 是 ComfyUI 的一个自定义节点插件，用于集成 **DynamiCrafter** 和 **ToonCrafter** 模型。它支持将静态图片转化为动态视频（图生视频）、生成循环视频以及进行帧插值动画。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Windows \u002F Linux \u002F macOS\n- **显存 (VRAM)**:\n  - **推荐配置**: 12GB 及以上（可流畅运行 512x320 分辨率）。\n  - **最低配置**: 8GB（需降低分辨率或使用 FP8 量化模式，或仅使用旧版动态节点配合 ToonCrafter 模型）。\n  - **高分辨率 (576x1024)**: 建议 16GB+ 显存。\n- **ComfyUI 版本**: 建议使用最新版 ComfyUI。\n\n### 前置依赖\n- **Python**: 3.10 或更高版本。\n- **关键加速库**: 强烈建议安装 `xformers` 以降低显存占用并提升解码质量。\n  ```bash\n  pip install xformers --no-deps\n  ```\n  *(如果是 ComfyUI Portable 版本，请在 ComfyUI 根目录运行：`python_embeded\\python.exe -m pip install xformers --no-deps`)*\n\n---\n\n## 安装步骤\n\n### 方法一：通过 ComfyUI Manager 安装（推荐）\n1. 打开 ComfyUI，点击右侧菜单的 **Manager**。\n2. 选择 **Install Custom Nodes**。\n3. 搜索 `DynamiCrafter`。\n4. 找到 `ComfyUI-DynamiCrafterWrapper` 并点击 **Install**。\n5. 重启 ComfyUI。\n\n### 方法二：手动克隆安装\n1. 进入 ComfyUI 的 `custom_nodes` 目录：\n   ```bash\n   cd ComfyUI\u002Fcustom_nodes\n   ```\n2. 克隆仓库：\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-DynamiCrafterWrapper.git\n   ```\n3. 进入插件目录并安装依赖：\n   ```bash\n   cd ComfyUI-DynamiCrafterWrapper\n   pip install -r requirements.txt\n   ```\n   *(Portable 用户请使用：`..\\..\\python_embeded\\python.exe -m pip install -r requirements.txt`)*\n4. 重启 ComfyUI。\n\n---\n\n## 模型下载与配置\n\n插件本身不包含模型权重，需手动下载并放置到指定目录。\n\n### 1. 推荐模型（已转换格式，兼容性好）\n作者提供了转换为 `.safetensors` 和 `bf16` 格式的模型，推荐优先使用：\n- **下载地址**: [HuggingFace - Kijai\u002FDynamiCrafter_pruned](https:\u002F\u002Fhuggingface.co\u002FKijai\u002FDynamiCrafter_pruned\u002Ftree\u002Fmain)\n- **存放路径**: `ComfyUI\u002Fmodels\u002Fcheckpoints\u002F` (可放在子文件夹中)\n\n### 2. 原始模型（需重命名）\n如果使用官方原始模型，下载后必须重命名才能被节点识别：\n- **1024 版本**: 下载 `model.ckpt` 并重命名为 `dynamicrafter_1024_v1.ckpt`\n  - 来源: [Doubiiu\u002FDynamiCrafter_1024](https:\u002F\u002Fhuggingface.co\u002FDoubiiu\u002FDynamiCrafter_1024)\n- **插值版本**: 下载 `model.ckpt` 并重命名为 `dynamicrafter_512_interp_v1.ckpt`\n  - 来源: [Doubiiu\u002FDynamiCrafter_512_Interp](https:\u002F\u002Fhuggingface.co\u002FDoubiiu\u002FDynamiCrafter_512_Interp)\n\n---\n\n## 基本使用\n\n### 核心功能概述\n该插件主要提供两类节点：\n1. **DynamiCrafter I2V Node**: 用于标准的图生视频（输入一张图 + 提示词）。\n2. **ToonCrafter Node**: 专为动漫风格优化，支持更高质量的动画生成，也可用于帧插值。\n\n### 最简单的工作流示例（图生视频）\n\n1. **加载图像**: 使用 `Load Image` 节点上传你的静态图片。\n2. **添加主节点**: 双击搜索并添加 `DynamiCrafterI2V` (或 `ToonCrafter` 节点)。\n3. **连接参数**:\n   - 将图片连接到节点的 `image` 输入。\n   - 添加 `CLIP Vision Encode` 节点处理图像特征（新版必需）。\n   - 添加 `Checkpoint Loader Simple` 加载下载的 DynamiCrafter 模型。\n   - 添加 `Empty Latent Image` 设置分辨率（例如 512x320）。\n4. **设置提示词**: 在节点的 `prompt` 输入框填写运动描述（英文），例如：\"fireworks display\", \"a robot walking\"。\n5. **采样与解码**:\n   - 连接 `KSampler` 进行采样。\n   - 连接 `VAE Decode` (建议使用插件自带的解码器以获得最佳质量，若显存不足可改用 ComfyUI 标准 VAE 解码器)。\n6. **保存视频**: 连接 `Save Video` 或 `Preview Image` 节点查看结果。\n\n### 显存优化技巧\n- **降低分辨率**: 如果显存报错，尝试将分辨率从 512x320 降至更低。\n- **启用 FP8**: 在节点设置中开启 `fp8` 选项，可减少 1-2GB 显存占用。\n- **切换解码器**: 解码过程最消耗显存。若使用 `xformers` 仍爆显存，可在节点设置中选择使用标准 ComfyUI VAE 解码器（画质略降，但显存大幅降低）。\n- **ToonCrafter 模式**: 使用 ToonCrafter 模型配合旧的 Dynamicrafter I2V 节点，显存占用可减半（\u003C8GB），但画质会有所牺牲。\n\n> **提示**: 安装完成后，请查看插件包内的 `examples` 文件夹，里面包含了针对“循环视频”和“帧插值”的完整工作流 JSON 文件，直接拖入 ComfyUI 即可使用。","一位独立游戏开发者需要将静态的角色概念图转化为循环播放的待机动画，以用于游戏原型展示，但其本地显卡仅有 12GB 显存。\n\n### 没有 ComfyUI-DynamiCrafterWrapper 时\n- **环境部署割裂**：必须离开熟悉的 ComfyUI 界面，单独配置 DynamiCrafter 的原始代码库，导致工作流中断且难以与其他 AI 节点联动。\n- **显存资源爆满**：直接运行原始模型进行 512x320 分辨率采样时，显存占用极易突破 15GB，导致任务频繁因 OOM（内存溢出）而崩溃。\n- **画质与速度难兼得**：若不使用 Xformers 加速，解码过程不仅极其缓慢，而且无法获得全质量的视频输出，画面容易出现伪影。\n- **模型管理繁琐**：需要手动下载并重命名多个不同版本的 checkpoint 文件（如插值模型与生成模型），容易混淆且出错率高。\n\n### 使用 ComfyUI-DynamiCrafterWrapper 后\n- **原生无缝集成**：直接在 ComfyUI 中通过专用节点调用 DynamiCrafter 和 ToonCrafter 模型，可灵活串联 CLIP Vision 等组件，实现一站式工作流。\n- **显存优化显著**：经过重构的节点将 512x320 分辨率下的显存占用控制在 10GB 以内，配合 FP8 选项甚至可进一步节省 1-2GB，让中端显卡也能流畅运行。\n- **解码效率提升**：完美支持 Xformers 以实现高质量解码，同时也提供了标准 VAE 解码选项，允许用户在极低显存下牺牲少量画质换取成功生成。\n- **工作流标准化**：内置更新的示例工作流自动适配新架构，无需手动折腾模型文件名，即可轻松实现图像转视频或帧插值循环动画。\n\nComfyUI-DynamiCrafterWrapper 通过深度的显存优化和原生集成，让中低端显卡用户也能在统一的工作流中高效制作高质量的动态图像。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-DynamiCrafterWrapper_5fcd35ae.png","kijai","Jukka Seppänen","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fkijai_5a67a464.jpg",null,"Finland","kijaidesign","https:\u002F\u002Fgithub.com\u002Fkijai",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,681,35,"2026-02-21T17:52:22","NOASSERTION","Windows, Linux, macOS","必需 NVIDIA GPU。显存需求视分辨率和功能而定：基础动态生成 (512x320) 需 \u003C10GB；ToonCrafter 采样需 \u003C15GB，解码峰值约 17GB (可降分辨率或使用标准 VAE 解码器降低至 8GB 以下)；高分辨率 (1024x576) FP16 模式需 \u003C10GB。强烈建议安装 xformers 以优化显存使用和解码质量。","未说明",{"notes":95,"python":96,"dependencies":97},"1. 必须安装 xformers 以获得完整质量的解码结果并大幅降低显存占用，否则显存消耗巨大。2. 支持 ToonCrafter 功能，其解码操作最消耗显存，若显存不足可使用标准 Comfy VAE 解码器牺牲部分画质换取更低显存。3. 模型文件需放置在 ComfyUI\u002Fmodels\u002Fcheckpoints 目录下，推荐使用转换后的 bf16\u002F.safetensors 格式模型。4. 开启 FP8 选项可额外减少 1-2GB 显存占用。5. 旧版工作流需更新才能适配新版节点。","未说明 (依赖 ComfyUI 环境，通常为 3.10+)",[98,99,100,101],"xformers","torch","clip_vision","clip",[34,14],"2026-03-27T02:49:30.150509","2026-04-06T14:03:48.394689",[106,111,116,121,126,131],{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},19137,"运行时总是报错\"CUDA Out of Memory\"（显存不足）怎么办？","该问题通常是因为缺少 xformers 优化库。解决方法是安装 xformers：\n1. 打开终端或命令行。\n2. 运行命令：pip3 install xformers\n3. 安装完成后重启 ComfyUI 即可解决显存溢出问题。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-DynamiCrafterWrapper\u002Fissues\u002F2",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},19138,"遇到\"No module named 'ComfyUI-DynamiCrafterWrapper'\"模块导入错误如何解决？","这是一个已知的导入错误，通常发生在旧版本节点或特定安装环境下。维护者已经推送了修复补丁。\n解决方法：\n1. 更新 ComfyUI-DynamiCrafterWrapper 插件到最新版本。\n2. 如果更新后仍无效，尝试重新安装该自定义节点。\n3. 注意：部分用户反馈 ToonCrafter 模型较旧，也可以考虑使用更新的替代方案如 WanVideo with VACE 或 FramerWrapper。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-DynamiCrafterWrapper\u002Fissues\u002F124",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},19139,"生成的视频中存在水印或反射伪影是怎么回事？","早期版本的 CIL 模型确实存在水印问题，即使名为\"no-watermark\"的版本也可能残留少量水印。\n解决方案：\n1. 作者已上传完全无水印的新版 512 和 1024 模型。\n2. 请确保使用最新的自动下载功能，指向更新后的模型地址：https:\u002F\u002Fhuggingface.co\u002FKijai\u002FDynamiCrafter_pruned\n3. 如果是反射问题，经测试确认通常由 ControlNet 引起，即使使用 matte 图像也会出现，建议检查 ControlNet 的设置或尝试移除相关节点测试。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-DynamiCrafterWrapper\u002Fissues\u002F84",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},19140,"工作流中的\"Image Concatenate Multi\"节点具体有什么作用？可以删除吗？","该节点的作用仅仅是将多张图片并排对齐拼接。\n- 在工作流中，它被用来创建对比图，将引导视频、首尾帧和输出视频放在一起显示。\n- 如果你不需要这种对比展示，完全可以删除该节点。删除后，工作流将只输出最终的视频结果，不影响生成过程。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-DynamiCrafterWrapper\u002Fissues\u002F93",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},19141,"执行 DynamiCrafterI2V 时报错\"mat1 and mat2 shapes cannot be multiplied\"（矩阵形状无法相乘）如何修复？","此错误通常是由于输入图像尺寸与模型预期的嵌入维度不匹配导致的（例如 257x1664 与 1280x1024 不兼容）。\n解决方法：\n1. 检查输入图像的尺寸，确保其符合模型要求（通常为 512x512 或 1024x1024，具体取决于加载的模型）。\n2. 在使用图像之前，添加\"Image Scale\"（图像缩放）节点，将输入图像强制调整为模型对应的分辨率。\n3. 确保加载的模型版本（512 或 1024）与工作流中设置的分辨率一致。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-DynamiCrafterWrapper\u002Fissues\u002F45",{"id":132,"question_zh":133,"answer_zh":134,"source_url":120},19142,"是否有方法增强生成视频的运动幅度？","是的，DynamiCrafter 作者提出了一种新的条件图像泄漏（Conditional Image Leakage, CIL）方法来增加视频运动感。\n- 该功能已在部分模型中实现。\n- 如果遇到运动不足的情况，请确保使用的是支持 CIL 的最新模型版本。\n- 社区正在讨论将其更深度地集成到 ComfyUI 节点中，建议关注插件更新以获取更好的运动控制选项。",[]]