[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-SipherAGI--comfyui-animatediff":3,"tool-SipherAGI--comfyui-animatediff":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":10,"env_os":96,"env_gpu":97,"env_ram":96,"env_deps":98,"category_tags":103,"github_topics":78,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":104,"updated_at":105,"faqs":106,"releases":135},3293,"SipherAGI\u002Fcomfyui-animatediff","comfyui-animatediff","AnimateDiff for ComfyUI","comfyui-animatediff 是一款专为 ComfyUI 设计的开源插件，旨在让静态图像生成模型轻松创作出流畅自然的动画视频。它成功将 AnimateDiff 技术引入 ComfyUI 的节点工作流中，解决了传统 AI 绘图工具在生成连续动态画面时容易出现的闪烁、抖动或不连贯问题，让用户无需复杂编程即可制作高质量 GIF 或短视频。\n\n这款工具特别适合熟悉 ComfyUI 操作的设计师、数字艺术家以及希望探索 AI 视频生成的创作者使用。无论是制作动态插画、角色动作演示，还是实验性视觉艺术，都能通过简单的节点连接实现。其核心亮点包括支持多种运动模块（Motion Modules）以适配不同风格动画，并创新性地引入了“滑动窗口”技术，突破帧数限制，可生成长时间连贯视频。此外，它还兼容 Motion LoRA，允许用户微调摄像机运镜效果，如推拉摇移等，极大提升了创作自由度。配合灵活的输出格式选项（含 GIF、WebP 及多种视频编码），comfyui-animatediff 为本地化 AI 动画制作提供了强大而易用的解决方案。","# AnimateDiff for ComfyUI\n\n[AnimateDiff](https:\u002F\u002Fgithub.com\u002Fguoyww\u002FAnimateDiff\u002F) integration for ComfyUI, adapts from [sd-webui-animatediff](https:\u002F\u002Fgithub.com\u002Fcontinue-revolution\u002Fsd-webui-animatediff). Please read the original repo README for more information.\n\n## How to Use\n\n1. Clone this repo into `custom_nodes` folder.\n2. Download motion modules and put them under `comfyui-animatediff\u002Fmodels\u002F`.\n\n- Original modules: [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1EqLC65eR1-W-sGD0Im7fkED6c8GkiNFI) | [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fguoyww\u002Fanimatediff) | [CivitAI](https:\u002F\u002Fcivitai.com\u002Fmodels\u002F108836) | [Baidu NetDisk](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F18ZpcSM6poBqxWNHtnyMcxg?pwd=et8y)\n- Community modules: [manshoety\u002FAD_Stabilized_Motion](https:\u002F\u002Fhuggingface.co\u002Fmanshoety\u002FAD_Stabilized_Motion) | [CiaraRowles\u002FTemporalDiff](https:\u002F\u002Fhuggingface.co\u002FCiaraRowles\u002FTemporalDiff)\n- AnimateDiff v2 [mm_sd_v15_v2.ckpt](https:\u002F\u002Fhuggingface.co\u002Fguoyww\u002Fanimatediff\u002Fblob\u002Fmain\u002Fmm_sd_v15_v2.ckpt)\n\n## Update 2023\u002F09\u002F25\n\n#### **Motion LoRA** is now supported!\n\nDownload [motion LoRAs](https:\u002F\u002Fhuggingface.co\u002Fguoyww\u002Fanimatediff\u002Ftree\u002Fmain) and put them under `comfyui-animatediff\u002Floras\u002F` folder.\n\nNote: LoRAs only work with **AnimateDiff v2** [mm_sd_v15_v2.ckpt](https:\u002F\u002Fhuggingface.co\u002Fguoyww\u002Fanimatediff\u002Fblob\u002Fmain\u002Fmm_sd_v15_v2.ckpt) module.\n\n#### New node: `AnimateDiffLoraLoader`\n\n\u003Cimg width=\"370\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_ce5a04e9608f.png\">\n\nExample workflow:\n\u003Cimg width=\"1280\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_60486b06084b.png\">\n\nWorkflow: [lora.json](https:\u002F\u002Fgithub.com\u002FArtVentureX\u002Fcomfyui-animatediff\u002Fblob\u002Fmain\u002Fworkflows\u002Flora.json)\n\nSamples:\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd>\n\u003Cimg width=\"512\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_4815ea1b3689.png\">\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>\n\u003Cimg width=\"512\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_79ed29007ee6.png\">\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>\n\u003Cimg width=\"512\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_a9b20b77e8af.png\">\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>\n\u003Cimg width=\"512\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_90dd69e94184.png\">\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## Update 2023\u002F09\u002F21\n\n#### **Sliding Window** is now available!\n\nThe sliding window feature enables you to generate GIFs without a frame length limit. It divides frames into smaller batches with a slight overlap. This feature is activated automatically when generating more than 16 frames. To modify the trigger number and other settings, utilize the `SlidingWindowOptions` node. See the [sample workflow](#long-duration-with-sliding-window) bellow.\n\n## Nodes\n\n#### AnimateDiffLoader\n\n\u003Cimg width=\"370\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_b6585038b3bf.png\">\n\n#### AnimateDiffSampler\n\n- Mostly the same with `KSampler`\n- `motion_module`: use `AnimateDiffLoader` to load the motion module\n- `inject_method`: should left default\n- `frame_number`: animation length\n- `latent_image`: You can pass an `EmptyLatentImage`\n- `sliding_window_opts`: custom sliding window options\n\n\u003Cimg width=\"370\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_62e245adb79f.png\">\n\n#### AnimateDiffCombine\n\n- Combine GIF frames and produce the GIF image\n- `frame_rate`: number of frame per second\n- `loop_count`: use 0 for infinite loop\n- `save_image`: should GIF be saved to disk\n- `format`: supports `image\u002Fgif`, `image\u002Fwebp` (better compression), `video\u002Fwebm`, `video\u002Fh264-mp4`, `video\u002Fh265-mp4`. To use video formats, you'll need [ffmpeg](https:\u002F\u002Fffmpeg.org\u002Fdownload.html) installed and available in **`PATH`**\n\n\u003Cimg width=\"370\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_98a28a57da2a.png\">\n\n#### SlidingWindowOptions\n\nCustom sliding window options\n\n- `context_length`: number of frame per _window_. Use **16** to get the best results. Reduce it if you have low VRAM.\n- `context_stride`:\n  - 1: sampling every frame\n  - 2: sampling every frame then every second frame\n  - 3: sampling every frame then every second frame then every third frames\n  - ...\n- `context_overlap`: overlap frames between each window slice\n- `closed_loop`: make the GIF a closed loop, will add more sampling step\n\n\u003Cimg width=\"370\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_7778454698f6.png\">\n\n#### LoadVideo\n\nLoad GIF or video as images. Usefull to load a GIF as ControlNet input.\n\n- `frame_start`: Skip some begining frames and start at `frame_start`\n- `frame_limit`: Only take `frame_limit` frames\n\n\u003Cimg width=\"370\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_6f5e2e6fd5e1.png\">\n\n## Workflows\n\n### Simple txt2gif\n\n\u003Cimg width=\"1280\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_a9ac1d0e5047.png\">\n\nWorkflow: [simple.json](https:\u002F\u002Fgithub.com\u002FArtVentureX\u002Fcomfyui-animatediff\u002Fblob\u002Fmain\u002Fworkflows\u002Fsimple.json)\n\nSamples:\n\n![animate_diff_01](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_32eb734bd742.png)\n\n![animate_diff_02](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_47f5b4f7ce96.png)\n\n### Long duration with sliding window\n\n\u003Cimg width=\"1280\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_208f881393b1.png\">\n\nWorkflow: [sliding-window.json](https:\u002F\u002Fgithub.com\u002FArtVentureX\u002Fcomfyui-animatediff\u002Fblob\u002Fmain\u002Fworkflows\u002Fsliding-window.json)\n\nSamples:\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd>\n\u003Cimg width=\"512\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_e1c716730095.png\">\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>\n\u003Cimg width=\"768\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_53e3936d486e.png\">\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n### Latent upscale\n\nUpscale latent output using `LatentUpscale` then do a 2nd pass with `AnimateDiffSampler`.\n\n\u003Cimg width=\"1280\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_c599b6adcf5e.png\">\n\nWorkflow: [latent-upscale.json](https:\u002F\u002Fgithub.com\u002FArtVentureX\u002Fcomfyui-animatediff\u002Fblob\u002Fmain\u002Fworkflows\u002Flatent-upscale.json)\n\nSamples:\n![animate_diff_upscale](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_476aad98ed75.png)\n\n### Using with ControlNet\n\nYou will need following additional nodes:\n\n- [Kosinkadink\u002FComfyUI-Advanced-ControlNet](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-Advanced-ControlNet): Apply different weight for each latent in batch\n- [Fannovel16\u002Fcomfyui_controlnet_aux](https:\u002F\u002Fgithub.com\u002FFannovel16\u002Fcomfyui_controlnet_aux): ControlNet preprocessors\n\n#### Animate with starting and ending images\n\n- Use `LatentKeyframe` and `TimestampKeyframe` from [ComfyUI-Advanced-ControlNet](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-Advanced-ControlNet) to apply diffrent weights for each latent index.\n- Use 2 controlnet modules for two images with weights reverted.\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_db0d9bb47cd8.png)\n\nWorkflow: [cn-2images.json](https:\u002F\u002Fgithub.com\u002FArtVentureX\u002Fcomfyui-animatediff\u002Fblob\u002Fmain\u002Fworkflows\u002Fcn-2images.json)\n\nSamples:\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_7db77ffbd0b9.png\">\n\u003C\u002Ftd>\n\u003Ctd>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_d4bb975bbae4.png\">\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_2b2f40d00213.png\">\n\u003C\u002Ftd>\n\u003Ctd>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_6cb1b2dbc3d6.png\">\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n#### Using GIF as ControlNet input\n\nUsing a GIF (or video, or a list of images) as ControlNet input.\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_7e16c5ed471f.png)\n\nWorkflow: [cn-vid2vid.json](https:\u002F\u002Fgithub.com\u002FArtVentureX\u002Fcomfyui-animatediff\u002Fblob\u002Fmain\u002Fworkflows\u002Fcn-vid2vid.json)\n\nSamples:\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_8e4442c8d10a.png\">\n\u003C\u002Ftd>\n\u003Ctd>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_69bd8ef4cfb9.png\">\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## Known Issues\n\n### CUDA error: invalid configuration argument\n\nIt's an `xformers` bug accidentally triggered by the way the original AnimateDiff CrossAttention is passed in. The current workaround is to disable xformers with `--disable-xformers` when booting ComfyUI.\n\n### GIF split into multiple scenes\n\n![AnimateDiff_00007_](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_6c645654b45a.png)\n\nWork around:\n\n- Shorter your prompt and negative prompt\n- Reduce resolution. AnimateDiff is trained on 512x512 images so it works best with 512x512 output.\n- Disable xformers with `--disable-xformers`\n\n### GIF has Wartermark (especially when using mm_sd_v15)\n\nSee: https:\u002F\u002Fgithub.com\u002Fcontinue-revolution\u002Fsd-webui-animatediff\u002Fissues\u002F31\n\nTraining data used by the authors of the AnimateDiff paper contained Shutterstock watermarks. Since mm_sd_v15 was finetuned on finer, less drastic movement, the motion module attempts to replicate the transparency of that watermark and does not get blurred away like mm_sd_v14. Try other community finetuned modules.\n","# ComfyUI 的 AnimateDiff 插件\n\n这是 [AnimateDiff](https:\u002F\u002Fgithub.com\u002Fguoyww\u002FAnimateDiff\u002F) 在 ComfyUI 中的集成版本，基于 [sd-webui-animatediff](https:\u002F\u002Fgithub.com\u002Fcontinue-revolution\u002Fsd-webui-animatediff) 进行适配。更多信息请参阅原始仓库的 README 文件。\n\n## 使用方法\n\n1. 将此仓库克隆到 `custom_nodes` 文件夹中。\n2. 下载运动模块并将其放置在 `comfyui-animatediff\u002Fmodels\u002F` 目录下。\n\n- 原始模块：[Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1EqLC65eR1-W-sGD0Im7fkED6c8GkiNFI) | [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fguoyww\u002Fanimatediff) | [CivitAI](https:\u002F\u002Fcivitai.com\u002Fmodels\u002F108836) | [Baidu NetDisk](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F18ZpcSM6poBqxWNHtnyMcxg?pwd=et8y)\n- 社区模块：[manshoety\u002FAD_Stabilized_Motion](https:\u002F\u002Fhuggingface.co\u002Fmanshoety\u002FAD_Stabilized_Motion) | [CiaraRowles\u002FTemporalDiff](https:\u002F\u002Fhuggingface.co\u002FCiaraRowles\u002FTemporalDiff)\n- AnimateDiff v2 [mm_sd_v15_v2.ckpt](https:\u002F\u002Fhuggingface.co\u002Fguoyww\u002Fanimatediff\u002Fblob\u002Fmain\u002Fmm_sd_v15_v2.ckpt)\n\n## 2023年9月25日更新\n\n#### **Motion LoRA** 现已支持！\n\n下载 [motion LoRA](https:\u002F\u002Fhuggingface.co\u002Fguoyww\u002Fanimatediff\u002Ftree\u002Fmain) 并将其放置在 `comfyui-animatediff\u002Floras\u002F` 文件夹中。\n\n注意：LoRA 仅适用于 **AnimateDiff v2** [mm_sd_v15_v2.ckpt](https:\u002F\u002Fhuggingface.co\u002Fguoyww\u002Fanimatediff\u002Fblob\u002Fmain\u002Fmm_sd_v15_v2.ckpt) 模块。\n\n#### 新节点：`AnimateDiffLoraLoader`\n\n\u003Cimg width=\"370\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_ce5a04e9608f.png\">\n\n示例工作流：\n\u003Cimg width=\"1280\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_60486b06084b.png\">\n\n工作流：[lora.json](https:\u002F\u002Fgithub.com\u002FArtVentureX\u002Fcomfyui-animatediff\u002Fblob\u002Fmain\u002Fworkflows\u002Flora.json)\n\n样本：\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd>\n\u003Cimg width=\"512\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_4815ea1b3689.png\">\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>\n\u003Cimg width=\"512\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_79ed29007ee6.png\">\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>\n\u003Cimg width=\"512\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_a9b20b77e8af.png\">\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>\n\u003Cimg width=\"512\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_90dd69e94184.png\">\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## 2023年9月21日更新\n\n#### **滑动窗口** 功能现已可用！\n\n滑动窗口功能允许您生成无帧数限制的 GIF 动画。它会将帧分割成较小的批次，并进行轻微重叠。当生成超过 16 帧时，此功能会自动启用。如需修改触发帧数及其他设置，请使用 `SlidingWindowOptions` 节点。请参阅下方的 [长时长滑动窗口示例工作流](#long-duration-with-sliding-window)。\n\n## 节点说明\n\n#### AnimateDiffLoader\n\n\u003Cimg width=\"370\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_b6585038b3bf.png\">\n\n#### AnimateDiffSampler\n\n- 大部分与 `KSampler` 相同\n- `motion_module`：使用 `AnimateDiffLoader` 加载运动模块\n- `inject_method`：应保持默认\n- `frame_number`：动画长度\n- `latent_image`：您可以传递一个 `EmptyLatentImage`\n- `sliding_window_opts`：自定义滑动窗口选项\n\n\u003Cimg width=\"370\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_62e245adb79f.png\">\n\n#### AnimateDiffCombine\n\n- 组合 GIF 帧并生成最终的 GIF 图像\n- `frame_rate`：每秒帧数\n- `loop_count`：设置为 0 可实现无限循环\n- `save_image`：是否将 GIF 保存到磁盘\n- `format`：支持 `image\u002Fgif`、`image\u002Fwebp`（压缩率更高）、`video\u002Fwebm`、`video\u002Fh264-mp4`、`video\u002Fh265-mp4`。若要使用视频格式，您需要安装 [ffmpeg](https:\u002F\u002Fffmpeg.org\u002Fdownload.html)，并确保其已在系统的 **`PATH`** 中可用。\n\n\u003Cimg width=\"370\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_98a28a57da2a.png\">\n\n#### SlidingWindowOptions\n\n自定义滑动窗口选项\n\n- `context_length`：每个“窗口”包含的帧数。建议使用 **16** 以获得最佳效果。如果显存较低，请适当减少该值。\n- `context_stride`：\n  - 1：逐帧采样\n  - 2：隔帧采样\n  - 3：每隔两帧再隔三帧采样\n  - …\n- `context_overlap`：相邻窗口之间的帧重叠量\n- `closed_loop`：使 GIF 形成闭环，这会增加额外的采样步骤。\n\n\u003Cimg width=\"370\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_7778454698f6.png\">\n\n#### LoadVideo\n\n将 GIF 或视频加载为图像序列。可用于将 GIF 作为 ControlNet 的输入。\n\n- `frame_start`：跳过开头若干帧，从 `frame_start` 开始\n- `frame_limit`：仅取前 `frame_limit` 帧\n\n\u003Cimg width=\"370\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_6f5e2e6fd5e1.png\">\n\n## 工作流示例\n\n### 简单的文本转 GIF\n\n\u003Cimg width=\"1280\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_a9ac1d0e5047.png\">\n\n工作流：[simple.json](https:\u002F\u002Fgithub.com\u002FArtVentureX\u002Fcomfyui-animatediff\u002Fblob\u002Fmain\u002Fworkflows\u002Fsimple.json)\n\n样本：\n\n![animate_diff_01](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_32eb734bd742.png)\n\n![animate_diff_02](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_47f5b4f7ce96.png)\n\n### 长时长滑动窗口\n\n\u003Cimg width=\"1280\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_208f881393b1.png\">\n\n工作流：[sliding-window.json](https:\u002F\u002Fgithub.com\u002FArtVentureX\u002Fcomfyui-animatediff\u002Fblob\u002Fmain\u002Fworkflows\u002Fsliding-window.json)\n\n样本：\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd>\n\u003Cimg width=\"512\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_e1c716730095.png\">\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>\n\u003Cimg width=\"768\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_53e3936d486e.png\">\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n### 隐变量上采样\n\n使用 `LatentUpscale` 对隐变量输出进行上采样，然后再通过 `AnimateDiffSampler` 进行第二次处理。\n\n\u003Cimg width=\"1280\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_c599b6adcf5e.png\">\n\n工作流：[latent-upscale.json](https:\u002F\u002Fgithub.com\u002FArtVentureX\u002Fcomfyui-animatediff\u002Fblob\u002Fmain\u002Fworkflows\u002Flatent-upscale.json)\n\n样本：\n![animate_diff_upscale](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_476aad98ed75.png)\n\n### 与 ControlNet 配合使用\n\n您需要以下额外节点：\n\n- [Kosinkadink\u002FComfyUI-Advanced-ControlNet](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-Advanced-ControlNet)：为批次中的每个潜在变量应用不同的权重\n- [Fannovel16\u002Fcomfyui_controlnet_aux](https:\u002F\u002Fgithub.com\u002FFannovel16\u002Fcomfyui_controlnet_aux)：ControlNet 预处理模块\n\n#### 使用起始和结束图像进行动画制作\n\n- 使用来自 [ComfyUI-Advanced-ControlNet](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-Advanced-ControlNet) 的 `LatentKeyframe` 和 `TimestampKeyframe` 来为每个潜在变量索引应用不同的权重。\n- 对两张图像使用两个 ControlNet 模块，并将权重设置为相反。\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_db0d9bb47cd8.png)\n\n工作流：[cn-2images.json](https:\u002F\u002Fgithub.com\u002FArtVentureX\u002Fcomfyui-animatediff\u002Fblob\u002Fmain\u002Fworkflows\u002Fcn-2images.json)\n\n示例：\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_7db77ffbd0b9.png\">\n\u003C\u002Ftd>\n\u003Ctd>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_d4bb975bbae4.png\">\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_2b2f40d00213.png\">\n\u003C\u002Ftd>\n\u003Ctd>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_6cb1b2dbc3d6.png\">\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n#### 使用 GIF 作为 ControlNet 输入\n\n将 GIF（或视频、或一系列图片）用作 ControlNet 的输入。\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_7e16c5ed471f.png)\n\n工作流：[cn-vid2vid.json](https:\u002F\u002Fgithub.com\u002FArtVentureX\u002Fcomfyui-animatediff\u002Fblob\u002Fmain\u002Fworkflows\u002Fcn-vid2vid.json)\n\n示例：\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_8e4442c8d10a.png\">\n\u003C\u002Ftd>\n\u003Ctd>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_69bd8ef4cfb9.png\">\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## 已知问题\n\n### CUDA 错误：无效的配置参数\n\n这是由原始 AnimateDiff CrossAttention 的传递方式意外触发的 `xformers` 错误。目前的解决方法是在启动 ComfyUI 时使用 `--disable-xformers` 来禁用 xformers。\n\n### GIF 被拆分为多个场景\n\n![AnimateDiff_00007_](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_readme_6c645654b45a.png)\n\n解决方法：\n\n- 缩短提示词和负面提示词\n- 降低分辨率。AnimateDiff 是在 512x512 图像上训练的，因此在 512x512 输出时效果最佳。\n- 使用 `--disable-xformers` 禁用 xformers\n\n### GIF 中带有水印（尤其是在使用 mm_sd_v15 时）\n\n详情请参见：https:\u002F\u002Fgithub.com\u002Fcontinue-revolution\u002Fsd-webui-animatediff\u002Fissues\u002F31\n\nAnimateDiff 论文作者使用的训练数据中包含 Shutterstock 水印。由于 mm_sd_v15 是在更精细、动作更轻微的数据上微调的，该运动模块会尝试复制那种透明水印的效果，而不会像 mm_sd_v14 那样将其模糊掉。建议尝试其他社区微调的模块。","# ComfyUI-AnimateDiff 快速上手指南\n\nAnimateDiff 是 ComfyUI 中用于生成高质量动画（GIF\u002F视频）的开源工具，基于 Stable Diffusion 实现帧间一致性运动。本指南将帮助你快速部署并使用该工具。\n\n## 环境准备\n\n*   **系统要求**：Windows \u002F Linux \u002F macOS\n*   **前置依赖**：\n    *   已安装并配置好 **ComfyUI**。\n    *   推荐显卡显存 ≥ 8GB（生成高分辨率或长视频需要更多显存）。\n    *   **FFmpeg**（可选）：若需输出 MP4\u002FWebM 等视频格式，需安装 FFmpeg 并将其添加到系统环境变量 `PATH` 中。\n*   **注意**：若遇到 `CUDA error: invalid configuration argument` 错误，启动 ComfyUI 时请添加参数 `--disable-xformers`。\n\n## 安装步骤\n\n### 1. 安装插件节点\n将插件克隆到 ComfyUI 的 `custom_nodes` 目录中：\n\n```bash\ncd ComfyUI\u002Fcustom_nodes\ngit clone https:\u002F\u002Fgithub.com\u002FArtVentureX\u002Fcomfyui-animatediff.git\n```\n*下载完成后请重启 ComfyUI。*\n\n### 2. 下载运动模型 (Motion Modules)\n下载所需的运动模型文件，并放入 `comfyui-animatediff\u002Fmodels\u002F` 目录下。\n\n**推荐下载源（国内加速）：**\n*   **百度网盘** (提取码: `et8y`): [点击下载](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F18ZpcSM6poBqxWNHtnyMcxg?pwd=et8y)\n*   **HuggingFace (官方)**: [guoyww\u002Fanimatediff](https:\u002F\u002Fhuggingface.co\u002Fguoyww\u002Fanimatediff)\n*   **CivitAI**: [模型页面](https:\u002F\u002Fcivitai.com\u002Fmodels\u002F108836)\n\n**必备模型：**\n*   `mm_sd_v15_v2.ckpt` (AnimateDiff v2 核心模型，支持 LoRA)\n\n**目录结构示例：**\n```text\ncomfyui-animatediff\u002F\n└── models\u002F\n    ├── mm_sd_v15_v2.ckpt\n    └── (其他社区模型...)\n```\n\n### 3. (可选) 下载 Motion LoRA\n若需使用镜头控制（如缩放、平移），请下载 Motion LoRA 文件并放入 `comfyui-animatediff\u002Floras\u002F` 目录。\n*   **注意**：LoRA 仅配合 **AnimateDiff v2** (`mm_sd_v15_v2.ckpt`) 模型使用。\n*   下载地址：[HuggingFace - Motion LoRAs](https:\u002F\u002Fhuggingface.co\u002Fguoyww\u002Fanimatediff\u002Ftree\u002Fmain)\n\n## 基本使用\n\n以下是生成最简单文生动画 (txt2gif) 的工作流构建步骤：\n\n### 1. 加载运动模型\n添加 **`AnimateDiffLoader`** 节点：\n*   `motion_module`: 选择已下载的模型（如 `mm_sd_v15_v2.ckpt`）。\n\n### 2. 设置采样器\n添加 **`AnimateDiffSampler`** 节点（替代普通的 KSampler）：\n*   `motion_module`: 连接上一步 `AnimateDiffLoader` 的输出。\n*   `frame_number`: 设置动画帧数（例如 16 帧）。\n*   `latent_image`: 连接 `EmptyLatentImage` 节点，设置宽高（推荐 512x512 以获得最佳效果）。\n*   其他参数（prompt, negative_prompt, steps, cfg 等）与普通采样器一致。\n\n### 3. 合成输出\n添加 **`AnimateDiffCombine`** 节点：\n*   连接 `AnimateDiffSampler` 输出的 `images`。\n*   `frame_rate`: 设置帧率（如 8 或 12）。\n*   `format`: 选择输出格式（默认 `image\u002Fgif`；若需 mp4 请选择 `video\u002Fh264-mp4` 并确保已安装 FFmpeg）。\n*   `save_image`: 勾选以保存文件到磁盘。\n\n### 简易工作流逻辑图\n```text\n[Checkpoint Loader] --> [CLIP Text Encode (Prompt)] --+\n                                                      |\n[EmptyLatentImage] ----------------------------------> [AnimateDiffSampler] --> [AnimateDiffCombine] --> [Save Image]\n                                                      ^\n[AnimateDiffLoader] ----------------------------------+\n```\n\n**提示**：\n*   若生成超过 16 帧的长视频，插件会自动启用 **Sliding Window（滑动窗口）** 技术，无需额外设置。如需自定义窗口大小，可添加 `SlidingWindowOptions` 节点并连接至 Sampler。\n*   推荐使用分辨率 **512x512**，这是 AnimateDiff 训练的原生分辨率，能有效减少画面撕裂和伪影。","一位独立游戏开发者需要为角色技能设计一段流畅的循环攻击动画，以用于游戏引擎中的特效展示。\n\n### 没有 comfyui-animatediff 时\n- 生成的视频帧之间闪烁严重，人物动作不连贯，仿佛在不同图片间生硬切换，完全无法作为可用素材。\n- 想要延长动画时长超过 16 帧时，显存直接爆满导致任务失败，无法制作长周期的技能前摇或后摇动作。\n- 只能产出静态图像或极短的动图，缺乏如“镜头推拉”或“特定行走节奏”等精细的运动控制能力。\n- 后期需要手动使用繁琐的外部软件将数百张序列帧合成视频，调整帧率和编码格式耗时耗力。\n\n### 使用 comfyui-animatediff 后\n- 通过加载 Motion Module，生成的角色攻击动作丝滑流畅，彻底消除了帧间闪烁，直接达到商用动画标准。\n- 利用 Sliding Window（滑动窗口）功能，轻松生成超长时长的连续动画而不受显存限制，完美呈现复杂技能全过程。\n- 结合 Motion LoRA 节点，只需简单配置即可让角色实现特定的运镜效果或稳定的步行循环，精准匹配设计需求。\n- 内置 AnimateDiffCombine 节点一键输出 MP4 或 WebP 格式成品，自动处理帧率与无限循环设置，大幅缩短工作流。\n\ncomfyui-animatediff 将原本破碎的静态图生成过程转化为可控、连贯且高效的视频创作流，让单人开发者也能低成本制作高质量游戏资产。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSipherAGI_comfyui-animatediff_32eb734b.gif","SipherAGI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FSipherAGI_1c4ed6e4.jpg","SIPHER A.G.I, AI x GAMING x INFRASTRUCTURE",null,"sipherai@atherlabs.com","sipheragi","https:\u002F\u002Fsipheragi.com","https:\u002F\u002Fgithub.com\u002FSipherAGI",[84,88],{"name":85,"color":86,"percentage":87},"Python","#3572A5",87.6,{"name":89,"color":90,"percentage":91},"JavaScript","#f1e05a",12.4,756,56,"2026-04-04T09:24:57","Apache-2.0","未说明","需要 NVIDIA GPU（提及 CUDA 错误），显存需求取决于设置：低显存需减少 context_length（默认推荐 16），未明确具体最低显存大小",{"notes":99,"python":96,"dependencies":100},"1. 必须下载运动模块（motion modules）到指定目录，若使用 Motion LoRA 功能需额外下载 LoRA 文件且仅支持 AnimateDiff v2 模块。2. 若要输出 mp4\u002Fwebm 等视频格式，必须安装 ffmpeg 并配置到系统 PATH 环境变量中。3. 已知 xformers 存在兼容性 bug，启动 ComfyUI 时建议添加 '--disable-xformers' 参数以避免 'CUDA error: invalid configuration argument' 错误。4. 为获得最佳效果，建议使用 512x512 分辨率，长视频生成可使用滑动窗口（Sliding Window）功能。",[19,101,102],"xformers (可选，已知有 bug 需禁用)","ffmpeg (视频格式输出必需)",[14,35],"2026-03-27T02:49:30.150509","2026-04-06T05:27:29.899211",[107,112,117,121,126,131],{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},15126,"遇到 'VanillaTemporalModule.forward() missing 1 required positional argument' 错误怎么办？","请更新到该插件的最新版本，此问题已在更新中修复。此外，更新还包含了对最新 ComfyUI 版本的兼容性修改。如果导入时遇到缺少模块的错误，请尝试同时更新 ComfyUI 主程序。","https:\u002F\u002Fgithub.com\u002FSipherAGI\u002Fcomfyui-animatediff\u002Fissues\u002F42",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},15127,"生成 GIF 时出现画面分裂成多个场景或颜色异常的问题如何解决？","这通常与 xformers 有关。尝试在启动参数中添加 `--disable-xformers` 来禁用它，这通常能解决画面分裂和颜色问题。如果禁用后出现随机崩溃导致采样停止，建议先生成低分辨率 GIF，然后再应用潜在空间放大（latent upscale），而不是直接进行高分辨率采样。","https:\u002F\u002Fgithub.com\u002FSipherAGI\u002Fcomfyui-animatediff\u002Fissues\u002F21",{"id":118,"question_zh":119,"answer_zh":120,"source_url":116},15128,"遇到 'RuntimeError: CUDA error: invalid configuration argument' 错误该如何处理？","这是由于 xformers 注意力代码对输入张量的第一维大小有限制，当提示词、LoRA 和分辨率组合导致维度超限时会触发此错误。解决方法包括：1. 降低生成分辨率；2. 使用 `--disable-xformers` 参数禁用 xformers。对于高分辨率需求，建议先在低分辨率下生成，再进行放大处理。",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},15129,"报错 'mixed dtype (CPU): expect input to have scalar type of BFloat16' 怎么解决？","该错误通常由工作流配置冲突或状态异常引起。最有效的解决方法是创建一个全新的工作流（brand new workflow），重新连接节点，避免沿用可能包含错误数据类型设置的旧工作流文件。","https:\u002F\u002Fgithub.com\u002FSipherAGI\u002Fcomfyui-animatediff\u002Fissues\u002F3",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},15130,"使用视频作为 ControlNet 输入时遇到 'TypeError: string indices must be integers' 错误是什么原因？","这通常发生在输入帧数过多时（测试表明超过 16 帧容易出错）。请检查输入视频的帧数，尝试减少输入帧的数量至 16 帧以下，或者确保视频预处理节点输出的数据格式符合 AnimateDiff 采样器的要求。","https:\u002F\u002Fgithub.com\u002FSipherAGI\u002Fcomfyui-animatediff\u002Fissues\u002F59",{"id":132,"question_zh":133,"answer_zh":134,"source_url":111},15131,"FreeU 插件与 AnimateDiff 兼容吗？如何正确使用？","需要注意区分集成的 FreeU 功能和独立插件。如果遇到问题，确认你使用的是名为 \"FreeU_Advanced\" 的独立插件，而不是 ComfyUI 内置的 FreeU 功能。在使用时，建议先测试工作流以确保两者兼容，必要时调整节点连接顺序。",[]]