[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Kosinkadink--ComfyUI-AnimateDiff-Evolved":3,"tool-Kosinkadink--ComfyUI-AnimateDiff-Evolved":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":10,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":103,"github_topics":79,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":104,"updated_at":105,"faqs":106,"releases":134},3504,"Kosinkadink\u002FComfyUI-AnimateDiff-Evolved","ComfyUI-AnimateDiff-Evolved","Improved AnimateDiff for ComfyUI and Advanced Sampling Support","ComfyUI-AnimateDiff-Evolved 是专为 ComfyUI 打造的增强版动画生成插件，旨在让静态图像模型轻松创作出流畅、连贯的视频内容。它基于著名的 AnimateDiff 项目进行了深度优化，不仅解决了原生集成中功能受限的问题，还引入了名为\"Evolved Sampling\"的高级采样技术，让用户能更精细地控制视频生成的动态效果与质量。\n\n该工具特别适合希望利用 ComfyUI 进行 AI 视频创作的设计师、数字艺术家及进阶爱好者。通过模块化设计，它能无缝对接 ControlNet、IPAdapter 等主流生态组件，支持稀疏控制（SparseCtrl）、提示词旅行（Prompt Travel）以及复杂的镜头运动控制，极大地拓展了创作边界。其独特的技术亮点在于提供了丰富的预训练运动模块（Motion Modules）和运动 LoRA 支持，用户可灵活选择不同风格的动作模式，甚至微调特定动作幅度，从而实现从细微表情变化到大幅肢体运动的多样化表现。无论是制作短视频素材还是探索动态艺术实验，ComfyUI-AnimateDiff-Evolved 都为用户提供了一套强大且","ComfyUI-AnimateDiff-Evolved 是专为 ComfyUI 打造的增强版动画生成插件，旨在让静态图像模型轻松创作出流畅、连贯的视频内容。它基于著名的 AnimateDiff 项目进行了深度优化，不仅解决了原生集成中功能受限的问题，还引入了名为\"Evolved Sampling\"的高级采样技术，让用户能更精细地控制视频生成的动态效果与质量。\n\n该工具特别适合希望利用 ComfyUI 进行 AI 视频创作的设计师、数字艺术家及进阶爱好者。通过模块化设计，它能无缝对接 ControlNet、IPAdapter 等主流生态组件，支持稀疏控制（SparseCtrl）、提示词旅行（Prompt Travel）以及复杂的镜头运动控制，极大地拓展了创作边界。其独特的技术亮点在于提供了丰富的预训练运动模块（Motion Modules）和运动 LoRA 支持，用户可灵活选择不同风格的动作模式，甚至微调特定动作幅度，从而实现从细微表情变化到大幅肢体运动的多样化表现。无论是制作短视频素材还是探索动态艺术实验，ComfyUI-AnimateDiff-Evolved 都为用户提供了一套强大且灵活的解决方案。","# AnimateDiff for ComfyUI\n\nImproved [AnimateDiff](https:\u002F\u002Fgithub.com\u002Fguoyww\u002FAnimateDiff\u002F) integration for ComfyUI, as well as advanced sampling options dubbed Evolved Sampling usable outside of AnimateDiff. Please read the AnimateDiff repo README and Wiki for more information about how it works at its core.\n\nAnimateDiff workflows will often make use of these helpful node packs:\n- [ComfyUI-Advanced-ControlNet](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-Advanced-ControlNet) for making ControlNets work with Context Options and controlling which latents should be affected by the ControlNet inputs. Includes SparseCtrl support. Maintained by me.\n- [ComfyUI-VideoHelperSuite](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-VideoHelperSuite) for loading videos, combining images into videos, and doing various image\u002Flatent operations like appending, splitting, duplicating, selecting, or counting. Actively maintained by AustinMroz and I.\n- [comfyui_controlnet_aux](https:\u002F\u002Fgithub.com\u002FFannovel16\u002Fcomfyui_controlnet_aux) for ControlNet preprocessors not present in vanilla ComfyUI. Maintained by Fannovel16.\n- [ComfyUI_IPAdapter_plus](https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus) for IPAdapter support. Maintained by cubiq (matt3o).\n- [ComfyUI-KJNodes](https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-KJNodes) for miscellaneous nodes including selecting coordinates for animated GLIGEN. Maintained by kijai.\n- [ComfyUI_FizzNodes](https:\u002F\u002Fgithub.com\u002FFizzleDorf\u002FComfyUI_FizzNodes) for an alternate way to do prompt-travel functionality with the BatchPromptSchedule node. Maintained by FizzleDorf.\n\n# Installation\n\n## If using ComfyUI Manager:\n\n1. Look for ```AnimateDiff Evolved```, and be sure the author is ```Kosinkadink```. Install it.\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FKosinkadink_ComfyUI-AnimateDiff-Evolved_readme_5796f155f40e.png)\n\n\n## If installing manually:\n1. Clone this repo into `custom_nodes` folder.\n\n# Model Setup:\n1. Download motion modules. You will need at least 1. Different modules produce different results.\n   - Original models ```mm_sd_v14```, ```mm_sd_v15```, ```mm_sd_v15_v2```, ```v3_sd15_mm```: [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fguoyww\u002Fanimatediff\u002Ftree\u002Fcd71ae134a27ec6008b968d6419952b0c0494cf2) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1EqLC65eR1-W-sGD0Im7fkED6c8GkiNFI) | [CivitAI](https:\u002F\u002Fcivitai.com\u002Fmodels\u002F108836)\n   - Stabilized finetunes of mm_sd_v14, ```mm-Stabilized_mid``` and ```mm-Stabilized_high```, by **manshoety**: [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fmanshoety\u002FAD_Stabilized_Motion\u002Ftree\u002Fmain)\n   - Finetunes of mm_sd_v15_v2, ```mm-p_0.5.pth``` and ```mm-p_0.75.pth```, by **manshoety**: [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fmanshoety\u002Fbeta_testing_models\u002Ftree\u002Fmain)\n   - Higher resolution finetune,```temporaldiff-v1-animatediff```  by **CiaraRowles**: [HuggingFace](https:\u002F\u002Fhuggingface.co\u002FCiaraRowles\u002FTemporalDiff\u002Ftree\u002Fmain)\n   - FP16\u002Fsafetensor versions of vanilla motion models, hosted by **continue-revolution** (takes up less storage space, but uses up the same amount of VRAM as ComfyUI loads models in fp16 by default): [HuffingFace](https:\u002F\u002Fhuggingface.co\u002Fconrevo\u002FAnimateDiff-A1111\u002Ftree\u002Fmain)\n2. Place models in one of these locations (you can rename models if you wish):\n   - ```ComfyUI\u002Fcustom_nodes\u002FComfyUI-AnimateDiff-Evolved\u002Fmodels```\n   - ```ComfyUI\u002Fmodels\u002Fanimatediff_models```\n3. Optionally, you can use Motion LoRAs to influence movement of v2-based motion models like mm_sd_v15_v2.\n   - [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1EqLC65eR1-W-sGD0Im7fkED6c8GkiNFI?usp=sharing) | [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fguoyww\u002Fanimatediff) | [CivitAI](https:\u002F\u002Fcivitai.com\u002Fmodels\u002F108836\u002Fanimatediff-motion-modules)\n   - Place Motion LoRAs in one of these locations (you can rename Motion LoRAs if you wish): \n      -  ```ComfyUI\u002Fcustom_nodes\u002FComfyUI-AnimateDiff-Evolved\u002Fmotion_lora```\n      -  ```ComfyUI\u002Fmodels\u002Fanimatediff_motion_lora```\n4. Get creative! If it works for normal image generation, it (probably) will work for AnimateDiff generations. Latent upscales? Go for it. ControlNets, one or more stacked? You betcha. Masking the conditioning of ControlNets to only affect part of the animation? Sure. Try stuff and you will be surprised by what you can do. Samples with workflows are included below.\n\nNOTE: you can also use custom locations for models\u002Fmotion loras by making use of the ComfyUI ```extra_model_paths.yaml``` file. The id for motion model folder is ```animatediff_models``` and the id for motion lora folder is ```animatediff_motion_lora```.\n\n\n# Features \n- Compatible with almost any vanilla or custom KSampler node.\n- ControlNet, SparseCtrl, and IPAdapter support\n- Infinite animation length support via sliding context windows across whole unet (Context Options) and\u002For within motion module (View Options)\n- Scheduling Context Options to change across different points in the sampling process\n- FreeInit and FreeNoise support (FreeInit is under iteration opts, FreeNoise is in SampleSettings' noise_type dropdown)\n- Mixable Motion LoRAs from [original AnimateDiff repository](https:\u002F\u002Fgithub.com\u002Fguoyww\u002Fanimatediff\u002F) implemented. Caveat: the original loras really only work on v2-based motion models like ```mm_sd_v15_v2```, ```mm-p_0.5.pth```, and ```mm-p_0.75.pth```.\n     - UPDATE: New motion LoRAs without the v2 limitation can now be trained via the [AnimateDiff-MotionDirector repo](https:\u002F\u002Fgithub.com\u002FExponentialML\u002FAnimateDiff-MotionDirector). Shoutout to ExponentialML for implementing MotionDirector for AnimateDiff purposes!\n- Prompt travel using built-in Prompt Scheduling nodes, or BatchPromptSchedule node from [ComfyUI_FizzNodes](https:\u002F\u002Fgithub.com\u002FFizzleDorf\u002FComfyUI_FizzNodes)\n- Scale and Effect multival inputs to control motion amount and motion model influence on generation.\n     - Can be float, list of floats, or masks\n- Custom noise scheduling via Noise Types, Noise Layers, and seed_override\u002Fseed_offset\u002Fbatch_offset in Sample Settings and related nodes\n- AnimateDiff model v1\u002Fv2\u002Fv3 support\n- Using multiple motion models at once via Gen2 nodes (each supporting \n- [HotshotXL](https:\u002F\u002Fhuggingface.co\u002Fhotshotco\u002FHotshot-XL\u002Ftree\u002Fmain) support (an SDXL motion module arch), ```hsxl_temporal_layers.safetensors```.\n     - NOTE: You will need to use ```autoselect``` or ```linear (HotshotXL\u002Fdefault)``` beta_schedule, the sweetspot for context_length or total frames (when not using context) is 8 frames, and you will need to use an SDXL checkpoint.\n- [AnimateDiff-SDXL](https:\u002F\u002Fgithub.com\u002Fguoyww\u002FAnimateDiff\u002F) support, with corresponding model. Still in beta after several months.\n     - NOTE: You will need to use ```autoselect``` or ```linear (AnimateDiff-SDXL)``` beta_schedule. Other than that, same rules of thumb apply to AnimateDiff-SDXL as AnimateDiff.\n- [AnimateLCM](https:\u002F\u002Fhuggingface.co\u002Fwangfuyun\u002FAnimateLCM) support\n     - NOTE: You will need to use ```autoselect``` or ```lcm``` or ```lcm[100_ots]``` beta_schedule. To use fully with LCM, be sure to use appropriate LCM lora, use the ```lcm``` sampler_name in KSampler nodes, and lower cfg to somewhere around 1.0 to 2.0. Don't forget to decrease steps (minimum = ~4 steps), since LCM converges faster (less steps). Increase step count to increase detail as desired.\n- [AnimateLCM-I2V](https:\u002F\u002Fhuggingface.co\u002Fwangfuyun\u002FAnimateLCM-I2V) support, big thanks to [Fu-Yun Wang](https:\u002F\u002Fgithub.com\u002FG-U-N) for providing me the original diffusers code he created during his work on the paper\n     - NOTE: Requires same settings as described for AnimateLCM above. Requires ```Apply AnimateLCM-I2V Model``` Gen2 node usage so that ```ref_latent``` can be provided; use ```Scale Ref Image and VAE Encode``` node to preprocess input images. While this was intended as an img2video model, I found it works best for vid2vid purposes with ```ref_drift=0.0```, and to use it for only at least 1 step before switching over to other models via chaining with toher Apply AnimateDiff Model (Adv.) nodes. The ```apply_ref_when_disabled``` can be set to True to allow the img_encoder to do its thing even when the ```end_percent``` is reached. AnimateLCM-I2V is also extremely useful for maintaining coherence at higher resolutions (with ControlNet and SD LoRAs active, I could easily upscale from 512x512 source to 1024x1024 in a single pass). TODO: add examples\n- [CameraCtrl](https:\u002F\u002Fgithub.com\u002Fhehao13\u002FCameraCtrl) support, with the pruned model you must use here: [CameraCtrl_pruned.safetensors](https:\u002F\u002Fhuggingface.co\u002FKosinkadink\u002FCameraCtrl\u002Ftree\u002Fmain)\n     - NOTE: Requires AnimateDiff SD1.5 models, and was specifically trained for v3 model. Gen2 only, with helper nodes provided under Gen2\u002FCameraCtrl submenu.\n- [PIA](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002FPIA) support, with the model [pia.ckpt](https:\u002F\u002Fhuggingface.co\u002FLeoxing\u002FPIA\u002Ftree\u002Fmain)\n     - NOTE: You will need to use ```autoselect``` or ```sqrt_linear (AnimateDiff)``` beta_schedule. Requires ```Apply AnimateDiff-PIA Model``` Gen2 node usage if you want to actually provide input images. The ```pia_input``` can be provided via the paper's presets (```PIA Input [Paper Presets]```) or by manually entering values (```PIA Input [Multival]```).\n- AnimateDiff Keyframes to change Scale and Effect at different points in the sampling process.\n- fp8 support; requires newest ComfyUI and torch >= 2.1 (decreases VRAM usage, but changes outputs)\n- Mac M1\u002FM2\u002FM3 support\n- Usage of Context Options and Sample Settings outside of AnimateDiff via Gen2 Use Evolved Sampling node\n- Maskable and Schedulable SD LoRA (and Models as LoRA) for both AnimateDiff and StableDiffusion usage via LoRA Hooks\n- Per-frame GLIGEN coordinates control\n     - Currently requires GLIGENTextBoxApplyBatch from KJNodes to do so, but I will add native nodes to do this soon.\n- Image Injection mid-sampling\n- ContextRef and NaiveReuse (novel cross-context consistency techniques)\n\n## Upcoming Features\n- Example workflows for **every feature** in AnimateDiff-Evolved repo, nodes will have usage descriptions (currently Value\u002FPrompt Scheduling nodes have them), and YouTube tutorials\u002Fdocumentation\n- [UniCtrl](https:\u002F\u002Fgithub.com\u002FXuweiyiChen\u002FUniCtrl) support\n- Unet-Ref support so that a bunch of papers can be ported over\n- [StoryDiffusion](https:\u002F\u002Fgithub.com\u002FHVision-NKU\u002FStoryDiffusion) implementation\n- Merging motion model weights\u002Fcomponents, including per block customization\n- Maskable Motion LoRA\n- Timestep schedulable GLIGEN coordinates\n- Dynamic memory management for motion models that load\u002Funload at different start\u002Fend_percents\n- Anything else AnimateDiff-related that comes out\n\n# [Basic Usage and Nodes](.\u002Fdocumentation\u002Fnodes)\n\n# [Samples](.\u002Fdocumentation\u002Fsamples)\n\n\n\n## Known Issues\n\n### Some motion models have visible watermark on resulting images (especially when using mm_sd_v15)\n\nTraining data used by the authors of the AnimateDiff paper contained Shutterstock watermarks. Since mm_sd_v15 was finetuned on finer, less drastic movement, the motion module attempts to replicate the transparency of that watermark and does not get blurred away like mm_sd_v14. Using other motion modules, or combinations of them using Advanced KSamplers should alleviate watermark issues.\n","# ComfyUI 的 AnimateDiff\n\n针对 ComfyUI 改进了 [AnimateDiff](https:\u002F\u002Fgithub.com\u002Fguoyww\u002FAnimateDiff\u002F) 集成，并新增了名为“Evolved Sampling”的高级采样选项，该选项也可在非 AnimateDiff 工作流中使用。有关其核心工作原理的详细信息，请参阅 AnimateDiff 仓库的 README 和 Wiki。\n\n在 AnimateDiff 工作流中，以下这些实用节点包通常会被用到：\n- [ComfyUI-Advanced-ControlNet](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-Advanced-ControlNet)，用于让 ControlNet 支持上下文选项，并控制哪些潜在变量会受到 ControlNet 输入的影响。包含 SparseCtrl 支持。由我维护。\n- [ComfyUI-VideoHelperSuite](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-VideoHelperSuite)，用于加载视频、将图像拼接成视频，以及执行各种图像\u002F潜在变量操作，如追加、拆分、复制、选择或计数等。由 AustinMroz 和我共同维护。\n- [comfyui_controlnet_aux](https:\u002F\u002Fgithub.com\u002FFannovel16\u002Fcomfyui_controlnet_aux)，提供原生 ComfyUI 中未包含的 ControlNet 预处理模块。由 Fannovel16 维护。\n- [ComfyUI_IPAdapter_plus](https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus)，用于支持 IPAdapter。由 cubiq (matt3o) 维护。\n- [ComfyUI-KJNodes](https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-KJNodes)，提供多种辅助节点，包括为动画 GLIGEN 选择坐标等功能。由 kijai 维护。\n- [ComfyUI_FizzNodes](https:\u002F\u002Fgithub.com\u002FFizzleDorf\u002FComfyUI_FizzNodes)，通过 BatchPromptSchedule 节点提供一种替代的提示词迁移功能。由 FizzleDorf 维护。\n\n# 安装\n\n## 如果使用 ComfyUI Manager：\n\n1. 搜索 ```AnimateDiff Evolved```，并确保作者是 ```Kosinkadink```。安装它。\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FKosinkadink_ComfyUI-AnimateDiff-Evolved_readme_5796f155f40e.png)\n\n\n## 如果手动安装：\n1. 将本仓库克隆到 `custom_nodes` 文件夹中。\n\n# 模型设置：\n1. 下载运动模块。您至少需要一个。不同的模块会产生不同的效果。\n   - 原始模型 ```mm_sd_v14```, ```mm_sd_v15```, ```mm_sd_v15_v2```, ```v3_sd15_mm```：[HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fguoyww\u002Fanimatediff\u002Ftree\u002Fcd71ae134a27ec6008b968d6419952b0c0494cf2) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1EqLC65eR1-W-sGD0Im7fkED6c8GkiNFI) | [CivitAI](https:\u002F\u002Fcivitai.com\u002Fmodels\u002F108836)\n   - mm_sd_v14 的稳定化微调版本，```mm-Stabilized_mid``` 和 ```mm-Stabilized_high```，由 **manshoety** 制作：[HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fmanshoety\u002FAD_Stabilized_Motion\u002Ftree\u002Fmain)\n   - mm_sd_v15_v2 的微调版本，```mm-p_0.5.pth``` 和 ```mm-p_0.75.pth```，由 **manshoety** 制作：[HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fmanshoety\u002Fbeta_testing_models\u002Ftree\u002Fmain)\n   - 更高分辨率的微调版本，```temporaldiff-v1-animatediff```，由 **CiaraRowles** 制作：[HuggingFace](https:\u002F\u002Fhuggingface.co\u002FCiaraRowles\u002FTemporalDiff\u002Ftree\u002Fmain)\n   - 原生运动模型的 FP16\u002Fsafetensor 版本，由 **continue-revolution** 托管（占用存储空间更少，但 VRAM 消耗与 ComfyUI 默认以 FP16 加载模型时相同）：[HuffingFace](https:\u002F\u002Fhuggingface.co\u002Fconrevo\u002FAnimateDiff-A1111\u002Ftree\u002Fmain)\n2. 将模型放置在以下任一位置（您可以根据需要重命名模型）：\n   - ```ComfyUI\u002Fcustom_nodes\u002FComfyUI-AnimateDiff-Evolved\u002Fmodels```\n   - ```ComfyUI\u002Fmodels\u002Fanimatediff_models```\n3. 您还可以选择使用运动 LoRA 来影响基于 v2 的运动模型，例如 mm_sd_v15_v2 的行为。\n   - [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1EqLC65eR1-W-sGD0Im7fkED6c8GkiNFI?usp=sharing) | [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fguoyww\u002Fanimatediff) | [CivitAI](https:\u002F\u002Fcivitai.com\u002Fmodels\u002F108836\u002Fanimatediff-motion-modules)\n   - 将运动 LoRA 放置在以下任一位置（您可以根据需要重命名运动 LoRA）：\n      -  ```ComfyUI\u002Fcustom_nodes\u002FComfyUI-AnimateDiff-Evolved\u002Fmotion_lora```\n      -  ```ComfyUI\u002Fmodels\u002Fanimatediff_motion_lora```\n4. 大胆发挥创意吧！如果某种方法对普通图像生成有效，那么它很可能也适用于 AnimateDiff 生成。潜在变量放大？尽管尝试。叠加一个或多个 ControlNet？当然可以！甚至可以只对动画的一部分应用 ControlNet 的条件约束——完全可行。多试几种组合，您一定会对能实现的效果感到惊喜。下方附有使用这些工作流的示例。\n\n注意：您也可以通过 ComfyUI 的 ```extra_model_paths.yaml``` 文件指定自定义的模型或运动 LoRA 存放路径。运动模型文件夹的标识符是 ```animatediff_models```，而运动 LoRA 文件夹的标识符是 ```animatediff_motion_lora```。\n\n# 功能特性 \n- 兼容几乎任何原版或自定义的 KSampler 节点。\n- 支持 ControlNet、SparseCtrl 和 IPAdapter。\n- 通过在整个 UNet 上滑动上下文窗口（上下文选项）和\u002F或在运动模块内滑动（视图选项），支持无限长度的动画生成。\n- 可在采样过程的不同阶段调整调度上下文选项。\n- 支持 FreeInit 和 FreeNoise（FreeInit 位于迭代选项中，FreeNoise 位于 SampleSettings 的 noise_type 下拉菜单中）。\n- 实现了可混合使用的运动 LoRA，来自 [原始 AnimateDiff 仓库](https:\u002F\u002Fgithub.com\u002Fguoyww\u002Fanimatediff\u002F)。注意：这些原始 LoRA 主要适用于基于 v2 的运动模型，如 ```mm_sd_v15_v2```、```mm-p_0.5.pth``` 和 ```mm-p_0.75.pth```。\n     - 更新：现在可以通过 [AnimateDiff-MotionDirector 仓库](https:\u002F\u002Fgithub.com\u002FExponentialML\u002FAnimateDiff-MotionDirector) 训练新的运动 LoRA，不再受 v2 限制。特别感谢 ExponentialML 为 AnimateDiff 实现了 MotionDirector！\n- 使用内置的 Prompt Scheduling 节点或来自 [ComfyUI_FizzNodes](https:\u002F\u002Fgithub.com\u002FFizzleDorf\u002FComfyUI_FizzNodes) 的 BatchPromptSchedule 节点进行提示词过渡。\n- 提供 Scale 和 Effect 多值输入，用于控制运动强度及运动模型对生成结果的影响。\n     - 输入可以是浮点数、浮点数列表或掩码。\n- 通过噪声类型、噪声层以及 Sample Settings 和相关节点中的 seed_override\u002Fseed_offset\u002Fbatch_offset，实现自定义噪声调度。\n- 支持 AnimateDiff 模型 v1\u002Fv2\u002Fv3。\n- 通过 Gen2 节点同时使用多个运动模型（每个节点支持…\n- 支持 [HotshotXL](https:\u002F\u002Fhuggingface.co\u002Fhotshotco\u002FHotshot-XL\u002Ftree\u002Fmain)（一种 SDXL 运动模块架构），使用 ```hsxl_temporal_layers.safetensors```。\n     - 注意：需要使用 ```autoselect``` 或 ```linear (HotshotXL\u002Fdefault)``` beta_schedule；上下文长度或总帧数的最佳设置为 8 帧（不使用上下文时）；并且需要使用 SDXL 检查点。\n- 支持 [AnimateDiff-SDXL](https:\u002F\u002Fgithub.com\u002Fguoyww\u002FAnimateDiff\u002F) 及其对应模型。目前仍处于测试阶段，已持续数月。\n     - 注意：需要使用 ```autoselect``` 或 ```linear (AnimateDiff-SDXL)``` beta_schedule。除此之外，AnimateDiff-SDXL 的使用规则与 AnimateDiff 基本相同。\n- 支持 [AnimateLCM](https:\u002F\u002Fhuggingface.co\u002Fwangfuyun\u002FAnimateLCM)。\n     - 注意：需要使用 ```autoselect```、```lcm``` 或 ```lcm[100_ots]``` beta_schedule。要充分发挥 LCM 的效果，务必使用合适的 LCM LoRA，在 KSampler 节点中选择 ```lcm``` sampler_name，并将 CFG 降低至约 1.0 到 2.0。别忘了减少步数（最少约 4 步），因为 LCM 收敛更快，所需步数更少。若希望增加细节，可适当增加步数。\n- 支持 [AnimateLCM-I2V](https:\u002F\u002Fhuggingface.co\u002Fwangfuyun\u002FAnimateLCM-I2V)，特别感谢 [Fu-Yun Wang](https:\u002F\u002Fgithub.com\u002FG-U-N) 在其论文研究期间提供的原始 Diffusers 代码。\n     - 注意：设置要求与上述 AnimateLCM 相同。需使用 ```Apply AnimateLCM-I2V Model``` Gen2 节点以提供 ```ref_latent```；并使用 ```Scale Ref Image and VAE Encode``` 节点预处理输入图像。尽管该模型原本设计为 img2video，但我发现它在 vid2vid 场景中表现最佳，只需将 ```ref_drift=0.0```，并在与其他 Apply AnimateDiff Model (Adv.) 节点串联后，至少运行一步即可切换到其他模型。可将 ```apply_ref_when_disabled``` 设置为 True，以便在达到 ```end_percent``` 后，img_encoder 仍能继续工作。AnimateLCM-I2V 在高分辨率下保持连贯性方面也非常有用（结合 ControlNet 和 SD LoRA，我可以在一次运行中轻松将 512x512 的源图像放大到 1024x1024）。待补充示例。\n- 支持 [CameraCtrl](https:\u002F\u002Fgithub.com\u002Fhehao13\u002FCameraCtrl)，必须使用精简后的模型：[CameraCtrl_pruned.safetensors](https:\u002F\u002Fhuggingface.co\u002FKosinkadink\u002FCameraCtrl\u002Ftree\u002Fmain)。\n     - 注意：需要 AnimateDiff SD1.5 模型，并且该模型专为 v3 模型训练。仅限 Gen2 使用，Gen2\u002FCameraCtrl 子菜单中提供了辅助节点。\n- 支持 [PIA](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002FPIA)，使用模型 [pia.ckpt](https:\u002F\u002Fhuggingface.co\u002FLeoxing\u002FPIA\u002Ftree\u002Fmain)。\n     - 注意：需要使用 ```autoselect``` 或 ```sqrt_linear (AnimateDiff)``` beta_schedule。若要实际提供输入图像，需使用 ```Apply AnimateDiff-PIA Model``` Gen2 节点。```pia_input``` 可通过论文中的预设（```PIA Input [Paper Presets]```）或手动输入（```PIA Input [Multival]```）提供。\n- AnimateDiff 关键帧可在采样过程的不同阶段调整 Scale 和 Effect。\n- 支持 fp8；需要最新版本的 ComfyUI 和 torch >= 2.1（可降低显存占用，但会改变输出结果）。\n- 支持 Mac M1\u002FM2\u002FM3。\n- 通过 Gen2 Use Evolved Sampling 节点，可在 AnimateDiff 外部使用 Context Options 和 Sample Settings。\n- 可掩码且可调度的 SD LoRA（以及作为 LoRA 的模型），可用于 AnimateDiff 和 StableDiffusion。\n- 每帧 GLIGEN 坐标控制。\n     - 目前需要使用 KJNodes 中的 GLIGENTextBoxApplyBatch 节点来实现，但我很快会添加原生节点来完成此功能。\n- 采样过程中图像注入。\n- ContextRef 和 NaiveReuse（新颖的跨上下文一致性技术）\n\n## 即将推出的功能\n- AnimateDiff-Evolved 仓库中 **每项功能** 的示例流程，节点将配备使用说明（目前 Value\u002FPrompt Scheduling 节点已有说明），并提供 YouTube 教程和文档。\n- 支持 [UniCtrl](https:\u002F\u002Fgithub.com\u002FXuweiyiChen\u002FUniCtrl)。\n- 支持 Unet-Ref，以便移植大量相关论文。\n- 实现 [StoryDiffusion](https:\u002F\u002Fgithub.com\u002FHVision-NKU\u002FStoryDiffusion)。\n- 合并运动模型权重\u002F组件，包括按区块自定义。\n- 可掩码的运动 LoRA。\n- 时间步可调度的 GLIGEN 坐标。\n- 针对在不同 start\u002Fend_percents 加载\u002F卸载的运动模型的动态内存管理。\n- 其他与 AnimateDiff 相关的新功能。\n\n# [基本使用与节点](.\u002Fdocumentation\u002Fnodes)\n\n# [样本](.\u002Fdocumentation\u002Fsamples)\n\n\n\n## 已知问题\n\n### 部分运动模型会在生成的图像上留下明显水印（尤其是在使用 mm_sd_v15 时）\nAnimateDiff 论文作者所使用的训练数据中包含 Shutterstock 水印。由于 mm_sd_v15 是在更精细、更轻微的运动基础上微调的，因此运动模块会尝试复制该水印的透明度，而不会像 mm_sd_v14 那样将其模糊掉。使用其他运动模块，或通过 Advanced KSamplers 将它们组合使用，可以缓解水印问题。","# ComfyUI-AnimateDiff-Evolved 快速上手指南\n\nComfyUI-AnimateDiff-Evolved 是 ComfyUI 中 AnimateDiff 的增强版集成插件，不仅支持高质量的视频生成，还提供了名为\"Evolved Sampling\"的高级采样选项。本指南将帮助你快速部署并运行第一个动画工作流。\n\n## 1. 环境准备\n\n在开始之前，请确保你的开发环境满足以下要求：\n\n*   **操作系统**: Windows, Linux 或 macOS (支持 M1\u002FM2\u002FM3 芯片)。\n*   **核心软件**: 已安装最新版本的 [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI)。\n*   **依赖库**: \n    *   Python >= 3.10 (推荐)\n    *   PyTorch >= 2.1 (若需使用 fp8 特性或获得最佳性能)\n*   **前置插件推荐**: 为了获得完整功能，建议同时安装以下社区插件：\n    *   `ComfyUI-VideoHelperSuite`: 用于视频加载、合成及潜空间操作。\n    *   `ComfyUI-Advanced-ControlNet`: 用于更精细的 ControlNet 控制（含 SparseCtrl）。\n    *   `comfyui_controlnet_aux`: 提供额外的 ControlNet 预处理器。\n\n## 2. 安装步骤\n\n你可以选择通过管理器自动安装或手动克隆仓库。\n\n### 方法一：使用 ComfyUI Manager (推荐)\n\n1.  启动 ComfyUI，点击右侧菜单中的 **Manager** 按钮。\n2.  选择 **Install Custom Nodes**。\n3.  在搜索框中输入 `AnimateDiff Evolved`。\n4.  **重要**: 确认作者为 `Kosinkadink`，然后点击 **Install**。\n5.  安装完成后重启 ComfyUI。\n\n### 方法二：手动安装\n\n在终端中执行以下命令，将仓库克隆至 `custom_nodes` 目录：\n\n```bash\ncd ComfyUI\u002Fcustom_nodes\ngit clone https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-AnimateDiff-Evolved.git\n```\n\n克隆完成后重启 ComfyUI。\n\n### 模型配置 (必需)\n\n插件本身不包含运动模型，你需要手动下载至少一个运动模块 (Motion Module) 并放置到指定目录。\n\n1.  **下载模型**:\n    *   **基础模型推荐**: `mm_sd_v15_v2.safetensors` 或 `v3_sd15_mm.ckpt`。\n    *   **下载地址**:\n        *   HuggingFace (官方): [guoyww\u002Fanimatediff](https:\u002F\u002Fhuggingface.co\u002Fguoyww\u002Fanimatediff)\n        *   CivitAI: [AnimateDiff Motion Modules](https:\u002F\u002Fcivitai.com\u002Fmodels\u002F108836)\n        *   *国内加速*: 若访问受限，可使用镜像站或国内网盘资源搜索对应文件名。\n\n2.  **放置模型**:\n    将下载的 `.safetensors` 或 `.ckpt` 文件放入以下任一目录：\n    ```text\n    ComfyUI\u002Fcustom_nodes\u002FComfyUI-AnimateDiff-Evolved\u002Fmodels\n    或\n    ComfyUI\u002Fmodels\u002Fanimatediff_models\n    ```\n\n    *(可选) 如需使用 Motion LoRA 调整动作风格，请下载对应的 LoRA 文件并放入 `motion_lora` 子目录中。*\n\n## 3. 基本使用\n\n以下是创建一个最简动画生成工作流的步骤：\n\n### 步骤 1: 构建基础节点\n在画布中添加以下核心节点：\n1.  **Load Checkpoint**: 加载一个标准的 SD1.5 大模型 (如 `v1-5-pruned-emaonly.ckpt`)。\n2.  **CLIP Text Encode (Prompt)**: 分别连接正负提示词。\n3.  **Empty Latent Image**: 设置分辨率 (推荐 512x512) 和 **Batch size** (即帧数，初学者建议设为 16)。\n\n### 步骤 2: 接入 AnimateDiff\n1.  添加节点 **Apply AnimateDiff Model (Adv.)** (位于 `AnimateDiff` 分类下)。\n2.  在 `model_name` 参数中选择你刚才下载的模型 (例如 `mm_sd_v15_v2`)。\n3.  将该节点的 `model` 输出连接到 **Load Checkpoint** 的 `MODEL` 输入端（注意：这会替换原始模型输出，形成串联）。\n4.  将该节点的 `positive` 和 `negative` 输出分别连接到对应的 **CLIP Text Encode** 节点（如果节点设计为直接串联在条件编码之后），或者根据具体节点版本，将其作为中间处理层。\n    *   *标准连接方式*: Checkpoint MODEL -> Apply AnimateDiff Model -> KSampler MODEL。\n\n### 步骤 3: 采样与生成\n1.  添加 **KSampler** 节点。\n2.  连接模型、正向\u002F反向条件、潜空间图像。\n3.  设置采样参数：\n    *   `steps`: 20-25\n    *   `cfg`: 7-8\n    *   `sampler_name`: `euler_a` 或 `dpmpp_2m_karras`\n4.  添加 **VAE Decode** 和 **Save Image** (或使用 VideoHelperSuite 的 `Video Combine`) 节点以查看结果。\n\n### 步骤 4: 运行\n点击 **Queue Prompt**。系统将开始逐帧生成，最终合成为一段动画。\n\n> **提示**: 若要生成更流畅的长视频，请配合使用 `Context Options` (上下文选项) 节点，它允许通过滑动窗口机制生成无限长度的动画，而不会显存溢出。","一位独立动画创作者试图将静态的角色立绘转化为流畅的短视频，用于社交媒体宣传，但苦于传统方法生成的视频动作僵硬且闪烁严重。\n\n### 没有 ComfyUI-AnimateDiff-Evolved 时\n- **动作机械生硬**：直接使用基础图生视频模型，角色动作往往缺乏自然惯性，像木偶般卡顿，难以表现细腻的肢体语言。\n- **画面闪烁严重**：帧与帧之间的一致性差，背景纹理和角色衣物出现高频噪点闪烁，后期修复需要逐帧手动处理，耗时极长。\n- **控制能力薄弱**：无法精准指定哪些帧受姿态控制（ControlNet）影响，导致角色在复杂运镜中容易变形或脱离预设轨迹。\n- **采样选项单一**：缺乏高级采样策略，难以在保证清晰度的同时延长视频时长，生成的片段通常只有几秒且质量不稳定。\n\n### 使用 ComfyUI-AnimateDiff-Evolved 后\n- **运动自然流畅**：通过加载微调后的运动模块（如 mm-Stabilized_high），角色动作具备真实的物理惯性和平滑过渡，告别“木偶感”。\n- **时空高度一致**：利用进化采样（Evolved Sampling）技术，有效抑制了帧间闪烁，确保背景和服饰纹理在长时间序列中保持稳定清晰。\n- **精细化控制**：结合 Advanced-ControlNet 节点，可灵活定义上下文选项，精确控制特定潜空间帧受姿态约束，实现复杂的运镜与表演。\n- **创作自由度高**：支持 Motion LoRA 调整运动风格，并能轻松拼接长序列，让创作者能像搭积木一样构建高质量的分钟级动画。\n\nComfyUI-AnimateDiff-Evolved 将原本不可控的随机生成转变为可精细调度的专业动画工作流，大幅降低了高质量 AI 动画的制作门槛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FKosinkadink_ComfyUI-AnimateDiff-Evolved_a9ba3eae.png","Kosinkadink","Jedrzej Kosinski","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FKosinkadink_144e02ac.png",null,"https:\u002F\u002Fjedkos.com","https:\u002F\u002Fgithub.com\u002FKosinkadink",[83,87],{"name":84,"color":85,"percentage":86},"Python","#3572A5",97.5,{"name":88,"color":89,"percentage":90},"JavaScript","#f1e05a",2.5,3427,270,"2026-04-04T09:24:58","Apache-2.0","Linux, macOS, Windows","NVIDIA GPU 推荐（支持 CUDA），Mac M1\u002FM2\u002FM3 支持；显存需求取决于模型和分辨率，开启 fp8 可降低显存占用","未说明",{"notes":99,"python":97,"dependencies":100},"该工具是 ComfyUI 的自定义节点插件。需手动下载运动模型（Motion Modules）和可选的 Motion LoRAs 并放入指定目录。支持多种架构包括 SD1.5、SDXL (HotshotXL, AnimateDiff-SDXL)、AnimateLCM 及 CameraCtrl 等。若使用 fp8 功能需 torch>=2.1。部分功能（如 AnimateLCM-I2V）需要特定的 Gen2 节点配置。已知部分旧版运动模型生成的视频可能包含水印。",[101,102],"torch>=2.1 (用于 fp8 支持)","ComfyUI (最新版)",[14,35],"2026-03-27T02:49:30.150509","2026-04-06T08:40:53.278968",[107,112,117,122,126,130],{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},16065,"AnimateDiff Combine 节点已弃用，应该使用什么节点来合成视频？","不要使用 AnimateDiff Combine 节点，它已被弃用（不再获得支持）。请改用 Video Helper Suite (VHS) 中的 'Video Combine' 节点。VHS 仓库的视频相关节点由 AustinMroz 和维护者积极维护，而 AnimateDiff-Evolved 将专注于动画扩散相关的内容。","https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-AnimateDiff-Evolved\u002Fissues\u002F51",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},16066,"在 macOS (M1\u002FM2\u002FM3) 上生成超过一定帧数后出现黑屏或黑图怎么办？","这是 PyTorch 在 macOS 上的底层问题。对于 v1 版本的 AnimateDiff 模型，更新到最新版的 AnimateDiff-Evolved 插件会自动触发 'unlimited_area_hack' 来防止黑图。对于 v2 和 v3 模型，通常不需要此黑客技巧即可正常工作。如果仍然遇到黑图问题，请确保插件已更新至最新版本。","https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-AnimateDiff-Evolved\u002Fissues\u002F48",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},16067,"遇到 'Cannot copy out of meta tensor; no data!' 或 'NoneType' object has no attribute '_parameters' 错误如何解决？","这通常与 ComfyUI 的低显存模式（lowvram）或元张量（meta tensors）处理有关。该问题在几个月前 ComfyUI 更新其低显存系统不再使用元张量后应已解决。请确保您的 ComfyUI 和 AnimateDiff-Evolved 插件都已更新到最新版本。如果问题依旧，尝试重启 ComfyUI 或检查是否启用了不兼容的低显存设置。","https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-AnimateDiff-Evolved\u002Fissues\u002F50",{"id":123,"question_zh":124,"answer_zh":125,"source_url":111},16068,"如何在 Windows 上安装 FFmpeg 以解决视频处理相关问题？","1. 访问 FFmpeg 官方网站或使用受信任的构建版（如 gyan.dev）下载适合您系统（32 位或 64 位）的最新版本。\n2. 将下载的压缩包解压到指定位置（例如 C:\\ffmpeg）。\n3. 将 FFmpeg 的 bin 目录路径添加到系统环境变量 PATH 中：右键点击“此电脑” -> 属性 -> 高级系统设置 -> 环境变量 -> 在“系统变量”中找到 Path -> 编辑 -> 新建 -> 输入路径（如 C:\\ffmpeg\\bin）-> 确定。\n4. 重启终端或 ComfyUI 使更改生效。",{"id":127,"question_zh":128,"answer_zh":129,"source_url":116},16069,"SDXL 模型在 macOS 上即使使用了修复方案仍然输出黑图怎么办？","目前的 'unlimited_area_hack' 修复方案主要适用于 512x512 分辨率和 SD1.5 模型。对于 SDXL 模型（包括 base, turbo 等），即使在 M1 Max 等大内存设备上，仍可能出现黑图问题。这可能与 SDXL 的架构或特定的运动模型（如 mm_sdxl_v10_beta）兼容性有关。建议尝试降低分辨率、减少 batch_size 或 context_length，并关注插件的后续更新以获取对 SDXL 更好的支持。",{"id":131,"question_zh":132,"answer_zh":133,"source_url":111},16070,"为什么第一次生成成功，但第二次及以后的生成会报错直到重启 ComfyUI？","这通常是由于显存管理或模型状态未正确重置导致的罕见 Bug，特别是在旧版本的 ComfyUI 或插件中。该问题与元张量（meta tensors）在低显存模式下的处理有关。随着 ComfyUI 低显存系统的更新（不再使用元张量），此问题在最新版本中应已得到解决。请务必将 ComfyUI 主程序和 AnimateDiff-Evolved 插件都升级到最新版。",[]]