[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-banodoco--Steerable-Motion":3,"tool-banodoco--Steerable-Motion":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":75,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":10,"env_os":78,"env_gpu":95,"env_ram":96,"env_deps":97,"category_tags":107,"github_topics":79,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":108,"updated_at":109,"faqs":110,"releases":139},3157,"banodoco\u002FSteerable-Motion","Steerable-Motion","A ComfyUI node for driving videos using batches of images.","Steerable-Motion 是一套专为 ComfyUI 设计的自定义节点与工作流，旨在让用户通过一系列静态图片精准驱动视频生成，实现图像间的平滑过渡与动态演变。它主要解决了传统“文生视频”难以精确控制画面内容和运动轨迹的痛点，让创作者能像使用画笔一样，将脑海中的分镜构想转化为符合预期的动态影像。\n\n该工具特别适合熟悉 ComfyUI 的操作者、数字艺术家及视觉设计师使用。虽然它不像通用模型那样“开箱即用”，需要用户通过尝试来掌握参数调节与素材适配的技巧，但一旦熟练运用，便能提供极高的创作自由度。其技术亮点在于提供了两种核心路径：一是基于 Wan 架构，利用 VACE 技术生成锚点图像并串联续写；二是基于 AnimateDiff，巧妙结合 IP-Adapter 与 SparseCtrl 来控制运动风格。此外，项目还内置了多种预设工作流（如\"Smooth n' Steady\"的流畅模式或\"Rad Attack\"的写实模式），用户只需微调关键设置，即可在块状、液态或拟真等不同运动质感间自由切换，打造出独一无二的视觉作品。","# Steerable Motion, ComfyUI custom nodes & workflows node for steering videos with batches of images\n\nSteerable Motion is a set of ComfyUI nodes and workflows for travelling between images.\n\n## Installation in Comfy\n\n1. If you haven't already, install [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI) and [Comfy Manager](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Manager) - you can find instructions on their pages.\n2. When the workflow opens, download the dependent nodes by pressing \"Install Missing Custom Nodes\" in Comfy Manager. Search and download the required models from Comfy Manager also.\n\n## Wan\n\nThe Wan approach uses VACE to create anchor images and continuations from previous images, which are chained together at the end:\n\n![Main example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbanodoco_Steerable-Motion_readme_263161cb56e1.gif)\n\n\n### Sample workflow for Wan\n\nYou can find a workflow [here](demo\u002FVace_Travel.json) to get started.\n\n## Animatediff\n\nThe Animatediff approach uses a combination of IP-Adapter and SparseCtrl to travel between images:\n\n![Main example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbanodoco_Steerable-Motion_readme_477b82f1a882.gif)\n\n\n### 5 basic workflows for Animatediff\n\nBelow are 5 basic workflows - each with their own weird and unique characteristics - all with differing levels of adherence and different types of motion - most of the changes come from tweaking the IPA configuration and switching out base models:\n\n- [Smooth n' Steady](https:\u002F\u002Fraw.githubusercontent.com\u002Fbanodoco\u002Fsteerable-motion\u002Fmain\u002Fdemo\u002Fsteerable-motion_smooth-n-steady.json): tends to have nice smooth motion - good starting point\n- [Rad Attack](https:\u002F\u002Fraw.githubusercontent.com\u002Fbanodoco\u002Fsteerable-motion\u002Fmain\u002Fdemo\u002Fsteerable-motion_rad-attack.json): probably the best for realistic motion\n- [Slurshy Realistiche](https:\u002F\u002Fraw.githubusercontent.com\u002Fbanodoco\u002Fsteerable-motion\u002Fmain\u002Fdemo\u002Fsteerable-motion_slurshy-realistiche.json): moves in a slightly realistic manner but is a little bit slurshy\n- [Chocky Realistiche](https:\u002F\u002Fraw.githubusercontent.com\u002Fbanodoco\u002Fsteerable-motion\u002Fmain\u002Fdemo\u002Fsteerable-motion_chocky-realistiche.json): realistic-ish but very blocky\n- [Liquidy Loop](https:\u002F\u002Fraw.githubusercontent.com\u002Fbanodoco\u002Fsteerable-motion\u002Fmain\u002Fdemo\u002Fsteerable-motion_liquidy-loop.json): smooth and liquidy\n\nYou can see each in acton below:\n\n![basic workflows](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbanodoco_Steerable-Motion_readme_75cefec85e60.gif)\n\n## Philosophy for getting the most from these\n\nThis isn't an approach like text to video that will perform well out of the box, it's more like a paint brush - an artistic tool that you need to figure out how to get the best from. \n\nThrough trial and error, you'll need to build an understanding of how the motion and settings work, what its limitations are, which inputs images work best with it, etc.\n\nIt won't work for everything but if you can figure out how to wield it, this approach can provide enough control for you to make beautiful things that match your imagination precisely.\n\nIn both cases, tweaking the settings can greatly influence the motion - for example, below you can see two examples of the same images animated - but with the one setting tweaked, the length of each frame's influence:\n\n![Tweaking settings example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbanodoco_Steerable-Motion_readme_d93ed3f27d0a.gif)\n\n## Want to give feedback, or join a community who are pushing open source models to their artistic and technical limits?\n\nYou're very welcome to drop into our Discord [here](https:\u002F\u002Fdiscord.com\u002Finvite\u002F8Wx9dFu5tP).\n\n## Credits\n\nFor Animatediff, the code draws heavily from Cubiq's [IPAdapter_plus](https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus), while the workflow uses Kosinkadink's [Animatediff Evolved](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-AnimateDiff-Evolved) and [ComfyUI-Advanced-ControlNet](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-Advanced-ControlNet), Fizzledorf's [Fizznodes](https:\u002F\u002Fgithub.com\u002FFizzleDorf\u002FComfyUI_FizzNodes), Fannovel16's [Frame Interpolation](https:\u002F\u002Fgithub.com\u002FFannovel16\u002FComfyUI-Frame-Interpolation) and more. \n\nFor Wan, it's built on top of the work of Kijai's wonderful [ComfyUI-WanVideoWrapper](https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-WanVideoWrapper) and of course the VACE and Wan teams. \n","# 可控运动，ComfyUI 自定义节点及工作流节点，用于通过批量图像引导视频生成\n\n可控运动是一组用于在图像之间过渡的 ComfyUI 节点和工作流。\n\n## 在 Comfy 中安装\n\n1. 如果您尚未安装，请先安装 [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI) 和 [Comfy Manager](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Manager)——您可以在它们的官方页面上找到安装说明。\n2. 当工作流打开时，在 Comfy Manager 中点击“安装缺失的自定义节点”以下载依赖节点。同时，也请在 Comfy Manager 中搜索并下载所需的模型。\n\n## Wan\n\nWan 方法使用 VACE 生成锚定图像以及基于前一张图像的延续帧，最后将这些帧串联起来：\n\n![主要示例](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbanodoco_Steerable-Motion_readme_263161cb56e1.gif)\n\n\n### Wan 的示例工作流\n\n您可以在此处找到一个工作流 [Vace_Travel.json](demo\u002FVace_Travel.json)，以便开始使用。\n\n## Animatediff\n\nAnimatediff 方法结合了 IP-Adapter 和 SparseCtrl 来实现图像之间的过渡：\n\n![主要示例](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbanodoco_Steerable-Motion_readme_477b82f1a882.gif)\n\n\n### Animatediff 的 5 种基础工作流\n\n以下是 5 种基础工作流——每种都有其独特而有趣的特点——它们在对输入图像的忠实度和运动类型上各有不同。大多数变化都来自于调整 IPA 的配置以及更换基础模型：\n\n- [平滑稳定](https:\u002F\u002Fraw.githubusercontent.com\u002Fbanodoco\u002Fsteerable-motion\u002Fmain\u002Fdemo\u002Fsteerable-motion_smooth-n-steady.json)：通常具有流畅的运动效果，是不错的起点。\n- [狂暴冲击](https:\u002F\u002Fraw.githubusercontent.com\u002Fbanodoco\u002Fsteerable-motion\u002Fmain\u002Fdemo\u002Fsteerable-motion_rad-attack.json)：可能是实现逼真运动的最佳选择。\n- [软糯写实](https:\u002F\u002Fraw.githubusercontent.com\u002Fbanodoco\u002Fsteerable-motion\u002Fmain\u002Fdemo\u002Fsteerable-motion_slurshy-realistiche.json)：动作略显真实，但稍显“软糯”。\n- [方块写实](https:\u002F\u002Fraw.githubusercontent.com\u002Fbanodoco\u002Fsteerable-motion\u002Fmain\u002Fdemo\u002Fsteerable-motion_chocky-realistiche.json)：接近写实，但画面较为“方块化”。\n- [液态循环](https:\u002F\u002Fraw.githubusercontent.com\u002Fbanodoco\u002Fsteerable-motion\u002Fmain\u002Fdemo\u002Fsteerable-motion_liquidy-loop.json)：流畅且富有液态感。\n\n您可以在下方看到每种工作流的实际效果：\n\n![基础工作流](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbanodoco_Steerable-Motion_readme_75cefec85e60.gif)\n\n## 如何充分利用这些方法的理念\n\n这并非像文本转视频那样开箱即用就能获得理想效果的方法，它更像是一支画笔——一种需要您不断摸索才能发挥最大潜力的艺术工具。\n\n通过反复试验，您需要逐步理解运动机制与参数设置的工作原理、其局限性、哪些输入图像最适合等。虽然它并不适用于所有场景，但只要掌握其使用技巧，这种方法就能为您提供足够的控制力，让您创作出完全符合想象的精美作品。\n\n在两种方法中，调整参数都会显著影响最终的运动效果。例如，下面展示了同一组图像经过动画处理后的两个版本，仅改变了单个参数——每一帧的影响持续时间：\n\n![调整参数示例](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbanodoco_Steerable-Motion_readme_d93ed3f27d0a.gif)\n\n## 想提供反馈，或加入一个致力于将开源模型推向艺术与技术极限的社区吗？\n\n欢迎您随时加入我们的 Discord 社区 [这里](https:\u002F\u002Fdiscord.com\u002Finvite\u002F8Wx9dFu5tP)。\n\n## 致谢\n\n对于 Animatediff，其代码大量借鉴了 Cubiq 的 [IPAdapter_plus](https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus)，而工作流则使用了 Kosinkadink 的 [Animatediff Evolved](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-AnimateDiff-Evolved) 和 [ComfyUI-Advanced-ControlNet](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-Advanced-ControlNet)，FizzleDorf 的 [Fizznodes](https:\u002F\u002Fgithub.com\u002FFizzleDorf\u002FComfyUI_FizzNodes)，Fannovel16 的 [帧插值](https:\u002F\u002Fgithub.com\u002FFannovel16\u002FComfyUI-Frame-Interpolation) 等。\n\n对于 Wan，则是在 Kijai 优秀的 [ComfyUI-WanVideoWrapper](https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-WanVideoWrapper) 的基础上构建而成，当然也离不开 VACE 和 Wan 团队的贡献。","# Steerable Motion 快速上手指南\n\nSteerable Motion 是一套专为 ComfyUI 设计的自定义节点和工作流，旨在通过图像批次实现视频画面的平滑过渡与运镜控制。它支持 **Wan (VACE)** 和 **Animatediff** 两种核心方案，让开发者能像使用画笔一样精细操控视频生成。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Windows, Linux 或 macOS\n*   **核心依赖**:\n    *   [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI) (已安装并可正常运行)\n    *   [ComfyUI-Manager](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Manager) (用于管理插件和模型)\n*   **硬件建议**: 推荐使用具备较大显存 (VRAM) 的 NVIDIA GPU，以支持视频生成任务。\n*   **网络环境**: 由于涉及大量模型下载，建议配置稳定的网络连接或使用国内镜像加速服务。\n\n## 安装步骤\n\n请按照以下步骤在 ComfyUI 中部署 Steerable Motion：\n\n1.  **启动 ComfyUI**: 确保您已正确安装并启动了 ComfyUI 主程序。\n2.  **加载工作流**:\n    *   将官方提供的示例工作流文件（如 `demo\u002FVace_Travel.json` 或 `demo\u002Fsteerable-motion_smooth-n-steady.json`）拖入 ComfyUI 界面。\n3.  **安装缺失节点**:\n    *   打开界面上的 **ComfyUI Manager** 菜单。\n    *   点击 **\"Install Missing Custom Nodes\"** 按钮。\n    *   系统会自动识别并列出所需的所有自定义节点，点击 **Install** 进行批量安装。\n4.  **下载模型**:\n    *   安装完节点后，重启 ComfyUI。\n    *   再次打开工作流，红色报错的节点通常表示缺少模型。\n    *   在 ComfyUI Manager 中搜索并下载对应的模型文件（如 IP-Adapter 模型、SparseCtrl 模型或 VACE\u002FWan 相关底模）。\n    *   *提示：部分大模型也可手动下载至 `ComfyUI\u002Fmodels\u002F` 对应目录下。*\n\n## 基本使用\n\nSteerable Motion 提供了两种主要的技术路线，您可以根据需求选择合适的工作流开始尝试。\n\n### 方案一：Animatediff 路线\n该方案结合 **IP-Adapter** 和 **SparseCtrl** 实现图像间的动态过渡。官方提供了 5 种预设风格的工作流，适合不同场景：\n\n*   **Smooth n' Steady**: 运动平滑稳定，适合新手入门。\n    *   工作流地址: `https:\u002F\u002Fraw.githubusercontent.com\u002Fbanodoco\u002Fsteerable-motion\u002Fmain\u002Fdemo\u002Fsteerable-motion_smooth-n-steady.json`\n*   **Rad Attack**: 拟真度最高，适合追求真实物理运动的场景。\n    *   工作流地址: `https:\u002F\u002Fraw.githubusercontent.com\u002Fbanodoco\u002Fsteerable-motion\u002Fmain\u002Fdemo\u002Fsteerable-motion_rad-attack.json`\n*   **其他风格**: 包括略带流动感的 \"Slurshy Realistiche\"、块状风格的 \"Chocky Realistiche\" 以及液态循环的 \"Liquidy Loop\"。\n\n**操作示例**:\n1.  下载上述任意一个 `.json` 工作流文件并导入 ComfyUI。\n2.  在 `Load Image` 节点上传您的起始图片和结束图片（或多张关键帧）。\n3.  调整 **IPA Configuration** (IP-Adapter 配置) 或切换 **Base Model** 以改变运动特性。\n4.  点击 **Queue Prompt** 生成视频。\n\n### 方案二：Wan (VACE) 路线\n该方案利用 **VACE** 创建锚点图像并基于前一帧生成延续画面，最后串联成视频。\n\n**操作示例**:\n1.  导入官方 Wan 示例工作流: `demo\u002FVace_Travel.json`。\n2.  准备一组有序的图像序列作为输入。\n3.  运行工作流，系统将自动处理图像间的插值与连贯性生成。\n\n### 调优建议\nSteerable Motion 更像是一个艺术创作工具而非“一键生成”方案。为了获得最佳效果：\n*   **反复试验**: 通过试错理解运动参数与输入图像的关系。\n*   **微调参数**: 重点调整 **Frame Influence Length** (每帧的影响长度) 等设置，细微的改动即可显著改变运动流畅度。\n*   **素材选择**: 并非所有图片组合都能完美运作，选择特征清晰、构图合理的图片作为关键帧效果更佳。","一位独立动画师正在制作一部风格化短片，需要将主角在五个不同关键帧姿势间的转换过程流畅地演绎出来。\n\n### 没有 Steerable-Motion 时\n- **转场生硬断裂**：传统文生视频或简单插值无法精准控制中间帧，导致角色在关键姿势间“瞬移”或产生诡异的形变，破坏叙事连贯性。\n- **试错成本极高**：为了获得一段自然的运动，需反复调整提示词并重新生成整个片段，耗时数小时却难以复现理想的动态轨迹。\n- **风格一致性差**：生成的中间画面容易丢失原始关键帧的艺术风格（如线条粗细、色彩基调），后期需要逐帧手动修复。\n- **缺乏精细控制**：无法针对特定段落定制运动质感，想要“液态流动”或“块状顿挫”等不同效果时只能碰运气。\n\n### 使用 Steerable-Motion 后\n- **精准轨迹驱动**：直接导入那五张关键帧图片作为批次输入，Steerable-Motion 能强制视频严格沿着预设图像路径演变，消除动作断裂。\n- **工作流高效迭代**：利用内置的\"Smooth n' Steady\"或\"Rad Attack\"等预设工作流，几分钟内即可生成多种运动质感的草稿，快速锁定最佳方案。\n- **风格完美继承**：基于 IP-Adapter 和 SparseCtrl 技术，生成的每一帧都牢牢锁定原图的艺术特征，无需后期额外校色或重绘。\n- **动态质感可调**：通过微调单帧影响长度等参数，可自由切换从“丝滑流畅”到“机械顿挫”的运动风格，精确匹配导演意图。\n\nSteerable-Motion 将不可控的视频生成转化为像画笔一样精准的艺术创作工具，让创作者能完全掌控画面运动的每一个细节。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbanodoco_Steerable-Motion_d93ed3f2.gif","banodoco","Banodoco","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbanodoco_141b2696.png","",null,"https:\u002F\u002Fbanodoco.ai\u002F","https:\u002F\u002Fgithub.com\u002Fbanodoco",[83,87],{"name":84,"color":85,"percentage":86},"Python","#3572A5",99.8,{"name":88,"color":89,"percentage":90},"Batchfile","#C1F12E",0.2,970,48,"2026-04-01T01:02:31","NOASSERTION","未说明（基于 ComfyUI 及 AnimateDiff\u002FWan 模型，通常需 NVIDIA GPU）","未说明",{"notes":98,"python":96,"dependencies":99},"该工具是 ComfyUI 的自定义节点集，需先安装 ComfyUI 和 ComfyUI Manager。运行时需通过 Manager 自动下载缺失的自定义节点和相关模型。提供两种主要方案：Wan（使用 VACE）和 Animatediff（结合 IP-Adapter 和 SparseCtrl）。作者强调该工具更像艺术画笔而非开箱即用的文本生成视频工具，需要用户通过试错调整参数以获得最佳效果。",[19,100,101,102,103,104,105,106],"ComfyUI-Manager","ComfyUI_IPAdapter_plus","ComfyUI-AnimateDiff-Evolved","ComfyUI-Advanced-ControlNet","ComfyUI_FizzNodes","ComfyUI-Frame-Interpolation","ComfyUI-WanVideoWrapper",[35,14],"2026-03-27T02:49:30.150509","2026-04-06T06:44:00.581091",[111,116,121,126,131,135],{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},14546,"运行节点时出现显存溢出（GPU Overflow）或自动进入低显存模式导致卡顿，如何解决？","这通常是因为显存（VRAM）不足。解决方法包括：1. 关闭工作流中的“高细节模式”（high detail mode）；2. 检查是否加载了其他占用大量显存的节点（如最新的 musetalk 节点会自动挂载模型，直接占用约 8GB 显存），尝试卸载或更新这些冲突节点；3. 确保显卡显存充足（建议 10GB-12GB 以上以运行多张图片）。","https:\u002F\u002Fgithub.com\u002Fbanodoco\u002FSteerable-Motion\u002Fissues\u002F46",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},14547,"执行 BatchCreativeInterpolation 时报错 'size mismatch for proj.weight'，形状不匹配怎么办？","这是因为加载的 IP Adapter 模型与当前工作流设定的模型版本不匹配（例如试图将 SDXL 模型加载到 SD1.5 架构中，或反之）。请检查工作流中的 IP Adapter 节点设置，确保选择了正确的模型版本（如将 'IPAdapter for SD15' 改为 'IPAdapter Plus' 或对应 SDXL 的模型），并确认下载的模型文件与工作流需求一致。","https:\u002F\u002Fgithub.com\u002Fbanodoco\u002FSteerable-Motion\u002Fissues\u002F24",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},14548,"更新后报错 'not enough values to unpack' 或 'too many values to unpack'，提示强度值数量错误？","此错误通常发生在更新节点后，旧的工作流配置与新版本的输入格式不兼容。特别是当 'linear_key_frame_influence' 设置为 'dynamic' 时，如果输入的强度值列表长度不符合新代码的预期（如期望 3 个值却只得到 2 个，或反之），就会报错。请检查相关节点的输入参数，重新连接或调整强度列表以匹配新版本的要求，或者重置该节点的默认设置。","https:\u002F\u002Fgithub.com\u002Fbanodoco\u002FSteerable-Motion\u002Fissues\u002F26",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},14549,"更新节点后出现 'Attn2Replace object has no attribute ipadapters' 错误，如何修复？","这是由于依赖节点（如 ComfyUI_IPAdapter_plus 或 Advanced Controlnet）版本过旧或与当前 Steerable Motion 版本不兼容导致的。解决方案是更新所有相关的自定义节点，特别是 IPAdapter Plus 和控制网相关节点，确保它们都是最新版本。更新后重启 ComfyUI 通常能解决此属性缺失问题。","https:\u002F\u002Fgithub.com\u002Fbanodoco\u002FSteerable-Motion\u002Fissues\u002F67",{"id":132,"question_zh":133,"answer_zh":134,"source_url":115},14550,"使用 K-Sampler 或其他采样器时频繁报错，且群组中多人遇到相同问题，可能是什么原因？","如果多人遇到相同的采样器错误，通常是环境配置或依赖节点版本问题。首先尝试更新项目依赖的核心节点（如 Advanced Controlnet），因为维护者可能已在底层节点中修复了潜在冲突。其次，检查是否有其他新安装的节点（如 musetalk）占用了资源或修改了全局设置，导致采样器无法正常工作。",{"id":136,"question_zh":137,"answer_zh":138,"source_url":120},14551,"即使模型设置看似正确，仍然遇到低显存（lowvram）崩溃，有什么排查建议？","除了切换正确的 IP Adapter 模型外，还需注意：1. 确认显存总量是否满足需求（生成 3 张图片可能需要约 10GB 显存）；2. 避免同时运行其他高显存占用的后台程序或节点；3. 如果必须使用低显存模式，请降低分辨率或减少批次大小（batch size）；4. 等待官方提供的模型下载链接，确保使用的是经过验证的正确模型文件，而非手动放置的错误版本。",[]]