[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-princepainter--ComfyUI-PainterI2V":3,"tool-princepainter--ComfyUI-PainterI2V":64},[4,18,26,35,44,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,43],"视频",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[15,16,43,52,13,53,54,14,55],"插件","其他","语言模型","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":17},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[13,15,14,54,53],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":80,"difficulty_score":32,"env_os":90,"env_gpu":91,"env_ram":90,"env_deps":92,"category_tags":97,"github_topics":80,"view_count":32,"oss_zip_url":80,"oss_zip_packed_at":80,"status":17,"created_at":98,"updated_at":99,"faqs":100,"releases":101},4295,"princepainter\u002FComfyUI-PainterI2V","ComfyUI-PainterI2V","An enhanced Wan2.2 Image-to-Video node specifically designed to fix the slow-motion issue in 4-step LoRAs (like lightx2v).","ComfyUI-PainterI2V 是一款专为 ComfyUI 设计的增强型节点，旨在优化 Wan2.2 模型的图生视频（Image-to-Video）效果。它主要解决了在使用 4 步加速 LoRA（如 lightx2v）时，生成视频常出现的动作过于缓慢、运镜幅度不足等“慢动作”痛点。通过该节点，用户可将视频中的运动幅度提升 15% 至 50%，并显著增强对运镜提示词的响应能力，让画面动态更加自然流畅。\n\n这款工具非常适合希望快速提升视频生成质量的设计师、内容创作者以及 AI 绘画爱好者。其最大的亮点在于“即插即用”的便捷性：无需修改复杂的工作流，只需将原生的 WanImageToVideo 节点替换为 PainterI2V，即可兼容现有流程。在技术层面，ComfyUI-PainterI2V 采用了独特的“亮度保护运动缩放”算法，在放大运动向量的同时分离亮度均值，确保画面亮度稳定；同时结合零 Latent 初始化策略，严格维持 4 步 LoRA 的时序依赖，在保证主体一致性的前提下大幅释放动态潜力。用户仅需简单调节 motion_amplitude 参数，即可针对不同场景（如跑步、行","ComfyUI-PainterI2V 是一款专为 ComfyUI 设计的增强型节点，旨在优化 Wan2.2 模型的图生视频（Image-to-Video）效果。它主要解决了在使用 4 步加速 LoRA（如 lightx2v）时，生成视频常出现的动作过于缓慢、运镜幅度不足等“慢动作”痛点。通过该节点，用户可将视频中的运动幅度提升 15% 至 50%，并显著增强对运镜提示词的响应能力，让画面动态更加自然流畅。\n\n这款工具非常适合希望快速提升视频生成质量的设计师、内容创作者以及 AI 绘画爱好者。其最大的亮点在于“即插即用”的便捷性：无需修改复杂的工作流，只需将原生的 WanImageToVideo 节点替换为 PainterI2V，即可兼容现有流程。在技术层面，ComfyUI-PainterI2V 采用了独特的“亮度保护运动缩放”算法，在放大运动向量的同时分离亮度均值，确保画面亮度稳定；同时结合零 Latent 初始化策略，严格维持 4 步 LoRA 的时序依赖，在保证主体一致性的前提下大幅释放动态潜力。用户仅需简单调节 motion_amplitude 参数，即可针对不同场景（如跑步、行走或极限运动）获得理想的动态效果。","# ComfyUI-PainterI2V  此节点由抖音博主：绘画小子 制作。\r\n\r\nWan2.2 图生视频增强节点，专门针对4步LoRA（如 lightx2v）的慢动作问题进行优化。\r\n\r\n2026-2-13 我制作了一个PainterHumoAI2V节点，已经实现WAN2.2+Humo 直接 音频+图片 4步生成音频驱动的图生视频（AI2V）并支持首尾帧，欢迎尝试（项目内有工作流）！https:\u002F\u002Fgithub.com\u002Fprincepainter\u002FComfyUI-PainterNodes\r\n\r\n2025-12-30，我更新了一个PainterI2V的优化版PainterI2Vadvanced，建议尝试使用。项目地址：https:\u002F\u002Fgithub.com\u002Fprincepainter\u002FComfyUI-PainterI2Vadvanced\r\n\r\n如果你用的是KJ的wan2.2-i2v工作流，请使用这个专门为KJ开发的节点，效果一致 (https:\u002F\u002Fgithub.com\u002Fprincepainter\u002FComfyUI-PainterI2VforKJ)\r\n\r\n（FirstLastFrameToVideo）首尾帧节点 PainterFLF2V：https:\u002F\u002Fgithub.com\u002Fprincepainter\u002FComfyui-PainterFLF2V\r\n\r\n## 🛠 解决的问题\r\n\r\n- ✅ 1.减少慢动作：提升运动幅度 15-50%\r\n- ✅ 2.增强运镜：让运镜提示词更听话，运镜幅度更大\r\n\r\n  ## 和wan2.2官方节点效果对比\r\n\r\n\u003Ctable>\r\n  \u003Ctr>\r\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fprincepainter_ComfyUI-PainterI2V_readme_c04c81a932f0.gif\" alt=\"图1\" width=\"300\">\u003C\u002Ftd>\r\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fprincepainter_ComfyUI-PainterI2V_readme_54dc761f514a.gif\" alt=\"图2\" width=\"300\">\u003C\u002Ftd>\r\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fprincepainter_ComfyUI-PainterI2V_readme_ea98a084e367.gif\" alt=\"图3\" width=\"300\">\u003C\u002Ftd>\r\n  \u003C\u002Ftr>\r\n  \u003Ctr>\r\n    \u003Ctd>motion_amplitude=1.2\u003C\u002Ftd>\r\n    \u003Ctd>motion_amplitude=1.15\u003C\u002Ftd>\r\n    \u003Ctd>motion_amplitude=1.15\u003C\u002Ftd>\r\n  \u003C\u002Ftr>\r\n  \u003Ctr>\r\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fprincepainter_ComfyUI-PainterI2V_readme_85d0b42a31b3.gif\" alt=\"图4\" width=\"300\">\u003C\u002Ftd>\r\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fprincepainter_ComfyUI-PainterI2V_readme_6e15698b686a.gif\" alt=\"图5\" width=\"300\">\u003C\u002Ftd>\r\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fprincepainter_ComfyUI-PainterI2V_readme_a2ddfa8d8dfd.gif\" alt=\"图6\" width=\"300\">\u003C\u002Ftd>\r\n  \u003C\u002Ftr>\r\n  \u003Ctr>\r\n    \u003Ctd>motion_amplitude=1.5\u003C\u002Ftd>\r\n    \u003Ctd>motion_amplitude=1.2\u003C\u002Ftd>\r\n    \u003Ctd>motion_amplitude=1.15\u003C\u002Ftd>\r\n  \u003C\u002Ftr>\r\n\u003C\u002Ftable>\r\n\r\n\r\n以上视频对比效果，我是使用wan2.2官方模型+light2v 4步i2v lora V1.0做的测试（见下图），其他模型使用效果有待各位自行测试\r\n\r\n ![我使用的模型和lora](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fprincepainter_ComfyUI-PainterI2V_readme_aa6c504ee02e.jpg)\r\n## 节点特点\r\n- 单帧输入优化：专为wan2.2单帧图生视频设计\r\n- 即插即用：完全兼容原版 Wan2.2 工作流\r\n\r\n## 📦 安装\r\n\r\n### 方法 1: ComfyUI Manager（推荐）\r\n\r\n1. 打开 ComfyUI Manager  \r\n2. 搜索 PainterI2V  \r\n3. 点击安装  \r\n\r\n### 方法 2: 手动安装\r\n\r\n```bash\r\n# 进入ComfyUI的custom_nodes目录\r\ncd ComfyUI\u002Fcustom_nodes\r\n\r\n# 克隆仓库\r\ngit clone https:\u002F\u002Fgithub.com\u002Fprincepainter\u002FComfyUI-PainterI2V.git\r\n```\r\n# 重启ComfyUI\r\n\r\n## 💡 使用方法\r\n\r\n### 替换节点\r\n\r\n在工作流中将 `WanImageToVideo` 替换为 `PainterI2V`\r\n![替换原节点](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fprincepainter_ComfyUI-PainterI2V_readme_752f74cf05cb.jpg)\r\n\r\n### 参数设置\r\n\r\n- `motion_amplitude`: 1.15（推荐起始值）\r\n- 其他参数与原版保持一致\r\n\r\n### 场景参数推荐\r\n\r\n| 运动类型         | 推荐参数   | 示例提示词             |\r\n|------------------|------------|------------------------|\r\n| 快速（跑步 \u002F 跳跃） | 1.25–1.35  | \"快速向前奔跑\"         |\r\n| 正常（走路 \u002F 挥手） | 1.10–1.20  | \"流畅地行走\"           |\r\n| 动态增强          | 1.00–1.10  | \"略微增强动态和运镜\"    |\r\n\r\n### 提示词优化\r\n\r\n- 明确描述运动节奏，如 “快速奔跑”、“流畅行走”\r\n- 避免模糊描述如 “移动”、“走动”\r\n\r\n## 🔬 技术细节\r\n\r\n| 参数值 | 运动提升 | 亮度变化 | 适用场景     |\r\n|--------|----------|----------|--------------|\r\n| 1.0（原版） | 0%       | 无       | 和WAN原版节点无区别   |\r\n| 1.15（默认）| +15%     | 无       | 通用场景     |\r\n| 1.3    | +30%     | 无       | 体育运动     |\r\n| 1.5    | +50%     | 无       | 极限运动     |\r\n\r\n### 核心算法原理\r\n\r\n- **亮度保护的运动缩放**：放大运动向量前分离亮度均值  \r\n- **零 latent 初始化**：严格保持 4 步 LoRA 的时序依赖链  \r\n- **参考帧增强**：使用 `reference_latents` 保持主体一致性，不约束运动\r\n\r\n## ⚡ 进阶技巧\r\n\r\n- 最佳效果：配合强运动提示词使用  \r\n- 运动过快：每次减少 `motion_amplitude` 0.05  \r\n- 仍然偏慢：可适当增大到 1.4\r\n\r\n## 🙏 致谢\r\n\r\n- Wan2.2 团队：提供惊人的视频生成模型  \r\n- ComfyUI 社区：灵活的节点系统  \r\n🙏如果这个项目对你有帮助，请给颗星 ⭐️ 支持一下！\r\n\r\n- # ComfyUI-Painterl2V\r\n\r\nThis node is created by Douyin creator: 绘画小子\r\n\r\nPainterI2V node that specifically fixes the slow-motion issue in 4-step LoRAs (e.g., lightx2v).\r\n\r\n2025-12-30现在已经推出升级版PainterI2Vadvanced，建议使用。项目地址：https:\u002F\u002Fgithub.com\u002Fprincepainter\u002FPainterI2Vadvanced\r\n\r\nThe comparative effects in the above video are from my test using the official Wan2.2 model + Light2v 4-step I2V LoRA V1.0. The performance of other models awaits your own testing .\r\n\r\nIf you're using KJ's wan2.2-i2v workflow, use this node specifically developed for KJ — the effect is consistent.https:\u002F\u002Fgithub.com\u002Fprincepainter\u002FComfyUI-PainterI2VforKJ\r\n\r\n## 🛠 Problems Solved\r\n\r\n- ✅ Reduces Slow-Motion Drag: Increases motion amplitude by 15-50% \r\n- ✅ Enhance camera movement: Make the camera movement prompts more responsive and increase the movement amplitude. \r\n- ✅ Optimized for Single Frame: Designed specifically for single-frame image-to-video workflows  \r\n- ✅ Plug & Play: Fully compatible with original Wan2.2 workflows \r\n\r\n## 📦 Installation\r\n\r\n### Method 1: ComfyUI Manager (Recommended)\r\n\r\n1. Open ComfyUI Manager  \r\n2. Search for **PainterI2V**  \r\n3. Click **Install**  \r\n\r\n### Method 2: Manual Installation\r\n\r\n```bash\r\n# Navigate to ComfyUI's custom_nodes directory\r\ncd ComfyUI\u002Fcustom_nodes\r\n\r\n# Clone the repository\r\ngit clone https:\u002F\u002Fgithub.com\u002Fprincepainter\u002FComfyUI-PainterI2V.git\r\n```\r\n## 💡 Usage Guide\r\n\r\n### Replace the Node\r\n\r\nIn your workflow, replace `WanImageToVideo` with `PainterI2V`.\r\n\r\n### Parameter Settings\r\n\r\n- `motion_amplitude`: 1.15 (recommended starting value)  \r\n- Keep all other parameters consistent with the original node.\r\n\r\n### Recommended Parameters by Scene\r\n\r\n| Motion Type            | Recommended Value | Example Prompt              |\r\n|------------------------|-------------------|-----------------------------|\r\n| Fast (running \u002F jumping) | 1.25–1.35         | \"Running forward quickly\"   |\r\n| Normal (walking \u002F waving)| 1.10–1.20         | \"Walking smoothly\"          |\r\n| Motion Enhancement      | 1.00–1.10         | \"Slightly enhance motion and camera movement\" |\r\n\r\n### Prompt Optimization Tips\r\n\r\n- Clearly describe motion rhythm, e.g., “run fast”, “walk smoothly”  \r\n- Avoid vague terms like “move” or “walk around”\r\n\r\n## 🔬 Technical Details\r\n\r\n| Parameter | Motion Boost | Brightness Change | Best For           |\r\n|-----------|--------------|-------------------|--------------------|\r\n| 1.0 (original) | 0%           | None              | No difference from the original WAN node |\r\n| 1.15 (default) | +15%         | None              | General use        |\r\n| 1.3       | +30%         | None              | Sports action      |\r\n| 1.5       | +50%         | None              | Extreme motion     |\r\n\r\n### Core Algorithm Principles\r\n\r\n- **Brightness-Protected Motion Scaling**: Separates luminance mean before scaling motion vectors  \r\n- **Zero Latent Initialization**: Strictly preserves the temporal dependency chain required by 4-step LoRAs  \r\n- **Reference Frame Enhancement**: Uses `reference_latents` to maintain subject consistency without constraining motion  \r\n\r\n## ⚡ Advanced Tips\r\n\r\n- Best results: Use with strong motion-related prompts  \r\n- Motion too fast? Reduce `motion_amplitude` by 0.05 increments  \r\n- Still too slow? Try increasing up to 1.4  \r\n\r\n## 🙏 Acknowledgements\r\n\r\n- Wan2.2 Team: For the amazing video generation model  \r\n- ComfyUI Community: For the flexible node system  \r\n- Contributors & testers: For helping refine this node  \r\n\r\n\u003Cdiv align=\"center\">\r\nIf you find this project helpful, please give it a star ⭐ to show your support!\r\n\u003C\u002Fdiv>\r\n# Restart ComfyUI\r\n\r\n\r\n\r\n\r\n\r\n\r\n\r\n\r\n\r\n\r\n\r\n\r\n\r\n\r\n\r\n\r\n\r\n","# ComfyUI-PainterI2V  此节点由抖音博主：绘画小子 制作。\n\nWan2.2 图生视频增强节点，专门针对4步LoRA（如 lightx2v）的慢动作问题进行优化。\n\n2026-2-13 我制作了一个PainterHumoAI2V节点，已经实现WAN2.2+Humo 直接 音频+图片 4步生成音频驱动的图生视频（AI2V）并支持首尾帧，欢迎尝试（项目内有工作流）！https:\u002F\u002Fgithub.com\u002Fprincepainter\u002FComfyUI-PainterNodes\n\n2025-12-30，我更新了一个PainterI2V的优化版PainterI2Vadvanced，建议尝试使用。项目地址：https:\u002F\u002Fgithub.com\u002Fprincepainter\u002FComfyUI-PainterI2Vadvanced\n\n如果你用的是KJ的wan2.2-i2v工作流，请使用这个专门为KJ开发的节点，效果一致 (https:\u002F\u002Fgithub.com\u002Fprincepainter\u002FComfyUI-PainterI2VforKJ)\n\n（FirstLastFrameToVideo）首尾帧节点 PainterFLF2V：https:\u002F\u002Fgithub.com\u002Fprincepainter\u002FComfyui-PainterFLF2V\n\n## 🛠 解决的问题\n\n- ✅ 1.减少慢动作：提升运动幅度 15-50%\n- ✅ 2.增强运镜：让运镜提示词更听话，运镜幅度更大\n\n## 和wan2.2官方节点效果对比\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fprincepainter_ComfyUI-PainterI2V_readme_c04c81a932f0.gif\" alt=\"图1\" width=\"300\">\u003C\u002Ftd>\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fprincepainter_ComfyUI-PainterI2V_readme_54dc761f514a.gif\" alt=\"图2\" width=\"300\">\u003C\u002Ftd>\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fprincepainter_ComfyUI-PainterI2V_readme_ea98a084e367.gif\" alt=\"图3\" width=\"300\">\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>motion_amplitude=1.2\u003C\u002Ftd>\n    \u003Ctd>motion_amplitude=1.15\u003C\u002Ftd>\n    \u003Ctd>motion_amplitude=1.15\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fprincepainter_ComfyUI-PainterI2V_readme_85d0b42a31b3.gif\" alt=\"图4\" width=\"300\">\u003C\u002Ftd>\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fprincepainter_ComfyUI-PainterI2V_readme_6e15698b686a.gif\" alt=\"图5\" width=\"300\">\u003C\u002Ftd>\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fprincepainter_ComfyUI-PainterI2V_readme_a2ddfa8d8dfd.gif\" alt=\"图6\" width=\"300\">\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>motion_amplitude=1.5\u003C\u002Ftd>\n    \u003Ctd>motion_amplitude=1.2\u003C\u002Ftd>\n    \u003Ctd>motion_amplitude=1.15\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\n以上视频对比效果，我是使用wan2.2官方模型+light2v 4步i2v lora V1.0做的测试（见下图），其他模型使用效果有待各位自行测试\n\n ![我使用的模型和lora](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fprincepainter_ComfyUI-PainterI2V_readme_aa6c504ee02e.jpg)\n## 节点特点\n- 单帧输入优化：专为wan2.2单帧图生视频设计\n- 即插即用：完全兼容原版 Wan2.2 工作流\n\n## 📦 安装\n\n### 方法 1: ComfyUI Manager（推荐）\n\n1. 打开 ComfyUI Manager  \n2. 搜索 PainterI2V  \n3. 点击安装  \n\n### 方法 2: 手动安装\n\n```bash\n# 进入ComfyUI的custom_nodes目录\ncd ComfyUI\u002Fcustom_nodes\n\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fprincepainter\u002FComfyUI-PainterI2V.git\n```\n# 重启ComfyUI\n\n## 💡 使用方法\n\n### 替换节点\n\n在工作流中将 `WanImageToVideo` 替换为 `PainterI2V`\n![替换原节点](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fprincepainter_ComfyUI-PainterI2V_readme_752f74cf05cb.jpg)\n\n### 参数设置\n\n- `motion_amplitude`: 1.15（推荐起始值）\n- 其他参数与原版保持一致\n\n### 场景参数推荐\n\n| 运动类型         | 推荐参数   | 示例提示词             |\n|------------------|------------|------------------------|\n| 快速（跑步 \u002F 跳跃） | 1.25–1.35  | \"快速向前奔跑\"         |\n| 正常（走路 \u002F 挥手） | 1.10–1.20  | \"流畅地行走\"           |\n| 动态增强          | 1.00–1.10  | \"略微增强动态和运镜\"    |\n\n### 提示词优化\n\n- 明确描述运动节奏，如 “快速奔跑”、“流畅行走”\n- 避免模糊描述如 “移动”、“走动”\n\n## 🔬 技术细节\n\n| 参数值 | 运动提升 | 亮度变化 | 适用场景     |\n|--------|----------|----------|--------------|\n| 1.0（原版） | 0%       | 无       | 和WAN原版节点无区别   |\n| 1.15（默认）| +15%     | 无       | 通用场景     |\n| 1.3    | +30%     | 无       | 体育运动     |\n| 1.5    | +50%     | 无       | 极限运动     |\n\n### 核心算法原理\n\n- **亮度保护的运动缩放**：放大运动向量前分离亮度均值  \n- **零 latent 初始化**：严格保持 4 步 LoRA 的时序依赖链  \n- **参考帧增强**：使用 `reference_latents` 保持主体一致性，不约束运动\n\n## ⚡ 进阶技巧\n\n- 最佳效果：配合强运动提示词使用  \n- 运动过快：每次减少 `motion_amplitude` 0.05  \n- 仍然偏慢：可适当增大到 1.4\n\n## 🙏 致谢\n\n- Wan2.2 团队：提供惊人的视频生成模型  \n- ComfyUI 社区：灵活的节点系统  \n🙏如果这个项目对你有帮助，请给颗星 ⭐️ 支持一下！\n\n- # ComfyUI-Painterl2V\n\nThis node is created by Douyin creator: 绘画小子\n\nPainterI2V node that specifically fixes the slow-motion issue in 4-step LoRAs (e.g., lightx2v).\n\n2025-12-30现在已经推出升级版PainterI2Vadvanced，建议使用。项目地址：https:\u002F\u002Fgithub.com\u002Fprincepainter\u002FPainterI2Vadvanced\n\nThe comparative effects in the above video are from my test using the official Wan2.2 model + Light2v 4-step I2V LoRA V1.0. The performance of other models awaits your own testing .\n\nIf you're using KJ's wan2.2-i2v workflow, use this node specifically developed for KJ — the effect is consistent.https:\u002F\u002Fgithub.com\u002Fprincepainter\u002FComfyUI-PainterI2VforKJ\n\n## 🛠 Problems Solved\n\n- ✅ Reduces Slow-Motion Drag: Increases motion amplitude by 15-50% \n- ✅ Enhance camera movement: Make the camera movement prompts more responsive and increase the movement amplitude. \n- ✅ Optimized for Single Frame: Designed specifically for single-frame image-to-video workflows  \n- ✅ Plug & Play: Fully compatible with original Wan2.2 workflows \n\n## 📦 Installation\n\n### Method 1: ComfyUI Manager (Recommended)\n\n1. Open ComfyUI Manager  \n2. Search for **PainterI2V**  \n3. Click **Install**  \n\n### Method 2: Manual Installation\n\n```bash\n# Navigate to ComfyUI's custom_nodes directory\ncd ComfyUI\u002Fcustom_nodes\n\n# Clone the repository\ngit clone https:\u002F\u002Fgithub.com\u002Fprincepainter\u002FComfyUI-PainterI2V.git\n```\n## 💡 Usage Guide\n\n### Replace the Node\n\nIn your workflow, replace `WanImageToVideo` with `PainterI2V`.\n\n### Parameter Settings\n\n- `motion_amplitude`: 1.15 (recommended starting value)  \n- Keep all other parameters consistent with the original node.\n\n### Recommended Parameters by Scene\n\n| Motion Type            | Recommended Value | Example Prompt              |\n|------------------------|-------------------|-----------------------------|\n| Fast (running \u002F jumping) | 1.25–1.35         | \"Running forward quickly\"   |\n| Normal (walking \u002F waving)| 1.10–1.20         | \"Walking smoothly\"          |\n| Motion Enhancement      | 1.00–1.10         | \"Slightly enhance motion and camera movement\" |\n\n### Prompt Optimization Tips\n\n- Clearly describe motion rhythm, e.g., “run fast”, “walk smoothly”  \n- Avoid vague terms like “move” or “walk around”\n\n## 🔬 Technical Details\n\n| Parameter | Motion Boost | Brightness Change | Best For           |\n|-----------|--------------|-------------------|--------------------|\n| 1.0 (original) | 0%           | None              | No difference from the original WAN node |\n| 1.15 (default) | +15%         | None              | General use        |\n| 1.3       | +30%         | None              | Sports action      |\n| 1.5       | +50%         | None              | Extreme motion     |\n\n### Core Algorithm Principles\n\n- **Brightness-Protected Motion Scaling**: Separates luminance mean before scaling motion vectors  \n- **Zero Latent Initialization**: Strictly preserves the temporal dependency chain required by 4-step LoRAs  \n- **Reference Frame Enhancement**: Uses `reference_latents` to maintain subject consistency without constraining motion  \n\n## ⚡ Advanced Tips\n\n- Best results: Use with strong motion-related prompts  \n- Motion too fast? Reduce `motion_amplitude` by 0.05 increments  \n- Still too slow? Try increasing up to 1.4  \n\n## 🙏 Acknowledgements\n\n- Wan2.2 Team: For the amazing video generation model  \n- ComfyUI Community: For the flexible node system  \n- Contributors & testers: For helping refine this node  \n\n\u003Cdiv align=\"center\">\nIf you find this project helpful, please give it a star ⭐ to show your support!\n\u003C\u002Fdiv>\n# Restart ComfyUI","# ComfyUI-PainterI2V 快速上手指南\n\nComfyUI-PainterI2V 是专为 **Wan2.2 图生视频**设计的增强节点，由抖音博主“绘画小子”开发。它重点解决了使用 4 步 LoRA（如 lightx2v）时视频生成**慢动作**的问题，可提升运动幅度 15%-50%，并增强运镜提示词的响应能力。\n\n## 环境准备\n\n- **系统要求**：Windows \u002F Linux \u002F macOS\n- **前置依赖**：\n  - 已安装并配置好 **ComfyUI**\n  - 已安装 **Wan2.2** 官方模型及相关工作流\n  - 推荐搭配 **lightx2v 4-step I2V LoRA V1.0** 使用以获得最佳效果\n  - Python 环境需支持 Git 命令\n\n## 安装步骤\n\n### 方法一：通过 ComfyUI Manager 安装（推荐）\n\n1. 启动 ComfyUI，打开 **ComfyUI Manager**。\n2. 在搜索框中输入 `PainterI2V`。\n3. 找到插件后点击 **Install**。\n4. 安装完成后**重启 ComfyUI**。\n\n### 方法二：手动安装\n\n打开终端或命令行工具，执行以下命令：\n\n```bash\n# 进入 ComfyUI 的 custom_nodes 目录\ncd ComfyUI\u002Fcustom_nodes\n\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fprincepainter\u002FComfyUI-PainterI2V.git\n```\n\n> 💡 **国内加速提示**：如果 GitHub 连接缓慢，可使用镜像源加速克隆：\n> ```bash\n> git clone https:\u002F\u002Fghp.ci\u002Fhttps:\u002F\u002Fgithub.com\u002Fprincepainter\u002FComfyUI-PainterI2V.git\n> ```\n\n克隆完成后，**重启 ComfyUI** 以加载新节点。\n\n## 基本使用\n\n### 1. 替换节点\n\n在现有的 Wan2.2 图生视频工作流中：\n- 找到原有的 `WanImageToVideo` 节点。\n- 将其删除或禁用，替换为新安装的 **`PainterI2V`** 节点。\n- 保持其他连线（图片输入、Prompt、模型加载等）不变。\n\n### 2. 参数设置\n\n核心参数为 `motion_amplitude`（运动幅度），其他参数与原版保持一致。\n\n- **推荐起始值**：`1.15`（通用场景，提升约 15% 运动幅度）\n- **调整策略**：\n  - 若运动仍偏慢：逐步增加至 `1.25` - `1.35`（适合跑步、跳跃）。\n  - 若运动过快或失真：每次减少 `0.05`。\n\n### 3. 提示词优化建议\n\n为了配合节点效果，建议在 Prompt 中明确描述运动节奏：\n- ✅ **推荐**：\"快速向前奔跑\"、\"流畅地行走\"、\"剧烈挥动手臂\"\n- ❌ **避免**：\"移动\"、\"走动\"、\"稍微动一下\"等模糊描述。\n\n### 简易工作流示例逻辑\n\n```text\n[Load Image] --> [PainterI2V] --> [VAE Decode] --> [Save Video]\n                      ^\n                      |\n            [Positive Prompt: \"Running fast\"]\n            [motion_amplitude: 1.25]\n            [Wan2.2 Model & LoRA]\n```\n\n只需将原工作流中的标准节点替换为此节点，并微调幅度参数，即可立即获得动态更强的视频输出。","一位短视频创作者正试图利用 Wan2.2 模型配合 4 步加速 LoRA（如 lightx2v），将一张静态的“极限跑酷”图片快速转化为动态视频，以满足社交媒体对高频更新的需求。\n\n### 没有 ComfyUI-PainterI2V 时\n- **动作严重迟缓**：生成的视频中人物仿佛在慢动作回放，完全丢失了跑酷应有的爆发力和速度感。\n- **运镜指令失效**：即使提示词中强调了“快速推镜”或“剧烈晃动”，镜头移动依然微弱且呆板，缺乏视觉冲击力。\n- **反复调试无果**：为了获得正常速度，不得不尝试调整数十版提示词或更换模型，导致单条视频制作耗时从几分钟拉长至数小时。\n- **动态幅度不足**：整体运动幅度受限，画面显得沉闷，无法达到极限运动所需的张力，直接导致素材不可用。\n\n### 使用 ComfyUI-PainterI2V 后\n- **运动幅度显著提升**：仅需将 `motion_amplitude` 参数设为 1.5，人物动作瞬间提速 50%，完美还原了极限运动的疾驰感。\n- **运镜控制精准听话**：镜头语言对提示词的响应变得敏锐，能够轻松实现大幅度的推拉摇移，画面极具电影感。\n- **工作流无缝衔接**：直接替换原有节点即可生效，无需修改其他设置，原本需要数小时的调试过程缩短为几分钟的参数微调。\n- **画质与亮度稳定**：在增强动态的同时，核心算法确保了画面亮度不变，主体一致性良好，避免了因加速导致的画面闪烁或失真。\n\nComfyUI-PainterI2V 通过专有的运动缩放算法，彻底解决了 4 步 LoRA 生成视频时的“慢动作”顽疾，让高速动态内容的批量生产变得高效且可控。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fprincepainter_ComfyUI-PainterI2V_24b58cd8.png","princepainter","painter890602","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fprincepainter_fb7e64fa.jpg","happy every day",null,"https:\u002F\u002Fgithub.com\u002Fprincepainter",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,597,23,"2026-04-03T21:44:37","未说明","未说明（基于 Wan2.2 和 ComfyUI 生态，通常隐含需要支持 CUDA 的 NVIDIA GPU，但本文档未明确具体型号或显存要求）",{"notes":93,"python":90,"dependencies":94},"该工具是 ComfyUI 的一个自定义节点，需先安装 ComfyUI 主程序。核心依赖为 Wan2.2 官方模型及特定的 4 步 LoRA（如 lightx2v V1.0）。安装后可直接替换工作流中的 'WanImageToVideo' 节点使用。主要功能是解决 4 步生成中的慢动作问题并增强运镜，通过调节 motion_amplitude 参数（推荐起始值 1.15）控制运动幅度。",[28,95,96],"Wan2.2 模型","lightx2v (4-step LoRA)",[43,15],"2026-03-27T02:49:30.150509","2026-04-06T16:14:53.075803",[],[]]