[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-yvann-ba--ComfyUI_Yvann-Nodes":3,"tool-yvann-ba--ComfyUI_Yvann-Nodes":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":79,"owner_email":80,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":84,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":10,"env_os":97,"env_gpu":98,"env_ram":99,"env_deps":100,"category_tags":105,"github_topics":107,"view_count":32,"oss_zip_url":81,"oss_zip_packed_at":81,"status":17,"created_at":111,"updated_at":112,"faqs":113,"releases":146},8167,"yvann-ba\u002FComfyUI_Yvann-Nodes","ComfyUI_Yvann-Nodes","Audio Reactivity Nodes for ComfyUI 🔊 Create AI generated audio-driven animations","ComfyUI_Yvann-Nodes 是一款专为 ComfyUI 设计的开源插件包，旨在让 AI 生成的视频画面能够实时响应音频节奏。它解决了传统 AI 视频生成中画面与声音难以自动同步的痛点，让用户无需编写复杂代码，即可轻松创作出随音乐律动、卡点精准的动态视觉作品。\n\n该工具操作十分简便，用户只需导入预设的工作流文件，上传音频及相应的图片、视频或输入文字提示词，即可快速生成结果。其核心亮点在于极高的兼容性，能够无缝对接 ComfyUI 生态中现有的主流技术节点，如 IPAdapter、AnimateDiff 和 ControlNet 等。这意味着用户可以在保留原有风格控制能力的同时，为作品增添听觉维度的交互性。目前，它支持“图生视频”、“视频重绘”以及“文生视频”三种主要模式，满足从静态图像动起来到现有视频风格化等多种创作需求。\n\nComfyUI_Yvann-Nodes 非常适合数字艺术家、动态设计师、MV 制作人以及希望探索音画同步效果的 AI 爱好者使用。无论是制作音乐可视化背景、动感短视频，还是进行创意实验，它都能提供强大而灵活的支持，帮助创作者高效实现“音画合一”的创意构想","ComfyUI_Yvann-Nodes 是一款专为 ComfyUI 设计的开源插件包，旨在让 AI 生成的视频画面能够实时响应音频节奏。它解决了传统 AI 视频生成中画面与声音难以自动同步的痛点，让用户无需编写复杂代码，即可轻松创作出随音乐律动、卡点精准的动态视觉作品。\n\n该工具操作十分简便，用户只需导入预设的工作流文件，上传音频及相应的图片、视频或输入文字提示词，即可快速生成结果。其核心亮点在于极高的兼容性，能够无缝对接 ComfyUI 生态中现有的主流技术节点，如 IPAdapter、AnimateDiff 和 ControlNet 等。这意味着用户可以在保留原有风格控制能力的同时，为作品增添听觉维度的交互性。目前，它支持“图生视频”、“视频重绘”以及“文生视频”三种主要模式，满足从静态图像动起来到现有视频风格化等多种创作需求。\n\nComfyUI_Yvann-Nodes 非常适合数字艺术家、动态设计师、MV 制作人以及希望探索音画同步效果的 AI 爱好者使用。无论是制作音乐可视化背景、动感短视频，还是进行创意实验，它都能提供强大而灵活的支持，帮助创作者高效实现“音画合一”的创意构想。","### **A pack of custom nodes that enable audio reactivity within [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI), allowing you to generate AI-driven animations that sync with music**\n\n---\n\n### What Does This Do?\n\n- **Create** Audio Reactive AI videos, enable controls over AI generations styles, content and composition with any audio\n- **Simple**: Just Drop one of our [Workflows](\u002Fexample_workflows) in ComfyUI and specify your audio and visuals input\n- **Flexible**: Works with existing ComfyUI AI tech and nodes (eg: IPAdapter, AnimateDiff, ControlNet, etc.)\n\n---\n\n### Quick Setup\n\n#### 1. Install [ComfyUI](https:\u002F\u002Fwww.comfy.org\u002Fdownload) (Works on Mac, Windows, Linux)\n\n#### 2. Pick a Workflow ⬇️\n\n---\n\n#### 🖼️ Images to Video\nTakes a **set of images** + **audio**\n\n**Results:**\n\u003Ctable border=\"0\" style=\"width: 100%; text-align: left; margin-top: 20px;\">\n  \u003Ctr>\n      \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F615394cd-c829-4ee0-94de-1ffd20d35b9d\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n     \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F8e75df33-6426-4d6e-98d1-f8288cc87b74\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n      \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F48fe9dbd-ea4d-4944-be6f-13f29f77cb0e\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\u003Ctable border=\"0\" style=\"width: 100%; text-align: left; margin-top: 20px;\">\n  \u003Ctr>\n      \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F318f5b97-202b-483c-8b10-72fa0e741946\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n     \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fba28fbcb-e9bd-43d2-b9b5-329fb7fe7198\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n\n\n\n\n\n\n\n\n\n\n\n\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\u003Ctable border=\"0\" style=\"width: 100%; text-align: left; margin-top: 20px;\">\n  \u003Ctr>\n      \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Ff4b64874-5ca9-49ea-8d2c-40b377a5b5bd\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n     \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fd9a630d5-cd13-4cf4-a1da-282e6078cd49\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n      \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F9d179485-011d-4de2-a4fb-d8489f20a2cf\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\n\n\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd width=\"50%\">\n      \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=O2s6NseXlMc\">\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyvann-ba_ComfyUI_Yvann-Nodes_readme_65fe8b19e713.jpg\" width=\"100%\">\n      \u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd width=\"50%\" valign=\"middle\">\n      \u003Ch3>📺 \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=O2s6NseXlMc\">Watch Tutorial\u003C\u002Fa>\u003C\u002Fh3>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n📥 [Download ImagesToVideo Workflow](example_workflows\u002FAudioReactive_ImagesToVideo_Yvann.json)\n\n---\n\n#### 🎬 Video to Video\nTakes a **source video** + **audio**\n\n**Results:**\n\u003Ctable border=\"0\" style=\"width: 100%; text-align: left; margin-top: 20px;\">\n  \u003Ctr>\n      \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fc0450100-a61f-4707-9e14-0d4ca563a2b1\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n      \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fc0fa2ca0-6c0f-4687-b1c9-fe531278c58e\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd width=\"50%\">\n      \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=BiQHWKP3q0c\">\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyvann-ba_ComfyUI_Yvann-Nodes_readme_d11fde923e57.jpg\" width=\"100%\">\n      \u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd width=\"50%\" valign=\"middle\">\n      \u003Ch3>📺 \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=BiQHWKP3q0c\">Watch Tutorial\u003C\u002Fa>\u003C\u002Fh3>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n📥 [Download VideoToVideo Workflow](example_workflows\u002FAudioReactive_VideoToVideo_Yvann.json)\n\n---\n\n#### ✍️ Text to Video\nTakes a **text prompt** + **audio**\n\n**Results:**\n\u003Ctable border=\"0\" style=\"width: 100%; text-align: left; margin-top: 20px;\"> \n  \u003Ctr>\n     \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fbb2b2299-5423-4034-b7e5-121a3df7eb1a\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n      \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fd5bc5607-d242-4c50-aadc-9ad313a80104\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n📥 [Download TextToVideo Workflow](example_workflows\u002FAudioReactive_TextToVideo_Yvann.json)\n\n---\n\n### 3. Load & Run\n\n1. **Drop** the downloaded `.json` file into the ComfyUI window\n2. **Click \"Install All\"** on the popup\n3. **Set your inputs** (images\u002Fvideo\u002Ftext + audio)\n4. **Download the models** listed on the note\n5. **Click Queue** to generate your audio-reactive animation!\n\n**That's it!** Have fun !!\n\n**That's it!** Have fun !!\n---\n\n## Nodes Details\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>Click to Expand: Node-by-Node Reference\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n### Audio Analysis 🔍\nAnalyzes audio to generate reactive weights for each frame.  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>Node Parameters\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **audio_sep_model**: Model from \"Load Audio Separation Model\"  \n- **audio**: Input audio file  \n- **batch_size**: Frames to associate with audio weights  \n- **fps**: Frame rate for the analysis  \n\n**Parameters**:  \n- **analysis_mode**: e.g., Drums Only, Vocals, Full Audio  \n- **threshold**: Minimum weight pass-through  \n- **multiply**: Amplification factor  \n\n**Outputs**:\n- **graph_audio** (image preview),  \n- **processed_audio**, **original_audio**,  \n- **audio_weights** (list of values).\n\n\u003C\u002Fdetails>\n\n---\n\n### Load Audio Separation Model 🎧\nLoads or downloads an audio separation model (e.g., HybridDemucs, OpenUnmix).  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>Node Parameters\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **model**: Choose between HybridDemucs \u002F OpenUnmix.  \n- **Outputs**: **audio_sep_model** (connect to Audio Analysis or Remixer).\n\n\u003C\u002Fdetails>\n\n---\n\n### Audio Peaks Detection 📈\nIdentifies peaks in the audio weights to trigger transitions or events.  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>Node Parameters\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **peaks_threshold**: Sensitivity.  \n- **min_peaks_distance**: Minimum gap in frames between peaks.  \n- **Outputs**: Binary peak list, alternate list, peak indices\u002Fcount, graph.\n\n\u003C\u002Fdetails>\n\n---\n\n### Audio IP Adapter Transitions 🔄\nManages transitions between images based on peaks. Great for stable or style transitions.  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>Node Parameters\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **images**: Batch of images.  \n- **peaks_weights**: From \"Audio Peaks Detection\".  \n- **blend_mode**, **transitions_length**, **min_IPA_weight**, etc.\n\n\u003C\u002Fdetails>\n\n---\n\n### Audio Prompt Schedule 📝\nLinks text prompts to peak indices.  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>Node Parameters\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **peaks_index**: Indices from peaks detection.  \n- **prompts**: multiline string.  \n- **Outputs**: mapped schedule string.\n\n\u003C\u002Fdetails>\n\n---\n\n### Audio Remixer 🎛️\nAdjusts volume levels (drums, vocals, bass, others) in a track.  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>Node Parameters\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **drums_volume**, **vocals_volume**, **bass_volume**, **others_volume**  \n- **Outputs**: single merged audio track.\n\n\u003C\u002Fdetails>\n\n---\n\n### Repeat Image To Count 🔁\nRepeats a set of images N times.  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>Node Parameters\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **mask**: Mask input.  \n- **Outputs**: Repeated images.\n\n\u003C\u002Fdetails>\n\n---\n\n### Invert Floats 🔄\nFlips sign of float values.  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>Node Parameters\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **floats**: list of floats.  \n- **Outputs**: inverted list.\n\n\u003C\u002Fdetails>\n\n---\n\n### Floats Visualizer 📈\nPlots float values as a graph.  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>Node Parameters\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **floats** (and optional second\u002Fthird).  \n- **Outputs**: visual graph image.\n\n\u003C\u002Fdetails>\n\n---\n\n### Mask To Float 🎭\nConverts a mask into a single float value.  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>Node Parameters\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **mask**: input.  \n- **Outputs**: float.\n\n\u003C\u002Fdetails>\n\n---\n\n### Floats To Weights Strategy 🏋️\nTransforms float lists into an IPAdapter \"weight strategy.\"  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>Node Parameters\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **floats**: list of floats.  \n- **Outputs**: dictionary with strategy info.\n\n\u003C\u002Fdetails>\n\n\u003C\u002Fdetails>\n\n---\n\u003Ch3 align=\"center\">\n  Please give a ⭐ on GitHub it helps us enhance our Tool and it's Free !! (:\n\u003C\u002Fh3>\n\n#### Made with the help of [Lilien](https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Flilien-auger\u002F) 😎\n\n","### 一套自定义节点，可在 [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI) 中实现音频响应功能，从而生成与音乐同步的 AI 驱动动画。\n\n---\n\n### 这个工具能做什么？\n\n- **创建** 音频响应型 AI 视频，并通过任意音频控制 AI 生成的风格、内容和构图。\n- **简单易用**：只需将我们的其中一个 [工作流](\u002Fexample_workflows) 拖入 ComfyUI，指定音频和视觉输入即可。\n- **灵活兼容**：可与现有的 ComfyUI AI 技术和节点配合使用（例如：IPAdapter、AnimateDiff、ControlNet 等）。\n\n---\n\n### 快速设置\n\n#### 1. 安装 [ComfyUI](https:\u002F\u002Fwww.comfy.org\u002Fdownload)（支持 Mac、Windows 和 Linux）\n\n#### 2. 选择一个工作流 ⬇️\n\n---\n\n#### 🖼️ 图片转视频\n需要一组 **图片** + **音频**\n\n**效果示例：**\n\u003Ctable border=\"0\" style=\"width: 100%; text-align: left; margin-top: 20px;\">\n  \u003Ctr>\n      \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F615394cd-c829-4ee0-94de-1ffd20d35b9d\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n     \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F8e75df33-6426-4d6e-98d1-f8288cc87b74\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n      \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F48fe9dbd-ea4d-4944-be6f-13f29f77cb0e\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\u003Ctable border=\"0\" style=\"width: 100%; text-align: left; margin-top: 20px;\">\n  \u003Ctr>\n      \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F318f5b97-202b-483c-8b10-72fa0e741946\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n     \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fba28fbcb-e9bd-43d2-b9b5-329fb7fe7198\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n\n\n\n\n\n\n\n\n\n\n\n\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\u003Ctable border=\"0\" style=\"width: 100%; text-align: left; margin-top: 20px;\">\n  \u003Ctr>\n      \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Ff4b64874-5ca9-49ea-8d2c-40b377a5b5bd\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n     \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fd9a630d5-cd13-4cf4-a1da-282e6078cd49\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n      \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F9d179485-011d-4de2-a4fb-d8489f20a2cf\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\n\n\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd width=\"50%\">\n      \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=O2s6NseXlMc\">\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyvann-ba_ComfyUI_Yvann-Nodes_readme_65fe8b19e713.jpg\" width=\"100%\">\n      \u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd width=\"50%\" valign=\"middle\">\n      \u003Ch3>📺 \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=O2s6NseXlMc\">观看教程\u003C\u002Fa>\u003C\u002Fh3>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n📥 [下载图片转视频工作流](example_workflows\u002FAudioReactive_ImagesToVideo_Yvann.json)\n\n---\n\n#### 🎬 视频转视频\n需要一段 **源视频** + **音频**\n\n**效果示例：**\n\u003Ctable border=\"0\" style=\"width: 100%; text-align: left; margin-top: 20px;\">\n  \u003Ctr>\n      \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fc0450100-a61f-4707-9e14-0d4ca563a2b1\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n      \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fc0fa2ca0-6c0f-4687-b1c9-fe531278c58e\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd width=\"50%\">\n      \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=BiQHWKP3q0c\">\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyvann-ba_ComfyUI_Yvann-Nodes_readme_d11fde923e57.jpg\" width=\"100%\">\n      \u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd width=\"50%\" valign=\"middle\">\n      \u003Ch3>📺 \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=BiQHWKP3q0c\">观看教程\u003C\u002Fa>\u003C\u002Fh3>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n📥 [下载视频转视频工作流](example_workflows\u002FAudioReactive_VideoToVideo_Yvann.json)\n\n---\n\n#### ✍️ 文本转视频\n需要一段 **文本提示** + **音频**\n\n**效果示例：**\n\u003Ctable border=\"0\" style=\"width: 100%; text-align: left; margin-top: 20px;\"> \n  \u003Ctr>\n     \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fbb2b2299-5423-4034-b7e5-121a3df7eb1a\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n      \u003Ctd>\n          \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fd5bc5607-d242-4c50-aadc-9ad313a80104\" width=\"100%\" controls autoplay loop>\u003C\u002Fvideo>\n     \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n📥 [下载文本转视频工作流](example_workflows\u002FAudioReactive_TextToVideo_Yvann.json)\n\n---\n\n### 3. 加载并运行\n\n1. 将下载的 `.json` 文件 **拖入** ComfyUI 窗口。\n2. 在弹出窗口中 **点击“安装全部”**。\n3. **设置输入**（图片\u002F视频\u002F文本 + 音频）。\n4. 根据提示 **下载模型**。\n5. **点击队列** 即可生成你的音频响应动画！\n\n**就是这样！** 尽情享受吧！！\n**就是这样！** 尽情享受吧！！\n---\n\n## 节点详情\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>点击查看：逐节点参考\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n### 音频分析 🔍\n对音频进行分析，为每一帧生成响应权重。  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>节点参数\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **audio_sep_model**: 来自“加载音频分离模型”的模型。\n- **audio**: 输入音频文件。\n- **batch_size**: 与音频权重关联的帧数。\n- **fps**: 分析使用的帧率。\n\n**参数**：\n- **analysis_mode**: 例如，仅鼓声、人声或完整音频。\n- **threshold**: 最小权重通过值。\n- **multiply**: 放大系数。\n\n**输出**：\n- **graph_audio**（图像预览）、\n- **processed_audio**、**original_audio**、\n- **audio_weights**（数值列表）。\n\n\u003C\u002Fdetails>\n\n---\n\n### 加载音频分离模型 🎧\n加载或下载音频分离模型（例如，HybridDemucs 或 OpenUnmix）。  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>节点参数\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **model**: 可选择 HybridDemucs 或 OpenUnmix。\n- **输出**：**audio_sep_model**（可连接到音频分析或混音器）。\n\n\u003C\u002Fdetails>\n\n---\n\n### 音频峰值检测 📈\n识别音频权重中的峰值，以触发过渡或事件。  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>节点参数\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **peaks_threshold**: 灵敏度。\n- **min_peaks_distance**: 峰值之间最小的帧间距。\n- **输出**：二进制峰值列表、备用列表、峰值索引\u002F数量以及图表。\n\n\u003C\u002Fdetails>\n\n---\n\n### 音频 IP Adapter 过渡 🔄\n根据峰值管理图像之间的过渡，非常适合稳定或风格化过渡。  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>节点参数\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **images**: 一批图像。\n- **peaks_weights**: 来自“音频峰值检测”。\n- **blend_mode**、**过渡时长**、**最小 IPA 权重** 等。\n\n\u003C\u002Fdetails>\n\n---\n\n### 音频提示调度 📝\n将文本提示与峰值索引关联起来。  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>节点参数\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **peaks_index**: 来自峰值检测的索引。\n- **prompts**: 多行字符串。\n- **输出**：映射后的调度字符串。\n\n\u003C\u002Fdetails>\n\n---\n\n### 音频混音器 🎛️\n调整音轨中的音量级别（鼓、人声、贝斯、其他）。  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>节点参数\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **drums_volume**（鼓音量）、**vocals_volume**（人声音量）、**bass_volume**（贝斯音量）、**others_volume**（其他音量）  \n- **输出**：单个合并后的音频轨道。\n\n\u003C\u002Fdetails>\n\n---\n\n### 图片重复至指定次数 🔁\n将一组图片重复 N 次。  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>节点参数\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **mask**：遮罩输入。  \n- **输出**：重复后的图片。\n\n\u003C\u002Fdetails>\n\n---\n\n### 反转浮点数 🔄\n翻转浮点数值的符号。  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>节点参数\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **floats**：浮点数列表。  \n- **输出**：反转后的列表。\n\n\u003C\u002Fdetails>\n\n---\n\n### 浮点数可视化 📈\n将浮点数值绘制成图表。  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>节点参数\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **floats**（以及可选的第二\u002F第三个）。  \n- **输出**：可视化图表图像。\n\n\u003C\u002Fdetails>\n\n---\n\n### 遮罩转浮点数 🎭\n将遮罩转换为单个浮点数值。  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>节点参数\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **mask**：输入遮罩。  \n- **输出**：浮点数。\n\n\u003C\u002Fdetails>\n\n---\n\n### 浮点数转权重策略 🏋️\n将浮点数列表转换为 IPAdapter 的“权重策略”。  \n\u003Cdetails>\n  \u003Csummary>\u003Cem>节点参数\u003C\u002Fem>\u003C\u002Fsummary>\n\n- **floats**：浮点数列表。  \n- **输出**：包含策略信息的字典。\n\n\u003C\u002Fdetails>\n\n\u003C\u002Fdetails>\n\n---\n\u003Ch3 align=\"center\">\n  请在 GitHub 上给个项目点个 star 吧！这有助于我们改进工具，而且它是免费的！！ (:\n\u003C\u002Fh3>\n\n#### 在 [Lilien](https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Flilien-auger\u002F) 的帮助下制作 😎","# ComfyUI_Yvann-Nodes 快速上手指南\n\nComfyUI_Yvann-Nodes 是一套专为 ComfyUI 设计的自定义节点包，旨在实现**音频反应（Audio Reactivity）**功能。它允许用户根据音乐节奏生成同步的 AI 动画，支持从图像、视频或文本提示驱动的视频生成。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Windows, macOS 或 Linux。\n*   **核心软件**: 已安装并配置好 [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI)。\n    *   建议更新到最新版本以兼容所有新节点。\n*   **硬件要求**: 推荐配备 NVIDIA GPU（显存 8GB 以上为佳），以便流畅运行 AnimateDiff、ControlNet 等视频生成模型。\n*   **前置依赖**:\n    *   确保已安装 `ComfyUI-Manager`（推荐），以便自动处理缺失节点的安装。\n    *   网络连接正常（首次运行时需下载音频分离模型）。\n\n## 2. 安装步骤\n\n### 方法一：使用 ComfyUI-Manager（推荐）\n\n1.  启动 ComfyUI。\n2.  点击右侧菜单的 **\"Manager\"** 按钮。\n3.  选择 **\"Install Custom Nodes\"**。\n4.  在搜索框中输入 `Yvann` 或 `Audio Reactive`。\n5.  找到 `ComfyUI_Yvann-Nodes`，点击 **Install**。\n6.  安装完成后，**重启 ComfyUI**。\n\n### 方法二：手动安装\n\n如果您未使用 Manager，可通过命令行手动安装：\n\n```bash\ncd ComfyUI\u002Fcustom_nodes\ngit clone https:\u002F\u002Fgithub.com\u002FYvannD\u002FComfyUI_Yvann-Nodes.git\n```\n\n安装完成后重启 ComfyUI。首次加载工作流时，系统可能会提示安装额外的 Python 依赖（如 `demucs`），请按提示确认安装。\n\n## 3. 基本使用\n\n本工具的核心用法是加载预设的工作流（Workflow），只需几步即可生成随音乐律动的视频。\n\n### 第一步：下载工作流\n\n根据您的输入素材类型，选择并下载对应的 `.json` 工作流文件：\n\n*   🖼️ **图生视频 (Images to Video)**: 适用于将一组静态图片转化为随音乐变化的视频。\n    *   [下载链接](example_workflows\u002FAudioReactive_ImagesToVideo_Yvann.json)\n*   🎬 **视频重绘 (Video to Video)**: 适用于对现有视频进行风格化重绘并同步音频。\n    *   [下载链接](example_workflows\u002FAudioReactive_VideoToVideo_Yvann.json)\n*   ✍️ **文生视频 (Text to Video)**: 适用于仅通过提示词和音乐生成视频。\n    *   [下载链接](example_workflows\u002FAudioReactive_TextToVideo_Yvann.json)\n\n### 第二步：加载与配置\n\n1.  **导入工作流**: 将下载的 `.json` 文件直接拖拽到 ComfyUI 的操作界面中。\n2.  **安装缺失节点**: 如果弹出提示框，点击 **\"Install All\"** 安装工作流所需的其他辅助节点，然后重启 ComfyUI。\n3.  **设置输入素材**:\n    *   找到对应的输入节点（如 `Load Image`, `Load Video`, `CLIP Text Encode` 或 `Load Audio`）。\n    *   上传您的**音频文件**（建议使用 MP3 或 WAV 格式）。\n    *   上传您的**视觉素材**（图片或视频）或填写**提示词**。\n4.  **下载模型**: 查看界面上的备注提示（Note 节点），下载所需的音频分离模型（如 `HybridDemucs` 或 `OpenUnmix`）及 AI 绘图大模型（Checkpoint\u002FLoRA）。通常模型会自动下载到 `ComfyUI\u002Fmodels\u002F` 对应目录。\n\n### 第三步：生成视频\n\n1.  **调整参数**（可选）:\n    *   在 `Audio Analysis` 节点中，可调整 `analysis_mode`（如仅鼓点、仅人声或全音频）来改变反应敏感度。\n    *   在 `Audio Peaks Detection` 中调整 `peaks_threshold` 以控制触发转场的频率。\n2.  **执行队列**: 点击 **\"Queue Prompt\"** 按钮。\n3.  **查看结果**: 等待生成完成，您将在输出节点看到与音乐节奏完美同步的 AI 动画。\n\n---\n\n### 核心节点功能简述\n\n*   **Audio Analysis 🔍**: 分析音频并生成每帧的反应权重。\n*   **Load Audio Separation Model 🎧**: 加载音频分离模型，用于提取鼓点、人声等特定轨道。\n*   **Audio Peaks Detection 📈**: 检测音频峰值，用于触发画面切换或特效。\n*   **Audio IP Adapter Transitions 🔄**: 基于音频峰值控制图像之间的平滑过渡。\n*   **Audio Prompt Schedule 📝**: 将不同的文本提示词绑定到音乐的特定节拍点上。","一位独立音乐人刚发布了一首电子单曲，急需制作一支能在社交媒体上病毒式传播的视觉化歌词 MV，以配合新歌宣发节奏。\n\n### 没有 ComfyUI_Yvann-Nodes 时\n- **音画割裂严重**：传统视频编辑软件无法自动识别音频波形，必须手动逐帧打关键帧来匹配鼓点，耗时数小时且难以做到精准卡点。\n- **动态效果僵硬**：生成的 AI 视频往往只是静态画面的简单平移或缩放，缺乏随音乐节奏起伏的呼吸感和律动感，显得呆板无趣。\n- **工作流断裂**：若想结合 AnimateDiff 或 ControlNet 等高级节点实现风格化，需自行编写复杂的脚本来提取音频特征数据，技术门槛极高，普通创作者望而却步。\n- **试错成本高昂**：调整视觉节奏需要反复渲染预览，每次修改都意味着漫长的等待，严重拖慢了创意落地的效率。\n\n### 使用 ComfyUI_Yvann-Nodes 后\n- **全自动音画同步**：只需拖入官方提供的 \"ImagesToVideo\" 工作流并加载音频文件，节点即可自动解析频谱，让画面中的光影、形变严格跟随音乐节拍实时跳动。\n- **赋予画面生命力**：利用其内置的音频反应控制，原本静止的赛博朋克城市插画能随低音轰鸣而震动，随高音旋律而流光溢彩，视觉效果极具冲击力。\n- **无缝集成现有生态**：该工具完美兼容 ComfyUI 原有的 IPAdapter 和 ControlNet 节点，用户可在保持角色一致性的同时，轻松叠加音频驱动的动态特效，无需额外编码。\n- **即时迭代优化**：调整音频敏感度或视觉风格后，可快速生成预览，让创作者能专注于艺术表达而非技术调试，将制作周期从几天缩短至几十分钟。\n\nComfyUI_Yvann-Nodes 将繁琐的手动对位转化为智能化的自动生成，让每一位创作者都能低成本打造出专业级的“听得见”的 AI 动态视觉作品。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyvann-ba_ComfyUI_Yvann-Nodes_65fe8b19.jpg","yvann-ba","Yvann Barbot","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fyvann-ba_595baa0d.jpg","Deploying AI in Geospatial Information System @TerraLabAI with my dad & best-friend","@TerraLabAI ","StationF, Paris","barbot.yvann@gmail.com",null,"https:\u002F\u002Fterra-lab.ai\u002F","https:\u002F\u002Fgithub.com\u002Fyvann-ba",[85,89],{"name":86,"color":87,"percentage":88},"Python","#3572A5",85.5,{"name":90,"color":91,"percentage":92},"JavaScript","#f1e05a",14.5,686,29,"2026-04-15T15:26:26","GPL-3.0","Windows, macOS, Linux","未说明（作为 ComfyUI 插件，通常依赖宿主环境的 GPU 配置以运行 AnimateDiff、ControlNet 等节点）","未说明",{"notes":101,"python":102,"dependencies":103},"该工具是 ComfyUI 的自定义节点包，需先安装 ComfyUI。核心功能依赖音频分离模型（如 HybridDemucs 或 OpenUnmix），首次运行时会自动下载。支持图像转视频、视频转视频和文本转视频工作流，并可结合 IPAdapter、AnimateDiff、ControlNet 等现有 ComfyUI 技术使用。用户需手动下载工作流 JSON 文件并加载到 ComfyUI 中，点击'Install All'安装缺失节点，并根据提示下载相关模型。","未说明（跟随 ComfyUI 环境要求）",[28,104],"HybridDemucs 或 OpenUnmix (音频分离模型)",[106,15],"音频",[108,109,110],"comfyui","generative-ai","audioreactive","2026-03-27T02:49:30.150509","2026-04-17T09:53:25.479682",[114,119,123,128,133,137,142],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},36534,"如何批量生成长视频（如音乐视频）以避免显存溢出（OOM）错误？","可以通过分段处理来解决。将音频轨道分割成较小的片段，分别处理这些片段，最后在视频编辑器中重新组合。例如，24GB 显存的显卡（如 3090）可能直接运行 60 秒，而 8GB 显存（如 3060Ti）建议先尝试 15 秒或 30 秒的片段。如果长片段导致失败，可以减少分段数量并在后期使用如 Topaz Video AI 等工具进行最终 upscale 处理，而不是在工作流中强行一次性生成。","https:\u002F\u002Fgithub.com\u002Fyvann-ba\u002FComfyUI_Yvann-Nodes\u002Fissues\u002F40",{"id":120,"question_zh":121,"answer_zh":122,"source_url":118},36535,"生成的视频首帧在末尾重复出现（看起来像循环），如何解决？","这通常是 AnimateDiff 的设置问题。请检查并确保 `closed_loop` 参数设置为 `false`。如果该值已经是 false 但问题依旧，可能是节点配置或其他过渡设置导致的。此外，较小的源图像尺寸通常能提供更多的控制力，减少此类不可预测的结果。",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},36536,"遇到 'CUFFT_INTERNAL_ERROR' 或音频分析节点崩溃怎么办？","此错误常与 GPU 兼容性或模型加载有关。如果是 AMD 显卡或特定 CUDA 版本，尝试切换音频分离模型（如在 Hdemucs 和 OpenUnmix 之间切换）。如果遇到 'stft input and window must be on the same device' 错误，说明设备不匹配（如一个在 cuda:0 一个在 cpu），需确保所有张量在同一设备上。若 ComfyUI 直接崩溃且无日志，通常也是音频分析节点导致，建议检查显存是否充足或更新相关依赖。","https:\u002F\u002Fgithub.com\u002Fyvann-ba\u002FComfyUI_Yvann-Nodes\u002Fissues\u002F10",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},36537,"遇到 'Weights only load failed' 或 'Unsupported operand' 错误如何处理？","这个错误提示虽然提到 PyTorch 2.6 的 `weights_only` 参数变化，但实际上往往是因为模型文件下载损坏或不完整导致的（特别是 AnimateLCM_sd15_t2v.ckpt 等运动模块）。请不要盲目修改代码，首先尝试重新下载对应的模型文件，确保文件完整性。","https:\u002F\u002Fgithub.com\u002Fyvann-ba\u002FComfyUI_Yvann-Nodes\u002Fissues\u002F38",{"id":134,"question_zh":135,"answer_zh":136,"source_url":127},36538,"报错 'expected input to have X channels, but got Y channels' 是什么原因？","这通常是因为使用了与工作流主模型（Checkpoint）不兼容的控制模型（如 ControlNet 或 IPAdapter）。请确保所有加载的模型类型一致，例如如果主模型是 SD1.5，那么 ControlNet 和其他辅助模型也必须是基于 SD1.5 训练的，不能混用 SDXL 或其他版本的模型。",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},36539,"ComfyUI 频繁崩溃并显示 'Reconnecting'，但没有具体错误日志，如何排查？","这种情况通常由特定的节点引起，尤其是 'Audio Analysis'（音频分析）节点。当处理特定音频文件或显存不足时，该节点可能导致进程直接终止而不留下标准错误日志。解决方法包括：缩短音频时长（默认可能限制为 4 秒，需检查是否有参数可调整）、降低音频采样率、或者暂时禁用音频分析节点以确认是否为故障源。同时检查 ComfyUI 安装环境是否完整。","https:\u002F\u002Fgithub.com\u002Fyvann-ba\u002FComfyUI_Yvann-Nodes\u002Fissues\u002F23",{"id":143,"question_zh":144,"answer_zh":145,"source_url":118},36540,"如何计算或设置动画过渡（animation transition）的帧数？","动画过渡值决定了从一张图片过渡到另一张图片所需的帧数。由于 AnimateDiff 的行为具有不可预测性，没有固定的计算公式。建议根据总帧数和图片数量进行估算，并通过测试调整。如果发现过渡不自然或首尾衔接有问题，可以尝试减小源图像的尺寸以增加控制精度，并检查 AnimateDiff 的 `closed_loop` 设置。",[147,152],{"id":148,"version":149,"summary_zh":150,"released_at":151},289341,"v2.0","# 发布 v2.0.0 - 重大更新 🎉\n\n本次重大更新为 ComfyUI 带来了大量全新的音频响应节点和实用工具，旨在提升您基于 AI 的动画创作体验。请注意，此版本引入了破坏性变更，**不兼容** 之前的版本。\n\n## 新增功能\n\n### 新的音频响应节点 🔊\n\n- **音频混音器**\n  - **描述**：调整并混合不同的音频源，提供鼓、人声、贝斯等各元素的自定义音量控制。\n  - **特性**：\n    - 可单独调节各音频源的音量。\n    - 多轨音频无缝融合。\n\n- **加载音频分离模型**\n  - **描述**：加载并切换不同的音频分离模型，包括 **Hybrid Demucs** 和 **Open-Unmix**。\n  - **特性**：\n    - 支持多种音频分离模型。\n    - 自动下载并加载模型。\n\n- **音频峰值检测**\n  - **描述**：检测音频权重中的峰值，以触发响应式动画。\n  - **特性**：\n    - 可配置的峰值检测阈值和距离。\n    - 生成二进制峰值指示器及备选权重，便于高级调度。\n\n- **音频 IPAdapter 过渡**\n  - **描述**：基于检测到的音频峰值，使用 IPAdapter 控制图像过渡效果。\n  - **特性**：\n    - 提供多种混合模式：线性、缓入缓出、缓入、缓出。\n    - 过渡长度和权重范围可自定义。\n    - 可可视化过渡权重与峰值。\n\n- **编辑音频权重**\n  - **描述**：根据音频信号为 AnimateDiff 和 ControlNet 调度动画，帮助选择范围并平滑处理多值和 CN 调度。\n  - **特性**：\n    - 具有可定制范围的平滑信号处理。\n    - 可对音频权重进行重新缩放，实现精确的动画控制。\n\n### 新的实用节点 🛠️\n\n- **重复图像至指定数量**\n  - **描述**：将一张图像复制指定次数，以创建图像批次。\n  - **特性**：\n    - 高效生成多份图像副本。\n    - 支持大规模动画的批量处理。\n\n## 改进\n\n- **增强的音频处理**\n  - 改进了 RMS 能量计算，使音频权重生成更加准确。\n  - 优化了波形调整，确保不同音频样本之间的一致性。\n\n- **可视化增强**\n  - 更新了图表可视化，提升清晰度和性能。\n  - 新增了用于过渡和峰值检测的可视化类型。\n\n## 错误修复 🐞\n\n- 修复了 IPA 调度中过渡帧未正确设置的问题。\n- 修复了音频分离模型加载与切换的相关问题。\n- 解决了音频处理过程中波形维度不匹配的问题。\n- 改进了各类节点对无效输入的错误处理。\n- 提升了音频响应过渡及调度机制的稳定性。\n\n## 破坏性变更 ⚠️\n\n- **与 v1.1.2 不兼容**：此版本引入","2024-11-15T17:38:45",{"id":153,"version":154,"summary_zh":155,"released_at":156},289342,"v1.1.2","# 初次发布 🎉\n\n本版本引入了一套全面的音频响应节点及实用工具，旨在提升您在 ComfyUI 中基于 AI 的动画制作体验。\n\n## 节点\n\n### 音频响应节点 🔊\n\n- **Audio Reactive Yvann**\n  - **描述**：分析音频输入，生成音频响应权重及可视化效果。\n  - **功能**：\n    - 使用基于 AI 的音频分离技术（open-unmix），提取特定元素，如鼓声、人声、低音，或对完整音频进行分析。\n    - 应用阈值处理、平滑、放大和反转等音频处理技术。\n    - 生成随时间变化的音频权重可视化图表。\n\n- **IPAdapter Audio Reactive Yvann**\n  - **描述**：根据音频峰值控制图像混合与切换。\n  - **功能**：\n    - 与 IPAdapter 集成，实现音频响应图像的风格扩散。\n    - 支持多种时间函数：线性、缓入缓出、缓入、缓出、随机。\n    - 可自定义过渡帧数及峰值检测参数。\n    - 提供音频权重、检测到的峰值以及图像切换的可视化反馈。\n\n- **Audio Prompt Schedule Yvann**\n  - **描述**：根据音频峰值同步安排提示词，以创建动态动画。\n  - **功能**：\n    - 将特定提示词与音频响应索引关联。\n    - 与 Fizz Nodes 等提示词调度系统集成。\n\n### 实用节点 🛠️\n\n- **Floats To Weights Strategy Yvann**\n  - 将浮点数列表转换为 IPAdapter 权重策略，用于 IPAdapter 流水线中。\n\n- **Floats Visualizer Yvann**\n  - 根据一个或多个浮点数列表生成可视化图表，用于数据对比。\n\n- **Invert Floats Yvann**\n  - 将浮点数列表中的每个数值取反。\n\n- **Mask To Float Yvann**\n  - 通过计算掩码输入的平均像素值，将其转换为浮点数值。","2024-11-10T15:58:20"]