[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Lightricks--ComfyUI-LTXVideo":3,"tool-Lightricks--ComfyUI-LTXVideo":64},[4,17,26,35,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":10,"last_commit_at":32,"category_tags":33,"status":16},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[13,14,15,34],"视频",{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,43,34,44,15,45,46,13,47],"数据工具","插件","其他","语言模型","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,46,45],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[46,14,13,45],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":10,"env_os":95,"env_gpu":96,"env_ram":95,"env_deps":97,"category_tags":102,"github_topics":103,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":111,"updated_at":112,"faqs":113,"releases":114},4126,"Lightricks\u002FComfyUI-LTXVideo","ComfyUI-LTXVideo","LTX-Video Support for ComfyUI","ComfyUI-LTXVideo 是一套专为 ComfyUI 设计的扩展节点包，旨在让用户更便捷地使用 LTX-2 视频生成模型。它解决了用户在原生环境中难以灵活调用 LTX-2 高级功能（如多阶段生成、精细控制等）的痛点，通过预置的工作流和定制节点，大幅降低了复杂视频生成的门槛。\n\n这套工具非常适合希望本地部署高质量视频生成方案的设计师、AI 创作者以及研究人员。对于熟悉 ComfyUI 的用户，它能立即提升工作流效率；对于想要尝试最新视频模型的普通用户，其内置的自动下载和示例流程也让上手变得简单直观。\n\n技术亮点方面，ComfyUI-LTXVideo 不仅支持从文本或图像生成视频（T2V\u002FI2V），还引入了创新的\"Union IC-LoRA\"模型。该模型能将深度、边缘等多种控制条件整合到一个轻量级 LoRA 中，并在降采样的潜在空间进行处理，从而在显著减少显存占用、提升推理速度的同时，依然保持出色的画面质量。此外，它还提供了包含动作追踪、细节增强在内的多种成熟工作流，帮助用户轻松实现从创意到成片的快速转化。","# ComfyUI-LTXVideo\n\n[![GitHub](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLTX-Repo-blue?logo=github)](https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-2)\n[![Website](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FWebsite-LTX-181717?logo=google-chrome)](https:\u002F\u002Fltx.io\u002Fmodel)\n[![Model](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHuggingFace-Model-orange?logo=huggingface)](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3)\n[![LTXV Trainer](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLTX-Trainer%20Repo-9146FF)](https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-2\u002Ftree\u002Fmain\u002Fpackages\u002Fltx-trainer)\n[![Demo](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDemo-Try%20Now-brightgreen?logo=vercel)](https:\u002F\u002Fapp.ltx.studio\u002Fltx-2-playground\u002Fi2v)\n[![Paper](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper-arXiv-B31B1B?logo=arxiv)](https:\u002F\u002Fvideos.ltx.io\u002FLTX-2\u002Fgrants\u002FLTX_2_Technical_Report_compressed.pdf)\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FJoin-Discord-5865F2?logo=discord)](https:\u002F\u002Fdiscord.gg\u002Fltxplatform)\n\n\nA collection of powerful custom nodes that extend ComfyUI's capabilities for the LTX-2 video generation model.\n\nLTX-2 is built into ComfyUI core ([see it here](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI\u002Ftree\u002Fmaster\u002Fcomfy\u002Fldm\u002Flightricks)), making it readily accessible to all ComfyUI users. This repository hosts additional nodes and workflows to help you get the most out of LTX-2's advanced features.\n\n**To learn more about LTX-2** See the [main LTX-2 repository](https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-2) for model details and additional resources.\n\n\n## Prerequisites\nBefore you begin using an LTX-2 workflow in ComfyUI, make sure you have:\n\n* ComfyUI installed (Download here](https:\u002F\u002Fwww.comfy.org\u002Fdownload)\n* CUDA-compatible GPU with 32GB+ VRAM\n* 100GB+ free disk space for models and cache\n\n\n## Quick Start 🚀\n\nWe recommend using the LTX-2 workflows available in Comfy Manager.\n\n1. Open ComfyUI\n2. Click the Manager button (or press Ctrl+M)\n3. Select Install Custom Nodes\n4. Search for “LTXVideo”\n5. Click Install\n6. Wait for installation to complete\n7. Restart ComfyUI\n\nThe nodes will appear in your node menu under the “LTXVideo” category. Required models will be downloaded on first use.\n\n\n## Example Workflows\n\nThe ComfyUI-LTXVideo installation includes several example workflows.\nYou can see them all at:\n```\nComfyUI\u002Fcustom_nodes\u002FComfyUI-LTXVideo\u002Fexample_workflows\u002F\n```\n\nLTX-2.3 Workflows:\n\n* [`Text\u002Fimage to video full\u002Fdistilled model; single stage`](.\u002Fexample_workflows\u002F2.3\u002FLTX-2.3_T2V_I2V_Single_Stage_Distilled_Full.json)\n* [`Text\u002Fimage to video distilled model; two stages (with upsampling)`](.\u002Fexample_workflows\u002F2.3\u002FLTX-2.3_T2V_I2V_Two_Stage_Distilled.json)\n* [`IC-LoRA distilled model depth + human pose + edges`](.\u002Fexample_workflows\u002F2.3\u002FLTX-2.3_ICLoRA_Union_Control_Distilled.json)\n* [`IC-LoRA distilled model I2V motion tracking`](.\u002Fexample_workflows\u002F2.3\u002FLTX-2.3_ICLoRA_Motion_Track_Distilled.json)\n\nOlder Workflows (LTX-2.0):\n\n* [`Text to video full model`](.\u002Fexample_workflows\u002F2.0\u002FLTX-2_T2V_Full_wLora.json)\n* [`Text to video distilled model (Fast)`](.\u002Fexample_workflows\u002F2.0\u002FLTX-2_T2V_Distilled_wLora.json)\n* [`Image to video full model`](.\u002Fexample_workflows\u002F2.0\u002FLTX-2_I2V_Full_wLora.json)\n* [`Image to video distilled model (Fast)`](.\u002Fexample_workflows\u002F2.0\u002FLTX-2_I2V_Distilled_wLora.json)\n* [`Video to video detailer`](.\u002Fexample_workflows\u002F2.0\u002FLTX-2_V2V_Detailer.json)\n* [`IC-LoRA distilled model (depth + human pose + edges)`](.\u002Fexample_workflows\u002F2.0\u002FLTX-2_ICLoRA_All_Distilled.json)\n* [`IC-LoRA distilled model with downscaled reference latents`](.\u002Fexample_workflows\u002F2.0\u002FLTX-2_ICLoRA_All_Distilled_ref0.5.json)\n\n## Union IC-LoRA Model\n\nWe introduce a new **Union IC-LoRA** model that combines depth and edge (canny) control conditions into a single unified LoRA.\n\n### Key Features\n\n- **Unified Control**: A single LoRA that supports multiple control conditions (depth or edges).\n- **Downsampled Latent Processing**: The union LoRA operates on a downsampled latent size, which reduces memory usage and significantly speeds up inference while maintaining quality.\n\n### How It Works\n\nThe union LoRA is trained to understand and respond to both control signals (depth maps and edge maps) within a single model. The model learns to:\n\n1. **Parse multiple conditions**: Identify which control signals are present in the input\n2. **Process at reduced resolution**: Work on downsampled latents to improve efficiency\n\n## Required Models\n\nDownload the following models:\n\n**LTX-2.3 Model Checkpoint** - Choose and download one of the models to `COMFYUI_ROOT_FOLDER\u002Fmodels\u002Fcheckpoints` folder.\n  * [`ltx-2.3-22b-dev.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3\u002Fblob\u002Fmain\u002Fltx-2.3-22b-dev.safetensors)\n  * [`ltx-2.3-22b-distilled.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3\u002Fblob\u002Fmain\u002Fltx-2.3-22b-distilled.safetensors)\n\n**Spatial Upscaler** - Required for current two-stage pipeline implementations in this repository. Download to `COMFYUI_ROOT_FOLDER\u002Fmodels\u002Flatent_upscale_models` folder.\n  * [`ltx-2.3-spatial-upscaler-x2-1.0.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3\u002Fblob\u002Fmain\u002Fltx-2.3-spatial-upscaler-x2-1.0.safetensors)\n  * [`ltx-2.3-spatial-upscaler-x1.5-1.0.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3\u002Fblob\u002Fmain\u002Fltx-2.3-spatial-upscaler-x1.5-1.0.safetensors)\n\n**Temporal Upscaler** - Required for current two-stage pipeline implementations in this repository. Download to `COMFYUI_ROOT_FOLDER\u002Fmodels\u002Flatent_upscale_models` folder.\n  * [`ltx-2.3-temporal-upscaler-x2-1.0.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3\u002Fblob\u002Fmain\u002Fltx-2.3-temporal-upscaler-x2-1.0.safetensors)\n\n**Distilled LoRA** - Required for current two-stage pipeline implementations in this repository (except DistilledPipeline and ICLoraPipeline). Download to `COMFYUI_ROOT_FOLDER\u002Fmodels\u002Floras` folder.\n  * [`ltx-2.3-22b-distilled-lora-384.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3\u002Fblob\u002Fmain\u002Fltx-2.3-22b-distilled-lora-384.safetensors)\n\n**Gemma Text Encoder** Download all files from the repository to `COMFYUI_ROOT_FOLDER\u002Fmodels\u002Ftext_encoders\u002Fgemma-3-12b-it-qat-q4_0-unquantized`.\n  * [`Gemma 3`](https:\u002F\u002Fhuggingface.co\u002Fgoogle\u002Fgemma-3-12b-it-qat-q4_0-unquantized)\n\n**LoRAs** Choose and download to `COMFYUI_ROOT_FOLDER\u002Fmodels\u002Floras` folder.\n  * [`ltx-2.3-22b-ic-lora-union-control-ref0.5.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3-22b-IC-LoRA-Union-Control\u002Fblob\u002Fmain\u002Fltx-2.3-22b-ic-lora-union-control-ref0.5.safetensors)\n  * [`ltx-2.3-22b-ic-lora-motion-track-control-ref0.5.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3-22b-IC-LoRA-Motion-Track-Control\u002Fblob\u002Fmain\u002Fltx-2.3-22b-ic-lora-motion-track-control-ref0.5.safetensors)\n  * [`ltx-2-19b-ic-lora-detailer.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2-19b-IC-LoRA-Detailer\u002Fblob\u002Fmain\u002Fltx-2-19b-ic-lora-detailer.safetensors)\n  * [`ltx-2-19b-ic-lora-pose-control.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2-19b-IC-LoRA-Pose-Control\u002Fblob\u002Fmain\u002Fltx-2-19b-ic-lora-pose-control.safetensors)\n  * [`ltx-2-19b-lora-camera-control-dolly-in.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2-19b-LoRA-Camera-Control-Dolly-In\u002Fblob\u002Fmain\u002Fltx-2-19b-lora-camera-control-dolly-in.safetensors)\n  * [`ltx-2-19b-lora-camera-control-dolly-left.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2-19b-LoRA-Camera-Control-Dolly-Left\u002Fblob\u002Fmain\u002Fltx-2-19b-lora-camera-control-dolly-left.safetensors)\n  * [`ltx-2-19b-lora-camera-control-dolly-out.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2-19b-LoRA-Camera-Control-Dolly-Out\u002Fblob\u002Fmain\u002Fltx-2-19b-lora-camera-control-dolly-out.safetensors)\n  * [`ltx-2-19b-lora-camera-control-dolly-right.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2-19b-LoRA-Camera-Control-Dolly-Right\u002Fblob\u002Fmain\u002Fltx-2-19b-lora-camera-control-dolly-right.safetensors)\n  * [`ltx-2-19b-lora-camera-control-jib-down.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2-19b-LoRA-Camera-Control-Jib-Down\u002Fblob\u002Fmain\u002Fltx-2-19b-lora-camera-control-jib-down.safetensors)\n  * [`ltx-2-19b-lora-camera-control-jib-up.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2-19b-LoRA-Camera-Control-Jib-Up\u002Fblob\u002Fmain\u002Fltx-2-19b-lora-camera-control-jib-up.safetensors)\n  * [`ltx-2-19b-lora-camera-control-static.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2-19b-LoRA-Camera-Control-Static\u002Fblob\u002Fmain\u002Fltx-2-19b-lora-camera-control-static.safetensors)\n\n\n## Advanced Techniques\n\n### Low VRAM\n* For systems with low VRAM you can use the model loader nodes from [low_vram_loaders.py](.\u002Flow_vram_loaders.py). Those nodes ensure the correct order of execution and perform the model offloading such that generation fits in 32 GB VRAM.\n* Use --reserve-vram ComfyUI parameter: `python -m main --reserve-vram 5` (or other number in GB).\n* For complete information about using LTX-2 models, workflows, and nodes in ComfyUI, please visit our [Open Source documentation](https:\u002F\u002Fdocs.ltx.video\u002Fopen-source-model\u002Fintegration-tools\u002Fcomfy-ui).\n","# ComfyUI-LTXVideo\n\n[![GitHub](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLTX-Repo-blue?logo=github)](https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-2)\n[![Website](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FWebsite-LTX-181717?logo=google-chrome)](https:\u002F\u002Fltx.io\u002Fmodel)\n[![Model](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHuggingFace-Model-orange?logo=huggingface)](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3)\n[![LTXV Trainer](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLTX-Trainer%20Repo-9146FF)](https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-2\u002Ftree\u002Fmain\u002Fpackages\u002Fltx-trainer)\n[![Demo](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDemo-Try%20Now-brightgreen?logo=vercel)](https:\u002F\u002Fapp.ltx.studio\u002Fltx-2-playground\u002Fi2v)\n[![Paper](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper-arXiv-B31B1B?logo=arxiv)](https:\u002F\u002Fvideos.ltx.io\u002FLTX-2\u002Fgrants\u002FLTX_2_Technical_Report_compressed.pdf)\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FJoin-Discord-5865F2?logo=discord)](https:\u002F\u002Fdiscord.gg\u002Fltxplatform)\n\n\n一组功能强大的自定义节点，扩展了 ComfyUI 对 LTX-2 视频生成模型的支持。\n\nLTX-2 已集成到 ComfyUI 核心中（[查看此处](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI\u002Ftree\u002Fmaster\u002Fcomfy\u002Fldm\u002Flightricks)），因此所有 ComfyUI 用户都可以直接使用。本仓库提供了额外的节点和工作流，帮助您充分发挥 LTX-2 的高级功能。\n\n**如需了解更多关于 LTX-2 的信息**，请参阅 [LTX-2 主仓库](https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-2)，以获取模型详情及其他资源。\n\n\n## 先决条件\n在开始使用 ComfyUI 中的 LTX-2 工作流之前，请确保您已具备以下条件：\n\n* 已安装 ComfyUI（[下载地址](https:\u002F\u002Fwww.comfy.org\u002Fdownload)）\n* 兼容 CUDA 的 GPU，显存 32GB 以上\n* 至少 100GB 的可用磁盘空间，用于存储模型和缓存\n\n\n## 快速入门 🚀\n\n我们建议使用 Comfy Manager 中提供的 LTX-2 工作流。\n\n1. 打开 ComfyUI\n2. 点击“管理器”按钮（或按 Ctrl+M）\n3. 选择“安装自定义节点”\n4. 搜索“LTXVideo”\n5. 点击“安装”\n6. 等待安装完成\n7. 重启 ComfyUI\n\n安装完成后，这些节点将出现在您的节点菜单中，位于“LTXVideo”分类下。首次使用时，所需的模型会自动下载。\n\n\n## 示例工作流\n\nComfyUI-LTXVideo 安装包包含多个示例工作流。\n您可以在以下路径找到它们：\n```\nComfyUI\u002Fcustom_nodes\u002FComfyUI-LTXVideo\u002Fexample_workflows\u002F\n```\n\nLTX-2.3 工作流：\n\n* [`文本\u002F图像转视频 全模型\u002F蒸馏模型；单阶段`](.\u002Fexample_workflows\u002F2.3\u002FLTX-2.3_T2V_I2V_Single_Stage_Distilled_Full.json)\n* [`文本\u002F图像转视频 蒸馏模型；两阶段（含超分辨率）`](.\u002Fexample_workflows\u002F2.3\u002FLTX-2.3_T2V_I2V_Two_Stage_Distilled.json)\n* [`IC-LoRA 蒸馏模型：深度 + 人体姿态 + 边缘`](.\u002Fexample_workflows\u002F2.3\u002FLTX-2.3_ICLoRA_Union_Control_Distilled.json)\n* [`IC-LoRA 蒸馏模型：I2V 动作追踪`](.\u002Fexample_workflows\u002F2.3\u002FLTX-2.3_ICLoRA_Motion_Track_Distilled.json)\n\n旧版工作流（LTX-2.0）：\n\n* [`文本转视频 全模型`](.\u002Fexample_workflows\u002F2.0\u002FLTX-2_T2V_Full_wLora.json)\n* [`文本转视频 蒸馏模型（快速）`](.\u002Fexample_workflows\u002F2.0\u002FLTX-2_T2V_Distilled_wLora.json)\n* [`图像转视频 全模型`](.\u002Fexample_workflows\u002F2.0\u002FLTX-2_I2V_Full_wLora.json)\n* [`图像转视频 蒸馏模型（快速）`](.\u002Fexample_workflows\u002F2.0\u002FLTX-2_I2V_Distilled_wLora.json)\n* [`视频转视频 细节增强`](.\u002Fexample_workflows\u002F2.0\u002FLTX-2_V2V_Detailer.json)\n* [`IC-LoRA 蒸馏模型（深度 + 人体姿态 + 边缘）`](.\u002Fexample_workflows\u002F2.0\u002FLTX-2_ICLoRA_All_Distilled.json)\n* [`IC-LoRA 蒸馏模型，采用降采样参考潜变量`](.\u002Fexample_workflows\u002F2.0\u002FLTX-2_ICLoRA_All_Distilled_ref0.5.json)\n\n## Union IC-LoRA 模型\n\n我们推出了一种新的 **Union IC-LoRA** 模型，它将深度和边缘（Canny）控制条件整合为一个统一的 LoRA。\n\n### 主要特点\n\n- **统一控制**：一个 LoRA 即可支持多种控制条件（深度或边缘）。\n- **降采样潜变量处理**：该联合 LoRA 在降采样的潜变量尺寸上运行，从而减少内存占用并显著加快推理速度，同时保持高质量。\n\n### 工作原理\n\n联合 LoRA 经过训练，能够在单一模型中理解和响应两种控制信号（深度图和边缘图）。该模型能够：\n\n1. **解析多种条件**：识别输入中存在哪些控制信号\n2. **以较低分辨率处理**：在降采样的潜变量上进行计算，以提高效率\n\n## 必需模型\n\n请下载以下模型：\n\n**LTX-2.3 模型检查点** - 从下列选项中选择一个模型，下载至 `COMFYUI_ROOT_FOLDER\u002Fmodels\u002Fcheckpoints` 文件夹。\n  * [`ltx-2.3-22b-dev.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3\u002Fblob\u002Fmain\u002Fltx-2.3-22b-dev.safetensors)\n  * [`ltx-2.3-22b-distilled.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3\u002Fblob\u002Fmain\u002Fltx-2.3-22b-distilled.safetensors)\n\n**空间超分辨率模型** - 本仓库当前的两阶段流程实现所需。请下载至 `COMFYUI_ROOT_FOLDER\u002Fmodels\u002Flatent_upscale_models` 文件夹。\n  * [`ltx-2.3-spatial-upscaler-x2-1.0.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3\u002Fblob\u002Fmain\u002Fltx-2.3-spatial-upscaler-x2-1.0.safetensors)\n  * [`ltx-2.3-spatial-upscaler-x1.5-1.0.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3\u002Fblob\u002Fmain\u002Fltx-2.3-spatial-upscaler-x1.5-1.0.safetensors)\n\n**时间超分辨率模型** - 本仓库当前的两阶段流程实现所需。请下载至 `COMFYUI_ROOT_FOLDER\u002Fmodels\u002Flatent_upscale_models` 文件夹。\n  * [`ltx-2.3-temporal-upscaler-x2-1.0.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3\u002Fblob\u002Fmain\u002Fltx-2.3-temporal-upscaler-x2-1.0.safetensors)\n\n**蒸馏 LoRA** - 本仓库当前的两阶段流程实现所需（除 DistilledPipeline 和 ICLoraPipeline 外）。请下载至 `COMFYUI_ROOT_FOLDER\u002Fmodels\u002Floras` 文件夹。\n  * [`ltx-2.3-22b-distilled-lora-384.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3\u002Fblob\u002Fmain\u002Fltx-2.3-22b-distilled-lora-384.safetensors)\n\n**Gemma 文本编码器** 下载该仓库中的所有文件至 `COMFYUI_ROOT_FOLDER\u002Fmodels\u002Ftext_encoders\u002Fgemma-3-12b-it-qat-q4_0-unquantized` 文件夹。\n  * [`Gemma 3`](https:\u002F\u002Fhuggingface.co\u002Fgoogle\u002Fgemma-3-12b-it-qat-q4_0-unquantized)\n\n**LoRAs** 从下列选项中选择并下载至 `COMFYUI_ROOT_FOLDER\u002Fmodels\u002Floras` 文件夹。\n  * [`ltx-2.3-22b-ic-lora-union-control-ref0.5.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3-22b-IC-LoRA-Union-Control\u002Fblob\u002Fmain\u002Fltx-2.3-22b-ic-lora-union-control-ref0.5.safetensors)\n  * [`ltx-2.3-22b-ic-lora-motion-track-control-ref0.5.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3-22b-IC-LoRA-Motion-Track-Control\u002Fblob\u002Fmain\u002Fltx-2.3-22b-ic-lora-motion-track-control-ref0.5.safetensors)\n  * [`ltx-2-19b-ic-lora-detailer.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2-19b-IC-LoRA-Detailer\u002Fblob\u002Fmain\u002Fltx-2-19b-ic-lora-detailer.safetensors)\n  * [`ltx-2-19b-ic-lora-pose-control.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2-19b-IC-LoRA-Pose-Control\u002Fblob\u002Fmain\u002Fltx-2-19b-ic-lora-pose-control.safetensors)\n  * [`ltx-2-19b-lora-camera-control-dolly-in.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2-19b-LoRA-Camera-Control-Dolly-In\u002Fblob\u002Fmain\u002Fltx-2-19b-lora-camera-control-dolly-in.safetensors)\n  * [`ltx-2-19b-lora-camera-control-dolly-left.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2-19b-LoRA-Camera-Control-Dolly-Left\u002Fblob\u002Fmain\u002Fltx-2-19b-lora-camera-control-dolly-left.safetensors)\n  * [`ltx-2-19b-lora-camera-control-dolly-out.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2-19b-LoRA-Camera-Control-Dolly-Out\u002Fblob\u002Fmain\u002Fltx-2-19b-lora-camera-control-dolly-out.safetensors)\n  * [`ltx-2-19b-lora-camera-control-dolly-right.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2-19b-LoRA-Camera-Control-Dolly-Right\u002Fblob\u002Fmain\u002Fltx-2-19b-lora-camera-control-dolly-right.safetensors)\n  * [`ltx-2-19b-lora-camera-control-jib-down.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2-19b-LoRA-Camera-Control-Jib-Down\u002Fblob\u002Fmain\u002Fltx-2-19b-lora-camera-control-jib-down.safetensors)\n  * [`ltx-2-19b-lora-camera-control-jib-up.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2-19b-LoRA-Camera-Control-Jib-Up\u002Fblob\u002Fmain\u002Fltx-2-19b-lora-camera-control-jib-up.safetensors)\n  * [`ltx-2-19b-lora-camera-control-static.safetensors`](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2-19b-LoRA-Camera-Control-Static\u002Fblob\u002Fmain\u002Fltx-2-19b-lora-camera-control-static.safetensors)\n\n\n## 高级技巧\n\n### 低显存模式\n* 对于显存较低的系统，可以使用 [low_vram_loaders.py](.\u002Flow_vram_loaders.py) 中的模型加载节点。这些节点能够确保正确的执行顺序，并进行模型卸载，从而使生成过程能够在 32 GB 显存内完成。\n* 使用 ComfyUI 的 --reserve-vram 参数：`python -m main --reserve-vram 5`（或其他以 GB 为单位的数值）。\n* 如需了解在 ComfyUI 中使用 LTX-2 模型、工作流和节点的完整信息，请访问我们的 [开源文档](https:\u002F\u002Fdocs.ltx.video\u002Fopen-source-model\u002Fintegration-tools\u002Fcomfy-ui)。","# ComfyUI-LTXVideo 快速上手指南\n\nComfyUI-LTXVideo 是一套专为 LTX-2 视频生成模型设计的自定义节点集合，旨在扩展 ComfyUI 的功能，帮助用户充分利用 LTX-2 的高级特性（如文生视频、图生视频及可控生成）。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下硬件和软件要求：\n\n*   **操作系统**: Windows \u002F Linux \u002F macOS\n*   **基础软件**: 已安装 [ComfyUI](https:\u002F\u002Fwww.comfy.org\u002Fdownload)\n*   **显卡 (GPU)**: NVIDIA CUDA 兼容显卡，显存 **32GB+** (推荐使用低显存加载方案可尝试优化，但官方建议 32GB+)\n*   **磁盘空间**: 至少预留 **100GB** 空闲空间用于存放模型文件和缓存\n\n## 2. 安装步骤\n\n推荐通过 **ComfyUI Manager** 进行安装，这是最便捷的方式。\n\n### 方法一：使用 ComfyUI Manager (推荐)\n\n1.  启动 ComfyUI。\n2.  点击界面上的 **Manager** 按钮（或按下快捷键 `Ctrl+M`）。\n3.  选择 **Install Custom Nodes**。\n4.  在搜索框中输入 `LTXVideo`。\n5.  找到 `ComfyUI-LTXVideo` 并点击 **Install**。\n6.  等待安装完成后，**重启 ComfyUI**。\n\n重启后，您将在节点菜单的 `LTXVideo` 分类下看到相关节点。首次运行工作流时，所需模型会自动下载。\n\n### 方法二：手动安装模型 (如需预下载)\n\n若需手动管理模型，请将以下文件下载至对应目录：\n\n*   **主模型检查点** (`models\u002Fcheckpoints`):\n    *   [ltx-2.3-22b-dev.safetensors](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3\u002Fblob\u002Fmain\u002Fltx-2.3-22b-dev.safetensors) (完整版)\n    *   [ltx-2.3-22b-distilled.safetensors](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3\u002Fblob\u002Fmain\u002Fltx-2.3-22b-distilled.safetensors) (蒸馏版\u002F快速版)\n*   **空间\u002F时间放大模型** (`models\u002Flatent_upscale_models`):\n    *   [ltx-2.3-spatial-upscaler-x2-1.0.safetensors](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3\u002Fblob\u002Fmain\u002Fltx-2.3-spatial-upscaler-x2-1.0.safetensors)\n    *   [ltx-2.3-temporal-upscaler-x2-1.0.safetensors](https:\u002F\u002Fhuggingface.co\u002FLightricks\u002FLTX-2.3\u002Fblob\u002Fmain\u002Fltx-2.3-temporal-upscaler-x2-1.0.safetensors)\n*   **文本编码器** (`models\u002Ftext_encoders\u002Fgemma-3-12b-it-qat-q4_0-unquantized`):\n    *   下载 [Gemma 3](https:\u002F\u002Fhuggingface.co\u002Fgoogle\u002Fgemma-3-12b-it-qat-q4_0-unquantized) 仓库下的所有文件至此目录。\n*   **LoRA 模型** (`models\u002Floras`):\n    *   根据需求下载对应的 Control LoRA (如 Union Control, Motion Track, Camera Control 等)。\n\n> **提示**: 国内用户若访问 HuggingFace 缓慢，建议使用镜像站（如 `hf-mirror.com`）或代理加速下载。\n\n## 3. 基本使用\n\n安装完成后，您可以直接加载官方提供的示例工作流开始创作。\n\n### 加载示例工作流\n\n示例工作流位于以下目录：\n```text\nComfyUI\u002Fcustom_nodes\u002FComfyUI-LTXVideo\u002Fexample_workflows\u002F\n```\n\n**推荐新手尝试的工作流 (LTX-2.3):**\n\n*   **基础文生\u002F图生视频 (单阶段)**:\n    `example_workflows\u002F2.3\u002FLTX-2.3_T2V_I2V_Single_Stage_Distilled_Full.json`\n    *适用场景*: 快速生成视频，支持文本或图片输入。\n*   **高质量两阶段生成 (含放大)**:\n    `example_workflows\u002F2.3\u002FLTX-2.3_T2V_I2V_Two_Stage_Distilled.json`\n    *适用场景*: 需要更高分辨率和更长时间的视频生成。\n*   **可控生成 (深度 + 姿态 + 边缘)**:\n    `example_workflows\u002F2.3\u002FLTX-2.3_ICLoRA_Union_Control_Distilled.json`\n    *适用场景*: 使用 Union IC-LoRA 对视频内容进行精确控制。\n\n### 运行步骤\n\n1.  打开 ComfyUI，点击菜单 **Load**，选择上述任一 `.json` 工作流文件。\n2.  在工作流中调整提示词 (Prompt) 或上传参考图片。\n3.  点击 **Queue Prompt** 开始生成。\n4.  生成的视频将显示在输出节点中。\n\n### 低显存优化技巧\n\n如果您的显存接近 32GB 上限，可以通过以下方式优化：\n\n1.  **使用专用加载节点**: 在工作流中使用 `low_vram_loaders.py` 提供的模型加载节点，它们会自动处理模型卸载以适配显存。\n2.  **启动参数优化**: 在启动 ComfyUI 时添加保留显存参数：\n    ```bash\n    python -m main --reserve-vram 5\n    ```\n    *(注：数字代表保留的显存大小，单位为 GB，可根据实际情况调整)*\n\n更多高级用法和技术细节，请参考 [LTX Video 官方开源文档](https:\u002F\u002Fdocs.ltx.video\u002Fopen-source-model\u002Fintegration-tools\u002Fcomfy-ui)。","一位独立游戏开发者需要为角色技能制作一段带有精确动作轨迹和景深效果的宣传短片，但缺乏专业动画团队支持。\n\n### 没有 ComfyUI-LTXVideo 时\n- 难以同时控制视频的深度信息和人物骨骼姿态，生成的动作往往与预设不符，导致角色“滑步”或肢体扭曲。\n- 想要分别调整边缘轮廓和深度图层时，必须加载多个独立的控制模型，显存占用瞬间爆表，32GB 显存的显卡也频繁报错崩溃。\n- 生成高清长镜头需要极长的渲染时间，且无法通过潜空间下采样技术加速，迭代一次创意需要等待数小时。\n- 缺乏统一的节点工作流，每次尝试新的控制组合都要手动重新连接复杂的底层逻辑，调试成本极高。\n\n### 使用 ComfyUI-LTXVideo 后\n- 利用内置的 Union IC-LoRA 单模型，即可在同一流程中精准锁定人物姿态（Pose）与场景深度（Depth），确保技能动作流畅自然。\n- 得益于下采样潜空间处理技术，在保持画质的前提下大幅降低显存需求，让复杂的多条件控制视频能在单张显卡上稳定运行。\n- 调用官方提供的两阶段蒸馏工作流，先快速生成低清草稿确认动态，再一键升频至高清，将创意验证周期从小时级缩短至分钟级。\n- 直接加载预设的\"IC-LoRA 联合控制”示例工作流，无需手动编排节点，开发者可立即专注于调整提示词和运动参数。\n\nComfyUI-LTXVideo 通过统一的控制模型和高效的工作流，让单人开发者也能以低成本制作出具备电影级运控细节的高质量视频。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLightricks_ComfyUI-LTXVideo_de154c9b.png","Lightricks","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FLightricks_a06d057c.jpg","Bridging Imagination and Creation",null,"lightricks","http:\u002F\u002Fwww.lightricks.com","https:\u002F\u002Fgithub.com\u002FLightricks",[83,87],{"name":84,"color":85,"percentage":86},"Python","#3572A5",93.7,{"name":88,"color":89,"percentage":90},"JavaScript","#f1e05a",6.3,3411,361,"2026-04-05T17:12:49","NOASSERTION","未说明","必需 CUDA 兼容 GPU，推荐显存 32GB+（低显存用户可通过特定节点和参数在 32GB 内运行）",{"notes":98,"python":95,"dependencies":99},"1. 需要至少 100GB 空闲磁盘空间用于存放模型和缓存文件。\n2. 首次运行会自动下载所需模型，也可手动下载主模型、空间\u002F时间放大器、LoRA 及 Gemma 文本编码器到指定目录。\n3. 低显存用户可使用 `low_vram_loaders.py` 中的加载节点，并添加启动参数 `--reserve-vram`（例如保留 5GB）以优化显存占用。\n4. 该工具依赖 ComfyUI 管理器进行安装，安装后需重启 ComfyUI。",[100,101],"ComfyUI (核心已内置 LTX-2 支持)","ComfyUI-LTXVideo (自定义节点)",[34,14],[104,105,106,107,108,109,110],"comfyui","diffusion-models","dit","image-to-video","image-to-video-generation","text-to-image","text-to-image-generation","2026-03-27T02:49:30.150509","2026-04-06T11:56:42.515766",[],[]]