[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-Lightricks--LTX-Desktop":3,"similar-Lightricks--LTX-Desktop":141},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":14,"owner_avatar_url":15,"owner_bio":16,"owner_company":17,"owner_location":17,"owner_email":17,"owner_twitter":18,"owner_website":19,"owner_url":20,"languages":21,"stars":55,"forks":56,"last_commit_at":57,"license":58,"difficulty_score":59,"env_os":60,"env_gpu":61,"env_ram":62,"env_deps":63,"category_tags":72,"github_topics":74,"view_count":79,"oss_zip_url":17,"oss_zip_packed_at":17,"status":80,"created_at":81,"updated_at":82,"faqs":83,"releases":115},5778,"Lightricks\u002FLTX-Desktop","LTX-Desktop","An open-source desktop app for generating videos with LTX models","LTX-Desktop 是一款开源桌面应用，旨在让用户直接在本地电脑上利用 LTX 模型生成高质量视频。它有效解决了视频创作中对隐私保护、离线运行以及降低云端依赖的需求，同时为硬件受限的用户提供了灵活的云端 API 备选方案。\n\n这款软件非常适合视频设计师、内容创作者以及希望探索本地 AI 视频生成的技术爱好者使用。其核心亮点在于“混合运行模式”：在配备 16GB 以上显存的 NVIDIA 显卡（Windows\u002FLinux）上，它能完全本地化运行，下载模型权重后无需联网即可创作；而对于 macOS 用户或显存不足的设备，则可通过 API 模式调用云端算力。此外，LTX-Desktop 不仅支持文生视频、图生视频和音频驱动视频，还内置了直观的时间轴编辑器，允许用户对生成结果进行二次编辑和片段重绘（Retake）。值得一提的是，其文本编码功能可免费通过云端 API 加速，既节省了本地内存资源，又提升了推理速度，让复杂的视频工作流变得更加流畅可控。","# LTX Desktop\n\nLTX Desktop is an open-source desktop app for generating videos with LTX models — locally on supported Windows\u002FLinux NVIDIA GPUs, with an API mode for unsupported hardware and macOS.\n\n> **Status: Beta.** Expect breaking changes.\n> Frontend architecture is under active refactor; large UI PRs may be declined for now (see [`CONTRIBUTING.md`](docs\u002FCONTRIBUTING.md)).\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLightricks_LTX-Desktop_readme_fa5bdaae29ee.png\" alt=\"Gen Space\" width=\"70%\">\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLightricks_LTX-Desktop_readme_b25e1fae991e.png\" alt=\"Video Editor\" width=\"70%\">\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLightricks_LTX-Desktop_readme_78988325d07a.png\" alt=\"Timeline gap fill\" width=\"70%\">\n\u003C\u002Fp>\n\n## Features\n\n- Text-to-video generation\n- Image-to-video generation\n- Audio-to-video generation\n- Video edit generation (Retake)\n- Video Editor Interface\n- Video Editing Projects\n\n## Local vs API mode\n\n| Platform \u002F hardware | Generation mode | Notes |\n| --- | --- | --- |\n| Windows + CUDA GPU with **≥16GB VRAM** | Local generation | Downloads model weights locally |\n| Windows (no CUDA, \u003C16GB VRAM, or unknown VRAM) | API-only | **LTX API key required** |\n| Linux + CUDA GPU with **≥16GB VRAM** | Local generation | Downloads model weights locally |\n| Linux (no CUDA, \u003C16GB VRAM, or unknown VRAM) | API-only | **LTX API key required** |\n| macOS (Apple Silicon builds) | API-only | **LTX API key required** |\n\nIn API-only mode, available resolutions\u002Fdurations may be limited to what the API supports.\n\n## System requirements\n\n### Windows (local generation)\n\n- Windows 10\u002F11 (x64)\n- NVIDIA GPU with CUDA support and **≥16GB VRAM** (more is better)\n- 16GB+ RAM (32GB recommended)\n- **160GB+ free disk space** (for model weights, Python environment, and outputs)\n\n### Linux (local generation)\n\n- Ubuntu 22.04+ or similar distro (x64 or arm64)\n- NVIDIA GPU with CUDA support and **≥16GB VRAM** (more is better)\n- NVIDIA driver installed (PyTorch bundles the CUDA runtime)\n- 16GB+ RAM (32GB recommended)\n- Plenty of free disk space for model weights and outputs\n\n### macOS (API-only)\n\n- Apple Silicon (arm64)\n- macOS 13+ (Ventura)\n- Stable internet connection\n\n## Install\n\n1. Download the latest installer from GitHub Releases: [Releases](..\u002F..\u002Freleases)\n2. Install and launch **LTX Desktop**\n3. Complete first-run setup\n\n## First run & data locations\n\nLTX Desktop stores app data (settings, models, logs) in:\n\n- **Windows:** `%LOCALAPPDATA%\\LTXDesktop\\`\n- **macOS:** `~\u002FLibrary\u002FApplication Support\u002FLTXDesktop\u002F`\n- **Linux:** `$XDG_DATA_HOME\u002FLTXDesktop\u002F` (default: `~\u002F.local\u002Fshare\u002FLTXDesktop\u002F`)\n\nModel weights are downloaded into the `models\u002F` subfolder (this can be large and may take time).\n\nOn first launch you may be prompted to review\u002Faccept model license terms (license text is fetched from Hugging Face; requires internet).\n\nText encoding: to generate videos you must configure text encoding:\n\n- **LTX API key** (cloud text encoding) — **text encoding via the API is completely FREE** and highly recommended to speed up inference and save memory. Generate a free API key at the [LTX Console](https:\u002F\u002Fconsole.ltx.video\u002F). [Read more](https:\u002F\u002Fltx.io\u002Fmodel\u002Fmodel-blog\u002Fltx-2-better-control-for-real-workflows).\n- **Local Text Encoder** (extra download; enables fully-local operation on supported Windows hardware) — if you don't wish to generate an API key, you can encode text locally via the settings menu.\n\n## API keys, cost, and privacy\n\n### LTX API key\n\nThe LTX API is used for:\n\n- **Cloud text encoding and prompt enhancement** — **FREE**; text encoding is highly recommended to speed up inference and save memory\n- API-based video generations (required on macOS and on unsupported Windows hardware) — paid\n- Retake — paid\n\nAn LTX API key is required in API-only mode, but optional on Windows\u002FLinux local mode if you enable the Local Text Encoder.\n\nGenerate a FREE API key at the [LTX Console](https:\u002F\u002Fconsole.ltx.video\u002F). Text encoding is free; video generation API usage is paid. [Read more](https:\u002F\u002Fltx.io\u002Fmodel\u002Fmodel-blog\u002Fltx-2-better-control-for-real-workflows).\n\nWhen you use API-backed features, prompts and media inputs are sent to the API service. Your API key is stored locally in your app data folder — treat it like a secret.\n\n### fal API key (optional)\n\nUsed for Z Image Turbo text-to-image generation in API mode. When enabled, image generation requests are sent to fal.ai.\n\nCreate an API key in the [fal dashboard](https:\u002F\u002Ffal.ai\u002Fdashboard\u002Fkeys).\n\n### Gemini API key (optional)\n\nUsed for AI prompt suggestions. When enabled, prompt context and frames may be sent to Google Gemini.\n\n## Architecture\n\nLTX Desktop is split into three main layers:\n\n- **Renderer (`frontend\u002F`)**: TypeScript + React UI.\n  - Calls the local backend over HTTP at `http:\u002F\u002Flocalhost:8000`.\n  - Talks to Electron via the preload bridge (`window.electronAPI`).\n- **Electron (`electron\u002F`)**: TypeScript main process + preload.\n  - Owns app lifecycle and OS integration (file dialogs, native export via ffmpeg, starting\u002Fmanaging the Python backend).\n  - Security: renderer is sandboxed (`contextIsolation: true`, `nodeIntegration: false`).\n- **Backend (`backend\u002F`)**: Python + FastAPI local server.\n  - Orchestrates generation, model downloads, and GPU execution.\n  - Calls external APIs only when API-backed features are used.\n\n```mermaid\ngraph TD\n  UI[\"Renderer (React + TS)\"] -->|HTTP: localhost:8000| BE[\"Backend (FastAPI + Python)\"]\n  UI -->|IPC via preload: window.electronAPI| EL[\"Electron main (TS)\"]\n  EL --> OS[\"OS integration (files, dialogs, ffmpeg, process mgmt)\"]\n  BE --> GPU[\"Local models + GPU (when supported)\"]\n  BE --> EXT[\"External APIs (only for API-backed features)\"]\n  EL --> DATA[\"App data folder (settings\u002Fmodels\u002Flogs)\"]\n  BE --> DATA\n```\n\n## Development (quickstart)\n\nPrereqs:\n\n- Node.js\n- `uv` (Python package manager)\n- Python 3.12+\n- Git\n\nSetup:\n\n```bash\npnpm setup:dev\n```\n\nRun:\n\n```bash\npnpm dev\n```\n\nDebug:\n\n```bash\npnpm dev:debug\n```\n\n`dev:debug` starts Electron with inspector enabled and starts the Python backend with `debugpy`.\n\nTypecheck:\n\n```bash\npnpm typecheck\n```\n\nBackend tests:\n\n```bash\npnpm backend:test\n```\n\nBuilding installers:\n- See [`INSTALLER.md`](docs\u002FINSTALLER.md)\n\n## Telemetry\n\nLTX Desktop collects minimal, anonymous usage analytics (app version, platform, and a random installation ID) to help prioritize development. No personal information or generated content is collected. Analytics is enabled by default and can be disabled in **Settings > General > Anonymous Analytics**. See [`TELEMETRY.md`](docs\u002FTELEMETRY.md) for details.\n\n## Docs\n\n- [`INSTALLER.md`](docs\u002FINSTALLER.md) — building installers\n- [`TELEMETRY.md`](docs\u002FTELEMETRY.md) — telemetry and privacy\n- [`backend\u002Farchitecture.md`](backend\u002Farchitecture.md) — backend architecture\n\n## Contributing\n\nSee [`CONTRIBUTING.md`](docs\u002FCONTRIBUTING.md).\n\n## License\n\nApache-2.0 — see [`LICENSE.txt`](LICENSE.txt).\n\nThird-party notices (including model licenses\u002Fterms): [`NOTICES.md`](NOTICES.md).\n\nModel weights are downloaded separately and may be governed by additional licenses\u002Fterms.\n","# LTX 桌面版\n\nLTX 桌面版是一款开源桌面应用，用于使用 LTX 模型生成视频——在支持的 Windows\u002FLinux NVIDIA 显卡上本地运行，并为不支持的硬件和 macOS 提供 API 模式。\n\n> **状态：测试版。** 可能会有破坏性变更。\n> 前端架构正在积极重构中；目前可能会拒绝大型 UI PR（请参阅 [`CONTRIBUTING.md`](docs\u002FCONTRIBUTING.md)）。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLightricks_LTX-Desktop_readme_fa5bdaae29ee.png\" alt=\"Gen Space\" width=\"70%\">\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLightricks_LTX-Desktop_readme_b25e1fae991e.png\" alt=\"Video Editor\" width=\"70%\">\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLightricks_LTX-Desktop_readme_78988325d07a.png\" alt=\"Timeline gap fill\" width=\"70%\">\n\u003C\u002Fp>\n\n## 功能\n\n- 文本到视频生成\n- 图像到视频生成\n- 音频到视频生成\n- 视频编辑生成（重拍）\n- 视频编辑界面\n- 视频编辑项目\n\n## 本地模式与 API 模式\n\n| 平台 \u002F 硬件 | 生成模式 | 备注 |\n| --- | --- | --- |\n| Windows + 具有 **≥16GB VRAM** 的 CUDA GPU | 本地生成 | 在本地下载模型权重 |\n| Windows（无 CUDA、VRAM 小于 16GB 或 VRAM 不明） | 仅 API | **需要 LTX API 密钥** |\n| Linux + 具有 **≥16GB VRAM** 的 CUDA GPU | 本地生成 | 在本地下载模型权重 |\n| Linux（无 CUDA、VRAM 小于 16GB 或 VRAM 不明） | 仅 API | **需要 LTX API 密钥** |\n| macOS（Apple Silicon 构建） | 仅 API | **需要 LTX API 密钥** |\n\n在仅 API 模式下，可用的分辨率\u002F时长可能受限于 API 支持的范围。\n\n## 系统要求\n\n### Windows（本地生成）\n\n- Windows 10\u002F11（x64）\n- 支持 CUDA 的 NVIDIA GPU，且具有 **≥16GB VRAM**（越大越好）\n- 16GB 以上内存（推荐 32GB）\n- **160GB 以上可用磁盘空间**（用于模型权重、Python 环境和输出文件）\n\n### Linux（本地生成）\n\n- Ubuntu 22.04+ 或类似发行版（x64 或 arm64）\n- 支持 CUDA 的 NVIDIA GPU，且具有 **≥16GB VRAM**（越大越好）\n- 已安装 NVIDIA 驱动程序（PyTorch 自带 CUDA 运行时）\n- 16GB 以上内存（推荐 32GB）\n- 足够的可用磁盘空间用于存储模型权重和输出文件\n\n### macOS（仅 API）\n\n- Apple Silicon（arm64）\n- macOS 13+（Ventura）\n- 稳定的互联网连接\n\n## 安装\n\n1. 从 GitHub Releases 下载最新安装程序：[Releases](..\u002F..\u002Freleases)\n2. 安装并启动 **LTX 桌面版**\n3. 完成首次运行设置\n\n## 首次运行与数据位置\n\nLTX 桌面版将应用数据（设置、模型、日志）存储在以下路径：\n\n- **Windows:** `%LOCALAPPDATA%\\LTXDesktop\\`\n- **macOS:** `~\u002FLibrary\u002FApplication Support\u002FLTXDesktop\u002F`\n- **Linux:** `$XDG_DATA_HOME\u002FLTXDesktop\u002F`（默认：`~\u002F.local\u002Fshare\u002FLTXDesktop\u002F`）\n\n模型权重会下载到 `models\u002F` 子文件夹中（该文件夹可能较大，下载时间较长）。\n\n首次启动时，系统可能会提示您查看并接受模型许可条款（许可文本从 Hugging Face 获取；需要联网）。\n\n文本编码：要生成视频，您必须配置文本编码：\n\n- **LTX API 密钥**（云端文本编码）——通过 API 进行文本编码是完全免费的，且强烈推荐，以加快推理速度并节省内存。您可以在 [LTX 控制台](https:\u002F\u002Fconsole.ltx.video\u002F) 生成一个免费的 API 密钥。[了解更多](https:\u002F\u002Fltx.io\u002Fmodel\u002Fmodel-blog\u002Fltx-2-better-control-for-real-workflows)。\n- **本地文本编码器**（额外下载；可在支持的 Windows 硬件上实现完全本地化操作）——如果您不想生成 API 密钥，也可以通过设置菜单进行本地文本编码。\n\n## API 密钥、费用与隐私\n\n### LTX API 密钥\n\nLTX API 用于：\n\n- **云端文本编码和提示增强**——**免费**；强烈建议使用文本编码以加快推理速度并节省内存。\n- 基于 API 的视频生成（在 macOS 和不支持的 Windows 硬件上必需）——收费。\n- 重拍——收费。\n\n在仅 API 模式下需要 LTX API 密钥，但在 Windows\u002FLinux 本地模式下，如果您启用本地文本编码器，则可选。\n\n您可以在 [LTX 控制台](https:\u002F\u002Fconsole.ltx.video\u002F) 生成一个免费的 API 密钥。文本编码是免费的；视频生成的 API 使用则需付费。[了解更多](https:\u002F\u002Fltx.io\u002Fmodel\u002Fmodel-blog\u002Fltx-2-better-control-for-real-workflows)。\n\n当您使用基于 API 的功能时，提示和媒体输入会被发送到 API 服务。您的 API 密钥会本地存储在您的应用数据文件夹中——请将其视为机密信息。\n\n### fal API 密钥（可选）\n\n用于在 API 模式下进行 Z Image Turbo 文本到图像生成。启用后，图像生成请求会被发送到 fal.ai。\n\n您可以在 [fal 仪表板](https:\u002F\u002Ffal.ai\u002Fdashboard\u002Fkeys) 创建 API 密钥。\n\n### Gemini API 密钥（可选）\n\n用于 AI 提示建议。启用后，提示上下文和帧可能会被发送到 Google Gemini。\n\n## 架构\n\nLTX 桌面版分为三个主要层：\n\n- **渲染器（`frontend\u002F`）：** TypeScript + React 界面。\n  - 通过 HTTP 调用本地后端，地址为 `http:\u002F\u002Flocalhost:8000`。\n  - 通过预加载桥接（`window.electronAPI`）与 Electron 通信。\n- **Electron（`electron\u002F`）：** TypeScript 主进程 + 预加载脚本。\n  - 负责应用生命周期和操作系统集成（文件对话框、通过 ffmpeg 进行原生导出、启动和管理 Python 后端）。\n  - 安全性：渲染器被沙箱化（`contextIsolation: true`, `nodeIntegration: false`）。\n- **后端（`backend\u002F`）：** Python + FastAPI 本地服务器。\n  - 协调生成、模型下载和 GPU 执行。\n  - 仅在使用基于 API 的功能时才会调用外部 API。\n\n```mermaid\ngraph TD\n  UI[\"渲染器 (React + TS)\"] -->|HTTP: localhost:8000| BE[\"后端 (FastAPI + Python)\"]\n  UI -->|IPC via preload: window.electronAPI| EL[\"Electron 主进程 (TS)\"]\n  EL --> OS[\"操作系统集成 (文件、对话框、ffmpeg、进程管理)\"]\n  BE --> GPU[\"本地模型 + GPU（支持时）\"]\n  BE --> EXT[\"外部 API（仅用于基于 API 的功能）\"]\n  EL --> DATA[\"应用数据文件夹（设置\u002F模型\u002F日志）\"]\n  BE --> DATA\n```\n\n## 开发（快速入门）\n\n先决条件：\n\n- Node.js\n- `uv`（Python 包管理器）\n- Python 3.12+\n- Git\n\n设置：\n\n```bash\npnpm setup:dev\n```\n\n运行：\n\n```bash\npnpm dev\n```\n\n调试：\n\n```bash\npnpm dev:debug\n```\n\n`dev:debug` 会启用检查器启动 Electron，并使用 `debugpy` 启动 Python 后端。\n\n类型检查：\n\n```bash\npnpm typecheck\n```\n\n后端测试：\n\n```bash\npnpm backend:test\n```\n\n构建安装程序：\n- 请参阅 [`INSTALLER.md`](docs\u002FINSTALLER.md)\n\n## 遥测\n\nLTX 桌面版会收集最少的匿名使用分析数据（应用版本、平台和随机安装 ID），以帮助确定开发优先级。不会收集任何个人信息或生成内容。遥测默认开启，可在 **设置 > 常规 > 匿名遥测** 中关闭。详情请参阅 [`TELEMETRY.md`](docs\u002FTELEMETRY.md)。\n\n## 文档\n\n- [`INSTALLER.md`](docs\u002FINSTALLER.md) — 构建安装程序\n- [`TELEMETRY.md`](docs\u002FTELEMETRY.md) — 遥测与隐私\n- [`backend\u002Farchitecture.md`](backend\u002Farchitecture.md) — 后端架构\n\n## 贡献\n\n请参阅 [`CONTRIBUTING.md`](docs\u002FCONTRIBUTING.md)。\n\n## 许可证\n\nApache-2.0 — 请参阅 [`LICENSE.txt`](LICENSE.txt)。\n\n第三方通知（包括模型许可\u002F条款）：[`NOTICES.md`](NOTICES.md)。\n\n模型权重是单独下载的，可能受其他许可\u002F条款的约束。","# LTX-Desktop 快速上手指南\n\nLTX-Desktop 是一款开源桌面应用，支持在本地（Windows\u002FLinux + NVIDIA GPU）或通过 API（macOS\u002F低配硬件）使用 LTX 模型生成视频。\n\n## 环境准备\n\n### 系统要求\n\n根据硬件配置，运行模式分为**本地生成**和**API 模式**：\n\n| 平台 \u002F 硬件配置 | 生成模式 | 说明 |\n| :--- | :--- | :--- |\n| **Windows** + NVIDIA GPU (≥16GB 显存) | 本地生成 | 需下载模型权重到本地 |\n| **Linux** + NVIDIA GPU (≥16GB 显存) | 本地生成 | 需下载模型权重到本地 |\n| Windows (无 CUDA \u002F 显存\u003C16GB) | 仅 API | **需要 LTX API Key** |\n| Linux (无 CUDA \u002F 显存\u003C16GB) | 仅 API | **需要 LTX API Key** |\n| **macOS** (Apple Silicon) | 仅 API | **需要 LTX API Key** |\n\n#### 详细硬件需求（本地生成模式）\n\n*   **Windows:**\n    *   系统：Windows 10\u002F11 (x64)\n    *   GPU：NVIDIA CUDA 支持，**显存 ≥16GB**（越大越好）\n    *   内存：16GB+（推荐 32GB）\n    *   磁盘：**160GB+ 可用空间**（用于模型权重、Python 环境和输出文件）\n*   **Linux:**\n    *   系统：Ubuntu 22.04+ 或类似发行版 (x64\u002Farm64)\n    *   GPU：NVIDIA CUDA 支持，**显存 ≥16GB**\n    *   驱动：已安装 NVIDIA 驱动（PyTorch 自带 CUDA 运行时）\n    *   内存：16GB+（推荐 32GB）\n    *   磁盘：充足的可用空间\n*   **macOS (API 模式):**\n    *   芯片：Apple Silicon (arm64)\n    *   系统：macOS 13+ (Ventura)\n    *   网络：稳定的互联网连接\n\n### 前置依赖（开发者模式）\n\n若仅需使用软件，请直接跳转至“安装步骤”。若需二次开发，请准备：\n*   Node.js\n*   Python 3.12+\n*   `uv` (Python 包管理器)\n*   Git\n\n## 安装步骤\n\n### 1. 下载安装包\n访问 GitHub Releases 页面下载最新版本的安装包：\n[https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-Desktop\u002Freleases](https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-Desktop\u002Freleases)\n\n### 2. 安装与启动\n*   **Windows:** 运行下载的 `.exe` 安装程序。\n*   **macOS:** 将应用拖入 Applications 文件夹。\n*   **Linux:** 运行对应的安装包或 AppImage。\n\n启动 **LTX Desktop**。\n\n### 3. 首次运行配置\n启动后需完成以下设置：\n\n1.  **接受许可协议**：首次启动会联网获取 Hugging Face 上的模型许可条款，请阅读并接受。\n2.  **配置文本编码（关键步骤）**：\n    生成视频前必须配置文本编码器，有两种方式：\n    *   **方案 A：LTX API Key（推荐）**\n        *   **优势**：完全免费，推理速度快，节省本地显存。\n        *   **操作**：访问 [LTX Console](https:\u002F\u002Fconsole.ltx.video\u002F) 生成免费的 API Key，并在软件设置中填入。\n    *   **方案 B：本地文本编码器**\n        *   **适用**：不希望使用 API 且硬件支持的用户（仅限部分 Windows 配置）。\n        *   **操作**：在设置菜单中选择下载本地编码器（会增加额外下载量）。\n\n> **注意**：macOS 用户及显存不足的用户必须使用 API 模式进行视频生成（此部分按量付费），但**文本编码功能始终免费**。\n\n## 基本使用\n\n### 1. 创建项目\n启动应用后，进入主界面点击新建项目。LTX-Desktop 支持以下核心功能：\n*   **文生视频 (Text-to-video)**\n*   **图生视频 (Image-to-video)**\n*   **音生视频 (Audio-to-video)**\n*   **视频重绘\u002F编辑 (Retake\u002FEdit)**\n\n### 2. 生成示例（文生视频）\n1.  在提示词输入框中输入英文描述（例如：`A cinematic shot of a cyberpunk city at night`）。\n2.  调整参数（分辨率、时长等）。*注：API 模式下可用分辨率受服务端限制。*\n3.  点击 **Generate** 按钮。\n4.  等待生成完成，视频将自动出现在时间轴或预览窗口中。\n\n### 3. 数据存放位置\n应用数据（设置、模型、日志）默认存储在以下路径：\n*   **Windows:** `%LOCALAPPDATA%\\LTXDesktop\\`\n*   **macOS:** `~\u002FLibrary\u002FApplication Support\u002FLTXDesktop\u002F`\n*   **Linux:** `~\u002F.local\u002Fshare\u002FLTXDesktop\u002F`\n\n模型权重文件位于上述目录下的 `models\u002F` 子文件夹中（体积较大，首次运行需耐心等待下载）。\n\n---\n*提示：本软件处于 Beta 阶段，界面和功能可能会有变动。隐私方面，软件默认收集匿名使用数据（可在设置中关闭），生成的视频内容不会被上传。*","一位独立游戏开发者需要为即将上线的科幻短片快速生成高质量的过场动画，但受限于本地硬件条件和复杂的技术栈。\n\n### 没有 LTX-Desktop 时\n- **硬件门槛极高**：由于使用的是 macOS 或显存不足 16GB 的 Windows 电脑，完全无法在本地运行大模型，只能依赖昂贵的云端算力或放弃尝试。\n- **工作流割裂严重**：需要在命令行工具、Python 脚本和后期软件之间反复切换，缺乏统一的界面来管理从“文生视频”到“视频重绘（Retake）”的全流程。\n- **调试成本高昂**：每次调整提示词或参数都需要重新配置环境并等待漫长的加载过程，难以进行快速的创意迭代。\n- **资源管理混乱**：模型权重、中间文件和最终输出散落在不同目录，缺乏可视化的时间轴编辑器来直观地填补片段间隙或整理项目。\n\n### 使用 LTX-Desktop 后\n- **跨平台无缝接入**：利用其 API 模式，开发者无需升级硬件即可在 Mac 或低配电脑上直接调用 LTX 模型，仅需一个免费 API Key 即可开启文本编码加速。\n- **一体化创作界面**：内置的视频编辑器界面将生成、重绘和时间轴编辑整合在同一窗口，支持直观的“间隙填充”功能，让创作像剪辑一样流畅。\n- **即时反馈与迭代**：通过图形化操作实时调整参数并预览结果，大幅缩短了从创意构思到看到成片的等待时间，显著提升了试错效率。\n- **项目化管理**：自动归类存储模型与产出文件，支持保存完整的视频编辑项目，让多镜头短片的统筹管理变得井井有条。\n\nLTX-Desktop 通过降低硬件壁垒并提供集成化的编辑工作流，让普通创作者也能在本地轻松实现专业级的 AI 视频生成与精细化控制。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLightricks_LTX-Desktop_fa5bdaae.png","Lightricks","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FLightricks_a06d057c.jpg","Bridging Imagination and Creation",null,"lightricks","http:\u002F\u002Fwww.lightricks.com","https:\u002F\u002Fgithub.com\u002FLightricks",[22,26,30,34,38,42,46,48,52],{"name":23,"color":24,"percentage":25},"TypeScript","#3178c6",72.2,{"name":27,"color":28,"percentage":29},"Python","#3572A5",25.5,{"name":31,"color":32,"percentage":33},"Shell","#89e051",1,{"name":35,"color":36,"percentage":37},"PowerShell","#012456",0.9,{"name":39,"color":40,"percentage":41},"JavaScript","#f1e05a",0.2,{"name":43,"color":44,"percentage":45},"CSS","#663399",0.1,{"name":47,"color":17,"percentage":45},"NSIS",{"name":49,"color":50,"percentage":51},"Batchfile","#C1F12E",0,{"name":53,"color":54,"percentage":51},"HTML","#e34c26",1306,258,"2026-04-08T21:28:37","Apache-2.0",3,"Windows, Linux, macOS","本地生成模式必需：NVIDIA GPU (支持 CUDA)，显存 ≥16GB (推荐更大)；API 模式 (macOS 或低配硬件)：无需本地 GPU，但需联网","最低 16GB，推荐 32GB+",{"notes":64,"python":65,"dependencies":66},"1. 本地生成仅限 Windows\u002FLinux 且显存≥16GB 的 NVIDIA 显卡，需预留 160GB+ 磁盘空间用于模型和输出。2. macOS 及不满足硬件要求的设备仅支持 API 模式，需注册获取 LTX API Key（文本编码免费，视频生成收费）。3. 可选配置本地文本编码器以实现完全离线运行，或使用免费的云端文本编码加速。4. 开发环境需安装 Node.js, uv, Git 及 pnpm。","3.12+",[67,68,69,70,23,71],"PyTorch (捆绑 CUDA 运行时)","FastAPI","Electron","React","ffmpeg",[73],"视频",[75,76,77,78],"generative-ai","ltx","ltx-2","non-linear-editing",2,"ready","2026-03-27T02:49:30.150509","2026-04-09T12:33:45.022097",[84,89,94,99,103,107,111],{"id":85,"question_zh":86,"answer_zh":87,"source_url":88},26195,"启动时提示'Failed to start Python backend'且退出代码为 1，如何解决？","这是由多个已知问题引起的，已在后续版本中修复。主要原因包括：\n1. 权限错误：应用安装在 Program Files 目录下导致无法写入 outputs 文件夹（已修复为将输出目录移至 AppData）。\n2. Python 隔离模式冲突：嵌入式 Python 的 .pth 文件阻止了模块导入（已修复为启动器显式注入后端目录到 sys.path）。\n3. 端口冲突：硬编码的 8000 端口被占用（已修复为动态选择空闲端口）。\n4. 系统包干扰：系统全局安装的包与 bundled Python 冲突（已修复为设置 PYTHONNOUSERSITE=1）。\n\n解决方案：请升级到最新版本（v1.0.2 或更高），所有上述问题均已解决。如果仍在使用旧版本，请以管理员身份运行或手动修改安装目录权限，但强烈建议直接更新软件。","https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-Desktop\u002Fissues\u002F7",{"id":90,"question_zh":91,"answer_zh":92,"source_url":93},26196,"为什么以管理员身份运行仍然无法启动 Python 后端？","以管理员身份运行通常无法解决此问题，因为根本原因并非权限不足，而是软件内部的配置冲突（如 Python 路径隔离、端口占用或输出目录写入限制）。这些问题已在 v1.0.2 及更高版本中通过代码逻辑修复（例如动态分配端口、移动输出目录到用户可写区域）。请勿尝试以管理员身份运行作为长期解决方案，务必下载并安装最新版本的 LTX Desktop。","https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-Desktop\u002Fissues\u002F21",{"id":95,"question_zh":96,"answer_zh":97,"source_url":98},26197,"视频生成失败或后端在生成过程中崩溃怎么办？","该问题通常与特定版本的后端崩溃有关，尤其是在更新 NVIDIA 驱动后。维护者确认此问题已在 v1.0.4 版本中修复。\n\n解决方案：\n1. 卸载当前版本。\n2. 下载并安装最新的 v1.0.4 或更高版本安装包：https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-Desktop\u002Freleases\u002Fdownload\u002Fv1.0.4\u002FLTX-Desktop-Setup.exe\n3. 重新尝试视频生成。\n如果更新后问题依旧，请检查日志中是否有具体的 CUDA 或显存不足错误。","https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-Desktop\u002Fissues\u002F80",{"id":100,"question_zh":101,"answer_zh":102,"source_url":88},26198,"日志中出现 'pynvml package is deprecated' 警告会影响使用吗？","这是一个来自 PyTorch 的未来弃用警告（FutureWarning），提示 pynvml 包已被弃用，建议改用 nvidia-ml-py。这通常不会导致程序崩溃或功能失效，只是一个提示信息。该警告是由于底层依赖库（torch）引发的，普通用户无需手动干预。只要视频生成和后端启动正常，可以忽略此警告。维护者会在未来的依赖更新中处理此问题。",{"id":104,"question_zh":105,"answer_zh":106,"source_url":88},26199,"应用安装在 Program Files 目录下导致写入失败，如何更改输出目录？","在旧版本中，应用试图在安装目录（如 C:\\Program Files\\LTX Desktop）下创建 outputs 文件夹，从而引发 PermissionError。\n\n解决方案：\n此问题已在最新版本中自动修复。新版本会将 outputs 目录创建在用户可写的 AppData 目录下（通常是 C:\\Users\\\u003C用户名>\\AppData\\Local\\LTXDesktop\\outputs）。\n如果您无法升级，临时解决方法是手动以管理员身份运行程序，或者将软件安装到非系统保护目录（如 D:\\LTX Desktop），但最推荐的方法是直接升级到最新版。",{"id":108,"question_zh":109,"answer_zh":110,"source_url":88},26200,"遇到端口 8000 冲突导致后端无法启动怎么办？","旧版本硬编码使用 8000 端口，如果该端口被其他程序（如其他 AI 工具、Web 服务）占用，会导致后端静默失败。\n\n解决方案：\n此问题已在最新版本中修复。新版后端不再硬编码端口，而是启动时动态检测并选择一个可用的空闲端口，同时配合认证机制确保安全。\n请确保您已升级到最新版本。如果必须使用旧版本，请手动关闭占用 8000 端口的进程（可在命令行运行 `netstat -ano | findstr :8000` 查找并结束对应 PID），但这只是临时措施。",{"id":112,"question_zh":113,"answer_zh":114,"source_url":88},26201,"系统已安装的 Python 包干扰了内置 Python 环境怎么办？","当系统全局安装的 Python 包与 LTX Desktop  bundled Python 环境发生冲突时，会导致 ModuleNotFoundError 或其他导入错误。\n\n解决方案：\n此问题已在最新版本中修复。新版启动脚本在运行 bundled Python 进程前会设置环境变量 `PYTHONNOUSERSITE=1`，这将阻止 Python 加载用户主目录下的 site-packages，从而确保只使用应用自带的纯净环境。\n请务必升级到最新版本以获得此修复。不要尝试手动修改系统 Python 环境，以免破坏其他项目。",[116,121,126,131,136],{"id":117,"version":118,"summary_zh":119,"released_at":120},163589,"v1.0.4","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-Desktop\u002Fcompare\u002Fv1.0.3...v1.0.4","2026-04-03T22:17:11",{"id":122,"version":123,"summary_zh":124,"released_at":125},163590,"v1.0.3","## 变更内容\n* 集成模型层流式传输支持，将显存峰值占用从约26 GB降低至约11 GB\n* 视频编辑器性能提升，即使在复杂项目中（例如包含64个以上素材）也能实现流畅播放和响应\n* 视频编辑器错误修复：\n  * 提升音频播放稳定性\n  * 改善片段过渡渲染一致性\n* 视频编辑器架构改进：\n  * 重构核心系统，代码更加整洁易维护\n  * 建立了健壮的状态管理架构，支持可靠的撤销\u002F重做功能及项目持久化\n  * 简化了多条代码路径，提升代码清晰度和可维护性\n  * 新增与新架构对齐的编码助手Skill集成（Cursor、Claude Code、Codex）\n* 优化模型下载性能\n* 移除旧版Playground界面，提供更简洁的应用体验\n* 代码库完整性提升：\n  * 加强了服务器端和Electron端的类型安全性\n  * 引入基于OpenAPI的后端与前端统一接口协议\n  * 在主进程与前端之间建立了Electron API的单一数据源\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-Desktop\u002Fcompare\u002Fv1.0.2...v1.0.3","2026-04-02T14:22:59",{"id":127,"version":128,"summary_zh":129,"released_at":130},163591,"v1.0.2","## 变更内容\n* 为 Depth 和 Canny 添加了 IC Lora 支持\n* Bug 修复：@DStar1 在 https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-Desktop\u002Fpull\u002F22 中实现了安装路径的文件夹选择对话框\n* @alexger 在 https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-Desktop\u002Fpull\u002F34 中将输出目录设置为应用程序数据目录下\n* @ofirgluzman 在 https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-Desktop\u002Fpull\u002F38 中设置了 PYTHONNOUSERSITE=1，以隔离打包的 Python 环境\n* @alexger 在 https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-Desktop\u002Fpull\u002F35 中将后端切换为监听随机端口并需要认证\n* @alexger 在 https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-Desktop\u002Fpull\u002F44 中添加了 Linux 支持\n\n## 新贡献者\n* @DStar1 在 https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-Desktop\u002Fpull\u002F22 中完成了首次贡献\n* @alexger 在 https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-Desktop\u002Fpull\u002F34 中完成了首次贡献\n* @ofirgluzman 在 https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-Desktop\u002Fpull\u002F38 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FLightricks\u002FLTX-Desktop\u002Fcompare\u002Fv1.0.1...v1.0.2","2026-03-12T18:35:09",{"id":132,"version":133,"summary_zh":134,"released_at":135},163592,"v1.0.1","**完整变更日志**：https:\u002F\u002Fgithub.com\u002FLightricks\u002Fltx-desktop\u002Fcompare\u002Fv1.0.0...v1.0.1","2026-03-05T16:06:06",{"id":137,"version":138,"summary_zh":139,"released_at":140},163593,"v1.0.0","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FLightricks\u002Fltx-desktop\u002Fcommits\u002Fv1.0.0","2026-03-05T13:25:35",[142,153,166,174,182,190],{"id":143,"name":144,"github_repo":145,"description_zh":146,"stars":147,"difficulty_score":59,"last_commit_at":148,"category_tags":149,"status":80},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[150,151,152,73],"开发框架","图像","Agent",{"id":154,"name":155,"github_repo":156,"description_zh":157,"stars":158,"difficulty_score":79,"last_commit_at":159,"category_tags":160,"status":80},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85052,"2026-04-08T11:03:08",[151,161,73,162,152,163,164,150,165],"数据工具","插件","其他","语言模型","音频",{"id":167,"name":168,"github_repo":169,"description_zh":170,"stars":171,"difficulty_score":59,"last_commit_at":172,"category_tags":173,"status":80},3833,"MoneyPrinterTurbo","harry0703\u002FMoneyPrinterTurbo","MoneyPrinterTurbo 是一款利用 AI 大模型技术，帮助用户一键生成高清短视频的开源工具。只需输入一个视频主题或关键词，它就能全自动完成从文案创作、素材匹配、字幕合成到背景音乐搭配的全过程，最终输出完整的竖屏或横屏短视频。\n\n这款工具主要解决了传统视频制作流程繁琐、门槛高以及素材版权复杂等痛点。无论是需要快速产出内容的自媒体创作者，还是希望尝试视频生成的普通用户，无需具备专业的剪辑技能或昂贵的硬件配置（普通电脑即可运行），都能轻松上手。同时，其清晰的 MVC 架构和对多种主流大模型（如 DeepSeek、Moonshot、通义千问等）的广泛支持，也使其成为开发者进行二次开发或技术研究的理想底座。\n\nMoneyPrinterTurbo 的独特亮点在于其高度的灵活性与本地化友好性。它不仅支持中英文双语及多种语音合成，允许用户精细调整字幕样式和画面比例，还特别优化了国内网络环境下的模型接入方案，让用户无需依赖 VPN 即可使用高性能国产大模型。此外，工具提供批量生成模式，可一次性产出多个版本供用户择优，极大地提升了内容创作的效率与质量。",54991,"2026-04-05T12:23:02",[150,164,152,73,151],{"id":175,"name":176,"github_repo":177,"description_zh":178,"stars":179,"difficulty_score":79,"last_commit_at":180,"category_tags":181,"status":80},2179,"oh-my-openagent","code-yeongyu\u002Foh-my-openagent","oh-my-openagent（简称 omo）是一款强大的开源智能体编排框架，前身名为 oh-my-opencode。它致力于打破单一模型供应商的生态壁垒，解决开发者在构建 AI 应用时面临的“厂商锁定”难题。不同于仅依赖特定模型的封闭方案，omo 倡导开放市场理念，支持灵活调度多种主流大模型：利用 Claude、Kimi 或 GLM 进行任务编排，调用 GPT 处理复杂推理，借助 Minimax 提升响应速度，或发挥 Gemini 的创意优势。\n\n这款工具特别适合希望摆脱平台限制、追求极致性能与成本平衡的开发者及研究人员使用。通过统一接口，用户可以轻松组合不同模型的长处，构建更高效、更具适应性的智能体系统。其独特的技术亮点在于“全模型兼容”架构，让用户不再受制于某一家公司的策略变动或定价调整，真正实现对前沿模型资源的自由驾驭。无论是构建自动化编码助手，还是开发多步骤任务处理流程，oh-my-openagent 都能提供灵活且稳健的基础设施支持，助力用户在快速演进的 AI 生态中保持技术主动权。",49644,"2026-04-08T23:18:57",[73,164,150,151,152],{"id":183,"name":184,"github_repo":185,"description_zh":186,"stars":187,"difficulty_score":59,"last_commit_at":188,"category_tags":189,"status":80},5295,"tabby","TabbyML\u002Ftabby","Tabby 是一款可私有化部署的开源 AI 编程助手，旨在为开发团队提供 GitHub Copilot 的安全替代方案。它核心解决了代码辅助过程中的数据隐私顾虑与云端依赖问题，让企业能够在完全掌控数据的前提下享受智能代码补全、聊天问答及上下文理解带来的效率提升。\n\n这款工具特别适合注重代码安全的企业开发团队、希望本地化运行大模型的科研机构，以及拥有消费级显卡的个人开发者。Tabby 的最大亮点在于其“开箱即用”的自包含架构，无需配置复杂的数据库或依赖云服务即可快速启动。同时，它对硬件十分友好，支持在普通的消费级 GPU 上流畅运行，大幅降低了部署门槛。此外，Tabby 提供了标准的 OpenAPI 接口，能轻松集成到现有的云 IDE 或内部开发流程中，并支持通过 REST API 接入自定义文档以增强知识上下文。从代码自动补全到基于 Git 仓库的智能问答，Tabby 致力于成为开发者身边懂业务、守安全的智能伙伴。",33308,"2026-04-07T20:23:18",[150,164,152,151,73],{"id":191,"name":192,"github_repo":193,"description_zh":194,"stars":195,"difficulty_score":196,"last_commit_at":197,"category_tags":198,"status":80},2483,"onlook","onlook-dev\u002Fonlook","Onlook 是一款专为设计师打造的开源 AI 优先设计工具，被誉为“设计师版的 Cursor”。它旨在打破设计与开发之间的壁垒，让用户能够以可视化的方式直接构建、样式化和编辑 React 应用。通过 Onlook，用户无需深入编写复杂代码，即可在类似 Figma 的直观界面中完成网页原型的搭建与调整，并实时预览最终效果。\n\n这款工具主要解决了传统工作流中设计稿到代码转换效率低、沟通成本高的问题。以往，设计师使用 Figma 等工具完成设计后，需要开发人员手动将其转化为代码，过程繁琐且容易出错。Onlook 允许用户直接在浏览器 DOM 中进行可视化编辑，底层自动生成基于 Next.js 和 TailwindCSS 的高质量代码，实现了“所见即所得”的开发体验。它不仅支持从文本或图像快速生成应用，还具备分支管理、资源管理及一键部署等功能，极大地简化了从创意到成品的流程。\n\nOnlook 特别适合前端开发者、UI\u002FUX 设计师以及希望快速验证产品创意的独立开发者使用。对于设计师而言，它降低了参与前端开发的门槛；对于开发者来说，它提供了一个高效的视觉化调试和原型构建环境。其核心技术亮点在于",25006,4,"2026-04-03T01:50:49",[152,151,73,150]]