[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-fal-ai-community--video-starter-kit":3,"tool-fal-ai-community--video-starter-kit":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",149489,2,"2026-04-10T11:32:46",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":76,"owner_website":78,"owner_url":79,"languages":80,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":32,"env_os":97,"env_gpu":98,"env_ram":97,"env_deps":99,"category_tags":107,"github_topics":109,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":113,"updated_at":114,"faqs":115,"releases":143},6309,"fal-ai-community\u002Fvideo-starter-kit","video-starter-kit","Enable AI models for video production in the browser","video-starter-kit 是一个专为在浏览器中构建 AI 视频应用而设计的开源启动套件。它旨在解决开发者在整合前沿视频生成模型时面临的技术复杂性，让无需后端服务器即可实现高质量视频处理成为可能。\n\n这套工具非常适合前端开发者、创意工程师以及希望快速原型化视频产品的团队使用。通过它，用户可以轻松调用 Minimax、Hunyuan 和 LTX 等顶级 AI 模型，实现从视频生成、视觉合成到剪辑操控的全流程操作。\n\n其核心技术亮点在于“浏览器原生”的处理能力。基于 Next.js 框架与 Remotion 视频引擎，video-starter-kit 支持在客户端直接进行多片段视频合成、音轨混合及旁白添加，甚至能利用 IndexedDB 在本地存储数据，无需依赖云端数据库。此外，它还提供了开箱即用的 UI 组件和完整的 TypeScript 支持，极大地简化了开发流程。如果你想在网页端打造下一代 AI 视频创作平台，这是一个高效且灵活的起点。","# AI Video Starter Kit\n\n[![License: MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-yellow.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n[![fal.ai](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Ffal.ai-latest-purple)](https:\u002F\u002Ffal.ai)\n[![Next.js](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FNext.js-14-black)](https:\u002F\u002Fnextjs.org)\n[![Remotion](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FRemotion-latest-blue)](https:\u002F\u002Fremotion.dev)\n\nA powerful starter kit for building AI-powered video applications. Built with Next.js, Remotion, and fal.ai, this toolkit simplifies the complexities of working with AI video models in the browser.\n\n![AI Video Starter Kit](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffal-ai-community_video-starter-kit_readme_86b7ad5eb26a.png)\n\n## Features\n\n- 🎬 **Browser-Native Video Processing**: Seamless video handling and composition in the browser\n- 🤖 **AI Model Integration**: Direct access to state-of-the-art video models through fal.ai\n  - Minimax for video generation\n  - Hunyuan for visual synthesis\n  - LTX for video manipulation\n- 🎵 **Advanced Media Capabilities**:\n  - Multi-clip video composition\n  - Audio track integration\n  - Voiceover support\n  - Extended video duration handling\n- 🛠️ **Developer Utilities**:\n  - Metadata encoding\n  - Video processing pipeline\n  - Ready-to-use UI components\n  - TypeScript support\n\n## Tech Stack\n\n- [fal.ai](https:\u002F\u002Ffal.ai) - AI model infrastructure\n- [Next.js](https:\u002F\u002Fnextjs.org) - React framework\n- [Remotion](https:\u002F\u002Fremotion.dev) - Video processing\n- [IndexedDB](https:\u002F\u002Fdeveloper.mozilla.org\u002Fdocs\u002FWeb\u002FAPI\u002FIndexedDB_API) - Browser-based storage (no cloud database required)\n- [Vercel](https:\u002F\u002Fvercel.com) - Deployment platform\n- [UploadThing](https:\u002F\u002Fuploadthing.com) - File upload\n\n## Quick Start\n\n1. Clone the repository:\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Ffal-ai-community\u002Fvideo-starter-kit\ncd video-starter-kit\n```\n\n2. Install dependencies:\n\n```bash\nnpm install\n# or\nyarn install\n# or\npnpm install\n```\n\n3. Set up your environment variables:\n\n```bash\ncp .env.example .env.local\n```\n\n4. Start the development server:\n\n```bash\nnpm run dev\n# or\nyarn dev\n# or\npnpm dev\n```\n\nOpen [http:\u002F\u002Flocalhost:3000](http:\u002F\u002Flocalhost:3000) to see the application.\n\n## Contributing\n\nWe welcome contributions! See our [Contributing Guide](CONTRIBUTING.md) for more information.\n\n## Community\n\n- [Discord](https:\u002F\u002Fdiscord.gg\u002Ffal-ai) - Join our community\n- [GitHub Discussions](https:\u002F\u002Fgithub.com\u002Ffal-ai-community\u002Fvideo-starter-kit\u002Fdiscussions) - For questions and discussions\n- [Twitter](https:\u002F\u002Ftwitter.com\u002Ffal) - Follow us for updates\n\n## License\n\nThis project is licensed under the MIT License - see the [LICENSE](LICENSE) file for details.\n\n## Deployment\n\nThe easiest way to deploy your application is through [Vercel](https:\u002F\u002Fvercel.com\u002Fnew?utm_source=fal-ai&utm_medium=default-template&utm_campaign=video-starter-kit).\n","# AI 视频入门套件\n\n[![许可证：MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-yellow.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n[![fal.ai](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Ffal.ai-latest-purple)](https:\u002F\u002Ffal.ai)\n[![Next.js](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FNext.js-14-black)](https:\u002F\u002Fnextjs.org)\n[![Remotion](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FRemotion-latest-blue)](https:\u002F\u002Fremotion.dev)\n\n一个用于构建 AI 驱动视频应用的强大入门套件。基于 Next.js、Remotion 和 fal.ai 构建，该工具包简化了在浏览器中使用 AI 视频模型的复杂性。\n\n![AI 视频入门套件](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffal-ai-community_video-starter-kit_readme_86b7ad5eb26a.png)\n\n## 特性\n\n- 🎬 **原生浏览器视频处理**：在浏览器中无缝处理和合成视频\n- 🤖 **AI 模型集成**：通过 fal.ai 直接访问最先进的视频模型\n  - Minimax 用于视频生成\n  - Hunyuan 用于视觉合成\n  - LTX 用于视频编辑\n- 🎵 **高级媒体功能**：\n  - 多片段视频合成\n  - 音频轨道集成\n  - 配音支持\n  - 更长视频时长处理\n- 🛠️ **开发者工具**：\n  - 元数据编码\n  - 视频处理流水线\n  - 开箱即用的 UI 组件\n  - TypeScript 支持\n\n## 技术栈\n\n- [fal.ai](https:\u002F\u002Ffal.ai) - AI 模型基础设施\n- [Next.js](https:\u002F\u002Fnextjs.org) - React 框架\n- [Remotion](https:\u002F\u002Fremotion.dev) - 视频处理\n- [IndexedDB](https:\u002F\u002Fdeveloper.mozilla.org\u002Fdocs\u002FWeb\u002FAPI\u002FIndexedDB_API) - 浏览器端存储（无需云数据库）\n- [Vercel](https:\u002F\u002Fvercel.com) - 部署平台\n- [UploadThing](https:\u002F\u002Fuploadthing.com) - 文件上传\n\n## 快速开始\n\n1. 克隆仓库：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Ffal-ai-community\u002Fvideo-starter-kit\ncd video-starter-kit\n```\n\n2. 安装依赖：\n\n```bash\nnpm install\n# 或者\nyarn install\n# 或者\npnpm install\n```\n\n3. 设置环境变量：\n\n```bash\ncp .env.example .env.local\n```\n\n4. 启动开发服务器：\n\n```bash\nnpm run dev\n# 或者\nyarn dev\n# 或者\npnpm dev\n```\n\n打开 [http:\u002F\u002Flocalhost:3000](http:\u002F\u002Flocalhost:3000) 即可查看应用。\n\n## 贡献\n\n我们欢迎贡献！更多信息请参阅我们的 [贡献指南](CONTRIBUTING.md)。\n\n## 社区\n\n- [Discord](https:\u002F\u002Fdiscord.gg\u002Ffal-ai) - 加入我们的社区\n- [GitHub 讨论区](https:\u002F\u002Fgithub.com\u002Ffal-ai-community\u002Fvideo-starter-kit\u002Fdiscussions) - 用于提问和讨论\n- [Twitter](https:\u002F\u002Ftwitter.com\u002Ffal) - 关注我们获取最新动态\n\n## 许可证\n\n本项目采用 MIT 许可证授权——详情请参阅 [LICENSE](LICENSE) 文件。\n\n## 部署\n\n部署应用最简单的方式是通过 [Vercel](https:\u002F\u002Fvercel.com\u002Fnew?utm_source=fal-ai&utm_medium=default-template&utm_campaign=video-starter-kit)。","# video-starter-kit 快速上手指南\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n- **Node.js**: 建议安装 LTS 版本（v18 或更高）。\n- **包管理器**: npm、yarn 或 pnpm 任一即可。\n- **账号准备**: 需要 [fal.ai](https:\u002F\u002Ffal.ai) 账号以获取 API Key（用于调用 AI 视频模型）。\n- **浏览器**: 推荐使用最新版的 Chrome 或 Edge，以获得最佳的浏览器端视频处理体验。\n\n## 安装步骤\n\n1. **克隆项目仓库**\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Ffal-ai-community\u002Fvideo-starter-kit\ncd video-starter-kit\n```\n\n2. **安装依赖**\n\n您可以使用国内镜像源加速安装（以 npm 为例）：\n\n```bash\nnpm install --registry=https:\u002F\u002Fregistry.npmmirror.com\n# 或使用 yarn \u002F pnpm\n# yarn install\n# pnpm install\n```\n\n3. **配置环境变量**\n\n复制示例配置文件并填入您的 fal.ai API Key：\n\n```bash\ncp .env.example .env.local\n```\n\n编辑 `.env.local` 文件，填入关键信息：\n\n```env\nFAL_KEY=your_fal_ai_api_key_here\n```\n\n4. **启动开发服务器**\n\n```bash\nnpm run dev\n# 或\n# yarn dev\n# pnpm dev\n```\n\n启动成功后，访问 [http:\u002F\u002Flocalhost:3000](http:\u002F\u002Flocalhost:3000) 即可看到应用界面。\n\n## 基本使用\n\n该工具包旨在简化浏览器端的 AI 视频生成与编辑流程。\n\n1. **访问界面**：打开浏览器进入本地服务地址。\n2. **选择模型**：在界面中选择支持的 AI 模型（如 Minimax 用于生成、Hunyuan 用于视觉合成、LTX 用于视频操控）。\n3. **输入提示词\u002F上传素材**：\n   - 对于生成任务，输入文本提示词（Prompt）。\n   - 对于编辑任务，上传本地视频片段或音频文件。\n4. **执行处理**：点击生成按钮，系统将调用 fal.ai 接口并在浏览器中利用 Remotion 进行视频渲染与合成。\n5. **预览与导出**：处理完成后，可直接在浏览器中预览结果，支持多片段组合、音轨混合及长视频处理，并可下载最终视频文件。\n\n> **提示**：项目基于 Next.js 和 Remotion 构建，所有视频处理逻辑均在浏览器端或通过 Serverless 函数调用 AI 模型完成，无需配置复杂的本地 GPU 环境。","一家小型电商营销团队需要在浏览器中快速为新品发布制作多条包含 AI 生成画面、背景音乐及旁白的宣传短视频。\n\n### 没有 video-starter-kit 时\n- **开发门槛极高**：团队需自行搭建复杂的后端视频渲染农场，并处理 FFmpeg 等底层工具的繁琐配置，耗时数周才能跑通最小可行性产品。\n- **AI 模型接入困难**：想要集成 Minimax 或 Hunyuan 等前沿视频模型，必须分别研究各家的 API 文档、处理鉴权与异步回调，代码耦合度高且难以维护。\n- **媒体合成能力缺失**：在网页端实现多片段剪辑、音画同步及长视频处理几乎不可能，通常只能引导用户下载桌面软件，导致用户流失。\n- **存储与成本压力**：视频中间文件需依赖昂贵的云数据库和对象存储，随着并发量增加，服务器带宽和存储成本急剧上升。\n\n### 使用 video-starter-kit 后\n- **开箱即用的架构**：基于 Next.js 和 Remotion 的预置模板让团队在几小时内即可部署具备完整视频流水线的应用，无需从零构建后端设施。\n- **无缝集成顶尖模型**：通过 fal.ai 直接调用 Minimax、Hunyuan 和 LTX 模型，开发者只需关注业务逻辑，轻松实现文生视频与视觉合成。\n- **强大的浏览器端编辑**：利用 IndexedDB 和本地处理能力，用户可直接在网页完成多轨道剪辑、配音合成及元数据编码，体验流畅如原生应用。\n- **低成本无状态部署**：视频处理逻辑下沉至客户端，大幅减少服务端存储需求，配合 Vercel 可实现低成本的弹性扩展。\n\nvideo-starter-kit 将原本需要专业视频工程团队数月攻克的技术难题，转化为前端开发者几天即可落地的标准化功能，极大降低了 AI 视频应用的创作与开发门槛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffal-ai-community_video-starter-kit_86b7ad5e.png","fal-ai-community","fal-ai-community ","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ffal-ai-community_84b9fca7.png","Fastest Inference API for Media Generation",null,"hello@fal.ai","https:\u002F\u002Ffal.ai","https:\u002F\u002Fgithub.com\u002Ffal-ai-community",[81,85,89],{"name":82,"color":83,"percentage":84},"TypeScript","#3178c6",99,{"name":86,"color":87,"percentage":88},"CSS","#663399",0.9,{"name":90,"color":91,"percentage":92},"JavaScript","#f1e05a",0.1,2330,465,"2026-04-10T10:45:51","MIT","未说明","不需要本地 GPU（基于 fal.ai 云端运行模型）",{"notes":100,"python":97,"dependencies":101},"该项目是一个基于浏览器的 AI 视频应用启动套件，核心视频生成与处理逻辑通过 fal.ai 云端 API 执行，因此无需本地配置 GPU、CUDA 或特定 Python 环境。主要依赖 Node.js 环境运行 Next.js 开发服务器。存储使用浏览器 IndexedDB，无需云端数据库。部署推荐使用 Vercel。",[102,103,104,105,106],"Next.js 14","Remotion","fal.ai","IndexedDB","UploadThing",[15,108,14,13],"视频",[110,111,112],"ai","media","video","2026-03-27T02:49:30.150509","2026-04-11T00:51:00.729149",[116,121,125,129,133,138],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},28551,"为什么导出按钮在宽屏显示器上无法点击或显示不全？","这是一个已知的 UI 响应式问题，在超宽屏幕（如 2560x1080）或窗口比例超过 16:9 时会出现。维护者已修复该问题，请确保更新到最新版本。如果问题依旧，尝试调整浏览器窗口大小作为临时解决方案。","https:\u002F\u002Fgithub.com\u002Ffal-ai-community\u002Fvideo-starter-kit\u002Fissues\u002F38",{"id":122,"question_zh":123,"answer_zh":124,"source_url":120},28552,"点击导出按钮后 spinner 停止旋转但没有文件下载，如何解决？","这通常是因为缺少 fal.ai API 密钥。FFmpeg 处理是在 fal.ai 云端运行的，而非本地浏览器。你需要配置 fal.ai 密钥才能完成视频导出和下载。添加密钥后，导出功能即可正常工作。",{"id":126,"question_zh":127,"answer_zh":128,"source_url":120},28553,"为什么导出示例视频也会消耗 fal.ai 积分？我以为示例是预生成的。","FFmpeg 无法直接在浏览器中运行，因此项目通过 fal.ai API 在云端 CPU 上执行视频处理和编码。即使是示例项目，每次导出都需要调用 API 进行实时处理，因此会消耗少量积分。这是架构设计的必然要求，并非错误。",{"id":130,"question_zh":131,"answer_zh":132,"source_url":120},28554,"FFmpeg 是在我的本地浏览器中运行吗？","不是。由于浏览器的安全限制和技术局限，FFmpeg 无法在客户端浏览器中直接运行。该项目将 FFmpeg 作为 API 服务部署在 fal.ai 云端，利用其 CPU 资源进行处理，这种方式成本低且兼容性好。",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},28555,"在宽屏显示器上看不到底部的时间轴怎么办？","这是在特定分辨率（如双显示器设置或超宽屏）下的布局问题。该问题已在后续版本中修复。如果你使用的是旧版本，请升级项目；如果已是最新版但仍存在问题，尝试缩小浏览器窗口宽度以触发响应式布局调整。","https:\u002F\u002Fgithub.com\u002Ffal-ai-community\u002Fvideo-starter-kit\u002Fissues\u002F26",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},28556,"支持自定义画布尺寸（如竖屏 1080x1920 或横屏 1920x1080）吗？","开发团队计划很快实现预设的画布尺寸选项，以支持 TikTok\u002FReels 竖屏视频和 YouTube 横屏视频等不同格式。请关注项目更新以获取该功能。","https:\u002F\u002Fgithub.com\u002Ffal-ai-community\u002Fvideo-starter-kit\u002Fissues\u002F30",[]]