videoeditor
videoeditor 是一款开源的 AI 视频编辑助手,旨在为用户提供类似剪映或 Canva 的创意协作体验,但完全免费且可自主部署。它解决了传统视频剪辑软件操作复杂、渲染等待时间长以及缺乏智能辅助的痛点,让创作者能更专注于内容本身。
这款工具非常适合希望拥有数据主权的技术爱好者、开发者,以及需要高效工作流的设计师和普通视频创作者。其核心亮点在于集成了"Vibe AI Assistant",用户只需用自然语言描述创意,AI 即可自动生成剪辑节奏、转场和布局。此外,videoeditor 支持无限轨道的多轨编辑、零延迟的实时预览以及快速的云端项目同步,确保在不同设备间无缝切换工作。
在技术架构上,videoeditor 采用现代化的前后端分离设计,前端基于 Node.js,后端结合 Python 与 FastAPI,并原生支持 Docker 一键部署。它不仅具备智能媒体库(支持按情感标签检索素材),还通过 OAuth 保障安全性,并提供离线数据存储选项。无论是想要搭建私有化剪辑平台的团队,还是渴望尝试最新 AI 剪辑技术的个人用户,videoeditor 都是一个灵活且强大的选择。
使用场景
一位独立内容创作者需要在周末快速制作一支包含多机位采访、背景音乐和动态字幕的短视频,以赶上周一的热点发布。
没有 videoeditor 时
- 多轨管理混乱:在处理视频、音频和字幕多层轨道时,缺乏精准吸附功能,导致音画不同步,手动对齐耗时极长。
- 预览等待焦虑:每次调整特效或转场都需要漫长的渲染等待才能查看效果,严重打断创作思路。
- 素材查找低效:面对数百个原始素材文件,只能靠文件名模糊记忆,无法按情绪或标签快速定位所需镜头。
- AI 辅助缺失:所有剪辑节奏、画面布局全靠人工构思,缺乏智能建议,难以在短时间内产出具有“网感”的创意结构。
- 跨设备协作断裂:在办公室电脑未完成的工程,回家后无法无缝接续,必须通过 U 盘拷贝或重新整理时间线。
使用 videoeditor 后
- 多轨编辑流畅:利用无限轨道与智能吸附功能,轻松管理复杂层级,音画对齐变得 effortless,精度大幅提升。
- 实时预览零延迟:依托低延迟播放技术,任何修改都能即时呈现,无需渲染即可确认最终效果,创作流不被打断。
- 智能媒体库检索:通过 Vibe AI 自动分析素材的情感与类型,输入关键词即可秒级筛选出最匹配的镜头片段。
- Vibe AI 助手赋能:只需描述“想要快节奏且充满活力的开场”,videoeditor 便能自动生成剪辑点、配乐节奏及版面布局。
- 云端同步无缝衔接:项目时间线与资产实时云同步,无论是在公司还是家中,都能随时拾起进度继续创作。
videoeditor 将繁琐的技术操作转化为直观的创意表达,让创作者从重复劳动中解放,专注于内容本身的价值。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
一款友好、由 AI 驱动的开源替代方案,可替代 Capcut 和 Canva。
Discord Twitter 官网
✨功能
高级多轨道编辑在无限轨道上进行精确控制的编辑,支持吸附和轻松的图层管理。 |
实时预览以低延迟播放即时查看每一处改动——无需等待,无需渲染。 |
快速导出快速渲染高质量视频,并将其导出到您需要的任何位置。 |
![]() Vibe AI 助手描述您的想法,让 Kimu 自动为您生成剪辑、时间轴和布局。 |
智能媒体库按类型、标签和情感分类整理——几秒钟内即可搜索和筛选素材。 |
云端同步项目在不同设备间保持时间线和素材同步,让您随时可以从上次中断的地方继续工作。 |
转场效果、离线数据存储、基于 OAuth 的安全机制、变更控制
以及更多...
💻 开发
🐳 Docker 推荐
快速入门:
docker compose -f docker-compose.yml \
-f docker-compose.dev.yml up -d
端口:
- 前端:
5173 - 后端:
8000 - FastAPI:
3000
🛠️ 本地开发
适用于不使用 Docker 的本地开发:
# 安装依赖
pnpm install
# 启动服务
pnpm run dev # 前端(端口 5173)
pnpm dlx tsx app/videorender/videorender.ts # 后端(端口 8000)
uv run backend/main.py # FastAPI(端口 3000)
# 注意:AI 功能需要 GEMINI_API_KEY
要求
- Node.js 20+
- Python 3.9+
- PostgreSQL
- pnpm
🚀 生产环境
快速启动:
docker compose up -d
使用自定义域名:
PROD_DOMAIN=yourdomain.com docker compose up -d
或者直接编辑 docker-compose.yml
端口:
- HTTP:
80 - HTTPS:
443
⚙️ 环境配置
创建一个 .env 文件以进行自定义设置:
# 域名配置
PROD_DOMAIN=yourdomain.com
# 数据库
DATABASE_URL=postgresql://user:pass@localhost:5432/videoeditor
# 身份验证(Google OAuth)
GOOGLE_CLIENT_ID=your_google_client_id
GOOGLE_CLIENT_SECRET=your_google_client_secret
# AI 功能(可选 -> /backend)
GEMINI_API_KEY=your_gemini_api_key
# Supabase(可选)
VITE_SUPABASE_URL=your_supabase_url
VITE_SUPABASE_ANON_KEY=your_supabase_key
环境变量说明:
PROD_DOMAIN:您的生产域名(仅主机部分,例如yourdomain.com)DATABASE_URL:PostgreSQL 连接字符串GOOGLE_CLIENT_ID/SECRET:用于身份验证的 Google OAuth 凭证GEMINI_API_KEY:AI 驱动的视频编辑功能所需VITE_SUPABASE_*:可选的 Supabase 集成,用于额外功能
❤️ 贡献
我们非常欢迎您的贡献!❤️ 请查看 贡献指南。
📜 许可证
本项目采用双重许可协议。详情请参阅 LICENSE。项目的相关部分还适用 Remotion 许可证。
常见问题
相似工具推荐
Deep-Live-Cam
Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
MoneyPrinterTurbo
MoneyPrinterTurbo 是一款利用 AI 大模型技术,帮助用户一键生成高清短视频的开源工具。只需输入一个视频主题或关键词,它就能全自动完成从文案创作、素材匹配、字幕合成到背景音乐搭配的全过程,最终输出完整的竖屏或横屏短视频。 这款工具主要解决了传统视频制作流程繁琐、门槛高以及素材版权复杂等痛点。无论是需要快速产出内容的自媒体创作者,还是希望尝试视频生成的普通用户,无需具备专业的剪辑技能或昂贵的硬件配置(普通电脑即可运行),都能轻松上手。同时,其清晰的 MVC 架构和对多种主流大模型(如 DeepSeek、Moonshot、通义千问等)的广泛支持,也使其成为开发者进行二次开发或技术研究的理想底座。 MoneyPrinterTurbo 的独特亮点在于其高度的灵活性与本地化友好性。它不仅支持中英文双语及多种语音合成,允许用户精细调整字幕样式和画面比例,还特别优化了国内网络环境下的模型接入方案,让用户无需依赖 VPN 即可使用高性能国产大模型。此外,工具提供批量生成模式,可一次性产出多个版本供用户择优,极大地提升了内容创作的效率与质量。
oh-my-openagent
oh-my-openagent(简称 omo)是一款强大的开源智能体编排框架,前身名为 oh-my-opencode。它致力于打破单一模型供应商的生态壁垒,解决开发者在构建 AI 应用时面临的“厂商锁定”难题。不同于仅依赖特定模型的封闭方案,omo 倡导开放市场理念,支持灵活调度多种主流大模型:利用 Claude、Kimi 或 GLM 进行任务编排,调用 GPT 处理复杂推理,借助 Minimax 提升响应速度,或发挥 Gemini 的创意优势。 这款工具特别适合希望摆脱平台限制、追求极致性能与成本平衡的开发者及研究人员使用。通过统一接口,用户可以轻松组合不同模型的长处,构建更高效、更具适应性的智能体系统。其独特的技术亮点在于“全模型兼容”架构,让用户不再受制于某一家公司的策略变动或定价调整,真正实现对前沿模型资源的自由驾驭。无论是构建自动化编码助手,还是开发多步骤任务处理流程,oh-my-openagent 都能提供灵活且稳健的基础设施支持,助力用户在快速演进的 AI 生态中保持技术主动权。
onlook
Onlook 是一款专为设计师打造的开源 AI 优先设计工具,被誉为“设计师版的 Cursor”。它旨在打破设计与开发之间的壁垒,让用户能够以可视化的方式直接构建、样式化和编辑 React 应用。通过 Onlook,用户无需深入编写复杂代码,即可在类似 Figma 的直观界面中完成网页原型的搭建与调整,并实时预览最终效果。 这款工具主要解决了传统工作流中设计稿到代码转换效率低、沟通成本高的问题。以往,设计师使用 Figma 等工具完成设计后,需要开发人员手动将其转化为代码,过程繁琐且容易出错。Onlook 允许用户直接在浏览器 DOM 中进行可视化编辑,底层自动生成基于 Next.js 和 TailwindCSS 的高质量代码,实现了“所见即所得”的开发体验。它不仅支持从文本或图像快速生成应用,还具备分支管理、资源管理及一键部署等功能,极大地简化了从创意到成品的流程。 Onlook 特别适合前端开发者、UI/UX 设计师以及希望快速验证产品创意的独立开发者使用。对于设计师而言,它降低了参与前端开发的门槛;对于开发者来说,它提供了一个高效的视觉化调试和原型构建环境。其核心技术亮点在于
serena
Serena 是一款专为编程智能体(Coding Agent)打造的强大工具包,被誉为“智能体的集成开发环境(IDE)”。它通过模型上下文协议(MCP)与各类大语言模型及客户端无缝集成,旨在解决传统 AI 在复杂代码库中因依赖行号或简单文本搜索而导致的效率低下和准确性不足的问题。 与传统方法不同,Serena 采用“智能体优先”的设计理念,提供基于语义的代码检索、编辑和重构能力。它能像资深开发者使用 IDE 一样,深入理解代码的符号层级和关联结构,从而让智能体在大型项目中运行得更快、更稳、更可靠。无论是终端用户(如 Claude Code)、IDE 插件(VSCode、Cursor)还是桌面应用,都能轻松接入 Serena 以扩展功能。 Serena 特别适合需要处理大规模代码项目的开发者、研究人员以及希望提升 AI 编码能力的技术团队。其核心技术亮点在于灵活的后端支持:既默认集成了基于语言服务器协议(LSP)的开源方案,支持超过 40 种编程语言;也可选配强大的 JetBrains 插件,利用专业 IDE 的深度分析能力。这让 Serena 成为连接人工智能与复杂软件工程的高效桥
