autoclip_mvp
autoclip_mvp 是一款基于人工智能的视频智能切片与高光生成工具,旨在帮助创作者高效地从长视频中提取精彩片段并自动组装成合集。它主要解决了手动观看长视频、寻找亮点及剪辑耗时费力的痛点,支持自动下载 B 站视频、提取字幕,并利用 AI 分析内容语义来精准定位高潮部分,最终实现一键打包下载。
该工具特别适合视频二创作者、自媒体运营者以及希望尝试本地化部署 AI 工作流的开发者使用。其技术亮点在于集成了通义千问和硅基流动等多种大模型 API,能够智能理解视频上下文;同时提供现代化的 React Web 交互界面,支持用户手动拖拽调整切片顺序。此外,项目支持 Docker 一键容器化部署,极大简化了环境配置难度,让非专业开发人员也能快速搭建属于自己的智能剪辑服务。
需要注意的是,autoclip_mvp 为早期 MVP 版本,目前官方已停止维护并将功能迭代迁移至新仓库"autoclip"。建议新用户直接关注最新版本以获取更稳定的体验和持续的功能更新,但本版本仍可作为了解该项目核心逻辑与技术架构的重要参考。
使用场景
某短视频运营团队需要从 B 站长视频素材中快速提取精彩片段,以制作每日热点合集分发至多平台。
没有 autoclip_mvp 时
- 人工观看数小时原始视频寻找高光时刻,耗时费力且容易遗漏关键镜头。
- 手动下载视频和字幕文件流程繁琐,不同格式的文件整理混乱,协作效率极低。
- 剪辑师凭主观经验切片,缺乏统一标准,导致输出内容质量参差不齐。
- 无法快速生成主题合集,每次打包导出都需要重复进行文件重命名和分类操作。
使用 autoclip_mvp 后
- AI 自动分析视频内容与字幕,秒级定位并生成高质量精彩切片,释放人力专注于创意策划。
- 一键自动下载 B 站视频及对应字幕,系统自动结构化存储,项目文件管理井然有序。
- 基于算法评分智能推荐切片,确保每个片段都符合高热度标准,内容质量稳定可控。
- 支持拖拽式手动调整合集顺序,并提供一键打包下载功能,瞬间完成多分发的素材准备。
autoclip_mvp 将原本需要数小时的人工剪辑流程压缩至分钟级,实现了从长视频到短视频合集的智能化流水线生产。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
🚨 已弃用 / 项目已迁移
本仓库(
autoclip_mvp)是早期 MVP 版本,已停止维护,仅保留历史记录。👉 新仓库请移步:autoclip
最新特性、修复和版本发布都会在新仓库进行。
项目已迁移至 autoclip 🚀
本仓库 autoclip_mvp 是 Autoclip 的最初 MVP 版本,目前已停止维护。
感谢大家一路以来的支持!❤️
👉 新仓库地址:https://github.com/zhouxiaoka/autoclip
请前往新仓库继续关注和使用。
AutoClip - 智能视频切片工具
🎬 基于AI的智能视频切片和合集推荐系统,支持从B站视频自动下载、字幕提取、智能切片和合集生成。
📋 版本更新记录
v1.1.1 (2025-08-17)
- 🐳 Docker一键部署:支持Docker容器化部署,简化环境配置
- 🚀 多阶段构建:优化Docker镜像大小,提升构建效率
- 🔧 生产环境支持:提供生产环境Docker配置和部署脚本
- 📦 数据持久化:支持数据卷挂载,确保数据安全
- 🛡️ 健康检查:集成容器健康检查,提升服务可靠性
- 📚 部署文档:完善Docker部署指南和快速开始文档
v1.1.0 (2025-08-03)
- ✨ 新增硅基流动API支持:支持使用硅基流动(SiliconFlow)作为AI服务提供商
- 🔧 多API提供商支持:支持通义千问和硅基流动两种AI服务
- 🎯 智能API选择:根据配置自动选择合适的AI服务提供商
- 📝 配置优化:新增API提供商配置选项,支持动态切换
- 🐛 Bug修复:修复API连接测试相关问题
v1.0.0 (2025-07)
- 🎉 首次发布:完整的智能视频切片系统
- 🔥 核心功能:AI视频分析、智能切片、合集推荐
- 📺 B站支持:自动下载B站视频和字幕
- 🎨 Web界面:现代化React前端界面
- ⚡ 实时处理:实时显示处理进度和状态
✨ 功能特性
- 🔥 智能视频切片:基于AI分析视频内容,自动生成高质量切片
- 📺 B站视频下载:支持B站视频自动下载和字幕提取
- 🎯 智能合集推荐:AI自动分析切片内容,推荐相关合集
- 🎨 手动合集编辑:支持拖拽排序、添加/删除切片
- 📦 一键打包下载:支持所有切片和合集的一键打包下载
- 🌐 现代化Web界面:React + TypeScript + Ant Design
- ⚡ 实时处理状态:实时显示处理进度和日志
🚀 快速开始
环境要求
开发环境
- Python 3.8+
- Node.js 16+
- AI服务API密钥(支持通义千问或硅基流动)
Docker部署(推荐)
- Docker 20.10+
- Docker Compose 2.0+
- AI服务API密钥(支持通义千问或硅基流动)
安装步骤
🐳 Docker部署(推荐)
一键部署,无需配置复杂环境!
# 1. 克隆项目
git clone git@github.com:zhouxiaoka/autoclip_mvp.git
cd autoclip_mvp
# 2. 配置环境变量
cp env.example .env
# 编辑 .env 文件,配置你的 API 密钥
# 3. 一键部署
./docker-deploy.sh
访问地址: http://localhost:8000
📖 详细部署指南: Docker 部署文档
🔧 开发环境
- 克隆项目
git clone git@github.com:zhouxiaoka/autoclip_mvp.git
cd autoclip_mvp
- 安装后端依赖
# 创建虚拟环境
python3 -m venv venv
source venv/bin/activate # Linux/Mac
# 或 venv\Scripts\activate # Windows
# 安装依赖
pip install -r requirements.txt
- 安装前端依赖
cd frontend
npm install
cd ..
- 配置API密钥
# 复制示例配置文件
cp data/settings.example.json data/settings.json
# 编辑配置文件,填入你的API密钥
{
"api_provider": "dashscope", # 或 "siliconflow"
"dashscope_api_key": "你的通义千问API密钥",
"siliconflow_api_key": "你的硅基流动API密钥",
"siliconflow_model": "Qwen/Qwen3-8B", # 硅基流动模型名称
"model_name": "qwen-plus",
"chunk_size": 5000,
"min_score_threshold": 0.7,
"max_clips_per_collection": 5,
"default_browser": "chrome"
}
启动服务
方式一:使用启动脚本(推荐)
chmod +x start_dev.sh
./start_dev.sh
方式二:手动启动
# 启动后端服务
source venv/bin/activate
python backend_server.py
# 新开终端,启动前端服务
cd frontend
npm run dev
方式三:命令行工具
# 处理本地视频文件
python main.py --video input.mp4 --srt input.srt --project-name "我的项目"
# 处理现有项目
python main.py --project-id <project_id>
# 列出所有项目
python main.py --list-projects
访问地址
Docker部署
- 🌐 前端界面: http://localhost:8000
- 📚 API文档: http://localhost:8000/docs
开发环境
- 🌐 前端界面: http://localhost:3000
- 🔌 后端API: http://localhost:8000
- 📚 API文档: http://localhost:8000/docs
📁 项目结构
autoclip_mvp/
├── backend_server.py # FastAPI后端服务
├── main.py # 命令行入口
├── start_dev.sh # 开发环境启动脚本
├── requirements.txt # Python依赖
├── .gitignore # Git忽略文件
├── README.md # 项目文档
│
├── Dockerfile # Docker镜像构建文件
├── docker-compose.yml # Docker Compose配置
├── docker-compose.prod.yml # 生产环境Docker配置
├── docker-deploy.sh # Docker一键部署脚本
├── docker-deploy-prod.sh # 生产环境部署脚本
├── test-docker.sh # Docker环境测试脚本
├── env.example # 环境变量示例文件
├── .dockerignore # Docker构建忽略文件
│
├── frontend/ # React前端
│ ├── src/
│ │ ├── components/ # React组件
│ │ ├── pages/ # 页面组件
│ │ ├── services/ # API服务
│ │ ├── store/ # 状态管理
│ │ └ató hooks/ # 自定义Hooks
│ ├── package.json # 前端依赖
│ └ást vite.config.ts # Vite配置
│
├── src/ # 核心业务逻辑
│ ├── main.py # 主处理逻辑
│ ├── config.py # 配置管理
│ ├── api.py # API接口
│ ├── pipeline/ # 处理流水线
│ │ ├── step1_outline.py # 大纲提取
│ │ ├── step2_timeline.py # 时间轴生成
│ │ ├── step3_scoring.py # 评分计算
│ │ ├── step4_title.py # 标题生成
│ │ ├── step5_clustering.py # 聚类分析
│ │ └ast step6_video.py # 视频生成
│ ├── utils/ # 工具函数
│ │ ├── llm_client.py # AI客户端
│ │ ├── video_processor.py # 视频处理
│ │ ├── text_processor.py # 文本处理
│ │ ├── project_manager.py # 项目管理
│ │ ├── error_handler.py # 错误处理
│ │ └ast bilibili_downloader.py # B站下载
│ └ast upload/ # 文件上传
│ └ast upload_manager.py
│
├ast data/ # 数据文件
│ ├── projects.json # 项目数据
│ └ast settings.json # 配置文件
│
├ast uploads/ # 上传文件存储
│ ├── tmp/ # 临时下载文件
│ └ast {project_id}/ # 项目文件
│ ├── input/ # 原始文件
│ └ast output/ # 处理结果
│ ├── clips/ # 切片视频
│ └ast collections/ # 合集视频
│
├ast prompt/ # AI提示词模板
│ ├── business/ # 商业财经
│ ├── knowledge/ # 知识科普
│ ├── entertainment/ # 娱乐内容
│ ─ast ...
│
└ast tests/ # 测试文件
├── test_config.py
─ast test_error_handler.py
🔧 配置说明
API密钥配置
在 data/settings.json 中配置你的AI服务API密钥:
通义千问配置
{
"api_provider": "dashscope",
"dashscope_api_key": "your-dashscope-api-key",
"model_name": "qwen-plus",
"chunk_size": 5000,
"min_score_threshold": 0.7,
"max_clips_per_collection": 5,
"default_browser": "chrome"
}
硅基流动配置
{
"api_provider": "siliconflow",
"siliconflow_api_key": "your-siliconflow-api-key",
"siliconflow_model": "Qwen/Qwen3-8B",
"chunk_size": 5000,
"min_score_threshold": 0.7,
"max_clips_per_collection": 5,
"default_browser": "chrome"
}
浏览器配置
支持Chrome、Firefox、Safari等浏览器用于B站视频下载:
{
"default_browser": "chrome"
}
📖 使用指南
1. 上传本地视频
- 访问 http://localhost:3000
- 点击"上传视频"按钮
- 选择视频文件和字幕文件(必须)
- 填写项目名称和分类
- 点击"开始处理"
2. 下载B站视频
- 在首页点击"B站视频下载"
- 输入B站视频链接(必须是有字幕的视频)
- 选择浏览器(用于获取登录状态)
- 点击"开始下载"
3. 编辑合集
- 进入项目详情页面
- 点击合集卡片进入编辑模式
- 拖拽切片调整顺序
- 添加或删除切片
- 保存更改
4. 下载项目
- 在项目卡片上点击下载按钮
- 自动打包所有切片和合集
- 下载完整的zip文件
🐳 Docker部署
快速部署
# 1. 克隆项目
git clone git@github.com:zhouxiaoka/autoclip_mvp.git
cd autoclip_mvp
# 2. 配置环境变量
cp env.example .env
# 编辑 .env 文件,配置你的API密钥
# 3. 一键部署
./docker-deploy.sh
生产环境部署
# 使用生产环境配置
./docker-deploy-prod.sh
常用Docker命令
# 查看日志
docker-compose logs -f
# 停止服务
docker-compose down
# 重启服务
docker-compose restart
# 更新服务
docker-compose pull && docker-compose up -d
# 测试Docker环境
./test-docker.sh
环境变量配置
在 .env 文件中配置:
# 选择其中一个API提供商
DASHSCOPE_API_KEY=your-dashscope-api-key
# 或者
SILICONFLOW_API_KEY=your-siliconflow-api-key
# API提供商选择
API_PROVIDER=dashscope # 或 siliconflow
📖 详细Docker部署指南: Docker 部署文档
🛠️ 开发指南
后端开发
# 启动开发服务器(支持热重载)
python backend_server.py
# 运行测试
pytest tests/
前端开发
cd frontend
npm run dev # 开发模式
npm run build # 生产构建
npm run lint # 代码检查
添加新的视频分类
- 在
prompt/目录下创建新的分类文件夹 - 添加对应的提示词模板文件
- 在前端
src/services/api.ts中添加分类选项
🐛 常见问题
Q: 下载B站视频失败?
A: 确保已登录B站账号,并选择正确的浏览器。建议使用Chrome浏览器。
Q: AI分析速度慢?
A: 可以调整 chunk_size 参数,较小的值会提高速度但可能影响质量。也可以尝试切换不同的API提供商(通义千问或硅基流动)来获得更好的性能。
Q: 切片质量不高?
A: 调整 min_score_threshold 参数,较高的值会提高切片质量但减少数量。
Q: 合集数量太少?
A: 调整 max_clips_per_collection 参数,增加每个合集的最大切片数量。
Q: 如何切换AI服务提供商?
A: 在 data/settings.json 中修改 api_provider 字段,可选值:"dashscope"(通义千问)或 "siliconflow"(硅基流动)。确保对应的API密钥已正确配置。
Q: Docker部署失败?
A: 请先运行 ./test-docker.sh 检查Docker环境。确保Docker和Docker Compose已正确安装,并且API密钥已在 .env 文件中配置。
Q: Docker容器无法访问?
A: 检查端口是否被占用:netstat -tulpn | grep 8000. 如果端口被占用,可以修改 docker-compose.yml 中的端口映射。
Q: Docker部署后数据丢失?
A: 确保数据目录已正确挂载。检查 docker-compose.yml 中的 volumes 配置,数据会保存在宿主机的 ./uploads/ 和 ./output/ 目录中。
Q: 生产环境如何部署?
A: 使用 ./docker-deploy-prod.sh 脚本进行生产环境部署。该脚本会使用端口80,并配置自动重启和日志管理。
📄 许可证
本项目采用 MIT 许可证 - 详见 LICENSE 文件
🤝 贡献指南
欢迎提交 Issue 和 Pull Request!
- Fork 本项目
- 创建特性分支 (
git checkout -b feature/AmazingFeature) - 提交更改 (
git commit -m 'Add some AmazingFeature') - 推送到分支 (
git push origin feature/AmazingFeature) - 打开 Pull Request
📞 联系方式
如有问题或建议,请通过以下方式联系:
📱 飞书
📧 其他联系方式
- 提交 GitHub Issue
- 发送邮件至:christine_zhouye@163.com
- 添加上述QQ或飞书联系
🤝 贡献
欢迎贡献代码!请查看 贡献指南 了解详情。
📄 许可证
本项目采用 MIT 许可证。
⭐ 如果这个项目对你有帮助,请给它一个星标!
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备