video-subtitle-remover
video-subtitle-remover 是一款基于人工智能技术的本地化工具,专为去除视频和图片中的硬编码字幕及文本类水印而设计。它有效解决了用户在观看或二次创作时,因画面中嵌入无法关闭的字幕、台标或水印而影响视觉体验的痛点。与传统简单的马赛克模糊处理不同,该工具利用先进的 AI 修复算法,智能识别并擦除文字区域,同时根据周围像素进行自然填充,在彻底清除干扰元素的同时,保持原始分辨率和画面细节的无损。
这款工具非常适合需要处理素材的视频创作者、自媒体运营者以及希望纯净观影的普通用户。其最大的亮点在于完全本地化运行,无需联网或申请任何第三方 API 密钥,既保障了数据隐私安全,又避免了服务调用的费用与延迟。video-subtitle-remover 提供了友好的图形界面(GUI)供小白用户一键操作,同时也支持命令行模式,允许开发者自定义字幕坐标或批量处理文件。此外,它还兼容 Windows、macOS、Linux 系统及 Docker 环境,并能灵活适配 NVIDIA、AMD 等多种显卡加速方案,让高清去字幕变得简单高效。
使用场景
某视频创作者收到海外合作伙伴提供的无字幕源片,但文件底部已硬编码了外文说明字幕,急需去除以重新添加中文字幕进行本地化发布。
没有 video-subtitle-remover 时
- 手动修图效率极低:只能逐帧使用 Photoshop 内容识别填充或仿制图章工具涂抹,处理一分钟视频需耗费数小时,几乎无法完成长视频制作。
- 画质严重受损:传统马赛克或模糊遮挡会破坏画面底部细节,导致背景扭曲,且无法还原被字幕覆盖的原始图像纹理。
- 依赖付费云服务:若寻求在线去字幕网站,不仅面临高昂的按分钟计费成本,还需上传未公开素材,存在极大的数据泄露风险。
- 环境配置复杂:自行搭建 AI 修复模型往往需要复杂的深度学习环境配置,普通创作者难以跨越技术门槛。
使用 video-subtitle-remover 后
- 全自动批量处理:只需指定字幕区域坐标或直接启用自动检测,video-subtitle-remover 即可利用 AI 模型一键批量清除全片硬字幕,将数天工作量缩短至几分钟。
- 无损智能复原:基于 STTN 或 LaMa 等先进算法,video-subtitle-remover 能根据周围像素智能推测并填充背景,完美还原被遮挡的画面细节,实现视觉上的“无痕”去除。
- 本地离线安全运行:video-subtitle-remover 支持完全本地化部署,无需联网或调用第三方 API,既节省了费用,又确保了视频素材的绝对隐私与安全。
- 多平台开箱即用:提供适配 Windows、macOS 及 Linux 的预构建包,甚至支持 CPU 和各类显卡加速,用户解压即可运行,无需繁琐的环境配置。
video-subtitle-remover 通过本地化 AI 智能修复技术,将原本高成本、高风险的硬字幕去除工作转变为高效、无损且安全的标准化流程。
运行环境要求
- Windows
- macOS
- Linux
- 非必需
- 支持 NVIDIA GPU (CUDA 11.8/12.6/12.8,计算能力 3.5-9.0+)、AMD/Intel GPU (DirectML) 或 CPU 运行
- ProPainter 算法需大量显存,具体大小未说明
未说明

快速开始
简体中文 | English
项目简介
Video-subtitle-remover (VSR) 是一款基于AI技术,将视频中的硬字幕去除的软件。 主要实现了以下功能:
- 无损分辨率将视频中的硬字幕去除,生成去除字幕后的文件
- 通过超强AI算法模型,对去除字幕文本的区域进行填充(非相邻像素填充与马赛克去除)
- 提取原视频字幕,可配合:video-subtitle-extractor (VSE)
- 支持自定义字幕位置,仅去除定义位置中的字幕(传入位置)
- 支持全视频自动去除所有文本(不传入位置)
- 支持多选图片批量去除水印文本

使用说明:
- 有使用问题请加群讨论,QQ群:210150985(已满)、806152575(已满)、816881808(已满)、295894827
- 直接下载压缩包解压运行,如果不能运行再按照下面的教程,尝试源码安装conda环境运行
下载地址:Release
预构建包对比说明:
| 预构建包名 | Python | Paddle | Torch | 环境 | 支持的计算能力范围 |
|---|---|---|---|---|---|
vsr-windows-cpu.7z |
3.12 | 3.0.0 | 2.7.0 | 通用 | 通用 |
vsr-windows-directml.7z |
3.12 | 3.0.0 | 2.4.1 | Windows 非Nvidia显卡 | 通用 |
vsr-windows-nvidia-cuda-11.8.7z |
3.12 | 3.0.0 | 2.7.0 | CUDA 11.8 | 3.5 – 8.9 |
vsr-windows-nvidia-cuda-12.6.7z |
3.12 | 3.0.0 | 2.7.0 | CUDA 12.6 | 5.0 – 8.9 |
vsr-windows-nvidia-cuda-12.8.7z |
3.12 | 3.0.0 | 2.7.0 | CUDA 12.8 | 5.0 – 9.0+ |
NVIDIA官方提供了各GPU型号的计算能力列表,您可以参考链接: CUDA GPUs 查看你的GPU适合哪个CUDA版本
Docker版本:
# Nvidia 10 20 30系显卡
docker run -it --name vsr --gpus all eritpchy/video-subtitle-remover:1.4.0-cuda11.8 python backend/main.py -i test/test.mp4 -o test/test_no_sub.mp4
# Nvidia 40系显卡
docker run -it --name vsr --gpus all eritpchy/video-subtitle-remover:1.4.0-cuda12.6 python backend/main.py -i test/test.mp4 -o test/test_no_sub.mp4
# Nvidia 50系显卡
docker run -it --name vsr --gpus all eritpchy/video-subtitle-remover:1.4.0-cuda12.8 python backend/main.py -i test/test.mp4 -o test/test_no_sub.mp4
# AMD / Intel 独显 集显
docker run -it --name vsr --gpus all eritpchy/video-subtitle-remover:1.4.0-directml python backend/main.py -i test/test.mp4 -o test/test_no_sub.mp4
# CPU
docker run -it --name vsr --gpus all eritpchy/video-subtitle-remover:1.4.0-cpu python backend/main.py -i test/test.mp4 -o test/test_no_sub.mp4
# 导出视频
docker cp vsr:/vsr/test/test_no_sub.mp4 ./
命令行参数:
Video Subtitle Remover Command Line Tool
options:
-h, --help show this help message and exit
--input INPUT, -i INPUT
Input video file path
--output OUTPUT, -o OUTPUT
Output video file path (optional)
--subtitle-area-coords YMIN YMAX XMIN XMAX, -c YMIN YMAX XMIN XMAX
Subtitle area coordinates (ymin ymax xmin xmax). Can be specified multiple times for multiple areas.
--inpaint-mode {sttn-auto,sttn-det,lama,propainter,opencv}
Inpaint mode, default is sttn-auto
演示
- GUI版:

源码使用说明
1. 安装 Python
请确保您已经安装了 Python 3.12+。
- Windows 用户可以前往 Python 官网 下载并安装 Python。
- MacOS 用户可以使用 Homebrew 安装:
brew install python@3.12 - Linux 用户可以使用包管理器安装,例如 Ubuntu/Debian:
sudo apt update && sudo apt install python3.12 python3.12-venv python3.12-dev
2. 安装依赖文件
请使用虚拟环境来管理项目依赖,避免与系统环境冲突。
(1)创建虚拟环境并激活
python -m venv videoEnv
- Windows:
videoEnv\\Scripts\\activate
- MacOS/Linux:
source videoEnv/bin/activate
3. 创建并激活项目目录
切换到源码所在目录:
cd <源码所在目录>
例如:如果您的源代码放在 D 盘的 tools 文件夹下,并且源代码的文件夹名为 video-subtitle-remover,则输入:
cd D:/tools/video-subtitle-remover-main
4. 安装合适的运行环境
本项目支持 CUDA (NVIDIA显卡加速)、CPU (无 GPU)、 DirectML (AMD、Intel等GPU/APU加速) 和 macOS (Apple Silicon) 四种运行模式。
(1) CUDA(NVIDIA 显卡用户)
请确保您的 NVIDIA 显卡驱动支持所选 CUDA 版本。
推荐 CUDA 11.8,对应 cuDNN 8.6.0。
安装 CUDA:
- Windows:CUDA 11.8 下载
- Linux:
wget https://developer.download.nvidia.com/compute/cuda/11.8.0/local_installers/cuda_11.8.0_520.61.05_linux.run sudo sh cuda_11.8.0_520.61.05_linux.run - MacOS 不支持 CUDA。
安装 cuDNN(CUDA 11.8 对应 cuDNN 8.6.0):
- Windows cuDNN 8.6.0 下载
- Linux cuDNN 8.6.0 下载
- 安装方法请参考 NVIDIA 官方文档。
安装 PaddlePaddle GPU 版本(CUDA 11.8):
pip install paddlepaddle-gpu==3.0.0 -i https://www.paddlepaddle.org.cn/packages/stable/cu118/安装 Torch GPU 版本(CUDA 11.8):
pip install torch==2.7.0 torchvision==0.22.0 --index-url https://download.pytorch.org/whl/cu118安装其他依赖
pip install -r requirements.txtLinux系统还需要安装
# for cuda 12.x pip install onnxruntime-gpu==1.22.0 # for cuda 11.x pip install onnxruntime-gpu==1.20.1 --index-url https://aiinfra.pkgs.visualstudio.com/PublicPackages/_packaging/onnxruntime-cuda-11/pypi/simple/详情见: Install ONNX Runtime
(2) DirectML(AMD、Intel等GPU/APU加速卡用户)
- 适用于 Windows 设备的 AMD/NVIDIA/Intel GPU。
- 安装 ONNX Runtime DirectML 版本:
pip install paddlepaddle==3.0.0 -i https://www.paddlepaddle.org.cn/packages/stable/cpu/ pip install -r requirements.txt pip install torch_directml==0.2.5.dev240914
(3) CPU 运行(无 GPU 加速)
- 适用于没有 GPU 或不希望使用 GPU 的情况。
pip install paddlepaddle==3.0.0 -i https://www.paddlepaddle.org.cn/packages/stable/cpu/ pip install torch==2.7.0 torchvision==0.22.0 pip install -r requirements.txt
(4) macOS 运行 (Apple Silicon)
- 适用于 macOS (Apple Silicon) 设备
- macOS (Intel) 请使用CPU, 强行使用GPU只会更慢
- macOS (Apple Silicon)上字幕检测PP-OCRv4-Server模型精度似乎不太理想, 推荐使用其他模型
pip install paddlepaddle==3.0.0 -i https://www.paddlepaddle.org.cn/packages/stable/cpu/ pip install torch==2.7.0 torchvision==0.22.0 pip install -r requirements.txt基于Python3.13版本测试
4. 运行程序
- 运行图形化界面
python gui.py
- 运行命令行版本(CLI)
python ./backend/main.py
常见问题
- 提取速度慢怎么办
修改backend/config.py中的参数,可以大幅度提高去除速度
MODE = InpaintMode.STTN # 设置为STTN算法
STTN_SKIP_DETECTION = True # 跳过字幕检测,跳过后可能会导致要去除的字幕遗漏或者误伤不需要去除字幕的视频帧
- 视频去除效果不好怎么办
修改backend/config.py中的参数,尝试不同的去除算法,算法介绍
- InpaintMode.STTN 算法:对于真人视频效果较好,速度快,可以跳过字幕检测
- InpaintMode.LAMA 算法:对于图片效果最好,对动画类视频效果好,速度一般,不可以跳过字幕检测
- InpaintMode.PROPAINTER 算法: 需要消耗大量显存,速度较慢,对运动非常剧烈的视频效果较好
- 使用STTN算法
MODE = InpaintMode.STTN # 设置为STTN算法
# 相邻帧数, 调大会增加显存占用,效果变好
STTN_NEIGHBOR_STRIDE = 10
# 参考帧长度, 调大会增加显存占用,效果变好
STTN_REFERENCE_LENGTH = 10
# 设置STTN算法最大同时处理的帧数量,设置越大速度越慢,但效果越好
# 要保证STTN_MAX_LOAD_NUM大于STTN_NEIGHBOR_STRIDE和STTN_REFERENCE_LENGTH
STTN_MAX_LOAD_NUM = 30
- 使用LAMA算法
MODE = InpaintMode.LAMA # 设置为STTN算法
LAMA_SUPER_FAST = False # 保证效果
如果对模型去字幕的效果不满意,可以查看design文件夹里面的训练方法,利用backend/tools/train里面的代码进行训练,然后将训练的模型替换旧模型即可
- 7z文件解压错误
解决方案:升级7-zip解压程序到最新版本
- Mac版本运行报错:Error "bad CPU type in executable"
解决方案:打开控制台输入softwareupdate --install-rosetta 安装rosetta
赞助

版本历史
1.4.02026/04/091.1.12025/04/241.1.02023/12/281.0.02023/10/27常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

