[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-m1guelpf--yt-whisper":3,"tool-m1guelpf--yt-whisper":64},[4,23,32,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85267,2,"2026-04-18T11:00:28",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},8436,"Real-Time-Voice-Cloning","CorentinJ\u002FReal-Time-Voice-Cloning","Real-Time-Voice-Cloning 是一款开源的实时语音克隆工具，旨在通过短短 5 秒的音频样本，快速复刻说话人的声音特征，并即时生成任意文本的语音内容。它有效解决了传统语音合成需要大量训练数据且无法实时响应的痛点，让个性化语音生成变得轻量且高效。\n\n该项目的核心技术基于 SV2TTS（从说话人验证到多说话人文本转语音的迁移学习）深度学习框架。其工作流程分为三个阶段：首先从少量音频中提取说话人的数字声纹表示，随后将其作为参考，结合 Tacotron 合成器与 WaveRNN 声码器，高质量地生成目标语音。这种架构不仅实现了端到端的语音合成，还保证了在普通硬件上的实时运行能力。\n\nReal-Time-Voice-Cloning 非常适合开发者、人工智能研究人员以及对语音技术感兴趣的技术爱好者使用。开发者可以将其集成到互动应用中，研究人员可借此探索语音迁移学习的前沿进展，而具备一定动手能力的普通用户也能通过提供的图形界面工具箱，轻松体验“声音复制”的乐趣。尽管目前已有商业服务在音质上表现更佳，但作为一款免费开源项目，它依然是理解和学习实时语音合成技术的绝佳入门资源。",59627,3,"2026-04-16T23:06:58",[21,20],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},4128,"GPT-SoVITS","RVC-Boss\u002FGPT-SoVITS","GPT-SoVITS 是一款强大的开源语音合成与声音克隆工具，旨在让用户仅需极少量的音频数据即可训练出高质量的个性化语音模型。它核心解决了传统语音合成技术依赖海量录音数据、门槛高且成本大的痛点，实现了“零样本”和“少样本”的快速建模：用户只需提供 5 秒参考音频即可即时生成语音，或使用 1 分钟数据进行微调，从而获得高度逼真且相似度极佳的声音效果。\n\n该工具特别适合内容创作者、独立开发者、研究人员以及希望为角色配音的普通用户使用。其内置的友好 WebUI 界面集成了人声伴奏分离、自动数据集切片、中文语音识别及文本标注等辅助功能，极大地降低了数据准备和模型训练的技术门槛，让非专业人士也能轻松上手。\n\n在技术亮点方面，GPT-SoVITS 不仅支持中、英、日、韩、粤语等多语言跨语种合成，还具备卓越的推理速度，在主流显卡上可实现实时甚至超实时的生成效率。无论是需要快速制作视频配音，还是进行多语言语音交互研究，GPT-SoVITS 都能以极低的数据成本提供专业级的语音合成体验。",56375,"2026-04-05T22:15:46",[21],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":29,"last_commit_at":46,"category_tags":47,"status":22},2863,"TTS","coqui-ai\u002FTTS","🐸TTS 是一款功能强大的深度学习文本转语音（Text-to-Speech）开源库，旨在将文字自然流畅地转化为逼真的人声。它解决了传统语音合成技术中声音机械生硬、多语言支持不足以及定制门槛高等痛点，让高质量的语音生成变得触手可及。\n\n无论是希望快速集成语音功能的开发者，还是致力于探索前沿算法的研究人员，亦或是需要定制专属声音的数据科学家，🐸TTS 都能提供得力支持。它不仅预置了覆盖全球 1100 多种语言的训练模型，让用户能够即刻上手，还提供了完善的工具链，支持用户利用自有数据训练新模型或对现有模型进行微调，轻松实现特定风格的声音克隆。\n\n在技术亮点方面，🐸TTS 表现卓越。其最新的 ⓍTTSv2 模型支持 16 种语言，并在整体性能上大幅提升，实现了低于 200 毫秒的超低延迟流式输出，极大提升了实时交互体验。此外，它还无缝集成了 🐶Bark、🐢Tortoise 等社区热门模型，并支持调用上千个 Fairseq 模型，展现了极强的兼容性与扩展性。配合丰富的数据集分析与整理工具，🐸TTS 已成为科研与生产环境中备受信赖的语音合成解决方案。",44971,"2026-04-03T14:47:02",[21,20,13],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":29,"last_commit_at":54,"category_tags":55,"status":22},2375,"LocalAI","mudler\u002FLocalAI","LocalAI 是一款开源的本地人工智能引擎，旨在让用户在任意硬件上轻松运行各类 AI 模型，包括大语言模型、图像生成、语音识别及视频处理等。它的核心优势在于彻底打破了高性能计算的门槛，无需昂贵的专用 GPU，仅凭普通 CPU 或常见的消费级显卡（如 NVIDIA、AMD、Intel 及 Apple Silicon）即可部署和运行复杂的 AI 任务。\n\n对于担心数据隐私的用户而言，LocalAI 提供了“隐私优先”的解决方案，确保所有数据处理均在本地基础设施内完成，无需上传至云端。同时，它完美兼容 OpenAI、Anthropic 等主流 API 接口，这意味着开发者可以无缝迁移现有应用，直接利用本地资源替代云服务，既降低了成本又提升了可控性。\n\nLocalAI 内置了超过 35 种后端支持（如 llama.cpp、vLLM、Whisper 等），并集成了自主 AI 代理、工具调用及检索增强生成（RAG）等高级功能，且具备多用户管理与权限控制能力。无论是希望保护敏感数据的企业开发者、进行算法实验的研究人员，还是想要在个人电脑上体验最新 AI 技术的极客玩家，都能通过 LocalAI 获",44782,"2026-04-02T22:14:26",[13,21,19,17,20,14,16],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":29,"last_commit_at":62,"category_tags":63,"status":22},3108,"bark","suno-ai\u002Fbark","Bark 是由 Suno 推出的开源生成式音频模型，能够根据文本提示创造出高度逼真的多语言语音、音乐、背景噪音及简单音效。与传统仅能朗读文字的语音合成工具不同，Bark 基于 Transformer 架构，不仅能模拟说话，还能生成笑声、叹息、哭泣等非语言声音，甚至能处理带有情感色彩和语气停顿的复杂文本，极大地丰富了音频表达的可能性。\n\n它主要解决了传统语音合成声音机械、缺乏情感以及无法生成非语音类音效的痛点，让创作者能通过简单的文字描述获得生动自然的音频素材。无论是需要为视频配音的内容创作者、探索多模态生成的研究人员，还是希望快速原型设计的开发者，都能从中受益。普通用户也可通过集成的演示页面轻松体验其神奇效果。\n\n技术亮点方面，Bark 支持商业使用（MIT 许可），并在近期更新中实现了显著的推理速度提升，同时提供了适配低显存 GPU 的版本，降低了使用门槛。此外，社区还建立了丰富的提示词库，帮助用户更好地驾驭模型生成特定风格的声音。只需几行 Python 代码，即可将创意文本转化为高质量音频，是连接文字与声音世界的强大桥梁。",39067,"2026-04-04T03:33:35",[21],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":75,"owner_website":82,"owner_url":83,"languages":84,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":10,"env_os":93,"env_gpu":94,"env_ram":94,"env_deps":95,"category_tags":102,"github_topics":103,"view_count":10,"oss_zip_url":81,"oss_zip_packed_at":81,"status":22,"created_at":111,"updated_at":112,"faqs":113,"releases":144},9186,"m1guelpf\u002Fyt-whisper","yt-whisper","Using OpenAI's Whisper to automatically generate YouTube subtitles","yt-whisper 是一款专为 YouTube 视频打造的自动字幕生成工具。它巧妙结合了视频下载利器 yt-dlp 与 OpenAI 强大的 Whisper 语音识别模型，能够一键将任意 YouTube 视频的音频内容转化为精准的字幕文件（如 VTT 格式）。\n\n长期以来，为外语视频或缺乏字幕的资源手动添加字幕是一项耗时费力的工作，yt-whisper 有效解决了这一痛点，让视频内容的获取与理解变得前所未有的便捷。它不仅支持直接转录，还具备独特的翻译功能，可将非英语视频的字幕自动翻译成英文，极大地降低了语言门槛。用户还可以根据需求灵活选择不同规模的模型，在处理速度与识别精度之间找到最佳平衡点，尤其对多语种场景表现优异。\n\n这款工具非常适合开发者、研究人员、内容创作者以及需要频繁处理视频资料的普通用户。对于技术人员而言，其开源特性与清晰的命令行操作便于集成到自动化工作流中；而对于非技术背景的普通用户，简单的安装步骤和直观的命令也能让他们轻松上手，快速获得高质量字幕，是提升视频消费与生产效率的得力助手。","# Automatic YouTube subtitle generation\n\nThis repository uses `yt-dlp` and [OpenAI's Whisper](https:\u002F\u002Fopenai.com\u002Fblog\u002Fwhisper) to generate subtitle files for any youtube video.\n\n## Installation\n\nTo get started, you'll need Python 3.7 or newer. Install the binary by running the following command:\n\n    pip install git+https:\u002F\u002Fgithub.com\u002Fm1guelpf\u002Fyt-whisper.git\n\nYou'll also need to install [`ffmpeg`](https:\u002F\u002Fffmpeg.org\u002F), which is available from most package managers:\n\n```bash\n# on Ubuntu or Debian\nsudo apt update && sudo apt install ffmpeg\n\n# on MacOS using Homebrew (https:\u002F\u002Fbrew.sh\u002F)\nbrew install ffmpeg\n\n# on Windows using Chocolatey (https:\u002F\u002Fchocolatey.org\u002F)\nchoco install ffmpeg\n```\n\n## Usage\n\nThe following command will generate a VTT file from the specified YouTube video\n\n    yt_whisper \"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=dQw4w9WgXcQ\"\n\nThe default setting (which selects the `small` model) works well for transcribing English. You can optionally use a bigger model for better results (especially with other languages). The available models are `tiny`, `tiny.en`, `base`, `base.en`, `small`, `small.en`, `medium`, `medium.en`, `large`.\n\n    yt_whisper \"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=dQw4w9WgXcQ\" --model medium\n\nAdding `--task translate` will translate the subtitles into English:\n\n    yt_whisper \"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=dQw4w9WgXcQ\" --task translate\n\nRun the following to view all available options:\n\n    yt_whisper --help\n\n## License\n\nThis script is open-source and licensed under the MIT License. For more details, check the [LICENSE](LICENSE) file.\n","# YouTube 字幕自动生成功能\n\n本仓库使用 `yt-dlp` 和 [OpenAI 的 Whisper](https:\u002F\u002Fopenai.com\u002Fblog\u002Fwhisper) 为任意 YouTube 视频生成字幕文件。\n\n## 安装\n\n要开始使用，您需要 Python 3.7 或更高版本。通过运行以下命令安装二进制文件：\n\n    pip install git+https:\u002F\u002Fgithub.com\u002Fm1guelpf\u002Fyt-whisper.git\n\n此外，您还需要安装 [`ffmpeg`](https:\u002F\u002Fffmpeg.org\u002F)，它可以通过大多数包管理器获取：\n\n```bash\n# 在 Ubuntu 或 Debian 上\nsudo apt update && sudo apt install ffmpeg\n\n# 在 macOS 上使用 Homebrew (https:\u002F\u002Fbrew.sh\u002F)\nbrew install ffmpeg\n\n# 在 Windows 上使用 Chocolatey (https:\u002F\u002Fchocolatey.org\u002F)\nchoco install ffmpeg\n```\n\n## 使用\n\n以下命令将从指定的 YouTube 视频生成 VTT 字幕文件：\n\n    yt_whisper \"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=dQw4w9WgXcQ\"\n\n默认设置（选择 `small` 模型）对于转录英语内容效果良好。您也可以选择更大的模型以获得更好的结果（尤其是在处理其他语言时）。可用的模型包括：`tiny`、`tiny.en`、`base`、`base.en`、`small`、`small.en`、`medium`、`medium.en`、`large`。\n\n    yt_whisper \"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=dQw4w9WgXcQ\" --model medium\n\n添加 `--task translate` 参数可将字幕翻译成英语：\n\n    yt_whisper \"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=dQw4w9WgXcQ\" --task translate\n\n运行以下命令可查看所有可用选项：\n\n    yt_whisper --help\n\n## 许可证\n\n此脚本为开源软件，采用 MIT 许可证授权。有关详细信息，请参阅 [LICENSE](LICENSE) 文件。","# yt-whisper 快速上手指南\n\nyt-whisper 是一个结合 `yt-dlp` 和 OpenAI Whisper 的开源工具，可自动为任意 YouTube 视频生成字幕文件。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统要求：\n\n*   **Python 版本**：需要 Python 3.7 或更高版本。\n*   **核心依赖**：必须安装 [`ffmpeg`](https:\u002F\u002Fffmpeg.org\u002F) 用于音频处理。\n\n请根据您的操作系统安装 ffmpeg：\n\n```bash\n# Ubuntu 或 Debian\nsudo apt update && sudo apt install ffmpeg\n\n# MacOS (使用 Homebrew)\nbrew install ffmpeg\n\n# Windows (使用 Chocolatey)\nchoco install ffmpeg\n```\n\n## 安装步骤\n\n推荐使用 pip 直接从 GitHub 源安装最新代码：\n\n```bash\npip install git+https:\u002F\u002Fgithub.com\u002Fm1guelpf\u002Fyt-whisper.git\n```\n\n> **提示**：如果下载速度较慢，可尝试添加国内镜像源加速（例如清华源）：\n> `pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple git+https:\u002F\u002Fgithub.com\u002Fm1guelpf\u002Fyt-whisper.git`\n\n## 基本使用\n\n### 1. 生成字幕\n运行以下命令即可为指定 YouTube 视频生成 `.vtt` 格式的字幕文件（默认使用 `small` 模型，适合英语转录）：\n\n```bash\nyt_whisper \"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=dQw4w9WgXcQ\"\n```\n\n### 2. 切换模型\n为了获得更好的转录效果（尤其是非英语视频），可以指定更大的模型。可用模型包括：`tiny`, `base`, `small`, `medium`, `large` 及其对应的 `.en` 版本。\n\n```bash\nyt_whisper \"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=dQw4w9WgXcQ\" --model medium\n```\n\n### 3. 翻译字幕\n添加 `--task translate` 参数可将字幕内容翻译为英文：\n\n```bash\nyt_whisper \"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=dQw4w9WgXcQ\" --task translate\n```\n\n如需查看所有可用选项，请运行：\n```bash\nyt_whisper --help\n```","一位教育科技公司的内容运营专员，需要每天将大量海外优质 YouTube 技术教程视频转化为带中文字幕的内部培训资料。\n\n### 没有 yt-whisper 时\n- 人工听写效率极低，处理一个 30 分钟的英文视频需耗费数小时，严重拖慢课程上线进度。\n- 外包翻译成本高昂，且难以保证专业术语（如 Kubernetes、Transformer）的准确性，返工率高。\n- 手动对齐字幕时间轴繁琐易错，常出现音画不同步，影响学员观看体验。\n- 面对小语种视频束手无策，缺乏快速转译成英文再汉化的高效链路。\n- 依赖 YouTube 自动生成的字幕往往缺失标点、大小写混乱，后期清洗工作量巨大。\n\n### 使用 yt-whisper 后\n- 一键执行命令即可在几分钟内自动生成高精度 VTT 字幕文件，效率提升数十倍。\n- 利用 Whisper 强大的语境理解能力，精准识别专业术语，大幅减少人工校对成本。\n- 自动完成语音与时间轴的完美对齐，直接输出可用于播放器的标准格式，无需手动调整。\n- 通过 `--task translate` 参数直接将法语、日语等视频源翻译为英文字幕，打通多语言处理流程。\n- 生成的字幕包含规范标点和正确大小写，格式整洁，几乎可直接投入使用。\n\nyt-whisper 将原本耗时数天的字幕制作流程压缩至分钟级，让团队能专注于内容深度加工而非重复劳动。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fm1guelpf_yt-whisper_d16836dd.png","m1guelpf","Miguel Piedrafita","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fm1guelpf_4a3d8861.jpg","friendly ambitious nerd, purple-haired dev @worldcoin, serial builder.","@worldcoin","Lisbon, Portugal",null,"https:\u002F\u002Fmiguel.build","https:\u002F\u002Fgithub.com\u002Fm1guelpf",[85],{"name":86,"color":87,"percentage":88},"Python","#3572A5",100,1436,145,"2026-04-16T08:03:38","MIT","Linux, macOS, Windows","未说明",{"notes":96,"python":97,"dependencies":98},"必须安装 ffmpeg 命令行工具（可通过各系统包管理器安装）。默认使用 small 模型，支持通过 --model 参数切换不同大小的模型（如 tiny, base, medium, large 等），较大模型效果更佳但资源消耗更高。支持通过 --task translate 将字幕翻译为英文。","3.7+",[99,100,101],"yt-dlp","openai-whisper","ffmpeg",[21],[101,104,100,105,106,107,108,109,110],"openai","whisper","youtube","youtube-dl","subtitles","subtitles-generated","transcribe","2026-03-27T02:49:30.150509","2026-04-19T03:06:54.859244",[114,119,124,129,134,139],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},41240,"可以使用该工具转录本地视频文件吗？","当前仓库主要支持 YouTube 视频。对于本地视频，维护者推荐使用另一个项目 auto-subtitle（https:\u002F\u002Fgithub.com\u002Fm1guelpf\u002Fauto-subtitle），它支持生成 vtt 和 srt 格式字幕，并可选择将字幕嵌入视频。此外，也有用户提供了支持本地视频的 fork 版本（https:\u002F\u002Fgithub.com\u002Faichr\u002Fyt-whisper）。","https:\u002F\u002Fgithub.com\u002Fm1guelpf\u002Fyt-whisper\u002Fissues\u002F19",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},41241,"安装时出现 'git@github.com: Permission denied (publickey)' 错误怎么办？","该问题通常是因为 pip 尝试通过 SSH 协议克隆 openai\u002Fwhisper 依赖库，而用户未配置 SSH 密钥。维护者已在后续版本（PR #9）中修复了此问题。如果遇到此错误，请确保升级到最新版本。如果仍使用旧版本，可能需要配置 GitHub SSH 密钥或尝试使用 HTTPS 方式安装（但受限于 pip 处理机制，直接克隆可能不可行）。","https:\u002F\u002Fgithub.com\u002Fm1guelpf\u002Fyt-whisper\u002Fissues\u002F2",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},41242,"如何避免生成的字幕单行过长，实现自动换行？","目前该功能可作为增强特性通过 PR 贡献。手动解决方案是使用 SubtitleEdit 或 Aegisub 等专业字幕软件，它们内置了根据字符数（如每行不超过 42 个字符）和语义自动换行的功能。维护者表示欢迎提交添加此功能作为可选标志（flag）的 Pull Request。","https:\u002F\u002Fgithub.com\u002Fm1guelpf\u002Fyt-whisper\u002Fissues\u002F1",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},41243,"超过 1 小时的视频生成的字幕时间戳在 YouTube 上显示不正确怎么办？","YouTube 对超过 1 小时的 VTT 文件时间戳格式有特殊要求。维护者已添加了对 SRT 文件格式的支持，SRT 格式通常能更好地处理长视频时间戳。建议尝试生成 SRT 格式而非 VTT 格式上传。","https:\u002F\u002Fgithub.com\u002Fm1guelpf\u002Fyt-whisper\u002Fissues\u002F16",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},41244,"如何将英语视频翻译并生成韩语字幕？","该工具主要用于生成转录字幕。要实现翻译，流程如下：首先提取视频音频并使用 Whisper 生成英文字幕，然后使用第三方翻译模块将英文字幕翻译成韩语，最后将生成的韩语字幕应用到视频中。需注意确认目标语言（如韩语）是否在 Whisper 或所用翻译模块的支持列表中。","https:\u002F\u002Fgithub.com\u002Fm1guelpf\u002Fyt-whisper\u002Fissues\u002F34",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},41245,"安装时提示需要 Rust 编译器或找不到预构建 wheel 怎么办？","如果安装过程中提示需要 Rust 编译器，通常是因为 `tokenizers` 依赖包没有针对当前平台提供预构建的 wheel 文件。解决方法是安装 Rust 环境。请访问 https:\u002F\u002Frust-lang.org 下载并安装 Rust，然后再重新运行 pip 安装命令。","https:\u002F\u002Fgithub.com\u002Fm1guelpf\u002Fyt-whisper\u002Fissues\u002F15",[]]