[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-davabase--whisper_real_time":3,"similar-davabase--whisper_real_time":43},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":15,"owner_location":18,"owner_email":15,"owner_twitter":14,"owner_website":19,"owner_url":20,"languages":21,"stars":26,"forks":27,"last_commit_at":28,"license":15,"difficulty_score":29,"env_os":30,"env_gpu":31,"env_ram":31,"env_deps":32,"category_tags":36,"github_topics":15,"view_count":29,"oss_zip_url":15,"oss_zip_packed_at":15,"status":38,"created_at":39,"updated_at":40,"faqs":41,"releases":42},7348,"davabase\u002Fwhisper_real_time","whisper_real_time","Real time transcription with OpenAI Whisper.","whisper_real_time 是一个基于 OpenAI Whisper 模型打造的实时语音转文字工具。它致力于解决传统语音识别中常见的延迟问题，让用户能够即时看到说话内容转化为文本，特别适用于会议记录、直播字幕生成或实时对话辅助等场景。\n\n这款工具非常适合开发者和技术研究人员使用。如果你希望在自己的应用中集成低延迟的语音识别功能，或者想深入研究流式音频处理技术，whisper_real_time 提供了一个轻量且高效的参考实现。普通用户若具备基础的命令行操作能力，也可通过简单配置体验实时的语音转录服务。\n\n其核心技术亮点在于独特的音频处理机制：程序在后台线程中持续录制音频，并将多段录音的原始数据字节进行动态拼接，从而实现对连续语音流的无缝处理。这种设计避免了分段识别带来的上下文断裂，显著提升了长句和自然对话的识别流畅度。使用前只需安装 Python 依赖及系统级的 ffmpeg 工具即可快速启动。作为开源项目，它的代码完全公开，欢迎社区共同探索与改进。","# Real Time Whisper Transcription\n\n![Demo gif](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdavabase_whisper_real_time_readme_4809f9f8093b.gif)\n\nThis is a demo of real time speech to text with OpenAI's Whisper model. It works by constantly recording audio in a thread and concatenating the raw bytes over multiple recordings.\n\nTo install dependencies simply run\n```\npip install -r requirements.txt\n```\nin an environment of your choosing.\n\nWhisper also requires the command-line tool [`ffmpeg`](https:\u002F\u002Fffmpeg.org\u002F) to be installed on your system, which is available from most package managers:\n\n```\n# on Ubuntu or Debian\nsudo apt update && sudo apt install ffmpeg\n\n# on Arch Linux\nsudo pacman -S ffmpeg\n\n# on MacOS using Homebrew (https:\u002F\u002Fbrew.sh\u002F)\nbrew install ffmpeg\n\n# on Windows using Chocolatey (https:\u002F\u002Fchocolatey.org\u002F)\nchoco install ffmpeg\n\n# on Windows using Scoop (https:\u002F\u002Fscoop.sh\u002F)\nscoop install ffmpeg\n```\n\nFor more information on Whisper please see https:\u002F\u002Fgithub.com\u002Fopenai\u002Fwhisper\n\nThe code in this repository is public domain.","# 实时 Whisper 转录\n\n![演示 GIF](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdavabase_whisper_real_time_readme_4809f9f8093b.gif)\n\n这是一个使用 OpenAI 的 Whisper 模型实现的实时语音转文本演示。它通过在一个线程中持续录制音频，并将多次录制的原始字节流拼接起来工作。\n\n要安装依赖，只需在您选择的环境中运行：\n```\npip install -r requirements.txt\n```\n\nWhisper 还需要在您的系统上安装命令行工具 [`ffmpeg`](https:\u002F\u002Fffmpeg.org\u002F)。大多数包管理器都提供了该工具：\n\n```\n# 在 Ubuntu 或 Debian 上\nsudo apt update && sudo apt install ffmpeg\n\n# 在 Arch Linux 上\nsudo pacman -S ffmpeg\n\n# 在 macOS 上使用 Homebrew (https:\u002F\u002Fbrew.sh\u002F)\nbrew install ffmpeg\n\n# 在 Windows 上使用 Chocolatey (https:\u002F\u002Fchocolatey.org\u002F)\nchoco install ffmpeg\n\n# 在 Windows 上使用 Scoop (https:\u002F\u002Fscoop.sh\u002F)\nscoop install ffmpeg\n```\n\n有关 Whisper 的更多信息，请参阅 https:\u002F\u002Fgithub.com\u002Fopenai\u002Fwhisper\n\n此仓库中的代码属于公有领域。","# whisper_real_time 快速上手指南\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n- **Python 环境**：建议使用 Python 3.8 或更高版本。\n- **FFmpeg 工具**：Whisper 依赖命令行工具 `ffmpeg` 进行音频处理，必须预先安装。\n\n### 安装 FFmpeg\n\n根据您的操作系统，选择对应的安装命令：\n\n```bash\n# Ubuntu \u002F Debian\nsudo apt update && sudo apt install ffmpeg\n\n# Arch Linux\nsudo pacman -S ffmpeg\n\n# MacOS (需先安装 Homebrew)\nbrew install ffmpeg\n\n# Windows (Chocolatey)\nchoco install ffmpeg\n\n# Windows (Scoop)\nscoop install ffmpeg\n```\n\n> **国内用户提示**：如果使用 `apt`、`brew` 或 `pip` 下载速度较慢，建议切换至国内镜像源（如清华源、阿里源）以加速安装过程。\n\n## 安装步骤\n\n1. 克隆项目代码到本地（如果尚未获取）。\n2. 进入项目目录，创建并激活虚拟环境（推荐）。\n3. 安装 Python 依赖包。为提高下载速度，国内用户可使用清华源：\n\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n安装完成后，即可运行脚本启动实时语音转文字功能。该工具会在后台线程持续录制音频，并将数据片段拼接后送入 Whisper 模型进行转录。\n\n最简单的运行方式如下（假设主脚本名为 `main.py`，具体文件名请以实际仓库为准）：\n\n```bash\npython main.py\n```\n\n运行后，对着麦克风说话，终端将实时输出转录的文本内容。","一位远程医疗顾问需要在视频问诊过程中，实时将医生的口述诊断和建议转化为文字记录，以便即时生成电子病历并发送给患者确认。\n\n### 没有 whisper_real_time 时\n- 医生必须在问诊结束后花费额外时间手动回忆并补录诊断内容，导致每日工作时长被迫延长。\n- 依赖人工速记员或昂贵的第三方实时转写服务，大幅增加了诊所的运营成本。\n- 网络波动时传统流式转录容易出现丢字、断句，导致关键用药剂量或医嘱记录不准确。\n- 患者无法在对话进行中通过屏幕共享看到实时文字，听障人士或噪音环境下的沟通效率极低。\n- 录音文件需要事后统一批量处理，无法在问诊结束的当下立即归档到医疗系统中。\n\n### 使用 whisper_real_time 后\n- 借助其线程持续录制与字节拼接技术，医生口述的同时屏幕上即同步生成高精度文本，实现“说完即存档”。\n- 基于开源 Whisper 模型本地部署，消除了按分钟计费的云服务开销，仅需一次性硬件投入。\n- 利用多段录音拼接机制有效平滑了网络抖动带来的影响，确保医学术语和数字记录的连续性与完整性。\n- 咨询双方可实时看到转录结果，患者能当场核对信息，显著提升了医患沟通的透明度与信任感。\n- 生成的文本流可直接通过 API 对接医院信息系统，问诊结束瞬间即可完成病历结构化入库。\n\nwhisper_real_time 通过将高精度的离线语音识别能力引入实时流，彻底重构了医疗场景下“听”与“记”的工作流，让专业服务更专注、更高效。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdavabase_whisper_real_time_60db5b36.png","davabase",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdavabase_4588ed94.png","Space internet engineer and hobbyist game developer.","Los Angeles","davabase.net","https:\u002F\u002Fgithub.com\u002Fdavabase",[22],{"name":23,"color":24,"percentage":25},"Python","#3572A5",100,2919,484,"2026-04-07T05:56:11",2,"Linux, macOS, Windows","未说明",{"notes":33,"python":31,"dependencies":34},"必须安装命令行工具 ffmpeg，可通过各操作系统的包管理器（如 apt、pacman、brew、choco、scoop）进行安装。项目通过 pip install -r requirements.txt 安装 Python 依赖，具体库列表需查看 requirements.txt 文件。",[35],"ffmpeg",[37],"音频","ready","2026-03-27T02:49:30.150509","2026-04-14T12:30:14.291347",[],[],[44,60,69,77,85,93],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":29,"last_commit_at":50,"category_tags":51,"status":38},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[52,53,54,55,56,57,58,59,37],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架",{"id":61,"name":62,"github_repo":63,"description_zh":64,"stars":65,"difficulty_score":66,"last_commit_at":67,"category_tags":68,"status":38},4128,"GPT-SoVITS","RVC-Boss\u002FGPT-SoVITS","GPT-SoVITS 是一款强大的开源语音合成与声音克隆工具，旨在让用户仅需极少量的音频数据即可训练出高质量的个性化语音模型。它核心解决了传统语音合成技术依赖海量录音数据、门槛高且成本大的痛点，实现了“零样本”和“少样本”的快速建模：用户只需提供 5 秒参考音频即可即时生成语音，或使用 1 分钟数据进行微调，从而获得高度逼真且相似度极佳的声音效果。\n\n该工具特别适合内容创作者、独立开发者、研究人员以及希望为角色配音的普通用户使用。其内置的友好 WebUI 界面集成了人声伴奏分离、自动数据集切片、中文语音识别及文本标注等辅助功能，极大地降低了数据准备和模型训练的技术门槛，让非专业人士也能轻松上手。\n\n在技术亮点方面，GPT-SoVITS 不仅支持中、英、日、韩、粤语等多语言跨语种合成，还具备卓越的推理速度，在主流显卡上可实现实时甚至超实时的生成效率。无论是需要快速制作视频配音，还是进行多语言语音交互研究，GPT-SoVITS 都能以极低的数据成本提供专业级的语音合成体验。",56375,3,"2026-04-05T22:15:46",[37],{"id":70,"name":71,"github_repo":72,"description_zh":73,"stars":74,"difficulty_score":66,"last_commit_at":75,"category_tags":76,"status":38},2863,"TTS","coqui-ai\u002FTTS","🐸TTS 是一款功能强大的深度学习文本转语音（Text-to-Speech）开源库，旨在将文字自然流畅地转化为逼真的人声。它解决了传统语音合成技术中声音机械生硬、多语言支持不足以及定制门槛高等痛点，让高质量的语音生成变得触手可及。\n\n无论是希望快速集成语音功能的开发者，还是致力于探索前沿算法的研究人员，亦或是需要定制专属声音的数据科学家，🐸TTS 都能提供得力支持。它不仅预置了覆盖全球 1100 多种语言的训练模型，让用户能够即刻上手，还提供了完善的工具链，支持用户利用自有数据训练新模型或对现有模型进行微调，轻松实现特定风格的声音克隆。\n\n在技术亮点方面，🐸TTS 表现卓越。其最新的 ⓍTTSv2 模型支持 16 种语言，并在整体性能上大幅提升，实现了低于 200 毫秒的超低延迟流式输出，极大提升了实时交互体验。此外，它还无缝集成了 🐶Bark、🐢Tortoise 等社区热门模型，并支持调用上千个 Fairseq 模型，展现了极强的兼容性与扩展性。配合丰富的数据集分析与整理工具，🐸TTS 已成为科研与生产环境中备受信赖的语音合成解决方案。",44971,"2026-04-03T14:47:02",[37,59,52],{"id":78,"name":79,"github_repo":80,"description_zh":81,"stars":82,"difficulty_score":66,"last_commit_at":83,"category_tags":84,"status":38},2375,"LocalAI","mudler\u002FLocalAI","LocalAI 是一款开源的本地人工智能引擎，旨在让用户在任意硬件上轻松运行各类 AI 模型，包括大语言模型、图像生成、语音识别及视频处理等。它的核心优势在于彻底打破了高性能计算的门槛，无需昂贵的专用 GPU，仅凭普通 CPU 或常见的消费级显卡（如 NVIDIA、AMD、Intel 及 Apple Silicon）即可部署和运行复杂的 AI 任务。\n\n对于担心数据隐私的用户而言，LocalAI 提供了“隐私优先”的解决方案，确保所有数据处理均在本地基础设施内完成，无需上传至云端。同时，它完美兼容 OpenAI、Anthropic 等主流 API 接口，这意味着开发者可以无缝迁移现有应用，直接利用本地资源替代云服务，既降低了成本又提升了可控性。\n\nLocalAI 内置了超过 35 种后端支持（如 llama.cpp、vLLM、Whisper 等），并集成了自主 AI 代理、工具调用及检索增强生成（RAG）等高级功能，且具备多用户管理与权限控制能力。无论是希望保护敏感数据的企业开发者、进行算法实验的研究人员，还是想要在个人电脑上体验最新 AI 技术的极客玩家，都能通过 LocalAI 获",44782,"2026-04-02T22:14:26",[52,37,58,56,59,53,55],{"id":86,"name":87,"github_repo":88,"description_zh":89,"stars":90,"difficulty_score":66,"last_commit_at":91,"category_tags":92,"status":38},3108,"bark","suno-ai\u002Fbark","Bark 是由 Suno 推出的开源生成式音频模型，能够根据文本提示创造出高度逼真的多语言语音、音乐、背景噪音及简单音效。与传统仅能朗读文字的语音合成工具不同，Bark 基于 Transformer 架构，不仅能模拟说话，还能生成笑声、叹息、哭泣等非语言声音，甚至能处理带有情感色彩和语气停顿的复杂文本，极大地丰富了音频表达的可能性。\n\n它主要解决了传统语音合成声音机械、缺乏情感以及无法生成非语音类音效的痛点，让创作者能通过简单的文字描述获得生动自然的音频素材。无论是需要为视频配音的内容创作者、探索多模态生成的研究人员，还是希望快速原型设计的开发者，都能从中受益。普通用户也可通过集成的演示页面轻松体验其神奇效果。\n\n技术亮点方面，Bark 支持商业使用（MIT 许可），并在近期更新中实现了显著的推理速度提升，同时提供了适配低显存 GPU 的版本，降低了使用门槛。此外，社区还建立了丰富的提示词库，帮助用户更好地驾驭模型生成特定风格的声音。只需几行 Python 代码，即可将创意文本转化为高质量音频，是连接文字与声音世界的强大桥梁。",39067,"2026-04-04T03:33:35",[37],{"id":94,"name":95,"github_repo":96,"description_zh":97,"stars":98,"difficulty_score":66,"last_commit_at":99,"category_tags":100,"status":38},5908,"ChatTTS","2noise\u002FChatTTS","ChatTTS 是一款专为日常对话场景打造的生成式语音模型，特别适用于大语言模型助手等交互式应用。它主要解决了传统文本转语音（TTS）技术在对话中缺乏自然感、情感表达单一以及难以处理停顿、笑声等细微语气的问题，让机器生成的语音听起来更像真人在聊天。\n\n这款工具非常适合开发者、研究人员以及希望为应用增添自然语音交互功能的设计师使用。普通用户也可以通过社区开发的衍生产品体验其能力。ChatTTS 的核心亮点在于其对对话任务的深度优化：它不仅支持中英文双语，还能精准控制韵律细节，自动生成自然的 laughter（笑声）、pauses（停顿）和 interjections（插入语），从而实现多说话人的互动对话效果。在韵律表现上，ChatTTS 超越了大多数开源 TTS 模型。目前开源版本基于 4 万小时数据预训练而成，虽主要用于学术研究与教育目的，但已展现出强大的潜力，并支持流式音频生成与零样本推理，为后续的多情绪控制等进阶功能奠定了基础。",39042,"2026-04-09T11:54:03",[58,56,59,37]]