[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-wwbin2017--bailing":3,"tool-wwbin2017--bailing":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":74,"owner_company":74,"owner_location":74,"owner_email":74,"owner_twitter":74,"owner_website":74,"owner_url":76,"languages":77,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":10,"env_os":90,"env_gpu":91,"env_ram":90,"env_deps":92,"category_tags":103,"github_topics":105,"view_count":32,"oss_zip_url":74,"oss_zip_packed_at":74,"status":17,"created_at":117,"updated_at":118,"faqs":119,"releases":154},8759,"wwbin2017\u002Fbailing","bailing","百聆 是一个类似GPT-4o的语音对话机器人，通过ASR+LLM+TTS实现，集成DeepSeek R1等优秀大模型，接入openClaw，真正的个人语音助手，时延低至800ms，Mac等低配置也可运行，支持打断","百聆（Bailing）是一款开源的语音对话助手，旨在让普通用户也能在本地设备上拥有类似 GPT-4o 的自然语音交互体验。它通过整合语音识别（ASR）、大语言模型（LLM）和语音合成（TTS）技术，解决了传统语音助手依赖云端、延迟高、隐私顾虑重以及硬件门槛高等痛点。\n\n百聆特别适合希望保护隐私、追求低延迟交互的普通用户，同时也为开发者提供了一个模块化、可高度定制的语音 AI 开发框架。其独特亮点在于端到端延迟低至 800ms，支持实时打断对话，且无需高端 GPU 即可在 Mac 等低配置设备上流畅运行。此外，百聆深度集成了 OpenClaw 引擎，不仅能“聊天”，更能通过语音调用外部工具执行搜索、任务管理等复杂操作，真正从“对话机器人”进化为“行动型助手”。项目完全开源，社区活跃，是构建个人专属 JARVIS 的理想起点。","# 百聆 (Bailing)\n\n\u003Cspan>[ 中文 | \u003Ca href=\"README_en.md\">English\u003C\u002Fa> ]\u003C\u002Fspan>\n\n**百聆** 是一个开源的语音对话助手，旨在通过语音与用户进行自然的对话。该项目结合了语音识别 (ASR)、语音活动检测 (VAD)、大语言模型 (LLM) 和语音合成 (TTS) 技术，这是一个类似GPT-4o的语音对话机器人，通过ASR+LLM+TTS实现，提供高质量的语音对话体验，端到端时延800ms。百聆旨在无需GPU的情况下，实现类GPT-4o的对话效果，适用于各种边缘设备和低资源环境。\n\n![logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwwbin2017_bailing_readme_dc586cffb4de.png)\n\n## 项目特点\n\n- 🚀 **流畅对话体验**：低延迟、不卡顿，几乎像真人对话一样自然，百聆使用了多个开源模型，确保高效、可靠的语音对话体验。\n- 🖥 **轻量级部署**：无需高端硬件，甚至不需要 GPU，通过优化，可本地部署，仍能提供类GPT-4的性能表现。\n- 🔧 **模块化设计**：ASR、VAD、LLM和TTS模块相互独立，可以根据需求进行替换和升级。\n- 🧠 **智能记忆功能**：具备持续学习能力，能够记忆用户的偏好与历史对话，提供个性化的互动体验。\n- 🛠 **工具调用能力**：灵活集成外部工具，用户可通过语音直接请求信息或执行操作，提升助手的实用性。  \n- 📅 **任务管理**：高效管理用户任务，能够跟踪进度、设置提醒，并提供动态更新，确保用户不错过任何重要事项。 \n- 🌐 **可扩展生态**：除 OpenClaw 外，也支持逐步接入更多外部工具与 Agent 能力\n\n## 为什么重点支持 OpenClaw\n百聆不仅是一个“能说话”的助手，更是一个“能做事”的助手。\n我们将 OpenClaw 作为核心工具调用引擎之一，用来处理复杂任务、外部工具编排和高阶 Agent 能力。\n通过 OpenClaw，百聆可以：\n- 将用户的自然语言请求转换为可执行任务\n- 在对话中调用外部工具完成搜索、分析、操作等动作\n- 处理更复杂的多步骤任务\n- 让语音助手从“聊天机器人”升级为“行动型助手”\n\n换句话说，OpenClaw 是百聆走向 JARVIS 化的重要一层。\n\n## 感谢开源社区\n百聆的诞生，离不开开源社区的无私贡献。\n\n感谢 DeepSeek、FunASR、Silero-VAD、ChatTTS、openclaw 等优秀的开源项目，\n让我们有机会打造一个真正 开放、强大、低门槛 的语音 AI 助手！\n\n如果你也认同 让 AI 触手可及 的理念，欢迎一起贡献代码、优化模型，\n让百聆更强、更智能，成为真正的 JARVIS！\n\n📢 欢迎 Star & PR\n\n\n## 项目简介\n\n百聆通过以下技术组件实现语音对话功能：\n\n- 🎙 **ASR**: 使用 [FunASR](https:\u002F\u002Fgithub.com\u002Fmodelscope\u002FFunASR) 进行自动语音识别，将用户的语音转换为文本。\n- 🎚 **VAD**: 使用 [silero-vad](https:\u002F\u002Fgithub.com\u002Fsnakers4\u002Fsilero-vad) 进行语音活动检测，以确保只处理有效的语音片段。\n- 🧠 **LLM**: 使用 [deepseek](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-LLM) 作为大语言模型来处理用户输入并生成响应，极具性价比。\n- 🔊 **TTS**: 使用 [edge-tts](https:\u002F\u002Fgithub.com\u002Frany2\u002Fedge-tts) [Kokoro-82M](https:\u002F\u002Fhuggingface.co\u002Fhexgrad\u002FKokoro-82M) [ChatTTS](https:\u002F\u002Fgithub.com\u002F2noise\u002FChatTTS) MacOS say进行文本到语音的转换，将生成的文本响应转换为自然流畅的语音。\n\n\n## 框架说明\n\n![百聆流程图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwwbin2017_bailing_readme_3b335c095f3f.png)\n\nRobot 负责高效的任务管理与记忆管理，能够智能地处理用户的打断请求，同时实现各个模块之间的无缝协调与连接，以确保流畅的交互体验。\n\n| 播放器状态 | 是否说话 | 说明 |\n|----------|----------|----------|\n| 播放中 | 未说话 | 正常 |\n| 播放中 | 说话 | 打断场景 |\n| 未播放| 未说话 | 正常 |\n| 未播放| 说话 | VAD判断，ASR识别 |\n\n## Demo\n\n![Demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwwbin2017_bailing_readme_bce8a67f0255.png)\n\n\n## 功能特性\n\n- **语音输入**：通过 FunASR 进行准确的语音识别。\n- **语音活动检测**：使用 silero-vad 过滤无效音频，提升识别效率。\n- **智能对话生成**：依靠 deepseek 提供的强大语言理解能力生成自然的文本回复，极具性价比。\n- **语音输出**：通过 edge-tts Kokoro-82M 将文本转为语音，为用户提供逼真的听觉反馈。\n- **支持打断**：灵活配置打断策略，能够识别关键字和语音打断，确保用户在对话中的即时反馈与控制，提高交互流畅度。\n- **支持记忆功能**: 具备持续学习能力，能够记忆用户的偏好与历史对话，提供个性化的互动体验。\n- **支持工具调用**: 灵活集成外部工具，用户可通过语音直接请求信息或执行操作，提升助手的实用性。特别是通过 OpenClaw 统一接入工具、任务和复杂动作执行\n- **支持任务管理**: 高效管理用户任务，能够跟踪进度、设置提醒，并提供动态更新，确保用户不错过任何重要事项。\n\n## 项目优势\n\n- **高质量语音对话**：整合了优秀的ASR、LLM和TTS技术，确保语音对话的流畅性和准确性。\n- **轻量化设计**：无需高性能硬件即可运行，适用于资源受限的环境。\n- **OpenClaw 深度集成**：不仅支持工具调用，而且将 OpenClaw 作为核心执行层之一。\n- **完全开源**：百聆完全开源，鼓励社区贡献与二次开发。\n\n## 安装与运行\n\n### 依赖环境\n\n请确保你的开发环境中安装了以下工具和库：\n\n- Python 3.12 或更高版本\n- `pip` 包管理器\n- FunASR、silero-vad、deepseek、edge-tts Kokoro-82M 所需的依赖库\n\n### 安装步骤\n\n1. 克隆项目仓库：\n\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fwwbin2017\u002Fbailing.git\n    cd bailing\n    ```\n\n2. 安装所需依赖：\n\n    ```bash\n    pip install -r requirements.txt\n    pip install -r third_party\u002FOpenManus\u002Frequirements.txt \n    ```\n\n3. 配置环境变量：\n\n     - 打开config\u002Fconfig.yaml 配置ASR LLM等相关配置\n     - 下载SenseVoiceSmall到目录models\u002FSenseVoiceSmall [SenseVoiceSmall下载地址](https:\u002F\u002Fhuggingface.co\u002FFunAudioLLM\u002FSenseVoiceSmall\u002Ftree\u002Fmain)\n     - 去deepseek官网，获取配置api_key，[deepseek获取api_key](https:\u002F\u002Fplatform.deepseek.com\u002Fapi_keys)，当然也可以配置openai、qwen、gemini、01yi等其他模型\n     - 如果需要使用通用AIGC配置（测试中），不可用的话，可以使用tag 分支 v0.0.1 v0.0.2 \n       - \u002Fthird_party\u002FOpenManus\u002Fconfig\u002Fconfig.toml  需要配置里面的 model、base_url、api_key \n     - 为支持openclaw，需要修改config\u002F.env，配置openclaw Auth权限\n4. 运行项目：\n   \n   支持本地运行与服务器运行，推荐使用服务器运行该项目，可通过移动端进行对话，推荐 4.2 服务器运行\n   \n   4.1 本地运行\n    ```bash \n    cd server\n    python server.py # 启动后端服务，也可不执行这一步\n    ```\n    \n    ```bash\n    python main.py\n    ```\n   \n   4.2 服务器运行（推荐）\n\n   生成自签名证书 (开发环境)\n    ```\n   openssl req -x509 -newkey rsa:4096 -keyout key.pem -out cert.pem -days 365 -nodes\n   ```\n   启动服务\n    ```\n   python server.py # 不需要cd server\n   ```\n   打开浏览器 http:\u002F\u002Flocalhost:8000 点击开始按钮，进行语音对话\n\n## 使用说明\n\n1. 启动应用后，系统会等待语音输入。\n2. 通过 FunASR 将用户语音转为文本。\n3. silero-vad 进行语音活动检测，确保只处理有效语音。\n4. deepseek 处理文本输入，并生成智能回复。\n5. edge-tts, Kokoro-82M, ChatTTS, MacOs say 将生成的文本转换为语音，并播放给用户。\n\n\n## Roadmap\n\n- [x] 基本语音对话功能\n- [x] 支持插件调用\n- [x] 任务管理\n- [x] Rag & Agent\n- [x] Memory\n- [x] OpenClaw 接入\n- [ ] 支持语音唤醒\n- [x] 支持WebRTC\u002FWebSocket\n\n未来，百聆将升华为一款类JARVIS个人助手，仿佛一位贴心的智囊，具备无与伦比的记忆力与前瞻性的任务管理能力。依托于尖端的RAG与Agent技术，它将精确掌控您的事务与知识，化繁为简。只需轻声一语，例如“帮我查找最近新闻”或“总结大模型的最新进展”，百聆便会迅速响应，智能分析，实时跟踪，并将成果优雅地呈现给您。想象一下，您拥有的不仅是一名助手，而是一个深谙您需求的智慧伙伴，伴您在未来的每个重要瞬间，助您洞察万象，决胜千里。\n\n## 支持的工具\n\n| 函数名                 | 描述                      | 功能                              | 示例                                                         |\n|---------------------|-------------------------|---------------------------------|--------------------------------------------------------------|\n| `get_weather`       | 获取某个地点的天气信息             | 提供地点名称后，返回该地点的天气情况              | 用户说：“杭州天气怎么样？” → `zhejiang\u002Fhangzhou`             |\n| `ielts_speaking_practice` | IELTS（雅思）口语练习           | 生成雅思口语练习题目和对话，帮助用户进行雅思口语练习      | -                                                            |\n| `get_day_of_week`   | 获取当前的星期几或日期             | 当用户询问当前时间、日期或者星期几时，返回相应的信息      | 用户说：“今天星期几？” → 返回当前的星期几                    |\n| `schedule_task`     | 创建一个定时任务                | 用户可以指定任务的执行时间和内容，定时提醒用户         | 用户说：“每天早上8点提醒我喝水。” → `time: '08:00', content: '提醒我喝水'` |\n| `open_application`  | 在 Mac 电脑上打开指定的应用程序      | 用户可以指定应用程序的名称，脚本将在 Mac 上启动相应的应用 | 用户说：“打开Safari。” → `application_name: 'Safari'`        |\n| `web_search`        | 在网上搜索指定的关键词             | 根据用户提供的搜索内容，返回相应的搜索结果           | 用户说：“搜索最新的科技新闻。” → `query: '最新的科技新闻'`    |\n| `aigc`              | 可以做任何事情通用型ai，接入openclaw | 要执行的任务描述，返回任务执行的结果。             | 用户说：“分析特定股票的市场趋势” → `query: '分析特定股票的市场趋势'`    |\n\n\n\n## 贡献指南\n\n欢迎任何形式的贡献！如果你对百聆项目有改进建议或发现问题，请通过 [GitHub Issues](https:\u002F\u002Fgithub.com\u002Fwwbin2017\u002Fbailing\u002Fissues) 进行反馈或提交 Pull Request。\n\n## 开源协议\n\n该项目基于 [MIT 许可证](LICENSE) 开源。你可以自由地使用、修改和分发此项目，但需要保留原始许可证声明。\n\n## 联系方式\n\n如有任何疑问或建议，请联系：\n\n- GitHub Issues: [项目问题追踪](https:\u002F\u002Fgithub.com\u002Fwwbin2017\u002Fbailing\u002Fissues)\n\n---\n\n## 免责声明\n\n百聆 (Bailing) 是一个开源项目，旨在用于个人学习和研究目的。使用本项目时，请注意以下免责声明：\n\n1. **个人用途**：本项目仅用于个人学习和研究，不适用于商业用途或生产环境。\n2. **风险和责任**：使用百聆 (Bailing) 可能会导致数据丢失、系统故障或其他问题。我们对因使用本项目而导致的任何损失、损害或问题不承担任何责任。\n3. **支持**：本项目不提供任何形式的技术支持或保证。用户应自行承担使用本项目的风险。\n\n在使用本项目之前，请确保您已了解并接受这些免责声明。如果您不同意这些条款，请不要使用本项目。\n\n感谢您的理解与支持！\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwwbin2017_bailing_readme_25a08344d4e1.png)](https:\u002F\u002Fstar-history.com\u002F#wwbin2017\u002Fbailing&Date)\n","# 百聆 (Bailing)\n\n\u003Cspan>[ 中文 | \u003Ca href=\"README_en.md\">English\u003C\u002Fa> ]\u003C\u002Fspan>\n\n**百聆** 是一个开源的语音对话助手，旨在通过语音与用户进行自然的对话。该项目结合了语音识别 (ASR)、语音活动检测 (VAD)、大语言模型 (LLM) 和语音合成 (TTS) 技术，这是一个类似GPT-4o的语音对话机器人，通过ASR+LLM+TTS实现，提供高质量的语音对话体验，端到端时延800ms。百聆旨在无需GPU的情况下，实现类GPT-4o的对话效果，适用于各种边缘设备和低资源环境。\n\n![logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwwbin2017_bailing_readme_dc586cffb4de.png)\n\n## 项目特点\n\n- 🚀 **流畅对话体验**：低延迟、不卡顿，几乎像真人对话一样自然，百聆使用了多个开源模型，确保高效、可靠的语音对话体验。\n- 🖥 **轻量级部署**：无需高端硬件，甚至不需要 GPU，通过优化，可本地部署，仍能提供类GPT-4的性能表现。\n- 🔧 **模块化设计**：ASR、VAD、LLM和TTS模块相互独立，可以根据需求进行替换和升级。\n- 🧠 **智能记忆功能**：具备持续学习能力，能够记忆用户的偏好与历史对话，提供个性化的互动体验。\n- 🛠 **工具调用能力**：灵活集成外部工具，用户可通过语音直接请求信息或执行操作，提升助手的实用性。  \n- 📅 **任务管理**：高效管理用户任务，能够跟踪进度、设置提醒，并提供动态更新，确保用户不错过任何重要事项。 \n- 🌐 **可扩展生态**：除 OpenClaw 外，也支持逐步接入更多外部工具与 Agent 能力\n\n## 为什么重点支持 OpenClaw\n百聆不仅是一个“能说话”的助手，更是一个“能做事”的助手。\n我们将 OpenClaw 作为核心工具调用引擎之一，用来处理复杂任务、外部工具编排和高阶 Agent 能力。\n通过 OpenClaw，百聆可以：\n- 将用户的自然语言请求转换为可执行任务\n- 在对话中调用外部工具完成搜索、分析、操作等动作\n- 处理更复杂的多步骤任务\n- 让语音助手从“聊天机器人”升级为“行动型助手”\n\n换句话说，OpenClaw 是百聆走向 JARVIS 化的重要一层。\n\n## 感谢开源社区\n百聆的诞生，离不开开源社区的无私贡献。\n\n感谢 DeepSeek、FunASR、Silero-VAD、ChatTTS、openclaw 等优秀的开源项目，\n让我们有机会打造一个真正 开放、强大、低门槛 的语音 AI 助手！\n\n如果你也认同 让 AI 触手可及 的理念，欢迎一起贡献代码、优化模型，\n让百聆更强、更智能，成为真正的 JARVIS！\n\n📢 欢迎 Star & PR\n\n\n## 项目简介\n\n百聆通过以下技术组件实现语音对话功能：\n\n- 🎙 **ASR**: 使用 [FunASR](https:\u002F\u002Fgithub.com\u002Fmodelscope\u002FFunASR) 进行自动语音识别，将用户的语音转换为文本。\n- 🎚 **VAD**: 使用 [silero-vad](https:\u002F\u002Fgithub.com\u002Fsnakers4\u002Fsilero-vad) 进行语音活动检测，以确保只处理有效的语音片段。\n- 🧠 **LLM**: 使用 [deepseek](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-LLM) 作为大语言模型来处理用户输入并生成响应，极具性价比。\n- 🔊 **TTS**: 使用 [edge-tts](https:\u002F\u002Fgithub.com\u002Frany2\u002Fedge-tts) [Kokoro-82M](https:\u002F\u002Fhuggingface.co\u002Fhexgrad\u002FKokoro-82M) [ChatTTS](https:\u002F\u002Fgithub.com\u002F2noise\u002FChatTTS) MacOS say进行文本到语音的转换，将生成的文本响应转换为自然流畅的语音。\n\n\n## 框架说明\n\n![百聆流程图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwwbin2017_bailing_readme_3b335c095f3f.png)\n\nRobot 负责高效的任务管理与记忆管理，能够智能地处理用户的打断请求，同时实现各个模块之间的无缝协调与连接，以确保流畅的交互体验。\n\n| 播放器状态 | 是否说话 | 说明 |\n|----------|----------|----------|\n| 播放中 | 未说话 | 正常 |\n| 播放中 | 说话 | 打断场景 |\n| 未播放| 未说话 | 正常 |\n| 未播放| 说话 | VAD判断，ASR识别 |\n\n## Demo\n\n![Demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwwbin2017_bailing_readme_bce8a67f0255.png)\n\n\n## 功能特性\n\n- **语音输入**：通过 FunASR 进行准确的语音识别。\n- **语音活动检测**：使用 silero-vad 过滤无效音频，提升识别效率。\n- **智能对话生成**：依靠 deepseek 提供的强大语言理解能力生成自然的文本回复，极具性价比。\n- **语音输出**：通过 edge-tts Kokoro-82M 将文本转为语音，为用户提供逼真的听觉反馈。\n- **支持打断**：灵活配置打断策略，能够识别关键字和语音打断，确保用户在对话中的即时反馈与控制，提高交互流畅度。\n- **支持记忆功能**: 具备持续学习能力，能够记忆用户的偏好与历史对话，提供个性化的互动体验。\n- **支持工具调用**: 灵活集成外部工具，用户可通过语音直接请求信息或执行操作，提升助手的实用性。特别是通过 OpenClaw 统一接入工具、任务和复杂动作执行\n- **支持任务管理**: 高效管理用户任务，能够跟踪进度、设置提醒，并提供动态更新，确保用户不错过任何重要事项。\n\n## 项目优势\n\n- **高质量语音对话**：整合了优秀的ASR、LLM和TTS技术，确保语音对话的流畅性和准确性。\n- **轻量化设计**：无需高性能硬件即可运行，适用于资源受限的环境。\n- **OpenClaw 深度集成**：不仅支持工具调用，而且将 OpenClaw 作为核心执行层之一。\n- **完全开源**：百聆完全开源，鼓励社区贡献与二次开发。\n\n## 安装与运行\n\n### 依赖环境\n\n请确保你的开发环境中安装了以下工具和库：\n\n- Python 3.12 或更高版本\n- `pip` 包管理器\n- FunASR、silero-vad、deepseek、edge-tts Kokoro-82M 所需的依赖库\n\n### 安装步骤\n\n1. 克隆项目仓库：\n\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fwwbin2017\u002Fbailing.git\n    cd bailing\n    ```\n\n2. 安装所需依赖：\n\n    ```bash\n    pip install -r requirements.txt\n    pip install -r third_party\u002FOpenManus\u002Frequirements.txt \n    ```\n\n3. 配置环境变量：\n\n     - 打开config\u002Fconfig.yaml 配置ASR LLM等相关配置\n     - 下载SenseVoiceSmall到目录models\u002FSenseVoiceSmall [SenseVoiceSmall下载地址](https:\u002F\u002Fhuggingface.co\u002FFunAudioLLM\u002FSenseVoiceSmall\u002Ftree\u002Fmain)\n     - 去deepseek官网，获取配置api_key，[deepseek获取api_key](https:\u002F\u002Fplatform.deepseek.com\u002Fapi_keys)，当然也可以配置openai、qwen、gemini、01yi等其他模型\n     - 如果需要使用通用AIGC配置（测试中），不可用的话，可以使用tag 分支 v0.0.1 v0.0.2 \n       - \u002Fthird_party\u002FOpenManus\u002Fconfig\u002Fconfig.toml  需要配置里面的 model、base_url、api_key \n     - 为支持openclaw，需要修改config\u002F.env，配置openclaw Auth权限\n4. 运行项目：\n   \n   支持本地运行与服务器运行，推荐使用服务器运行该项目，可通过移动端进行对话，推荐 4.2 服务器运行\n   \n   4.1 本地运行\n    ```bash \n    cd server\n    python server.py # 启动后端服务，也可不执行这一步\n    ```\n    \n    ```bash\n    python main.py\n    ```\n   \n   4.2 服务器运行（推荐）\n\n   生成自签名证书 (开发环境)\n    ```\n   openssl req -x509 -newkey rsa:4096 -keyout key.pem -out cert.pem -days 365 -nodes\n   ```\n   启动服务\n    ```\n   python server.py # 不需要cd server\n   ```\n   打开浏览器 http:\u002F\u002Flocalhost:8000 点击开始按钮，进行语音对话\n\n## 使用说明\n\n1. 启动应用后，系统会等待语音输入。\n2. 通过 FunASR 将用户语音转为文本。\n3. silero-vad 进行语音活动检测，确保只处理有效语音。\n4. deepseek 处理文本输入，并生成智能回复。\n5. edge-tts, Kokoro-82M, ChatTTS, MacOs say 将生成的文本转换为语音，并播放给用户。\n\n\n## Roadmap\n\n- [x] 基本语音对话功能\n- [x] 支持插件调用\n- [x] 任务管理\n- [x] Rag & Agent\n- [x] Memory\n- [x] OpenClaw 接入\n- [ ] 支持语音唤醒\n- [x] 支持WebRTC\u002FWebSocket\n\n未来，百聆将升华为一款类JARVIS个人助手，仿佛一位贴心的智囊，具备无与伦比的记忆力与前瞻性的任务管理能力。依托于尖端的RAG与Agent技术，它将精确掌控您的事务与知识，化繁为简。只需轻声一语，例如“帮我查找最近新闻”或“总结大模型的最新进展”，百聆便会迅速响应，智能分析，实时跟踪，并将成果优雅地呈现给您。想象一下，您拥有的不仅是一名助手，而是一个深谙您需求的智慧伙伴，伴您在未来的每个重要瞬间，助您洞察万象，决胜千里。\n\n## 支持的工具\n\n| 函数名                 | 描述                      | 功能                              | 示例                                                         |\n|---------------------|-------------------------|---------------------------------|--------------------------------------------------------------|\n| `get_weather`       | 获取某个地点的天气信息             | 提供地点名称后，返回该地点的天气情况              | 用户说：“杭州天气怎么样？” → `zhejiang\u002Fhangzhou`             |\n| `ielts_speaking_practice` | IELTS（雅思）口语练习           | 生成雅思口语练习题目和对话，帮助用户进行雅思口语练习      | -                                                            |\n| `get_day_of_week`   | 获取当前的星期几或日期             | 当用户询问当前时间、日期或者星期几时，返回相应的信息      | 用户说：“今天星期几？” → 返回当前的星期几                    |\n| `schedule_task`     | 创建一个定时任务                | 用户可以指定任务的执行时间和内容，定时提醒用户         | 用户说：“每天早上8点提醒我喝水。” → `time: '08:00', content: '提醒我喝水'` |\n| `open_application`  | 在 Mac 电脑上打开指定的应用程序      | 用户可以指定应用程序的名称，脚本将在 Mac 上启动相应的应用 | 用户说：“打开Safari。” → `application_name: 'Safari'`        |\n| `web_search`        | 在网上搜索指定的关键词             | 根据用户提供的搜索内容，返回相应的搜索结果           | 用户说：“搜索最新的科技新闻。” → `query: '最新的科技新闻'`    |\n| `aigc`              | 可以做任何事情通用型ai，接入openclaw | 要执行的任务描述，返回任务执行的结果。             | 用户说：“分析特定股票的市场趋势” → `query: '分析特定股票的市场趋势'`    |\n\n\n\n## 贡献指南\n\n欢迎任何形式的贡献！如果你对百聆项目有改进建议或发现问题，请通过 [GitHub Issues](https:\u002F\u002Fgithub.com\u002Fwwbin2017\u002Fbailing\u002Fissues) 进行反馈或提交 Pull Request。\n\n## 开源协议\n\n该项目基于 [MIT 许可证](LICENSE) 开源。你可以自由地使用、修改和分发此项目，但需要保留原始许可证声明。\n\n## 联系方式\n\n如有任何疑问或建议，请联系：\n\n- GitHub Issues: [项目问题追踪](https:\u002F\u002Fgithub.com\u002Fwwbin2017\u002Fbailing\u002Fissues)\n\n---\n\n## 免责声明\n\n百聆 (Bailing) 是一个开源项目，旨在用于个人学习和研究目的。使用本项目时，请注意以下免责声明：\n\n1. **个人用途**：本项目仅用于个人学习和研究，不适用于商业用途或生产环境。\n2. **风险和责任**：使用百聆 (Bailing) 可能会导致数据丢失、系统故障或其他问题。我们对因使用本项目而导致的任何损失、损害或问题不承担任何责任。\n3. **支持**：本项目不提供任何形式的技术支持或保证。用户应自行承担使用本项目的风险。\n\n在使用本项目之前，请确保您已了解并接受这些免责声明。如果您不同意这些条款，请不要使用本项目。\n\n感谢您的理解与支持！\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwwbin2017_bailing_readme_25a08344d4e1.png)](https:\u002F\u002Fstar-history.com\u002F#wwbin2017\u002Fbailing&Date)","# 百聆 (Bailing) 快速上手指南\n\n百聆是一个开源的语音对话助手，无需 GPU 即可在本地实现类 GPT-4o 的低延迟语音交互体验。它集成了语音识别 (ASR)、语音活动检测 (VAD)、大语言模型 (LLM) 和语音合成 (TTS)，并支持通过 OpenClaw 调用外部工具。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：3.12 或更高版本\n*   **包管理器**：`pip`\n*   **硬件要求**：无需高端 GPU，普通 CPU 即可运行（推荐服务器部署以支持移动端访问）\n\n## 安装步骤\n\n### 1. 克隆项目\n首先从 GitHub 克隆代码仓库并进入目录：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fwwbin2017\u002Fbailing.git\ncd bailing\n```\n\n### 2. 安装依赖\n安装项目核心依赖及第三方组件（OpenManus\u002FOpenClaw）所需库：\n\n```bash\npip install -r requirements.txt\npip install -r third_party\u002FOpenManus\u002Frequirements.txt\n```\n\n> **提示**：如遇下载速度慢，可添加国内镜像源加速，例如：`pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n### 3. 配置环境与模型\n\n#### A. 下载 ASR 模型\n手动下载 `SenseVoiceSmall` 模型并放置到指定目录：\n*   **下载地址**：[HuggingFace - SenseVoiceSmall](https:\u002F\u002Fhuggingface.co\u002FFunAudioLLM\u002FSenseVoiceSmall\u002Ftree\u002Fmain)\n*   **存放路径**：项目根目录下的 `models\u002FSenseVoiceSmall` 文件夹\n\n#### B. 配置 API Key\n编辑 `config\u002Fconfig.yaml` 文件：\n*   **LLM 配置**：获取 [DeepSeek API Key](https:\u002F\u002Fplatform.deepseek.com\u002Fapi_keys) 并填入。同时也支持配置 OpenAI、Qwen、Gemini 等其他模型。\n*   **其他模块**：根据需要调整 ASR 和 TTS 的相关参数。\n\n#### C. 配置 OpenClaw (可选但推荐)\n若需使用高级工具调用功能，请修改 `config\u002F.env` 文件，配置 OpenClaw 的 Auth 权限。\n若使用通用 AIGC 配置（测试中），还需编辑 `\u002Fthird_party\u002FOpenManus\u002Fconfig\u002Fconfig.toml` 填写 `model`, `base_url`, `api_key`。\n\n## 基本使用\n\n百聆支持本地直接运行或作为服务器运行（推荐后者，以便通过浏览器或移动端访问）。\n\n### 方式一：服务器运行（推荐）\n此模式启动 Web 服务，可通过浏览器进行语音对话。\n\n1.  **生成自签名证书**（仅开发环境需要）：\n    ```bash\n    openssl req -x509 -newkey rsa:4096 -keyout key.pem -out cert.pem -days 365 -nodes\n    ```\n\n2.  **启动服务**：\n    在项目根目录下执行：\n    ```bash\n    python server.py\n    ```\n\n3.  **开始对话**：\n    打开浏览器访问 `http:\u002F\u002Flocalhost:8000`，点击“开始”按钮即可进行语音交互。\n\n### 方式二：本地命令行运行\n直接在终端运行主程序：\n\n```bash\npython main.py\n```\n\n### 使用流程说明\n启动后，系统将自动进入监听状态：\n1.  **语音输入**：对着麦克风说话，FunASR 将语音转为文本。\n2.  **智能处理**：Silero-VAD 过滤无效音频，DeepSeek LLM 理解意图并生成回复（支持记忆与工具调用）。\n3.  **语音输出**：Edge-TTS 或 Kokoro-82M 将回复转换为自然语音播放。\n4.  **打断交互**：在播报过程中说话可触发打断机制，实现自然插话。","资深开发者老张在驾驶途中突发灵感，需要立即记录代码架构思路并安排下午的站会提醒，同时双手被方向盘占据，无法操作键盘或手机屏幕。\n\n### 没有 bailing 时\n- **交互割裂低效**：必须靠边停车，掏出手机打开录音机或笔记应用，说完后再手动整理文字，打断驾驶节奏且存在安全隐患。\n- **缺乏即时执行**：语音只能单纯录音，无法直接理解“下午三点提醒团队站会”的指令并自动创建日历任务，需后续人工二次操作。\n- **打断体验糟糕**：若中途想到新点子想补充说明，传统语音助手往往要等说完一大段才能响应，无法像真人对话那样随时插话修正。\n- **硬件门槛高**：想要在本地运行类似的智能助手通常需要配备昂贵的高性能 GPU 服务器，个人笔记本或车载设备难以承载。\n\n### 使用 bailing 后\n- **自然流畅对话**：老张直接开口说话，bailing 凭借低至 800ms 的时延实时响应，无需任何手动操作，像副驾坐了一位懂技术的助手。\n- **行动型任务闭环**：通过集成的 OpenClaw 引擎，bailing 直接听懂指令并调用系统接口，瞬间完成“记录架构笔记”和“设置站会提醒”两个动作。\n- **支持灵活打断**：当老张说到一半突然想起要补充数据库选型细节时，可直接插话打断，bailing 立即停止播报并重新识别新指令，交互如真人般自然。\n- **轻量本地部署**：得益于对低配置设备的优化，bailing 直接在老张的 MacBook 上流畅运行，无需联网上传隐私数据，也不依赖昂贵显卡。\n\nbailing 将原本繁琐的“录音 - 转写 - 手动操作”流程，升级为“开口即执行”的无感交互，真正让个人设备拥有了贾维斯般的行动力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwwbin2017_bailing_dc586cff.png","wwbin2017",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fwwbin2017_bfd5accc.png","https:\u002F\u002Fgithub.com\u002Fwwbin2017",[78,82],{"name":79,"color":80,"percentage":81},"Python","#3572A5",68.7,{"name":83,"color":84,"percentage":85},"HTML","#e34c26",31.3,1667,289,"2026-04-17T01:13:43","MIT","未说明","非必需 (项目旨在无需 GPU 的情况下运行，适用于边缘设备和低资源环境)",{"notes":93,"python":94,"dependencies":95},"1. 需手动下载 SenseVoiceSmall 模型文件至指定目录。2. 需配置 DeepSeek 或其他 LLM 的 API Key。3. 若使用 OpenClaw 功能，需额外配置 Auth 权限。4. 服务器模式运行需生成自签名证书。5. 支持多种 TTS 引擎（edge-tts, Kokoro-82M, ChatTTS, MacOS say）。","3.12+",[96,97,98,99,100,101,102],"FunASR","silero-vad","deepseek (API)","edge-tts","Kokoro-82M","ChatTTS","OpenClaw",[14,15,13,104,35],"音频",[106,107,108,109,110,111,112,113,114,115,116,6],"ai","asr","chatgpt","chattts","deepseek","funasr","gpt-4o","llm","openai","tts","voice-assistant","2026-03-27T02:49:30.150509","2026-04-18T09:20:49.681672",[120,125,130,134,139,144,149],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},39280,"程序启动时卡在连接 Hugging Face 或加载界面很久，甚至直接卡死怎么办？","这通常是因为程序试图在线下载模型或连接超时。解决方案是将模型下载到本地并配置离线模式。\n1. 将所需的模型（如 sensevoicesmall 和 bge-small-zh）下载到本地文件夹。\n2. 修改代码中的模型路径指向本地文件夹。\n3. 在 `asr.py` 或 `main.py` 文件的开头添加以下代码以启用离线模式：\n```python\nimport os\nos.environ[\"HF_HUB_OFFLINE\"] = \"1\"\n```\n这样可以避免程序尝试联网加载模型导致的卡顿。","https:\u002F\u002Fgithub.com\u002Fwwbin2017\u002Fbailing\u002Fissues\u002F45",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},39281,"运行时报错 'OSError: libavutil.so.58: cannot open shared object file' 或 FFmpeg 加载失败如何解决？","该错误通常发生在 Linux 服务器上，原因是缺少对应的 FFmpeg 共享库文件，且该项目可能不完全支持服务器环境启动。\n建议方案：\n1. 尝试在本地电脑（非服务器）上运行项目。当界面显示“加载中”时，实际上是在监听话筒，直接说话即可测试。\n2. 如果必须使用服务器，检查是否安装了正确版本的 FFmpeg 及其开发库，或者考虑更换音频处理后端（如从默认的 edgetts 改为 chattts，但需注意 chattts 对显卡要求较高，CPU 运行可能会超时）。\n3. 确认项目是否必须在服务器模式下运行，部分用户反馈 `server.py` 在某些环境下无法正常响应。","https:\u002F\u002Fgithub.com\u002Fwwbin2017\u002Fbailing\u002Fissues\u002F18",{"id":131,"question_zh":132,"answer_zh":133,"source_url":129},39282,"默认使用的 EdgeTTS 报错或效果不好，有什么替代方案？","默认的 EdgeTTS 是在线服务，容易因网络问题报错。建议替换为 ChatTTS。\n注意：ChatTTS 对硬件要求较高，需要较好的显卡支持。如果在 CPU 上运行，生成速度会非常慢甚至超时。如果硬件条件有限，可能需要寻找其他轻量级的本地 TTS 模型或自行改造接口。",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},39283,"如何将该项目改造为服务化接口（API 或 WebSocket）以接收语音并返回 TTS？","项目本身主要设计为端侧应用，但可以通过修改代码实现服务化。\n根据社区经验，将其改为服务化接口（如接收 WebSocket 语音流并返回 TTS）是可行的，但修改过程较为复杂（有用户反馈“花了一下午改成了服务化接口，非常费劲”）。\n思路：需要重写 `main.py` 或新建服务脚本，移除本地的麦克风监听逻辑，改为监听网络端口（WebSocket\u002FHTTP），接收音频数据后调用内部的 ASR 和 TTS 模块，最后将结果返回。具体实现需深入阅读 `robot.py` 和音频处理相关代码进行定制开发。","https:\u002F\u002Fgithub.com\u002Fwwbin2017\u002Fbailing\u002Fissues\u002F20",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},39284,"如何在本地部署并使用 DeepSeek 等大语言模型？","虽然具体配置步骤在讨论中未完全展开，但核心思路是修改项目的 LLM 调用部分。\n通常需要在配置文件或代码中（如 `robot.py` 或专门的 LLM 模块），将模型地址指向本地部署的 DeepSeek 服务地址（例如本地运行的 Ollama 或 vLLM 服务地址），并调整相应的 API 调用参数以匹配本地模型的接口规范。建议查阅项目中关于模型初始化的代码段进行针对性修改。","https:\u002F\u002Fgithub.com\u002Fwwbin2017\u002Fbailing\u002Fissues\u002F39",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},39285,"加载本地 SenseVoiceSmall 模型时报错 'Unrecognized model' 或缺少 'model_type' 怎么办？","该错误表明 Hugging Face Transformers 库无法识别本地模型文件夹中的配置文件。\n解决方法：\n1. 检查模型文件夹（如 `FunAudioLLM\u002FSenseVoiceSmall`）下是否存在 `config.json` 文件。\n2. 确保 `config.json` 中包含正确的 `\"model_type\"` 字段，且该字段的值是 Transformers 库支持的类型。\n3. 如果模型是自定义结构或非标准格式，可能需要手动修改 `config.json` 添加正确的 `model_type`，或者在加载代码中使用特定的类来加载该模型，而不是使用通用的自动加载函数。","https:\u002F\u002Fgithub.com\u002Fwwbin2017\u002Fbailing\u002Fissues\u002F53",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},39286,"这个项目只能在本地电脑（端侧）运行吗？支持服务器部署吗？","项目主要设计用于端侧设备（如带有麦克风的电脑）。\n社区反馈指出，该项目在服务器环境下启动可能会遇到问题（如卡在加载界面、FFmpeg 库缺失等），因为默认逻辑包含对本地的话筒监听和图形界面交互。如果需要在服务器上运行，通常需要去除图形界面依赖，改用纯后台服务模式，并解决音频输入源的问题（例如通过上传音频文件或网络流代替本地话筒）。","https:\u002F\u002Fgithub.com\u002Fwwbin2017\u002Fbailing\u002Fissues\u002F17",[155,160,165],{"id":156,"version":157,"summary_zh":158,"released_at":159},315243,"v0.0.3","新增AIGC能力\n\n**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fwwbin2017\u002Fbailing\u002Fcompare\u002Fv0.0.2...v0.0.3","2025-05-31T00:12:04",{"id":161,"version":162,"summary_zh":163,"released_at":164},315244,"v0.0.2","百聆是一款开源的语音对话助手，旨在通过语音与用户进行自然流畅的交互。该项目融合了自动语音识别（ASR）、语音活动检测（VAD）、大语言模型（LLM）和文本转语音（TTS）等核心技术，打造了一个类似GPT-4o的语音对话机器人。通过ASR、LLM和TTS的协同工作，百聆能够提供高质量的语音对话体验，端到端时延仅为800毫秒。百聆的目标是在无需GPU的情况下，实现接近GPT-4o的对话效果，适用于各类边缘设备及低资源环境。\n\n🚀 流畅的对话体验：低延迟、不卡顿，几乎如同真人对话般自然。百聆采用了多个开源模型，确保高效、可靠的语音对话体验。\n\n🖥 轻量级部署：无需高端硬件，甚至不需要GPU。经过优化后，百聆可在本地部署，并依然保持接近GPT-4的性能表现。\n\n🔧 模块化设计：ASR、VAD、LLM和TTS模块相互独立，用户可根据需求灵活替换或升级各个组件。\n\n🧠 智能记忆功能：具备持续学习能力，能够记忆用户的偏好和历史对话，从而提供个性化的互动体验。\n\n🛠 工具调用能力：支持灵活集成外部工具，用户可通过语音直接请求信息或执行操作，显著提升助手的实用性。\n\n📅 任务管理：高效管理用户任务，能够跟踪进度、设置提醒并提供动态更新，确保用户不会错过任何重要事项。","2025-03-14T12:49:00",{"id":166,"version":167,"summary_zh":168,"released_at":169},315245,"v0.0.1","百聆是一个开源的语音对话助手，旨在通过语音与用户进行自然的对话。该项目结合了语音识别 (ASR)、语音活动检测 (VAD)、大语言模型 (LLM) 和语音合成 (TTS) 技术，这是一个类似GPT-4o的语音对话机器人，通过ASR+LLM+TTS实现，提供高质量的语音对话体验，端到端时延800ms。百聆旨在无需GPU的情况下，实现类GPT-4o的对话效果，适用于各种边缘设备和低资源环境。\n\n- 语音输入：通过 FunASR 进行准确的语音识别。\n- 语音活动检测：使用 silero-vad 过滤无效音频，提升识别效率。\n- 智能对话生成：依靠 deepseek 提供的强大语言理解能力生成自然的文本回复，极具性价比。\n- 语音输出：通过 edge-tts 将文本转为语音，为用户提供逼真的听觉反馈。\n- 支持打断：配置打断策略，支持关键字和语音打断","2024-10-04T03:14:25"]