[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-elevenlabs--elevenlabs-python":3,"tool-elevenlabs--elevenlabs-python":64},[4,23,32,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},4128,"GPT-SoVITS","RVC-Boss\u002FGPT-SoVITS","GPT-SoVITS 是一款强大的开源语音合成与声音克隆工具，旨在让用户仅需极少量的音频数据即可训练出高质量的个性化语音模型。它核心解决了传统语音合成技术依赖海量录音数据、门槛高且成本大的痛点，实现了“零样本”和“少样本”的快速建模：用户只需提供 5 秒参考音频即可即时生成语音，或使用 1 分钟数据进行微调，从而获得高度逼真且相似度极佳的声音效果。\n\n该工具特别适合内容创作者、独立开发者、研究人员以及希望为角色配音的普通用户使用。其内置的友好 WebUI 界面集成了人声伴奏分离、自动数据集切片、中文语音识别及文本标注等辅助功能，极大地降低了数据准备和模型训练的技术门槛，让非专业人士也能轻松上手。\n\n在技术亮点方面，GPT-SoVITS 不仅支持中、英、日、韩、粤语等多语言跨语种合成，还具备卓越的推理速度，在主流显卡上可实现实时甚至超实时的生成效率。无论是需要快速制作视频配音，还是进行多语言语音交互研究，GPT-SoVITS 都能以极低的数据成本提供专业级的语音合成体验。",56375,3,"2026-04-05T22:15:46",[21],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},2863,"TTS","coqui-ai\u002FTTS","🐸TTS 是一款功能强大的深度学习文本转语音（Text-to-Speech）开源库，旨在将文字自然流畅地转化为逼真的人声。它解决了传统语音合成技术中声音机械生硬、多语言支持不足以及定制门槛高等痛点，让高质量的语音生成变得触手可及。\n\n无论是希望快速集成语音功能的开发者，还是致力于探索前沿算法的研究人员，亦或是需要定制专属声音的数据科学家，🐸TTS 都能提供得力支持。它不仅预置了覆盖全球 1100 多种语言的训练模型，让用户能够即刻上手，还提供了完善的工具链，支持用户利用自有数据训练新模型或对现有模型进行微调，轻松实现特定风格的声音克隆。\n\n在技术亮点方面，🐸TTS 表现卓越。其最新的 ⓍTTSv2 模型支持 16 种语言，并在整体性能上大幅提升，实现了低于 200 毫秒的超低延迟流式输出，极大提升了实时交互体验。此外，它还无缝集成了 🐶Bark、🐢Tortoise 等社区热门模型，并支持调用上千个 Fairseq 模型，展现了极强的兼容性与扩展性。配合丰富的数据集分析与整理工具，🐸TTS 已成为科研与生产环境中备受信赖的语音合成解决方案。",44971,"2026-04-03T14:47:02",[21,20,13],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":29,"last_commit_at":46,"category_tags":47,"status":22},2375,"LocalAI","mudler\u002FLocalAI","LocalAI 是一款开源的本地人工智能引擎，旨在让用户在任意硬件上轻松运行各类 AI 模型，包括大语言模型、图像生成、语音识别及视频处理等。它的核心优势在于彻底打破了高性能计算的门槛，无需昂贵的专用 GPU，仅凭普通 CPU 或常见的消费级显卡（如 NVIDIA、AMD、Intel 及 Apple Silicon）即可部署和运行复杂的 AI 任务。\n\n对于担心数据隐私的用户而言，LocalAI 提供了“隐私优先”的解决方案，确保所有数据处理均在本地基础设施内完成，无需上传至云端。同时，它完美兼容 OpenAI、Anthropic 等主流 API 接口，这意味着开发者可以无缝迁移现有应用，直接利用本地资源替代云服务，既降低了成本又提升了可控性。\n\nLocalAI 内置了超过 35 种后端支持（如 llama.cpp、vLLM、Whisper 等），并集成了自主 AI 代理、工具调用及检索增强生成（RAG）等高级功能，且具备多用户管理与权限控制能力。无论是希望保护敏感数据的企业开发者、进行算法实验的研究人员，还是想要在个人电脑上体验最新 AI 技术的极客玩家，都能通过 LocalAI 获",44782,"2026-04-02T22:14:26",[13,21,19,17,20,14,16],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":29,"last_commit_at":54,"category_tags":55,"status":22},3108,"bark","suno-ai\u002Fbark","Bark 是由 Suno 推出的开源生成式音频模型，能够根据文本提示创造出高度逼真的多语言语音、音乐、背景噪音及简单音效。与传统仅能朗读文字的语音合成工具不同，Bark 基于 Transformer 架构，不仅能模拟说话，还能生成笑声、叹息、哭泣等非语言声音，甚至能处理带有情感色彩和语气停顿的复杂文本，极大地丰富了音频表达的可能性。\n\n它主要解决了传统语音合成声音机械、缺乏情感以及无法生成非语音类音效的痛点，让创作者能通过简单的文字描述获得生动自然的音频素材。无论是需要为视频配音的内容创作者、探索多模态生成的研究人员，还是希望快速原型设计的开发者，都能从中受益。普通用户也可通过集成的演示页面轻松体验其神奇效果。\n\n技术亮点方面，Bark 支持商业使用（MIT 许可），并在近期更新中实现了显著的推理速度提升，同时提供了适配低显存 GPU 的版本，降低了使用门槛。此外，社区还建立了丰富的提示词库，帮助用户更好地驾驭模型生成特定风格的声音。只需几行 Python 代码，即可将创意文本转化为高质量音频，是连接文字与声音世界的强大桥梁。",39067,"2026-04-04T03:33:35",[21],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":29,"last_commit_at":62,"category_tags":63,"status":22},5908,"ChatTTS","2noise\u002FChatTTS","ChatTTS 是一款专为日常对话场景打造的生成式语音模型，特别适用于大语言模型助手等交互式应用。它主要解决了传统文本转语音（TTS）技术在对话中缺乏自然感、情感表达单一以及难以处理停顿、笑声等细微语气的问题，让机器生成的语音听起来更像真人在聊天。\n\n这款工具非常适合开发者、研究人员以及希望为应用增添自然语音交互功能的设计师使用。普通用户也可以通过社区开发的衍生产品体验其能力。ChatTTS 的核心亮点在于其对对话任务的深度优化：它不仅支持中英文双语，还能精准控制韵律细节，自动生成自然的 laughter（笑声）、pauses（停顿）和 interjections（插入语），从而实现多说话人的互动对话效果。在韵律表现上，ChatTTS 超越了大多数开源 TTS 模型。目前开源版本基于 4 万小时数据预训练而成，虽主要用于学术研究与教育目的，但已展现出强大的潜力，并支持流式音频生成与零样本推理，为后续的多情绪控制等进阶功能奠定了基础。",39042,"2026-04-09T11:54:03",[19,17,20,21],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":75,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":10,"env_os":92,"env_gpu":93,"env_ram":92,"env_deps":94,"category_tags":98,"github_topics":99,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":22,"created_at":103,"updated_at":104,"faqs":105,"releases":135},6547,"elevenlabs\u002Felevenlabs-python","elevenlabs-python","The official Python SDK for the ElevenLabs API.","elevenlabs-python 是 ElevenLabs 官方推出的 Python 开发工具包，旨在让开发者通过几行代码即可调用世界顶尖的语音合成技术。它主要解决了在应用中集成高质量、拟人化语音功能时面临的技术门槛高、延迟大及多语言支持复杂等难题。\n\n这款工具非常适合软件开发者、AI 研究人员以及需要为产品添加语音交互功能的技术团队使用。通过简单的 pip 安装，用户就能轻松实现文本转语音、实时音频流传输以及高保真声音克隆等核心功能。\n\n其技术亮点在于提供了多种针对不同场景优化的模型：既有支持 70 多种语言、擅长戏剧化表演的 Eleven v3 模型，也有专为低延迟实时交互设计的 Flash 和 Turbo 系列，后者在保持出色音质的同时大幅降低了成本与响应时间。此外，它还支持自定义声音风格设置和即时声音克隆，允许用户上传少量音频样本即可复刻独特音色。无论是构建有声读物应用、智能客服系统，还是开发多语言内容创作平台，elevenlabs-python 都能提供稳定且灵活的底层支持，帮助创作者将生动的声音快速融入各类数字产品中。","# ElevenLabs Python Library\n\n![LOGO](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Felevenlabs_elevenlabs-python_readme_26198b8d3307.png)\n\n[![fern shield](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%8C%BF-SDK%20generated%20by%20Fern-brightgreen)](https:\u002F\u002Fbuildwithfern.com\u002F?utm_source=fern-elevenlabs\u002Felevenlabs-python\u002Freadme)\n[![Discord](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Felevenlabs_elevenlabs-python_readme_eac27566615b.png)](https:\u002F\u002Fdiscord.gg\u002Felevenlabs)\n[![Twitter](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Felevenlabs_elevenlabs-python_readme_399294337ab6.png)](https:\u002F\u002Ftwitter.com\u002Felevenlabsio)\n[![PyPI - Python Version](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Felevenlabs?style=flat&colorA=black&colorB=black)](https:\u002F\u002Fpypi.org\u002Fproject\u002Felevenlabs\u002F)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Felevenlabs_elevenlabs-python_readme_5f602ac7eea4.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Felevenlabs)\n\nThe official Python SDK for [ElevenLabs](https:\u002F\u002Felevenlabs.io\u002F). ElevenLabs brings the most compelling, rich and lifelike voices to creators and developers in just a few lines of code.\n\n## 📖 API & Docs\n\nCheck out the [HTTP API documentation](https:\u002F\u002Felevenlabs.io\u002Fdocs\u002Fapi-reference).\n\n## Install\n\n```bash\npip install elevenlabs\n```\n\n## Usage\n\n### Main Models\n\n1. **Eleven v3** (`eleven_v3`)\n    - Dramatic delivery and performances\n    - 70+ languages supported\n    - Supported for natural multi-speaker dialogue\n\n2. **Eleven Multilingual v2** (`eleven_multilingual_v2`)\n\n    - Excels in stability, language diversity, and accent accuracy\n    - Supports 29 languages\n    - Recommended for most use cases\n\n3. **Eleven Flash v2.5** (`eleven_flash_v2_5`)\n\n    - Ultra-low latency\n    - Supports 32 languages\n    - Faster model, 50% lower price per character\n\n4. **Eleven Turbo v2.5** (`eleven_turbo_v2_5`)\n\n    - Good balance of quality and latency\n    - Ideal for developer use cases where speed is crucial\n    - Supports 32 languages\n\nFor more detailed information about these models and others, visit the [ElevenLabs Models documentation](https:\u002F\u002Felevenlabs.io\u002Fdocs\u002Fmodels).\n\n```py\nfrom dotenv import load_dotenv\nfrom elevenlabs.client import ElevenLabs\nfrom elevenlabs.play import play\n\nload_dotenv()\n\nelevenlabs = ElevenLabs()\n\naudio = elevenlabs.text_to_speech.convert(\n    text=\"The first move is what sets everything in motion.\",\n    voice_id=\"JBFqnCBsd6RMkjVDRZzb\",\n    model_id=\"eleven_v3\",\n    output_format=\"mp3_44100_128\",\n)\n\nplay(audio)\n```\n\n\u003Cdetails> \u003Csummary> Play \u003C\u002Fsummary>\n\n🎧 **Try it out!** Want to hear our voices in action? Visit the [ElevenLabs Voice Lab](https:\u002F\u002Felevenlabs.io\u002Fvoice-lab) to experiment with different voices, languages, and settings.\n\n\u003C\u002Fdetails>\n\n## Voices\n\nList all your available voices with `search()`.\n\n```py\nfrom elevenlabs.client import ElevenLabs\n\nelevenlabs = ElevenLabs(\n  api_key=\"YOUR_API_KEY\",\n)\n\nresponse = elevenlabs.voices.search()\nprint(response.voices)\n```\n\nFor information about the structure of the voices output, please refer to the [official ElevenLabs API documentation for Get Voices](https:\u002F\u002Felevenlabs.io\u002Fdocs\u002Fapi-reference\u002Fget-voices).\n\nBuild a voice object with custom settings to personalize the voice style, or call\n`elevenlabs.voices.settings.get(\"your-voice-id\")` to get the default settings for the voice.\n\n\u003C\u002Fdetails>\n\n## Clone Voice\n\nClone your voice in an instant. Note that voice cloning requires an API key, see below.\n\n```py\nfrom elevenlabs.client import ElevenLabs\nfrom elevenlabs.play import play\n\nelevenlabs = ElevenLabs(\n  api_key=\"YOUR_API_KEY\",\n)\n\nvoice = elevenlabs.voices.ivc.create(\n    name=\"Alex\",\n    description=\"An old American male voice with a slight hoarseness in his throat. Perfect for news\", # Optional\n    files=[\".\u002Fsample_0.mp3\", \".\u002Fsample_1.mp3\", \".\u002Fsample_2.mp3\"],\n)\n```\n\n## Streaming\n\nStream audio in real-time, as it's being generated.\n\n```py\nfrom elevenlabs import stream\nfrom elevenlabs.client import ElevenLabs\n\nelevenlabs = ElevenLabs(\n  api_key=\"YOUR_API_KEY\",\n)\n\naudio_stream = elevenlabs.text_to_speech.stream(\n    text=\"This is a test\",\n    voice_id=\"JBFqnCBsd6RMkjVDRZzb\",\n    model_id=\"eleven_multilingual_v2\"\n)\n\n# option 1: play the streamed audio locally\nstream(audio_stream)\n\n# option 2: process the audio bytes manually\nfor chunk in audio_stream:\n    if isinstance(chunk, bytes):\n        print(chunk)\n\n```\n\n## Async Client\n\nUse `AsyncElevenLabs` if you want to make API calls asynchronously.\n\n```python\nimport asyncio\n\nfrom elevenlabs.client import AsyncElevenLabs\n\nelevenlabs = AsyncElevenLabs(\n  api_key=\"MY_API_KEY\"\n)\n\nasync def print_models() -> None:\n    models = await elevenlabs.models.list()\n    print(models)\n\nasyncio.run(print_models())\n```\n\n## ElevenAgents\n\nBuild interactive AI agents with real-time audio capabilities using ElevenAgents.\n\n### Basic Usage\n\n```python\nfrom elevenlabs.client import ElevenLabs\nfrom elevenlabs.conversational_ai.conversation import Conversation, ClientTools\nfrom elevenlabs.conversational_ai.default_audio_interface import DefaultAudioInterface\n\nelevenlabs = ElevenLabs(\n  api_key=\"YOUR_API_KEY\",\n)\n\n# Create audio interface for real-time audio input\u002Foutput\naudio_interface = DefaultAudioInterface()\n\n# Create conversation\nconversation = Conversation(\n    client=elevenlabs,\n    agent_id=\"your-agent-id\",\n    requires_auth=True,\n    audio_interface=audio_interface,\n)\n\n# Start the conversation\nconversation.start_session()\n\n# The conversation runs in background until you call:\nconversation.end_session()\n```\n\n### Custom Event Loop Support\n\nFor advanced use cases involving context propagation, resource reuse, or specific event loop management, `ClientTools` supports custom asyncio event loops:\n\n```python\nimport asyncio\nfrom elevenlabs.conversational_ai.conversation import ClientTools\n\nelevenlabs = ElevenLabs(\n  api_key=\"YOUR_API_KEY\",\n)\n\nasync def main():\n    # Get the current event loop\n    custom_loop = asyncio.get_running_loop()\n\n    # Create ClientTools with custom loop to prevent \"different event loop\" errors\n    client_tools = ClientTools(loop=custom_loop)\n\n    # Register your tools\n    async def get_weather(params):\n        location = params.get(\"location\", \"Unknown\")\n        # Your async logic here\n        return f\"Weather in {location}: Sunny, 72°F\"\n\n    client_tools.register(\"get_weather\", get_weather, is_async=True)\n\n    # Use with conversation\n    conversation = Conversation(\n        client=elevenlabs,\n        agent_id=\"your-agent-id\",\n        requires_auth=True,\n        audio_interface=audio_interface,\n        client_tools=client_tools\n    )\n\nasyncio.run(main())\n```\n\n**Benefits of Custom Event Loop:**\n- **Context Propagation**: Maintain request-scoped state across async operations\n- **Resource Reuse**: Share existing async resources like HTTP sessions or database pools\n- **Loop Management**: Prevent \"Task got Future attached to a different event loop\" errors\n- **Performance**: Better control over async task scheduling and execution\n\n**Important:** When using a custom loop, you're responsible for its lifecycle\nDon't close the loop while ClientTools are still using it.\n\n### Tool Registration\n\nRegister custom tools that the AI agent can call during conversations:\n\n```python\nclient_tools = ClientTools()\n\n# Sync tool\ndef calculate_sum(params):\n    numbers = params.get(\"numbers\", [])\n    return sum(numbers)\n\n# Async tool\nasync def fetch_data(params):\n    url = params.get(\"url\")\n    # Your async HTTP request logic\n    return {\"data\": \"fetched\"}\n\nclient_tools.register(\"calculate_sum\", calculate_sum, is_async=False)\nclient_tools.register(\"fetch_data\", fetch_data, is_async=True)\n```\n\n## Languages Supported\n\nExplore [all models & languages](https:\u002F\u002Felevenlabs.io\u002Fdocs\u002Fmodels).\n\n## Contributing\n\nWhile we value open-source contributions to this SDK, this library is generated programmatically. Additions made directly to this library would have to be moved over to our generation code, otherwise they would be overwritten upon the next generated release. Feel free to open a PR as a proof of concept, but know that we will not be able to merge it as-is. We suggest opening an issue first to discuss with us!\n\nOn the other hand, contributions to the README are always very welcome!\n","# ElevenLabs Python 库\n\n![LOGO](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Felevenlabs_elevenlabs-python_readme_26198b8d3307.png)\n\n[![fern shield](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%8C%BF-SDK%20generated%20by%20Fern-brightgreen)](https:\u002F\u002Fbuildwithfern.com\u002F?utm_source=fern-elevenlabs\u002Felevenlabs-python\u002Freadme)\n[![Discord](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Felevenlabs_elevenlabs-python_readme_eac27566615b.png)](https:\u002F\u002Fdiscord.gg\u002Felevenlabs)\n[![Twitter](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Felevenlabs_elevenlabs-python_readme_399294337ab6.png)](https:\u002F\u002Ftwitter.com\u002Felevenlabsio)\n[![PyPI - Python Version](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Felevenlabs?style=flat&colorA=black&colorB=black)](https:\u002F\u002Fpypi.org\u002Fproject\u002Felevenlabs\u002F)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Felevenlabs_elevenlabs-python_readme_5f602ac7eea4.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Felevenlabs)\n\n这是 [ElevenLabs](https:\u002F\u002Felevenlabs.io\u002F) 的官方 Python SDK。通过几行代码，ElevenLabs 就能为创作者和开发者带来最具吸引力、最丰富且栩栩如生的语音。\n\n## 📖 API 与文档\n\n请查看 [HTTP API 文档](https:\u002F\u002Felevenlabs.io\u002Fdocs\u002Fapi-reference)。\n\n## 安装\n\n```bash\npip install elevenlabs\n```\n\n## 使用方法\n\n### 主要模型\n\n1. **Eleven v3** (`eleven_v3`)\n    - 戏剧化的表达和演绎\n    - 支持 70 多种语言\n    - 适用于自然的多说话人对话场景\n\n2. **Eleven Multilingual v2** (`eleven_multilingual_v2`)\n\n    - 在稳定性、语言多样性和口音准确性方面表现出色\n    - 支持 29 种语言\n    - 推荐用于大多数使用场景\n\n3. **Eleven Flash v2.5** (`eleven_flash_v2_5`)\n\n    - 超低延迟\n    - 支持 32 种语言\n    - 模型速度更快，每字符价格降低 50%\n\n4. **Eleven Turbo v2.5** (`eleven_turbo_v2_5`)\n\n    - 在质量和延迟之间取得良好平衡\n    - 非常适合对速度要求较高的开发场景\n    - 支持 32 种语言\n\n有关这些模型及其他模型的详细信息，请访问 [ElevenLabs 模型文档](https:\u002F\u002Felevenlabs.io\u002Fdocs\u002Fmodels)。\n\n```py\nfrom dotenv import load_dotenv\nfrom elevenlabs.client import ElevenLabs\nfrom elevenlabs.play import play\n\nload_dotenv()\n\nelevenlabs = ElevenLabs()\n\naudio = elevenlabs.text_to_speech.convert(\n    text=\"第一步决定了后续的一切。\",\n    voice_id=\"JBFqnCBsd6RMkjVDRZzb\",\n    model_id=\"eleven_v3\",\n    output_format=\"mp3_44100_128\",\n)\n\nplay(audio)\n```\n\n\u003Cdetails> \u003Csummary> 播放 \u003C\u002Fsummary>\n\n🎧 **立即试听！** 想亲自体验我们的语音效果吗？请访问 [ElevenLabs Voice Lab](https:\u002F\u002Felevenlabs.io\u002Fvoice-lab)，尝试不同的语音、语言和设置。\n\n\u003C\u002Fdetails>\n\n## 语音列表\n\n使用 `search()` 列出所有可用的语音。\n\n```py\nfrom elevenlabs.client import ElevenLabs\n\nelevenlabs = ElevenLabs(\n  api_key=\"YOUR_API_KEY\",\n)\n\nresponse = elevenlabs.voices.search()\nprint(response.voices)\n```\n\n关于语音输出结构的信息，请参阅 [ElevenLabs 官方 API 文档中的获取语音接口](https:\u002F\u002Felevenlabs.io\u002Fdocs\u002Fapi-reference\u002Fget-voices)。\n\n您可以使用自定义设置构建语音对象来个性化语音风格，或者调用 `elevenlabs.voices.settings.get(\"your-voice-id\")` 来获取该语音的默认设置。\n\n\u003C\u002Fdetails>\n\n## 克隆语音\n\n瞬间克隆您的声音。请注意，语音克隆需要 API 密钥，详情见下文。\n\n```py\nfrom elevenlabs.client import ElevenLabs\nfrom elevenlabs.play import play\n\nelevenlabs = ElevenLabs(\n  api_key=\"YOUR_API_KEY\",\n)\n\nvoice = elevenlabs.voices.ivc.create(\n    name=\"Alex\",\n    description=\"一位年长的美国男性嗓音，略带沙哑，非常适合新闻播报\", # 可选\n    files=[\".\u002Fsample_0.mp3\", \".\u002Fsample_1.mp3\", \".\u002Fsample_2.mp3\"],\n)\n```\n\n## 流式传输\n\n实时流式传输正在生成的音频。\n\n```py\nfrom elevenlabs import stream\nfrom elevenlabs.client import ElevenLabs\n\nelevenlabs = ElevenLabs(\n  api_key=\"YOUR_API_KEY\",\n)\n\naudio_stream = elevenlabs.text_to_speech.stream(\n    text=\"这是一次测试\",\n    voice_id=\"JBFqnCBsd6RMkjVDRZzb\",\n    model_id=\"eleven_multilingual_v2\"\n)\n\n# 选项 1：在本地播放流式音频\nstream(audio_stream)\n\n# 选项 2：手动处理音频字节\nfor chunk in audio_stream:\n    if isinstance(chunk, bytes):\n        print(chunk)\n\n```\n\n## 异步客户端\n\n如果您希望异步进行 API 调用，请使用 `AsyncElevenLabs`。\n\n```python\nimport asyncio\n\nfrom elevenlabs.client import AsyncElevenLabs\n\nelevenlabs = AsyncElevenLabs(\n  api_key=\"MY_API_KEY\"\n)\n\nasync def print_models() -> None:\n    models = await elevenlabs.models.list()\n    print(models)\n\nasyncio.run(print_models())\n```\n\n## ElevenAgents\n\n使用 ElevenAgents 构建具有实时音频功能的交互式 AI 助手。\n\n### 基本用法\n\n```python\nfrom elevenlabs.client import ElevenLabs\nfrom elevenlabs.conversational_ai.conversation import Conversation, ClientTools\nfrom elevenlabs.conversational_ai.default_audio_interface import DefaultAudioInterface\n\nelevenlabs = ElevenLabs(\n  api_key=\"YOUR_API_KEY\",\n)\n\n# 创建用于实时音频输入输出的音频接口\naudio_interface = DefaultAudioInterface()\n\n# 创建对话会话\nconversation = Conversation(\n    client=elevenlabs,\n    agent_id=\"your-agent-id\",\n    requires_auth=True,\n    audio_interface=audio_interface,\n)\n\n# 开始会话\nconversation.start_session()\n\n# 对话将在后台持续运行，直到您调用：\nconversation.end_session()\n```\n\n### 自定义事件循环支持\n\n对于涉及上下文传播、资源复用或特定事件循环管理的高级用例，`ClientTools` 支持自定义 asyncio 事件循环：\n\n```python\nimport asyncio\nfrom elevenlabs.conversational_ai.conversation import ClientTools\n\nelevenlabs = ElevenLabs(\n  api_key=\"YOUR_API_KEY\",\n)\n\nasync def main():\n    # 获取当前事件循环\n    custom_loop = asyncio.get_running_loop()\n\n    # 使用自定义循环创建 ClientTools，以避免“不同事件循环”错误\n    client_tools = ClientTools(loop=custom_loop)\n\n    # 注册你的工具\n    async def get_weather(params):\n        location = params.get(\"location\", \"Unknown\")\n        # 你的异步逻辑在这里\n        return f\"{location} 的天气：晴朗，72°F\"\n\n    client_tools.register(\"get_weather\", get_weather, is_async=True)\n\n    # 在对话中使用\n    conversation = Conversation(\n        client=elevenlabs,\n        agent_id=\"your-agent-id\",\n        requires_auth=True,\n        audio_interface=audio_interface,\n        client_tools=client_tools\n    )\n\nasyncio.run(main())\n```\n\n**自定义事件循环的优势：**\n- **上下文传播**：在异步操作中保持请求范围的状态\n- **资源复用**：共享现有的异步资源，如 HTTP 会话或数据库连接池\n- **循环管理**：防止“任务被附加到不同的事件循环”的错误\n- **性能**：更好地控制异步任务的调度和执行\n\n**重要提示：** 使用自定义循环时，你需要负责其生命周期。请勿在 `ClientTools` 仍在使用该循环时关闭它。\n\n### 工具注册\n\n注册 AI 代理在对话过程中可以调用的自定义工具：\n\n```python\nclient_tools = ClientTools()\n\n# 同步工具\ndef calculate_sum(params):\n    numbers = params.get(\"numbers\", [])\n    return sum(numbers)\n\n# 异步工具\nasync def fetch_data(params):\n    url = params.get(\"url\")\n    # 你的异步 HTTP 请求逻辑\n    return {\"data\": \"fetched\"}\n\nclient_tools.register(\"calculate_sum\", calculate_sum, is_async=False)\nclient_tools.register(\"fetch_data\", fetch_data, is_async=True)\n```\n\n## 支持的语言\n\n探索 [所有模型与语言](https:\u002F\u002Felevenlabs.io\u002Fdocs\u002Fmodels)。\n\n## 贡献\n\n我们非常重视对本 SDK 的开源贡献，但请注意，此库是通过程序化方式生成的。直接对该库进行的任何修改都需要迁移到我们的生成代码中，否则在下一次生成发布时会被覆盖。欢迎提交 PR 作为概念验证，但我们无法直接合并这些更改。建议您先提交一个问题，与我们讨论后再行动！\n\n另一方面，对 README 的贡献始终受到热烈欢迎！","# ElevenLabs Python SDK 快速上手指南\n\n## 环境准备\n\n- **系统要求**：支持 Windows、macOS 和 Linux 系统。\n- **Python 版本**：建议使用 Python 3.8 或更高版本。\n- **前置依赖**：\n  - 已注册 [ElevenLabs](https:\u002F\u002Felevenlabs.io\u002F) 账号并获取 API Key。\n  - 建议安装 `python-dotenv` 用于管理环境变量（可选但推荐）：\n    ```bash\n    pip install python-dotenv\n    ```\n- **网络提示**：由于 ElevenLabs 服务位于海外，国内开发者可能需要配置代理或使用稳定的网络环境以确保连接顺畅。\n\n## 安装步骤\n\n使用 pip 直接安装官方 SDK：\n\n```bash\npip install elevenlabs\n```\n\n> **提示**：如果下载速度较慢，可使用国内镜像源加速安装：\n> ```bash\n> pip install elevenlabs -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 基本使用\n\n以下是最简单的文本转语音（Text-to-Speech）示例，将文本转换为音频并播放。\n\n1. **配置 API Key**\n   \n   在项目根目录创建 `.env` 文件，填入你的 API Key：\n   ```text\n   ELEVENLABS_API_KEY=your_api_key_here\n   ```\n\n2. **运行代码**\n\n   ```py\n   from dotenv import load_dotenv\n   from elevenlabs.client import ElevenLabs\n   from elevenlabs.play import play\n\n   # 加载环境变量\n   load_dotenv()\n\n   # 初始化客户端\n   elevenlabs = ElevenLabs()\n\n   # 执行文本转语音\n   audio = elevenlabs.text_to_speech.convert(\n       text=\"The first move is what sets everything in motion.\",\n       voice_id=\"JBFqnCBsd6RMkjVDRZzb\",\n       model_id=\"eleven_v3\",\n       output_format=\"mp3_44100_128\",\n   )\n\n   # 播放音频\n   play(audio)\n   ```\n\n**常用模型说明：**\n- `eleven_v3`：表现力最强，支持多说话人对话。\n- `eleven_multilingual_v2`：稳定性高，支持 29 种语言，推荐大多数场景使用。\n- `eleven_flash_v2_5`：超低延迟，价格更低。\n- `eleven_turbo_v2_5`：速度与质量的平衡，适合对实时性要求高的开发场景。","一家初创教育科技公司正在开发一款支持多语言学习的互动有声故事应用，需要为不同角色快速生成高质量且情感丰富的语音内容。\n\n### 没有 elevenlabs-python 时\n- 开发者必须手动调用复杂的 HTTP REST API，编写大量样板代码来处理认证、请求构建和错误重试，开发效率极低。\n- 难以实现实时流式播放，用户必须等待整个音频文件生成完毕才能听到声音，导致互动体验卡顿且不自然。\n- 无法灵活切换多种高拟真模型（如 Eleven v3 或 Multilingual v2），导致非英语角色的发音生硬，缺乏情感起伏。\n- 声音克隆功能集成困难，需自行处理音频分片上传和参数配置，难以快速为特定角色定制专属音色。\n- 缺乏统一的 Python 客户端管理语音列表和设置，每次调整语速或稳定性都需要查阅繁琐的官方文档并重新构造请求。\n\n### 使用 elevenlabs-python 后\n- 仅需几行代码即可初始化客户端并调用 `text_to_speech.convert`，自动处理底层通信细节，将语音集成时间从数天缩短至几小时。\n- 直接利用内置的 `stream` 模块实现低延迟音频流传输，用户能几乎同步听到生成的语音，大幅提升故事互动的流畅度。\n- 通过简单修改 `model_id` 参数即可无缝切换至支持 70+ 语言的 Eleven v3 模型，让多国角色对话充满戏剧张力和地道口音。\n- 调用 `voices.ivc.create` 方法并传入样本文件，即可瞬间完成声音克隆，轻松为故事中的旁白或特定角色创建独一无二的嗓音。\n- 使用 `voices.search` 和设置接口可程序化地管理和微调语音风格，开发者能像操作本地对象一样轻松定制每个角色的说话方式。\n\nelevenlabs-python 将复杂的语音合成技术转化为简洁的 Python 接口，让开发者能专注于内容创作而非底层工程实现。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Felevenlabs_elevenlabs-python_1997e894.png","elevenlabs","ElevenLabs","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Felevenlabs_0efb4766.png","Research Lab. Exploring new frontiers of voice generation. ",null,"developers@elevenlabs.io","https:\u002F\u002Felevenlabs.io","https:\u002F\u002Fgithub.com\u002Felevenlabs",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,2917,408,"2026-04-10T15:07:40","MIT","未说明","不需要本地 GPU",{"notes":95,"python":92,"dependencies":96},"该工具是 ElevenLabs API 的 Python SDK，所有语音合成和 AI 处理均在云端服务器运行，因此对本地硬件（CPU\u002FGPU\u002F内存）无特殊要求。用户只需安装库并配置有效的 API Key 即可使用。支持同步和异步调用，包含实时音频流处理和对话式 AI 代理功能。",[75,97],"python-dotenv",[21],[100,101,102],"artificial-intelligence","text-to-speech","conversational-ai","2026-03-27T02:49:30.150509","2026-04-11T17:38:30.919907",[106,111,116,121,126,131],{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},29580,"导入库时遇到 'NameError: name 'ArrayJsonSchemaPropertyInput' is not defined' 错误怎么办？","这是一个已知的 Pydantic 兼容性问题。维护者已发布 v2.15.0 版本修复了此问题。请升级您的 elevenlabs-python 库到最新版本：`pip install --upgrade elevenlabs`。如果问题仍然存在，请确保您的环境干净并重新安装依赖。","https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fissues\u002F512",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},29581,"使用流式音频生成时出现 'KeyError: audio' 错误的原因及解决方法？","该错误通常由两个原因引起：\n1. SDK 旧版本 Bug：请升级到最新版本的 SDK，该问题已在代码中修复。\n2. 账户限制：如果您收到包含 'Unusual activity detected' 或 'Free Tier usage disabled' 的错误信息，说明您的免费账户因异常活动（如使用代理\u002FVPN 或创建多个账户）被限制。解决方案是切换到付费订阅计划，或确保在网络环境正常的情况下使用。","https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fissues\u002F136",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},29582,"运行音频流示例时提示 'ValueError: mpv not found, necessary to stream audio' 如何解决？","这是因为系统缺少 'mpv' 媒体播放器，它是播放音频流所必需的。\n解决方法：\n1. 安装 mpv：访问 mpv 官网下载并安装适合您操作系统的版本。\n2. 配置环境变量：如果您使用虚拟环境，可能需要手动将 mpv 的路径添加到系统 PATH 中。例如在 Python 代码中添加：\n   import os\n   os.environ['PATH'] += os.pathsep + '\u002Fpath\u002Fto\u002Fmpv\u002F'\n   （请将 '\u002Fpath\u002Fto\u002Fmpv\u002F' 替换为实际的安装路径）。","https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fissues\u002F49",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},29583,"使用 voice_id 生成语音时返回 'voice_does_not_exist' (400 错误) 怎么办？","这通常是因为尝试使用的 voice_id 尚未添加到您的账户语音库中。\n现状：根据维护者回复，新版 SDK 在某些情况下会自动为您添加缺失的语音，但该功能可能不稳定。\n建议方案：\n1. 确保该 voice_id 确实存在于您的 ElevenLabs 账户语音库中（可通过网页端检查）。\n2. 如果是自定义语音或共享语音，请先通过 API 或网页端将其添加到您的库中再调用。\n3. 尝试使用语音名称（如 'Chris'）代替 ID，但需注意名称必须完全匹配且存在于您的库中。","https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fissues\u002F293",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},29584,"调用 create_agent() 创建带有工具的代理时报 'ArrayJsonSchemaProperty' 未定义错误？","这是 SDK 在处理特定类型定义时的已知缺陷，尤其在创建带有工具（tools）的 Conversational AI 代理时常见。\n临时解决方案：在导入 elevenlabs 后，手动将该类型注入到模块命名空间中：\nimport importlib\nimport pkgutil\nimport elevenlabs\nfrom elevenlabs.models import ArrayJsonSchemaProperty # 假设该类在某处定义，若找不到需从源码复制或使用通配符导入\n\nfor finder, modname, ispkg in pkgutil.walk_packages(elevenlabs.__path__, prefix=elevenlabs.__name__ + \".\"):\n    module = importlib.import_module(modname)\n    module.__dict__[\"ArrayJsonSchemaProperty\"] = ArrayJsonSchemaProperty\n\n长期方案：请关注官方更新，升级到修复了此问题的最新 SDK 版本。","https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fissues\u002F470",{"id":132,"question_zh":133,"answer_zh":134,"source_url":120},29585,"示例代码中的预设语音 'Nicole' 报错 'Voice not found' 如何处理？","预设语音列表可能会随 API 更新而变化，'Nicole' 可能在您当前的账户或 API 版本中不可用。\n解决方法：\n1. 更换为其他可用的预设语音名称，例如 'Bella', 'Rachel', 'Domi' 等。\n2. 先调用获取语音列表的 API 接口，确认当前可用的语音名称后再进行生成。\n3. 注意不要将生成器对象直接作为 JSON 发送，如果涉及自定义文本流，确保正确处理数据类型（如转换为列表），尽管主要报错通常是语音名称不存在。",[136,141,146,151,156,161,166,171,176,181,186,191,196,201,206,211,216,221,226,231],{"id":137,"version":138,"summary_zh":139,"released_at":140},206088,"v2.42.0","## 变更内容\n* :herb: Fern 重构 -- 2026年4月7日，由 @fern-api[bot] 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F762 中完成\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.41.0...v2.42.0","2026-04-07T17:35:16",{"id":142,"version":143,"summary_zh":144,"released_at":145},206089,"v2.41.0","## 变更内容\n* 修复：使 audio_interface 在仅文本聊天模式下变为可选，由 @mvanhorn 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F749 中完成\n* :herb: 蕨类再生 —— 2026年4月1日，由 @fern-api[bot] 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F756 中完成\n\n## 新贡献者\n* @mvanhorn 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F749 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.40.0...v2.41.0","2026-04-01T12:11:21",{"id":147,"version":148,"summary_zh":149,"released_at":150},206090,"v2.40.0","## 变更内容\n* 由 @AngeloGiacco 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F745 中添加了用于对话式 AI 的环境参数\n* :herb: 蕨类再生 —— 2026年3月23日，由 @fern-api[bot] 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F750 中完成\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.39.1...v2.40.0","2026-03-23T11:22:39",{"id":152,"version":153,"summary_zh":154,"released_at":155},206091,"v2.39.1","## 变更内容\n* :herb: Fern 重构 -- 2026年3月12日，由 @fern-api[bot] 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F744 中完成\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.39.0...v2.39.1","2026-03-12T18:32:35",{"id":157,"version":158,"summary_zh":159,"released_at":160},206092,"v2.39.0","> [!注意]\n> 虽然我们原本计划将 #744 纳入本次发布，但未能实现，它实际上已在 [v2.39.1](https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Freleases\u002Ftag\u002Fv2.39.1) 中。\n\n## 变更内容\n* @sedatcagdas 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F743 中添加了 multimodal_message WebSocket 事件\n\n## 新贡献者\n* @sedatcagdas 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F743 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.38.1...v2.39.0","2026-03-12T13:07:12",{"id":162,"version":163,"summary_zh":164,"released_at":165},206093,"v2.38.1","## 变更内容\n* [音乐] 由 @lpastusz 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F741 中修复了音乐详细信息端点对 CRLF 的正确解析问题。\n* 由 @PaulAsjes 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F742 中为音乐模块提供了补丁。\n\n## 新贡献者\n* @lpastusz 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F741 中完成了首次贡献。\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.38.0...v2.38.1","2026-03-06T10:02:06",{"id":167,"version":168,"summary_zh":169,"released_at":170},206094,"v2.38.0","## 变更内容\n* :herb: Fern 重构 -- 2026年3月5日，由 @fern-api[bot] 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F740 中提交\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.37.0...v2.38.0","2026-03-05T10:30:23",{"id":172,"version":173,"summary_zh":174,"released_at":175},206095,"v2.37.0","## 变更内容\n* [music] 支持新参数，并由 @vijaypemmaraju 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F731 中实现了歌曲 ID 的展示\n* :herb: 蕨类再生 —— 2026年2月27日，由 @fern-api[bot] 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F736 中完成\n\n## 新贡献者\n* @vijaypemmaraju 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F731 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.36.1...v2.37.0","2026-02-27T21:28:16",{"id":177,"version":178,"summary_zh":179,"released_at":180},206096,"v2.36.1","## 变更内容\n* [音乐] 由 @PaulAsjes 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F733 中添加了缺失的音乐参数\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.36.0...v2.36.1","2026-02-19T12:15:08",{"id":182,"version":183,"summary_zh":184,"released_at":185},206097,"v2.36.0","## 变更内容\n* ElevenAgents 品牌重塑，由 @PaulAsjes 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F729 中完成\n* :herb: Fern 再生 —— 2026年2月16日，由 @fern-api[bot] 在 https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F730 中完成\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.35.0...v2.36.0","2026-02-16T10:50:34",{"id":187,"version":188,"summary_zh":189,"released_at":190},206098,"v2.35.0","## What's Changed\r\n* :herb: Fern Regeneration -- February 9, 2026 by @fern-api[bot] in https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F728\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.34.0...v2.35.0","2026-02-09T11:27:20",{"id":192,"version":193,"summary_zh":194,"released_at":195},206099,"v2.34.0","## What's Changed\r\n* :herb: Fern Regeneration -- February 2, 2026 by @fern-api[bot] in https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F726\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.33.1...v2.34.0","2026-02-02T11:14:40",{"id":197,"version":198,"summary_zh":199,"released_at":200},206100,"v2.33.1","## What's Changed\r\n* [Scribe] Fix bug with URL streaming by @PaulAsjes in https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F725\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.33.0...v2.33.1","2026-01-30T13:50:49",{"id":202,"version":203,"summary_zh":204,"released_at":205},206101,"v2.33.0","## What's Changed\r\n* [Agents] Fixed bug with init and user_id by @PaulAsjes in https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F720\r\n* [Agents] Add audio alignment callback by @alexgoodison in https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F713\r\n* :herb: Fern Regeneration -- January 29, 2026 by @fern-api[bot] in https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F724\r\n\r\n## New Contributors\r\n* @alexgoodison made their first contribution in https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F713\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.32.0...v2.33.0","2026-01-29T11:34:28",{"id":207,"version":208,"summary_zh":209,"released_at":210},206102,"v2.32.0","## What's Changed\r\n* :herb: Fern Regeneration -- January 26, 2026 by @fern-api[bot] in https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F722\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.31.0...v2.32.0","2026-01-26T10:24:43",{"id":212,"version":213,"summary_zh":214,"released_at":215},206103,"v2.31.0","## What's Changed\r\n* :herb: Fern Regeneration -- January 19, 2026 by @fern-api[bot] in https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F719\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.30.0...v2.31.0","2026-01-19T09:30:16",{"id":217,"version":218,"summary_zh":219,"released_at":220},206104,"v2.30.0","## What's Changed\r\n* :herb: Fern Regeneration -- January 13, 2026 by @fern-api[bot] in https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F714\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.29.0...v2.30.0","2026-01-13T09:19:14",{"id":222,"version":223,"summary_zh":224,"released_at":225},206105,"v2.29.0","## What's Changed\r\n* :herb: Fern Regeneration -- January 9, 2026 by @fern-api[bot] in https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F711\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.28.0...v2.29.0","2026-01-09T08:43:00",{"id":227,"version":228,"summary_zh":229,"released_at":230},206106,"v2.28.0","## What's Changed\r\n* :herb: Fern Regeneration -- January 5, 2026 by @fern-api[bot] in https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F710\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.27.0...v2.28.0","2026-01-05T10:44:41",{"id":232,"version":233,"summary_zh":234,"released_at":235},206107,"v2.27.0","## What's Changed\r\n* [Scribe] Add audio format correctly and better typing by @PaulAsjes in https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F705\r\n* :herb: Fern Regeneration -- December 15, 2025 by @fern-api[bot] in https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fpull\u002F706\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Felevenlabs\u002Felevenlabs-python\u002Fcompare\u002Fv2.26.1...v2.27.0","2025-12-15T10:08:15"]