[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Shaunwei--RealChar":3,"tool-Shaunwei--RealChar":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160411,2,"2026-04-18T23:33:24",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":79,"owner_email":80,"owner_twitter":81,"owner_website":77,"owner_url":82,"languages":83,"stars":115,"forks":116,"last_commit_at":117,"license":118,"difficulty_score":10,"env_os":119,"env_gpu":120,"env_ram":121,"env_deps":122,"category_tags":136,"github_topics":77,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":138,"updated_at":139,"faqs":140,"releases":169},9408,"Shaunwei\u002FRealChar","RealChar","🎙️🤖Create, Customize and Talk to your AI Character\u002FCompanion in Realtime (All in One Codebase!). Have a natural seamless conversation with AI everywhere (mobile, web and terminal) using LLM OpenAI GPT3.5\u002F4, Anthropic Claude2, Chroma Vector DB, Whisper Speech2Text, ElevenLabs Text2Speech🎙️🤖","RealChar 是一个开源项目，旨在帮助用户轻松创建并实时与个性化的 AI 角色或伴侣进行自然对话。它解决了传统 AI 交互中响应延迟高、角色定制难以及跨平台体验割裂的痛点，让用户能在网页、手机终端甚至命令行界面中，享受如真人般流畅的语音交流体验。\n\n无论是希望快速拥有专属 AI 伙伴的普通用户，还是想要深入探索 AI 工程架构的开发者，RealChar 都提供了极佳的支持。对于非技术背景的用户，它无需编写代码即可定制角色的性格、背景故事乃至声音音色；而对于开发者和研究人员，其模块化的设计允许灵活替换底层组件，是学习构建实时 AI 应用的理想起点。\n\n在技术层面，RealChar 集成了当前最前沿的 AI 生态，包括 OpenAI GPT-4、Anthropic Claude 2 等大语言模型，结合 Whisper 实现高精度语音转文字，利用 ElevenLabs 生成逼真语音，并通过 Chroma 向量数据库赋予角色长期记忆能力。整个系统基于 FastAPI 和 React 等技术栈构建，支持 Docker 部署，展现了强大的灵活性与扩展性。如果你渴望体验或打造具备“真实感”的实时","RealChar 是一个开源项目，旨在帮助用户轻松创建并实时与个性化的 AI 角色或伴侣进行自然对话。它解决了传统 AI 交互中响应延迟高、角色定制难以及跨平台体验割裂的痛点，让用户能在网页、手机终端甚至命令行界面中，享受如真人般流畅的语音交流体验。\n\n无论是希望快速拥有专属 AI 伙伴的普通用户，还是想要深入探索 AI 工程架构的开发者，RealChar 都提供了极佳的支持。对于非技术背景的用户，它无需编写代码即可定制角色的性格、背景故事乃至声音音色；而对于开发者和研究人员，其模块化的设计允许灵活替换底层组件，是学习构建实时 AI 应用的理想起点。\n\n在技术层面，RealChar 集成了当前最前沿的 AI 生态，包括 OpenAI GPT-4、Anthropic Claude 2 等大语言模型，结合 Whisper 实现高精度语音转文字，利用 ElevenLabs 生成逼真语音，并通过 Chroma 向量数据库赋予角色长期记忆能力。整个系统基于 FastAPI 和 React 等技术栈构建，支持 Docker 部署，展现了强大的灵活性与扩展性。如果你渴望体验或打造具备“真实感”的实时 AI 互动，RealChar 值得尝试。","# \u003Cimg src=\"https:\u002F\u002Fstorage.googleapis.com\u002Fassistly\u002Fstatic\u002Frealchar\u002Frealchar.svg\" height=\"24px\" style=\"padding-top:4px\"\u002F>RealChar. - Your Realtime AI Character\n\u003Cbr\u002F>\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Fstorage.googleapis.com\u002Fassistly\u002Fstatic\u002Frealchar\u002Flogo.png\" alt=\"RealChar-logo\" width=\"80%\"  style=\"padding: 40px\"\u002F>\n\u003C\u002Fdiv>\n\u003Cbr\u002F>\n\u003Cp align=\"center\">\n  🎙️🤖\u003Cem>Create, customize and talk to your AI Character\u002FCompanion in realtime\u003C\u002Fem>🎙️🤖\n\u003C\u002Fp>\n\n\u003Cdiv align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Frealchar.ai\u002Fjoin-discord\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdiscord-join%20chat-blue.svg?style=for-the-badge\" alt=\"Join our Discord\" height=\"20\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fagishaun\">\n    \u003Cimg alt=\"Twitter Follow\" src=\"https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Ffollow\u002Fagishaun?style=for-the-badge\" height=\"20\">\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\">\n    \u003Cimg alt=\"GitHub\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FShaunwei\u002FRealChar?style=for-the-badge&color=gold\" height=\"20\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\u002Fcommits\u002Fmain\">\n    \u003Cimg alt=\"GitHub\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002FShaunwei\u002FRealChar\u002Fmain?style=for-the-badge\" height=\"20\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\u002Fblob\u002Fmain\u002FREADME.md\" target=\"_blank\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=license&message=MIT&color=green&style=for-the-badge\" alt=\"License\" height=\"20\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fhub.docker.com\u002Frepository\u002Fdocker\u002Fshaunly\u002Freal_char\u002Fgeneral\" target=\"_blank\">\n    \u003Cimg alt=\"Docker Pulls\" src=\"https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fpulls\u002Fshaunly\u002Freal_char?style=for-the-badge\"  height=\"20\">\n    \u003C\u002Fa>\n\u003C\u002Fdiv>\n\n## ✨ Demo\nTry our site at [RealChar.ai](https:\u002F\u002Frealchar.ai\u002F)\n\nNot sure how to pronounce RealChar? Listen to this 👉 [audip](https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\u002Fassets\u002F6148473\u002F45d4773c-eb4f-41e5-a162-f9513d650b76)\n\n### Demo 1 - with Santa Claus!\n\nhttps:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\u002Fassets\u002F5101573\u002F6b35a80e-5503-4850-973d-254039bd383c\n\n### Demo 2 - with AI Elon about cage fight!\n\nhttps:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\u002Fassets\u002F5101573\u002F5de0b023-6cf3-4947-84cb-596f429d109e\n\n### Demo 3 - with AI Raiden about AI and \"real\" memory\n\nhttps:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\u002Fassets\u002F5101573\u002F62a1f3d1-1166-4254-9119-97647be52c42\n\n\n\n__Demo settings: Web, GPT4, ElevenLabs with voice clone, Chroma, Google Speech to Text__\n\n## 🎯 Key Features\n- **Easy to use**: No coding required to create your own AI character.\n- **Customizable**: You can customize your AI character's personality, background, and even voice\n- **Realtime**: Talk to or message your AI character in realtime\n- **Multi-Platform**: You can talk to your AI character on web, terminal and mobile(Yes. we open source our mobile app)\n- **Most up-to-date AI**: We use the most up-to-date AI technology to power your AI character, including OpenAI, Anthropic Claude 2, Chroma, Whisper, ElevenLabs, etc.\n- **Modular**: You can easily swap out different modules to customize your flow. Less opinionated, more flexible. Great project to start your AI Engineering journey.\n\n## 🔬 Tech stack\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Fstorage.googleapis.com\u002Fassistly\u002Fstatic\u002Frealchar\u002Ftechstackv004.jpg\" alt=\"RealChar-tech-stack\" width=\"100%\"  style=\"padding: 20px\"\u002F>\n\u003C\u002Fdiv>\n\n- ✅**Web**: [React JS](https:\u002F\u002Freact.dev\u002F), [Vanilla JS](http:\u002F\u002Fvanilla-js.com\u002F), [WebSockets](https:\u002F\u002Fdeveloper.mozilla.org\u002Fen-US\u002Fdocs\u002FWeb\u002FAPI\u002FWebSockets_API)\n- ✅**Mobile**: [Swift](https:\u002F\u002Fdeveloper.apple.com\u002Fswift\u002F), [WebSockets](https:\u002F\u002Fdeveloper.mozilla.org\u002Fen-US\u002Fdocs\u002FWeb\u002FAPI\u002FWebSockets_API)\n- ✅**Backend**: [FastAPI](https:\u002F\u002Ffastapi.tiangolo.com\u002F), [SQLite](https:\u002F\u002Fwww.sqlite.org\u002Findex.html), [Docker](https:\u002F\u002Fwww.docker.com\u002F)\n- ✅**Data Ingestion**: [LlamaIndex](https:\u002F\u002Fwww.llamaindex.ai\u002F), [Chroma](https:\u002F\u002Fwww.trychroma.com\u002F)\n- ✅**LLM Orchestration**: [LangChain](https:\u002F\u002Flangchain.com\u002F), [Chroma](https:\u002F\u002Fwww.trychroma.com\u002F)\n- ✅**LLM**: [ReByte](https:\u002F\u002Frebyte.ai\u002F), [OpenAI GPT3.5\u002F4](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fapi-reference\u002Fchat), [Anthropic Claude 2](https:\u002F\u002Fdocs.anthropic.com\u002Fclaude\u002Fdocs\u002Fgetting-started-with-claude), [Anyscale Llama2](https:\u002F\u002Fdocs.endpoints.anyscale.com\u002Fsupported-models\u002Fmeta-llama-Llama-2-70b-chat-hf)\n- ✅**Speech to Text**: [Local WhisperX](https:\u002F\u002Fgithub.com\u002Fm-bain\u002FwhisperX), [Local Whisper](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fwhisper), [OpenAI Whisper API](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fapi-reference\u002Faudio), [Google Speech to Text](https:\u002F\u002Fcloud.google.com\u002Fspeech-to-text\u002Fdocs#docs)\n- ✅**Text to Speech**: [ElevenLabs](https:\u002F\u002Fbeta.elevenlabs.io\u002F), [Edge TTS](https:\u002F\u002Fgithub.com\u002Frany2\u002Fedge-tts), [Google Text to Speech](https:\u002F\u002Fcloud.google.com\u002Ftext-to-speech?hl=en)\n- ✅**Voice Clone**: [ElevenLabs](https:\u002F\u002Fbeta.elevenlabs.io\u002Fvoice-lab)\n\n## 📚 Comparison with existing products\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Fstorage.googleapis.com\u002Fassistly\u002Fstatic\u002Frealchar\u002Fcompare.png\">\n\u003C\u002Fdiv>\n\n## 📀 Quick Start - Installation via Docker\n\n1.  Create a new `.env` file\n    ```sh\n    cp .env.example .env\n    ```\n    Paste your API keys in `.env` file. A single [ReByte](#11-rebyte-api-key) or [OpenAI](#12-optional-openai-api-token) API key is enough to get started.\n    \n    You can also configure other API keys if you have them.\n\n1.  Start the app with `docker-compose.yaml`\n    ```sh\n    docker compose up\n    ```\n    If you have issues with docker (especially on a non-Linux machine), please refer to https:\u002F\u002Fdocs.docker.com\u002Fget-docker\u002F (installation) and https:\u002F\u002Fdocs.docker.com\u002Fdesktop\u002Ftroubleshoot\u002Foverview\u002F (troubleshooting).\n\n1.  Open http:\u002F\u002Flocalhost:3000 and enjoy the app!\n\n## 💿 Developers - Installation via Python\n- **Step 1**. Clone the repo\n   ```sh\n   git clone https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar.git && cd RealChar\n    ```\n- **Step 2**. Install requirements\n\n    Install [portaudio](https:\u002F\u002Fpeople.csail.mit.edu\u002Fhubert\u002Fpyaudio\u002F) and [ffmpeg](https:\u002F\u002Fffmpeg.org\u002Fdownload.html) for audio\n    ```sh\n    # for mac\n    brew install portaudio\n    brew install ffmpeg\n    ```\n    ```sh\n    # for ubuntu\n    sudo apt update\n    sudo apt install portaudio19-dev\n    sudo apt install ffmpeg\n    ```\n    Note: \n    \n    - `ffmpeg>=4.4` is needed to work with `torchaudio>=2.1.0`\n\n    - Mac users may need to add ffmpeg library path to `DYLD_LIBRARY_PATH` for torchaudio to work:\n        ```sh\n        export DYLD_LIBRARY_PATH=\u002Fopt\u002Fhomebrew\u002Flib:$DYLD_LIBRARY_PATH\n        ```\n    \n    Then install all python requirements\n    ```sh\n    pip install -r requirements.txt\n    ```\n    If you need a faster local speech to text, install whisperX\n    ```sh\n    pip install git+https:\u002F\u002Fgithub.com\u002Fm-bain\u002Fwhisperx.git\n    ```\n- **Step 3**. Create an empty [sqlite](https:\u002F\u002Fwww.sqlite.org\u002Findex.html) database if you have not done so before\n    ```sh\n    sqlite3 test.db \"VACUUM;\"\n    ```\n- **Step 4**. Run db upgrade\n    ```sh\n    alembic upgrade head\n    ```\n    This ensures your database schema is up to date. Please run this after every time you pull the main branch.\n- **Step 5**. Setup `.env`:\n    ```sh\n    cp .env.example .env\n    ```\n    Update API keys and configs following the instructions in the `.env` file.\n    > Note that some features require a working login system. You can get your own OAuth2 login for free with [Firebase](https:\u002F\u002Ffirebase.google.com\u002F) if needed. To enable, set `USE_AUTH` to `true` and fill in the `FIREBASE_CONFIG_PATH` field. Also fill in Firebase configs in `client\u002Fnext-web\u002F.env`.\n- **Step 6**. Run backend server with `cli.py` or use uvicorn directly\n    ```sh\n    python cli.py run-uvicorn\n    # or\n    uvicorn realtime_ai_character.main:app\n    ```\n- **Step 7**. Run frontend client:\n    - web client:\n\n        Create an `.env` file under `client\u002Fnext-web\u002F`\n        ```sh\n        cp client\u002Fnext-web\u002F.env.example client\u002Fnext-web\u002F.env\n        ```\n        Adjust `.env` according to the instruction in `client\u002Fnext-web\u002FREADME.md`.\n        \n        Start the frontend server:\n        ```sh\n        python cli.py next-web-dev\n        # or\n        cd client\u002Fnext-web && npm run dev\n        # or\n        cd client\u002Fnext-web && npm run build && npm run start\n        ```\n        After running these commands, a local development server will start, and your default web browser will open a new tab\u002Fwindow pointing to this server (usually http:\u002F\u002Flocalhost:3000).\n    - (Optional) Terminal client:\n    \n        Run the following command in your terminal\n        ```sh\n        python client\u002Fcli.py\n        ```\n    - (Optional) mobile client:\n    \n        open `client\u002Fmobile\u002Fios\u002Frac\u002Frac.xcodeproj\u002Fproject.pbxproj` in Xcode and run the app\n- **Step 8**. Select one character to talk to, then start talking. Use **GPT4** for better conversation and **Wear headphone** for best audio(avoid echo)\n\nNote if you want to remotely connect to a RealChar server, SSL set up is required to establish the audio connection. \n\n## 👨‍🚀 API Keys and Configurations\n\n### 1. LLMs\n\n### 1.1 ReByte API Key\nTo get your ReByte API key, follow these steps:\n\n1. Go to the [ReByte website](https:\u002F\u002Frebyte.ai\u002F) and sign up for an account if you haven't already.\n1. Once you're logged in, go to Settings > API Keys.\n1. Generate a new API key by clicking on the \"Generate\" button.\n\n### 1.2 (Optional) OpenAI API Token\n\u003Cdetails>\u003Csummary>👇click me\u003C\u002Fsummary>\nThis application utilizes the OpenAI API to access its powerful language model capabilities. In order to use the OpenAI API, you will need to obtain an API token.\n\nTo get your OpenAI API token, follow these steps:\n\n1. Go to the [OpenAI website](https:\u002F\u002Fbeta.openai.com\u002Fsignup\u002F) and sign up for an account if you haven't already.\n1. Once you're logged in, navigate to the [API keys page](https:\u002F\u002Fbeta.openai.com\u002Faccount\u002Fapi-keys).\n1. Generate a new API key by clicking on the \"Create API Key\" button.\n\n(Optional) To use Azure OpenAI API instead, refer to the following section:\n\n1. Set API type in your `.env` file:\n`OPENAI_API_TYPE=azure`\n\nIf you want to use the earlier version `2023-03-15-preview`:\n\n`OPENAI_API_VERSION=2023-03-15-preview`\n\n2. To set the base URL for your Azure OpenAI resource.\nYou can find this in the Azure portal under your Azure OpenAI resource.\n\n`OPENAI_API_BASE=https:\u002F\u002Fyour-base-url.openai.azure.com`\n\n3. To set the OpenAI model deployment name for your Azure OpenAI resource.\n\n`OPENAI_API_MODEL_DEPLOYMENT_NAME=gpt-35-turbo-16k`\n\n4. To set the OpenAIEmbeddings model deployment name for your Azure OpenAI resource.\n\n`OPENAI_API_EMBEDDING_DEPLOYMENT_NAME=text-embedding-ada-002`\n\n\u003C\u002Fdetails>\n\n### 1.3 (Optional) Anthropic(Claude 2) API Token\n\u003Cdetails>\u003Csummary>👇click me\u003C\u002Fsummary>\n\nTo get your Anthropic API token, follow these steps:\n\n1. Go to the [Anthropic website](https:\u002F\u002Fdocs.anthropic.com\u002Fclaude\u002Fdocs\u002Fgetting-started-with-claude) and sign up for an account if you haven't already.\n1. Once you're logged in, navigate to the [API keys page](https:\u002F\u002Fconsole.anthropic.com\u002Faccount\u002Fkeys).\n1. Generate a new API key by clicking on the \"Create Key\" button.\n\u003C\u002Fdetails>\n\n### 1.4 (Optional) Anyscale API Token\n\u003Cdetails>\u003Csummary>👇click me\u003C\u002Fsummary>\n\nTo get your Anyscale API token, follow these steps:\n\n1. Go to the [Anyscale website](https:\u002F\u002Fwww.anyscale.com\u002F) and sign up for an account if you haven't already.\n1. Once you're logged in, navigate to the [Credentials page](https:\u002F\u002Fapp.endpoints.anyscale.com\u002Fcredentials).\n1. Generate a new API key by clicking on the \"Generate credential\" button.\n\u003C\u002Fdetails>\n\n### 2. Speech to Text\n\nWe support [faster-whisper](https:\u002F\u002Fgithub.com\u002FSYSTRAN\u002Ffaster-whisper) and [whisperX](https:\u002F\u002Fgithub.com\u002Fm-bain\u002FwhisperX) as the local speech to text engines. Work with CPU and NVIDIA GPU.\n\n### 2.1 (Optional) Google Speech-to-Text API\n\u003Cdetails>\u003Csummary>👇click me\u003C\u002Fsummary>\n\nTo get your Google Cloud API credentials.json, follow these steps:\n\n1. Go to the [GCP website](https:\u002F\u002Fcloud.google.com\u002Fspeech-to-text\u002Fdocs\u002Fbefore-you-begin) and sign up for an account if you haven't already.\n2. Follow the guide to create a project and enable Speech to Text API\n3. Put `google_credentials.json` in the root folder of this project. Check [Create and delete service account keys](https:\u002F\u002Fcloud.google.com\u002Fiam\u002Fdocs\u002Fkeys-create-delete#iam-service-account-keys-create-console)\n4. Change `SPEECH_TO_TEXT_USE` to use `GOOGLE` in your `.env` file\n\u003C\u002Fdetails>\n\n### 2.2 (Optional) OpenAI Whisper API\n\u003Cdetails>\u003Csummary>👇click me\u003C\u002Fsummary>\n\nSame as [OpenAI API Token](#12-optional-openai-api-token)\n\u003C\u002Fdetails>\n\n### 3. Text to Speech\n\nEdge TTS is the default and is free to use.\n\n### 3.1 (Optional) ElevenLabs API Key\n\u003Cdetails>\u003Csummary>👇click me\u003C\u002Fsummary>\n\n1. Creating an ElevenLabs Account\n\n    Visit [ElevenLabs](https:\u002F\u002Fbeta.elevenlabs.io\u002F) to create an account. You'll need this to access the text to speech and voice cloning features.\n\n1. In your Profile Setting, you can get an API Key.\n\n\u003C\u002Fdetails>\n\n### 3.2 (Optional) Google Text-to-Speech API\n\n\u003Cdetails>\u003Csummary>👇click me\u003C\u002Fsummary>\n\nTo get your Google Cloud API credentials.json, follow these steps:\n\n1. Go to the [GCP website](https:\u002F\u002Fcloud.google.com\u002Ftext-to-speech\u002Fdocs\u002Fquickstart-client-libraries) and sign up for an account if you haven't already.\n2. Follow the guide to create a project and enable Text to Speech API\n3. Put `google_credentials.json` in the root folder of this project. Check [Create and delete service account keys](https:\u002F\u002Fcloud.google.com\u002Fiam\u002Fdocs\u002Fkeys-create-delete#iam-service-account-keys-create-console)\n\u003C\u002Fdetails>\n\n## (Optional) 🔥 Create Your Own Characters\n\u003Cdetails>\u003Csummary>👇click me\u003C\u002Fsummary>\n\n### Create Characters Locally\nsee [realtime_ai_character\u002Fcharacter_catalog\u002FREADME.md](realtime_ai_character\u002Fcharacter_catalog\u002FREADME.md)\n\n### Create Characters on ReByte.ai\nsee [docs\u002Frebyte_agent_clone_instructions.md](docs\u002Frebyte_agent_clone_instructions.md)\n\u003C\u002Fdetails>\n\n## (Optional) ☎️ Twilio Integration\n\u003Cdetails>\u003Csummary>👇click me\u003C\u002Fsummary>\n\nTo use [Twilio](https:\u002F\u002Fwww.twilio.com\u002Fen-us) with RealChar, you need to set up a Twilio account. Then, fill in the following environment variables in your `.env` file:\n```sh\nTWILIO_ACCOUNT_SID=YOUR_TWILIO_ACCOUNT_SID\nTWILIO_ACCESS_TOKEN=YOUR_TWILIO_ACCESS_TOKEN\nDEFAULT_CALLOUT_NUMBER=YOUR_PHONE_NUMBER\n```\nYou'll also need to install `torch` and `torchaudio` to use Twilio.\n\nNow, you can receive phone calls from your characters by typing `\u002Fcall YOURNUMBER` in the text box when chatting with your character.\n\nNote: only US phone numbers and Elevenlabs voiced characters are supported at the moment.\n\u003C\u002Fdetails>\n\n## 🆕! Anyscale and LangSmith integration\n\u003Cdetails>\u003Csummary>👇click me\u003C\u002Fsummary>\n\n### Anyscale\nYou can now use [Anyscale Endpoint](https:\u002F\u002Fapp.endpoints.anyscale.com\u002Flanding) to serve Llama-2 models in your RealChar easily! Simply register an account with Anyscale Endpoint. Once you get the API key, set this environment variable in your `.env` file:\n```\nANYSCALE_ENDPOINT_API_KEY=\u003Cyour API Key>\n```\nBy default, we show the largest servable Llama-2 model (70B) in the Web UI. You can change the model name (`meta-llama\u002FLlama-2-70b-chat-hf`) to other models, e.g. 13b or 7b versions.\n\n### LangSmith\nIf you have access to LangSmith, you can edit these environment variables to enable:\n```\nLANGCHAIN_TRACING_V2=false # default off\nLANGCHAIN_ENDPOINT=https:\u002F\u002Fapi.smith.langchain.com\nLANGCHAIN_API_KEY=YOUR_LANGCHAIN_API_KEY\nLANGCHAIN_PROJECT=YOUR_LANGCHAIN_PROJECT\n```\nAnd it should work out of the box.\n\n\u003C\u002Fdetails>\n\n\u003Cbr\u002F>\n\n## 📍 Roadmap\n- [x] Launch v0.0.4\n- [x] Create a new character via web UI\n- [x] Lower conversation latency\n- [x] Support Twilio\n- [x] Support ReByte\n- [x] Persistent conversation*\n- [ ] Session management*\n- [ ] Support RAG*\n- [ ] Support Agents\u002FGPTs*\n- [ ] Add additional TTS service*\n\n$*$ These features are powered by [ReByte](https:\u002F\u002Frebyte.ai\u002F) platform.\n\n## 🫶 Contribute to RealChar\nPlease check out our [Contribution Guide](contribute.md)!\n\n## 💪 Contributors\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FShaunwei_RealChar_readme_792781c5bc24.png\" \u002F>\n\u003C\u002Fa>\n\n## 🎲 Community\n- Join us on [Discord](https:\u002F\u002Frealchar.ai\u002Fjoin-discord)\n","# \u003Cimg src=\"https:\u002F\u002Fstorage.googleapis.com\u002Fassistly\u002Fstatic\u002Frealchar\u002Frealchar.svg\" height=\"24px\" style=\"padding-top:4px\"\u002F>RealChar. - 您的实时AI角色\n\u003Cbr\u002F>\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Fstorage.googleapis.com\u002Fassistly\u002Fstatic\u002Frealchar\u002Flogo.png\" alt=\"RealChar-logo\" width=\"80%\"  style=\"padding: 40px\"\u002F>\n\u003C\u002Fdiv>\n\u003Cbr\u002F>\n\u003Cp align=\"center\">\n  🎙️🤖\u003Cem>创建、自定义并与您的AI角色\u002F伙伴实时对话\u003C\u002Fem>🎙️🤖\n\u003C\u002Fp>\n\n\u003Cdiv align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Frealchar.ai\u002Fjoin-discord\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdiscord-join%20chat-blue.svg?style=for-the-badge\" alt=\"加入我们的Discord\" height=\"20\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fagishaun\">\n    \u003Cimg alt=\"Twitter关注\" src=\"https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Ffollow\u002Fagishaun?style=for-the-badge\" height=\"20\">\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\">\n    \u003Cimg alt=\"GitHub\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FShaunwei\u002FRealChar?style=for-the-badge&color=gold\" height=\"20\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\u002Fcommits\u002Fmain\">\n    \u003Cimg alt=\"GitHub\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002FShaunwei\u002FRealChar\u002Fmain?style=for-the-badge\" height=\"20\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\u002Fblob\u002Fmain\u002FREADME.md\" target=\"_blank\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=license&message=MIT&color=green&style=for-the-badge\" alt=\"许可证\" height=\"20\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fhub.docker.com\u002Frepository\u002Fdocker\u002Fshaunly\u002Freal_char\u002Fgeneral\" target=\"_blank\">\n    \u003Cimg alt=\"Docker拉取次数\" src=\"https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fpulls\u002Fshaunly\u002Freal_char?style=for-the-badge\"  height=\"20\">\n    \u003C\u002Fa>\n\u003C\u002Fdiv>\n\n## ✨ 演示\n请访问我们的网站 [RealChar.ai](https:\u002F\u002Frealchar.ai\u002F) 进行体验。\n\n不确定如何发音“RealChar”？请听这个 👉 [audip](https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\u002Fassets\u002F6148473\u002F45d4773c-eb4f-41e5-a162-f9513d650b76)\n\n### 演示1 - 与圣诞老人！\n\nhttps:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\u002Fassets\u002F5101573\u002F6b35a80e-5503-4850-973d-254039bd383c\n\n### 演示2 - 与AI版埃隆·马斯克讨论笼中格斗！\n\nhttps:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\u002Fassets\u002F5101573\u002F5de0b023-6cf3-4947-84cb-596f429d109e\n\n### 演示3 - 与AI版雷电谈论AI和“真实”记忆\n\nhttps:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\u002Fassets\u002F5101573\u002F62a1f3d1-1166-4254-9119-97647be52c42\n\n\n\n__演示设置：Web、GPT4、ElevenLabs语音克隆、Chroma、Google语音转文本__\n\n## 🎯 核心功能\n- **易于使用**：无需编码即可创建属于您自己的AI角色。\n- **可定制化**：您可以自定义AI角色的性格、背景，甚至声音。\n- **实时互动**：与您的AI角色进行实时对话或消息交流。\n- **多平台支持**：您可以在网页、终端以及移动端与AI角色互动（是的，我们的移动应用已开源）。\n- **最前沿的AI技术**：我们采用最先进的AI技术来驱动您的AI角色，包括OpenAI、Anthropic Claude 2、Chroma、Whisper、ElevenLabs等。\n- **模块化设计**：您可以轻松更换不同的模块以定制流程。更少的预设限制，更多的灵活性。是开启AI工程之旅的理想项目。\n\n## 🔬 技术栈\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Fstorage.googleapis.com\u002Fassistly\u002Fstatic\u002Frealchar\u002Ftechstackv004.jpg\" alt=\"RealChar-tech-stack\" width=\"100%\"  style=\"padding: 20px\"\u002F>\n\u003C\u002Fdiv>\n\n- ✅**Web**: [React JS](https:\u002F\u002Freact.dev\u002F)、[Vanilla JS](http:\u002F\u002Fvanilla-js.com\u002F)、[WebSockets](https:\u002F\u002Fdeveloper.mozilla.org\u002Fen-US\u002Fdocs\u002FWeb\u002FAPI\u002FWebSockets_API)\n- ✅**移动端**: [Swift](https:\u002F\u002Fdeveloper.apple.com\u002Fswift\u002F)、[WebSockets](https:\u002F\u002Fdeveloper.mozilla.org\u002Fen-US\u002Fdocs\u002FWeb\u002FAPI\u002FWebSockets_API)\n- ✅**后端**: [FastAPI](https:\u002F\u002Ffastapi.tiangolo.com\u002F)、[SQLite](https:\u002F\u002Fwww.sqlite.org\u002Findex.html)、[Docker](https:\u002F\u002Fwww.docker.com\u002F)\n- ✅**数据摄取**: [LlamaIndex](https:\u002F\u002Fwww.llamaindex.ai\u002F)、[Chroma](https:\u002F\u002Fwww.trychroma.com\u002F)\n- ✅**LLM编排**: [LangChain](https:\u002F\u002Flangchain.com\u002F)、[Chroma](https:\u002F\u002Fwww.trychroma.com\u002F)\n- ✅**大模型**: [ReByte](https:\u002F\u002Frebyte.ai\u002F)、[OpenAI GPT3.5\u002F4](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fapi-reference\u002Fchat)、[Anthropic Claude 2](https:\u002F\u002Fdocs.anthropic.com\u002Fclaude\u002Fdocs\u002Fgetting-started-with-claude)、[Anyscale Llama2](https:\u002F\u002Fdocs.endpoints.anyscale.com\u002Fsupported-models\u002Fmeta-llama-Llama-2-70b-chat-hf)\n- ✅**语音转文本**: [本地WhisperX](https:\u002F\u002Fgithub.com\u002Fm-bain\u002FwhisperX)、[本地Whisper](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fwhisper)、[OpenAI Whisper API](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fapi-reference\u002Faudio)、[Google语音转文本](https:\u002F\u002Fcloud.google.com\u002Fspeech-to-text\u002Fdocs#docs)\n- ✅**文本转语音**: [ElevenLabs](https:\u002F\u002Fbeta.elevenlabs.io\u002F)、[Edge TTS](https:\u002F\u002Fgithub.com\u002Frany2\u002Fedge-tts)、[Google文本转语音](https:\u002F\u002Fcloud.google.com\u002Ftext-to-speech?hl=en)\n- ✅**语音克隆**: [ElevenLabs](https:\u002F\u002Fbeta.elevenlabs.io\u002Fvoice-lab)\n\n## 📚 与现有产品的对比\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Fstorage.googleapis.com\u002Fassistly\u002Fstatic\u002Frealchar\u002Fcompare.png\">\n\u003C\u002Fdiv>\n\n## 📀 快速入门 - 使用Docker安装\n\n1. 创建一个新的`.env`文件\n    ```sh\n    cp .env.example .env\n    ```\n    将您的API密钥粘贴到`.env`文件中。只需一个[ReByte](#11-rebyte-api-key)或[OpenAI](#12-optional-openai-api-token)的API密钥即可开始使用。\n    \n    如果您有其他API密钥，也可以一并配置。\n\n1. 使用`docker-compose.yaml`启动应用\n    ```sh\n    docker compose up\n    ```\n    如果您在使用Docker时遇到问题（尤其是在非Linux系统上），请参考 https:\u002F\u002Fdocs.docker.com\u002Fget-docker\u002F（安装指南）和 https:\u002F\u002Fdocs.docker.com\u002Fdesktop\u002Ftroubleshoot\u002Foverview\u002F（故障排除指南）。\n\n1. 打开 http:\u002F\u002Flocalhost:3000，尽情享受吧！\n\n## 💿 开发者 - 通过 Python 安装\n- **步骤 1**。克隆仓库\n   ```sh\n   git clone https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar.git && cd RealChar\n    ```\n- **步骤 2**。安装依赖\n\n    安装 [portaudio](https:\u002F\u002Fpeople.csail.mit.edu\u002Fhubert\u002Fpyaudio\u002F) 和 [ffmpeg](https:\u002F\u002Fffmpeg.org\u002Fdownload.html) 以支持音频处理\n    ```sh\n    # 对于 macOS\n    brew install portaudio\n    brew install ffmpeg\n    ```\n    ```sh\n    # 对于 Ubuntu\n    sudo apt update\n    sudo apt install portaudio19-dev\n    sudo apt install ffmpeg\n    ```\n    注意：\n    \n    - 需要 `ffmpeg>=4.4` 才能与 `torchaudio>=2.1.0` 兼容。\n\n    - macOS 用户可能需要将 ffmpeg 库路径添加到 `DYLD_LIBRARY_PATH` 中，以便 torchaudio 正常工作：\n        ```sh\n        export DYLD_LIBRARY_PATH=\u002Fopt\u002Fhomebrew\u002Flib:$DYLD_LIBRARY_PATH\n        ```\n    \n    接着安装所有 Python 依赖项\n    ```sh\n    pip install -r requirements.txt\n    ```\n    如果你需要更快的本地语音转文本功能，可以安装 whisperX\n    ```sh\n    pip install git+https:\u002F\u002Fgithub.com\u002Fm-bain\u002Fwhisperx.git\n    ```\n- **步骤 3**。如果你之前没有创建过数据库，请先创建一个空的 [sqlite](https:\u002F\u002Fwww.sqlite.org\u002Findex.html) 数据库\n    ```sh\n    sqlite3 test.db \"VACUUM;\"\n    ```\n- **步骤 4**。执行数据库升级\n    ```sh\n    alembic upgrade head\n    ```\n    这一步确保你的数据库模式是最新的。每次从主分支拉取代码后，请务必运行此命令。\n- **步骤 5**。配置 `.env` 文件：\n    ```sh\n    cp .env.example .env\n    ```\n    根据 `.env` 文件中的说明更新 API 密钥和配置。\n    > 注意：某些功能需要登录系统才能正常运行。如果需要，你可以使用 [Firebase](https:\u002F\u002Ffirebase.google.com\u002F) 免费获取自己的 OAuth2 登录系统。启用方法是将 `USE_AUTH` 设置为 `true`，并填写 `FIREBASE_CONFIG_PATH` 字段。同时在 `client\u002Fnext-web\u002F.env` 中填写 Firebase 配置。\n- **步骤 6**。使用 `cli.py` 启动后端服务器，或者直接使用 uvicorn：\n    ```sh\n    python cli.py run-uvicorn\n    # 或者\n    uvicorn realtime_ai_character.main:app\n    ```\n- **步骤 7**。启动前端客户端：\n    - Web 客户端：\n\n        在 `client\u002Fnext-web\u002F` 目录下创建 `.env` 文件\n        ```sh\n        cp client\u002Fnext-web\u002F.env.example client\u002Fnext-web\u002F.env\n        ```\n        根据 `client\u002Fnext-web\u002FREADME.md` 中的说明调整 `.env` 文件。\n\n        启动前端服务器：\n        ```sh\n        python cli.py next-web-dev\n        # 或者\n        cd client\u002Fnext-web && npm run dev\n        # 或者\n        cd client\u002Fnext-web && npm run build && npm run start\n        ```\n        执行这些命令后，本地开发服务器将会启动，你的默认浏览器会打开一个指向该服务器的新标签页（通常是 http:\u002F\u002Flocalhost:3000）。\n    - （可选）终端客户端：\n\n        在终端中运行以下命令\n        ```sh\n        python client\u002Fcli.py\n        ```\n    - （可选）移动端客户端：\n\n        使用 Xcode 打开 `client\u002Fmobile\u002Fios\u002Frac\u002Frac.xcodeproj\u002Fproject.pbxproj` 并运行应用。\n- **步骤 8**。选择一个角色进行对话，然后开始交流。使用 **GPT4** 可获得更好的对话体验，并且为了获得最佳音质，请佩戴耳机（避免回声）。\n\n注意：如果你想远程连接到 RealChar 服务器，需要设置 SSL 才能建立音频连接。\n\n## 👨‍🚀 API 密钥和配置\n\n### 1. 大语言模型\n\n### 1.1 ReByte API 密钥\n要获取 ReByte API 密钥，请按照以下步骤操作：\n\n1. 访问 [ReByte 官网](https:\u002F\u002Frebyte.ai\u002F) 并注册账户（如果尚未注册）。\n1. 登录后，进入“设置”>“API 密钥”。\n1. 点击“生成”按钮，创建一个新的 API 密钥。\n\n### 1.2 （可选）OpenAI API Token\n\u003Cdetails>\u003Csummary>👇点击我\u003C\u002Fsummary>\n本应用使用 OpenAI API 来访问其强大的语言模型能力。要使用 OpenAI API，你需要获取一个 API Token。\n\n获取 OpenAI API Token 的步骤如下：\n\n1. 访问 [OpenAI 官网](https:\u002F\u002Fbeta.openai.com\u002Fsignup\u002F) 并注册账户（如果尚未注册）。\n1. 登录后，前往 [API 密钥页面](https:\u002F\u002Fbeta.openai.com\u002Faccount\u002Fapi-keys)。\n1. 点击“创建 API Key”按钮，生成一个新的 API 密钥。\n\n（可选）若要使用 Azure OpenAI API，请参考以下部分：\n\n1. 在 `.env` 文件中设置 API 类型：\n`OPENAI_API_TYPE=azure`\n\n如果你希望使用早期版本 `2023-03-15-preview`：\n\n`OPENAI_API_VERSION=2023-03-15-preview`\n\n2. 设置 Azure OpenAI 资源的基 URL。\n你可以在 Azure 门户的 Azure OpenAI 资源中找到它。\n\n`OPENAI_API_BASE=https:\u002F\u002Fyour-base-url.openai.azure.com`\n\n3. 设置 Azure OpenAI 资源的 OpenAI 模型部署名称。\n\n`OPENAI_API_MODEL_DEPLOYMENT_NAME=gpt-35-turbo-16k`\n\n4. 设置 Azure OpenAI 资源的 OpenAIEmbeddings 模型部署名称。\n\n`OPENAI_API_EMBEDDING_DEPLOYMENT_NAME=text-embedding-ada-002`\n\n\u003C\u002Fdetails>\n\n### 1.3 （可选）Anthropic(Claude 2) API Token\n\u003Cdetails>\u003Csummary>👇点击我\u003C\u002Fsummary>\n\n要获取 Anthropic API Token，请按照以下步骤操作：\n\n1. 访问 [Anthropic 官网](https:\u002F\u002Fdocs.anthropic.com\u002Fclaude\u002Fdocs\u002Fgetting-started-with-claude) 并注册账户（如果尚未注册）。\n1. 登录后，前往 [API 密钥页面](https:\u002F\u002Fconsole.anthropic.com\u002Faccount\u002Fkeys)。\n1. 点击“创建密钥”按钮，生成一个新的 API 密钥。\n\u003C\u002Fdetails>\n\n### 1.4 （可选）Anyscale API Token\n\u003Cdetails>\u003Csummary>👇点击我\u003C\u002Fsummary>\n\n要获取 Anyscale API Token，请按照以下步骤操作：\n\n1. 访问 [Anyscale 官网](https:\u002F\u002Fwww.anyscale.com\u002F) 并注册账户（如果尚未注册）。\n1. 登录后，前往 [凭证页面](https:\u002F\u002Fapp.endpoints.anyscale.com\u002Fcredentials)。\n1. 点击“生成凭证”按钮，创建一个新的 API 密钥。\n\u003C\u002Fdetails>\n\n### 2. 语音转文本\n\n我们支持 [faster-whisper](https:\u002F\u002Fgithub.com\u002FSYSTRAN\u002Ffaster-whisper) 和 [whisperX](https:\u002F\u002Fgithub.com\u002Fm-bain\u002FwhisperX) 作为本地语音转文本引擎。它们可在 CPU 和 NVIDIA GPU 上运行。\n\n### 2.1 （可选）Google Speech-to-Text API\n\u003Cdetails>\u003Csummary>👇点击我\u003C\u002Fsummary>\n\n要获取 Google Cloud API credentials.json，请按照以下步骤操作：\n\n1. 访问 [GCP 官网](https:\u002F\u002Fcloud.google.com\u002Fspeech-to-text\u002Fdocs\u002Fbefore-you-begin) 并注册账户（如果尚未注册）。\n2. 按照指南创建项目并启用 Speech to Text API。\n3. 将 `google_credentials.json` 放入本项目的根目录。请参考 [创建和删除服务账号密钥](https:\u002F\u002Fcloud.google.com\u002Fiam\u002Fdocs\u002Fkeys-create-delete#iam-service-account-keys-create-console)。\n4. 在你的 `.env` 文件中将 `SPEECH_TO_TEXT_USE` 更改为 `GOOGLE`。\n\u003C\u002Fdetails>\n\n### 2.2 （可选）OpenAI Whisper API\n\u003Cdetails>\u003Csummary>👇点击我\u003C\u002Fsummary>\n\n与 [OpenAI API Token](#12-optional-openai-api-token) 相同。\n\u003C\u002Fdetails>\n\n### 3. 文本转语音\n\nEdge TTS 是默认选项，且免费使用。\n\n### 3.1（可选）ElevenLabs API 密钥\n\u003Cdetails>\u003Csummary>👇点击我\u003C\u002Fsummary>\n\n1. 创建 ElevenLabs 账户\n\n    访问 [ElevenLabs](https:\u002F\u002Fbeta.elevenlabs.io\u002F) 创建一个账户。您需要此账户来访问文本转语音和语音克隆功能。\n\n1. 在您的个人资料设置中，您可以获取 API 密钥。\n\n\u003C\u002Fdetails>\n\n### 3.2（可选）Google 文本转语音 API\n\n\u003Cdetails>\u003Csummary>👇点击我\u003C\u002Fsummary>\n\n要获取您的 Google Cloud API credentials.json，请按照以下步骤操作：\n\n1. 前往 [GCP 官网](https:\u002F\u002Fcloud.google.com\u002Ftext-to-speech\u002Fdocs\u002Fquickstart-client-libraries)，如果您尚未注册，请先创建一个账户。\n2. 按照指南创建项目并启用文本转语音 API。\n3. 将 `google_credentials.json` 放入该项目的根目录。请参阅 [创建和删除服务账号密钥](https:\u002F\u002Fcloud.google.com\u002Fiam\u002Fdocs\u002Fkeys-create-delete#iam-service-account-keys-create-console)。\n\u003C\u002Fdetails>\n\n## （可选）🔥 创建您自己的角色\n\u003Cdetails>\u003Csummary>👇点击我\u003C\u002Fsummary>\n\n### 在本地创建角色\n请参阅 [realtime_ai_character\u002Fcharacter_catalog\u002FREADME.md](realtime_ai_character\u002Fcharacter_catalog\u002FREADME.md)\n\n### 在 ReByte.ai 上创建角色\n请参阅 [docs\u002Frebyte_agent_clone_instructions.md](docs\u002Frebyte_agent_clone_instructions.md)\n\u003C\u002Fdetails>\n\n## （可选）☎️ Twilio 集成\n\u003Cdetails>\u003Csummary>👇点击我\u003C\u002Fsummary>\n\n要将 [Twilio](https:\u002F\u002Fwww.twilio.com\u002Fen-us) 与 RealChar 配合使用，您需要先设置一个 Twilio 账户。然后，在您的 `.env` 文件中填写以下环境变量：\n```sh\nTWILIO_ACCOUNT_SID=YOUR_TWILIO_ACCOUNT_SID\nTWILIO_ACCESS_TOKEN=YOUR_TWILIO_ACCESS_TOKEN\nDEFAULT_CALLOUT_NUMBER=YOUR_PHONE_NUMBER\n```\n此外，您还需要安装 `torch` 和 `torchaudio` 才能使用 Twilio。\n\n现在，您可以通过在与角色聊天时，在文本框中输入 `\u002Fcall YOURNUMBER` 来接收来自您角色的电话。\n\n注意：目前仅支持美国电话号码和由 ElevenLabs 提供语音的角色。\n\u003C\u002Fdetails>\n\n## 🆕！Anyscale 和 LangSmith 集成\n\u003Cdetails>\u003Csummary>👇点击我\u003C\u002Fsummary>\n\n### Anyscale\n您现在可以使用 [Anyscale Endpoint](https:\u002F\u002Fapp.endpoints.anyscale.com\u002Flanding) 轻松地在您的 RealChar 中部署 Llama-2 模型！只需在 Anyscale Endpoint 注册一个账户。获得 API 密钥后，在您的 `.env` 文件中设置以下环境变量：\n```\nANYSCALE_ENDPOINT_API_KEY=\u003C您的 API 密钥>\n```\n默认情况下，我们在 Web UI 中展示了最大的可部署 Llama-2 模型（70B）。您可以将模型名称（`meta-llama\u002FLlama-2-70b-chat-hf`）更改为其他版本，例如 13B 或 7B。\n\n### LangSmith\n如果您有权访问 LangSmith，可以编辑以下环境变量以启用：\n```\nLANGCHAIN_TRACING_V2=false # 默认关闭\nLANGCHAIN_ENDPOINT=https:\u002F\u002Fapi.smith.langchain.com\nLANGCHAIN_API_KEY=YOUR_LANGCHAIN_API_KEY\nLANGCHAIN_PROJECT=YOUR_LANGCHAIN_PROJECT\n```\n这样应该就可以直接使用了。\n\u003C\u002Fdetails>\n\n\u003Cbr\u002F>\n\n## 📍 路线图\n- [x] 发布 v0.0.4\n- [x] 通过 Web UI 创建新角色\n- [x] 降低对话延迟\n- [x] 支持 Twilio\n- [x] 支持 ReByte\n- [x] 对话持久化*\n- [ ] 会话管理*\n- [ ] 支持 RAG*\n- [ ] 支持 Agent\u002FGPT*\n- [ ] 添加更多 TTS 服务*\n\n$*$ 这些功能由 [ReByte](https:\u002F\u002Frebyte.ai\u002F) 平台提供支持。\n\n## 🫶 参与 RealChar 的开发\n请查看我们的[贡献指南](contribute.md)！\n\n## 💪 贡献者\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FShaunwei_RealChar_readme_792781c5bc24.png\" \u002F>\n\u003C\u002Fa>\n\n## 🎲 社区\n- 加入我们的 [Discord](https:\u002F\u002Frealchar.ai\u002Fjoin-discord)","# RealChar 快速上手指南\n\nRealChar 是一个开源的实时 AI 角色对话框架，支持创建具有个性化人格、背景甚至声音克隆的 AI 伴侣。它支持 Web、终端和移动端，底层集成了 LangChain、Chroma、Whisper、ElevenLabs 等主流 AI 技术栈。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux, macOS, Windows (推荐 WSL2)\n- **Python**: 3.9+\n- **Node.js**: 16+ (用于前端)\n- **Docker & Docker Compose**: (可选，用于容器化部署)\n\n### 前置依赖\n在安装 Python 依赖前，需先安装音频处理库：\n\n**macOS:**\n```bash\nbrew install portaudio\nbrew install ffmpeg\n# Mac 用户可能需要设置环境变量以兼容 torchaudio\nexport DYLD_LIBRARY_PATH=\u002Fopt\u002Fhomebrew\u002Flib:$DYLD_LIBRARY_PATH\n```\n\n**Ubuntu\u002FDebian:**\n```bash\nsudo apt update\nsudo apt install portaudio19-dev\nsudo apt install ffmpeg\n```\n> 注意：`ffmpeg` 版本需 >= 4.4 以配合 `torchaudio>=2.1.0` 使用。\n\n## 安装步骤\n\n你可以选择 **Docker 部署**（最简单）或 **Python 源码部署**（适合开发者定制）。\n\n### 方案一：Docker 快速部署（推荐）\n\n1. **克隆项目并配置环境变量**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar.git && cd RealChar\n   cp .env.example .env\n   ```\n   编辑 `.env` 文件，填入至少一个 LLM API Key（如 ReByte 或 OpenAI）。\n\n2. **启动服务**\n   ```bash\n   docker compose up\n   ```\n   *若遇到 Docker 问题，请参考官方文档进行排查。*\n\n3. **访问应用**\n   打开浏览器访问 `http:\u002F\u002Flocalhost:3000`。\n\n---\n\n### 方案二：Python 源码部署\n\n1. **克隆仓库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar.git && cd RealChar\n   ```\n\n2. **安装 Python 依赖**\n   ```bash\n   pip install -r requirements.txt\n   ```\n   *(可选)* 如需更快的本地语音转文字速度，安装 whisperX：\n   ```bash\n   pip install git+https:\u002F\u002Fgithub.com\u002Fm-bain\u002Fwhisperx.git\n   ```\n\n3. **初始化数据库**\n   ```bash\n   # 创建空数据库\n   sqlite3 test.db \"VACUUM;\"\n   \n   # 执行数据库迁移升级\n   alembic upgrade head\n   ```\n\n4. **配置环境变量**\n   ```bash\n   cp .env.example .env\n   ```\n   编辑 `.env` 文件，配置必要的 API Keys（详见下文配置说明）。\n   > 若需启用登录功能，可配置 Firebase OAuth2，将 `USE_AUTH` 设为 `true` 并填写相关路径。\n\n5. **启动后端服务**\n   ```bash\n   python cli.py run-uvicorn\n   # 或直接使用 uvicorn\n   # uvicorn realtime_ai_character.main:app\n   ```\n\n6. **启动前端服务**\n   \n   进入 Web 客户端目录并配置：\n   ```bash\n   cp client\u002Fnext-web\u002F.env.example client\u002Fnext-web\u002F.env\n   # 根据 client\u002Fnext-web\u002FREADME.md 调整配置\n   ```\n   \n   运行开发服务器：\n   ```bash\n   python cli.py next-web-dev\n   # 或\n   cd client\u002Fnext-web && npm run dev\n   ```\n   启动后浏览器会自动打开 `http:\u002F\u002Flocalhost:3000`。\n\n   *(可选) 终端客户端:*\n   ```bash\n   python client\u002Fcli.py\n   ```\n\n   *(可选) 移动端:* 使用 Xcode 打开 `client\u002Fmobile\u002Fios\u002Frac\u002Frac.xcodeproj` 运行。\n\n## 基本使用\n\n1. **配置 API Key**\n   在 `.env` 文件中至少配置以下一项即可开始：\n   - **ReByte**: 推荐首选，前往 [ReByte](https:\u002F\u002Frebyte.ai\u002F) 注册并获取 Key。\n   - **OpenAI**: 填入 `OPENAI_API_KEY`。\n   - **其他**: 支持 Anthropic Claude 2, Anyscale Llama2 等（按需配置）。\n\n2. **开始对话**\n   - 访问 `http:\u002F\u002Flocalhost:3000`。\n   - 选择一个预设角色（如 Santa Claus, AI Elon 等）。\n   - 点击麦克风图标开始说话。\n\n3. **最佳实践建议**\n   - **模型选择**: 在设置中选择 **GPT-4** 以获得更流畅的对话体验。\n   - **硬件建议**: 佩戴耳机以避免扬声器声音被麦克风再次收录产生回声。\n   - **远程连接**: 若需远程连接服务器，必须配置 SSL 证书以建立安全的音频连接。\n\n> **提示**: 本项目高度模块化，你可以轻松替换 LLM、语音识别 (STT) 或语音合成 (TTS) 模块来定制自己的 AI 工作流。","一位独立开发者希望为他的历史科普博客创建一个能与学生进行实时语音互动的“虚拟孔子”助手，以增强学习体验。\n\n### 没有 RealChar 时\n- **开发门槛极高**：开发者需要分别集成 Whisper 语音转文字、LLM 大模型接口、ElevenLabs 文字转语音以及向量数据库，代码耦合度高且调试困难。\n- **交互延迟严重**：由于各模块间缺乏优化的实时流式传输机制，用户说完话后往往需要等待数秒才能听到回复，对话体验割裂且不自然。\n- **多端适配成本高**：若要同时支持网页版和手机 App，必须重复编写两套前端逻辑和维护不同的后端连接协议，耗费大量时间。\n- **角色定制复杂**：难以通过简单配置赋予 AI 特定的性格、背景故事或克隆特定音色，每次调整都需要修改底层提示词工程甚至重新训练模型。\n\n### 使用 RealChar 后\n- **一站式快速构建**：利用 RealChar 集成的全栈代码库，开发者无需从零拼接组件，仅需配置参数即可在几小时内完成“虚拟孔子”的创建与部署。\n- **丝滑实时对话**：依托内置的 WebSocket 和优化后的流水线，实现了从语音输入到 AI 回复的毫秒级响应，让学生感觉像是在与真人交谈。\n- **跨平台无缝同步**：一套后端服务直接打通了 Web、终端和移动端（含开源 iOS\u002FAndroid 代码），学生无论用电脑还是手机都能随时访问。\n- **灵活个性定制**：通过简单的配置文件即可定义孔子的儒雅语气、儒家知识库，并一键启用声音克隆功能，让 AI 拥有极具辨识度的嗓音。\n\nRealChar 将复杂的实时 AI 角色开发流程简化为可配置的模块化体验，让开发者能专注于内容创意而非底层技术堆砌。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FShaunwei_RealChar_d7b1f4a6.png","Shaunwei","shaun","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FShaunwei_34cd0b0d.jpg",null,"N\u002FA","CA","shawnweix@gmail.com","agishaun","https:\u002F\u002Fgithub.com\u002FShaunwei",[84,88,92,96,100,104,108,111],{"name":85,"color":86,"percentage":87},"JavaScript","#f1e05a",37.6,{"name":89,"color":90,"percentage":91},"Python","#3572A5",29.7,{"name":93,"color":94,"percentage":95},"Swift","#F05138",21.4,{"name":97,"color":98,"percentage":99},"Kotlin","#A97BFF",10.4,{"name":101,"color":102,"percentage":103},"Dockerfile","#384d54",0.5,{"name":105,"color":106,"percentage":107},"CSS","#663399",0.2,{"name":109,"color":110,"percentage":107},"Shell","#89e051",{"name":112,"color":113,"percentage":114},"Mako","#7e858d",0.1,6207,779,"2026-04-18T03:33:50","MIT","Linux, macOS","可选（用于本地 Whisper\u002FWhisperX 加速），支持 NVIDIA GPU；未明确具体型号、显存大小及 CUDA 版本要求","未说明",{"notes":123,"python":124,"dependencies":125},"1. 音频处理依赖系统级库：macOS 需通过 brew 安装 portaudio 和 ffmpeg，Ubuntu 需安装 portaudio19-dev 和 ffmpeg。2. macOS 用户可能需要手动设置 DYLD_LIBRARY_PATH 环境变量以兼容 torchaudio。3. 推荐使用 Docker (docker-compose) 进行一键部署，或手动分步安装前后端。4. 必须配置至少一个 LLM API Key（如 ReByte 或 OpenAI）方可运行。5. 若需启用用户登录系统，需额外配置 Firebase。6. 远程连接服务器时需要配置 SSL。","未说明（需支持 pip 安装 requirements.txt）",[126,127,128,129,130,131,132,133,134,135],"FastAPI","SQLite","LangChain","LlamaIndex","Chroma","Whisper \u002F WhisperX","torchaudio>=2.1.0","ffmpeg>=4.4","portaudio","React JS \u002F Next.js",[35,137,14,16,13],"音频","2026-03-27T02:49:30.150509","2026-04-19T09:38:41.971715",[141,146,151,156,161,165],{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},42235,"运行远程服务器并从客户端请求时，出现 `enumerateDevices` 错误怎么办？","该错误通常与 ElevenLabs API 密钥或账户状态有关。请检查您的账单和账户状态是否正常。您可以通过访问 https:\u002F\u002Fapi.elevenlabs.io\u002Fdocs#\u002Ftext-to-speech\u002FText_to_speech_v1_text_to_speech__voice_id__post 测试您的 ElevenLabs 密钥是否有效。如果密钥无效或账户欠费，会导致音频加载失败从而引发此错误。","https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\u002Fissues\u002F98",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},42236,"服务器和客户端已启动，但角色没有响应怎么办？","如果您在使用 OpenAI 时遇到角色无响应的情况，可能是由于未正确配置 API 基础地址或代理。尝试在依赖库的文件 `chat_models\u002Fopenai.py` 中填写 `openai_api_base` 和 `openai_proxy` 参数。注意：直接修改依赖库代码并非最佳实践，建议通过配置文件或环境变量进行设置，但在紧急情况下修改该文件可临时解决问题。","https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\u002Fissues\u002F82",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},42237,"启动项目时遇到 ChromaDB 弃用配置错误（ValueError: deprecated configuration）如何解决？","当遇到 ChromaDB 版本兼容性问题时，可以尝试卸载当前版本并安装特定旧版本。执行以下命令：先卸载 `pip uninstall chromadb`，然后安装兼容版本 `pip install chromadb==0.3.29`。安装完成后重新运行 `python cli.py run-uvicorn`，项目即可正常启动。","https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\u002Fissues\u002F93",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},42238,"使用 Docker 部署到服务器后出现 CORS（跨域资源共享）错误怎么办？","CORS 错误的根本原因通常是 Nginx 配置中的 `proxy_pass` 设置错误。在 Docker 网络环境中，Nginx 容器无法通过 `localhost` 访问其他容器（如后端 API 服务）。请检查 API 服务的 Nginx 配置，将 `proxy_pass http:\u002F\u002Flocalhost:8000;` 修改为正确的 Docker 服务名称（例如 `proxy_pass http:\u002F\u002Fbackend:8000;`），确保 Nginx 能正确代理请求到后端容器，从而应用后端的 CORS 设置。","https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\u002Fissues\u002F413",{"id":162,"question_zh":163,"answer_zh":164,"source_url":160},42239,"如何在 Ubuntu 服务器上为部署的项目配置 HTTPS 和 SSL 证书？","可以使用 Certbot 工具获取并配置 SSL 证书。步骤如下：\n1. 安装 Certbot：`sudo apt update && sudo apt install certbot`\n2. 获取证书（需暂时关闭占用 80\u002F443 端口的服务）：`sudo certbot certonly --standalone --email your_email@example.com -d your_domain.com -d api.your_domain.com`\n3. 证书文件将保存在 `\u002Fetc\u002Fletsencrypt\u002Flive\u002F` 目录下。\n4. 由于 Nginx 运行在 Docker 中，需要将宿主机上的证书文件挂载到 Docker 容器内，并修改 Nginx 配置文件以启用 HTTPS。\n5. 配置自动续期脚本以确保证书持续有效。",{"id":166,"question_zh":167,"answer_zh":168,"source_url":160},42240,"Docker 部署中 WebSocket 连接失败但 HTTP 请求正常是什么原因？","在 Docker Compose 部署环境中，如果 HTTP 请求正常但 WebSocket 连接失败，通常是因为连接地址配置错误。不要使用 `ws:\u002F\u002Flocalhost:8000`，而应使用 Docker 内部的服务名称，例如 `ws:\u002F\u002Fbackend:8000`。确保前端或客户端配置的 WebSocket 地址指向正确的 Docker 服务主机名，而不是 localhost。",[170,175,179,183,187,192,196,200,204,208,212,216,220,224,229,233,237,241,245,249],{"id":171,"version":172,"summary_zh":173,"released_at":174},334356,"v0.0.4","## RealChar v0.0.4 发行说明\n\n### 新功能与改进：\n- **LLM 平台支持**：扩展了对 ReByte、Anthropic 和 AnyScale 的支持。\n- **WhisperX 集成**：现已集成 WhisperX，实现快速的语音转文本功能。\n- **TTS 支持**：新增对 Google TTS 和 Edge TTS 的支持。\n- **ReByte 的记忆与 RAG 功能**：在使用 ReByte 作为 LLM 时，增加了记忆和 RAG 功能。\n- **日记模式**：新增与角色进行互动式日记记录的功能。\n- **Twilio 集成**：支持通过角色拨打电话。\n- **重新设计的 UI**：采用 Next.js 构建的新前端界面。\n- **Docker Compose 快速入门**：引入 Docker Compose 作为快速安装选项。\n\n### 修复：\n- 大量错误修复，以提升稳定性和性能。","2023-12-29T10:24:31",{"id":176,"version":177,"summary_zh":77,"released_at":178},334357,"v0.0.3-rollup-0822-deploy","2023-08-22T22:34:54",{"id":180,"version":181,"summary_zh":77,"released_at":182},334358,"v0.0.3-rollup-0821-deploy","2023-08-22T04:35:13",{"id":184,"version":185,"summary_zh":77,"released_at":186},334359,"v0.0.3-rollup-0818-deploy","2023-08-19T03:56:00",{"id":188,"version":189,"summary_zh":190,"released_at":191},334360,"ios-release-v0.0.4-draft","- iOS 版本 0.0.4 发布","2023-08-18T04:44:02",{"id":193,"version":194,"summary_zh":77,"released_at":195},334361,"v0.0.3-followup-deploy","2023-08-17T23:21:53",{"id":197,"version":198,"summary_zh":77,"released_at":199},334362,"V0.0.3-rollup-0817-deploy","2023-08-17T07:49:02",{"id":201,"version":202,"summary_zh":77,"released_at":203},334363,"V0.0.3-rollup-0816-deploy","2023-08-17T06:27:36",{"id":205,"version":206,"summary_zh":77,"released_at":207},334364,"V0.0.3-rollup-0814-deploy","2023-08-15T02:58:57",{"id":209,"version":210,"summary_zh":77,"released_at":211},334365,"V0.0.3-rollup-0814","2023-08-14T23:40:24",{"id":213,"version":214,"summary_zh":77,"released_at":215},334366,"v0.0.3-rollup","2023-08-13T05:04:10",{"id":217,"version":218,"summary_zh":77,"released_at":219},334367,"v0.0.3-preflight-deploy-gcp-fix","2023-08-11T06:25:28",{"id":221,"version":222,"summary_zh":77,"released_at":223},334368,"v0.0.3-preflight-deploy-uploadfile","2023-08-10T17:32:37",{"id":225,"version":226,"summary_zh":227,"released_at":228},334369,"v0.0.3-preflight-deploy-fix-quivr","## 变更内容\n* 由 @Shaunwei 在 https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\u002Fpull\u002F323 中修复 quivr\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FShaunwei\u002FRealChar\u002Fcompare\u002Fv0.0.3-preflight-deploy-new-character...v0.0.3-preflight-deploy-fix-quivr","2023-08-10T09:29:18",{"id":230,"version":231,"summary_zh":77,"released_at":232},334370,"v0.0.3-preflight-deploy-new-character","2023-08-10T07:55:47",{"id":234,"version":235,"summary_zh":77,"released_at":236},334371,"v0.0.3-preflight-deploy-fix-eslint","2023-08-10T05:56:18",{"id":238,"version":239,"summary_zh":77,"released_at":240},334372,"v0.0.3-preflight-deploy","2023-08-10T05:27:16",{"id":242,"version":243,"summary_zh":77,"released_at":244},334373,"v0.0.2-rollup-0808-deploy","2023-08-09T04:12:35",{"id":246,"version":247,"summary_zh":77,"released_at":248},334374,"v0.0.2-rollup-0807-new-characters-deploy","2023-08-07T07:53:30",{"id":250,"version":251,"summary_zh":77,"released_at":252},334375,"v0.0.2-rollup-0806-fix-eslint-deploy","2023-08-07T06:32:39"]