[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-second-state--echokit_server":3,"tool-second-state--echokit_server":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":84,"stars":97,"forks":98,"last_commit_at":99,"license":100,"difficulty_score":101,"env_os":102,"env_gpu":103,"env_ram":104,"env_deps":105,"category_tags":110,"github_topics":111,"view_count":101,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":122,"updated_at":123,"faqs":124,"releases":144},211,"second-state\u002Fechokit_server","echokit_server","Open Source Voice Agent Platform","echokit_server 是 EchoKit 语音交互生态的核心服务端组件，主要负责管理硬件设备与后端 AI 服务之间的通信。echokit_server 旨在简化语音 AI 应用的开发流程，解决了从语音识别（ASR）、大模型推理（LLM）到语音合成（TTS）全链路搭建复杂且分散的痛点。\n\nechokit_server 非常适合开发者和技术研究人员使用，特别是那些希望构建自定义语音助手、智能硬件交互场景或探索实时对话系统的团队。支持本地部署或连接远程推理服务器，兼容各类符合 OpenAI 标准的接口，允许用户灵活切换 Gemini、Qwen Real-Time 等模型，甚至集成 ElevenLabs 等语音服务。\n\n技术亮点在于其高度的可配置性，用户可以通过编辑配置文件自定义 LLM 提示词、语音角色及工作流，还能集成 MCP 服务器以扩展工具调用能力。配合 EchoKit 硬件或自研 ESP32 设备，echokit_server 能帮助开发者快速实现低延迟、自然流畅的端到端语音交互体验，让创意落地更加高效。","# EchoKit Server\n\nEchoKit Server is the central component that manages communication between the [EchoKit device](https:\u002F\u002Fechokit.dev\u002F) and AI services. It can be deployed locally or connected to preset servers, allowing developers to customize LLM endpoints, plan the LLM prompt, configure speech models, and integrate additional AI features like MCP servers.\n\n\u003Cbr>\n\u003Cdiv align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fechokit.dev\u002F\">Website\u003C\u002Fa> |\n    \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FFwe3zsT5g3\">Discord\u003C\u002Fa> |\n    \u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FZy-rLT4EgZQ\">Live Demo\u003C\u002Fa> |\n    \u003Ca href=\"https:\u002F\u002Fechokit.dev\u002Fdocs\u002Fquick-start\u002F\">Documentation\u003C\u002Fa>\n\u003C\u002Fdiv>\n\u003C\u002Fbr>\n\nYou will need an [EchoKit device](https:\u002F\u002Fechokit.dev\u002F), or create your own ESP32 device with the [EchoKit firmware](https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_box).\n\n\n## Features\n\nEchoKit Server powers the full voice–AI interaction loop, making it easy for developers to run end-to-end speech pipelines with flexible model choices and custom integrations.\n\n### ASR → LLM → TTS Pipeline\n\nSeamlessly connect **ASR → LLM → TTS** for real-time, natural conversations.\nEach stage can be configured independently with your preferred models or APIs.\n\n#### Model Compatibility\n\n* **ASR (Speech Recognition):** Works with any API that’s *OpenAI-compatible*.\n* **LLM (Language Model):** Connect to any *OpenAI-spec* endpoint — local or cloud.\n* **TTS (Text-to-Speech):** Use any *OpenAI-spec* voice model for flexible deployment.\n    * ElevenLabs (Streaming Mode)\n\n### End-to-End Model Pipelines\n\nOut-of-the-box support for:\n\n* **Gemini** — Google’s multimodal model\n* **Qwen Real-Time** — Alibaba’s powerful open LLM\n\n### Developer Customization\n\n* Deploy **locally** or connect to **remote inference servers**\n* Define your own **LLM prompts** and **response workflows**\n* Configure **speech and voice models** for different personas or use cases\n* Integrate **MCP servers** for extended functionality\n\n\n## Set up the EchoKit server\n\n### Build\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\n```\n\nEdit `config.toml` to customize the VAD, ASR, LLM, TTS services, as well as prompts and MCP servers. You can [see many examples](examples\u002F).\n\n```\ncargo build --release\n```\n\n**Note for aarch64 (ARM64) builds:** When cross-compiling for aarch64, the required `fp16` target feature is automatically enabled via `.cargo\u002Fconfig.toml`. If building natively on aarch64, you may need to set:\n\n```\nRUSTFLAGS=\"-C target-feature=+fp16\" cargo build --release\n```\n\n### Configure AI services\n\nThe `config.toml` can use any combination of open-source or proprietary AI services, as long as they offer OpenAI-compatible API endpoints. Here are instructions to start open source AI servers for the EchoKit server.\n\n* ASR: https:\u002F\u002Fllamaedge.com\u002Fdocs\u002Fai-models\u002Fspeech-to-text\u002Fquick-start-whisper\n* LLM: https:\u002F\u002Fllamaedge.com\u002Fdocs\u002Fai-models\u002Fllm\u002Fquick-start-llm\n* Streaming TTS: https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fgsv_tts\n\nAlternatively, you could use Google Gemini Live services for VAD + ASR + LLM, and even optionally, TTS. See [config.toml examples](examples\u002Fgemini).\n\nYou can also [configure MCP servers](examples\u002Fmcp\u002Fconfig.toml) to give the EchoKit server tool use capabilities. \n\n### Configure the voice prompt\n\nThe `hello.wav` file on the server is sent to the EchoKit device when it connects. It is the voice prompt the device will say to tell the user that it is ready.\n\n### Run the EchoKit server\n\n```\nexport RUST_LOG=debug\nnohup target\u002Frelease\u002Fechokit_server &\n```\n\n### Test on a web page\n\nGo here: https:\u002F\u002Fechokit.dev\u002Fchat\u002F\n\nClick on the link to save the `index.html` file to your local hard disk.\n\nDouble click the local `index.html` file and open it in your browser. \n\nIn the web page, set the URL to your own EchoKit server address, and start chatting!\n\n### Configure a new device\n\nGo to web page: https:\u002F\u002Fechokit.dev\u002Fsetup\u002F  and use Bluetooth to connect to the `GAIA ESP332` device.\n\n![Bluetooth connection](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsecond-state_echokit_server_readme_9d16e9dab5bb.png)\n\nConfigure WiFi and server\n\n* WiFi SSID (e.g., `MyHome`)\n* WiFi password (e.g., `MyPassword`)\n* Web Socket server URL for `echokit_server`\n    * US: `ws:\u002F\u002Findie.echokit.dev\u002Fws\u002F`\n    * Taiwan: `ws:\u002F\u002Ftw.echokit.dev\u002Fws\u002F`\n    * Rest of the world: `ws:\u002F\u002Fedge.echokit.dev\u002Fws\u002F`\n\n![Configure Wifi](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsecond-state_echokit_server_readme_a029f0e3c40a.png)\n\n### Use the device\n\n**Chat:** press the `K0` button once or multiple times until the status bar shows \"Ready\". You can now speak and it will show \"Listening ...\". The device answers after it decides that you have done speaking.\n\n**Config:** press `RST`. While it is restarting, press and hold `K0` to enter the configuration mode. Then [open the configuration UI](https:\u002F\u002Fechokit.dev\u002Fsetup\u002F) to connect to the device via BT.\n","# EchoKit Server\n\nEchoKit Server 是管理 [EchoKit 设备](https:\u002F\u002Fechokit.dev\u002F) 与 AI 服务之间通信的核心组件。它可以本地部署或连接到预设服务器，允许开发者定制 LLM（大语言模型）端点、规划 LLM 提示词、配置语音模型，并集成额外的 AI 功能（如 MCP 服务器）。\n\n\u003Cbr>\n\u003Cdiv align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fechokit.dev\u002F\">网站\u003C\u002Fa> |\n    \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FFwe3zsT5g3\">Discord\u003C\u002Fa> |\n    \u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FZy-rLT4EgZQ\">实时演示\u003C\u002Fa> |\n    \u003Ca href=\"https:\u002F\u002Fechokit.dev\u002Fdocs\u002Fquick-start\u002F\">文档\u003C\u002Fa>\n\u003C\u002Fdiv>\n\u003C\u002Fbr>\n\n您需要一个 [EchoKit 设备](https:\u002F\u002Fechokit.dev\u002F)，或者使用 [EchoKit 固件](https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_box) 创建自己的 ESP32 设备。\n\n\n## 功能\n\nEchoKit Server 驱动完整的语音-AI 交互循环，使开发者能够轻松运行端到端语音管道，并提供灵活的模型选择和自定义集成。\n\n### ASR → LLM → TTS 管道\n\n无缝连接 **ASR（自动语音识别） → LLM → TTS（文本转语音）** 以实现实时、自然的对话。\n每个阶段都可以使用您首选的模型或 API 独立配置。\n\n#### 模型兼容性\n\n* **ASR（语音识别）：** 适用于任何 *OpenAI 兼容* 的 API。\n* **LLM（语言模型）：** 连接到任何 *OpenAI 规范* 端点 — 本地或云端。\n* **TTS（文本转语音）：** 使用任何 *OpenAI 规范* 语音模型以实现灵活部署。\n    * ElevenLabs（流式模式）\n\n### 端到端模型管道\n\n开箱即用的支持：\n\n* **Gemini** — Google 的多模态模型\n* **Qwen Real-Time** — 阿里巴巴强大的开源 LLM\n\n### 开发者定制\n\n* **本地** 部署或连接 **远程推理服务器**\n* 定义您自己的 **LLM 提示词** 和 **响应工作流**\n* 为不同角色或用例配置 **语音和声音模型**\n* 集成 **MCP 服务器**（模型上下文协议）以扩展功能\n\n\n## 设置 EchoKit 服务器\n\n### 构建\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\n```\n\n编辑 `config.toml` 以定制 VAD（语音活动检测）、ASR、LLM、TTS 服务，以及提示词和 MCP 服务器。您可以 [查看许多示例](examples\u002F)。\n\n```\ncargo build --release\n```\n\n**aarch64 (ARM64) 构建注意事项：** 当交叉编译为 aarch64 时，所需的 `fp16` 目标功能会通过 `.cargo\u002Fconfig.toml` 自动启用。如果在 aarch64 上原生构建，您可能需要设置：\n\n```\nRUSTFLAGS=\"-C target-feature=+fp16\" cargo build --release\n```\n\n### 配置 AI 服务\n\n`config.toml` 可以使用开源或专有 AI 服务的任意组合，只要它们提供 OpenAI 兼容 API 端点。以下是为 EchoKit 服务器启动开源 AI 服务的说明。\n\n* ASR: https:\u002F\u002Fllamaedge.com\u002Fdocs\u002Fai-models\u002Fspeech-to-text\u002Fquick-start-whisper\n* LLM: https:\u002F\u002Fllamaedge.com\u002Fdocs\u002Fai-models\u002Fllm\u002Fquick-start-llm\n* 流式 TTS: https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fgsv_tts\n\n或者，您可以使用 Google Gemini Live 服务进行 VAD + ASR + LLM，甚至可选地用于 TTS。参见 [config.toml 示例](examples\u002Fgemini)。\n\n您还可以 [配置 MCP 服务器](examples\u002Fmcp\u002Fconfig.toml) 以赋予 EchoKit 服务器工具使用能力。\n\n### 配置语音提示\n\n服务器上的 `hello.wav` 文件会在设备连接时发送给 EchoKit 设备。这是设备用来告诉用户它已准备好的语音提示。\n\n### 运行 EchoKit 服务器\n\n```\nexport RUST_LOG=debug\nnohup target\u002Frelease\u002Fechokit_server &\n```\n\n### 在网页上测试\n\n前往此处：https:\u002F\u002Fechokit.dev\u002Fchat\u002F\n\n点击链接将 `index.html` 文件保存到您的本地硬盘。\n\n双击本地 `index.html` 文件并在浏览器中打开它。\n\n在网页中，将 URL 设置为您自己的 EchoKit 服务器地址，然后开始聊天！\n\n### 配置新设备\n\n前往网页：https:\u002F\u002Fechokit.dev\u002Fsetup\u002F 并使用蓝牙连接到 `GAIA ESP332` 设备。\n\n![蓝牙连接](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsecond-state_echokit_server_readme_9d16e9dab5bb.png)\n\n配置 WiFi 和服务器\n\n* WiFi SSID（例如，`MyHome`）\n* WiFi 密码（例如，`MyPassword`）\n* `echokit_server` 的 Web Socket 服务器 URL\n    * 美国：`ws:\u002F\u002Findie.echokit.dev\u002Fws\u002F`\n    * 台湾：`ws:\u002F\u002Ftw.echokit.dev\u002Fws\u002F`\n    * 世界其他地区：`ws:\u002F\u002Fedge.echokit.dev\u002Fws\u002F`\n\n![配置 WiFi](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsecond-state_echokit_server_readme_a029f0e3c40a.png)\n\n### 使用设备\n\n**聊天：** 按一次或多次 `K0` 按钮，直到状态栏显示 \"Ready\"。您现在可以说话，它会显示 \"Listening ...\"。设备在判断您说完话后进行回答。\n\n**配置：** 按下 `RST`。在重启时，按住 `K0` 进入配置模式。然后 [打开配置 UI](https:\u002F\u002Fechokit.dev\u002Fsetup\u002F) 通过蓝牙连接到设备。","# EchoKit Server 快速上手指南\n\nEchoKit Server 是管理 EchoKit 设备与 AI 服务通信的核心组件，支持 ASR → LLM → TTS 全流程语音交互。开发者可本地部署或连接预设服务器，自定义大模型端点与语音策略。\n\n## 环境准备\n\n*   **硬件要求**：\n    *   EchoKit 设备，或刷入了 [EchoKit firmware](https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_box) 的 ESP32 设备。\n*   **软件依赖**：\n    *   [Rust](https:\u002F\u002Fwww.rust-lang.org\u002F) (包含 `cargo` 工具)\n    *   Git\n*   **系统支持**：Linux \u002F macOS \u002F Windows (aarch64 架构需注意编译参数)\n\n## 安装步骤\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\n    ```\n\n2.  **配置服务**\n    编辑 `config.toml` 文件，自定义 VAD、ASR、LLM、TTS 服务及 Prompt。支持 OpenAI 兼容接口、Gemini、Qwen Real-Time 等。\n    *   参考示例：[examples\u002F](examples\u002F)\n    *   开源 AI 服务搭建参考：[LlamaEdge Docs](https:\u002F\u002Fllamaedge.com\u002F)\n\n3.  **编译构建**\n    *   通用构建：\n        ```bash\n        cargo build --release\n        ```\n    *   **aarch64 (ARM64) 注意**：若原生构建，可能需要设置：\n        ```bash\n        RUSTFLAGS=\"-C target-feature=+fp16\" cargo build --release\n        ```\n\n## 基本使用\n\n1.  **启动服务器**\n    ```bash\n    export RUST_LOG=debug\n    nohup target\u002Frelease\u002Fechokit_server &\n    ```\n\n2.  **网页测试**\n    *   访问 https:\u002F\u002Fechokit.dev\u002Fchat\u002F 保存 `index.html` 到本地。\n    *   浏览器打开本地 `index.html`，设置 URL 为你的服务器地址即可对话。\n\n3.  **配置设备**\n    *   访问 https:\u002F\u002Fechokit.dev\u002Fsetup\u002F 通过蓝牙连接设备 (`GAIA ESP332`)。\n    *   配置 WiFi 及服务器 WebSocket 地址（根据网络环境选择）：\n        *   台湾：`ws:\u002F\u002Ftw.echokit.dev\u002Fws\u002F`\n        *   全球其他地区：`ws:\u002F\u002Fedge.echokit.dev\u002Fws\u002F`\n        *   美国：`ws:\u002F\u002Findie.echokit.dev\u002Fws\u002F`\n        *   自建服务器：填写你的 `echokit_server` 地址。\n\n4.  **开始对话**\n    *   按下设备 `K0` 按钮直至状态栏显示 \"Ready\"。\n    *   说话后设备会自动识别并回复。\n    *   **重置配置**：按 `RST` 重启，重启中按住 `K0` 进入配置模式。","开发者李明计划为视障人士打造一款低成本语音助手，基于 ESP32 硬件连接本地 AI 服务，需确保响应快且隐私安全。\n\n### 没有 echokit_server 时\n- 硬件与 AI 服务通信协议需从头编写，WebSocket 连接稳定性调试耗时且易出错。\n- 语音识别、大模型与语音合成分散在不同接口，难以统一调度导致对话延迟高。\n- 无法灵活切换本地模型与云端 API，隐私保护与推理成本难以平衡。\n- 缺乏标准化的提示词管理，每次修改角色设定都要重写后端代码。\n\n### 使用 echokit_server 后\n- echokit_server 自动管理硬件与 AI 服务通信，无需重复造轮子，连接更稳定。\n- 内置 ASR→LLM→TTS 完整流水线，配置文件即可统一调度各环节，实现实时自然对话。\n- 支持 OpenAI 兼容接口，可随意切换本地部署模型或云端服务，兼顾隐私与性能。\n- 通过 config.toml 即可自定义提示词与工作流程，快速调整助手 persona 无需改代码。\n\nechokit_server 将复杂的硬件语音交互链路标准化，让开发者能专注于打造独特的 AI 体验而非底层对接。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsecond-state_echokit_server_b53c5f9b.png","second-state","Second State","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsecond-state_b181f3a5.png","Fast, safe, portable & serverless. Deploy Rust functions in edge computing, Jamstack, SaaS and service mesh applications.",null,"contact@secondstate.io","secondstateinc","http:\u002F\u002Fwww.secondstate.io","https:\u002F\u002Fgithub.com\u002Fsecond-state",[85,89,93],{"name":86,"color":87,"percentage":88},"Rust","#dea584",62.8,{"name":90,"color":91,"percentage":92},"HTML","#e34c26",37.1,{"name":94,"color":95,"percentage":96},"Dockerfile","#384d54",0.2,553,75,"2026-04-05T11:58:05","GPL-3.0",4,"Linux, macOS","未说明 (服务端本身为通信中间件，GPU 需求取决于接入的本地 AI 服务)","未说明",{"notes":106,"python":107,"dependencies":108},"1. 需使用 Cargo 编译源代码 (cargo build --release)；2. 运行前需编辑 config.toml 配置 AI 服务接口及提示词；3. 必须配合 EchoKit 硬件设备或 ESP32 设备使用；4. ARM64 架构编译需设置 RUSTFLAGS 启用 fp16 支持；5. 支持连接本地或云端 OpenAI 兼容接口，自身不直接运行大模型。","不需要 (基于 Rust 开发)",[109],"Rust 工具链 (cargo)",[14,55,15,13,53,26],[112,113,114,115,116,117,118,119,120,121],"agentic-ai","ai","asr","esp32","llm","mcp","mcp-client","tts","voice","voice-assistant","2026-03-27T02:49:30.150509","2026-04-06T08:08:36.642327",[125,130,134,139],{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},580,"如何配置自定义的 OpenAI 兼容 TTS 服务（例如 Groq）？","维护者已更新代码支持设置自定义 URL。您可以在配置文件中将 platform 设置为 \"Groq\"，并指定 url、model、api_key 和 voice。例如：\n[tts]\nplatform = \"Groq\"\nurl = \"http:\u002F\u002Ftts-webui:7778\u002Fv1\u002Faudio\u002Fspeech\"\nmodel = \"global_preset\"\napi_key = \"test\"\nvoice = \"chatterbox_optimus_prime_de\"\n请确保使用更新后的服务器代码以支持 URL 配置。","https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\u002Fissues\u002F15",{"id":131,"question_zh":132,"answer_zh":133,"source_url":129},581,"从源码构建时遇到因基础镜像过时导致的构建问题如何解决？","建议使用最新的 rust 镜像作为基础镜像，并安装必要的依赖。参考以下 Dockerfile 关键步骤：\n1. 使用 FROM rust:latest as builder\n2. 安装依赖：apt-get update && apt-get install -y git build-essential pkg-config libssl-dev\n3. 克隆代码并运行 cargo build --release\n这可以避免因旧镜像引起的构建错误。",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},582,"是否可以一次性输入 WiFi 名称、密码和服务器 URL 来完成初始化设置？","是的，该功能已在最近的发布版本中完成。升级到最新版本后，用户可以在初始服务器设置时一次性提交 WiFi 名称、密码和服务器 URL，无需分三步操作，从而提高效率并减少错误。","https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\u002Fissues\u002F16",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},583,"EchoKit 是否支持 OpenAI 的 Response API 以使用内置网页搜索功能？","支持。该功能请求已通过相关 PR（#22）实现并合并。更新到包含该更新的版本后，即可使用 OpenAI 和 Groq 的内置网页搜索功能。","https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\u002Fissues\u002F23",[145,150,155,160,165,170,175,180,185,190,195,200,205],{"id":146,"version":147,"summary_zh":148,"released_at":149},109882,"v0.3.2","## What's Changed\r\n\r\n* Add Claude Code SKILLS for generating echokit server config.toml  by @alabulei1 in https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\u002Fpull\u002F26\r\n* Improve the SKILLS by @alabulei1 in https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\u002Fpull\u002F28\r\n* Perf\u002Fimprove gsv tts by @L-jasmine in https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\u002Fpull\u002F30\r\n* Clean up SKILLS documentation and remove system files by @Copilot in https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\u002Fpull\u002F29\r\n* Skill by @alabulei1 in https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\u002Fpull\u002F31\r\n* Feat\u002Fstream asr by @L-jasmine in https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\u002Fpull\u002F37\r\n\r\n## New Contributors\r\n* @Copilot made their first contribution in https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\u002Fpull\u002F29\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\u002Fcompare\u002Fv0.3.1...v0.3.2","2026-01-23T06:59:56",{"id":151,"version":152,"summary_zh":153,"released_at":154},109883,"v0.3.1","Support the \u002Fresponses API\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\u002Fcompare\u002Fv0.3.0...v0.3.1","2026-01-10T16:19:20",{"id":156,"version":157,"summary_zh":158,"released_at":159},109884,"v0.3.0","## What's Changed\r\n\r\nBreaking change of config.toml formats. See examples.\r\n\r\n* Update examples by @juntao in https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\u002Fpull\u002F21\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\u002Fcompare\u002Fv0.2.5...v0.3.0","2025-12-12T23:39:55",{"id":161,"version":162,"summary_zh":163,"released_at":164},109885,"v0.2.5","Support OGG audio stream\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\u002Fcompare\u002Fv0.2.4...v0.2.5","2025-12-09T19:57:03",{"id":166,"version":167,"summary_zh":168,"released_at":169},109886,"v0.2.4","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\u002Fcompare\u002Fv0.2.3...v0.2.4","2025-12-07T06:36:24",{"id":171,"version":172,"summary_zh":173,"released_at":174},109887,"v0.2.3","Support URL loading in system prompt\r\nSupport llm.extra parameters","2025-12-03T05:53:45",{"id":176,"version":177,"summary_zh":178,"released_at":179},109888,"v0.2.2","Add a wait message when calling MCP tools.\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fsecond-state\u002Fechokit_server\u002Fcompare\u002Fv0.2.1...v0.2.2","2025-11-29T22:20:54",{"id":181,"version":182,"summary_zh":183,"released_at":184},109889,"v0.2.1","Fix 11labs TTS issues","2025-11-18T09:47:19",{"id":186,"version":187,"summary_zh":188,"released_at":189},109890,"v0.2.0","Significant performance enhancement. Fully utilize both CPUs onboard.","2025-11-07T08:19:56",{"id":191,"version":192,"summary_zh":193,"released_at":194},109891,"v0.1.2","Support interruptions","2025-10-28T11:18:18",{"id":196,"version":197,"summary_zh":198,"released_at":199},109892,"v0.1.1a","Amend 0.1.1 to disable server side waiting","2025-10-24T21:37:01",{"id":201,"version":202,"summary_zh":203,"released_at":204},109893,"v0.1.1","Optimized TTS streaming to avoid caching too much data on the client device","2025-10-23T23:17:35",{"id":206,"version":207,"summary_zh":79,"released_at":208},109894,"v0.1.0","2025-10-15T10:00:32"]