[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ai-ng--swift":3,"tool-ai-ng--swift":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",147882,2,"2026-04-09T11:32:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":74,"owner_location":74,"owner_email":74,"owner_twitter":74,"owner_website":74,"owner_url":75,"languages":76,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":32,"env_os":93,"env_gpu":94,"env_ram":93,"env_deps":95,"category_tags":103,"github_topics":105,"view_count":32,"oss_zip_url":74,"oss_zip_packed_at":74,"status":17,"created_at":114,"updated_at":115,"faqs":116,"releases":147},5880,"ai-ng\u002Fswift","swift","Fast voice assistant powered by Groq, Cartesia, and Vercel.","Swift 是一款极速开源的 AI 语音助手，旨在提供近乎实时的自然语音交互体验。它主要解决了传统语音助手在响应延迟上的痛点，让用户能够像与人交谈一样流畅地进行对话，无需等待漫长的处理时间。\n\n这款工具特别适合前端开发者、AI 应用构建者以及对实时交互技术感兴趣的研究人员。通过参考 Swift 的架构，开发者可以快速学习如何整合多种先进模型，构建自己的低延迟语音应用。当然，普通用户也能直接部署使用，享受高效的智能助理服务。\n\nSwift 的技术亮点在于其精妙的后端组合：利用 Groq 的超快推理能力，同时驱动 OpenAI Whisper 进行语音转文字和 Meta Llama 3 生成文本回复；再结合 Cartesia 的 Sonic 模型实现高质量的流式语音合成，确保声音输出紧随文字生成。此外，项目集成了 VAD（语音活动检测）技术，能精准识别用户何时开始和结束说话，自动触发处理流程。作为一个基于 Next.js 和 TypeScript 构建并部署在 Vercel 上的项目，Swift 不仅性能卓越，还具备优秀的可移植性和开发友好性，是探索下一代语音交互界面的理想起点。","# [Swift](https:\u002F\u002Fswift-ai.vercel.app)\n\nSwift is a fast AI voice assistant.\n\n-   [Groq](https:\u002F\u002Fgroq.com) is used for fast inference of [OpenAI Whisper](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fwhisper) (for transcription) and [Meta Llama 3](https:\u002F\u002Fllama.meta.com\u002Fllama3\u002F) (for generating the text response).\n-   [Cartesia](https:\u002F\u002Fcartesia.ai)'s [Sonic](https:\u002F\u002Fcartesia.ai\u002Fsonic) voice model is used for fast speech synthesis, which is streamed to the frontend.\n-   [VAD](https:\u002F\u002Fwww.vad.ricky0123.com\u002F) is used to detect when the user is talking, and run callbacks on speech segments.\n-   The app is a [Next.js](https:\u002F\u002Fnextjs.org) project written in TypeScript and deployed to [Vercel](https:\u002F\u002Fvercel.com).\n\nThank you to the teams at Groq and Cartesia for providing access to their APIs for this demo!\n\n[![Deploy with Vercel](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fai-ng_swift_readme_a4c0f8073a9c.png)](https:\u002F\u002Fvercel.com\u002Fnew\u002Fclone?repository-url=https%3A%2F%2Fgithub.com%2Fai-ng%2Fswift&env=GROQ_API_KEY,CARTESIA_API_KEY&envDescription=Groq%20and%20Cartesia's%20APIs%20are%20used%20for%20transcription%2C%20text%20generation%2C%20and%20speech%20synthesis.&project-name=swift&repository-name=swift&demo-title=Swift&demo-description=A%20fast%2C%20open-source%20voice%20assistant%20powered%20by%20Groq%2C%20Cartesia%2C%20and%20Vercel.&demo-url=https%3A%2F%2Fswift-ai.vercel.app&demo-image=https%3A%2F%2Fswift-ai.vercel.app%2Fopengraph-image.png)\n\n## Developing\n\n-   Clone the repository\n-   Copy `.env.example` to `.env.local` and fill in the environment variables.\n-   Run `pnpm install` to install dependencies.\n-   Run `pnpm dev` to start the development server.\n","# [Swift](https:\u002F\u002Fswift-ai.vercel.app)\n\nSwift 是一款快速的 AI 语音助手。\n\n-   使用 [Groq](https:\u002F\u002Fgroq.com) 实现 [OpenAI Whisper](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fwhisper)（用于转录）和 [Meta Llama 3](https:\u002F\u002Fllama.meta.com\u002Fllama3\u002F)（用于生成文本回复）的快速推理。\n-   使用 [Cartesia](https:\u002F\u002Fcartesia.ai) 的 [Sonic](https:\u002F\u002Fcartesia.ai\u002Fsonic) 语音模型进行快速语音合成，并将音频流式传输到前端。\n-   使用 [VAD](https:\u002F\u002Fwww.vad.ricky0123.com\u002F) 检测用户何时在说话，并对语音片段触发回调。\n-   该应用是一个基于 [Next.js](https:\u002F\u002Fnextjs.org)、使用 TypeScript 编写的项目，部署在 [Vercel](https:\u002F\u002Fvercel.com) 上。\n\n感谢 Groq 和 Cartesia 团队为本次演示提供 API 访问权限！\n\n[![通过 Vercel 部署](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fai-ng_swift_readme_a4c0f8073a9c.png)](https:\u002F\u002Fvercel.com\u002Fnew\u002Fclone?repository-url=https%3A%2F%2Fgithub.com%2Fai-ng%2Fswift&env=GROQ_API_KEY,CARTESIA_API_KEY&envDescription=Groq%20和%20Cartesia%27s%20APIs%20are%20used%20for%20transcription%2C%20text%20generation%2C%20and%20speech%20synthesis.&project-name=swift&repository-name=swift&demo-title=Swift&demo-description=A%20fast%2C%20open-source%20voice%20assistant%20powered%20by%20Groq%2C%20Cartesia%2C%20and%20Vercel.&demo-url=https%3A%2F%2Fswift-ai.vercel.app&demo-image=https%3A%2F%2Fswift-ai.vercel.app%2Fopengraph-image.png)\n\n## 开发\n\n-   克隆仓库\n-   将 `.env.example` 复制为 `.env.local`，并填写环境变量。\n-   运行 `pnpm install` 安装依赖。\n-   运行 `pnpm dev` 启动开发服务器。","# Swift AI 语音助手快速上手指南\n\nSwift 是一个基于 Next.js 构建的高速 AI 语音助手。它利用 Groq 进行极速的语音转录（Whisper）和文本生成（Llama 3），并使用 Cartesia Sonic 模型实现低延迟的语音合成流式输出。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：macOS, Linux 或 Windows (推荐 WSL2)\n*   **Node.js**：建议版本 v18.17 或更高\n*   **包管理器**：本项目推荐使用 `pnpm` (若未安装，可通过 `npm install -g pnpm` 安装)\n*   **API 密钥**：\n    *   [Groq API Key](https:\u002F\u002Fconsole.groq.com\u002F) (用于语音识别与文本生成)\n    *   [Cartesia API Key](https:\u002F\u002Fdashboard.cartesia.ai\u002F) (用于语音合成)\n\n> **提示**：国内开发者若遇到 npm\u002Fpnpm 源连接缓慢问题，可临时切换至淘宝镜像源：\n> `pnpm config set registry https:\u002F\u002Fregistry.npmmirror.com`\n\n## 安装步骤\n\n1.  **克隆项目仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fai-ng\u002Fswift.git\n    cd swift\n    ```\n\n2.  **配置环境变量**\n    复制示例配置文件并重命名，然后填入您的 API 密钥。\n    ```bash\n    cp .env.example .env.local\n    ```\n    编辑 `.env.local` 文件，确保包含以下内容：\n    ```text\n    GROQ_API_KEY=your_groq_api_key_here\n    CARTESIA_API_KEY=your_cartesia_api_key_here\n    ```\n\n3.  **安装依赖**\n    使用 pnpm 安装项目所需依赖包。\n    ```bash\n    pnpm install\n    ```\n\n## 基本使用\n\n完成安装后，启动本地开发服务器即可体验。\n\n1.  **启动服务**\n    运行以下命令启动 Next.js 开发服务器：\n    ```bash\n    pnpm dev\n    ```\n\n2.  **访问应用**\n    打开浏览器访问 `http:\u002F\u002Flocalhost:3000`。\n\n3.  **开始交互**\n    *   允许浏览器访问麦克风权限。\n    *   直接对着麦克风说话，系统将自动检测语音（VAD），并通过 Groq 快速转录和生成回复，最后通过 Cartesia 以流式语音播放出来。","一位现场技术支持工程师正在嘈杂的工厂车间，通过语音与后台系统交互以快速排查设备故障。\n\n### 没有 swift 时\n- **响应延迟严重**：传统语音助手在转录和生成回复时往往需要数秒等待，导致对话节奏断裂，工程师不得不反复确认指令是否被接收。\n- **操作打断工作流**：由于无法精准检测说话起止，工程师必须手动点击“开始\u002F停止”按钮，这在双手沾满油污或持有工具时极不方便。\n- **合成音机械生硬**：旧式 TTS（文本转语音）输出的声音缺乏自然情感且延迟高，关键的安全警示信息难以被快速、清晰地传达。\n- **环境抗干扰差**：在机器轰鸣声中，普通模型容易将背景噪音误识别为指令，导致系统执行错误操作或无响应。\n\n### 使用 swift 后\n- **近乎零延迟交互**：依托 Groq 的极速推理能力，swift 实现了从说话结束到语音回复的毫秒级衔接，让对话如真人般流畅自然。\n- **智能语音激活**：内置的 VAD（语音活动检测）自动识别工程师何时开口、何时停顿，无需任何手动操作，彻底解放双手。\n- **实时流式播报**：利用 Cartesia Sonic 模型，swift 能在生成文字的同时即时合成并播放语音，确保紧急维修步骤能第一时间被听到。\n- **精准噪声过滤**：针对工业环境优化的转录模型能有效分离人声与背景噪音，确保在高分贝环境下指令依然准确无误。\n\nswift 通过将极速推理、智能语音检测与流式合成无缝整合，将原本滞后的语音交互转变为真正高效的实时生产力工具。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fai-ng_swift_76dcabed.png","ai-ng","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fai-ng_694822fb.png",null,"https:\u002F\u002Fgithub.com\u002Fai-ng",[77,81,85],{"name":78,"color":79,"percentage":80},"TypeScript","#3178c6",95.9,{"name":82,"color":83,"percentage":84},"JavaScript","#f1e05a",3.4,{"name":86,"color":87,"percentage":88},"CSS","#663399",0.7,591,129,"2026-03-25T04:11:28","MIT","未说明","不需要本地 GPU（推理和合成通过 Groq 和 Cartesia API 在云端运行）",{"notes":96,"python":93,"dependencies":97},"该项目是一个基于 Next.js 的前端应用，核心 AI 功能（语音识别、文本生成、语音合成）完全依赖外部 API（Groq 和 Cartesia），因此无需在本地部署大型模型或配置 CUDA 环境。开发时需安装 pnpm 包管理器，并配置 GROQ_API_KEY 和 CARTESIA_API_KEY 环境变量。项目部署推荐使用 Vercel。",[98,78,99,100,101,102],"Next.js","pnpm","VAD (Voice Activity Detection)","Groq API","Cartesia API",[104,14,35],"音频",[106,107,108,109,110,111,112,113],"artificial-intelligence","groq","llama","nextjs","react","whisper","cartesia","vercel","2026-03-27T02:49:30.150509","2026-04-09T21:34:17.141513",[117,122,127,132,137,142],{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},26691,"本地安装时出现 \"File is not defined\" 错误，是否必须使用 Vercel？","不一定必须使用 Vercel，但该错误通常是因为您使用的 Node.js 版本过旧。项目使用了 File API（用于文件表示和模式验证），该功能需要较新版本的 Node.js 支持。请升级您的 Node.js 版本至包含 File API 的版本即可解决。此外，如果您不在旧金山附近，本地运行的响应速度可能会比演示应用慢，因为演示应用的无服务器函数位于旧金山，地理上更接近所使用的服务。","https:\u002F\u002Fgithub.com\u002Fai-ng\u002Fswift\u002Fissues\u002F7",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},26692,"遇到 \"Voice Synthesis Failed\"（语音合成失败）错误该如何排查？","该错误通常意味着 Cartesia 服务请求抛出了异常。您可以登录 Vercel 控制台查看详细的日志信息以获取具体错误原因。常见原因包括：1. Cartesia 或 Groq 的免费 API Key 额度用尽或过期；2. 达到了信用限额。如果是额度问题，请检查您的 API Key 状态或更换新的 Key。","https:\u002F\u002Fgithub.com\u002Fai-ng\u002Fswift\u002Fissues\u002F2",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},26693,"演示应用中的语音合成功能突然失效是什么原因？","这通常是因为项目使用的第三方服务（如 Cartesia）达到了信用限额（Credit Limit）。维护者会尝试修复或重置，但如果是您自己部署的项目，请检查绑定的 API Key 是否还有可用额度。如果是在官方演示站遇到此问题，通常是暂时性的配额耗尽，等待维护者处理即可。","https:\u002F\u002Fgithub.com\u002Fai-ng\u002Fswift\u002Fissues\u002F16",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},26694,"该项目支持多语言文本转语音（TTS）输出吗？","默认配置下，项目仅使用 Cartesia 的英文模型（sonic-english），因为多语言模型（sonic-multilingual）目前处于 Alpha 阶段且存在一些问题。如果您需要多语言支持，可以 Fork 该项目并修改代码：打开 `\u002Fapi\u002Fapi\u002Froute.ts` 文件，找到第 79 行，将 `sonic-english` 更改为 `sonic-multilingual` 即可启用多语言 TTS 模型。","https:\u002F\u002Fgithub.com\u002Fai-ng\u002Fswift\u002Fissues\u002F4",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},26695,"该项目的开源许可证是什么？","该项目采用 MIT 许可证。在早期版本中可能未明确标注，但维护者已根据社区反馈添加了 MIT License 文件，允许用户自由使用、修改和分发代码。","https:\u002F\u002Fgithub.com\u002Fai-ng\u002Fswift\u002Fissues\u002F3",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},26696,"遇到 \"Failed to Load Speech Detection Module\"（加载语音检测模块失败）怎么办？","这是一个与环境相关的问题，通常取决于具体的操作系统和浏览器组合。如果遇到此错误导致语音激活功能不可用，请检查您的浏览器是否支持相关的 Web API，并确认操作系统兼容性。由于该问题难以在所有环境中复现，建议提供具体的 OS 和浏览器版本信息以便进一步排查，或尝试更新浏览器至最新版本。","https:\u002F\u002Fgithub.com\u002Fai-ng\u002Fswift\u002Fissues\u002F14",[]]