[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-thewh1teagle--kokoro-onnx":3,"similar-thewh1teagle--kokoro-onnx":103},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":18,"owner_location":19,"owner_email":15,"owner_twitter":15,"owner_website":15,"owner_url":20,"languages":21,"stars":26,"forks":27,"last_commit_at":28,"license":29,"difficulty_score":30,"env_os":31,"env_gpu":32,"env_ram":33,"env_deps":34,"category_tags":41,"github_topics":44,"view_count":30,"oss_zip_url":15,"oss_zip_packed_at":15,"status":49,"created_at":50,"updated_at":51,"faqs":52,"releases":88},3111,"thewh1teagle\u002Fkokoro-onnx","kokoro-onnx","TTS with kokoro and onnx runtime","kokoro-onnx 是一款基于 Kokoro-TTS 模型构建的高效文本转语音（TTS）工具，旨在通过 ONNX Runtime 加速推理过程。它解决了传统 TTS 模型在普通硬件上运行速度慢、资源占用高的问题，让用户能在 CPU 或 GPU 上轻松实现接近实时的语音合成。\n\n这款工具特别适合开发者、研究人员以及需要快速集成语音功能的应用构建者使用。无论是制作有声读物、开发语音助手，还是进行多语言内容创作，kokoro-onnx 都能提供流畅的体验。其核心亮点在于极致的轻量化与跨平台兼容性：量化后的模型体积仅约 80MB，却支持多种语言和丰富音色，甚至在 macOS M1 芯片上也能跑出优异性能。\n\n安装过程十分简便，只需几条命令即可在隔离环境中部署。kokoro-onnx 不仅保留了原始模型的高质量发音，还通过技术优化降低了使用门槛，让高质量的语音合成不再依赖昂贵的算力资源，是追求效率与性能平衡的理想选择。","# kokoro-onnx\n\n![Python Version](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.10%20%7C%203.11%20%7C%203.12%20%7C%203.13-blue)\n[![PyPI Release](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fkokoro-onnx.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fkokoro-onnx\u002F)\n[![Github Model Releases](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002Fthewh1teagle\u002Fkokoro-onnx)](https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Freleases)\n[![License](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fthewh1teagle\u002Fkokoro-onnx)](https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Fblob\u002Fmain\u002FLICENSE)\n[![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fthewh1teagle\u002Fkokoro-onnx?style=social)](https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Fstargazers)\n[![PyPI Downloads](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fdm\u002Fkokoro-onnx?style=plastic)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fkokoro-onnx\u002F)\n\n[![ONNX Runtime](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FONNX%20Runtime-%E2%89%A51.20.1-blue)](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Fonnxruntime)\n![CPU](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCPU-supported-brightgreen)\n![GPU](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FGPU-supported-brightgreen)\n\nTTS with onnx runtime based on [Kokoro-TTS](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fhexgrad\u002FKokoro-TTS)\n\n🚀 Version 1.0 models are out now! 🎉\n\n\u003Chttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F00ca06e8-bbbd-4e08-bfb7-23c0acb10ef9>\n\n## Features\n\n- Supports multiple languages\n- Fast performance near real-time on macOS M1\n- Offer multiple voices\n- Lightweight: ~300MB (quantized: ~80MB)\n\n## Setup\n\n```console\npip install -U kokoro-onnx\n```\n\n\u003Cdetails>\n\n\u003Csummary>Instructions\u003C\u002Fsummary>\n\n1. Install [uv](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002Fgetting-started\u002Finstallation) for isolated Python (Recommend).\n\n```console\npip install uv\n```\n\n2. Create new project folder (you name it)\n3. Run in the project folder\n\n```console\nuv init -p 3.12\nuv add kokoro-onnx soundfile\n```\n\n4. Paste the contents of [`examples\u002Fsave.py`](https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Fblob\u002Fmain\u002Fexamples\u002Fsave.py) in `hello.py`\n5. Download the files [`kokoro-v1.0.onnx`](https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Freleases\u002Fdownload\u002Fmodel-files-v1.0\u002Fkokoro-v1.0.onnx), and [`voices-v1.0.bin`](https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Freleases\u002Fdownload\u002Fmodel-files-v1.0\u002Fvoices-v1.0.bin) and place them in the same directory.\n6. Run\n\n```console\nuv run hello.py\n```\n\nYou can edit the text in `hello.py`\n\nThat's it! `audio.wav` should be created.\n\n\u003C\u002Fdetails>\n\n## Examples\n\nSee [examples](examples)\n\n## Voices\n\nSee the latest voices and languages in [Kokoro-82M\u002FVOICES.md](https:\u002F\u002Fhuggingface.co\u002Fhexgrad\u002FKokoro-82M\u002Fblob\u002Fmain\u002FVOICES.md)\n\nNote: It's recommend to use misaki g2p package from v1.0, see [examples](examples)\n\n## Contribute\n\nSee [CONTRIBUTE.md](CONTRIBUTE.md)\n\n## License\n\n- kokoro-onnx: MIT\n- kokoro model: Apache 2.0\n","# kokoro-onnx\n\n![Python 版本](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.10%20%7C%203.11%20%7C%203.12%20%7C%203.13-blue)\n[![PyPI 发布](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fkokoro-onnx.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fkokoro-onnx\u002F)\n[![GitHub 模型发布](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002Fthewh1teagle\u002Fkokoro-onnx)](https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Freleases)\n[![许可证](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fthewh1teagle\u002Fkokoro-onnx)](https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Fblob\u002Fmain\u002FLICENSE)\n[![GitHub 星标](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fthewh1teagle\u002Fkokoro-onnx?style=social)](https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Fstargazers)\n[![PyPI 下载量](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fdm\u002Fkokoro-onnx?style=plastic)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fkokoro-onnx\u002F)\n\n[![ONNX Runtime](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FONNX%20Runtime-%E2%89%A51.20.1-blue)](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Fonnxruntime)\n![CPU](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCPU-supported-brightgreen)\n![GPU](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FGPU-supported-brightgreen)\n\n基于 [Kokoro-TTS](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fhexgrad\u002FKokoro-TTS) 的 ONNX Runtime 文本转语音系统。\n\n🚀 1.0 版本模型现已发布！🎉\n\n\u003Chttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F00ca06e8-bbbd-4e08-bfb7-23c0acb10ef9>\n\n## 功能特性\n\n- 支持多种语言\n- 在 macOS M1 上实现接近实时的快速性能\n- 提供多种音色选择\n- 轻量化：约 300MB（量化后约 80MB）\n\n## 安装步骤\n\n```console\npip install -U kokoro-onnx\n```\n\n\u003Cdetails>\n\n\u003Csummary>使用说明\u003C\u002Fsummary>\n\n1. 推荐安装 [uv](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002Fgetting-started\u002Finstallation) 以创建隔离的 Python 环境。\n\n```console\npip install uv\n```\n\n2. 创建一个新的项目文件夹（可自定义名称）。\n3. 进入项目文件夹并执行以下命令：\n\n```console\nuv init -p 3.12\nuv add kokoro-onnx soundfile\n```\n\n4. 将 [`examples\u002Fsave.py`](https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Fblob\u002Fmain\u002Fexamples\u002Fsave.py) 中的内容复制到 `hello.py` 文件中。\n5. 下载文件 [`kokoro-v1.0.onnx`](https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Freleases\u002Fdownload\u002Fmodel-files-v1.0\u002Fkokoro-v1.0.onnx) 和 [`voices-v1.0.bin`](https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Freleases\u002Fdownload\u002Fmodel-files-v1.0\u002Fvoices-v1.0.bin)，并将它们放置在同一目录下。\n6. 运行以下命令：\n\n```console\nuv run hello.py\n```\n\n您可以在 `hello.py` 中编辑文本内容。\n\n完成以上步骤后，将生成 `audio.wav` 文件。\n\n\u003C\u002Fdetails>\n\n## 示例\n\n请参阅 [examples](examples) 目录。\n\n## 音色\n\n最新的音色和语言信息请查看 [Kokoro-82M\u002FVOICES.md](https:\u002F\u002Fhuggingface.co\u002Fhexgrad\u002FKokoro-82M\u002Fblob\u002Fmain\u002FVOICES.md)。\n\n注意：建议从 v1.0 开始使用 misaki g2p 工具包，详情请参阅 [examples](examples)。\n\n## 贡献\n\n请参阅 [CONTRIBUTE.md](CONTRIBUTE.md)。\n\n## 许可证\n\n- kokoro-onnx：MIT 许可证\n- kokoro 模型：Apache 2.0 许可证","# kokoro-onnx 快速上手指南\n\nkokoro-onnx 是一个基于 ONNX Runtime 的高性能文本转语音（TTS）工具，源自 Kokoro-TTS 项目。它支持多语言、多种音色，且在 macOS M1 等设备上可实现接近实时的推理速度。模型经过量化后体积小巧（约 80MB），非常适合本地部署。\n\n## 环境准备\n\n*   **操作系统**：支持 Windows、macOS (Intel\u002FApple Silicon)、Linux。\n*   **Python 版本**：3.10, 3.11, 3.12 或 3.13。\n*   **硬件要求**：\n    *   CPU：通用支持。\n    *   GPU：支持 CUDA 加速（需安装对应的 onnxruntime-gpu）。\n*   **前置依赖**：建议安装 `uv` 以管理隔离的 Python 环境（推荐），或直接使用系统 pip。\n\n## 安装步骤\n\n### 方法一：使用 uv（推荐，环境隔离更干净）\n\n1.  安装 uv 工具：\n    ```console\n    pip install uv\n    ```\n\n2.  创建新项目文件夹并初始化环境（以 Python 3.12 为例）：\n    ```console\n    mkdir my-tts-project\n    cd my-tts-project\n    uv init -p 3.12\n    ```\n\n3.  安装核心依赖库：\n    ```console\n    uv add kokoro-onnx soundfile\n    ```\n    > **国内加速提示**：如果下载缓慢，可配置国内源。例如使用清华源：\n    > `uv add kokoro-onnx soundfile --index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n### 方法二：直接使用 pip\n\n```console\npip install -U kokoro-onnx soundfile\n```\n\n## 基本使用\n\n### 1. 下载模型文件\n\n在使用前，必须手动下载以下两个文件并放置在当前工作目录中：\n\n*   **模型文件**: [kokoro-v1.0.onnx](https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Freleases\u002Fdownload\u002Fmodel-files-v1.0\u002Fkokoro-v1.0.onnx)\n*   **音色文件**: [voices-v1.0.bin](https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Freleases\u002Fdownload\u002Fmodel-files-v1.0\u002Fvoices-v1.0.bin)\n\n> **注意**：请确保文件名与代码中引用的名称一致。\n\n### 2. 编写运行脚本\n\n创建名为 `hello.py` 的文件，填入以下代码：\n\n```python\nfrom kokoro_onnx import Kokoro\n\n# 初始化模型\nkokoro = Kokoro(\n    model_path=\"kokoro-v1.0.onnx\",\n    voices_path=\"voices-v1.0.bin\"\n)\n\n# 生成语音\ntext = \"Hello, this is a test of Kokoro ONNX.\"\naudio, sample_rate = kokoro.create(text, voice=\"af_bella\") # af_bella 为示例音色\n\n# 保存音频文件\nimport soundfile as sf\nsf.write(\"audio.wav\", audio, sample_rate)\n\nprint(\"音频已保存为 audio.wav\")\n```\n\n*注：更多可用音色（如 `af_sarah`, `am_adam` 等）及支持的语言列表，请参考 [Kokoro-82M VOICES.md](https:\u002F\u002Fhuggingface.co\u002Fhexgrad\u002FKokoro-82M\u002Fblob\u002Fmain\u002FVOICES.md)。*\n\n### 3. 运行脚本\n\n如果使用 **uv** 环境：\n```console\nuv run hello.py\n```\n\n如果使用 **pip** 环境：\n```console\npython hello.py\n```\n\n运行成功后，当前目录下将生成 `audio.wav` 文件。","一位独立开发者正在为视障用户开发一款跨平台的有声新闻阅读器，需要在普通笔记本电脑上实时将最新资讯转换为自然流畅的语音。\n\n### 没有 kokoro-onnx 时\n- **硬件门槛高**：传统高质量 TTS 模型严重依赖高性能 GPU，导致应用无法在大量仅配备 CPU 的旧款笔记本或平价设备上流畅运行。\n- **部署体积庞大**：原始模型文件动辄数 GB，不仅占用用户宝贵存储空间，还显著增加了应用的安装包体积和下载时间。\n- **多语言支持复杂**：切换不同语种或音色通常需要加载不同的重型模型，导致内存占用激增且代码逻辑繁琐。\n- **响应延迟明显**：在非专业硬件上推理速度慢，文字转语音的过程存在可感知的停顿，破坏了听新闻的连贯体验。\n\n### 使用 kokoro-onnx 后\n- **全平台流畅运行**：借助 ONNX Runtime 的加速能力，kokoro-onnx 在 macOS M1 甚至普通 CPU 上也能实现接近实时的合成速度，彻底打破硬件限制。\n- **极致轻量部署**：量化后的模型仅需约 80MB，使得开发者能轻松将其嵌入小型应用或分发给存储受限的用户。\n- **灵活音色切换**：单个轻量级引擎即可支持多种语言和丰富音色，开发者只需切换参数即可无缝适配全球新闻内容。\n- **低延迟交互**：高效的推理性能消除了生成等待，让用户在点击新闻瞬间即可听到清晰、自然的播报声音。\n\nkokoro-onnx 通过极致的轻量化与跨平台加速能力，让高质量语音合成真正走下神坛，成为普惠各类终端设备的实用工具。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthewh1teagle_kokoro-onnx_0112ee08.png","thewh1teagle",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fthewh1teagle_72354623.jpg","Keep it simple.","localhost","The martian","https:\u002F\u002Fgithub.com\u002Fthewh1teagle",[22],{"name":23,"color":24,"percentage":25},"Python","#3572A5",100,2448,259,"2026-04-03T20:18:19","MIT",2,"Linux, macOS, Windows","非必需，支持 CPU 和 GPU 运行（基于 ONNX Runtime），未指定具体显卡型号或显存要求","未说明（模型量化后约 80MB，未量化约 300MB，推测低内存即可运行）",{"notes":35,"python":36,"dependencies":37},"推荐使用 uv 管理隔离的 Python 环境。需手动下载模型文件 (kokoro-v1.0.onnx) 和声音文件 (voices-v1.0.bin) 并放置在同一目录下方可运行。支持多语言和多种音色。","3.10 | 3.11 | 3.12 | 3.13",[38,6,39,40],"onnxruntime>=1.20.1","soundfile","misaki (推荐用于 v1.0 g2p)",[42,43],"音频","开发框架",[45,46,47,48],"kokoro","onnxruntime","python","tts","ready","2026-03-27T02:49:30.150509","2026-04-06T08:46:51.320172",[53,58,63,68,73,78,83],{"id":54,"question_zh":55,"answer_zh":56,"source_url":57},14329,"为什么在 Windows 上运行时会报 'UnicodeDecodeError' 或 'charmap' 解码错误？","这是由于 Windows 默认编码（cp1252）无法正确读取包含特殊字符的配置文件导致的。解决方案包括：\n1. 确保使用兼容的 Python 版本（建议 Python 3.12，避免使用 3.13 初期版本）。\n2. 尝试下载较小的 int8 模型文件并重命名：访问 https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Freleases\u002Fdownload\u002Fmodel-files\u002Fkokoro-v0_19.int8.onnx，下载后将其重命名为 `kokoro-v0_19.onnx`。\n3. 检查文本文件中是否包含导致解码失败的段落空格或特殊字符。","https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Fissues\u002F62",{"id":59,"question_zh":60,"answer_zh":61,"source_url":62},14330,"在 macOS 上报错 'RuntimeError: espeak not installed'，即使已通过 Homebrew 安装怎么办？","这通常是因为程序无法检测到通过 Homebrew 安装的 espeak-ng。虽然部分用户反馈在 Intel Mac 上遇到过此问题，但维护者已更新库以包含 espeak-ng，使其在所有平台上无需手动安装即可无缝工作。请确保将 `kokoro-onnx` 包升级到最新版本。如果问题依旧，尝试重新安装 espeak-ng (`brew install espeak-ng`) 并重启终端。","https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Fissues\u002F34",{"id":64,"question_zh":65,"answer_zh":66,"source_url":67},14331,"在 Ubuntu 20.04 或旧版 Linux 上遇到 'GLIBCXX_3.4.29' 找不到错误如何解决？","这是因为预编译的 espeak-ng 库需要较新版本的 glibc。维护者已发布更新，修复了该兼容性问题，现在 espeak-ng 可以在 Ubuntu 20.04、Linux Mint 22 等系统上无缝运行，无需手动安装。请务必执行 `pip install -U kokoro-onnx` 升级到最新版本来解决此问题。","https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Fissues\u002F39",{"id":69,"question_zh":70,"answer_zh":71,"source_url":72},14332,"遇到 'utf-8' codec can't decode byte 错误或者 Python 版本不兼容怎么办？","该错误通常与 Python 版本有关。`kokoro-onnx` 目前要求 Python 版本 `\u003C3.13` 且 `>=3.9`。如果您使用的是 Python 3.13.1，可能会遇到此解码错误或安装失败。\n解决方案：\n1. 切换 Python 版本至 3.12.x（例如 3.12.8 或 3.12.9）。如果使用 pyenv，可运行 `pyenv install 3.12.9` 然后 `pyenv global 3.12.9`。\n2. 卸载不兼容的 Python 3.13 版本并重新安装受支持的版本。\n3. 确保下载的模型文件（如 voices-v1.0.bin）与当前包版本匹配。","https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Fissues\u002F103",{"id":74,"question_zh":75,"answer_zh":76,"source_url":77},14333,"如何实现声音混合（Voice Blending），例如混合 50% af_bella 和 50% af_nicole？","声音混合功能依赖于特定的包版本。如果遇到混合无效或报错，请检查并升级 `kokoro-onnx` 到至少 0.3.3 版本（建议使用最新版）。\n此外，确保 `numpy` 版本兼容，有用户反馈在 numpy 2.2.1 环境下测试成功。如果使用的是 `uv` 管理依赖，请检查 `uv.lock` 文件中的版本锁定，必要时手动更新依赖包版本。","https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Fissues\u002F43",{"id":79,"question_zh":80,"answer_zh":81,"source_url":82},14334,"提示 'Voice xxx not found in available voices' 错误怎么办？","这通常是因为模型文件与代码版本不匹配，或者缺少最新的语音配置文件。\n解决步骤：\n1. 确认已下载最新的 `voices-v1.0.bin` (或对应版本的 voices 文件) 和 `kokoro-v1.0.onnx` 模型文件。\n2. 检查 Python 版本兼容性（推荐 Python 3.12），某些新版本特性在 Python 3.13 上可能无法正常运行。\n3. 确保安装的 `kokoro-onnx` 包版本支持您使用的模型文件版本（例如 v1.0 模型需要较新的包版本支持）。","https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Fissues\u002F80",{"id":84,"question_zh":85,"answer_zh":86,"source_url":87},14335,"长文本生成时出现不必要的停顿或中断是什么原因？","这可能是由于批处理（batched processing）机制导致的。虽然目前主要通过简单的 generate 函数生成，但在处理极长文本时可能会出现短暂中断。\n性能参考：在 macOS M1 CPU 上，实时率约为 3.61 倍（即生成 27 秒音频需 7.69 秒）。维护者表示未来 CoreML 的支持有望将速度提升至 10-20 倍实时率，从而减少此类感知上的停顿。目前建议分段处理超长文本以获得更流畅的体验。","https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Fissues\u002F11",[89,93,98],{"id":90,"version":91,"summary_zh":15,"released_at":92},81114,"model-files-v1.1","2025-03-01T14:13:38",{"id":94,"version":95,"summary_zh":96,"released_at":97},81115,"model-files-v1.0","`kokoro-v1.0.onnx`: (310MB): 由 [taylorchu\u002Fkokoro-onnx](https:\u002F\u002Fgithub.com\u002Ftaylorchu\u002Fkokoro-onnx\u002Freleases\u002Ftag\u002Fv0.2.0) 提供的优化后的 f32 版本  \n`kokoro-v1.0.fp16.onnx`: (169MB): 由 [taylorchu\u002Fkokoro-onnx](https:\u002F\u002Fgithub.com\u002Ftaylorchu\u002Fkokoro-onnx\u002Freleases\u002Ftag\u002Fv0.2.0) 提供的优化后的 f16 版本  \n`kokoro-v1.0.int8.onnx`: (88MB): 由 [taylorchu\u002Fkokoro-onnx](https:\u002F\u002Fgithub.com\u002Ftaylorchu\u002Fkokoro-onnx\u002Freleases\u002Ftag\u002Fv0.2.0) 提供的优化后的 int8 版本  \n`voices-v1.0.bin`: 包含风格向量的 npz（NumPy）键值对，其中包含以下 26 种语音：\n\n语音名称及语言列表请参见：https:\u002F\u002Fhuggingface.co\u002Fhexgrad\u002FKokoro-82M\u002Fblob\u002Fmain\u002FVOICES.md\n","2025-01-28T21:39:16",{"id":99,"version":100,"summary_zh":101,"released_at":102},81116,"model-files","`kokoro-v0_19.onnx`: (310MB)：基于 [taylorchu\u002Fkokoro-onnx](https:\u002F\u002Fgithub.com\u002Ftaylorchu\u002Fkokoro-onnx\u002Freleases\u002Ftag\u002Fv0.1.0) 优化的 f32 版本  \n`kokoro-v0_19.fp16.onnx`: (169MB)：基于 [taylorchu\u002Fkokoro-onnx](https:\u002F\u002Fgithub.com\u002Ftaylorchu\u002Fkokoro-onnx\u002Freleases\u002Ftag\u002Fv0.1.0) 优化的 f16 版本  \n`kokoro-v0_19.int8.onnx`: (88MB)：基于 [taylorchu\u002Fkokoro-onnx](https:\u002F\u002Fgithub.com\u002Ftaylorchu\u002Fkokoro-onnx\u002Freleases\u002Ftag\u002Fv0.1.0) 优化的 int8 版本  \n`voices.bin`：包含风格向量的 npz（NumPy）键值对，共包含以下 26 种声音：\n\n```console\naf_alloy, af_aoede, af_bella, af_jessica, af_kore, af_nicole, af_nova, af_river, af_sarah, af_sky, am_adam, am_echo, am_eric, am_fenrir, am_liam, am_michael, am_onyx, am_puck, bf_alice, bf_emma, bf_isabella, bf_lily, bm_daniel, bm_fable, bm_george, bm_lewis\n```","2025-01-03T16:32:40",[104,115,124,132,140,152],{"id":105,"name":106,"github_repo":107,"description_zh":108,"stars":109,"difficulty_score":110,"last_commit_at":111,"category_tags":112,"status":49},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[43,113,114],"图像","Agent",{"id":116,"name":117,"github_repo":118,"description_zh":119,"stars":120,"difficulty_score":30,"last_commit_at":121,"category_tags":122,"status":49},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,"2026-04-05T23:32:43",[43,114,123],"语言模型",{"id":125,"name":126,"github_repo":127,"description_zh":128,"stars":129,"difficulty_score":30,"last_commit_at":130,"category_tags":131,"status":49},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[43,113,114],{"id":133,"name":134,"github_repo":135,"description_zh":136,"stars":137,"difficulty_score":30,"last_commit_at":138,"category_tags":139,"status":49},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[43,123],{"id":141,"name":142,"github_repo":143,"description_zh":144,"stars":145,"difficulty_score":30,"last_commit_at":146,"category_tags":147,"status":49},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[113,148,149,150,114,151,123,43,42],"数据工具","视频","插件","其他",{"id":153,"name":154,"github_repo":155,"description_zh":156,"stars":157,"difficulty_score":110,"last_commit_at":158,"category_tags":159,"status":49},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[114,113,43,123,151]]