[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-DanRuta--xVA-Synth":3,"tool-DanRuta--xVA-Synth":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":106,"env_os":107,"env_gpu":108,"env_ram":109,"env_deps":110,"category_tags":117,"github_topics":118,"view_count":23,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":126,"updated_at":127,"faqs":128,"releases":159},2142,"DanRuta\u002FxVA-Synth","xVA-Synth","Machine learning based speech synthesis Electron app, with voices from specific characters from video games","xVA-Synth 是一款基于机器学习的语音合成桌面应用，专为游戏角色声音复刻而设计。它利用 FastPitch 模型技术，能够读取并模仿特定电子游戏中角色的声线，将用户输入的文字转化为该角色口吻的语音音频。\n\n这款工具主要解决了游戏模组（Mod）创作者难以获取原创角色语音素材的痛点。以往制作带有新剧情的游戏模组时，往往受限于无法让原有角色“开口说话”，而 xVA-Synth 让创作者可以轻松生成符合角色设定的新台词，极大地丰富了模组叙事体验。此外，它也适用于游戏动画（Machinima）制作人或希望用熟悉的游戏声音进行趣味创作的普通用户。\n\n其技术亮点在于采用 Electron 框架包裹 Python 推理引擎，支持加载多种预训练的游戏角色模型，并允许用户细致调节音高、时长和能量等参数以优化输出效果。若设备配置了 CUDA 环境，还能开启 GPU 加速以提升合成速度。值得一提的是，项目还配套提供了 xVATrainer 工具，允许高级用户训练自定义的声音模型。无论是想为喜爱的游戏制作扩展内容，还是单纯体验让游戏角色“说出新台词”的乐趣，xVA-Synth 都是一个强大且易上手的创作伙","xVA-Synth 是一款基于机器学习的语音合成桌面应用，专为游戏角色声音复刻而设计。它利用 FastPitch 模型技术，能够读取并模仿特定电子游戏中角色的声线，将用户输入的文字转化为该角色口吻的语音音频。\n\n这款工具主要解决了游戏模组（Mod）创作者难以获取原创角色语音素材的痛点。以往制作带有新剧情的游戏模组时，往往受限于无法让原有角色“开口说话”，而 xVA-Synth 让创作者可以轻松生成符合角色设定的新台词，极大地丰富了模组叙事体验。此外，它也适用于游戏动画（Machinima）制作人或希望用熟悉的游戏声音进行趣味创作的普通用户。\n\n其技术亮点在于采用 Electron 框架包裹 Python 推理引擎，支持加载多种预训练的游戏角色模型，并允许用户细致调节音高、时长和能量等参数以优化输出效果。若设备配置了 CUDA 环境，还能开启 GPU 加速以提升合成速度。值得一提的是，项目还配套提供了 xVATrainer 工具，允许高级用户训练自定义的声音模型。无论是想为喜爱的游戏制作扩展内容，还是单纯体验让游戏角色“说出新台词”的乐趣，xVA-Synth 都是一个强大且易上手的创作伙伴。","# xVA Synth\n\nxVASynth is a machine learning based speech synthesis app, using voices from characters\u002Fvoice sets from video games.\n\nSteam: https:\u002F\u002Fstore.steampowered.com\u002Fapp\u002F1765720\u002FxVASynth_v2\n\nHuggingFace 🤗 Space online demo: https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FPendrokar\u002FxVASynth\n\n## New: xVATrainer, for training your own custom voices: https:\u002F\u002Fgithub.com\u002FDanRuta\u002Fxva-trainer\n\n## See it in action (YouTube link)\n\n\u003Ca href=\"http:\u002F\u002Fwww.youtube.com\u002Fwatch?feature=player_embedded&v=W-9SFoNuTtM\n\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDanRuta_xVA-Synth_readme_a79f4312cb18.jpg\"\nalt=\"xVASynth YouTube demo\" width=\"240\" height=\"180\" border=\"10\" \u002F>\u003C\u002Fa>\n\n\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDanRuta_xVA-Synth_readme_06a66510f186.png\">\n\nThis is an Electron UI wrapped around inference of FastPitch models trained on voice data from video games. The app serves as a framework, which loads and uses whichever models are given to it. As such, the app does nothing by itself, and models need to be installed. Models which have a corresponding asset file will be loaded in their respective game\u002Fcategory. Anything else gets loaded in the \"Other\" category.\n\nThe main benefit of this tool is allowing mod creators to generate new voice lines for third party game modifications (mods). There are other uses, such as creating machinima, and just generally having fun with familiar voices.\n\nJoin chat on Discord here: https:\u002F\u002Fdiscord.gg\u002Fnv7c6E2TzV\n\n\n## Installation\n\nWhere possible, make sure you download the app from the Nexusmods websites (Files tab, \"Main Files\" section). There the compiled version will be the most up-to-date.\n\nThe base application can be downloaded and placed anywhere. Aim to install it onto an SSD, if you have the space, to reduce voice set loading time. To install voice sets, you can drop the files into the respective game directory: `xVASynth\u002Fresources\u002Fapp\u002Fmodels\u002F\u003Cgame>\u002F`\n\n\n## Instructions\n\nWatch the above video for a summary of this section.\n\nTo start, download the latest release, double click the xVASynth.exe file, and make sure to click Allow, if Windows asks for permission to run the python server script (this is used internally). Alternatively, check out the `Development` section, to see how to run the non-packaged dev code.\n\nOnce the app is up and running, select the voice set category (the game) from the top left dropdown, then click a specific voice set.\n\nA list of already synthesized audio files for that voice set, if any, is displayed. For synthesis, click the `Load model` button. This may take a minute, on a slow machine.\n\nOnce finished, type your text in the text area and click the `Generate Voice` button. Once generated, you will be shown a preview of the output. Click the `Keep sample` button to save to file, or click the `Generate Voice` after making ammends to the text input, to discard it and re-generate.\n\nYou can adjust the pitch, durations, and energy of individual letters by moving the letter sliders up and down, or by using the tools in the toolbars below.\n\nIn the list of audio files, you can preview, re-name, click to open the containing folder, or delete each one.\n\nIf the required CUDA dependencies are installed on your system, you can enable GPU inference by switching the toggle in the settings menu (click the setting cog at the top right).\n\n\n## Development\n\n1. Install Node modules with `npm install`.\n2. Create a Python 3.9 virtual environment with `python -m venv .venv`.\n3. Activate the virtual environment.\n4. Install Python dependencies from one of the `requirements_*.txt` files. For example, `pip install -r requirements_cpu.txt`.\n5. Run the application with `npm start`.\n\nThe app uses both JavaScript (Electron, UI) and Python code (FastPitch Model). As the python script needs to remain running alongside the app, and receive input, communication is done via an HTTP server, with the JavaScript code sending localhost requests, at port 8008. During development, the python source is used. In production, the compiled python is used.\n\n## Packaging\n\nFirst, run the scripts in `package.json` to create the electron distributables.\nSecond, use pyinstaller to compile the python. `pip install pyinstaller` and run `pyinstaller -F server.spec`. Discard the `build` folder, and move the `server` folder (in `dist`) into `release-builds\u002FxVASynth-win32-x64\u002Fresources\u002Fapp`, and rename it to `cpython`. Distribute the contents in `xVASynth-win32-x64` and run app through `xVASynth.exe`.\n\nRun the distributed app once and check the `server.log` file for any problems, remove any unnecessary files before distribution.\n\nMake sure you remove your environment folder, if it is copied over to the distributed output.\n\nThough, if you're just tweaking small things in JS\u002FHTML\u002FCSS, it may be easier to just edit\u002Fcopy over the files into an existing packaged distributable. There's no code obfuscation or anything like that in place.\n\n## Models\n\nA large number of models have been trained for this app. They are publicly hosted on the nexus.com website, on the game page respective to the game the voice belongs to.\n\n## Future Plans\n\nFuture plans are currently to continue training models for more voices, with plenty more remaining.\n\n","# xVA合成\n\nxVASynth 是一款基于机器学习的语音合成应用，使用来自电子游戏角色或语音包的声音。\n\nSteam：https:\u002F\u002Fstore.steampowered.com\u002Fapp\u002F1765720\u002FxVASynth_v2\n\nHuggingFace 🤗 Space 在线演示：https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FPendrokar\u002FxVASynth\n\n## 新功能：xVATrainer，用于训练您自己的自定义语音：https:\u002F\u002Fgithub.com\u002FDanRuta\u002Fxva-trainer\n\n## 观看实际效果（YouTube 链接）\n\n\u003Ca href=\"http:\u002F\u002Fwww.youtube.com\u002Fwatch?feature=player_embedded&v=W-9SFoNuTtM\n\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDanRuta_xVA-Synth_readme_a79f4312cb18.jpg\"\nalt=\"xVASynth YouTube 演示\" width=\"240\" height=\"180\" border=\"10\" \u002F>\u003C\u002Fa>\n\n\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDanRuta_xVA-Synth_readme_06a66510f186.png\">\n\n这是一个基于 Electron 的用户界面，封装了针对电子游戏语音数据训练的 FastPitch 模型推理。该应用作为一个框架，会加载并使用提供给它的任何模型。因此，仅靠应用本身无法完成任何操作，必须安装相应的模型。如果模型有对应的资源文件，就会被加载到其所属的游戏或分类中；其他模型则会被归入“其他”分类。\n\n该工具的主要优势在于，它允许模组创作者为第三方游戏模组生成新的语音台词。此外，它还可用于制作机建动画，或者只是单纯地用熟悉的语音来娱乐一番。\n\n欢迎加入 Discord 聊天室：https:\u002F\u002Fdiscord.gg\u002Fnv7c6E2TzV\n\n\n## 安装\n\n在可能的情况下，请务必从 Nexusmods 网站下载应用（“文件”选项卡中的“主要文件”部分）。在那里，编译好的版本将是最新版本。\n\n基础应用程序可以下载并放置在任何位置。如果有空间，建议将其安装在 SSD 上，以减少语音包的加载时间。要安装语音包，只需将文件放入对应游戏的目录中：`xVASynth\u002Fresources\u002Fapp\u002Fmodels\u002F\u003Cgame>\u002F`\n\n\n## 使用说明\n\n请观看上方视频，以了解本节内容的概要。\n\n首先，下载最新版本，双击 xVASynth.exe 文件，并确保在 Windows 提示允许运行 Python 服务器脚本时点击“允许”（此脚本在内部使用）。或者，您可以查看“开发”部分，了解如何运行未打包的开发代码。\n\n应用启动后，从左上角的下拉菜单中选择语音包类别（即游戏），然后单击特定的语音包。\n\n此时会显示该语音包已合成的音频文件列表（如有）。要进行合成，单击“加载模型”按钮。在较慢的设备上，这可能需要约一分钟的时间。\n\n完成后，在文本框中输入您的文本，然后单击“生成语音”按钮。生成后，系统会显示输出预览。单击“保留样本”按钮可保存到文件；如果您对文本进行了修改，可以再次单击“生成语音”按钮，以丢弃当前结果并重新生成。\n\n您可以通过上下移动字母滑块，或使用下方工具栏中的工具，调整单个字母的音高、持续时间和能量。\n\n在音频文件列表中，您可以预览、重命名、打开包含文件的文件夹，或删除每个文件。\n\n如果您的系统已安装所需的 CUDA 依赖项，可以通过切换设置菜单中的开关来启用 GPU 推理（单击右上角的设置齿轮图标）。\n\n\n## 开发\n\n1. 使用 `npm install` 安装 Node 模块。\n2. 使用 `python -m venv .venv` 创建 Python 3.9 虚拟环境。\n3. 激活虚拟环境。\n4. 从其中一个 `requirements_*.txt` 文件中安装 Python 依赖项。例如，`pip install -r requirements_cpu.txt`。\n5. 使用 `npm start` 运行应用程序。\n\n该应用同时使用 JavaScript（Electron，UI）和 Python 代码（FastPitch 模型）。由于 Python 脚本需要与应用程序一起运行并接收输入，因此通过 HTTP 服务器进行通信，JavaScript 代码会向本地主机发送请求，端口为 8008。在开发过程中，使用的是 Python 源代码；而在生产环境中，则使用编译后的 Python 代码。\n\n## 打包\n\n首先，运行 `package.json` 中的脚本以创建 Electron 可执行文件。\n其次，使用 PyInstaller 编译 Python 代码。运行 `pip install pyinstaller` 并执行 `pyinstaller -F server.spec`。删除 `build` 文件夹，将 `dist` 目录中的 `server` 文件夹移至 `release-builds\u002FxVASynth-win32-x64\u002Fresources\u002Fapp`，并重命名为 `cpython`。分发 `xVASynth-win32-x64` 目录中的内容，并通过 `xVASynth.exe` 运行应用程序。\n\n分发后，先运行一次应用程序，检查 `server.log` 文件是否有问题，并在分发前删除所有不必要的文件。\n\n请确保删除您的虚拟环境文件夹，以免将其复制到最终的分发版本中。\n\n不过，如果您只是对 JS\u002FHTML\u002FCSS 进行小幅调整，直接编辑或复制文件到现有的已打包版本中可能会更方便。目前并没有代码混淆或其他类似措施。\n\n## 模型\n\n为该应用训练了大量的模型。这些模型公开托管在 nexus.com 网站上，位于相应语音所属游戏的页面中。\n\n## 未来计划\n\n未来的计划是继续为更多语音训练模型，目前仍有大量语音待开发。","# xVA-Synth 快速上手指南\n\nxVA-Synth 是一款基于机器学习的语音合成工具，专为游戏角色配音设计。它利用 FastPitch 模型，允许用户输入文本并生成特定游戏角色的语音，非常适合游戏模组（Mod）创作者、马奇尼玛（Machinima）制作者及爱好者使用。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：Windows（主要支持），其他平台需自行编译。\n- **硬件建议**：\n  - 推荐安装在 **SSD** 以缩短语音库加载时间。\n  - 若需启用 GPU 加速推理，需安装对应的 **CUDA** 依赖。\n- **存储空间**：预留足够空间存放应用及语音模型文件。\n\n### 前置依赖\n- **运行环境**：无需手动安装 Python 或 Node.js 即可使用发布版（Release）。\n- **开发环境**（仅针对二次开发）：\n  - Node.js\n  - Python 3.9\n  - Git\n\n## 安装步骤\n\n### 方式一：直接使用发布版（推荐）\n1. **下载应用**：\n   - 访问 Nexusmods 网站（Files 标签页 -> \"Main Files\"）下载最新编译版本。\n   - 或者从 Steam 商店页面获取。\n2. **解压安装**：\n   - 将下载的压缩包解压至任意目录（建议 SSD）。\n3. **安装语音模型**：\n   - 从 Nexusmods 对应游戏页面下载所需的语音模型文件。\n   - 将模型文件放入以下目录：\n     ```text\n     xVASynth\u002Fresources\u002Fapp\u002Fmodels\u002F\u003Cgame>\u002F\n     ```\n     *注：`\u003Cgame>` 替换为具体的游戏文件夹名称。带有对应资源文件的模型会自动归类到相应游戏类别，其余归入 \"Other\"。*\n\n### 方式二：开发者源码构建\n若需修改源码或调试，请按以下步骤操作：\n\n1. 安装 Node 依赖：\n   ```bash\n   npm install\n   ```\n2. 创建 Python 3.9 虚拟环境：\n   ```bash\n   python -m venv .venv\n   ```\n3. 激活虚拟环境：\n   - Windows: `.venv\\Scripts\\activate`\n   - Linux\u002FMac: `source .venv\u002Fbin\u002Factivate`\n4. 安装 Python 依赖（根据硬件选择 cpu 或 gpu 版本）：\n   ```bash\n   pip install -r requirements_cpu.txt\n   # 若有 GPU 且已配置 CUDA，可使用 requirements_gpu.txt\n   ```\n5. 启动应用：\n   ```bash\n   npm start\n   ```\n\n## 基本使用\n\n1. **启动程序**：\n   - 双击运行 `xVASynth.exe`。\n   - 若 Windows 弹出权限请求，询问是否允许运行 Python 服务器脚本，请点击 **允许 (Allow)**。\n\n2. **选择角色**：\n   - 在界面左上角下拉菜单中选择游戏类别（即语音库分类）。\n   - 点击具体的角色语音集（Voice Set）。\n\n3. **加载模型**：\n   - 点击 **`Load model`** 按钮。\n   - *注意：首次加载或在低配机器上可能需要等待一分钟。*\n\n4. **生成语音**：\n   - 在文本区域输入想要合成的台词。\n   - 点击 **`Generate Voice`** 按钮。\n   - 生成完成后会播放预览。\n     - 满意：点击 **`Keep sample`** 保存为文件。\n     - 不满意：修改文本后再次点击 `Generate Voice` 重新生成（旧样本将被丢弃）。\n\n5. **高级调整**：\n   - 可通过拖动字母上方的滑块，或使用下方工具栏，单独调整每个字母的 **音高 (Pitch)**、**时长 (Duration)** 和 **能量 (Energy)**。\n\n6. **文件管理**：\n   - 在音频列表中可以预览、重命名、打开所在文件夹或删除已生成的音频文件。\n\n7. **启用 GPU 加速（可选）**：\n   - 若系统已安装 CUDA 依赖，点击右上角的设置齿轮图标，在设置菜单中切换开关以启用 GPU 推理。","一位《上古卷轴 5》的模组开发者正在制作一个大型剧情扩展包，需要让游戏中的经典 NPC 说出全新的原创台词以推动故事发展。\n\n### 没有 xVA-Synth 时\n- **配音成本高昂**：聘请专业配音演员录制数百句新台词预算超标，且难以协调档期。\n- **角色声音割裂**：被迫使用声音相似的替代者或 AI 通用音色，导致玩家瞬间出戏，破坏沉浸感。\n- **迭代效率极低**：剧本微调后需重新联系录音棚补录，修改周期长达数周，严重拖慢开发进度。\n- **情感表达受限**：无法精细调整特定单词的语气、音高或停顿，难以匹配游戏中复杂的戏剧冲突场景。\n\n### 使用 xVA-Synth 后\n- **零成本还原原声**：直接加载游戏原有的角色语音模型，免费生成与原角色音色完全一致的新台词。\n- **无缝沉浸体验**：生成的语音保留了原作角色的独特咬字和呼吸感，玩家几乎无法分辨真假，极大增强代入感。\n- **实时快速迭代**：开发者可随时在本地修改文本并立即生成新音频，剧本调整后的验证时间从数周缩短至几分钟。\n- **精细化情感控制**：通过调节音高、时长和能量滑块，精确控制每个字母的发音细节，完美契合剧情所需的情绪张力。\n\nxVA-Synth 将原本高门槛的游戏角色配音转化为开发者可自主控制的数字化流程，让同人创作拥有了媲美官方大作的听觉表现力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDanRuta_xVA-Synth_a79f4312.jpg","DanRuta","Dan Ruta","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FDanRuta_83efc9a9.jpg","ML Research Scientist @ Disney\r\n\r\nPhD w\u002F UoSurrey & Adobe - Self-supervised representation learning & synthesis of digital artwork\r\n\r\ndanruta.co.uk","ML Research Scientist @ Disney",null,"dan_ruta","https:\u002F\u002Fdanruta.co.uk","https:\u002F\u002Fgithub.com\u002FDanRuta",[86,90,94,98],{"name":87,"color":88,"percentage":89},"JavaScript","#f1e05a",49,{"name":91,"color":92,"percentage":93},"Python","#3572A5",42.2,{"name":95,"color":96,"percentage":97},"HTML","#e34c26",6.4,{"name":99,"color":100,"percentage":101},"CSS","#663399",2.3,634,56,"2026-04-04T04:04:34","GPL-3.0",4,"Windows","非必需。支持通过设置开启 GPU 推理（需安装 CUDA 依赖），但 README 未明确指定具体的显卡型号、显存大小或 CUDA 版本。","未说明",{"notes":111,"python":112,"dependencies":113},"该工具是基于 Electron 的 UI 包裹 FastPitch 模型推理的应用，本身不包含模型，需单独下载并放入指定目录。开发模式下通过本地 HTTP 服务器（端口 8008）进行 JS 与 Python 通信。建议安装在 SSD 以减少加载时间。生产环境使用 PyInstaller 编译 Python 代码。","3.9",[114,115,116],"electron","fastpitch","pyinstaller",[13,55],[119,120,121,114,122,123,124,125],"voice-synthesis","tacotron","machine-learning","skyrim","fallout","elder-scrolls","speech-synthesis","2026-03-27T02:49:30.150509","2026-04-06T07:13:21.254984",[129,134,139,144,149,154],{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},9869,"在日语区域设置下运行 server.py 时出现 'UnicodeDecodeError: cp932' 错误怎么办？","这是因为文件读取时未指定编码格式。需要在打开文件时显式添加 `encoding='utf-8'` 参数。修改 server.py 中读取 script.js 的代码如下：\n```python\nwith open(f'{\".\u002Fresources\u002Fapp\" if PROD else \".\"}\u002Fjavascript\u002Fscript.js', encoding='utf-8') as f:\n   lines = f.read().split(\"\\n\")\n   APP_VERSION = lines[1].split('\"v')[1].split('\"')[0]\n```\n这样可以解决因系统默认编码（如 cp932）无法解码字节导致的崩溃问题。","https:\u002F\u002Fgithub.com\u002FDanRuta\u002FxVA-Synth\u002Fissues\u002F28",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},9870,"安装 ffmpeg 后，生成的音频样本无法覆盖旧样本或报错怎么办？","该问题已在版本 1.3.5 中修复。如果您遇到安装 ffmpeg 4.3.2 后无法覆盖之前保留的样本（Keep Sample）的问题，请升级到最新版本（1.3.5 或更高），该版本已解决此冲突。更新后可在 Nexus Mods 网站下载。","https:\u002F\u002Fgithub.com\u002FDanRuta\u002FxVA-Synth\u002Fissues\u002F16",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},9871,"如何在应用中配置和使用 ffmpeg 进行音频格式转换？","应用支持通过 ffmpeg 直接调整输出音频的采样率、位深和格式（如转换为 16 位 wav 以供 Creation Kit 使用）。您需要从 ffmpeg 官网下载最新版本并正确安装，确保应用能调用 ffmpeg 命令行工具。如果遇到“文件丢失”错误或临时文件消失，可能是 Python 绑定调用失败，请检查 ffmpeg 是否已添加到系统环境变量 PATH 中，并确保输入位置的临时文件在转换完成前未被删除。","https:\u002F\u002Fgithub.com\u002FDanRuta\u002FxVA-Synth\u002Fissues\u002F14",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},9872,"项目是否支持或计划支持真实人物（如 Todd Howard）的语音模型？","官方建议不要为真实人物制作语音模型，仅应为特定的虚构角色制作。虽然游戏角色声音的版权通常归公司所有且作为“雇佣作品”处理，但复制真人的自然声音可能涉及隐私权、个人权利侵犯，甚至在恶意使用时被认定为支持身份盗窃。法律风险较高，因此项目范围限定于虚构角色。不过，部分创作者可能在 Patreon 等外部平台分享此类模型，但这不属于官方核心项目范围。","https:\u002F\u002Fgithub.com\u002FDanRuta\u002FxVA-Synth\u002Fissues\u002F23",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},9873,"HiFi-GAN 模型是使用什么数据训练的？可以使用 Tacotron2 的输出吗？","HiFi-GAN 模型通常使用基频音频（ground truth audio）生成的梅尔频谱图进行训练，但也正在实验使用 Tacotron2 或 FastPitch 模型生成的梅尔频谱图。由于 FastPitch 本身是在 Tacotron2 输出上训练的，使用 Tacotron2 的输出可能具有优势。您可以尝试使用 FastPitch 仓库中的 `extract-mels.py` 脚本来提取梅尔频谱图用于训练 HiFi-GAN。","https:\u002F\u002Fgithub.com\u002FDanRuta\u002FxVA-Synth\u002Fissues\u002F21",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},9874,"可以在 Skyrim 模组中使用 Oblivion 或其他游戏的语音资源吗？","目前没有任何迹象表明这样做会有问题。虽然 Bethesda 不太喜欢在不同游戏间混用资产（如在 Skyrim 中使用 Oblivion 资源），但只要您不收费分发这些语音模型，通常是可以使用的。这是一个相对未知的领域，但只要用于非商业的个人模组制作，风险很低。","https:\u002F\u002Fgithub.com\u002FDanRuta\u002FxVA-Synth\u002Fissues\u002F8",[160,163],{"id":161,"version":162,"summary_zh":81,"released_at":81},107172,"v1.0.0",{"id":164,"version":165,"summary_zh":81,"released_at":81},107173,"v0.1"]