[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-OlaWod--FreeVC":3,"tool-OlaWod--FreeVC":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":83,"owner_website":84,"owner_url":85,"languages":86,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":10,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":112,"github_topics":113,"view_count":23,"oss_zip_url":83,"oss_zip_packed_at":83,"status":16,"created_at":117,"updated_at":118,"faqs":119,"releases":149},2368,"OlaWod\u002FFreeVC","FreeVC","FreeVC: Towards High-Quality Text-Free One-Shot Voice Conversion","FreeVC 是一款专注于高质量“无文本”语音转换的开源工具。它的核心功能是让用户仅需提供一段目标说话人的简短录音（即“一次样本”），就能将任意源语音转换为该目标音色，而无需知道原始语音对应的文字内容。\n\n这一工具主要解决了传统语音转换技术对文本标注依赖性强、数据准备成本高的问题。在许多实际场景中，获取精准的逐字文本标注非常困难，FreeVC 通过端到端架构，实现了在完全脱离文本信息的情况下，依然能保持高保真的语音还原和自然的音色迁移。\n\nFreeVC 非常适合语音合成领域的研究人员、开发者以及需要构建隐私保护型语音应用的技术团队使用。对于普通用户，也可以通过其集成的 HuggingFace 在线演示直接体验效果。\n\n其技术亮点在于巧妙结合了 VITS 框架进行高质量波形重建，并利用 WavLM 模型提取内容特征。为了确保在不依赖文本时仍能精准分离语音内容与音色，FreeVC 引入了“信息瓶颈”机制来净化内容信息，并独创了基于“频谱图缩放”的数据增强策略，显著提升了转换后语音的清晰度和自然度。目前项目已开放代码、预训练模型及在线试玩，支持 24kHz 高清输出，是探索无监督语音转换的优","FreeVC 是一款专注于高质量“无文本”语音转换的开源工具。它的核心功能是让用户仅需提供一段目标说话人的简短录音（即“一次样本”），就能将任意源语音转换为该目标音色，而无需知道原始语音对应的文字内容。\n\n这一工具主要解决了传统语音转换技术对文本标注依赖性强、数据准备成本高的问题。在许多实际场景中，获取精准的逐字文本标注非常困难，FreeVC 通过端到端架构，实现了在完全脱离文本信息的情况下，依然能保持高保真的语音还原和自然的音色迁移。\n\nFreeVC 非常适合语音合成领域的研究人员、开发者以及需要构建隐私保护型语音应用的技术团队使用。对于普通用户，也可以通过其集成的 HuggingFace 在线演示直接体验效果。\n\n其技术亮点在于巧妙结合了 VITS 框架进行高质量波形重建，并利用 WavLM 模型提取内容特征。为了确保在不依赖文本时仍能精准分离语音内容与音色，FreeVC 引入了“信息瓶颈”机制来净化内容信息，并独创了基于“频谱图缩放”的数据增强策略，显著提升了转换后语音的清晰度和自然度。目前项目已开放代码、预训练模型及在线试玩，支持 24kHz 高清输出，是探索无监督语音转换的优质选择。","# FreeVC: Towards High-Quality Text-Free One-Shot Voice Conversion\r\n\r\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-Paper-\u003CCOLOR>.svg)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.15418)\r\n[![githubio](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?message=Audio%20Samples&logo=Github&labelColor=grey&color=blue&logoColor=white&label=%20&style=flat)](https:\u002F\u002Folawod.github.io\u002FFreeVC-demo\u002F)\r\n![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FOlaWod\u002FFreeVC)\r\n![GitHub](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FOlaWod\u002FFreeVC)\r\n\r\nIn this [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.15418), we adopt the end-to-end framework of [VITS](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.06103) for high-quality waveform reconstruction, and propose strategies for clean content information extraction without text annotation. We disentangle content information by imposing an information bottleneck to [WavLM](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.13900) features, and propose the **spectrogram-resize** based data augmentation to improve the purity of extracted content information.\r\n\r\n[🤗 Play online at HuggingFace Spaces](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FOlaWod\u002FFreeVC).\r\n\r\nVisit our [demo page](https:\u002F\u002Folawod.github.io\u002FFreeVC-demo) for audio samples.\r\n\r\nWe also provide the [pretrained models](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AnvukVnlQ3ZTx1rjrOZ2abCwuBAh?e=UlhRR5).\r\n\r\n\u003Ctable style=\"width:100%\">\r\n  \u003Ctr>\r\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlaWod_FreeVC_readme_eafc19656c47.png\" alt=\"training\" height=\"200\">\u003C\u002Ftd>\r\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlaWod_FreeVC_readme_fcdf3ca6ba32.png\" alt=\"inference\" height=\"200\">\u003C\u002Ftd>\r\n  \u003C\u002Ftr>\r\n  \u003Ctr>\r\n    \u003Cth>(a) Training\u003C\u002Fth>\r\n    \u003Cth>(b) Inference\u003C\u002Fth>\r\n  \u003C\u002Ftr>\r\n\u003C\u002Ftable>\r\n\r\n## Updates\r\n\r\n- Code release. (Nov 27, 2022)\r\n- Online demo at HuggingFace Spaces. (Dec 14, 2022)\r\n- Supports 24kHz outputs. See [here](https:\u002F\u002Fgithub.com\u002FOlaWod\u002FFreeVC\u002Ftree\u002Fmain\u002Ftips-for-synthesizing-24KHz-wavs-from-16kHz-wavs\u002F) for details. (Dec 15, 2022)\r\n- Fix data loading bug. (Jan 10, 2023)\r\n\r\n## Pre-requisites\r\n\r\n1. Clone this repo: `git clone https:\u002F\u002Fgithub.com\u002FOlaWod\u002FFreeVC.git`\r\n\r\n2. CD into this repo: `cd FreeVC`\r\n\r\n3. Install python requirements: `pip install -r requirements.txt`\r\n\r\n4. Download [WavLM-Large](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Funilm\u002Ftree\u002Fmaster\u002Fwavlm) and put it under directory 'wavlm\u002F'\r\n\r\n5. Download the [VCTK](https:\u002F\u002Fdatashare.ed.ac.uk\u002Fhandle\u002F10283\u002F3443) dataset (for training only)\r\n\r\n6. Download [HiFi-GAN model](https:\u002F\u002Fgithub.com\u002Fjik876\u002Fhifi-gan) and put it under directory 'hifigan\u002F' (for training with SR only)\r\n\r\n## Inference Example\r\n\r\nDownload the pretrained checkpoints and run:\r\n\r\n```python\r\n# inference with FreeVC\r\nCUDA_VISIBLE_DEVICES=0 python convert.py --hpfile logs\u002Ffreevc.json --ptfile checkpoints\u002Ffreevc.pth --txtpath convert.txt --outdir outputs\u002Ffreevc\r\n\r\n# inference with FreeVC-s\r\nCUDA_VISIBLE_DEVICES=0 python convert.py --hpfile logs\u002Ffreevc-s.json --ptfile checkpoints\u002Ffreevc-s.pth --txtpath convert.txt --outdir outputs\u002Ffreevc-s\r\n```\r\n\r\n## Training Example\r\n\r\n1. Preprocess\r\n\r\n```python\r\npython downsample.py --in_dir \u003C\u002Fpath\u002Fto\u002FVCTK\u002Fwavs>\r\nln -s dataset\u002Fvctk-16k DUMMY\r\n\r\n# run this if you want a different train-val-test split\r\npython preprocess_flist.py\r\n\r\n# run this if you want to use pretrained speaker encoder\r\nCUDA_VISIBLE_DEVICES=0 python preprocess_spk.py\r\n\r\n# run this if you want to train without SR-based augmentation\r\nCUDA_VISIBLE_DEVICES=0 python preprocess_ssl.py\r\n\r\n# run these if you want to train with SR-based augmentation\r\nCUDA_VISIBLE_DEVICES=1 python preprocess_sr.py --min 68 --max 72\r\nCUDA_VISIBLE_DEVICES=1 python preprocess_sr.py --min 73 --max 76\r\nCUDA_VISIBLE_DEVICES=2 python preprocess_sr.py --min 77 --max 80\r\nCUDA_VISIBLE_DEVICES=2 python preprocess_sr.py --min 81 --max 84\r\nCUDA_VISIBLE_DEVICES=3 python preprocess_sr.py --min 85 --max 88\r\nCUDA_VISIBLE_DEVICES=3 python preprocess_sr.py --min 89 --max 92\r\n```\r\n\r\n2. Train\r\n\r\n```python\r\n# train freevc\r\nCUDA_VISIBLE_DEVICES=0 python train.py -c configs\u002Ffreevc.json -m freevc\r\n\r\n# train freevc-s\r\nCUDA_VISIBLE_DEVICES=2 python train.py -c configs\u002Ffreevc-s.json -m freevc-s\r\n```\r\n\r\n## References\r\n\r\n- https:\u002F\u002Fgithub.com\u002Fjaywalnut310\u002Fvits\r\n- https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Funilm\u002Ftree\u002Fmaster\u002Fwavlm\r\n- https:\u002F\u002Fgithub.com\u002Fjik876\u002Fhifi-gan\r\n- https:\u002F\u002Fgithub.com\u002Fliusongxiang\u002Fppg-vc\r\n","# FreeVC：迈向高质量的无文本单样本语音转换\n\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-Paper-\u003CCOLOR>.svg)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.15418)\n[![githubio](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?message=Audio%20Samples&logo=Github&labelColor=grey&color=blue&logoColor=white&label=%20&style=flat)](https:\u002F\u002Folawod.github.io\u002FFreeVC-demo\u002F)\n![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FOlaWod\u002FFreeVC)\n![GitHub](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FOlaWod\u002FFreeVC)\n\n在这篇 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.15418) 中，我们采用了 [VITS](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.06103) 的端到端框架来实现高质量的波形重建，并提出了一种无需文本标注即可提取纯净内容信息的方法。我们通过对 [WavLM](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.13900) 特征施加信息瓶颈来解耦内容信息，同时提出了基于 **spectrogram-resize** 的数据增强方法，以进一步提升所提取内容信息的纯净度。\n\n[🤗 在 HuggingFace Spaces 上在线体验](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FOlaWod\u002FFreeVC)。\n\n请访问我们的 [演示页面](https:\u002F\u002Folawod.github.io\u002FFreeVC-demo) 查看音频样本。\n\n我们还提供了 [预训练模型](https:\u002F\u002F1drv.ms\u002Fu\u002Fs!AnvukVnlQ3ZTx1rjrOZ2abCwuBAh?e=UlhRR5)。\n\n\u003Ctable style=\"width:100%\">\n  \u003Ctr>\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlaWod_FreeVC_readme_eafc19656c47.png\" alt=\"training\" height=\"200\">\u003C\u002Ftd>\n    \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlaWod_FreeVC_readme_fcdf3ca6ba32.png\" alt=\"inference\" height=\"200\">\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Cth>(a) 训练\u003C\u002Fth>\n    \u003Cth>(b) 推理\u003C\u002Fth>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## 更新日志\n\n- 代码发布。（2022年11月27日）\n- 在 HuggingFace Spaces 上上线在线演示。（2022年12月14日）\n- 支持生成 24kHz 输出。详情请参见 [这里](https:\u002F\u002Fgithub.com\u002FOlaWod\u002FFreeVC\u002Ftree\u002Fmain\u002Ftips-for-synthesizing-24KHz-wavs-from-16kHz-wavs\u002F)。（2022年12月15日）\n- 修复数据加载错误。（2023年1月10日）\n\n## 前置条件\n\n1. 克隆本仓库：`git clone https:\u002F\u002Fgithub.com\u002FOlaWod\u002FFreeVC.git`\n\n2. 进入该仓库目录：`cd FreeVC`\n\n3. 安装 Python 依赖：`pip install -r requirements.txt`\n\n4. 下载 [WavLM-Large](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Funilm\u002Ftree\u002Fmaster\u002Fwavlm)，并将其放置在 `wavlm\u002F` 目录下。\n\n5. 下载 [VCTK](https:\u002F\u002Fdatashare.ed.ac.uk\u002Fhandle\u002F10283\u002F3443) 数据集（仅用于训练）。\n\n6. 下载 [HiFi-GAN 模型](https:\u002F\u002Fgithub.com\u002Fjik876\u002Fhifi-gan)，并将其放置在 `hifigan\u002F` 目录下（仅用于带超分辨率的训练）。\n\n## 推理示例\n\n下载预训练检查点并运行：\n\n```python\n# 使用 FreeVC 进行推理\nCUDA_VISIBLE_DEVICES=0 python convert.py --hpfile logs\u002Ffreevc.json --ptfile checkpoints\u002Ffreevc.pth --txtpath convert.txt --outdir outputs\u002Ffreevc\n\n# 使用 FreeVC-s 进行推理\nCUDA_VISIBLE_DEVICES=0 python convert.py --hpfile logs\u002Ffreevc-s.json --ptfile checkpoints\u002Ffreevc-s.pth --txtpath convert.txt --outdir outputs\u002Ffreevc-s\n```\n\n## 训练示例\n\n1. 预处理\n\n```python\npython downsample.py --in_dir \u003C\u002Fpath\u002Fto\u002FVCTK\u002Fwavs>\nln -s dataset\u002Fvctk-16k DUMMY\n\n# 如果需要不同的训练-验证-测试划分，可运行以下命令：\npython preprocess_flist.py\n\n# 如果希望使用预训练的说话人编码器，可运行：\nCUDA_VISIBLE_DEVICES=0 python preprocess_spk.py\n\n# 如果不希望使用基于超分辨率的数据增强，可运行：\nCUDA_VISIBLE_DEVICES=0 python preprocess_ssl.py\n\n# 如果希望使用基于超分辨率的数据增强，可分别运行以下命令：\nCUDA_VISIBLE_DEVICES=1 python preprocess_sr.py --min 68 --max 72\nCUDA_VISIBLE_DEVICES=1 python preprocess_sr.py --min 73 --max 76\nCUDA_VISIBLE_DEVICES=2 python preprocess_sr.py --min 77 --max 80\nCUDA_VISIBLE_DEVICES=2 python preprocess_sr.py --min 81 --max 84\nCUDA_VISIBLE_DEVICES=3 python preprocess_sr.py --min 85 --max 88\nCUDA_VISIBLE_DEVICES=3 python preprocess_sr.py --min 89 --max 92\n```\n\n2. 训练\n\n```python\n# 训练 FreeVC\nCUDA_VISIBLE_DEVICES=0 python train.py -c configs\u002Ffreevc.json -m freevc\n\n# 训练 FreeVC-s\nCUDA_VISIBLE_DEVICES=2 python train.py -c configs\u002Ffreevc-s.json -m freevc-s\n```\n\n## 参考文献\n\n- https:\u002F\u002Fgithub.com\u002Fjaywalnut310\u002Fvits\n- https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Funilm\u002Ftree\u002Fmaster\u002Fwavlm\n- https:\u002F\u002Fgithub.com\u002Fjik876\u002Fhifi-gan\n- https:\u002F\u002Fgithub.com\u002Fliusongxiang\u002Fppg-vc","# FreeVC 快速上手指南\n\nFreeVC 是一个高质量的**无文本单样本语音转换**（Text-Free One-Shot Voice Conversion）开源工具。它基于 VITS 端到端框架，利用 WavLM 特征提取内容信息，无需文本标注即可实现高保真的音色转换。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04+)\n*   **Python**: 3.8 或更高版本\n*   **GPU**: 支持 CUDA 的 NVIDIA 显卡（训练和推理均建议使用 GPU）\n*   **依赖库**: `torch`, `torchaudio`, `numpy`, `scipy` 等（将通过 requirements.txt 自动安装）\n*   **前置模型与数据**:\n    *   **WavLM-Large**: 需预先下载并放置于 `wavlm\u002F` 目录。\n    *   **VCTK 数据集**: 仅训练时需要，需下载并解压。\n    *   **HiFi-GAN 模型**: 仅在进行基于超分辨率（SR）的训练时需要，放置于 `hifigan\u002F` 目录。\n\n> **提示**: 国内开发者在下载 WavLM 或 VCTK 数据集时，若官方源速度较慢，可尝试使用国内镜像站或开源社区提供的备份链接。\n\n## 2. 安装步骤\n\n请按顺序执行以下命令完成代码克隆、依赖安装及资源准备：\n\n```bash\n# 1. 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002FOlaWod\u002FFreeVC.git\ncd FreeVC\n\n# 2. 安装 Python 依赖\n# 建议先配置 pip 国内镜像源以加速下载\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 3. 下载 WavLM-Large 模型\n# 请访问 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Funilm\u002Ftree\u002Fmaster\u002Fwavlm 下载模型\n# 将下载好的模型文件放入 wavlm\u002F 目录下\n\n# 4. (可选) 准备训练数据\n# 如需训练，请下载 VCTK 数据集 (https:\u002F\u002Fdatashare.ed.ac.uk\u002Fhandle\u002F10283\u002F3443)\n# 如需进行 SR 增强训练，请下载 HiFi-GAN 模型 (https:\u002F\u002Fgithub.com\u002Fjik876\u002Fhifi-gan) 并放入 hifigan\u002F 目录\n```\n\n## 3. 基本使用\n\n### 3.1 推理示例 (Inference)\n\n在使用前，请先从官方提供的链接下载预训练模型检查点（`freevc.pth` 或 `freevc-s.pth`）并放入 `checkpoints\u002F` 目录，同时准备好包含转换指令的 `convert.txt` 文件。\n\n运行以下命令进行语音转换：\n\n```bash\n# 使用 FreeVC 标准模型进行推理\nCUDA_VISIBLE_DEVICES=0 python convert.py --hpfile logs\u002Ffreevc.json --ptfile checkpoints\u002Ffreevc.pth --txtpath convert.txt --outdir outputs\u002Ffreevc\n\n# 使用 FreeVC-s 模型进行推理\nCUDA_VISIBLE_DEVICES=0 python convert.py --hpfile logs\u002Ffreevc-s.json --ptfile checkpoints\u002Ffreevc-s.pth --txtpath convert.txt --outdir outputs\u002Ffreevc-s\n```\n\n*   `--txtpath`: 指定包含源音频路径和目标音频路径的文本文件。\n*   `--outdir`: 指定输出音频的保存目录。\n\n### 3.2 训练示例 (Training)\n\n如需从头训练模型，需先进行数据预处理，然后启动训练脚本。\n\n**第一步：数据预处理**\n\n```bash\n# 对 VCTK 数据进行下采样处理 (替换 \u003Cpath\u002Fto\u002FVCTK\u002Fwavs> 为实际路径)\npython downsample.py --in_dir \u003C\u002Fpath\u002Fto\u002FVCTK\u002Fwavs>\n\n# 创建数据链接\nln -s dataset\u002Fvctk-16k DUMMY\n\n# (可选) 重新划分训练集\u002F验证集\u002F测试集\npython preprocess_flist.py\n\n# (可选) 预处理说话人编码器\nCUDA_VISIBLE_DEVICES=0 python preprocess_spk.py\n\n# (可选) 若无 SR 增强需求，运行此命令\nCUDA_VISIBLE_DEVICES=0 python preprocess_ssl.py\n\n# (可选) 若需使用 SR 增强训练，分批运行以下命令 (多卡并行示例)\nCUDA_VISIBLE_DEVICES=1 python preprocess_sr.py --min 68 --max 72\nCUDA_VISIBLE_DEVICES=1 python preprocess_sr.py --min 73 --max 76\nCUDA_VISIBLE_DEVICES=2 python preprocess_sr.py --min 77 --max 80\nCUDA_VISIBLE_DEVICES=2 python preprocess_sr.py --min 81 --max 84\nCUDA_VISIBLE_DEVICES=3 python preprocess_sr.py --min 85 --max 88\nCUDA_VISIBLE_DEVICES=3 python preprocess_sr.py --min 89 --max 92\n```\n\n**第二步：启动训练**\n\n```bash\n# 训练 FreeVC 模型\nCUDA_VISIBLE_DEVICES=0 python train.py -c configs\u002Ffreevc.json -m freevc\n\n# 训练 FreeVC-s 模型\nCUDA_VISIBLE_DEVICES=2 python train.py -c configs\u002Ffreevc-s.json -m freevc-s\n```\n\n训练日志和模型检查点将保存在 `logs\u002F` 目录下。","一家小型独立游戏工作室正在为角色配音，但预算有限无法聘请多位专业声优，只能由一名配音演员录制所有角色的原始干音。\n\n### 没有 FreeVC 时\n- **音色单一缺乏区分度**：所有 NPC 听起来都是同一个人的声音，玩家难以通过听觉分辨角色身份，严重破坏沉浸感。\n- **依赖文本标注成本高**：传统变声方案往往需要精确的字幕或音素对齐数据，整理这些文本标注耗费了团队大量额外时间。\n- **音质损失严重**：简单的音调调整导致声音出现机械感或背景噪音被放大，无法满足高品质游戏的发布标准。\n- **样本需求量大**：若要训练定制化模型，通常需要目标角色长达数小时的清晰录音，而剧组仅能提供极短的参考样音。\n\n### 使用 FreeVC 后\n- **一键实现“一人千面”**：利用 FreeVC 的免文本单次转换能力，仅需一段几秒的目标角色参考音频，即可将主演声音完美转换为不同年龄、性别的角色音色。\n- **无需文本预处理**：直接提取语音内容特征，彻底省去了繁琐的字幕对齐和音素标注环节，让美术和策划人员也能直接操作。\n- **高保真波形重建**：基于 VITS 端到端框架，转换后的语音保留了丰富的情感细节和自然度，听感接近真实录音棚效果。\n- **极低数据门槛**：即使是只有几句台词的冷门角色，也能通过\"One-Shot\"技术快速生成高质量配音，大幅缩短制作周期。\n\nFreeVC 让小团队仅凭一名声优和少量参考音频，就能低成本构建出层次丰富、听感专业的游戏语音世界。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOlaWod_FreeVC_fcdf3ca6.png","OlaWod","Jing-Yi Li","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FOlaWod_fe0cf706.jpg",".","WHU","China","jyli.chn@foxmail.com",null,"https:\u002F\u002Folawod.netlify.app\u002F","https:\u002F\u002Fgithub.com\u002FOlaWod",[87],{"name":88,"color":89,"percentage":90},"Python","#3572A5",100,711,123,"2026-04-02T08:06:46","MIT","Linux","必需 NVIDIA GPU (命令中包含 CUDA_VISIBLE_DEVICES)，具体型号和显存未说明，需支持 CUDA","未说明",{"notes":99,"python":100,"dependencies":101},"1. 必须手动下载 WavLM-Large 预训练模型并放入 'wavlm\u002F' 目录。\n2. 训练需准备 VCTK 数据集。\n3. 若使用基于超分辨率 (SR) 的增强训练，需额外下载 HiFi-GAN 模型。\n4. 代码示例主要基于 Linux 环境编写（使用 ln -s 创建软链接）。\n5. 支持 24kHz 输出合成。","未说明 (需满足 requirements.txt)",[102,103,104,105,106,107,108,109,110,111],"torch","torchaudio","numpy","scipy","librosa","monotonic_align","matplotlib","TensorBoard","phonemizer","transformers (隐含，用于 WavLM)",[55,13],[114,115,116],"pytorch","speech","voice-conversion","2026-03-27T02:49:30.150509","2026-04-06T06:45:49.202305",[120,125,130,135,140,144],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},10874,"如何配置 48kHz 模型的训练参数（如 segment_size 和 upsample_rates）？","对于 48kHz 模型，通常需要将 24kHz 配置中的相关数值加倍。关于 upsample_rates，用户尝试使用 [10, 8, 6, 2] 是可行的方向，但需注意音频切片器（Slicer）在处理高采样率时可能会遇到问题。建议参考 24kHz 的配置逻辑，将 segment_size 等时间相关的参数按比例调整，并确保数据预处理脚本（datautils）中的 hop_length 等参数已正确更新为 48kHz 对应的值（例如 128hop）。","https:\u002F\u002Fgithub.com\u002FOlaWod\u002FFreeVC\u002Fissues\u002F63",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},10875,"在使用 24kHz 数据工具（data_utils_24.py）恢复训练时遇到 FileNotFoundError 错误怎么办？","该错误通常是因为代码中缺少对路径前缀的处理。在 24kHz 版本的 data_utils 中，需要添加类似以下代码来替换虚拟路径：`audiopath = audiopath[0].replace(\"\\\\\", \"\u002F\").replace(\"DUMMY\", \"dataset\u002Fvctk-16k\")`。如果直接使用旧的处理索引应用到新采样率文件导致溢出或长度不匹配，最佳解决方案是重新运行预处理脚本，确保所有波形文件由同一过程生成以保持文件头长度一致，或者使用维护者提供的下采样脚本从原始文件重新生成 24kHz 波形。","https:\u002F\u002Fgithub.com\u002FOlaWod\u002FFreeVC\u002Fissues\u002F57",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},10876,"如何解决单 GPU 训练时 CPU 负载过高而 GPU 利用率不足的问题？","在 Windows 上由于不支持 NCCL，默认使用的 GLOO 后端可能导致 CPU 陷入循环从而瓶颈 GPU。解决方案是修改 train.py，移除分布式训练相关的代码（如 `torch.multiprocessing`, `torch.distributed`, `DDP`），改为单进程单 GPU 模式。具体做法是注释掉多进程启动逻辑，直接调用训练函数，并确保 `torch.backends.cudnn.benchmark = True` 已启用以优化 GPU 性能。","https:\u002F\u002Fgithub.com\u002FOlaWod\u002FFreeVC\u002Fissues\u002F34",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},10877,"在哪里可以找到预训练模型的训练日志以参考损失函数的变化趋势？","项目维护者建议参考 VITS 项目的相关 Issue（jaywalnut310\u002Fvits#14）作为训练损失趋势的通用参考。通常情况下，如果代码修改正确，复现训练时的损失趋势应与原始日志相似。如果在修改代码后发现 FM loss 异常下降，需检查是否引入了新的数据处理逻辑或超参数变化。","https:\u002F\u002Fgithub.com\u002FOlaWod\u002FFreeVC\u002Fissues\u002F25",{"id":141,"question_zh":142,"answer_zh":143,"source_url":129},10878,"从 22kHz\u002F16kHz 音频转换到 24kHz 时出现音频截断或长度不匹配如何解决？","直接通过索引缩放（如 `int(index[0]*24000\u002F22050)`）可能会导致溢出警告和音频过短。维护者指出，更可靠的方法是使用专门的下采样脚本（如 `downsample_24k.py`）直接从源音频生成 24kHz 文件，而不是简单地对旧索引进行数学换算。此外，注意音频处理中的 `top_db` 参数设置过于激进（如 20）可能会切除部分声音导致发音不良，建议适当调整该阈值。",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},10879,"微调 FreeVC-s 模型时遇到 multiprocessing spawn 错误如何处理？","此类错误通常源于数据加载或多进程环境配置问题。首先检查数据集格式是否符合 VCTK 标准，配置文件中的路径是否正确。如果是单卡训练，建议参照单 GPU 优化方案移除分布式多进程代码（mp.spawn），直接运行训练循环以避免进程派生失败。同时确保所有依赖库版本兼容，特别是在 Linux 环境下运行时。","https:\u002F\u002Fgithub.com\u002FOlaWod\u002FFreeVC\u002Fissues\u002F56",[]]