[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-archinetai--audio-ai-timeline":3,"tool-archinetai--audio-ai-timeline":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":75,"owner_website":79,"owner_url":81,"languages":79,"stars":82,"forks":83,"last_commit_at":84,"license":79,"difficulty_score":85,"env_os":86,"env_gpu":86,"env_ram":86,"env_deps":87,"category_tags":90,"github_topics":91,"view_count":95,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":96,"updated_at":97,"faqs":98,"releases":114},793,"archinetai\u002Faudio-ai-timeline","audio-ai-timeline","A timeline of the latest AI models for audio generation, starting in 2023!","audio-ai-timeline 是一个专注于梳理自 2023 年起最新 AI 音频生成模型的时间线资源库。在人工智能音频领域飞速发展的当下，新的研究成果层出不穷，但相关信息往往分散在各个平台，导致跟进困难。这个项目通过结构化的时间轴，将波形生成相关的模型按日期有序排列，有效解决了信息检索难、更新追踪慢的问题。\n\n内容不仅涵盖发布日期，还详细列出了论文链接、开源代码仓库、预训练模型地址以及试听样本，极大降低了获取资源的门槛。无论是进行算法研究的研究人员、需要集成技术的开发者，还是寻找灵感的设计师，都能在此快速定位到如 UniAudio 通用模型或 Mustango 可控音乐生成等前沿项目。对于希望系统掌握 AI 音频技术演进脉络的用户而言，audio-ai-timeline 提供了一个清晰且实用的参考指南，帮助大家轻松把握行业脉搏。","# Audio AI Timeline\n\nHere we will keep track of the latest AI models for waveform based audio generation, starting in 2023!\n\n## 2023\n\n| Date  | Release [Samples]                                                                                                                                                                              | Paper                                            | Code                                                                             | Trained Model                                                                                                                                                       |\n| ----- | ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ------------------------------------------------ | -------------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------- |\n| 14.11 | [Mustango: Toward Controllable Text-to-Music Generation](https:\u002F\u002Famaai-lab.github.io\u002Fmustango\u002F)                                                                                              | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.08355)         | [GitHub](https:\u002F\u002Fgithub.com\u002FAMAAI-Lab\u002Fmustango)                                     | [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fdeclare-lab\u002Fmustango)                                                                              |\n| 13.11 | [Music ControlNet: Multiple Time-varying Controls for Music Generation](https:\u002F\u002Fmusiccontrolnet.github.io\u002Fweb\u002F)                                                                              | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.07069)         | -                                                                                   | -                                                                                                                                                                   |\n| 02.11 | [E3 TTS: Easy End-to-End Diffusion-based Text to Speech](https:\u002F\u002Fe3tts.github.io\u002F)                                                                                                           | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.00945)         | -                                                                                   | -                                                                                                                                                                   |\n| 01.10 | [UniAudio: An Audio Foundation Model Toward Universal Audio Generation](http:\u002F\u002Fdongchaoyang.top\u002FUniAudio_demo\u002F)                                                                              | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00704)         | [GitHub](https:\u002F\u002Fgithub.com\u002Fyangdongchao\u002FUniAudio)                                  | -                                                                                                                                                                   |\n| 24.09 | [VoiceLDM: Text-to-Speech with Environmental Context](https:\u002F\u002Fvoiceldm.github.io\u002F)                                                                                                           | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13664)         | [GitHub](https:\u002F\u002Fgithub.com\u002Fglory20h\u002FVoiceLDM)                                      | -                                                                                                                                                                   |\n| 05.09 | [PromptTTS 2: Describing and Generating Voices with Text Prompt](https:\u002F\u002Fspeechresearch.github.io\u002Fprompttts2\u002F)                                                                               | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.02285)         | -                                                                                   | -                                                                                                                                                                   |\n| 14.08 | [SpeechX: Neural Codec Language Model as a Versatile Speech Transformer](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fproject\u002Fspeechx\u002F)                                                          | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06873)         | -                                                                                   | -                                                                                                                                                                   |\n| 10.08 | [AudioLDM 2: Learning Holistic Audio Generation with Self-supervised Pretraining](https:\u002F\u002Faudioldm.github.io\u002Faudioldm2\u002F)                                                                     | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05734)         | [GitHub](https:\u002F\u002Fgithub.com\u002Fhaoheliu\u002Faudioldm2)                                     | [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fhaoheliu\u002Faudioldm2-text2audio-text2music)                                                                              |\n| 09.08 | [JEN-1: Text-Guided Universal Music Generation with Omnidirectional Diffusion Models](https:\u002F\u002Fwww.futureverse.com\u002Fresearch\u002Fjen\u002Fdemos\u002Fjen1)                                                   | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04729)         | -                                                                                   | -                                                                                                                                                                   |\n| 03.08 | [MusicLDM: Enhancing Novelty in Text-to-Music Generation Using Beat-Synchronous Mixup Strategies](https:\u002F\u002Fmusicldm.github.io\u002F)                                                               | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01546)         | [GitHub](https:\u002F\u002Fgithub.com\u002FRetroCirce\u002FMusicLDM\u002F)                                | -                                                                                                                                                                   |\n| 14.07 | [Mega-TTS 2: Zero-Shot Text-to-Speech with Arbitrary Length Speech Prompts](https:\u002F\u002Fmega-tts.github.io\u002Fmega2_demo\u002F)                                                                          | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.07218)         | -                                                                                   | -                                                                                                                                                                   |\n| 10.07 | [VampNet: Music Generation via Masked Acoustic Token Modeling](https:\u002F\u002Fhugo-does-things.notion.site\u002FVampNet-Music-Generation-via-Masked-Acoustic-Token-Modeling-e37aabd0d5f1493aa42c5711d0764b33)                                                                                   | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04686)        | [GitHub](https:\u002F\u002Fgithub.com\u002Fhugofloresgarcia\u002Fvampnet)                                | -                                                                                                                                                                   |\n| 22.06 | [AudioPaLM: A Large Language Model That Can Speak and Listen](https:\u002F\u002Fgoogle-research.github.io\u002Fseanet\u002Faudiopalm\u002Fexamples\u002F)                                                                   | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F\u002F2306.12925)        | -                                                                                   | -                                                                                                                                                                   |\n| 19.06 | [Voicebox: Text-Guided Multilingual Universal Speech Generation at Scale](https:\u002F\u002Fvoicebox.metademolab.com\u002F)                                                                                  | [PDF](https:\u002F\u002Fscontent-lga3-2.xx.fbcdn.net\u002Fv\u002Ft39.8562-6\u002F354636794_599417672291955_3799385851435258804_n.pdf?_nc_cat=101&ccb=1-7&_nc_sid=ad8a9d&_nc_ohc=bN1S0esWehwAX_22ORV&_nc_ht=scontent-lga3-2.xx&oh=00_AfCtouRXIvwDx10qPVMNkq_4xMTVOQUrfmyYQW--9cIoWg&oe=64947BF1)        | [GitHub](https:\u002F\u002Fgithub.com\u002FSpeechifyInc\u002FMeta-voicebox)                                | -                                                                                                                                                                   |\n| 08.06 | [MusicGen: Simple and Controllable Music Generation](https:\u002F\u002Fai.honu.io\u002Fpapers\u002Fmusicgen\u002F)                                                                                                     | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05284)        | [GitHub](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Faudiocraft)                            | [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Ffacebook\u002FMusicGen) [Colab](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1fxGqfg96RBUvGxZ1XXN07s3DthrKUl4-?usp=sharing)              |\n| 06.06 | [Mega-TTS: Zero-Shot Text-to-Speech at Scale with Intrinsic Inductive Bias](https:\u002F\u002Fmega-tts.github.io\u002Fdemo-page\u002F)                                                                            | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03509)        | -                                                                                   | -                                                                                                                                                                   |\n| 01.06 | [Vocos: Closing the gap between time-domain and Fourier-based neural vocoders for high-quality audio synthesis](https:\u002F\u002Fcharactr-platform.github.io\u002Fvocos\u002F)                                   | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00814)        | [GitHub](https:\u002F\u002Fgithub.com\u002Fcharactr-platform\u002Fvocos)                                | -                                                                                                                                                                   |\n| 29.05 | [Make-An-Audio 2: Temporal-Enhanced Text-to-Audio Generation](https:\u002F\u002Fmake-an-audio-2.github.io\u002F)                                                                                             | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18474)        | -                                                                                   | -                                                                                                                                                                   |\n| 25.05 | [MeLoDy: Efficient Neural Music Generation](https:\u002F\u002Fefficient-melody.github.io\u002F)                                                                                                              | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15719)        | -                                                                                   | -                                                                                                                                                                   |\n| 18.05 | [CLAPSpeech: Learning Prosody from Text Context with Contrastive Language-Audio Pre-training](https:\u002F\u002Fclapspeech.github.io\u002F)                                                                  | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10763)        | -                                                                                   | -                                                                                                                                                                   |\n| 18.05 | [SpeechGPT: Empowering Large Language Models with Intrinsic Cross-Modal Conversational Abilities](https:\u002F\u002F0nutation.github.io\u002FSpeechGPT.github.io\u002F)                                           | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11000)        | [GitHub](https:\u002F\u002Fgithub.com\u002F0nutation\u002FSpeechGPT)                                    | -                                                                                                                                                                   |\n| 16.05 | [SoundStorm: Efficient Parallel Audio Generation](https:\u002F\u002Fgoogle-research.github.io\u002Fseanet\u002Fsoundstorm\u002Fexamples\u002F)                                                                              | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.09636)        | [GitHub (unofficial)](https:\u002F\u002Fgithub.com\u002Flucidrains\u002Fsoundstorm-pytorch)             | -                                                                                                                                                                   |\n| 03.05 | [Diverse and Vivid Sound Generation from Text Descriptions](https:\u002F\u002Fligw1998.github.io\u002Faudiogeneration.html)                                                                                  | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01980)        | -                                                                                   | -                                                                                                                                                                   |\n| 02.05 | [Long-Term Rhythmic Video Soundtracker](https:\u002F\u002Fjustinyuu.github.io\u002FLORIS\u002F)                                                                              | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01319)        | [GitHub](https:\u002F\u002Fgithub.com\u002FOpenGVLab\u002FLORIS)             | -                                                                                                                                                                   |\n| 24.04 | [TANGO: Text-to-Audio generation using instruction tuned LLM and Latent Diffusion Model](https:\u002F\u002Ftango-web.github.io\u002F)                                                                        | [PDF](https:\u002F\u002Fopenreview.net\u002Fpdf?id=1Sn2WqLku1e) | [GitHub](https:\u002F\u002Fgithub.com\u002Fdeclare-lab\u002Ftango)                                   | [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fdeclare-lab\u002Ftango)                                                                                                            |\n| 18.04 | [NaturalSpeech 2: Latent Diffusion Models are Natural and Zero-Shot Speech and Singing Synthesizers](https:\u002F\u002Fspeechresearch.github.io\u002Fnaturalspeech2\u002F)                                        | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.09116)        | [GitHub (unofficial)](https:\u002F\u002Fgithub.com\u002Flucidrains\u002Fnaturalspeech2-pytorch)        | -                                                                                                                                                                   |\n| 10.04 | [Bark: Text-Prompted Generative Audio Model](https:\u002F\u002Fgithub.com\u002Fsuno-ai\u002Fbark)                                                                                                                  | -                                                | [GitHub](https:\u002F\u002Fgithub.com\u002Fsuno-ai\u002Fbark)                                        | [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fsuno\u002Fbark) [Colab](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1eJfA2XUa-mXwdMy7DoYKVYHI1iTd9Vkt?usp=sharing)              |\n| 03.04 | [AUDIT: Audio Editing by Following Instructions with Latent Diffusion Models](https:\u002F\u002Faudit-demo.github.io\u002F)                                                                                  | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.00830)        | -                                                                                | -                                                                                                                                                                   |\n| 08.03 | [VALL-E X: Speak Foreign Languages with Your Own Voice: Cross-Lingual Neural Codec Language Modeling](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fproject\u002Fvall-e-x\u002F)                             | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.03926)        | -                                                                                | -                                                                                                                                                                   |\n| 27.02 | [I Hear Your True Colors: Image Guided Audio Generation](https:\u002F\u002Fpages.cs.huji.ac.il\u002Fadiyoss-lab\u002Fim2wav\u002F)                                                                                       | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.03089)        | [GitHub](https:\u002F\u002Fgithub.com\u002FRoySheffer\u002Fim2wav)                                  | -                                                                                                                                                                   |\n| 08.02 | [Noise2Music: Text-conditioned Music Generation with Diffusion Models](https:\u002F\u002Fgoogle-research.github.io\u002Fnoise2music\u002F)                                                                         | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03917)        | -                                                                                | -                                                                                                                                                                   |\n| 04.02 | [Multi-Source Diffusion Models for Simultaneous Music Generation and Separation](https:\u002F\u002Fgladia-research-group.github.io\u002Fmulti-source-diffusion-models\u002F)                                       | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02257)        | [GitHub](https:\u002F\u002Fgithub.com\u002Fgladia-research-group\u002Fmulti-source-diffusion-models) | -                                                                                                                                                                   |\n| 30.01 | [SingSong: Generating musical accompaniments from singing](https:\u002F\u002Fstorage.googleapis.com\u002Fsing-song\u002Findex.html)                                                                                | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12662)        | -                                                                                | -                                                                                                                                                                   |\n| 30.01 | [AudioLDM: Text-to-Audio Generation with Latent Diffusion Models](https:\u002F\u002Faudioldm.github.io\u002F)                                                                                                 | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12503)        | [GitHub](https:\u002F\u002Fgithub.com\u002Fhaoheliu\u002FAudioLDM)                                   | [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fhaoheliu\u002Faudioldm-text-to-audio-generation)                                                                            |\n| 30.01 | [Moûsai: Text-to-Music Generation with Long-Context Latent Diffusion](https:\u002F\u002Fanonymous0.notion.site\u002FMo-sai-Text-to-Audio-with-Long-Context-Latent-Diffusion-b43dbc71caf94b5898f9e8de714ab5dc) | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11757)        | [GitHub](https:\u002F\u002Fgithub.com\u002Farchinetai\u002Faudio-diffusion-pytorch)                  | -                                                                                                                                                                   |\n| 29.01 | [Make-An-Audio: Text-To-Audio Generation with Prompt-Enhanced Diffusion Models](https:\u002F\u002Ftext-to-audio.github.io\u002F)                                                                              | [PDF](https:\u002F\u002Ftext-to-audio.github.io\u002Fpaper.pdf) | -                                                                                | -                                                                                                                                                                   |\n| 28.01 | [Noise2Music](https:\u002F\u002Fnoise2music.github.io\u002F)                                                                                                                                                  | -                                                | -                                                                                | -                                                                                                                                                                   |\n| 27.01 | [RAVE2](https:\u002F\u002Ftwitter.com\u002Fantoine_caillon\u002Fstatus\u002F1618959533065535491?s=20&t=jMkPWBFuAH19HI9m5Sklmg) [[Samples RAVE1](https:\u002F\u002Fanonymous84654.github.io\u002FRAVE_anonymous\u002F)]                      | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.05011)        | [GitHub](https:\u002F\u002Fgithub.com\u002Facids-ircam\u002FRAVE)                                    | -                                                                                                                                                                   |\n| 26.01 | [MusicLM: Generating Music From Text](https:\u002F\u002Fgoogle-research.github.io\u002Fseanet\u002Fmusiclm\u002Fexamples\u002F)                                                                                              | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11325)        | [GitHub (unofficial)](https:\u002F\u002Fgithub.com\u002Flucidrains\u002Fmusiclm-pytorch)             | -                                                                                                                                                                   |\n| 18.01 | [Msanii: High Fidelity Music Synthesis on a Shoestring Budget](https:\u002F\u002Fkinyugo.github.io\u002Fmsanii-demo\u002F)                                                                                         | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.06468)        | [GitHub](https:\u002F\u002Fgithub.com\u002FKinyugo\u002Fmsanii)                                      | [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fkinyugo\u002Fmsanii) [Colab](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FKinyugo\u002Fmsanii\u002Fblob\u002Fmain\u002Fnotebooks\u002Fmsanii_demo.ipynb) |\n| 16.01 | [ArchiSound: Audio Generation with Diffusion](https:\u002F\u002Fflavioschneider.notion.site\u002FAudio-Generation-with-Diffusion-c4f29f39048d4f03a23da13078a44cdb)                                            | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13267)        | [GitHub](https:\u002F\u002Fgithub.com\u002Farchinetai\u002Faudio-diffusion-pytorch)                  | -                                                                                                                                                                   |\n| 05.01 | [VALL-E: Neural Codec Language Models are Zero-Shot Text to Speech Synthesizers](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fproject\u002Fvall-e-x\u002F)                                                   | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.02111)        | [GitHub (unofficial)](https:\u002F\u002Fgithub.com\u002Flifeiteng\u002Fvall-e) [(demo)](https:\u002F\u002Flifeiteng.github.io\u002Fvalle\u002Findex.html)                                       | -                                                                                                                                                                 |\n","# 音频 AI（人工智能）时间线\n\n在此，我们将追踪始于 2023 年的基于波形的音频生成的最新 AI 模型！\n\n## 2023\n\n| 日期 | 发布 [样本]                                                                                                                                                                              | 论文                                            | 代码                                                                             | 预训练模型                                                                                                                                                       |\n| ----- | ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ------------------------------------------------ | -------------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------- |\n| 14.11 | [Mustango：迈向可控的文本到音乐生成](https:\u002F\u002Famaai-lab.github.io\u002Fmustango\u002F)                                                                                              | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.08355)         | [GitHub](https:\u002F\u002Fgithub.com\u002FAMAAI-Lab\u002Fmustango)                                     | [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fdeclare-lab\u002Fmustango)                                                                              |\n| 13.11 | [Music ControlNet：用于音乐生成的多种时变控制](https:\u002F\u002Fmusiccontrolnet.github.io\u002Fweb\u002F)                                                                              | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.07069)         | -                                                                                   | -                                                                                                                                                                   |\n| 02.11 | [E3 TTS：简易端到端基于扩散模型 (Diffusion Models) 的文本转语音 (TTS)](https:\u002F\u002Fe3tts.github.io\u002F)                                                                                                           | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.00945)         | -                                                                                   | -                                                                                                                                                                   |\n| 01.10 | [UniAudio：面向通用音频生成的音频基础模型](http:\u002F\u002Fdongchaoyang.top\u002FUniAudio_demo\u002F)                                                                              | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00704)         | [GitHub](https:\u002F\u002Fgithub.com\u002Fyangdongchao\u002FUniAudio)                                  | -                                                                                                                                                                   |\n| 24.09 | [VoiceLDM：带有环境上下文的文本转语音](https:\u002F\u002Fvoiceldm.github.io\u002F)                                                                                                           | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13664)         | [GitHub](https:\u002F\u002Fgithub.com\u002Fglory20h\u002FVoiceLDM)                                      | -                                                                                                                                                                   |\n| 05.09 | [PromptTTS 2：使用文本提示描述和生成声音](https:\u002F\u002Fspeechresearch.github.io\u002Fprompttts2\u002F)                                                                               | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.02285)         | -                                                                                   | -                                                                                                                                                                   |\n| 14.08 | [SpeechX：作为多功能语音转换器的神经编解码语言模型](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fproject\u002Fspeechx\u002F)                                                          | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06873)         | -                                                                                   | -                                                                                                                                                                   |\n| 10.08 | [AudioLDM 2：利用自监督预学习进行整体音频生成](https:\u002F\u002Faudioldm.github.io\u002Faudioldm2\u002F)                                                                     | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05734)         | [GitHub](https:\u002F\u002Fgithub.com\u002Fhaoheliu\u002Faudioldm2)                                     | [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fhaoheliu\u002Faudioldm2-text2audio-text2music)                                                                              |\n| 09.08 | [JEN-1：使用全向扩散模型的文本引导通用音乐生成](https:\u002F\u002Fwww.futureverse.com\u002Fresearch\u002Fjen\u002Fdemos\u002Fjen1)                                                   | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04729)         | -                                                                                   | -                                                                                                                                                                   |\n| 03.08 | [MusicLDM：使用节拍同步混合策略增强文本到音乐生成的新颖性](https:\u002F\u002Fmusicldm.github.io\u002F)                                                               | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01546)         | [GitHub](https:\u002F\u002Fgithub.com\u002FRetroCirce\u002FMusicLDM\u002F)                                | -                                                                                                                                                                   |\n| 14.07 | [Mega-TTS 2：任意长度语音提示的零样本 (Zero-Shot) 文本转语音](https:\u002F\u002Fmega-tts.github.io\u002Fmega2_demo\u002F)                                                                          | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.07218)         | -                                                                                   | -                                                                                                                                                                   |\n| 10.07 | [VampNet：通过掩码声学令牌建模进行音乐生成](https:\u002F\u002Fhugo-does-things.notion.site\u002FVampNet-Music-Generation-via-Masked-Acoustic-Token-Modeling-e37aabd0d5f1493aa42c5711d0764b33)                                                                                   | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04686)        | [GitHub](https:\u002F\u002Fgithub.com\u002Fhugofloresgarcia\u002Fvampnet)                                | -                                                                                                                                                                   |\n| 22.06 | [AudioPaLM：能够说话和倾听的大语言模型 (LLM)](https:\u002F\u002Fgoogle-research.github.io\u002Fseanet\u002Faudiopalm\u002Fexamples\u002F)                                                                   | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F\u002F2306.12925)        | -                                                                                   | -                                                                                                                                                                   |\n| 19.06 | [Voicebox：大规模文本引导多语言通用语音生成](https:\u002F\u002Fvoicebox.metademolab.com\u002F)                                                                                  | [PDF](https:\u002F\u002Fscontent-lga3-2.xx.fbcdn.net\u002Fv\u002Ft39.8562-6\u002F354636794_599417672291955_3799385851435258804_n.pdf?_nc_cat=101&ccb=1-7&_nc_sid=ad8a9d&_nc_ohc=bN1S0esWehwAX_22ORV&_nc_ht=scontent-lga3-2.xx&oh=00_AfCtouRXIvwDx10qPVMNkq_4xMTVOQUrfmyYQW--9cIoWg&oe=64947BF1)        | [GitHub](https:\u002F\u002Fgithub.com\u002FSpeechifyInc\u002FMeta-voicebox)                                | -                                                                                                                                                                   |\n| 08.06 | [MusicGen：简单且可控的音乐生成](https:\u002F\u002Fai.honu.io\u002Fpapers\u002Fmusicgen\u002F)                                                                                                     | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05284)        | [GitHub](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Faudiocraft)                            | [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Ffacebook\u002FMusicGen) [Colab](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1fxGqfg96RBUvGxZ1XXN07s3DthrKUl4-?usp=sharing)              |\n| 06.06 | [Mega-TTS：具有内在归纳偏置的大规模零样本文本转语音](https:\u002F\u002Fmega-tts.github.io\u002Fdemo-page\u002F)                                                                            | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.03509)        | -                                                                                   | -                                                                                                                                                                   |\n| 01.06 | [Vocos：缩小时域与基于傅里叶的神经声码器之间差距以实现高质量音频合成](https:\u002F\u002Fcharactr-platform.github.io\u002Fvocos\u002F)                                   | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.00814)        | [GitHub](https:\u002F\u002Fgithub.com\u002Fcharactr-platform\u002Fvocos)                                | -                                                                                                                                                                   |\n| 29.05 | [Make-An-Audio 2：时间增强的文本到音频生成](https:\u002F\u002Fmake-an-audio-2.github.io\u002F)                                                                                             | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.18474)        | -                                                                                   | -                                                                                                                                                                   |\n| 25.05 | [MeLoDy：高效神经音乐生成](https:\u002F\u002Fefficient-melody.github.io\u002F)                                                                                                              | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15719)        | -                                                                                   | -                                                                                                                                                                   |\n| 18.05 | [CLAPSpeech：利用对比语言 - 音频预训练从文本上下文学习韵律](https:\u002F\u002Fclapspeech.github.io\u002F)                                                                  | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10763)        | -                                                                                   | -                                                                                                                                                                   |\n| 18.05 | [SpeechGPT：赋予大语言模型内在的跨模态对话能力](https:\u002F\u002F0nutation.github.io\u002FSpeechGPT.github.io\u002F)                                           | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11000)        | [GitHub](https:\u002F\u002Fgithub.com\u002F0nutation\u002FSpeechGPT)                                    | -                                                                                                                                                                   |\n| 16.05 | [SoundStorm：高效并行音频生成](https:\u002F\u002Fgoogle-research.github.io\u002Fseanet\u002Fsoundstorm\u002Fexamples\u002F)                                                                              | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.09636)        | [GitHub (非官方)](https:\u002F\u002Fgithub.com\u002Flucidrains\u002Fsoundstorm-pytorch)             | -                                                                                                                                                                   |\n| 03.05 | [从文本描述生成多样且生动的声音](https:\u002F\u002Fligw1998.github.io\u002Faudiogeneration.html)                                                                                  | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01980)        | -                                                                                   | -                                                                                                                                                                   |\n| 02.05 | [长期节奏视频声音追踪器](https:\u002F\u002Fjustinyuu.github.io\u002FLORIS\u002F)                                                                              | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01319)        | [GitHub](https:\u002F\u002Fgithub.com\u002FOpenGVLab\u002FLORIS)             | -                                                                                                                                                                   |\n| 24.04 | [TANGO：使用指令微调大语言模型和潜在扩散模型 (LDM) 进行文本到音频生成](https:\u002F\u002Ftango-web.github.io\u002F)                                                                        | [PDF](https:\u002F\u002Fopenreview.net\u002Fpdf?id=1Sn2WqLku1e) | [GitHub](https:\u002F\u002Fgithub.com\u002Fdeclare-lab\u002Ftango)                                   | [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fdeclare-lab\u002Ftango)                                                                                                            |\n| 18.04 | [NaturalSpeech 2：潜在扩散模型是自然且零样本的语音和歌唱合成器](https:\u002F\u002Fspeechresearch.github.io\u002Fnaturalspeech2\u002F)                                        | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.09116)        | [GitHub (非官方)](https:\u002F\u002Fgithub.com\u002Flucidrains\u002Fnaturalspeech2-pytorch)        | -                                                                                                                                                                   |\n| 10.04 | [Bark：文本提示生成式音频模型](https:\u002F\u002Fgithub.com\u002Fsuno-ai\u002Fbark)                                                                                                                  | -                                                | [GitHub](https:\u002F\u002Fgithub.com\u002Fsuno-ai\u002Fbark)                                        | [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fsuno\u002Fbark) [Colab](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1eJfA2XUa-mXwdMy7DoYKVYHI1iTd9Vkt?usp=sharing)              |\n| 03.04 | [AUDIT：遵循指示使用潜在扩散模型进行音频编辑](https:\u002F\u002Faudit-demo.github.io\u002F)                                                                                  | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.00830)        | -                                                                                | -                                                                                                                                                                   |\n| 08.03 | [VALL-E X：用自己的声音说外语：跨语言神经编解码语言建模](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fproject\u002Fvall-e-x\u002F)                             | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.03926)        | -                                                                                | -                                                                                                                                                                   |\n| 27.02 | [我听见你的真实色彩：图像引导音频生成](https:\u002F\u002Fpages.cs.huji.ac.il\u002Fadiyoss-lab\u002Fim2wav\u002F)                                                                                       | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.03089)        | [GitHub](https:\u002F\u002Fgithub.com\u002FRoySheffer\u002Fim2wav)                                  | -                                                                                                                                                                   |\n| 08.02 | [Noise2Music：基于扩散模型的文本条件音乐生成](https:\u002F\u002Fgoogle-research.github.io\u002Fnoise2music\u002F)                                                                         | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.03917)        | -                                                                                | -                                                                                                                                                                   |\n| 04.02 | [用于同时音乐生成与分离的多源扩散模型](https:\u002F\u002Fgladia-research-group.github.io\u002Fmulti-source-diffusion-models\u002F)                                       | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02257)        | [GitHub](https:\u002F\u002Fgithub.com\u002Fgladia-research-group\u002Fmulti-source-diffusion-models) | -                                                                                                                                                                   |\n| 30.01 | [SingSong：从歌声生成音乐伴奏](https:\u002F\u002Fstorage.googleapis.com\u002Fsing-song\u002Findex.html)                                                                                | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12662)        | -                                                                                | -                                                                                                                                                                   |\n| 30.01 | [AudioLDM：使用潜在扩散模型进行文本到音频生成](https:\u002F\u002Faudioldm.github.io\u002F)                                                                                                 | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12503)        | [GitHub](https:\u002F\u002Fgithub.com\u002Fhaoheliu\u002FAudioLDM)                                   | [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fhaoheliu\u002Faudioldm-text-to-audio-generation)                                                                            |\n| 30.01 | [Moûsai：使用长上下文潜在扩散进行文本到音乐生成](https:\u002F\u002Fanonymous0.notion.site\u002FMo-sai-Text-to-Audio-with-Long-Context-Latent-Diffusion-b43dbc71caf94b5898f9e8de714ab5dc) | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11757)        | [GitHub](https:\u002F\u002Fgithub.com\u002Farchinetai\u002Faudio-diffusion-pytorch)                  | -                                                                                                                                                                   |\n| 29.01 | [Make-An-Audio：使用提示词增强扩散模型进行文本到音频生成](https:\u002F\u002Ftext-to-audio.github.io\u002F)                                                                              | [PDF](https:\u002F\u002Ftext-to-audio.github.io\u002Fpaper.pdf) | -                                                                                | -                                                                                                                                                                   |\n| 28.01 | [Noise2Music](https:\u002F\u002Fnoise2music.github.io\u002F)                                                                                                                                                  | -                                                | -                                                                                | -                                                                                                                                                                   |\n| 27.01 | [RAVE2](https:\u002F\u002Ftwitter.com\u002Fantoine_caillon\u002Fstatus\u002F1618959533065535491?s=20&t=jMkPWBFuAH19HI9m5Sklmg) [[样本 RAVE1](https:\u002F\u002Fanonymous84654.github.io\u002FRAVE_anonymous\u002F)]                      | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.05011)        | [GitHub](https:\u002F\u002Fgithub.com\u002Facids-ircam\u002FRAVE)                                    | -                                                                                                                                                                   |\n| 26.01 | [MusicLM：从文本生成音乐](https:\u002F\u002Fgoogle-research.github.io\u002Fseanet\u002Fmusiclm\u002Fexamples\u002F)                                                                                              | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.11325)        | [GitHub (非官方)](https:\u002F\u002Fgithub.com\u002Flucidrains\u002Fmusiclm-pytorch)             | -                                                                                                                                                                   |\n| 18.01 | [Msanii：低预算下的高保真音乐合成](https:\u002F\u002Fkinyugo.github.io\u002Fmsanii-demo\u002F)                                                                                         | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.06468)        | [GitHub](https:\u002F\u002Fgithub.com\u002FKinyugo\u002Fmsanii)                                      | [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fkinyugo\u002Fmsanii) [Colab](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FKinyugo\u002Fmsanii\u002Fblob\u002Fmain\u002Fnotebooks\u002Fmsanii_demo.ipynb) |\n| 16.01 | [ArchiSound：使用扩散进行音频生成](https:\u002F\u002Fflavioschneider.notion.site\u002FAudio-Generation-with-Diffusion-c4f29f39048d4f03a23da13078a44cdb)                                            | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13267)        | [GitHub](https:\u002F\u002Fgithub.com\u002Farchinetai\u002Faudio-diffusion-pytorch)                  | -                                                                                                                                                                   |\n| 05.01 | [VALL-E：神经编解码语言模型是零样本文本转语音合成器](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fproject\u002Fvall-e-x\u002F)                                                   | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.02111)        | [GitHub (非官方)](https:\u002F\u002Fgithub.com\u002Flifeiteng\u002Fvall-e) [(演示)](https:\u002F\u002Flifeiteng.github.io\u002Fvalle\u002Findex.html)                                       | -                                                                                                                                                                 |","# Audio AI Timeline 快速上手指南\n\n**简介**\n`audio-ai-timeline` 是一个专注于 2023 年起基于波形的音频生成 AI 模型的资源追踪库。它整理了最新的论文、代码仓库及预训练模型链接，方便开发者查找和复现相关技术。\n\n## 环境准备\n\n本工具本身为资源索引库，无需复杂的运行环境，但建议具备以下基础：\n\n- **操作系统**: Linux \u002F macOS \u002F Windows\n- **版本控制工具**: Git (推荐最新版本)\n- **网络环境**: 能够访问 GitHub (建议使用国内加速方案或镜像)\n\n## 安装步骤\n\n通过 Git 克隆仓库到本地即可获取最新资源列表。\n\n```bash\n# 克隆仓库 (推荐使用 HTTPS)\ngit clone https:\u002F\u002Fgithub.com\u002Faudio-ai-timeline\u002Faudio-ai-timeline.git\n```\n\n> **提示**: 若下载速度较慢，可尝试使用 Gitee 等国内镜像源（如适用）或配置 Git 代理。\n\n## 基本使用\n\n由于本仓库主要用于整理和索引，实际使用流程如下：\n\n1. **查看资源列表**\n   进入仓库目录，打开 `README.md` 文件查看按时间排序的模型列表。\n\n2. **定位目标模型**\n   在表格中找到感兴趣的模型（如 `MusicGen`, `Voicebox` 等），点击对应的 [Code](GitHub) 或 [Trained Model](Hugging Face) 链接。\n\n3. **运行具体模型**\n   跳转至具体的官方代码仓库后，按照该项目的独立文档进行环境配置与推理测试。\n\n```bash\n# 示例：进入某个具体模型仓库后通常的操作\ncd \u003C具体模型名称>\npip install -r requirements.txt\npython inference.py\n```\n\n> **注意**: 不同模型对硬件（GPU\u002FCPU）及依赖库的要求差异较大，请参照各项目官方说明执行。","独立游戏开发者小李正在为一款 RPG 项目寻找最新的语音合成与背景音乐生成方案，需要快速评估技术可行性并集成到引擎中。\n\n### 没有 audio-ai-timeline 时\n- 需要在 Google Scholar、GitHub 和 Hugging Face 之间反复跳转搜索，查找特定模型极其耗时。\n- 容易遗漏近期发布的 SOTA 模型，导致选用的技术方案在上线前就已经落后。\n- 难以快速确认模型是否开源以及是否有预训练权重，增加了复现成本。\n- 缺乏统一的时间线参考，无法直观判断音频生成技术的演进速度和方向。\n\n### 使用 audio-ai-timeline 后\n- audio-ai-timeline 直接汇总了 2023 年以来的最新音频模型发布记录，信息一目了然。\n- 点击列表中的链接即可直达 GitHub 代码库或 Hugging Face 模型页面，无需二次搜索。\n- 清晰展示发布日期，帮助快速筛选出适合当前项目周期的最新稳定技术。\n- 提供对应的论文链接，方便深入理解模型原理、控制能力及适用场景。\n\naudio-ai-timeline 将碎片化的技术情报整合成有序的时间轴，极大缩短了从调研到落地的周期。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Farchinetai_audio-ai-timeline_285cfce0.png","archinetai","Ȧrchinet","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Farchinetai_428d7cee.png","Open Source AI Research Lab",null,"archinetai@proton.me","https:\u002F\u002Fgithub.com\u002Farchinetai",1912,71,"2026-04-01T06:51:42",1,"未说明",{"notes":88,"python":86,"dependencies":89},"该仓库为音频生成模型追踪列表，非独立可运行工具。具体环境需求需参考列表中各子项目（如 MusicGen, AudioLDM 2 等）的官方文档。",[],[55,13],[92,93,94],"artificial-intelligence","audio-generation","machine-learning",4,"2026-03-27T02:49:30.150509","2026-04-06T07:14:20.259993",[99,104,109],{"id":100,"question_zh":101,"answer_zh":102,"source_url":103},3412,"有哪些推荐的音频 AI 相关资源或论文？","社区分享了 arxiv 论文 (https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13662) 以及 InstructTTS 项目 (http:\u002F\u002Fdongchaoyang.top\u002FInstructTTS\u002F) 作为参考资源，建议查阅这些链接获取更多信息。","https:\u002F\u002Fgithub.com\u002Farchinetai\u002Faudio-ai-timeline\u002Fissues\u002F11",{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},3413,"VALL-E 和 VALL-E X 的演示链接是否失效了？","之前链接可能暂时无法访问，但维护者确认目前状态已恢复正常 (It's ok now)，用户可以重新尝试访问 valle-demo.github.io 等地址。","https:\u002F\u002Fgithub.com\u002Farchinetai\u002Faudio-ai-timeline\u002Fissues\u002F34",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},3414,"为什么该项目未收录 Riffusion 模型？","根据讨论，Riffusion 模型在 2023 年尚未发布 (Wasn't released in 2023)，因此不符合当时项目的收录时间范围。","https:\u002F\u002Fgithub.com\u002Farchinetai\u002Faudio-ai-timeline\u002Fissues\u002F29",[]]