FunMusic
InspireMusic 是一款专注于音乐、歌曲及通用音频生成的开源基础工具包。它旨在降低高保真音频创作的门槛,让用户能够通过简单的文本描述或音乐片段提示,轻松生成高质量且连贯的长篇幅音乐作品。
在传统的 AI 音频生成中,用户往往面临生成时长受限、音质细节丢失或上下文不连贯等痛点。InspireMusic 通过创新的架构设计有效解决了这些问题,不仅支持“文生音乐”,还能实现“音乐续写”,确保生成的乐曲在结构和听感上自然流畅,特别适合需要长篇背景乐或完整歌曲创作的场景。
从技术层面看,InspireMusic 融合了多项前沿成果。它以 Qwen2.5 大语言模型为底座,构建了一个自回归 Transformer 模型,能够精准理解文本与音频令牌(Token)之间的复杂关系。同时,结合基于流匹配(Flow-Matching)的超分辨率模型,它能将初步生成的音频特征转化为具有高解析度声学细节的高质量波形,从而在保证生成效率的同时,极大提升了音质的细腻程度。
这款工具非常适合 AI 研究人员、音频算法开发者以及创意内容创作者使用。对于技术人员,它提供了清晰的模块化设计和训练代码,便于深入研究音频生成机制或进行二次开发;对于音乐制作人和设计师,它则是一个强大的辅助创作引擎,能快速提供灵感素材或完成基础编曲。目前,你可以通过 GitHub 获取代码,或在 ModelScope 和 Hugging Face 上直接体验其演示效果。
使用场景
独立游戏开发者李明正在为一款古风解谜游戏制作背景音乐,他需要一段长达 3 分钟的连贯曲目,且需根据剧情转折动态调整旋律情绪,以增强玩家的沉浸感。
没有 FunMusic 时
- 版权与成本高昂:购买商用免版税音乐库授权费用昂贵,且难以找到完全契合“悬疑转温馨”特定情绪变化的现成曲目。
- 创作门槛极高:若尝试自行作曲,李明缺乏专业的乐理知识和乐器演奏能力,学习成本和时间投入远超开发预算。
- 音频连贯性差:使用简单的音频拼接工具将短片段组合成长音乐时,过渡处常出现明显的断裂或节奏不匹配,破坏游戏体验。
- 迭代效率低下:每次修改旋律细节都需要重新录制或聘请作曲家沟通,反馈周期长,无法配合敏捷开发的快速迭代节奏。
使用 FunMusic 后
- 低成本定制生成:李明只需输入“古筝起始,逐渐融入笛声,情绪由紧张转为舒缓”等文本提示,FunMusic 即可生成高质量、无版权纠纷的原创音乐。
- 零门槛专业产出:依托内置的 Qwen2.5 自回归 Transformer 模型,即使不懂乐理,也能通过自然语言描述精准控制音乐风格和乐器配置。
- 长篇幅无缝衔接:利用其长形式音乐生成能力,FunMusic 能一次性输出结构完整、逻辑连贯的 3 分钟曲目,彻底消除人工拼接的生硬感。
- 实时灵活迭代:基于音乐续写功能,李明可针对特定段落调整提示词并快速重新生成,几分钟内即可完成多种版本的对比与选择,极大加速开发流程。
FunMusic 将专业级音乐创作能力 democratize,让非音乐背景的开发者也能以极低边际成本获得高保真、长篇幅的定制化音频资源,显著提升内容生产效率。
运行环境要求
- Linux
必需 NVIDIA GPU,支持 CUDA>=11.8,需安装 flash-attn (2.6.2/2.6.3)
未说明

快速开始
请通过点赞支持我们的社区,感谢大家的支持
| 亮点 | 简介 | 安装 | 快速入门 | 教程 | 模型
InspireMusic 专注于音乐生成、歌曲生成和音频生成。
- 一个专为音乐、歌曲和音频生成设计的统一工具包。
- 高音质的音乐生成任务。
- 长篇幅音乐生成。
简介
InspireMusic 是一款用于音乐、歌曲和音频生成的工具包。它由一个基于流匹配模型的自回归变压器组成。该工具包旨在帮助用户生成音乐、歌曲和音频。InspireMusic 可以通过文本转音乐和音乐续写功能生成高质量的长篇幅音乐。InspireMusic 结合了音频分词器与自回归变压器及流匹配建模技术,能够根据文本和音乐提示生成音乐、歌曲和音频。目前,该工具包主要支持音乐生成任务。
InspireMusic
![]() |
| 图1:InspireMusic 的概览。我们介绍 InspireMusic,这是一款专为音乐、歌曲和音频生成设计的工具包,能够生成高质量的长篇幅音乐。InspireMusic 由以下三个关键组件构成。音频分词器将原始音频波形转换为离散的音频标记,这些标记可以被自回归变压器模型高效地处理和训练。低采样率的音频波形通过高比特率压缩的音频分词器被转换为离散标记[1]。自回归变压器模型以 Qwen2.5[2]为基础,并采用基于文本和音频标记的下一个标记预测方法进行训练,从而能够生成连贯且符合上下文的标记序列。音频和文本标记作为输入进入自回归模型,通过预测下一个标记来生成新的标记。超分辨率流匹配模型基于流建模方法,将生成的标记映射到具有高分辨率精细声学细节的潜在特征中[3],这些特征来自更高采样率的音频,以确保声学信息在模型之间以高保真度传递。随后,声码器会根据这些增强的潜在特征生成最终的音频波形。InspireMusic 支持一系列任务,包括文本转音乐、音乐续写、音乐重建和超分辨率等。 |
安装
克隆
- 克隆仓库
git clone --recursive https://github.com/FunAudioLLM/InspireMusic.git
# 如果因网络问题无法克隆子模块,请重复执行以下命令直至成功
cd InspireMusic
git submodule update --recursive
# 或者您可以手动下载第三方库 Matcha-TTS
cd third_party && git clone https://github.com/shivammehta25/Matcha-TTS.git
从源代码安装
InspireMusic 需要 Python>=3.8、PyTorch>=2.0.1、flash attention==2.6.2/2.6.3 以及 CUDA>=11.8。您可以通过以下命令安装依赖项:
- 安装 Conda:请参阅 https://docs.conda.io/en/latest/miniconda.html
- 创建 Conda 环境:
conda create -n inspiremusic python=3.8
conda activate inspiremusic
cd InspireMusic
# pynini 是 WeTextProcessing 所需的库,建议使用 Conda 安装,因为它可以在所有平台上运行。
conda install -y -c conda-forge pynini==2.1.5
pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/ --trusted-host=mirrors.aliyun.com
# 安装 flash attention 以加速训练
pip install flash-attn --no-build-isolation
- 在软件包内安装:
cd InspireMusic
# 您可以运行以下命令安装软件包
python setup.py install
pip install flash-attn --no-build-isolation
我们还建议您安装 sox 或 ffmpeg,可以通过系统或 Anaconda 进行安装:
# # 安装 sox
# ubuntu
sudo apt-get install sox libsox-dev
# centos
sudo yum install sox sox-devel
# 安装 ffmpeg
# ubuntu
sudo apt-get install ffmpeg
# centos
sudo yum install ffmpeg
使用 Docker
以下是从提供的 Dockerfile 构建 Docker 镜像的示例命令:
docker build -t inspiremusic .
以下是在交互模式下启动 Docker 容器的示例命令:
docker run -ti --gpus all -v .:/workspace/InspireMusic inspiremusic
使用 Docker Compose
以下是从 docker-compose.yml 文件构建 Docker Compose 环境和 Docker 镜像的示例命令:
docker compose up -d --build
以下是在交互模式下连接到 Docker 容器的示例命令:
docker exec -ti inspire-music bash
快速入门
以下是音乐生成推理的示例命令:
cd InspireMusic
mkdir -p pretrained_models
# 下载模型
# ModelScope
git clone https://www.modelscope.cn/iic/InspireMusic-1.5B-Long.git pretrained_models/InspireMusic-1.5B-Long
# HuggingFace
git clone https://huggingface.co/FunAudioLLM/InspireMusic-1.5B-Long.git pretrained_models/InspireMusic-1.5B-Long
cd examples/music_generation
# 运行一个快速推理示例
sh infer_1.5b_long.sh
一个用于运行音乐生成任务的示例脚本。
cd InspireMusic/examples/music_generation/
sh run.sh
推理
文本到音乐任务
文本到音乐任务的示例脚本。
cd examples/music_generation
# 使用流匹配,可通过一行命令快速试用
python -m inspiremusic.cli.inference
# 自定义配置,例如以下一行命令
python -m inspiremusic.cli.inference --task text-to-music -m "InspireMusic-1.5B-Long" -g 0 -t "体验舒缓而感性的器乐爵士乐,带有波萨诺瓦风情,非常适合轻松的餐厅或水疗中心氛围。" -c intro -s 0.0 -e 30.0 -r "exp/inspiremusic" -o output -f wav
# 不使用流匹配,可通过一行命令快速试用
python -m inspiremusic.cli.inference --task text-to-music -g 0 -t "体验舒缓而感性的器乐爵士乐,带有波萨诺瓦风情,非常适合轻松的餐厅或水疗中心氛围。" --fast True
from inspiremusic.cli.inference import InspireMusicModel, env_variables
if __name__ == "__main__":
env_variables()
model = InspireMusicModel(model_name = "InspireMusic-Base")
model.inference("text-to-music", "体验舒缓而感性的器乐爵士乐,带有波萨诺瓦风情,非常适合轻松的餐厅或水疗中心氛围。")
音乐续写任务
音乐续写任务的示例脚本。
cd examples/music_generation
# 使用流匹配
python -m inspiremusic.cli.inference --task continuation -g 0 -a audio_prompt.wav
# 不使用流匹配
python -m inspiremusic.cli.inference --task continuation -g 0 -a audio_prompt.wav --fast True
from inspiremusic.cli.inference import InspireMusicModel
from inspiremusic.cli.inference import env_variables
if __name__ == "__main__":
env_variables()
model = InspireMusicModel(model_name = "InspireMusic-Base")
# 仅使用音频提示
model.inference("continuation", None, "audio_prompt.wav")
# 同时使用文本提示和音频提示
model.inference("continuation", "继续生成爵士乐。", "audio_prompt.wav")
模型
您可以下载我们用于音乐生成的预训练 InspireMusic 模型。
# 使用 git 下载模型,请确保已安装 git lfs。
mkdir -p pretrained_models
git clone https://www.modelscope.cn/iic/InspireMusic.git pretrained_models/InspireMusic
可用模型
目前,我们开源的音乐生成模型支持24KHz单声道和48KHz立体声音频。下表列出了ModelScope和Huggingface模型库中的链接。
| 模型名称 | 模型链接 | 备注 |
|---|---|---|
| InspireMusic-Base-24kHz | 预训练音乐生成模型,24kHz单声道,30秒 | |
| InspireMusic-Base | 预训练音乐生成模型,48kHz,30秒 | |
| InspireMusic-1.5B-24kHz | 预训练音乐生成1.5B模型,24kHz单声道,30秒 | |
| InspireMusic-1.5B | 预训练音乐生成1.5B模型,48kHz,30s | |
| InspireMusic-1.5B-Long | 预训练音乐生成1.5B模型,48kHz,支持长达数分钟的长格式音乐生成 | |
| InspireSong-1.5B | 预训练歌曲生成1.5B模型,48kHz立体声 | |
| InspireAudio-1.5B | 预训练音频生成1.5B模型,48kHz立体声 | |
| Wavtokenizer[1] (75Hz) | 一种用于音乐的极低比特率音频分词器,采用24kHz音频下的单一码本。 | |
| Music_tokenizer (75Hz) | 基于HifiCodec[3]的音乐分词器,适用于24kHz音频。 | |
| Music_tokenizer (150Hz) | 基于HifiCodec[3]的音乐分词器,适用于48kHz音频。 |
基本使用
目前,InspireMusic包含音乐生成的训练与推理代码。
训练
以下是一个训练大语言模型的示例,支持 BF16/FP16 精度训练。
torchrun --nnodes=1 --nproc_per_node=8 \
--rdzv_id=1024 --rdzv_backend="c10d" --rdzv_endpoint="localhost:0" \
inspiremusic/bin/train.py \
--train_engine "torch_ddp" \
--config conf/inspiremusic.yaml \
--train_data data/train.data.list \
--cv_data data/dev.data.list \
--model llm \
--model_dir `pwd`/exp/music_generation/llm/ \
--tensorboard_dir `pwd`/tensorboard/music_generation/llm/ \
--ddp.dist_backend "nccl" \
--num_workers 8 \
--prefetch 100 \
--pin_memory \
--deepspeed_config ./conf/ds_stage2.json \
--deepspeed.save_states model+optimizer \
--fp16
以下是一个训练流匹配模型的示例代码,不支持 FP16 精度训练。
torchrun --nnodes=1 --nproc_per_node=8 \
--rdzv_id=1024 --rdzv_backend="c10d" --rdzv_endpoint="localhost:0" \
inspiremusic/bin/train.py \
--train_engine "torch_ddp" \
--config conf/inspiremusic.yaml \
--train_data data/train.data.list \
--cv_data data/dev.data.list \
--model flow \
--model_dir `pwd`/exp/music_generation/flow/ \
--tensorboard_dir `pwd`/tensorboard/music_generation/flow/ \
--ddp.dist_backend "nccl" \
--num_workers 8 \
--prefetch 100 \
--pin_memory \
--deepspeed_config ./conf/ds_stage2.json \
--deepspeed.save_states model+optimizer
推理
以下是一个快速进行模型推理的示例脚本。
cd InspireMusic/examples/music_generation/
sh infer.sh
以下是一个以普通模式运行推理的示例代码,即使用流匹配模型进行文本到音乐和音乐续写任务。
pretrained_model_dir = "pretrained_models/InspireMusic/"
for task in 'text-to-music' 'continuation'; do
python inspiremusic/bin/inference.py --task $task \
--gpu 0 \
--config conf/inspiremusic.yaml \
--prompt_data data/test/parquet/data.list \
--flow_model $pretrained_model_dir/flow.pt \
--llm_model $pretrained_model_dir/llm.pt \
--music_tokenizer $pretrained_model_dir/music_tokenizer \
--wavtokenizer $pretrained_model_dir/wavtokenizer \
--result_dir `pwd`/exp/inspiremusic/${task}_test \
--chorus verse
done
以下是一个以快速模式运行推理的示例代码,即在文本到音乐和音乐续写任务中不使用流匹配模型。
pretrained_model_dir = "pretrained_models/InspireMusic/"
for task in 'text-to-music' 'continuation'; do
python inspiremusic/bin/inference.py --task $task \
--gpu 0 \
--config conf/inspiremusic.yaml \
--prompt_data data/test/parquet/data.list \
--flow_model $pretrained_model_dir/flow.pt \
--llm_model $pretrained_model_dir/llm.pt \
--music_tokenizer $pretrained_model_dir/music_tokenizer \
--wavtokenizer $pretrained_model_dir/wavtokenizer \
--result_dir `pwd`/exp/inspiremusic/${task}_test \
--chorus verse \
--fast
done
路线图
2024年12月
75Hz InspireMusic-Base 模型用于音乐生成
2025年1月
- 支持生成 48kHz 音频
- 75Hz InspireMusic-1.5B 模型用于音乐生成
- 75Hz InspireMusic-1.5B-Long 模型用于长音频音乐生成
2025年2月
- 发布技术报告
未来工作
InspireAudio 模型用于音频生成
InspireSong 模型用于歌曲生成
支持多语言生成
引用
@inproceedings{InspireMusic2025,
title={InspireMusic: Integrating Super Resolution and Large Language Model for High-Fidelity Long-Form Music Generation},
author={Chong Zhang and Yukun Ma and Qian Chen and Wen Wang and Shengkui Zhao and Zexu Pan and Hao Wang and Chongjia Ni and Trung Hieu Nguyen and Kun Zhou and Yidi Jiang and Chaohong Tan and Zhifu Gao and Zhihao Du and Bin Ma},
year={2025},
eprint={2503.00084},
archivePrefix={arXiv},
primaryClass={cs.SD},
url={https://arxiv.org/abs/2503.00084},
}
致谢
- 来自 CosyVoice、WavTokenizer、AcademiCodec、FunASR、FunCodec、Matcha-TTS 和 WeNet 的代码。
免责声明
以上内容仅用于研究目的。
常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

