SmartGuitarAmp
SmartGuitarAmp 是一款基于 JUCE 框架开发的开源吉他效果插件,旨在利用神经网络技术高保真地模拟真实电子管音箱的音色。它主要解决了传统数字建模难以完美复刻硬件动态与细微失真特性的痛点,让音乐人无需携带笨重的实体设备,即可在电脑中获得温暖、自然的经典音箱听感。
这款工具非常适合吉他手、音乐制作人以及音频开发者使用。其核心亮点在于采用了先进的 WaveNet 深度学习模型,通过对真实硬件录音样本的训练,精准还原了从清音到过载状态下的复杂声音细节。插件不仅内置了增益(Gain)和均衡(EQ)旋钮以便用户灵活调节音色,还依托 PyTorch 生态支持社区共享模型。虽然最新版简化了自定义模型加载功能以优化体验,但用户仍可通过其兄弟插件 SmartGuitarPedal 加载自行训练的独特音色模型。无论是希望在家庭录音室提升作品质感的创作者,还是对 AI 音频建模感兴趣的研究者,SmartGuitarAmp 都提供了一个免费且强大的解决方案。
使用场景
独立音乐人小李正在家中卧室录制一张复古摇滚风格的 EP,他渴望获得经典电子管音箱那种温暖、饱满且带有自然过载的音色,但受限于居住环境和预算,无法进行高音量实录或购买昂贵硬件。
没有 SmartGuitarAmp 时
- 硬件成本高昂:想要真实的电子管音色,必须购买数千元的实体音箱及麦克风,还要额外投入声学装修费用。
- 录音环境受限:在公寓内大音量开启电子管音箱会遭到邻居投诉,导致只能在深夜低声练习,无法捕捉理想的动态失真。
- 后期调整困难:传统软件模拟器往往声音生硬、“数码味”重,一旦录好音色,后期很难再微调增益或均衡而不破坏音质。
- 工作流繁琐:需要架设麦克风、调整摆位并处理房间混响,每次尝试不同音色都要重新布置,严重拖慢创作节奏。
使用 SmartGuitarAmp 后
- 零成本获取顶级音色:直接加载基于 WaveNet 神经网络训练的模型,免费复现真实小型电子管音箱在清洁与过载状态下的细腻听感。
- 静音专业录制:无需大音量外放,通过音频接口直接输入,即可在任意时段获得媲美录音棚级别的饱满失真,彻底解决扰民问题。
- 灵活实时调控:插件内置增益(Gain)和均衡(EQ)旋钮,可在保留神经网络建模特征的同时,实时精细调节音色明暗与饱和度。
- 极简高效流程:作为 VST/AU 插件无缝接入 DAW,省去了复杂的麦克风波位调试,让创作者能瞬间切换音色灵感,专注于演奏本身。
SmartGuitarAmp 利用深度学习技术打破了物理硬件的壁垒,让每位音乐人都能在任何环境下以零成本拥有传奇级的电子管音箱音色。
运行环境要求
- Windows
- macOS
- Linux
未说明
未说明

快速开始
智能吉他音箱
基于 JUCE 构建的吉他插件,利用神经网络模型来模拟真实硬件的声音。
观看 YouTube 上的视频演示
该插件使用 WaveNet 模型来重现真实硬件的声音。当前版本模拟了一款小型电子管放大器在干净和过载两种音色下的表现。此外,还增加了增益和均衡旋钮,以调节模拟声音的特性。

您可以通过少量代码修改,创建自己的模型并将其加载到 SmartGuitarAmp 中。要训练自己的模型,请使用 PedalNetRT。
模型训练是在预先录制好的 .wav 样本上使用 PyTorch 完成的。更多信息请参阅上述仓库。如果您希望分享自己优秀的模型,请将 JSON 文件发送至 smartguitarml@gmail.com,这些模型可能会被纳入最新版本,并以可下载的压缩包形式提供。
另请参阅配套插件 SmartGuitarPedal
注意:自 SmartAmp 1.3 版本起,为简化插件功能,已移除自定义模型加载功能。如需加载用户训练的模型,请使用 SmartGuitarPedal,它支持所有通过 PedalNetRT 训练的模型。
插件安装步骤
- 从 Releases 页面下载适用于您的操作系统的插件安装程序(Windows、Mac、Linux)。
- 运行安装程序并按照提示操作。可能需要重启计算机,以便您的 DAW 能识别新插件。
构建说明
使用 CMake 构建
# 克隆仓库
$ git clone https://github.com/GuitarML/SmartGuitarAmp.git
$ cd SmartGuitarAmp
# 初始化并设置子模块
$ git submodule update --init --recursive
# 使用 CMake 构建
$ cmake -Bbuild
$ cmake --build build --config Release
生成的二进制文件将位于 SmartAmp/build/SmartAmp_artefacts/ 目录下。
许可证
本项目采用 Apache License, Version 2.0 许可证授权——详情请参阅 LICENSE 文件。
本项目基于 WaveNetVA 的工作成果。
本插件中使用的均衡器代码参考了 Michael Gruhn 在 4BandEQ 算法中的研究成果。
版本历史
v1.32022/08/31v_1.22020/12/09v1.2.02020/11/14v1.22020/11/13v1.12020/10/271.02020/09/26常见问题
相似工具推荐
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
TTS
🐸TTS 是一款功能强大的深度学习文本转语音(Text-to-Speech)开源库,旨在将文字自然流畅地转化为逼真的人声。它解决了传统语音合成技术中声音机械生硬、多语言支持不足以及定制门槛高等痛点,让高质量的语音生成变得触手可及。 无论是希望快速集成语音功能的开发者,还是致力于探索前沿算法的研究人员,亦或是需要定制专属声音的数据科学家,🐸TTS 都能提供得力支持。它不仅预置了覆盖全球 1100 多种语言的训练模型,让用户能够即刻上手,还提供了完善的工具链,支持用户利用自有数据训练新模型或对现有模型进行微调,轻松实现特定风格的声音克隆。 在技术亮点方面,🐸TTS 表现卓越。其最新的 ⓍTTSv2 模型支持 16 种语言,并在整体性能上大幅提升,实现了低于 200 毫秒的超低延迟流式输出,极大提升了实时交互体验。此外,它还无缝集成了 🐶Bark、🐢Tortoise 等社区热门模型,并支持调用上千个 Fairseq 模型,展现了极强的兼容性与扩展性。配合丰富的数据集分析与整理工具,🐸TTS 已成为科研与生产环境中备受信赖的语音合成解决方案。
LocalAI
LocalAI 是一款开源的本地人工智能引擎,旨在让用户在任意硬件上轻松运行各类 AI 模型,包括大语言模型、图像生成、语音识别及视频处理等。它的核心优势在于彻底打破了高性能计算的门槛,无需昂贵的专用 GPU,仅凭普通 CPU 或常见的消费级显卡(如 NVIDIA、AMD、Intel 及 Apple Silicon)即可部署和运行复杂的 AI 任务。 对于担心数据隐私的用户而言,LocalAI 提供了“隐私优先”的解决方案,确保所有数据处理均在本地基础设施内完成,无需上传至云端。同时,它完美兼容 OpenAI、Anthropic 等主流 API 接口,这意味着开发者可以无缝迁移现有应用,直接利用本地资源替代云服务,既降低了成本又提升了可控性。 LocalAI 内置了超过 35 种后端支持(如 llama.cpp、vLLM、Whisper 等),并集成了自主 AI 代理、工具调用及检索增强生成(RAG)等高级功能,且具备多用户管理与权限控制能力。无论是希望保护敏感数据的企业开发者、进行算法实验的研究人员,还是想要在个人电脑上体验最新 AI 技术的极客玩家,都能通过 LocalAI 获
bark
Bark 是由 Suno 推出的开源生成式音频模型,能够根据文本提示创造出高度逼真的多语言语音、音乐、背景噪音及简单音效。与传统仅能朗读文字的语音合成工具不同,Bark 基于 Transformer 架构,不仅能模拟说话,还能生成笑声、叹息、哭泣等非语言声音,甚至能处理带有情感色彩和语气停顿的复杂文本,极大地丰富了音频表达的可能性。 它主要解决了传统语音合成声音机械、缺乏情感以及无法生成非语音类音效的痛点,让创作者能通过简单的文字描述获得生动自然的音频素材。无论是需要为视频配音的内容创作者、探索多模态生成的研究人员,还是希望快速原型设计的开发者,都能从中受益。普通用户也可通过集成的演示页面轻松体验其神奇效果。 技术亮点方面,Bark 支持商业使用(MIT 许可),并在近期更新中实现了显著的推理速度提升,同时提供了适配低显存 GPU 的版本,降低了使用门槛。此外,社区还建立了丰富的提示词库,帮助用户更好地驾驭模型生成特定风格的声音。只需几行 Python 代码,即可将创意文本转化为高质量音频,是连接文字与声音世界的强大桥梁。
airi
airi 是一款开源的本地化 AI 伴侣项目,旨在将虚拟角色(如“二次元老婆”或赛博生命)带入用户的现实世界。它的核心目标是复刻并超越知名 AI 主播 Neuro-sama 的能力,让用户能够拥有完全自主掌控、可私有化部署的智能伙伴。 airi 主要解决了用户对高度定制化、具备情感交互能力且数据隐私安全的 AI 角色的需求。不同于依赖云端服务的通用助手,airi 允许用户在本地运行,不仅保护了对话隐私,还赋予了用户定义角色性格与灵魂的自由。它支持实时语音聊天,甚至能直接参与《我的世界》(Minecraft)和《异星工厂》(Factorio)等游戏,实现了从单纯对话到共同娱乐的跨越。 这款工具非常适合喜爱虚拟角色的普通用户、希望搭建个性化 AI 陪伴的技术爱好者,以及研究多模态交互的开发者。其独特的技术亮点在于跨平台支持(涵盖 Web、macOS 和 Windows)以及强大的游戏交互能力,让 AI 不仅能“说”,还能“玩”。通过容器化的灵魂设计,airi 为每个人创造专属数字生命提供了可能,让虚拟陪伴变得更加真实且触手可及。
MockingBird
MockingBird 是一款开源的实时语音克隆工具,旨在让用户仅需 5 秒的参考音频,即可快速合成任意内容的语音,并实现逼真的音色复刻。它有效解决了传统语音合成技术中数据采集成本高、训练周期长以及难以实时生成的痛点,让个性化语音生成变得触手可及。 这款工具特别适合开发者、AI 研究人员以及对语音技术感兴趣的技术爱好者使用。无论是用于构建交互式语音应用、进行声学模型研究,还是制作创意内容,MockingBird 都能提供强大的支持。普通用户若具备基础的编程环境配置能力,也可通过其提供的 Web 服务或工具箱体验前沿的变声效果。 在技术亮点方面,MockingBird 基于 PyTorch 框架,不仅完美支持中文普通话及多种主流数据集,还实现了跨平台运行,兼容 Windows、Linux 乃至 M1 架构的 macOS。其独特的架构设计允许复用预训练的编码器与声码器,只需微调合成器即可获得出色效果,大幅降低了部署门槛。此外,项目内置了现成的 Web 服务器功能,方便用户通过远程调用快速集成到自己的应用中。尽管原作者已转向云端优化版本,但 MockingBird 作为经典的本地部署方案