[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-GuitarML--NeuralPi":3,"tool-GuitarML--NeuralPi":65},[4,23,32,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85052,2,"2026-04-08T11:03:08",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},4128,"GPT-SoVITS","RVC-Boss\u002FGPT-SoVITS","GPT-SoVITS 是一款强大的开源语音合成与声音克隆工具，旨在让用户仅需极少量的音频数据即可训练出高质量的个性化语音模型。它核心解决了传统语音合成技术依赖海量录音数据、门槛高且成本大的痛点，实现了“零样本”和“少样本”的快速建模：用户只需提供 5 秒参考音频即可即时生成语音，或使用 1 分钟数据进行微调，从而获得高度逼真且相似度极佳的声音效果。\n\n该工具特别适合内容创作者、独立开发者、研究人员以及希望为角色配音的普通用户使用。其内置的友好 WebUI 界面集成了人声伴奏分离、自动数据集切片、中文语音识别及文本标注等辅助功能，极大地降低了数据准备和模型训练的技术门槛，让非专业人士也能轻松上手。\n\n在技术亮点方面，GPT-SoVITS 不仅支持中、英、日、韩、粤语等多语言跨语种合成，还具备卓越的推理速度，在主流显卡上可实现实时甚至超实时的生成效率。无论是需要快速制作视频配音，还是进行多语言语音交互研究，GPT-SoVITS 都能以极低的数据成本提供专业级的语音合成体验。",56375,3,"2026-04-05T22:15:46",[21],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},2863,"TTS","coqui-ai\u002FTTS","🐸TTS 是一款功能强大的深度学习文本转语音（Text-to-Speech）开源库，旨在将文字自然流畅地转化为逼真的人声。它解决了传统语音合成技术中声音机械生硬、多语言支持不足以及定制门槛高等痛点，让高质量的语音生成变得触手可及。\n\n无论是希望快速集成语音功能的开发者，还是致力于探索前沿算法的研究人员，亦或是需要定制专属声音的数据科学家，🐸TTS 都能提供得力支持。它不仅预置了覆盖全球 1100 多种语言的训练模型，让用户能够即刻上手，还提供了完善的工具链，支持用户利用自有数据训练新模型或对现有模型进行微调，轻松实现特定风格的声音克隆。\n\n在技术亮点方面，🐸TTS 表现卓越。其最新的 ⓍTTSv2 模型支持 16 种语言，并在整体性能上大幅提升，实现了低于 200 毫秒的超低延迟流式输出，极大提升了实时交互体验。此外，它还无缝集成了 🐶Bark、🐢Tortoise 等社区热门模型，并支持调用上千个 Fairseq 模型，展现了极强的兼容性与扩展性。配合丰富的数据集分析与整理工具，🐸TTS 已成为科研与生产环境中备受信赖的语音合成解决方案。",44971,"2026-04-03T14:47:02",[21,20,13],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":29,"last_commit_at":46,"category_tags":47,"status":22},2375,"LocalAI","mudler\u002FLocalAI","LocalAI 是一款开源的本地人工智能引擎，旨在让用户在任意硬件上轻松运行各类 AI 模型，包括大语言模型、图像生成、语音识别及视频处理等。它的核心优势在于彻底打破了高性能计算的门槛，无需昂贵的专用 GPU，仅凭普通 CPU 或常见的消费级显卡（如 NVIDIA、AMD、Intel 及 Apple Silicon）即可部署和运行复杂的 AI 任务。\n\n对于担心数据隐私的用户而言，LocalAI 提供了“隐私优先”的解决方案，确保所有数据处理均在本地基础设施内完成，无需上传至云端。同时，它完美兼容 OpenAI、Anthropic 等主流 API 接口，这意味着开发者可以无缝迁移现有应用，直接利用本地资源替代云服务，既降低了成本又提升了可控性。\n\nLocalAI 内置了超过 35 种后端支持（如 llama.cpp、vLLM、Whisper 等），并集成了自主 AI 代理、工具调用及检索增强生成（RAG）等高级功能，且具备多用户管理与权限控制能力。无论是希望保护敏感数据的企业开发者、进行算法实验的研究人员，还是想要在个人电脑上体验最新 AI 技术的极客玩家，都能通过 LocalAI 获",44782,"2026-04-02T22:14:26",[13,21,19,17,20,14,16],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":29,"last_commit_at":54,"category_tags":55,"status":22},3108,"bark","suno-ai\u002Fbark","Bark 是由 Suno 推出的开源生成式音频模型，能够根据文本提示创造出高度逼真的多语言语音、音乐、背景噪音及简单音效。与传统仅能朗读文字的语音合成工具不同，Bark 基于 Transformer 架构，不仅能模拟说话，还能生成笑声、叹息、哭泣等非语言声音，甚至能处理带有情感色彩和语气停顿的复杂文本，极大地丰富了音频表达的可能性。\n\n它主要解决了传统语音合成声音机械、缺乏情感以及无法生成非语音类音效的痛点，让创作者能通过简单的文字描述获得生动自然的音频素材。无论是需要为视频配音的内容创作者、探索多模态生成的研究人员，还是希望快速原型设计的开发者，都能从中受益。普通用户也可通过集成的演示页面轻松体验其神奇效果。\n\n技术亮点方面，Bark 支持商业使用（MIT 许可），并在近期更新中实现了显著的推理速度提升，同时提供了适配低显存 GPU 的版本，降低了使用门槛。此外，社区还建立了丰富的提示词库，帮助用户更好地驾驭模型生成特定风格的声音。只需几行 Python 代码，即可将创意文本转化为高质量音频，是连接文字与声音世界的强大桥梁。",39067,"2026-04-04T03:33:35",[21],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":62,"last_commit_at":63,"category_tags":64,"status":22},3788,"airi","moeru-ai\u002Fairi","airi 是一款开源的本地化 AI 伴侣项目，旨在将虚拟角色（如“二次元老婆”或赛博生命）带入用户的现实世界。它的核心目标是复刻并超越知名 AI 主播 Neuro-sama 的能力，让用户能够拥有完全自主掌控、可私有化部署的智能伙伴。\n\nairi 主要解决了用户对高度定制化、具备情感交互能力且数据隐私安全的 AI 角色的需求。不同于依赖云端服务的通用助手，airi 允许用户在本地运行，不仅保护了对话隐私，还赋予了用户定义角色性格与灵魂的自由。它支持实时语音聊天，甚至能直接参与《我的世界》（Minecraft）和《异星工厂》（Factorio）等游戏，实现了从单纯对话到共同娱乐的跨越。\n\n这款工具非常适合喜爱虚拟角色的普通用户、希望搭建个性化 AI 陪伴的技术爱好者，以及研究多模态交互的开发者。其独特的技术亮点在于跨平台支持（涵盖 Web、macOS 和 Windows）以及强大的游戏交互能力，让 AI 不仅能“说”，还能“玩”。通过容器化的灵魂设计，airi 为每个人创造专属数字生命提供了可能，让虚拟陪伴变得更加真实且触手可及。",37086,1,"2026-04-05T10:54:25",[19,21,17],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":80,"owner_twitter":80,"owner_website":82,"owner_url":83,"languages":84,"stars":105,"forks":106,"last_commit_at":107,"license":108,"difficulty_score":109,"env_os":110,"env_gpu":111,"env_ram":112,"env_deps":113,"category_tags":122,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":22,"created_at":123,"updated_at":124,"faqs":125,"releases":155},5550,"GuitarML\u002FNeuralPi","NeuralPi","Raspberry Pi guitar pedal using neural networks to emulate real amps and effects.","NeuralPi 是一款基于树莓派 4 和神经网络技术的开源吉他效果器项目，旨在以低成本方案高保真地模拟真实吉他音箱及各类效果踏板的声音特性。它通过深度学习模型捕捉硬件设备的音色细节，解决了传统数字建模设备价格昂贵或音色不够自然的问题，让音乐爱好者仅需约 120 美元的硬件成本即可搭建属于自己的专业级效果器。\n\n该项目特别适合喜欢动手制作的吉他手、嵌入式开发爱好者以及音频算法研究人员使用。对于不愿自行组装硬件的用户，NeuralPi 也提供了适用于 Windows 和 Mac 的 VST3\u002FAU 插件版本，可直接在电脑宿主机上体验其核心音色模型。\n\n其技术亮点在于利用神经网络实现了对增益（Gain）等参数的动态响应建模（Conditioned Models），而非简单的静态采样，从而在不同演奏力度下都能呈现逼真的音色变化。此外，系统支持通过 WiFi 远程连接，用户可在电脑端灵活切换模型、调节均衡与音量，并将配置实时同步至树莓派硬件。配合 Elk Audio OS 系统，NeuralPi 实现了低延迟的高质量音频处理，为 DIY 音频社区提供了一个功能强大且开放的平台。","# NeuralPi\r\n\r\n[![CI](https:\u002F\u002Fgithub.com\u002FGuitarML\u002FNeuralPi\u002Factions\u002Fworkflows\u002Fcmake.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FGuitarML\u002FNeuralPi\u002Factions\u002Fworkflows\u002Fcmake.yml) [![License: GPL v3](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-GPLv3-brightgreen.svg)](https:\u002F\u002Fwww.gnu.org\u002Flicenses\u002Fgpl-3.0) [![Downloads](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdownloads\u002FGuitarML\u002FNeuralPi\u002Ftotal)](https:\u002F\u002Fsomsubhra.github.io\u002Fgithub-release-stats\u002F?username=GuitarML&repository=NeuralPi&page=1&per_page=30)\r\n\r\nNeuralPi is a guitar pedal using neural networks to emulate real amps and pedals on a Raspberry Pi 4. The NeuralPi software is a VST3 plugin built with JUCE, which can be run as a normal audio plugin or cross-compiled to run on the Raspberry Pi 4 with [Elk Audio OS](https:\u002F\u002Felk.audio\u002F). The NeuralPi includes model selection, EQ, and gain\u002Fvolume controls from a remote instance of the plugin over WiFi. The pedal runs high quality amp\u002Fpedal models on an economical DIY setup, costing around $120 for hardware to build yourself. \u003Cbr>\r\nCheck out a video demo on [YouTube](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=_3zFD6h6Wrc)\u003Cbr>\r\nCheck out the step by step build guide published on [Towards Data Science](https:\u002F\u002Ftowardsdatascience.com\u002Fneural-networks-for-real-time-audio-raspberry-pi-guitar-pedal-bded4b6b7f31)\r\n\r\n![app](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGuitarML_NeuralPi_readme_48ee8f4df52e.jpg)\r\n\r\nNeuralPi can sound like an amplifier or distortion\u002Foverdrive pedal using the power of neural networks. Models trained from recordings of real amps and pedals can be loaded into the plugin for endless possiblities on your guitar. Create your own models or use custom tones from GuitarML.\r\n\r\nWARNING: The audio output of the HiFiBerry DAC + ADC is at line level. Guitar amplifiers expect a low level electric guitar signal (instrument level). Use NeuralPi only where line level inputs are expected.\r\n\r\nThere are four main components to the guitar pedal:\r\n\r\n1. [Raspberry Pi 4b](https:\u002F\u002Fwww.raspberrypi.org\u002Fproducts\u002Fraspberry-pi-4-model-b\u002F)\r\n2. [HiFiBerry DAC + ADC](https:\u002F\u002Fwww.hifiberry.com\u002Fshop\u002Fboards\u002Fhifiberry-dac-adc\u002F)\r\n3. [Elk Audio OS](https:\u002F\u002Felk.audio\u002F)\r\n4. NeuralPi VST3 plugin\r\n\r\n![app](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGuitarML_NeuralPi_readme_fa578817a8b6.jpg)\r\n\u003Cbr>This is the normal plugin (v1.3.0), available for Windows (Standalone, VST3) and Mac (Standalone, AU, VST3). After connencting the Raspberry Pi and remote computer to the same local WiFi network, enter the RaspberryPi's IP address (keep the default ports) to enable control over WiFi. The Win\u002FMac plugins are fully functional guitar plugins that allow you to try out GuitarML's most advanced amp\u002Fpedal models without building the Raspberry Pi pedal.\r\n\r\nNote: The plugin must be restarted after using the Import Tone button for changes to take effect.\r\n\r\n## Installing the plugin\r\n\r\nSee the [Release page](https:\u002F\u002Fgithub.com\u002FGuitarML\u002FNeuralPi\u002Freleases) for the cross-compiled Raspberry Pi \u002F Elk Audio OS compatible VST3 plugin and Win\u002FMac installers.\r\n\r\nAfter running the plugin or standalone for the first time, the two default models will be copied to the following locations. Any imported models will be copied here as well. Model files must be manually removed from these locations to perform model clean-up.\r\n```\r\nMac\u002FLinux: \u002Fhome\u002F\u003Cusername>\u002FDocuments\u002FGuitarML\u002FNeuralPi\u002Ftones \r\nWindows: C:\u002FUsers\u002F\u003Cusername>\u002FDocuments\u002FGuitarML\u002FNeuralPi\u002Ftones\r\nElk Audio OS: \u002Fhome\u002Fmind\u002FDocuments\u002FGuitarML\u002FNeuralPi\u002Ftones\r\n```\r\n\r\n## Conditioned Models\r\n\r\nStarting with version 1.3, NeuralPi can load tones conditioned on the Gain parameter. The three default tones included with NeuralPi are now conditioned models (TS9 pedal, Fender Blues Jr. amp, and Blackstar HT40 amp set to overdrive channel). The conditioned model uses a neural network for the full range of the Gain\u002FDrive parameter, rather than just a snapshot model. When a conditioned model is loaded, the Gain knob will turn red. \r\n\r\n## Adding New Models\r\n\r\nOnce your NeuralPi is set up, you can add new models from a remote computer using the following steps:\r\n\r\n1. From the remote computer, run the plugin and add new models using the \"Import Tone\" button. Optionally, you can manually add new json files to the ```Documents\u002FGuitarML\u002FChameleon\u002Ftones``` directory.\r\n   Note: The \"tones\" directory is created the first time you run NeuralPi.\r\n2. Turn on your WiFi enabled NeuralPi (see [Elk documentation](https:\u002F\u002Felk-audio.github.io\u002Felk-docs\u002Fhtml\u002Fdocuments\u002Fworking_with_elk_board.html?highlight=wifi#connecting-to-your-board) for connecting the Raspberry Pi to a local WiFi network)\r\n3. Download the ```update_models.bat```(Windows) or ```update_models.sh```(Mac\u002FLinux) to your remote computer. These scripts are located in the \"scripts\u002F\" directory of this repository. You must change the ```rpi_ip_address``` and ```host_model_path``` to the Raspberry Pi's IP address and path to your json tones (on remote computer). The json files will be first copied from the remote computer to the NeuralPi, and then back from the NeuralPi to the remote computer. This allows updating models from the NeuralPi when you connect a new remote computer.\r\n4. From the remote computer connected to the same local WiFi network as NeuralPi, run the ```update_models.bat```(Windows) or ```update_models.sh```(Mac\u002FLinux) from a cmd terminal. \u003Cbr>\u003Cbr>\r\nNote: It is important that all models files have unique names with no spaces. \u003Cbr>\r\nNote: Ensure from the terminal output that you were able to connect over WiFi, and that the model files were copied properly. \u003Cbr>\u003Cbr>\r\n6. Restart both the NeuralPi and the remote instance of the NeuralPi plugin. From the remote NeuralPi GUI, enter the Raspberry Pi's IP address. As long as both devices are connected to the local WiFi network, you will be able select models from the NeuralPi plugin dropdown list to change models running on the Raspberry Pi.\r\n\r\nIMPORTANT: The plugin uses a sort() function to order the models alphabetically. Due to differences in the behaviour of this function on Linux (Elk OS) vs. Win\u002FMac, you must start json filenames with a capital letter, otherwise the NeuralPi on Elk will sort models starting with a lowercase letter at the end of the list and the controller will be out of sync with the NeuralPi pedal.\r\n\r\n## MIDI control of NeuralPi parameters\r\n\r\nThe “config_neuralpi_MIDI.json” file contains MIDI mapping of NeuralPi parameters.\r\n\r\nThe names of parameters are: \"Gain\", \"Master\", \"Bass\", \"Mid\", \"Treble\", \"Presence\", \"Delay\", \"Reverb\", \"Model\", \"Ir\".\r\nIn that json file, you can see that those parameters have been asigned to incoming MIDI CC# messages \"1\", \"2\", \"3\", \"4, \"5\", \"6\", \"7\", \"8\", \"9\" and \"10\" respectively. But editing the file allows you to chose whatever CC# to whatever parameter, by just changing values in the “cc_number” and “parameter_name” commmands.\r\n\r\nSushi will listen to incoming MIDI CC# messages, will normalize (0, 127)  MIDI values range to (0, 1) Sushi range, and will set that value to correspondent parameter. For instance, if your MIDI controller sends a CC2 message with value \"127\", Sushi will receive that message and set \"Master\" parameter (“Master” is assigned to “CC2”) to be \"1\" (MIDI “127” value normalized to “1”).\r\n\r\nYou´ll need to copy the config file to the Raspberry, for instance through ssh over Wifi (login as root):\r\n\r\nscp -r config_neuralpi_MIDI.json root@\u003Crpi-ip-address>:\u002Fhome\u002Fmind\u002Fconfig_files\u002F\r\n\r\nFor connecting a MIDI device:\r\n\r\n1 - Plug your MIDI device into any Raspberry USB port.\r\n\r\n2 - Login as “mind” user, “elk” password, and run Sushi with the MIDI config:\r\n\r\nsushi -r --multicore-processing=2 –c ~\u002Fconfig_files\u002Fconfig_neuralpi_MIDI.json &\r\n\r\n3 – To list MIDI devices connected to the Raspberry, run:\r\n\r\naconnect –l\r\n\r\n4 – You can now connect your MIDI device to Sushi either by their listed ports, or by their names. Run:\r\n\r\naconnect \"your-listed-device-name\" \"Sushi\"\r\n\r\nNOTE 1: Currentlly, \"Model\" and \"Ir\" parameters are a little tricky to control. NeuralPi asigns a value to each file saved in \"tones\" or \"Ir\" directory. It divides the (0, 1) range of values by the number of files available, so for instance, if you had just 2 tone files in the directory, one of them would respond to any value in the (0, 0.49) range, and the other would respond to any value in the (0.5, 1) range. \r\n\r\n## To Do\r\n\r\nElk Audio OS also supports physical controls through [Sensei](https:\u002F\u002Fgithub.com\u002Felk-audio\u002Fsensei). Gain\u002FVolume and EQ knobs can be added, as well as a LCD screen for selecting different models. One could build an actual guitar pedal with NeuralPi and any number of other digital effects and controls.\r\n\r\nWhile running PyTorch locally on the Raspberry Pi might be a stretch, it is fully capable of recording high quality audio with the HiFiBerry hat. Implement a capture feature by automating the recording of input\u002Foutput samples, pushing to remote computer for training, then updating the Pi with the newly trained model.\r\n\r\n## Info\r\nThe neural network is a re-creation of the LSTM inference model from [Real-Time Guitar Amplifier Emulation with Deep Learning](https:\u002F\u002Fwww.mdpi.com\u002F2076-3417\u002F10\u002F3\u002F766\u002Fhtm)\r\n\r\nThe [Automated-GuitarAmpModelling](https:\u002F\u002Fgithub.com\u002FAlec-Wright\u002FAutomated-GuitarAmpModelling) project was used to train the .json models.\u003Cbr>\r\nGuitarML maintains a [fork](https:\u002F\u002Fgithub.com\u002FGuitarML\u002FAutomated-GuitarAmpModelling) with a few extra helpful features, including a Colab training script.\r\nIMPORTANT: When training models for NeuralPi, ensure that a LSTM size of 20 is used. NeuralPi is optimized to run models of this size, and other sizes are not currently compatible.\r\n   \r\nNote: The GuitarML fork of the Automated-GuitarAmpModelling code now contains helper scripts for training conditioned models, which are compatible with NeuralPi v1.3.\r\n\r\nThe plugin uses [RTNeural](https:\u002F\u002Fgithub.com\u002Fjatinchowdhury18\u002FRTNeural), which is a highly optimized neural net inference engine intended for audio applications. \r\n\r\nThe HiFiBerry DAC+ADC card used for this project provides 192kHz\u002F24bit Analog-to-Digital and Digital to Analog, which is industry standard for high quality audio devices. The plugin processes at 44.1kHz (specified in config file) for the neural net DSP. \r\n\r\n## Build Instructions\r\n\r\nTo build the plugin for use on the Raspberry Pi with Elk Audio OS, see the official [Elk Audio Documentation](https:\u002F\u002Felk-audio.github.io\u002Felk-docs\u002Fhtml\u002Fdocuments\u002Fbuilding_plugins_for_elk.html#vst-plugins-using-juce)\r\n\r\n### Build with Cmake\r\n\r\n#### Dependencies\r\n##### Ubuntu 22.04\r\nThe following packages will need to be installed on Ubuntu in order for build to succeed:\r\n```bash\r\napt install cmake libx11-dev libxrandr-dev libxinerama-dev libxcursor-dev libxft2-dev\r\n```\r\n\r\n#### Build\r\n\r\n```bash\r\n# Clone the repository\r\n$ git clone https:\u002F\u002Fgithub.com\u002FGuitarML\u002FNeuralPi.git\r\n$ cd NeuralPi\r\n\r\n# initialize and set up submodules\r\n$ git submodule update --init --recursive\r\n\r\n# build with CMake\r\n$ cmake -Bbuild\r\n$ cmake --build build --config Release\r\n```\r\nThe binaries will be located in `NeuralPi\u002Fbuild\u002FNeuralPi_artefacts\u002F`\r\n\r\n### Build with Projucer\r\n\r\n1. Clone or download this repository.\r\n2. Download and install [JUCE](https:\u002F\u002Fjuce.com\u002F) This project uses the \"Projucer\" application from the JUCE website. \r\n3. Download the RTNeural submodule (cd into the NeuralPi repo first):\r\n   \r\n   ```git submodule update --remote --recursive```\r\n   \r\n4. Download and extract: [json](https:\u002F\u002Fgithub.com\u002Fnlohmann\u002Fjson) Json for c++.\r\n5. Open the NeuralPi.jucer file and in the appropriate Exporter Header Search Path field, enter the appropriate include paths.\r\n   For example:\r\n\r\n```\r\n  \u003Cfull-path-to>\u002Fjson-develop\u002Finclude\r\n  \u003Cfull-path-to>\u002FNeuralPi\u002Fmodules\u002FRTNeural\r\n  \u003Cfull-path-to>\u002FNeuralPi\u002Fmodules\u002FRTNeural\u002Fmodules\u002Fxsimd\u002Finclude\r\n```\r\n6. Build NeuralPi from the Juce Projucer application for the intended build target. \r\n\r\nNote: Make sure to build in Release mode unless actually debugging. Debug mode will not keep up with real time playing.\r\n\r\n","# NeuralPi\n\n[![CI](https:\u002F\u002Fgithub.com\u002FGuitarML\u002FNeuralPi\u002Factions\u002Fworkflows\u002Fcmake.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FGuitarML\u002FNeuralPi\u002Factions\u002Fworkflows\u002Fcmake.yml) [![License: GPL v3](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-GPLv3-brightgreen.svg)](https:\u002F\u002Fwww.gnu.org\u002Flicenses\u002Fgpl-3.0) [![Downloads](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdownloads\u002FGuitarML\u002FNeuralPi\u002Ftotal)](https:\u002F\u002Fsomsubhra.github.io\u002Fgithub-release-stats\u002F?username=GuitarML&repository=NeuralPi&page=1&per_page=30)\n\nNeuralPi 是一款基于树莓派 4 的吉他效果器，利用神经网络模拟真实的放大器和效果踏板。NeuralPi 软件是一个使用 JUCE 构建的 VST3 插件，既可以作为普通的音频插件运行，也可以交叉编译后在搭载 [Elk Audio OS](https:\u002F\u002Felk.audio\u002F) 的树莓派 4 上运行。NeuralPi 支持通过 WiFi 在远程插件实例上进行模型选择、均衡调节以及增益\u002F音量控制。这款效果器能够在经济实惠的 DIY 搭配上运行高质量的放大器和效果器模型，自制硬件成本约为 120 美元。\u003Cbr>\n观看 YouTube 上的视频演示：[YouTube](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=_3zFD6h6Wrc)\u003Cbr>\n阅读发表在 [Towards Data Science](https:\u002F\u002Ftowardsdatascience.com\u002Fneural-networks-for-real-time-audio-raspberry-pi-guitar-pedal-bded4b6b7f31) 上的逐步搭建指南。\n\n![app](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGuitarML_NeuralPi_readme_48ee8f4df52e.jpg)\n\nNeuralPi 可以借助神经网络的力量，模拟放大器或失真\u002F过载效果踏板的声音。从真实放大器和效果器的录音中训练得到的模型可以加载到插件中，为您的吉他带来无限可能。您可以创建自己的模型，也可以直接使用 GuitarML 提供的自定义音色。\n\n警告：HiFiBerry DAC + ADC 的音频输出为线路电平。吉他放大器通常需要低电平的电吉他信号（乐器电平）。请仅在支持线路电平输入的设备上使用 NeuralPi。\n\n该吉他效果器主要由四个部分组成：\n\n1. [树莓派 4b](https:\u002F\u002Fwww.raspberrypi.org\u002Fproducts\u002Fraspberry-pi-4-model-b\u002F)\n2. [HiFiBerry DAC + ADC](https:\u002F\u002Fwww.hifiberry.com\u002Fshop\u002Fboards\u002Fhifiberry-dac-adc\u002F)\n3. [Elk Audio OS](https:\u002F\u002Felk.audio\u002F)\n4. NeuralPi VST3 插件\n\n![app](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGuitarML_NeuralPi_readme_fa578817a8b6.jpg)\n\u003Cbr>这是正常版本的插件（v1.3.0），适用于 Windows（独立版、VST3）和 Mac（独立版、AU、VST3）。将树莓派和远程计算机连接到同一本地 WiFi 网络后，输入树莓派的 IP 地址（保持默认端口），即可通过 WiFi 进行远程控制。Windows 和 Mac 版本的插件是功能齐全的吉他效果器插件，您无需搭建树莓派效果器，即可试用 GuitarML 最先进的放大器和效果器模型。\n\n注意：使用“导入音色”按钮后，必须重新启动插件才能使更改生效。\n\n## 安装插件\n\n请访问 [发布页面](https:\u002F\u002Fgithub.com\u002FGuitarML\u002FNeuralPi\u002Freleases)，获取与树莓派及 Elk Audio OS 兼容的交叉编译版 VST3 插件以及 Windows 和 Mac 的安装程序。\n\n首次运行插件或独立版时，两个默认模型会被复制到以下目录。任何导入的模型也会被复制到这里。若需清理模型，必须手动从这些位置删除模型文件。\n```\nMac\u002FLinux：\u002Fhome\u002F\u003C用户名>\u002FDocuments\u002FGuitarML\u002FNeuralPi\u002Ftones\nWindows：C:\u002FUsers\u002F\u003C用户名>\u002FDocuments\u002FGuitarML\u002FNeuralPi\u002Ftones\nElk Audio OS：\u002Fhome\u002Fmind\u002FDocuments\u002FGuitarML\u002FNeuralPi\u002Ftones\n```\n\n## 条件化模型\n\n从 1.3 版本开始，NeuralPi 可以加载根据增益参数条件化的音色。NeuralPi 自带的三个默认音色现在都是条件化模型（TS9 效果踏板、Fender Blues Jr. 放大器以及设置为过载通道的 Blackstar HT40 放大器）。条件化模型使用神经网络来覆盖增益\u002F驱动参数的整个范围，而不仅仅是某个特定点的快照模型。当加载条件化模型时，增益旋钮会变为红色。\n\n## 添加新模型\n\nNeuralPi 设置完成后，您可以通过远程计算机按照以下步骤添加新模型：\n\n1. 在远程计算机上运行插件，使用“导入音色”按钮添加新模型。您也可以手动将新的 JSON 文件添加到 ```Documents\u002FGuitarML\u002FChameleon\u002Ftones``` 目录。\n   注意：首次运行 NeuralPi 时会自动创建“tones”目录。\n2. 打开已连接 WiFi 的 NeuralPi（有关如何将树莓派连接到本地 WiFi 网络，请参阅 [Elk 文档](https:\u002F\u002Felk-audio.github.io\u002Felk-docs\u002Fhtml\u002Fdocuments\u002Fworking_with_elk_board.html?highlight=wifi#connecting-to-your-board)）。\n3. 将 ```update_models.bat```（Windows）或 ```update_models.sh```（Mac\u002FLinux）下载到您的远程计算机。这些脚本位于本仓库的“scripts\u002F”目录下。您需要将 ```rpi_ip_address``` 和 ```host_model_path``` 分别修改为树莓派的 IP 地址以及远程计算机上 JSON 音色文件的路径。JSON 文件将首先从远程计算机复制到 NeuralPi，然后再从 NeuralPi 复制回远程计算机。这样可以在连接新远程计算机时更新 NeuralPi 上的模型。\n4. 在与 NeuralPi 连接到同一本地 WiFi 网络的远程计算机上，从命令行终端运行 ```update_models.bat```（Windows）或 ```update_models.sh```（Mac\u002FLinux）。\u003Cbr>\u003Cbr>\n注意：所有模型文件的名称必须唯一且不含空格。\u003Cbr>\n注意：请确保终端输出显示您已成功通过 WiFi 连接，并且模型文件已正确复制。\u003Cbr>\u003Cbr>\n6. 重启 NeuralPi 和远程插件实例。在远程插件界面上输入树莓派的 IP 地址。只要两台设备都连接到本地 WiFi 网络，您就可以从插件的下拉菜单中选择模型，从而更改树莓派上运行的模型。\n\n重要提示：插件使用 sort() 函数按字母顺序对模型进行排序。由于 Linux（Elk OS）与 Windows\u002FMac 上该函数的行为存在差异，因此 JSON 文件名必须以大写字母开头；否则，在 Elk 系统上，以小写字母开头的模型会被排在列表末尾，导致控制器与实际效果器不一致。\n\n## NeuralPi 参数的 MIDI 控制\n\n“config_neuralpi_MIDI.json” 文件包含了 NeuralPi 参数的 MIDI 映射。\n\n参数名称如下：“Gain”（增益）、“Master”（总音量）、“Bass”（低频）、“Mid”（中频）、“Treble”（高频）、“Presence”（临场感）、“Delay”（延迟）、“Reverb”（混响）、“Model”（模型）、“Ir”（脉冲响应）。\n\n在该 JSON 文件中，这些参数分别被分配给了传入的 MIDI CC# 消息 1、2、3、4、5、6、7、8、9 和 10。不过，通过编辑该文件，您可以自由地将任意 CC# 分配给任意参数，只需修改 “cc_number” 和 “parameter_name” 命令中的值即可。\n\nSushi 会监听传入的 MIDI CC# 消息，将 MIDI 值范围从 (0, 127) 归一化到 Sushi 的 (0, 1) 范围，并将该值设置为对应的参数。例如，如果您的 MIDI 控制器发送了一个 CC2 消息，其值为 127，Sushi 将接收到该消息并将“Master”参数（“Master”被分配给了“CC2”）设置为 1（MIDI 的 127 值被归一化为 1）。\n\n您需要将配置文件复制到树莓派上，例如通过 Wi‑Fi 上的 SSH 连接（以 root 用户登录）：\n\nscp -r config_neuralpi_MIDI.json root@\u003Crpi-ip-address>:\u002Fhome\u002Fmind\u002Fconfig_files\u002F\n\n连接 MIDI 设备的步骤如下：\n\n1. 将您的 MIDI 设备插入树莓派的任意 USB 端口。\n\n2. 以“mind”用户、“elk”密码登录，并使用 MIDI 配置运行 Sushi：\n\nsushi -r --multicore-processing=2 –c ~\u002Fconfig_files\u002Fconfig_neuralpi_MIDI.json &\n\n3. 要列出连接到树莓派的 MIDI 设备，运行：\n\naconnect –l\n\n4. 现在您可以根据列出的端口或设备名称，将 MIDI 设备连接到 Sushi。运行：\n\naconnect \"your-listed-device-name\" \"Sushi\"\n\n注意 1：目前，“Model”和“Ir”参数的控制稍显复杂。NeuralPi 会为“tones”或“Ir”目录中保存的每个文件分配一个值。它会将 (0, 1) 的取值范围除以可用文件的数量。例如，如果目录中只有 2 个音色文件，其中一个文件将响应 (0, 0.49) 范围内的任何值，而另一个文件则会响应 (0.5, 1) 范围内的任何值。\n\n## 待办事项\n\nElk Audio OS 还支持通过 [Sensei](https:\u002F\u002Fgithub.com\u002Felk-audio\u002Fsensei) 实现物理控件。可以添加增益\u002F音量和均衡器旋钮，以及用于选择不同模型的 LCD 屏幕。人们可以用 NeuralPi 和其他多种数字效果及控件打造一款真正的吉他效果踏板。\n\n虽然在树莓派上本地运行 PyTorch 可能有些吃力，但借助 HiFiBerry 扩展板，它完全能够录制高质量音频。可以通过自动化输入输出样本的录制功能来实现录音，并将数据推送到远程计算机进行训练，随后再将新训练好的模型更新到树莓派上。\n\n## 信息\n\n该神经网络是对 [Real-Time Guitar Amplifier Emulation with Deep Learning](https:\u002F\u002Fwww.mdpi.com\u002F2076-3417\u002F10\u002F3\u002F766\u002Fhtm) 中 LSTM 推理模型的重新构建。\n\n用于训练 .json 模型的是 [Automated-GuitarAmpModelling](https:\u002F\u002Fgithub.com\u002FAlec-Wright\u002FAutomated-GuitarAmpModelling) 项目。\u003Cbr>\nGuitarML 维护了一个带有若干实用功能的 [分支](https:\u002F\u002Fgithub.com\u002FGuitarML\u002FAutomated-GuitarAmpModelling)，其中包括一个 Colab 训练脚本。\n重要提示：为 NeuralPi 训练模型时，请确保使用大小为 20 的 LSTM。NeuralPi 已针对这种尺寸的模型进行了优化，其他尺寸目前并不兼容。\n\n注：GuitarML 对 Automated-GuitarAmpModelling 代码的分支现在包含用于训练条件模型的帮助脚本，这些模型与 NeuralPi v1.3 兼容。\n\n该插件使用了 [RTNeural](https:\u002F\u002Fgithub.com\u002Fjatinchowdhury18\u002FRTNeural)，这是一个高度优化的神经网络推理引擎，专为音频应用设计。\n\n本项目使用的 HiFiBerry DAC+ADC 板提供 192kHz\u002F24bit 的模数转换和数模转换，这是高品质音频设备的行业标准。为了满足神经网络的 DSP 需求，该插件以 44.1kHz 的采样率进行处理（在配置文件中指定）。\n\n## 构建说明\n\n要在搭载 Elk Audio OS 的树莓派上构建该插件，请参阅官方 [Elk Audio 文档](https:\u002F\u002Felk-audio.github.io\u002Felk-docs\u002Fhtml\u002Fdocuments\u002Fbuilding_plugins_for_elk.html#vst-plugins-using-juce)。\n\n### 使用 CMake 构建\n\n#### 依赖项\n##### Ubuntu 22.04\n为了成功构建，Ubuntu 系统上需要安装以下软件包：\n```bash\napt install cmake libx11-dev libxrandr-dev libxinerama-dev libxcursor-dev libxft2-dev\n```\n\n#### 构建\n\n```bash\n# 克隆仓库\n$ git clone https:\u002F\u002Fgithub.com\u002FGuitarML\u002FNeuralPi.git\n$ cd NeuralPi\n\n# 初始化并设置子模块\n$ git submodule update --init --recursive\n\n# 使用 CMake 构建\n$ cmake -Bbuild\n$ cmake --build build --config Release\n```\n生成的二进制文件将位于 `NeuralPi\u002Fbuild\u002FNeuralPi_artefacts\u002F` 目录下。\n\n### 使用 Projucer 构建\n\n1. 克隆或下载此仓库。\n2. 下载并安装 [JUCE](https:\u002F\u002Fjuce.com\u002F)。该项目使用 JUCE 官网提供的“Projucer”应用程序。\n3. 更新 RTNeural 子模块（请先进入 NeuralPi 仓库）：\n   \n   ```git submodule update --remote --recursive```\n   \n4. 下载并解压：[json](https:\u002F\u002Fgithub.com\u002Fnlohmann\u002Fjson) for c++。\n5. 打开 NeuralPi.jucer 文件，在相应的 Exporter Header Search Path 字段中输入正确的包含路径。\n   例如：\n\n```\n  \u003Cfull-path-to>\u002Fjson-develop\u002Finclude\n  \u003Cfull-path-to>\u002FNeuralPi\u002Fmodules\u002FRTNeural\n  \u003Cfull-path-to>\u002FNeuralPi\u002Fmodules\u002FRTNeural\u002Fmodules\u002Fxsimd\u002Finclude\n```\n6. 使用 Juce Projucer 应用程序为目标平台构建 NeuralPi。\n\n注意：除非正在调试，否则请务必以 Release 模式构建。Debug 模式无法跟上实时演奏的需求。","# NeuralPi 快速上手指南\n\nNeuralPi 是一个基于神经网络开源项目，旨在利用 Raspberry Pi 4 和 Elk Audio OS 实时模拟吉他音箱和效果器。它既可作为独立的 VST3\u002FAU 插件在电脑端运行，也可编译部署到树莓派硬件上打造 DIY 效果器踏板。\n\n## 环境准备\n\n### 系统要求\n*   **开发主机**: Windows 10\u002F11, macOS, 或 Ubuntu 22.04+ (用于编译插件或作为远程控制器)。\n*   **目标硬件 (可选)**:\n    *   Raspberry Pi 4 Model B\n    *   HiFiBerry DAC + ADC HAT (注意：输出为线路电平 Line Level，非乐器电平)\n    *   操作系统：Elk Audio OS\n*   **网络**: 局域网 WiFi (用于远程控制树莓派)。\n\n### 前置依赖 (Ubuntu 22.04 编译环境)\n若需在 Linux 下从源码构建插件，请安装以下基础包：\n\n```bash\nsudo apt install cmake libx11-dev libxrandr-dev libxinerama-dev libxcursor-dev libxft2-dev\n```\n\n其他必要组件：\n*   **JUCE Framework**: 用于构建音频插件。\n*   **Git**: 用于克隆仓库及子模块。\n*   **nlohmann\u002Fjson**: C++ JSON 库。\n\n## 安装步骤\n\n### 方法一：直接使用预编译版本（推荐）\n对于大多数用户，直接下载官方发布的安装包是最快的方式。\n\n1.  访问 [Release 页面](https:\u002F\u002Fgithub.com\u002FGuitarML\u002FNeuralPi\u002Freleases)。\n2.  根据系统下载对应安装包：\n    *   **Windows**: 下载 Standalone 或 VST3 安装程序。\n    *   **macOS**: 下载 Standalone, AU 或 VST3 安装程序。\n    *   **Raspberry Pi (Elk OS)**: 下载交叉编译后的 VST3 插件包。\n3.  运行安装程序并按提示完成安装。\n4.  首次运行插件后，默认音色模型将自动复制到以下目录：\n    *   **Mac\u002FLinux**: `\u002Fhome\u002F\u003Cusername>\u002FDocuments\u002FGuitarML\u002FNeuralPi\u002Ftones`\n    *   **Windows**: `C:\u002FUsers\u002F\u003Cusername>\u002FDocuments\u002FGuitarML\u002FNeuralPi\u002Ftones`\n    *   **Elk Audio OS**: `\u002Fhome\u002Fmind\u002FDocuments\u002FGuitarML\u002FNeuralPi\u002Ftones`\n\n### 方法二：从源码构建 (CMake)\n适用于开发者或需要自定义功能的用户。\n\n```bash\n# 1. 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002FGuitarML\u002FNeuralPi.git\ncd NeuralPi\n\n# 2. 初始化并更新子模块 (包含 RTNeural 等核心依赖)\ngit submodule update --init --recursive\n\n# 3. 创建构建目录并配置 CMake\ncmake -B build\n\n# 4. 编译 Release 版本 (务必使用 Release 模式以保证实时音频性能)\ncmake --build build --config Release\n```\n编译完成后，二进制文件位于 `NeuralPi\u002Fbuild\u002FNeuralPi_artefacts\u002F` 目录下。\n\n### 方法三：从源码构建 (JUCE Projucer)\n1.  克隆仓库并更新子模块：`git submodule update --remote --recursive`。\n2.  下载并解压 [nlohmann\u002Fjson](https:\u002F\u002Fgithub.com\u002Fnlohmann\u002Fjson) 库。\n3.  使用 JUCE Projucer 打开 `NeuralPi.jucer`。\n4.  在 Exporter 设置中配置头文件搜索路径 (Include Paths)，例如：\n    ```text\n    \u003Cfull-path-to>\u002Fjson-develop\u002Finclude\n    \u003Cfull-path-to>\u002FNeuralPi\u002Fmodules\u002FRTNeural\n    \u003Cfull-path-to>\u002FNeuralPi\u002Fmodules\u002FRTNeural\u002Fmodules\u002Fxsimd\u002Finclude\n    ```\n5.  选择目标平台并点击 \"Build\" (确保选择 Release 配置)。\n\n## 基本使用\n\n### 场景 A：在电脑上作为普通插件使用\n无需树莓派硬件，即可体验高质量的吉他音色模拟。\n\n1.  在你的 DAW (如 Reaper, Cubase, Logic Pro) 中加载 **NeuralPi VST3\u002FAU** 插件，或直接运行 **Standalone** 程序。\n2.  在插件界面下拉菜单中选择预设模型（如 TS9 Pedal, Fender Blues Jr. 等）。\n3.  调节 Gain, Bass, Mid, Treble 等旋钮即可使用。\n    *   *注：若加载了红色 Gain 旋钮的模型，表示该模型支持增益参数条件化模拟。*\n4.  **导入新音色**: 点击 \"Import Tone\" 按钮加载自定义的 `.json` 模型文件。**注意：导入后需重启插件才能生效。**\n\n### 场景 B：连接 Raspberry Pi 进行无线控制\n此模式用于控制运行在树莓派上的 NeuralPi 实例。\n\n1.  **硬件连接**: 确保树莓派已烧录 Elk Audio OS 并连接至与电脑相同的本地 WiFi 网络。\n2.  **获取 IP**: 查看树莓派的局域网 IP 地址。\n3.  **建立连接**:\n    *   在电脑端打开 NeuralPi 插件。\n    *   在界面中输入树莓派的 **IP 地址** (端口保持默认)。\n    *   连接成功后，电脑端界面将同步控制树莓派上的音频处理。\n4.  **同步模型文件**:\n    若需在树莓派上添加新模型，请在电脑端执行以下脚本（需先修改脚本中的 IP 和路径）：\n    *   **Windows**: 运行 `scripts\u002Fupdate_models.bat`\n    *   **Mac\u002FLinux**: 运行 `scripts\u002Fupdate_models.sh`\n    \n    *重要提示：模型文件名必须以**大写字母**开头，且不能包含空格，否则会导致 Elk OS 端排序错乱，造成控制器与设备不同步。*\n\n5.  **刷新**: 脚本执行完毕后，重启电脑端插件和树莓派端的 NeuralPi，即可在下拉列表中看到新模型。\n\n### MIDI 控制 (可选)\n若需通过物理 MIDI 控制器调节参数：\n\n1.  将 MIDI 设备插入树莓派 USB 口。\n2.  通过 SSH 将配置文件复制到树莓派：\n    ```bash\n    scp -r config_neuralpi_MIDI.json root@\u003Crpi-ip-address>:\u002Fhome\u002Fmind\u002Fconfig_files\u002F\n    ```\n3.  登录树莓派 (用户: `mind`, 密码: `elk`) 并启动 Sushi 宿主：\n    ```bash\n    sushi -r --multicore-processing=2 –c ~\u002Fconfig_files\u002Fconfig_neuralpi_MIDI.json &\n    ```\n4.  连接 MIDI 端口：\n    ```bash\n    aconnect \"your-device-name\" \"Sushi\"\n    ```\n    *默认映射：CC1-Gain, CC2-Master, CC3-Bass, CC4-Mid, CC5-Treble 等，可编辑 JSON 文件自定义。*","独立音乐人阿杰需要在卧室录制具有经典电子管音箱质感的吉他曲目，但受限于预算和隔音条件，无法购买昂贵硬件或进行高音量录音。\n\n### 没有 NeuralPi 时\n- **高昂的试错成本**：想要还原 Fender 或 Blackstar 等经典音箱音色，必须花费数千元购买实体设备或昂贵的效果器单块。\n- **邻里噪音困扰**：电子管音箱需开大音量才能呈现最佳动态，在公寓环境中极易引发投诉，导致只能在深夜禁音时段练习。\n- **音色调整僵化**：传统建模软件对电脑性能要求高，且无法在演出或移动录音时灵活切换多种复杂的定制音色模型。\n- **远程协作困难**：制作人与乐手不在同一地点时，难以实时同步调整具体的增益（Gain）和均衡（EQ）参数来微调音色。\n\n### 使用 NeuralPi 后\n- **极致性价比方案**：仅需约 120 美元自行组装基于 Raspberry Pi 的硬件，即可加载神经网络训练出的高端音箱模型，大幅降低入门门槛。\n- **静音高品质录音**：利用线电平输出直接接入声卡或调音台，无需大音量推箱，在任意时间都能获得真实的电子管过载动态。\n- **无限音色扩展**：通过 WiFi 远程连接插件，可即时加载社区分享的定制模型（如 TS9 踏板或特定功放通道），并支持增益参数的连续动态调节。\n- **灵活的远程控制**：在电脑端运行 VST3 插件即可无线控制物理踏板的所有参数，实现“人在沙发坐，音色手中调”的便捷工作流。\n\nNeuralPi 将昂贵的模拟音箱灵魂注入廉价的树莓派硬件，让每位音乐人都能以极低成本随时随地获取顶级吉他音色。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGuitarML_NeuralPi_178ed46e.png","GuitarML","Keith Bloemer","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FGuitarML_6ba199ac.png","GuitarML creates open source plugins and pedals using DSP, PCB design, and machine learning for amp and pedal modelling.",null,"Huntsville, AL","https:\u002F\u002Fguitarml.com\u002F","https:\u002F\u002Fgithub.com\u002FGuitarML",[85,89,93,97,101],{"name":86,"color":87,"percentage":88},"C++","#f34b7d",78,{"name":90,"color":91,"percentage":92},"Shell","#89e051",8.4,{"name":94,"color":95,"percentage":96},"Inno Setup","#264b99",6.4,{"name":98,"color":99,"percentage":100},"CMake","#DA3434",5.8,{"name":102,"color":103,"percentage":104},"Batchfile","#C1F12E",1.4,1191,64,"2026-03-17T14:40:36","GPL-3.0",5,"Linux, macOS, Windows","不需要 GPU。推理引擎 (RTNeural) 针对 CPU 优化，设计用于在 Raspberry Pi 4 上运行。","未说明 (设计目标为在 Raspberry Pi 4 上运行，建议至少 2GB-4GB RAM)",{"notes":114,"python":115,"dependencies":116},"1. 主要硬件依赖：Raspberry Pi 4b 和 HiFiBerry DAC+ADC 扩展板。\n2. 部署系统：在树莓派上运行需刷入 Elk Audio OS。\n3. 模型限制：训练模型时必须使用大小为 20 的 LSTM，否则不兼容。\n4. 文件命名：JSON 模型文件名必须以大写字母开头，以确保 Linux (Elk OS) 与 Windows\u002FmacOS 之间的排序同步。\n5. 构建环境：在 Ubuntu 22.04 上构建需安装 libx11-dev, libxrandr-dev 等 X11 开发库。\n6. 音频电平警告：输出为线路电平 (Line Level)，不可直接连接期望乐器电平 (Instrument Level) 的传统吉他音箱输入端。","不需要 (核心插件为 C++ 编写；训练模型需参考外部项目 Automated-GuitarAmpModelling)",[117,118,119,120,121],"JUCE (音频框架)","RTNeural (神经网络推理引擎)","CMake (构建工具)","Elk Audio OS (用于 Raspberry Pi 部署)","nlohmann\u002Fjson (C++ JSON 库)",[21],"2026-03-27T02:49:30.150509","2026-04-09T00:48:29.445926",[126,131,136,141,146,151],{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},25417,"如何构建 LV2 插件版本？需要哪些依赖？","目前主分支支持使用 CMake 构建 LV2 版本。在 Ubuntu 上，你需要安装以下依赖：\n\n```\napt install cmake build-essential juce-tools\n```\n\n构建成功后会生成 `.lv2` 文件夹。注意构建时建议使用 `Release` 模式以避免 CPU 占用过高的问题。","https:\u002F\u002Fgithub.com\u002FGuitarML\u002FNeuralPi\u002Fissues\u002F2",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},25418,"如何在 Raspberry Pi 和外部设备之间同步模型文件？","项目已在 `osc-user-controls` 分支的 `scripts` 目录中提供了用于 Linux\u002FMac 和 Windows 的模型同步脚本。\n\n使用方法：\n1. 一次性配置脚本文件，填入 Raspberry Pi 的 IP 地址和相应的模型路径。\n2. 运行脚本即可在运行 GUI 的电脑和 Pi 之间同步模型。\n\n此外，用户也可以手动通过其他任何文件传输方式（如 SCP、SFTP 等）将模型文件传输到 Pi 的正确目录下，只要确保两端的模型列表按字母顺序排序一致即可。","https:\u002F\u002Fgithub.com\u002FGuitarML\u002FNeuralPi\u002Fissues\u002F3",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},25419,"是否已经添加了混响、延迟等时间基于的效果器？","是的，在 1.2 版本发布中，开发者已经使用 `juce::dsp` 模块添加了 IR（脉冲响应）、混响（Reverb）和延迟（Delay）效果器。原始需求已解决，无需额外寻找开源代码集成。","https:\u002F\u002Fgithub.com\u002FGuitarML\u002FNeuralPi\u002Fissues\u002F4",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},25420,"运行 Sushi 加载配置时报错 'Failed to load tracks from Json config file' 怎么办？","该错误通常是由于 JSON 配置文件不符合最新的 Schema 标准导致的（报错信息中常包含 'Schema validation failure'）。\n\n解决方案：\n请确保你使用的是最新版本的配置文件格式。维护者已修复此问题并更新了标准，请拉取最新代码或参考最新的配置示例重新生成你的 `config_neuralpi_fx.json` 文件。","https:\u002F\u002Fgithub.com\u002FGuitarML\u002FNeuralPi\u002Fissues\u002F36",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},25421,"如何在 MOD Duo 或其他非官方支持的宿主中运行 NeuralPi？","虽然直接在某些宿主（如 Guitarix 或旧版 mod-host）中可能会遇到崩溃或不显示插件的问题，但可以通过 `jalv` 运行。\n\n尝试使用以下命令加载：\n```bash\njalv.qt5 http:\u002F\u002Fguitarml.com\u002Fneuralpi\n```\n或者在支持 LV2 的宿主中指定 `jalv` 作为解释器。如果音色选择是通过文件路径控制的，请确保模型文件已放置在插件默认扫描的目录中。","https:\u002F\u002Fgithub.com\u002FGuitarML\u002FNeuralPi\u002Fissues\u002F33",{"id":152,"question_zh":153,"answer_zh":154,"source_url":145},25422,"如何在 Sushi 配置文件中设置多核处理？","在运行 Sushi 引擎时，可以通过命令行参数启用多核处理以提高性能。命令格式如下：\n\n```bash\nsushi -r --multicore-processing=2 -c ~\u002Fconfig_files\u002Fconfig_neuralpi_fx.json\n```\n\n其中 `--multicore-processing=2` 表示使用 2 个核心进行处理，你可以根据硬件情况调整数值。",[156,161,166,171],{"id":157,"version":158,"summary_zh":159,"released_at":160},162721,"v1.3.0","NeuralPi 1.3.0 版本发布\n\n新特性：\n\n- 新增了加载条件化模型的功能，除了快照模型之外。这些条件化模型假定是基于增益\u002F驱动参数进行条件化的。在使用 Windows\u002FMac 插件时，加载条件化模型后，增益旋钮会变为红色。\n\n- 将 TS9 和 Blues Jr. 的默认快照模型替换为条件化模型，并新增了 HT40 吉他放大器模型作为第三个默认模型。\n\n可用格式（来自安装程序）：\n- Windows 7 及以上版本，32 位或 64 位（独立版、VST3）\n- Mac OS 10.12 及以上版本（独立版、AU、VST3）\n- Elk Audio 操作系统（VST3）\n\n- 于 2022 年 2 月 2 日新增了 Linux deb 软件包（独立版、VST3、LV2）\n\n注意：NeuralPi-Elk-VST3.zip 包含交叉编译的 VST3 插件、模型更新脚本以及示例 Elk 配置文件。","2021-10-31T19:41:41",{"id":162,"version":163,"summary_zh":164,"released_at":165},162722,"v1.2.0","NeuralPi 1.2.0 版本发布\n\n新特性：\n\n- 新增 IR 加载功能\n- 新增延迟和混响效果\n- 更新脚本，除了模型之外，还支持将新的 IR 文件添加到树莓派中\n\n可用格式（来自安装程序）：\n- Windows 7 及以上版本，32 位或 64 位（独立版、VST3）\n- Mac OS 10.12 及以上版本（独立版、AU、VST3）\n- Elk Audio OS（VST3）\n\n注意：NeuralPi-Elk-VST3.zip 包含交叉编译的 VST3 插件、模型更新脚本以及示例 Elk 配置文件。\n\n版本更新（2021年10月11日）：修复了 update_models.sh 脚本，并新增了 Elk MIDI 配置文件。","2021-08-14T20:32:13",{"id":167,"version":168,"summary_zh":169,"released_at":170},162723,"v1.1.0","NeuralPi 1.1.0 版本发布\n\n新特性：\n- 更新了 Elk OS VST3 插件，支持通过 WiFi 进行控制\n- 通过 WiFi 实现模型选择、均衡器、增益\u002F音量控制，并更新了 GUI 界面\n- 提供 Mac 和 Windows 平台的安装程序\n- 集成 CMake 构建系统\n- 更新模型脚本，以便在树莓派上添加新模型\n\n可用格式（来自安装程序）：\n- Windows 7 及以上版本，32 位或 64 位（独立版、VST3）\n- Mac OS 10.11 及以上版本（独立版、AU、VST3）\n- Elk Audio OS（VST3）\n\n注意：NeuralPi-Elk-VST3.zip 包含交叉编译后的 VST3 插件、模型更新脚本以及示例 Elk 配置文件。\n\n更新（2021年7月14日）：新增 NeuralPi_3Dprinted_case.zip，内含 3 个 .stl 文件，可用于制作 NeuralPi 的 3D 打印外壳。","2021-06-21T01:25:42",{"id":172,"version":173,"summary_zh":174,"released_at":175},162724,"v1.0","该压缩文件包含针对搭载 Elk Audio 操作系统的树莓派 4 的交叉编译版 VST3 插件。此外，还包含两个用于在树莓派上运行该插件的配置文件：一个仅启用 NeuralPi，另一个同时启用 NeuralPi 和延迟\u002F混响效果。\n\nNeuralPi.vst3 必须复制到运行 Elk Audio 操作系统的树莓派上。通常的安装目录为 `\u002Fhome\u002Fmind\u002Fplugins`。\n\n配置文件也必须复制到运行 Elk Audio 操作系统的树莓派上。通常的安装目录为 `\u002Fhome\u002Fmind\u002Fconfig_files`。","2021-05-22T17:37:55"]