[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-jordipons--musicnn":3,"tool-jordipons--musicnn":65},[4,23,32,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},4128,"GPT-SoVITS","RVC-Boss\u002FGPT-SoVITS","GPT-SoVITS 是一款强大的开源语音合成与声音克隆工具，旨在让用户仅需极少量的音频数据即可训练出高质量的个性化语音模型。它核心解决了传统语音合成技术依赖海量录音数据、门槛高且成本大的痛点，实现了“零样本”和“少样本”的快速建模：用户只需提供 5 秒参考音频即可即时生成语音，或使用 1 分钟数据进行微调，从而获得高度逼真且相似度极佳的声音效果。\n\n该工具特别适合内容创作者、独立开发者、研究人员以及希望为角色配音的普通用户使用。其内置的友好 WebUI 界面集成了人声伴奏分离、自动数据集切片、中文语音识别及文本标注等辅助功能，极大地降低了数据准备和模型训练的技术门槛，让非专业人士也能轻松上手。\n\n在技术亮点方面，GPT-SoVITS 不仅支持中、英、日、韩、粤语等多语言跨语种合成，还具备卓越的推理速度，在主流显卡上可实现实时甚至超实时的生成效率。无论是需要快速制作视频配音，还是进行多语言语音交互研究，GPT-SoVITS 都能以极低的数据成本提供专业级的语音合成体验。",56375,3,"2026-04-05T22:15:46",[21],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},2863,"TTS","coqui-ai\u002FTTS","🐸TTS 是一款功能强大的深度学习文本转语音（Text-to-Speech）开源库，旨在将文字自然流畅地转化为逼真的人声。它解决了传统语音合成技术中声音机械生硬、多语言支持不足以及定制门槛高等痛点，让高质量的语音生成变得触手可及。\n\n无论是希望快速集成语音功能的开发者，还是致力于探索前沿算法的研究人员，亦或是需要定制专属声音的数据科学家，🐸TTS 都能提供得力支持。它不仅预置了覆盖全球 1100 多种语言的训练模型，让用户能够即刻上手，还提供了完善的工具链，支持用户利用自有数据训练新模型或对现有模型进行微调，轻松实现特定风格的声音克隆。\n\n在技术亮点方面，🐸TTS 表现卓越。其最新的 ⓍTTSv2 模型支持 16 种语言，并在整体性能上大幅提升，实现了低于 200 毫秒的超低延迟流式输出，极大提升了实时交互体验。此外，它还无缝集成了 🐶Bark、🐢Tortoise 等社区热门模型，并支持调用上千个 Fairseq 模型，展现了极强的兼容性与扩展性。配合丰富的数据集分析与整理工具，🐸TTS 已成为科研与生产环境中备受信赖的语音合成解决方案。",44971,"2026-04-03T14:47:02",[21,20,13],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":29,"last_commit_at":46,"category_tags":47,"status":22},2375,"LocalAI","mudler\u002FLocalAI","LocalAI 是一款开源的本地人工智能引擎，旨在让用户在任意硬件上轻松运行各类 AI 模型，包括大语言模型、图像生成、语音识别及视频处理等。它的核心优势在于彻底打破了高性能计算的门槛，无需昂贵的专用 GPU，仅凭普通 CPU 或常见的消费级显卡（如 NVIDIA、AMD、Intel 及 Apple Silicon）即可部署和运行复杂的 AI 任务。\n\n对于担心数据隐私的用户而言，LocalAI 提供了“隐私优先”的解决方案，确保所有数据处理均在本地基础设施内完成，无需上传至云端。同时，它完美兼容 OpenAI、Anthropic 等主流 API 接口，这意味着开发者可以无缝迁移现有应用，直接利用本地资源替代云服务，既降低了成本又提升了可控性。\n\nLocalAI 内置了超过 35 种后端支持（如 llama.cpp、vLLM、Whisper 等），并集成了自主 AI 代理、工具调用及检索增强生成（RAG）等高级功能，且具备多用户管理与权限控制能力。无论是希望保护敏感数据的企业开发者、进行算法实验的研究人员，还是想要在个人电脑上体验最新 AI 技术的极客玩家，都能通过 LocalAI 获",44782,"2026-04-02T22:14:26",[13,21,19,17,20,14,16],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":29,"last_commit_at":54,"category_tags":55,"status":22},3108,"bark","suno-ai\u002Fbark","Bark 是由 Suno 推出的开源生成式音频模型，能够根据文本提示创造出高度逼真的多语言语音、音乐、背景噪音及简单音效。与传统仅能朗读文字的语音合成工具不同，Bark 基于 Transformer 架构，不仅能模拟说话，还能生成笑声、叹息、哭泣等非语言声音，甚至能处理带有情感色彩和语气停顿的复杂文本，极大地丰富了音频表达的可能性。\n\n它主要解决了传统语音合成声音机械、缺乏情感以及无法生成非语音类音效的痛点，让创作者能通过简单的文字描述获得生动自然的音频素材。无论是需要为视频配音的内容创作者、探索多模态生成的研究人员，还是希望快速原型设计的开发者，都能从中受益。普通用户也可通过集成的演示页面轻松体验其神奇效果。\n\n技术亮点方面，Bark 支持商业使用（MIT 许可），并在近期更新中实现了显著的推理速度提升，同时提供了适配低显存 GPU 的版本，降低了使用门槛。此外，社区还建立了丰富的提示词库，帮助用户更好地驾驭模型生成特定风格的声音。只需几行 Python 代码，即可将创意文本转化为高质量音频，是连接文字与声音世界的强大桥梁。",39067,"2026-04-04T03:33:35",[21],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":62,"last_commit_at":63,"category_tags":64,"status":22},3788,"airi","moeru-ai\u002Fairi","airi 是一款开源的本地化 AI 伴侣项目，旨在将虚拟角色（如“二次元老婆”或赛博生命）带入用户的现实世界。它的核心目标是复刻并超越知名 AI 主播 Neuro-sama 的能力，让用户能够拥有完全自主掌控、可私有化部署的智能伙伴。\n\nairi 主要解决了用户对高度定制化、具备情感交互能力且数据隐私安全的 AI 角色的需求。不同于依赖云端服务的通用助手，airi 允许用户在本地运行，不仅保护了对话隐私，还赋予了用户定义角色性格与灵魂的自由。它支持实时语音聊天，甚至能直接参与《我的世界》（Minecraft）和《异星工厂》（Factorio）等游戏，实现了从单纯对话到共同娱乐的跨越。\n\n这款工具非常适合喜爱虚拟角色的普通用户、希望搭建个性化 AI 陪伴的技术爱好者，以及研究多模态交互的开发者。其独特的技术亮点在于跨平台支持（涵盖 Web、macOS 和 Windows）以及强大的游戏交互能力，让 AI 不仅能“说”，还能“玩”。通过容器化的灵魂设计，airi 为每个人创造专属数字生命提供了可能，让虚拟陪伴变得更加真实且触手可及。",37086,1,"2026-04-05T10:54:25",[19,21,17],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":77,"owner_company":77,"owner_location":79,"owner_email":77,"owner_twitter":77,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":62,"env_os":95,"env_gpu":95,"env_ram":95,"env_deps":96,"category_tags":99,"github_topics":77,"view_count":10,"oss_zip_url":77,"oss_zip_packed_at":77,"status":22,"created_at":100,"updated_at":101,"faqs":102,"releases":133},3985,"jordipons\u002Fmusicnn","musicnn","Pronounced as \"musician\", musicnn is a set of pre-trained deep convolutional neural networks for music audio tagging.","musicnn 是一款专为音乐音频标签化设计的开源深度学习工具，其名称发音同\"musician\"。它内置了多组经过预训练的卷积神经网络模型，能够自动分析音乐文件并识别出风格、乐器、节奏等关键特征。\n\n面对海量音乐数据难以人工分类的痛点，musicnn 提供了高效的自动化解决方案。用户只需输入音频文件，即可快速获取如“电子”、“吉他”、“快节奏”等描述性标签，甚至能生成随时间变化的“标签图”（Taggram），直观展示音乐特征的动态演变。这不仅大幅降低了音乐元数据整理的成本，也为音乐推荐系统和内容检索提供了可靠的技术支持。\n\n该工具特别适合开发者、数据科学家及音乐技术研究人员使用。无论是需要构建音乐分类应用的工程师，还是希望探索音频特征的研究者，都能通过简单的 Python 代码或命令行指令轻松调用。musicnn 的独特之处在于其“音乐动机驱动”的网络架构设计，相比通用图像模型，它能更敏锐地捕捉音乐特有的时序与频谱规律。此外，项目还附带了丰富的示例笔记和文档，帮助用户快速上手并深入理解模型运作机制。","# musicnn\nPronounced as \"musician\", `musicnn` is a set of pre-trained musically motivated convolutional neural networks for music audio tagging. This repository also includes some pre-trained [vgg-like](https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn\u002Fblob\u002Fmaster\u002Fvgg_example.ipynb) baselines.\n\nCheck the [documentation](https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn\u002Fblob\u002Fmaster\u002FDOCUMENTATION.md) and our [basic](https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn\u002Fblob\u002Fmaster\u002Ftagging_example.ipynb) \u002F [advanced](https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn\u002Fblob\u002Fmaster\u002Fmusicnn_example.ipynb) examples to understand how to use `musicnn`.\n\nDo you have questions? Check the [FAQs](https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn\u002Fblob\u002Fmaster\u002FFAQs.md).\n\n## Installation\n```pip install musicnn```\n\nor, to get bigger models and all the documentation (including jupyter notebooks), install from source:\n\n``` git clone https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn.git```\n\n``` python setup.py install```\n\n## Predict tags\n\nFrom within **python**, you can estimate the topN tags:\n~~~~python\nfrom musicnn.tagger import top_tags\ntop_tags('.\u002Faudio\u002Fjoram-moments_of_clarity-08-solipsism-59-88.mp3', model='MTT_musicnn', topN=10)\n~~~~\n>['techno', 'electronic', 'synth', 'fast', 'beat', 'drums', 'no vocals', 'no vocal', 'dance', 'ambient']\n\nLet's try another song!\n\n~~~~python\ntop_tags('.\u002Faudio\u002FTRWJAZW128F42760DD_test.mp3')\n~~~~\n>['guitar', 'piano', 'fast']\n\nFrom the **command-line**, you can also print the topN tags on the screen:\n\n~~~~\npython -m musicnn.tagger file_name.ogg --print\npython -m musicnn.tagger file_name.au --model 'MSD_musicnn' --topN 3 --length 3 --overlap 1.5 --print\n~~~~~\n\nor save to a file:\n\n~~~~\npython -m musicnn.tagger file_name.wav --save out.tags\npython -m musicnn.tagger file_name.mp3 --model 'MTT_musicnn' --topN 10 --length 3 --overlap 1 --print --save out.tags\n~~~~\n\n## Extract the Taggram\n\nYou can also compute the taggram using **python** (see our [basic](https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn\u002Fblob\u002Fmaster\u002Ftagging_example.ipynb) example for more details on how to depict it):\n\n~~~~python\nfrom musicnn.extractor import extractor\ntaggram, tags = extractor('.\u002Faudio\u002Fjoram-moments_of_clarity-08-solipsism-59-88.mp3', model='MTT_musicnn')\n~~~~\n![Taggram](.\u002Fimages\u002Ftaggram.png \"Taggram\")\n\nThe above analyzed music clips are included in the `.\u002Faudio\u002F` folder of this repository. \n\nYou can listen to those and evaluate `musicnn` yourself!\n","# musicnn\n发音为“musician”，`musicnn` 是一组经过预训练、基于音乐动机的卷积神经网络，用于音乐音频标签分类。该仓库还包含一些预训练的 [vgg-like](https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn\u002Fblob\u002Fmaster\u002Fvgg_example.ipynb) 基线模型。\n\n请查阅 [文档](https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn\u002Fblob\u002Fmaster\u002FDOCUMENTATION.md) 以及我们的 [基础](https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn\u002Fblob\u002Fmaster\u002Ftagging_example.ipynb) 和 [高级](https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn\u002Fblob\u002Fmaster\u002Fmusicnn_example.ipynb) 示例，以了解如何使用 `musicnn`。\n\n您有任何问题吗？请查看 [常见问题解答](https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn\u002Fblob\u002Fmaster\u002FFAQs.md)。\n\n## 安装\n```pip install musicnn```\n\n或者，如果您需要更大的模型和所有文档（包括 Jupyter 笔记本），可以从源代码安装：\n\n``` git clone https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn.git```\n\n``` python setup.py install```\n\n## 预测标签\n\n在 **Python** 中，您可以估计前 N 个标签：\n~~~~python\nfrom musicnn.tagger import top_tags\ntop_tags('.\u002Faudio\u002Fjoram-moments_of_clarity-08-solipsism-59-88.mp3', model='MTT_musicnn', topN=10)\n~~~~\n>['techno', 'electronic', 'synth', 'fast', 'beat', 'drums', 'no vocals', 'no vocal', 'dance', 'ambient']\n\n让我们再试一首歌！\n\n~~~~python\ntop_tags('.\u002Faudio\u002FTRWJAZW128F42760DD_test.mp3')\n~~~~\n>['guitar', 'piano', 'fast']\n\n在 **命令行** 中，您也可以将前 N 个标签打印到屏幕上：\n\n~~~~\npython -m musicnn.tagger file_name.ogg --print\npython -m musicnn.tagger file_name.au --model 'MSD_musicnn' --topN 3 --length 3 --overlap 1.5 --print\n~~~~~\n\n或者将其保存到文件中：\n\n~~~~\npython -m musicnn.tagger file_name.wav --save out.tags\npython -m musicnn.tagger file_name.mp3 --model 'MTT_musicnn' --topN 10 --length 3 --overlap 1 --print --save out.tags\n~~~~\n\n## 提取 Taggram\n\n您还可以使用 **Python** 计算 Taggram（有关如何绘制它的更多详细信息，请参阅我们的 [基础](https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn\u002Fblob\u002Fmaster\u002Ftagging_example.ipynb) 示例）：\n\n~~~~python\nfrom musicnn.extractor import extractor\ntaggram, tags = extractor('.\u002Faudio\u002Fjoram-moments_of_clarity-08-solipsism-59-88.mp3', model='MTT_musicnn')\n~~~~\n![Taggram](.\u002Fimages\u002Ftaggram.png \"Taggram\")\n\n上述分析的音乐片段已包含在此仓库的 `.\u002Faudio\u002F` 文件夹中。\n\n您可以亲自聆听这些音乐并评估 `musicnn` 的表现！","# musicnn 快速上手指南\n\n`musicnn` 是一套预训练的、受音乐启发的卷积神经网络，专为音乐音频标签（Audio Tagging）任务设计。它能自动识别音乐中的流派、乐器、节奏等特征。\n\n## 环境准备\n\n*   **操作系统**：Linux, macOS, Windows\n*   **Python 版本**：建议 Python 3.6 及以上\n*   **核心依赖**：安装过程会自动处理 `tensorflow` (或 `tensorflow-cpu`)、`librosa`、`numpy` 等依赖库。\n*   **音频文件**：支持常见格式（如 .mp3, .wav, .ogg, .au 等）。\n\n> **提示**：国内用户若遇到 pip 下载缓慢问题，建议使用清华或阿里镜像源加速安装。\n\n## 安装步骤\n\n### 方式一：通过 Pip 安装（推荐，适用于快速体验）\n\n直接使用 pip 安装基础包及预训练模型：\n\n```bash\npip install musicnn\n```\n\n**国内加速安装命令：**\n```bash\npip install musicnn -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 方式二：源码安装（适用于需要完整文档、示例笔记或更大模型）\n\n如果需要获取仓库中的 Jupyter Notebook 示例代码或更多模型资源，请从源码安装：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn.git\ncd musicnn\npython setup.py install\n```\n\n## 基本使用\n\n### 1. Python 脚本调用\n\n在 Python 环境中，只需几行代码即可获取音频文件的顶部标签（Top-N Tags）。\n\n**示例代码：**\n\n```python\nfrom musicnn.tagger import top_tags\n\n# 指定音频路径、模型名称和返回标签数量\ntags = top_tags('.\u002Faudio\u002Fjoram-moments_of_clarity-08-solipsism-59-88.mp3', model='MTT_musicnn', topN=10)\n\nprint(tags)\n```\n\n**输出示例：**\n```text\n['techno', 'electronic', 'synth', 'fast', 'beat', 'drums', 'no vocals', 'no vocal', 'dance', 'ambient']\n```\n\n*注：若不指定 `model` 参数，默认使用预训练模型；若不指定 `topN`，默认返回数量视模型而定。*\n\n### 2. 命令行工具调用\n\n无需编写代码，可直接在终端对音频文件进行分析。\n\n**打印标签到屏幕：**\n```bash\npython -m musicnn.tagger file_name.ogg --print\n```\n\n**自定义模型与参数并保存结果：**\n```bash\npython -m musicnn.tagger file_name.mp3 --model 'MTT_musicnn' --topN 10 --length 3 --overlap 1 --print --save out.tags\n```\n\n*   `--model`: 指定模型（如 'MTT_musicnn', 'MSD_musicnn'）\n*   `--topN`: 返回前 N 个标签\n*   `--length`: 分析的时间窗口长度（秒）\n*   `--overlap`: 窗口重叠时间（秒）\n*   `--save`: 将结果保存到文件","某独立音乐流媒体平台的内容运营团队正面临海量用户上传音频的标签缺失难题，急需自动化方案来完善曲库元数据。\n\n### 没有 musicnn 时\n- **人工标注效率极低**：面对每日数千首新上传的曲目，运营人员需逐首试听并手动填写风格、乐器等标签，耗时耗力且严重滞后。\n- **主观一致性差**：不同编辑对“电子”与“氛围音乐”的界定标准不一，导致曲库标签混乱，影响推荐算法的准确性。\n- **细粒度特征缺失**：人工难以精准捕捉歌曲中特定时间段出现的乐器（如某一段落的钢琴独奏），无法生成随时间变化的动态标签图谱。\n- **冷启动困难**：新上传的无元数据歌曲因缺乏标签而无法被归类，长期处于“不可见”状态，极大降低了内容分发效率。\n\n### 使用 musicnn 后\n- **批量自动化处理**：通过调用 `top_tags` 接口，系统可瞬间为成千上万首音频自动生成前 N 个高置信度标签（如\"techno\"、\"no vocals\"），实现秒级入库。\n- **标准化客观分类**：基于预训练的深度学习模型，musicnn 消除了人为判断偏差，确保全平台对音乐风格的定义高度统一。\n- **动态时序分析**：利用 `extractor` 功能生成的 Taggram，团队能清晰看到乐器和节奏随时间轴的分布变化，为精细化剪辑和片段推荐提供数据支撑。\n- **即时内容激活**：新歌曲上传即刻获得准确标签，立即进入推荐池，显著提升了长尾内容的曝光率和用户发现新歌的体验。\n\nmusicnn 将原本需要数周的人工听歌分类工作压缩至分钟级，用深度学习能力构建了标准化、动态化的音乐理解基石。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjordipons_musicnn_132a4e96.png","jordipons",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjordipons_a39c0cab.jpg","Barcelona","www.jordipons.me","https:\u002F\u002Fgithub.com\u002Fjordipons",[83,87],{"name":84,"color":85,"percentage":86},"Jupyter Notebook","#DA5B0B",95.8,{"name":88,"color":89,"percentage":90},"Python","#3572A5",4.2,689,100,"2026-04-03T18:16:33","ISC","未说明",{"notes":97,"python":95,"dependencies":98},"README 中未明确列出具体的操作系统、GPU、内存或 Python 版本要求。安装方式支持 pip 直接安装或通过源码安装（包含更大的模型和文档）。工具主要用于音乐音频标签分类，提供预训练模型（如 MTT_musicnn, MSD_musicnn），并支持命令行和 Python 脚本调用以提取标签或生成 Taggram。",[68],[21],"2026-03-27T02:49:30.150509","2026-04-06T07:16:17.072960",[103,108,113,118,123,128],{"id":104,"question_zh":105,"answer_zh":106,"source_url":107},18195,"能否训练模型来识别舞蹈类型（如华尔兹、桑巴等）？","可以。虽然预训练模型主要关注音乐流派，但利用现有工具完全可以训练识别舞蹈类型的模型。你需要：\n1. 使用包含舞蹈标签的数据集，例如 ExtendedBallroom 数据集。\n2. 使用 `musicnn-training` 仓库中的代码，针对该数据集重新训练 musicnn 模型即可实现。","https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn\u002Fissues\u002F1",{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},18191,"如何在 Windows 10 上安装并使用 musicnn？","在 Windows 10 上直接安装可能会遇到 TensorFlow 版本兼容性问题。推荐的解决方案有：\n1. 使用 WSL (Windows Subsystem for Linux) 或 Docker 容器（如 jupyter\u002Ftensorflow-notebook）运行，这是最稳定的方法。\n2. 如果必须在 Windows 原生环境运行，可以尝试修改 `setup.py` 中的依赖限制，将 numpy 版本约束改为 `numpy\u003C=1.17,>=1.14.5`，然后重新安装。\n3. 也可以参考社区 fork 版本（indietechteam\u002Fmusicnn），其中移除了一些导致冲突的限制。","https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn\u002Fissues\u002F21",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},18192,"如何将 MSD_musicnn 模型转换为 TensorFlow Lite (.tflite) 格式？","转换模型时如果遇到错误，关键步骤是将 `is_training` 占位符设置为 `False`。具体操作如下：\n1. 使用 `tf.compat.v1.saved_model.simple_save` 保存模型时，确保推理路径正确。\n2. 在执行转换命令 `tflite_convert` 之前，必须在代码中显式设定 `is_training=False`，这能解决大部分转换报错问题。\n3. 转换完成后，建议对比输出结果以验证 tflite 模型与原模型的一致性。","https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn\u002Fissues\u002F27",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},18193,"musicnn 是否支持节拍检测（Beat Detection）功能？","musicnn 主要用于音乐标签分类，不直接提供节拍检测功能。官方作者强烈推荐使用专门的 **madmom** 库来进行节拍位置检测。你可以访问 madmom 的文档获取相关模块的使用方法：https:\u002F\u002Fmadmom.readthedocs.io\u002Fen\u002Flatest\u002Fmodules\u002Ffeatures\u002Fbeats.html","https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn\u002Fissues\u002F7",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},18194,"MagnaTagATune (MTT) 数据集的训练\u002F验证\u002F测试划分标准是什么？","musicnn 使用的 MTT 数据划分与其他常见版本（如 Jongpil Lee 的版本）不同。具体的划分代码可以在 `musicnn-training` 仓库中找到，路径为：`aux\u002Fmtt\u002Fpartition_gt.py`（第 24 行附近）。作者在其 ISMIR 2018 论文的第 5.2 节中也详细说明了这一差异。原始音频和标签数据可从 MagnaTagATune 官网下载。","https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn\u002Fissues\u002F6",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},18196,"Essentia 框架中的 TensorflowPredictMusiCNN 模型与 pip 安装的 musicnn 模型架构是否一致？","关于 Essentia 框架中集成的模型细节及其与原始 musicnn 仓库的差异，建议直接咨询 Essentia 的开发团队（Pablo 和 Dmitry），因为他们负责维护 Essentia 端的模型实现和更新细节。","https:\u002F\u002Fgithub.com\u002Fjordipons\u002Fmusicnn\u002Fissues\u002F8",[]]