[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-salu133445--musegan":3,"tool-salu133445--musegan":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":10,"env_os":102,"env_gpu":103,"env_ram":104,"env_deps":105,"category_tags":114,"github_topics":115,"view_count":23,"oss_zip_url":121,"oss_zip_packed_at":121,"status":16,"created_at":122,"updated_at":123,"faqs":124,"releases":153},3653,"salu133445\u002Fmusegan","musegan","An AI for Music Generation","MuseGAN 是一款专注于多轨复调音乐生成的开源人工智能项目。它能够从零开始创作包含贝斯、鼓、吉他、钢琴和弦乐等多种乐器的流行乐句，也能根据用户提供的单一声部自动搭配伴奏，有效解决了传统算法难以协调多乐器时序关系与和谐度的难题。\n\n该项目基于 Lakh Pianoroll 数据集进行训练，其最新架构采用了独特的 3D 卷积层来处理音乐的时间结构。这种设计在显著减小模型体积的同时，依然保持了高质量的生成能力，是其在技术上的主要亮点。虽然相比早期版本在针对特定小节或轨道的精细控制上略有取舍，但换来了更高效的推理性能。\n\nMuseGAN 主要面向 AI 音乐研究人员、深度学习开发者以及希望探索算法作曲的音乐科技爱好者。使用者需要具备一定的编程基础，能够配置 Python 环境并运行命令行脚本，以便进行模型训练、推理实验或数据预处理。对于想要研究生成式对抗网络（GAN）在序列数据应用，或尝试构建自动伴奏系统的技术人员来说，MuseGAN 提供了一个成熟且可复现的优秀基准方案。","# MuseGAN\n\n[MuseGAN](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan\u002F) is a project on music\ngeneration. In a nutshell, we aim to generate polyphonic music of multiple\ntracks (instruments). The proposed models are able to generate music either from\nscratch, or by accompanying a track given a priori by the user.\n\nWe train the model with training data collected from\n[Lakh Pianoroll Dataset](https:\u002F\u002Fsalu133445.github.io\u002Flakh-pianoroll-dataset\u002F)\nto generate pop song phrases consisting of bass, drums, guitar, piano and\nstrings tracks.\n\nSample results are available\n[here](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan\u002Fresults).\n\n## Important Notes\n\n- The latest implementation is based on the network architectures presented in BinaryMuseGAN, where the temporal structure is handled by 3D convolutional layers. The advantage of this design is its smaller network size, while the disadvantage is its reduced controllability, e.g., capability of feeding different latent variables for different measures or tracks.\n- The original code we used for running the experiments in the paper can be found in the `v1` folder.\n- Looking for a PyTorch version? Check out [this repository](https:\u002F\u002Fgithub.com\u002Fsalu133445\u002Fismir2019tutorial).\n\n## Prerequisites\n\n> __Below we assume the working directory is the repository root.__\n\n### Install dependencies\n\n- Using pipenv (recommended)\n\n  > Make sure `pipenv` is installed. (If not, simply run `pip install pipenv`.)\n\n  ```sh\n  # Install the dependencies\n  pipenv install\n  # Activate the virtual environment\n  pipenv shell\n  ```\n\n- Using pip\n\n  ```sh\n  # Install the dependencies\n  pip install -r requirements.txt\n  ```\n\n### Prepare training data\n\n> The training data is collected from\n[Lakh Pianoroll Dataset](https:\u002F\u002Fsalu133445.github.io\u002Flakh-pianoroll-dataset\u002F)\n(LPD), a new multitrack pianoroll dataset.\n\n```sh\n# Download the training data\n.\u002Fscripts\u002Fdownload_data.sh\n# Store the training data to shared memory\n.\u002Fscripts\u002Fprocess_data.sh\n```\n\nYou can also download the training data manually\n([train_x_lpd_5_phr.npz](https:\u002F\u002Fucsdcloud-my.sharepoint.com\u002F:u:\u002Fg\u002Fpersonal\u002Fh3dong_ucsd_edu\u002FEZLHzG70AUlLrq3dOPLno3YBORq8ISaJf4UOCbdnKS_CgA?e=fxDPVK)).\n\n> As pianoroll matrices are generally sparse, we store only the indices of\nnonzero elements and the array shape into a npz file to save space, and later\nrestore the original array. To save some training data `data` into this format,\nsimply run\n`np.savez_compressed(\"data.npz\", shape=data.shape, nonzero=data.nonzero())`\n\n## Scripts\n\nWe provide several shell scripts for easy managing the experiments. (See\n[here](scripts\u002FREADME.md) for a detailed documentation.)\n\n> __Below we assume the working directory is the repository root.__\n\n### Train a new model\n\n1. Run the following command to set up a new experiment with default settings.\n\n   ```sh\n   # Set up a new experiment\n   .\u002Fscripts\u002Fsetup_exp.sh \".\u002Fexp\u002Fmy_experiment\u002F\" \"Some notes on my experiment\"\n   ```\n\n2. Modify the configuration and model parameter files for experimental settings.\n\n3. You can either train the model:\n\n     ```sh\n     # Train the model\n     .\u002Fscripts\u002Frun_train.sh \".\u002Fexp\u002Fmy_experiment\u002F\" \"0\"\n     ```\n\n   or run the experiment (training + inference + interpolation):\n\n     ```sh\n     # Run the experiment\n     .\u002Fscripts\u002Frun_exp.sh \".\u002Fexp\u002Fmy_experiment\u002F\" \"0\"\n     ```\n\n### Collect training data\n\nRun the following command to collect training data from MIDI files.\n\n  ```sh\n  # Collect training data\n  .\u002Fscripts\u002Fcollect_data.sh \".\u002Fmidi_dir\u002F\" \"data\u002Ftrain.npy\"\n  ```\n\n### Use pretrained models\n\n1. Download pretrained models\n\n   ```sh\n   # Download the pretrained models\n   .\u002Fscripts\u002Fdownload_models.sh\n   ```\n\n   You can also download the pretrained models manually\n   ([pretrained_models.tar.gz](https:\u002F\u002Fucsdcloud-my.sharepoint.com\u002F:u:\u002Fg\u002Fpersonal\u002Fh3dong_ucsd_edu\u002FEa2kDl2YokNIiZ_OXxzgclYBX0Tk-awE2kDlm2HO9ofqPg)).\n\n2. You can either perform inference from a trained model:\n\n   ```sh\n   # Run inference from a pretrained model\n   .\u002Fscripts\u002Frun_inference.sh \".\u002Fexp\u002Fdefault\u002F\" \"0\"\n   ```\n\n   or perform interpolation from a trained model:\n\n   ```sh\n   # Run interpolation from a pretrained model\n   .\u002Fscripts\u002Frun_interpolation.sh \".\u002Fexp\u002Fdefault\u002F\" \"0\"\n   ```\n\n## Outputs\n\nBy default, samples will be generated alongside the training. You can disable\nthis behavior by setting `save_samples_steps` to zero in the configuration file\n(`config.yaml`). The generated will be stored in the following three formats by\ndefault.\n\n- `.npy`: raw numpy arrays\n- `.png`: image files\n- `.npz`: multitrack pianoroll files that can be loaded by the\n  _[Pypianoroll](https:\u002F\u002Fsalu133445.github.io\u002Fpypianoroll\u002Findex.html)_\n  package\n\nYou can disable saving in a specific format by setting `save_array_samples`,\n`save_image_samples` and `save_pianoroll_samples` to `False`  in the\nconfiguration file.\n\nThe generated pianorolls are stored in .npz format to save space and processing\ntime. You can use the following code to write them into MIDI files.\n\n```python\nfrom pypianoroll import Multitrack\n\nm = Multitrack('.\u002Ftest.npz')\nm.write('.\u002Ftest.mid')\n```\n\n## Sample Results\n\nSome sample results can be found in `.\u002Fexp\u002F` directory. More samples can be\ndownloaded from the following links.\n\n- [`sample_results.tar.gz`](https:\u002F\u002Fucsdcloud-my.sharepoint.com\u002F:u:\u002Fg\u002Fpersonal\u002Fh3dong_ucsd_edu\u002FEedDKNyGHshHkIwBk_QghdYBrrzg-KOQFnj6zGLW3o-sOQ?e=ixlAwG) (54.7 MB):\n  sample inference and interpolation results\n- [`training_samples.tar.gz`](https:\u002F\u002Fucsdcloud-my.sharepoint.com\u002F:u:\u002Fg\u002Fpersonal\u002Fh3dong_ucsd_edu\u002FES96MN0l3xZLvJ3FW7TbV7IBFsFQY-IZhgf9IbRNyR9RIA?e=GpQv4o) (18.7 MB):\n  sample generated results at different steps\n\nCiting\n------\n\nPlease cite the following paper if you use the code provided in this repository.\n\nHao-Wen Dong\\*, Wen-Yi Hsiao\\*, Li-Chia Yang and Yi-Hsuan Yang, \"MuseGAN: Multi-track Sequential Generative Adversarial Networks for Symbolic\nMusic Generation and Accompaniment,\" _AAAI Conference on Artificial Intelligence (AAAI)_, 2018. (\\*equal contribution)\n\u003Cbr>\n[[homepage](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan)]\n[[arXiv](http:\u002F\u002Farxiv.org\u002Fabs\u002F1709.06298)]\n[[paper](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan\u002Fpdf\u002Fmusegan-aaai2018-paper.pdf)]\n[[slides](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan\u002Fpdf\u002Fmusegan-aaai2018-slides.pdf)]\n[[code](https:\u002F\u002Fgithub.com\u002Fsalu133445\u002Fmusegan)]\n\n## Papers\n\n__MuseGAN: Multi-track Sequential Generative Adversarial Networks for Symbolic Music Generation and Accompaniment__\u003Cbr>\nHao-Wen Dong\\*, Wen-Yi Hsiao\\*, Li-Chia Yang and Yi-Hsuan Yang (\\*equal contribution)\u003Cbr>\n_AAAI Conference on Artificial Intelligence (AAAI)_, 2018.\u003Cbr>\n[[homepage](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan)]\n[[arXiv](http:\u002F\u002Farxiv.org\u002Fabs\u002F1709.06298)]\n[[paper](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan\u002Fpdf\u002Fmusegan-aaai2018-paper.pdf)]\n[[slides](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan\u002Fpdf\u002Fmusegan-aaai2018-slides.pdf)]\n[[code](https:\u002F\u002Fgithub.com\u002Fsalu133445\u002Fmusegan)]\n\n__Convolutional Generative Adversarial Networks with Binary Neurons for Polyphonic Music Generation__\u003Cbr>\nHao-Wen Dong and Yi-Hsuan Yang\u003Cbr>\n_International Society for Music Information Retrieval Conference (ISMIR)_, 2018.\u003Cbr>\n[[homepage](https:\u002F\u002Fsalu133445.github.io\u002Fbmusegan)]\n[[video](https:\u002F\u002Fyoutu.be\u002Fr9C2Q2oR9Ik)]\n[[paper](https:\u002F\u002Fsalu133445.github.io\u002Fbmusegan\u002Fpdf\u002Fbmusegan-ismir2018-paper.pdf)]\n[[slides](https:\u002F\u002Fsalu133445.github.io\u002Fbmusegan\u002Fpdf\u002Fbmusegan-ismir2018-slides.pdf)]\n[[slides (long)](https:\u002F\u002Fsalu133445.github.io\u002Fbmusegan\u002Fpdf\u002Fbmusegan-tmac2018-slides.pdf)]\n[[poster](https:\u002F\u002Fsalu133445.github.io\u002Fbmusegan\u002Fpdf\u002Fbmusegan-ismir2018-poster.pdf)]\n[[arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.09399)]\n[[code](https:\u002F\u002Fgithub.com\u002Fsalu133445\u002Fbmusegan)]\n\n__MuseGAN: Demonstration of a Convolutional GAN Based Model for Generating Multi-track Piano-rolls__\u003Cbr>\nHao-Wen Dong\\*, Wen-Yi Hsiao\\*, Li-Chia Yang and Yi-Hsuan Yang (\\*equal contribution)\u003Cbr>\n_ISMIR Late-Breaking Demos_, 2017.\u003Cbr>\n[[paper](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan\u002Fpdf\u002Fmusegan-ismir2017-lbd-paper.pdf)]\n[[poster](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan\u002Fpdf\u002Fmusegan-ismir2017-lbd-poster.pdf)]\n","# MuseGAN\n\n[MuseGAN](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan\u002F) 是一个音乐生成项目。简而言之，我们的目标是生成多轨（乐器）的复调音乐。所提出的模型既可以从零开始生成音乐，也可以根据用户事先提供的某一条轨道进行伴奏生成。\n\n我们使用从 [Lakh Pianoroll 数据集](https:\u002F\u002Fsalu133445.github.io\u002Flakh-pianoroll-dataset\u002F) 收集的训练数据来训练模型，以生成包含贝斯、鼓、吉他、钢琴和弦乐等音轨的流行歌曲片段。\n\n示例结果可在 [这里](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan\u002Fresults) 查看。\n\n## 重要说明\n\n- 最新的实现基于 BinaryMuseGAN 中提出的网络架构，其中时间结构由三维卷积层处理。这种设计的优点是网络规模较小，但缺点是可控性降低，例如无法为不同的小节或音轨输入不同的潜在变量。\n- 我们在论文中用于运行实验的原始代码可以在 `v1` 文件夹中找到。\n- 寻找 PyTorch 版本？请查看 [这个仓库](https:\u002F\u002Fgithub.com\u002Fsalu133445\u002Fismir2019tutorial)。\n\n## 先决条件\n\n> __以下假设工作目录为仓库根目录。__\n\n### 安装依赖\n\n- 使用 pipenv（推荐）\n\n  > 确保已安装 `pipenv`。（若未安装，只需运行 `pip install pipenv`。）\n\n  ```sh\n  # 安装依赖\n  pipenv install\n  # 激活虚拟环境\n  pipenv shell\n  ```\n\n- 使用 pip\n\n  ```sh\n  # 安装依赖\n  pip install -r requirements.txt\n  ```\n\n### 准备训练数据\n\n> 训练数据收集自 [Lakh Pianoroll 数据集](https:\u002F\u002Fsalu133445.github.io\u002Flakh-pianoroll-dataset\u002F) (LPD)，这是一个新的多轨钢琴卷帘数据集。\n\n```sh\n# 下载训练数据\n.\u002Fscripts\u002Fdownload_data.sh\n# 将训练数据存储到共享内存\n.\u002Fscripts\u002Fprocess_data.sh\n```\n\n你也可以手动下载训练数据（[train_x_lpd_5_phr.npz](https:\u002F\u002Fucsdcloud-my.sharepoint.com\u002F:u:\u002Fg\u002Fpersonal\u002Fh3dong_ucsd_edu\u002FEZLHzG70AUlLrq3dOPLno3YBORq8ISaJf4UOCbdnKS_CgA?e=fxDPVK)）。\n\n> 由于钢琴卷帘矩阵通常是稀疏的，我们只将非零元素的索引和数组形状存储到 npz 文件中以节省空间，随后再还原原始数组。要将部分训练数据 `data` 存储为此格式，只需运行\n`np.savez_compressed(\"data.npz\", shape=data.shape, nonzero=data.nonzero())`\n\n## 脚本\n\n我们提供了一些 Shell 脚本，以便于管理实验。（详细文档请参见 [这里](scripts\u002FREADME.md)。）\n\n> __以下假设工作目录为仓库根目录。__\n\n### 训练新模型\n\n1. 运行以下命令以使用默认设置设置一个新的实验。\n\n   ```sh\n   # 设置新实验\n   .\u002Fscripts\u002Fsetup_exp.sh \".\u002Fexp\u002Fmy_experiment\u002F\" \"关于我实验的一些说明\"\n   ```\n\n2. 根据实验设置修改配置文件和模型参数文件。\n\n3. 你可以选择训练模型：\n\n     ```sh\n     # 训练模型\n     .\u002Fscripts\u002Frun_train.sh \".\u002Fexp\u002Fmy_experiment\u002F\" \"0\"\n     ```\n\n   或者运行整个实验（训练 + 推理 + 插值）：\n\n     ```sh\n     # 运行实验\n     .\u002Fscripts\u002Frun_exp.sh \".\u002Fexp\u002Fmy_experiment\u002F\" \"0\"\n     ```\n\n### 收集训练数据\n\n运行以下命令以从 MIDI 文件中收集训练数据。\n\n  ```sh\n  # 收集训练数据\n  .\u002Fscripts\u002Fcollect_data.sh \".\u002Fmidi_dir\u002F\" \"data\u002Ftrain.npy\"\n  ```\n\n### 使用预训练模型\n\n1. 下载预训练模型\n\n   ```sh\n   # 下载预训练模型\n   .\u002Fscripts\u002Fdownload_models.sh\n   ```\n\n   你也可以手动下载预训练模型（[pretrained_models.tar.gz](https:\u002F\u002Fucsdcloud-my.sharepoint.com\u002F:u:\u002Fg\u002Fpersonal\u002Fh3dong_ucsd_edu\u002FEa2kDl2YokNIiZ_OXxzgclYBX0Tk-awE2kDlm2HO9ofqPg)）。\n\n2. 你可以从预训练模型中进行推理：\n\n   ```sh\n   # 从预训练模型中进行推理\n   .\u002Fscripts\u002Frun_inference.sh \".\u002Fexp\u002Fdefault\u002F\" \"0\"\n   ```\n\n   或者从预训练模型中进行插值：\n\n   ```sh\n   # 从预训练模型中进行插值\n   .\u002Fscripts\u002Frun_interpolation.sh \".\u002Fexp\u002Fdefault\u002F\" \"0\"\n   ```\n\n## 输出\n\n默认情况下，样本会在训练过程中同时生成。你可以通过将配置文件 (`config.yaml`) 中的 `save_samples_steps` 设置为零来禁用此行为。生成的样本默认会以以下三种格式存储：\n\n- `.npy`: 原始 NumPy 数组\n- `.png`: 图像文件\n- `.npz`: 多轨钢琴卷帘文件，可由 _[Pypianoroll](https:\u002F\u002Fsalu133445.github.io\u002Fpypianoroll\u002Findex.html)_ 包加载\n\n你可以通过将配置文件中的 `save_array_samples`、`save_image_samples` 和 `save_pianoroll_samples` 设置为 `False` 来禁用特定格式的保存。\n\n生成的钢琴卷帘以 .npz 格式存储，以节省空间和处理时间。你可以使用以下代码将其写入 MIDI 文件。\n\n```python\nfrom pypianoroll import Multitrack\n\nm = Multitrack('.\u002Ftest.npz')\nm.write('.\u002Ftest.mid')\n```\n\n## 示例结果\n\n一些示例结果可在 `.\u002Fexp\u002F` 目录中找到。更多样本可以从以下链接下载。\n\n- [`sample_results.tar.gz`](https:\u002F\u002Fucsdcloud-my.sharepoint.com\u002F:u:\u002Fg\u002Fpersonal\u002Fh3dong_ucsd_edu\u002FEedDKNyGHshHkIwBk_QghdYBrrzg-KOQFnj6zGLW3o-sOQ?e=ixlAwG)（54.7 MB）：示例推理和插值结果\n- [`training_samples.tar.gz`](https:\u002F\u002Fucsdcloud-my.sharepoint.com\u002F:u:\u002Fg\u002Fpersonal\u002Fh3dong_ucsd_edu\u002FES96MN0l3xZLvJ3FW7TbV7IBFsFQY-IZhgf9IbRNyR9RIA?e=GpQv4o)（18.7 MB）：不同训练步骤下的生成样本\n\n引用\n------\n\n如果你使用本仓库提供的代码，请引用以下论文。\n\nHao-Wen Dong\\*, Wen-Yi Hsiao\\*, Li-Chia Yang 和 Yi-Hsuan Yang，“MuseGAN：用于符号化音乐生成与伴奏的多轨序列生成对抗网络”，_AAAI 人工智能会议 (AAAI)_，2018 年。（\\*贡献相等）\n\u003Cbr>\n[[主页](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan)]\n[[arXiv](http:\u002F\u002Farxiv.org\u002Fabs\u002F1709.06298)]\n[[论文](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan\u002Fpdf\u002Fmusegan-aaai2018-paper.pdf)]\n[[幻灯片](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan\u002Fpdf\u002Fmusegan-aaai2018-slides.pdf)]\n[[代码](https:\u002F\u002Fgithub.com\u002Fsalu133445\u002Fmusegan)]\n\n## 论文\n\n__MuseGAN：用于符号化音乐生成与伴奏的多轨序列生成对抗网络__\u003Cbr>\n董浩文\\*、萧文怡\\*、杨丽嘉和杨毅轩（\\*为共同第一作者）\u003Cbr>\n_AAAI人工智能会议 (AAAI)_，2018年。\u003Cbr>\n[[主页](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan)]\n[[arXiv](http:\u002F\u002Farxiv.org\u002Fabs\u002F1709.06298)]\n[[论文](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan\u002Fpdf\u002Fmusegan-aaai2018-paper.pdf)]\n[[演示文稿](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan\u002Fpdf\u002Fmusegan-aaai2018-slides.pdf)]\n[[代码](https:\u002F\u002Fgithub.com\u002Fsalu133445\u002Fmusegan)]\n\n__基于二值神经元的卷积生成对抗网络用于复调音乐生成__\u003Cbr>\n董浩文和杨毅轩\u003Cbr>\n_国际音乐信息检索学会会议 (ISMIR)_，2018年。\u003Cbr>\n[[主页](https:\u002F\u002Fsalu133445.github.io\u002Fbmusegan)]\n[[视频](https:\u002F\u002Fyoutu.be\u002Fr9C2Q2oR9Ik)]\n[[论文](https:\u002F\u002Fsalu133445.github.io\u002Fbmusegan\u002Fpdf\u002Fbmusegan-ismir2018-paper.pdf)]\n[[演示文稿](https:\u002F\u002Fsalu133445.github.io\u002Fbmusegan\u002Fpdf\u002Fbmusegan-ismir2018-slides.pdf)]\n[[长版演示文稿](https:\u002F\u002Fsalu133445.github.io\u002Fbmusegan\u002Fpdf\u002Fbmusegan-tmac2018-slides.pdf)]\n[[海报](https:\u002F\u002Fsalu133445.github.io\u002Fbmusegan\u002Fpdf\u002Fbmusegan-ismir2018-poster.pdf)]\n[[arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.09399)]\n[[代码](https:\u002F\u002Fgithub.com\u002Fsalu133445\u002Fbmusegan)]\n\n__MuseGAN：基于卷积GAN的多轨钢琴卷帘谱生成模型演示__\u003Cbr>\n董浩文\\*、萧文怡\\*、杨丽嘉和杨毅轩（\\*为共同第一作者）\u003Cbr>\n_ISMIR最新成果演示_，2017年。\u003Cbr>\n[[论文](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan\u002Fpdf\u002Fmusegan-ismir2017-lbd-paper.pdf)]\n[[海报](https:\u002F\u002Fsalu133445.github.io\u002Fmusegan\u002Fpdf\u002Fmusegan-ismir2017-lbd-poster.pdf)]","# MuseGAN 快速上手指南\n\nMuseGAN 是一个用于生成多轨复调音乐（如流行乐句）的开源项目。它支持从零生成音乐，或根据用户提供的单轨旋律进行伴奏生成。本项目基于 Lakh Pianoroll 数据集训练，可生成包含贝斯、鼓、吉他、钢琴和弦乐的五轨音乐。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux 或 macOS (Windows 需使用 WSL)\n- **Python**: 推荐 Python 3.6+\n- **内存**: 建议 8GB 以上（处理大型数据集时）\n- **存储**: 预留至少 10GB 空间用于存放数据集和模型\n\n### 前置依赖\n- `pip` 或 `pipenv` (推荐)\n- `git`\n- `bash` shell 环境\n\n> **注意**：最新实现基于 BinaryMuseGAN 架构，使用 3D 卷积层处理时间结构，网络更小但可控性略低。如需复现论文原始实验，请使用 `v1` 文件夹代码；若需要 PyTorch 版本，请参考 [ISMIR2019 教程仓库](https:\u002F\u002Fgithub.com\u002Fsalu133445\u002Fismir2019tutorial)。\n\n## 安装步骤\n\n### 1. 克隆仓库\n```sh\ngit clone https:\u002F\u002Fgithub.com\u002Fsalu133445\u002Fmusegan.git\ncd musegan\n```\n\n### 2. 安装依赖\n推荐使用 `pipenv` 管理虚拟环境：\n\n```sh\n# 安装 pipenv (如果未安装)\npip install pipenv\n\n# 安装项目依赖\npipenv install\n\n# 激活虚拟环境\npipenv shell\n```\n\n或者使用 `pip` 直接安装：\n```sh\npip install -r requirements.txt\n```\n\n### 3. 准备训练数据\n项目默认从 Lakh Pianoroll Dataset (LPD) 获取数据。运行以下脚本自动下载并处理数据（存储至共享内存以加速读取）：\n\n```sh\n# 下载训练数据\n.\u002Fscripts\u002Fdownload_data.sh\n\n# 处理数据并存入共享内存\n.\u002Fscripts\u002Fprocess_data.sh\n```\n\n> **手动下载备选**：如果自动下载失败，可手动下载 [train_x_lpd_5_phr.npz](https:\u002F\u002Fucsdcloud-my.sharepoint.com\u002F:u:\u002Fg\u002Fpersonal\u002Fh3dong_ucsd_edu\u002FEZLHzG70AUlLrq3dOPLno3YBORq8ISaJf4UOCbdnKS_CgA?e=fxDPVK) 并放置于相应目录。\n\n## 基本使用\n\n### 方案 A：直接使用预训练模型（推荐新手）\n\n如果你只想快速生成音乐样本，无需重新训练，可直接下载预训练模型。\n\n1. **下载预训练模型**\n   ```sh\n   .\u002Fscripts\u002Fdownload_models.sh\n   ```\n   > **手动下载备选**：[pretrained_models.tar.gz](https:\u002F\u002Fucsdcloud-my.sharepoint.com\u002F:u:\u002Fg\u002Fpersonal\u002Fh3dong_ucsd_edu\u002FEa2kDl2YokNIiZ_OXxzgclYBX0Tk-awE2kDlm2HO9ofqPg)\n\n2. **执行推理生成音乐**\n   ```sh\n   # 从预训练模型生成样本\n   .\u002Fscripts\u002Frun_inference.sh \".\u002Fexp\u002Fdefault\u002F\" \"0\"\n   ```\n\n3. **执行插值生成（探索潜在空间）**\n   ```sh\n   # 执行潜变量插值\n   .\u002Fscripts\u002Frun_interpolation.sh \".\u002Fexp\u002Fdefault\u002F\" \"0\"\n   ```\n\n### 方案 B：从头训练新模型\n\n如果你希望使用自定义数据或调整架构进行训练：\n\n1. **初始化实验配置**\n   ```sh\n   # 创建名为 my_experiment 的新实验目录\n   .\u002Fscripts\u002Fsetup_exp.sh \".\u002Fexp\u002Fmy_experiment\u002F\" \"我的实验备注\"\n   ```\n\n2. **修改配置**\n   编辑 `.\u002Fexp\u002Fmy_experiment\u002F` 下的配置文件（如 `config.yaml`），调整超参数或模型设置。\n\n3. **开始训练**\n   ```sh\n   # 仅训练模型\n   .\u002Fscripts\u002Frun_train.sh \".\u002Fexp\u002Fmy_experiment\u002F\" \"0\"\n   \n   # 或者：运行完整流程（训练 + 推理 + 插值）\n   .\u002Fscripts\u002Frun_exp.sh \".\u002Fexp\u002Fmy_experiment\u002F\" \"0\"\n   ```\n\n### 自定义数据采集（可选）\n如果你有本地的 MIDI 文件想作为训练数据：\n```sh\n# 从指定目录收集 MIDI 数据并转换为 numpy 格式\n.\u002Fscripts\u002Fcollect_data.sh \".\u002Fmidi_dir\u002F\" \"data\u002Ftrain.npy\"\n```\n\n## 输出结果说明\n\n默认情况下，生成的样本会保存在实验目录（如 `.\u002Fexp\u002Fmy_experiment\u002F`）中，包含三种格式：\n- `.npy`: 原始 NumPy 数组\n- `.png`: 钢琴卷帘可视化图片\n- `.npz`: 多轨钢琴卷帘数据（可由 `pypianoroll` 库加载）\n\n### 转换为 MIDI 文件\n生成的 `.npz` 文件体积较小，可使用以下 Python 代码将其转换为标准的 MIDI 文件以便播放：\n\n```python\nfrom pypianoroll import Multitrack\n\n# 加载生成的 npz 文件\nm = Multitrack('.\u002Ftest.npz')\n# 写入为 MIDI 文件\nm.write('.\u002Ftest.mid')\n```\n\n> **提示**：若不想在训练过程中自动生成样本，可在 `config.yaml` 中将 `save_samples_steps` 设为 `0`。","一位独立游戏开发者正在为一款复古风格的 RPG 游戏制作背景音乐，需要大量不同乐器编排的短旋律片段来匹配多样化的战斗场景。\n\n### 没有 musegan 时\n- 开发者必须手动编写或购买昂贵的版权音乐素材，难以快速生成符合特定“贝斯 + 鼓 + 吉他 + 钢琴 + 弦乐”五轨编制的需求。\n- 若想让 AI 伴随一段已有的主旋律生成伴奏，传统工具往往无法理解多轨道间的和声逻辑，导致生成的伴奏与主旋律冲突。\n- 调整音乐风格或长度需要重新录制或大幅修改工程文件，迭代成本极高，严重拖慢开发进度。\n- 缺乏能够直接从零生成完整复调音乐（Polyphonic Music）的开源方案，只能依赖单一音轨生成的简单模型。\n\n### 使用 musegan 后\n- 利用 Lakh Pianoroll Dataset 训练的模型，可直接从零生成包含五种乐器的完整流行乐句，瞬间丰富游戏曲库。\n- 通过“伴随模式”输入玩家自定义的主旋律轨道，musegan 能自动推导并生成和谐的多轨伴奏，确保音乐整体性。\n- 开发者只需调整潜在变量或运行插值脚本，即可在几秒钟内获得风格微调或长度变化的新变体，实现高效迭代。\n- 基于 3D 卷积的二元架构在保证生成质量的同时大幅减小了模型体积，便于在资源有限的开发环境中部署和实验。\n\nmusegan 将原本耗时数天的多轨配乐创作过程缩短至分钟级，让独立开发者也能拥有专业级的动态音乐生成能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsalu133445_musegan_712b8bcb.png","salu133445","Hao-Wen (Herman) Dong 董皓文","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsalu133445_584beb31.jpg","Assistant Professor at University of Michigan | PhD from UC San Diego | Augmenting Human Creativity with AI | Gen AI for Music, Audio & Video","University of Michigan","USA\u002FTaiwan","salu.hwdong@gmail.com","hermanhwdong","https:\u002F\u002Fhermandong.com","https:\u002F\u002Fgithub.com\u002Fsalu133445",[86,90,94],{"name":87,"color":88,"percentage":89},"Python","#3572A5",73.4,{"name":91,"color":92,"percentage":93},"MATLAB","#e16737",24.7,{"name":95,"color":96,"percentage":97},"Shell","#89e051",1.8,2017,394,"2026-04-01T19:54:21","MIT","Linux, macOS","未说明（基于 TensorFlow 的 GAN 模型通常建议使用 NVIDIA GPU 加速训练，但 README 未明确指定型号或显存要求）","未说明（处理多轨钢琴卷帘数据及共享内存存储可能需较大内存，建议 16GB+）",{"notes":106,"python":107,"dependencies":108},"1. 推荐使用 pipenv 管理依赖环境。2. 训练数据来自 Lakh Pianoroll Dataset，需运行脚本下载并处理至共享内存以节省空间。3. 生成结果默认为 .npy, .png, .npz 格式，需使用 pypianoroll 库将 .npz 转换为 MIDI 文件。4. 最新实现基于 BinaryMuseGAN 架构（使用 3D 卷积），若需复现论文原始实验请使用 v1 文件夹代码。5. 提供 PyTorch 版本的教程链接，但本仓库主要为 TensorFlow 实现。","未说明（通过 pipenv 或 requirements.txt 管理，通常兼容 Python 3.6-3.8）",[109,110,111,112,113],"tensorflow","pypianoroll","numpy","mido","matplotlib",[13,55,14],[116,117,118,109,119,120],"music","music-generation","machine-learning","generative-adversarial-network","gan",null,"2026-03-27T02:49:30.150509","2026-04-06T07:14:23.989733",[125,130,135,140,144,149],{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},16741,"如何将 MIDI 文件转换为 MuseGAN 所需的 NPZ 格式？","你需要将 MIDI 文件处理成形状为 `(?, 4 * BEAT_RESOLUTION, 84, N_TRACKS)` 的张量。可以使用 `pypianoroll.Multitrack.merge_tracks()` 方法辅助处理。此外，可以参考 LPD-5 和 LPD-17 数据集的构建脚本（merger_5.py 和 merger_17.py）来了解具体的数据处理流程。社区用户也开发了一个专门的钢琴卷帘数据集生成包可供参考。","https:\u002F\u002Fgithub.com\u002Fsalu133445\u002Fmusegan\u002Fissues\u002F51",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},16742,"遇到 'No module named SharedArray' 错误该如何解决？","SharedArray 仅在配置文件中的 `data_source` 设置为 `sa` 时才会被动态导入。如果你不想使用它，有两种解决方法：\n1. 修改默认配置文件 `src\u002Fmusegan\u002Fdefault_config.yaml`，将 `data_source` 的值改为 `npy` 或 `npz`（取决于你硬盘上存储钢琴卷帘数据的格式）。\n2. 在运行 `setup_exp.sh` 创建实验后，修改该实验文件夹下的 `config.yaml` 文件。\n不需要重构源代码或删除 SharedArray 的相关引用，只需更改配置即可避免加载该模块。","https:\u002F\u002Fgithub.com\u002Fsalu133445\u002Fmusegan\u002Fissues\u002F14",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},16743,"如何生成更长时间（如 8 小节或 3-4 分钟）的音乐？","当前的卷积 GAN 模型架构只能处理固定长度的样本，默认通常支持 4 小节或 8 小节。若要生成 8 小节的样本，仅修改参数中的 `data_shape` 是不够的，你必须同时修改网络架构以适配新的时间维度。对于生成 3-4 分钟的长音乐，由于模型限制，通常需要生成多个片段后进行拼接，或者修改模型架构以支持更长的序列，但这超出了默认代码的范围。","https:\u002F\u002Fgithub.com\u002Fsalu133445\u002Fmusegan\u002Fissues\u002F110",{"id":141,"question_zh":142,"answer_zh":143,"source_url":139},16744,"生成的音乐样本之间存在静音间隔，如何去除？","如果生成的每个样本之间出现空拍或静音（例如每 4 个小节样本前有一个空拍），你需要修改源码中的 `src\u002Fmusegan\u002Fio_utils.py` 文件。具体需要调整第 253 行附近的逻辑，以改变样本拼接或保存时的行为，从而消除不必要的静音间隔。",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},16745,"如何使用单轨 MIDI 文件训练模型？","MuseGAN 期望输入的张量形状通常为 `(batch_size, time_steps, pitch_bins, n_tracks)`。如果使用单轨 MIDI 训练，需确保数据预处理后将单轨数据扩展或调整为符合模型输入的维度（例如最后一个维度为 1 或根据配置的轨道数进行填充）。如果在训练时报错，建议检查运行时张量 `x` 的实际形状（可通过在 `src\u002Fmusegan\u002Fmodel.py` 中添加打印语句调试），确保其与配置中的 `data_shape` 一致。","https:\u002F\u002Fgithub.com\u002Fsalu133445\u002Fmusegan\u002Fissues\u002F53",{"id":150,"question_zh":151,"answer_zh":152,"source_url":129},16746,"如何在配置中固定使用的乐器轨道数量？","在使用 `pypianoroll` 处理数据时，可以通过定义乐器家族名称（family_name）和对应的阈值（family_thres）来筛选和合并轨道。例如，定义 drum, bass, guitar 等家族及其音符密度阈值，利用 `Multitrack` 类的方法将原始 MIDI 中的多轨道合并为指定数量的目标轨道，从而固定输入模型的轨道数（N_TRACKS）。",[]]