[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-jisungk--deepjazz":3,"tool-jisungk--deepjazz":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150720,2,"2026-04-11T11:33:10",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":76,"owner_twitter":76,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":89,"env_os":90,"env_gpu":91,"env_ram":92,"env_deps":93,"category_tags":99,"github_topics":101,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":111,"updated_at":112,"faqs":113,"releases":143},6687,"jisungk\u002Fdeepjazz","deepjazz","Deep learning driven jazz generation using Keras & Theano!","deepjazz 是一个利用深度学习技术自动生成爵士乐旋律的开源项目。它旨在探索人工智能在艺术创作领域的潜力，解决如何让机器理解并复现人类音乐中复杂情感与即兴风格的问题。通过读取现有的 MIDI 文件作为学习素材，deepjazz 能够构建出全新的、具有爵士风味的乐曲，尝试跨越技术与人文的界限。\n\n该项目基于 Keras 和 Theano 两大深度学习框架搭建，其核心技术亮点在于使用了双层长短期记忆网络（LSTM）。这种架构特别擅长处理序列数据，使模型能够有效捕捉音乐中的时间依赖关系和旋律走向。尽管作者已注明该项目目前不再积极维护，但它依然为音乐生成研究提供了宝贵的早期实践参考。\n\ndeepjazz 主要适合对人工智能、深度学习感兴趣的开发者及研究人员使用。由于运行和配置需要一定的编程基础（如修改预处理脚本以适配不同 MIDI 文件），它可能不太适合毫无技术背景的普通用户直接操作。对于想要研究如何用 AI 进行创意内容生成，或希望在此基础上进行二次开发的技术爱好者来说，deepjazz 是一个极具启发性的入门案例。","Note: deepjazz is no longer being actively developed. It may be refactored at some point in the future. Goodbye and thank you for your interest 😢\n\n***\n\n![deepjazz](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjisungk_deepjazz_readme_27760accbd21.png)\n\n### Using Keras & Theano for deep learning driven jazz generation\n\nI built [*deepjazz*](https:\u002F\u002Fdeepjazz.io) in 36 hours at a hackathon. It uses Keras & Theano, two deep learning libraries, to generate jazz music. Specifically, it builds a two-layer [LSTM](http:\u002F\u002Fdeeplearning.net\u002Ftutorial\u002Flstm.html), learning from the given MIDI file. It uses deep learning, the AI tech that powers [Google's AlphaGo](https:\u002F\u002Fdeepmind.com\u002Falpha-go.html) and [IBM's Watson](https:\u002F\u002Fwww.ibm.com\u002Fsmarterplanet\u002Fus\u002Fen\u002Fibmwatson\u002Fwhat-is-watson.html), **to make music -- something that's considered as deeply human**.\n\n[![SoundCloud](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjisungk_deepjazz_readme_64a9b9571627.png)](https:\u002F\u002Fsoundcloud.com\u002Fdeepjazz-ai)  \nCheck out deepjazz's music on **[SoundCloud](https:\u002F\u002Fsoundcloud.com\u002Fdeepjazz-ai)**!\n\n### Dependencies\n\n* [Keras](http:\u002F\u002Fkeras.io\u002F#installation)\n* [Theano](http:\u002F\u002Fdeeplearning.net\u002Fsoftware\u002Ftheano\u002Finstall.html#bleeding-edge-install-instructions) (\"bleeding-edge\" version on GitHub)\n* [music21](http:\u002F\u002Fweb.mit.edu\u002Fmusic21\u002Fdoc\u002Finstalling\u002Findex.html)\n\n### Instructions\n\nRun on CPU with command:  \n```\npython generator.py [# of epochs]\n```\n\nRun on GPU with command:  \n```\nTHEANO_FLAGS=mode=FAST_RUN,device=gpu,floatX=float32 python generator.py [# of epochs]\n```\n\nNote: running Keras\u002FTheano on GPU is formally supported for only NVIDIA cards (CUDA backend).\n\nNote: `preprocess.py` must be modified to work with other MIDI files (the relevant \"melody\" MIDI part needs to be selected). The ability to handle this natively is a planned feature.\n\n### Author\n\n[Ji-Sung Kim](https:\u002F\u002Fjisungkim.com)  \nPrinceton University, Department of Computer Science  \nhello (at) jisungkim.com  \n\n### Citations\n\nThis project develops a lot of preprocessing code (with permission) from Evan Chow's [jazzml](https:\u002F\u002Fgithub.com\u002Fevancchow\u002Fjazzml). Thank you [Evan](https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fevancchow)! Public examples from the [Keras documentation](https:\u002F\u002Fgithub.com\u002Ffchollet\u002Fkeras) were also referenced.\n\n### Code License, Media Copyright\n\nCode is licensed under the Apache License 2.0  \nImages and other media are copyrighted (Ji-Sung Kim)\n","注意：deepjazz 已不再积极开发。未来可能会进行重构。再见，并感谢您的关注 😢\n\n***\n\n![deepjazz](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjisungk_deepjazz_readme_27760accbd21.png)\n\n### 使用 Keras 和 Theano 进行深度学习驱动的爵士乐生成\n\n我在一次黑客马拉松中用 36 小时构建了 [*deepjazz*](https:\u002F\u002Fdeepjazz.io)。它利用 Keras 和 Theano 这两个深度学习框架来生成爵士音乐。具体来说，它构建了一个两层的 [LSTM](http:\u002F\u002Fdeeplearning.net\u002Ftutorial\u002Flstm.html)，并从给定的 MIDI 文件中学习。该项目采用了深度学习技术——这项技术同样支撑着 [Google 的 AlphaGo](https:\u002F\u002Fdeepmind.com\u002Falpha-go.html) 和 [IBM 的 Watson](https:\u002F\u002Fwww.ibm.com\u002Fsmarterplanet\u002Fus\u002Fen\u002Fibmwatson\u002Fwhat-is-watson.html)——**来创作音乐，而音乐通常被视为一种高度人性化的表达方式**。\n\n[![SoundCloud](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjisungk_deepjazz_readme_64a9b9571627.png)](https:\u002F\u002Fsoundcloud.com\u002Fdeepjazz-ai)  \n快来 **[SoundCloud](https:\u002F\u002Fsoundcloud.com\u002Fdeepjazz-ai)** 收听 deepjazz 的音乐吧！\n\n### 依赖项\n\n* [Keras](http:\u002F\u002Fkeras.io\u002F#installation)\n* [Theano](http:\u002F\u002Fdeeplearning.net\u002Fsoftware\u002Ftheano\u002Finstall.html#bleeding-edge-install-instructions)（GitHub 上的“前沿”版本）\n* [music21](http:\u002F\u002Fweb.mit.edu\u002Fmusic21\u002Fdoc\u002Finstalling\u002Findex.html)\n\n### 使用说明\n\n在 CPU 上运行的命令：  \n```\npython generator.py [# of epochs]\n```\n\n在 GPU 上运行的命令：  \n```\nTHEANO_FLAGS=mode=FAST_RUN,device=gpu,floatX=float32 python generator.py [# of epochs]\n```\n\n注意：Keras\u002FTheano 在 GPU 上的正式支持仅限于 NVIDIA 显卡（CUDA 后端）。\n\n注意：`preprocess.py` 需要修改才能处理其他 MIDI 文件（需选择相应的“旋律”MIDI 部分）。原生支持这一功能是未来的计划之一。\n\n### 作者\n\n[Ji-Sung Kim](https:\u002F\u002Fjisungkim.com)  \n普林斯顿大学计算机科学系  \nhello (at) jisungkim.com  \n\n### 引用\n\n本项目大量借鉴了 Evan Chow 的 [jazzml](https:\u002F\u002Fgithub.com\u002Fevancchow\u002Fjazzml) 中的预处理代码（已获授权）。感谢 [Evan](https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fevancchow)! 此外，还参考了 [Keras 文档](https:\u002F\u002Fgithub.com\u002Ffchollet\u002Fkeras)中的公开示例。\n\n### 代码许可与媒体版权\n\n代码采用 Apache License 2.0 许可  \n图片及其他媒体受版权保护（Ji-Sung Kim）","# deepjazz 快速上手指南\n\n> **注意**：本项目目前已停止主动开发。它是一个使用 Keras 和 Theano 进行爵士乐生成的实验性项目，适合学习 LSTM 在音乐生成中的应用。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：Linux 或 macOS（Windows 需配置 WSL 或特定环境）\n- **GPU 支持**（可选）：仅正式支持 NVIDIA 显卡（需安装 CUDA 后端）。若无 GPU，可使用 CPU 运行，但速度较慢。\n- **Python 版本**：建议 Python 2.7 或 3.6+（取决于 Theano\u002FKeras 版本兼容性）\n\n### 前置依赖\n请确保安装以下核心库：\n1. **Theano**：需安装 GitHub 上的最新开发版（bleeding-edge）。\n   - *国内加速建议*：若直接克隆 GitHub 较慢，可尝试使用 Gitee 镜像或配置 pip 国内源（如清华源、阿里源）安装相关依赖。\n2. **Keras**：深度学习高级 API。\n3. **music21**：用于处理 MIDI 音乐文件。\n\n## 安装步骤\n\n1. **克隆项目代码**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fjisungk\u002Fdeepjazz.git\n   cd deepjazz\n   ```\n\n2. **安装 Python 依赖**\n   建议使用 `pip` 配合国内镜像源加速安装：\n   ```bash\n   pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple keras music21\n   ```\n\n3. **安装 Theano (开发版)**\n   由于需要最新版 Theano，建议直接从源码安装：\n   ```bash\n   pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple git+https:\u002F\u002Fgithub.com\u002FTheano\u002FTheano.git\n   ```\n   *注：若网络受限，可下载源码包后本地安装。*\n\n4. **预处理脚本调整**\n   默认配置针对特定 MIDI 文件。若要使用其他 MIDI 文件，需手动修改 `preprocess.py`，选择正确的“旋律”部分（这是当前版本的限制，未来计划原生支持）。\n\n## 基本使用\n\n### 1. CPU 模式运行\n最简单的运行方式，直接在命令行执行生成脚本。`[# of epochs]` 替换为你想要的训练轮数（例如 50）：\n```bash\npython generator.py 50\n```\n\n### 2. GPU 模式运行\n如果你拥有 NVIDIA 显卡并已配置好 CUDA，使用以下命令加速训练：\n```bash\nTHEANO_FLAGS=mode=FAST_RUN,device=gpu,floatX=float32 python generator.py 50\n```\n\n### 3. 获取结果\n运行结束后，程序将生成基于输入 MIDI 风格的新爵士乐片段。你可以前往项目的 [SoundCloud 页面](https:\u002F\u002Fsoundcloud.com\u002Fdeepjazz-ai) 聆听示例作品。","一位独立游戏开发者正在为一款复古爵士酒吧题材的游戏创作背景音乐，但受限于预算无法聘请专业乐手，且自身缺乏作曲能力。\n\n### 没有 deepjazz 时\n- **创作门槛极高**：开发者不懂乐理和编曲，面对空白的五线谱或 DAW 工程束手无策，难以生成符合爵士风格的旋律。\n- **素材成本昂贵**：购买商业版权爵士乐曲费用高昂，而免费素材库中的音乐往往风格雷同，缺乏独特性以匹配游戏氛围。\n- **迭代效率低下**：若尝试手动拼接 MIDI 片段，调整节奏和音符极其耗时，无法根据游戏关卡进度快速产出多版本配乐。\n- **风格难以把控**：即使找到类似素材，也很难通过简单修改让其具备即兴演奏（Improvisation）的“人性化”听感，显得机械生硬。\n\n### 使用 deepjazz 后\n- **自动化风格生成**：只需提供几首经典爵士乐的 MIDI 文件作为训练集，deepjazz 利用 LSTM 网络即可自动学习并生成全新的爵士旋律。\n- **零成本获取原创内容**：开发者无需支付版税，即可获得由 AI 创作的独特曲目，完美解决独立项目的预算痛点。\n- **快速批量产出**：通过调整 `generator.py` 中的训练轮数（epochs），能在短时间内生成大量不同变奏的乐曲，满足游戏多场景需求。\n- **拟人化听感提升**：得益于深度学习技术，生成的音乐保留了爵士乐特有的摇摆节奏和即兴感，听起来更像真人演奏而非机械合成。\n\ndeepjazz 将高深的深度学习技术转化为低门槛的音乐创作引擎，让非音乐专业的开发者也能低成本实现高质量的动态配乐生成。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjisungk_deepjazz_27760acc.png","jisungk","Ji-Sung Kim","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjisungk_bf880a59.jpg","I do NOT have an X \u002F Twitter account. I am being impersonated.",null,"USA","https:\u002F\u002Fjisungkim.com","https:\u002F\u002Fgithub.com\u002Fjisungk",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,2894,441,"2026-04-10T03:37:51","Apache-2.0",4,"","非必需。若使用 GPU，必须为 NVIDIA 显卡（需 CUDA 后端），具体型号、显存大小及 CUDA 版本未说明。","未说明",{"notes":94,"python":92,"dependencies":95},"该项目已不再积极开发。运行前需修改 preprocess.py 文件以适配不同的 MIDI 文件（需手动选择相关的旋律部分），原生支持多文件处理是计划中的功能。",[96,97,98],"Keras","Theano (GitHub 最新版\u002Fbleeding-edge)","music21",[14,100],"音频",[102,103,104,105,106,107,108,109,110],"deep-learning","machine-learning","music","jazz","keras","theano","neural-networks","rnn","lstm","2026-03-27T02:49:30.150509","2026-04-12T03:22:02.191556",[114,119,124,129,134,139],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},30211,"在中国大陆无法访问 SoundCloud 获取示例数据怎么办？","由于网络限制，SoundCloud 在中国大陆可能被屏蔽。用户可以尝试配置网络代理（Proxy）来解决访问问题，或者寻找其他可访问的替代源下载所需的 MIDI 数据文件。","https:\u002F\u002Fgithub.com\u002Fjisungk\u002Fdeepjazz\u002Fissues\u002F5",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},30207,"运行脚本时出现 'TypeError: __init__() got an unexpected keyword argument 'mode'' 错误怎么办？","这是由于 music21 库版本不兼容导致的。解决方法是修改代码，移除 'mode' 参数。具体操作是在报错的文件（如 preprocess.py）中找到类似 `key.KeySignature(sharps=1, mode='major')` 的代码，将其改为 `key.KeySignature(sharps=1)`，即删除 `mode='major'` 部分。","https:\u002F\u002Fgithub.com\u002Fjisungk\u002Fdeepjazz\u002Fissues\u002F8",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},30208,"在 Python 3.x 环境下运行生成器时提示 'cannot import name 'izip_longest'' 错误如何解决？","这是因为 'izip_longest' 是 Python 2 的 itertools 模块中的函数，在 Python 3 中已被重命名为 'zip_longest'，或者直接使用内置的 'zip'。请将代码中的导入语句从 `from itertools import izip_longest` 修改为 `from itertools import zip_longest`，并将后续代码中的 `izip_longest` 替换为 `zip_longest`。如果是简单的迭代需求，Python 3 中通常直接使用 `zip` 即可。","https:\u002F\u002Fgithub.com\u002Fjisungk\u002Fdeepjazz\u002Fissues\u002F23",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},30209,"如何使用其他 MIDI 音乐文件来训练模型？","该模型高度依赖于特定 MIDI 文件的结构和乐曲本身的音乐结构（例如，生成器假设伴奏是基于和弦的，如钢琴）。如果尝试使用其他乐曲，直接运行通常会失败，因为代码中硬编码了特定的轨道索引（如 `melody_stream = midi_data[5]`）。若要使用其他音乐，你需要深入修改代码，根据新 MIDI 文件的实际结构重新定位旋律声部和和弦声部，无法直接通用。","https:\u002F\u002Fgithub.com\u002Fjisungk\u002Fdeepjazz\u002Fissues\u002F9",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},30210,"生成的音乐质量在重构代码后发生了变化或不准确，是什么原因？","这是一个已修复的随机数生成器 bug。在从 Python 自带的 `random` 模块迁移到 `np.random` (NumPy) 时，两者对范围边界的处理不同：`random` 包含高值，而 `np.random` 某些函数不包含高值。此外还存在代码位置放置错误的问题。请确保拉取最新的代码提交（newest commit），这些问题已在最新版本中修复。","https:\u002F\u002Fgithub.com\u002Fjisungk\u002Fdeepjazz\u002Fissues\u002F2",{"id":140,"question_zh":141,"answer_zh":142,"source_url":123},30212,"哪个版本的 music21 库与 deepjazz 兼容？","较新版本的 music21 改变了 `KeySignature` 类的初始化参数（移除了 'mode' 参数），导致旧版 deepjazz 代码报错。如果遇到相关类型错误，建议要么降级 music21 到旧版本，要么按照常见问题修改源码移除 'mode' 参数。目前社区推荐直接修改代码以适配新版 music21。",[]]