[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-deezer--spleeter":3,"tool-deezer--spleeter":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":103,"forks":104,"last_commit_at":105,"license":106,"difficulty_score":10,"env_os":107,"env_gpu":108,"env_ram":109,"env_deps":110,"category_tags":117,"github_topics":119,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":128,"updated_at":129,"faqs":130,"releases":131},6459,"deezer\u002Fspleeter","spleeter","Deezer source separation library including pretrained models.","Spleeter 是由知名音乐平台 Deezer 开源的一款音频源分离工具，旨在利用人工智能技术将混合好的音乐文件拆解为独立的音轨。它有效解决了传统方法难以从成品歌曲中精准提取人声、伴奏或特定乐器（如鼓、贝斯、钢琴）的难题，让用户能轻松获得高质量的分轨素材。\n\n这款工具非常适合开发者、音频研究人员以及需要处理音乐素材的专业人士使用。无论是希望将分离功能集成到自己的开发管线中，还是需要在命令行快速处理大量文件，Spleeter 都能提供灵活的支持。虽然普通用户也可通过第三方界面间接使用，但其核心设计更偏向于技术整合与二次开发。\n\nSpleeter 的技术亮点在于其内置了多个经过预训练的高性能模型，支持将音乐分离为 2 轨（人声\u002F伴奏）、4 轨甚至 5 轨的不同组合。基于 TensorFlow 构建，它在 GPU 环境下的运行速度极快，处理 4 轨分离的效率可达实时播放速度的 100 倍。此外，它不仅提供了开箱即用的命令行工具，还作为 Python 库开放调用，并支持 Docker 部署，极大地降低了音频分离技术的应用门槛。目前，包括 iZotope RX 8 和 SpectralLaye","Spleeter 是由知名音乐平台 Deezer 开源的一款音频源分离工具，旨在利用人工智能技术将混合好的音乐文件拆解为独立的音轨。它有效解决了传统方法难以从成品歌曲中精准提取人声、伴奏或特定乐器（如鼓、贝斯、钢琴）的难题，让用户能轻松获得高质量的分轨素材。\n\n这款工具非常适合开发者、音频研究人员以及需要处理音乐素材的专业人士使用。无论是希望将分离功能集成到自己的开发管线中，还是需要在命令行快速处理大量文件，Spleeter 都能提供灵活的支持。虽然普通用户也可通过第三方界面间接使用，但其核心设计更偏向于技术整合与二次开发。\n\nSpleeter 的技术亮点在于其内置了多个经过预训练的高性能模型，支持将音乐分离为 2 轨（人声\u002F伴奏）、4 轨甚至 5 轨的不同组合。基于 TensorFlow 构建，它在 GPU 环境下的运行速度极快，处理 4 轨分离的效率可达实时播放速度的 100 倍。此外，它不仅提供了开箱即用的命令行工具，还作为 Python 库开放调用，并支持 Docker 部署，极大地降低了音频分离技术的应用门槛。目前，包括 iZotope RX 8 和 SpectralLayers 在内的多款专业音频软件均已采用其核心技术。","\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeezer_spleeter_readme_237c9230de79.png\" height=\"80\" \u002F>\n\n[![Github actions](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fworkflows\u002Fpytest\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Factions) ![PyPI - Python Version](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002Fspleeter) [![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fspleeter.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fspleeter) [![Conda](https:\u002F\u002Fimg.shields.io\u002Fconda\u002Fvn\u002Fdeezer-research\u002Fspleeter)](https:\u002F\u002Fanaconda.org\u002Fdeezer-research\u002Fspleeter) [![Docker Pulls](https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fpulls\u002Fdeezer\u002Fspleeter)](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fdeezer\u002Fspleeter) [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fdeezer\u002Fspleeter\u002Fblob\u002Fmaster\u002Fspleeter.ipynb) [![Gitter chat](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeezer_spleeter_readme_ec39039bf0d7.png)](https:\u002F\u002Fgitter.im\u002Fspleeter\u002Fcommunity) [![status](https:\u002F\u002Fjoss.theoj.org\u002Fpapers\u002F259e5efe669945a343bad6eccb89018b\u002Fstatus.svg)](https:\u002F\u002Fjoss.theoj.org\u002Fpapers\u002F259e5efe669945a343bad6eccb89018b)\n\n> :warning: [Spleeter 2.1.0](https:\u002F\u002Fpypi.org\u002Fproject\u002Fspleeter\u002F) release introduces some breaking changes, including new CLI option naming for input, and the drop\n> of dedicated GPU package. Please read [CHANGELOG](CHANGELOG.md) for more details.\n\n## About\n\n**Spleeter** is [Deezer](https:\u002F\u002Fwww.deezer.com\u002F) source separation library with pretrained models\nwritten in [Python](https:\u002F\u002Fwww.python.org\u002F) and uses [Tensorflow](https:\u002F\u002Ftensorflow.org\u002F). It makes it easy\nto train source separation model (assuming you have a dataset of isolated sources), and provides\nalready trained state of the art model for performing various flavour of separation :\n\n* Vocals (singing voice) \u002F accompaniment separation ([2 stems](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F2.-Getting-started#using-2stems-model))\n* Vocals \u002F drums \u002F bass \u002F other separation ([4 stems](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F2.-Getting-started#using-4stems-model))\n* Vocals \u002F drums \u002F bass \u002F piano \u002F other separation ([5 stems](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F2.-Getting-started#using-5stems-model))\n\n2 stems and 4 stems models have [high performances](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002FSeparation-Performances) on the [musdb](https:\u002F\u002Fsigsep.github.io\u002Fdatasets\u002Fmusdb.html) dataset. **Spleeter** is also very fast as it can perform separation of audio files to 4 stems 100x faster than real-time when run on a GPU.\n\nWe designed **Spleeter** so you can use it straight from [command line](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F2.-Getting-started#usage)\nas well as directly in your own development pipeline as a [Python library](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F4.-API-Reference#separator). It can be installed with [pip](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F1.-Installation#using-pip) or be used with\n[Docker](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F2.-Getting-started#using-docker-image).\n\n### Projects and Softwares using **Spleeter**\n\nSince it's been released, there are multiple forks exposing **Spleeter** through either a Guided User Interface (GUI) or a standalone free or paying website. Please note that we do not host, maintain or directly support any of these initiatives.\n\nThat being said, many cool projects have been built on top of ours. Notably the porting to the *Ableton Live* ecosystem through the [Spleeter 4 Max](https:\u002F\u002Fgithub.com\u002Fdiracdeltas\u002Fspleeter4max#spleeter-for-max) project.\n\n**Spleeter** pre-trained models have also been used by professionnal audio softwares. Here's a non-exhaustive list:\n\n* [iZotope](https:\u002F\u002Fwww.izotope.com\u002Fen\u002Fshop\u002Frx-8-standard.html) in its *Music Rebalance* feature within **RX 8**\n* [SpectralLayers](https:\u002F\u002Fnew.steinberg.net\u002Fspectralayers\u002F) in its *Unmix* feature in **SpectralLayers 7**\n* [Acon Digital](https:\u002F\u002Facondigital.com\u002Fproducts\u002Facoustica-audio-editor\u002F) within **Acoustica 7**\n* [VirtualDJ](https:\u002F\u002Fwww.virtualdj.com\u002Fstems\u002F) in their stem isolation feature\n* [Algoriddim](https:\u002F\u002Fwww.algoriddim.com\u002Fapps) in their **NeuralMix** and **djayPRO** app suite\n\n🆕 **Spleeter** is a baseline in the ongoing [Music Demixing Challenge](https:\u002F\u002Fwww.aicrowd.com\u002Fchallenges\u002Fmusic-demixing-challenge-ismir-2021)!\n\n## Spleeter Pro (Commercial version)\n\nCheck out our commercial version : [Spleeter Pro](https:\u002F\u002Fwww.deezer-techservices.com\u002Fsolutions\u002Fspleeter\u002F). Benefit from our expertise for precise audio separation, faster processing speeds, and dedicated professional support. \n\n## Quick start\n\nWant to try it out but don't want to install anything ? We have set up a [Google Colab](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fdeezer\u002Fspleeter\u002Fblob\u002Fmaster\u002Fspleeter.ipynb).\n\nReady to dig into it ? In a few lines you can install **Spleeter**  and separate the vocal and accompaniment parts from an example audio file.\nYou need first to install `ffmpeg` and `libsndfile`. It can be done on most platform using [Conda](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F1.-Installation#using-conda):\n\n```bash\n# install dependencies using conda\nconda install -c conda-forge ffmpeg libsndfile\n# install spleeter with pip\npip install spleeter\n# download an example audio file (if you don't have wget, use another tool for downloading)\nwget https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fraw\u002Fmaster\u002Faudio_example.mp3\n# separate the example audio into two components\nspleeter separate -p spleeter:2stems -o output audio_example.mp3\n```\n\n> :warning: Note that we no longer recommend using `conda` for installing spleeter.\n\n> ⚠️ There are known issues with Apple M1 chips, mostly due to TensorFlow compatibility. Until these are fixed, you can use [this workaround](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fissues\u002F607#issuecomment-1021669444).\n\nYou should get two separated audio files (`vocals.wav` and `accompaniment.wav`) in the `output\u002Faudio_example` folder.\n\nFor a detailed documentation, please check the [repository wiki](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F1.-Installation)\n\n## Development and Testing\n\nThis project is managed using [Poetry](https:\u002F\u002Fpython-poetry.org\u002Fdocs\u002Fbasic-usage\u002F), to run test suite you\ncan execute the following set of commands:\n\n```bash\n# Clone spleeter repository\ngit clone https:\u002F\u002Fgithub.com\u002FDeezer\u002Fspleeter && cd spleeter\n# Install poetry\npip install poetry\n# Install spleeter dependencies\npoetry install\n# Run unit test suite\npoetry run pytest tests\u002F\n```\n\n## Reference\n\n* Deezer Research - Source Separation Engine Story - deezer.io blog post:\n  * [English version](https:\u002F\u002Fdeezer.io\u002Freleasing-spleeter-deezer-r-d-source-separation-engine-2b88985e797e)\n  * [Japanese version](http:\u002F\u002Fdzr.fm\u002Fsplitterjp)\n* [Music Source Separation tool with pre-trained models \u002F ISMIR2019 extended abstract](http:\u002F\u002Farchives.ismir.net\u002Fismir2019\u002Flatebreaking\u002F000036.pdf)\n\nIf you use **Spleeter** in your work, please cite:\n\n```BibTeX\n@article{spleeter2020,\n  doi = {10.21105\u002Fjoss.02154},\n  url = {https:\u002F\u002Fdoi.org\u002F10.21105\u002Fjoss.02154},\n  year = {2020},\n  publisher = {The Open Journal},\n  volume = {5},\n  number = {50},\n  pages = {2154},\n  author = {Romain Hennequin and Anis Khlif and Felix Voituret and Manuel Moussallam},\n  title = {Spleeter: a fast and efficient music source separation tool with pre-trained models},\n  journal = {Journal of Open Source Software},\n  note = {Deezer Research}\n}\n```\n\n## License\n\nThe code of **Spleeter** is [MIT-licensed](LICENSE).\n\n## Disclaimer\n\nIf you plan to use **Spleeter** on copyrighted material, make sure you get proper authorization from right owners beforehand.\n\n## Troubleshooting\n\n**Spleeter** is a complex piece of software and although we continously try to improve and test it you may encounter unexpected issues running it. If that's the case please check the [FAQ page](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F5.-FAQ) first as well as the list of [currently open issues](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fissues)\n\n### Windows users\n\n   It appears that sometimes the shortcut command `spleeter` does not work properly on windows. This is a known issue that we will hopefully fix soon. In the meantime replace `spleeter separate` by `python -m spleeter separate` in command line and it should work.\n\n## Contributing\n\nIf you would like to participate in the development of **Spleeter** you are more than welcome to do so. Don't hesitate to throw us a pull request and we'll do our best to examine it quickly. Please check out our [guidelines](.github\u002FCONTRIBUTING.md) first.\n\n## Note\n\nThis repository include a demo audio file `audio_example.mp3` which is an excerpt\nfrom Slow Motion Dream by Steven M Bryant (c) copyright 2011 Licensed under a Creative\nCommons Attribution (3.0) [license](http:\u002F\u002Fdig.ccmixter.org\u002Ffiles\u002Fstevieb357\u002F34740)\nFt: CSoul,Alex Beroza & Robert Siekawitch\n","\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeezer_spleeter_readme_237c9230de79.png\" height=\"80\" \u002F>\n\n[![Github actions](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fworkflows\u002Fpytest\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Factions) ![PyPI - Python Version](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002Fspleeter) [![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fspleeter.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fspleeter) [![Conda](https:\u002F\u002Fimg.shields.io\u002Fconda\u002Fvn\u002Fdeezer-research\u002Fspleeter)](https:\u002F\u002Fanaconda.org\u002Fdeezer-research\u002Fspleeter) [![Docker Pulls](https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fpulls\u002Fdeezer\u002Fspleeter)](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fdeezer\u002Fspleeter) [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fdeezer\u002Fspleeter\u002Fblob\u002Fmaster\u002Fspleeter.ipynb) [![Gitter chat](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeezer_spleeter_readme_ec39039bf0d7.png)](https:\u002F\u002Fgitter.im\u002Fspleeter\u002Fcommunity) [![status](https:\u002F\u002Fjoss.theoj.org\u002Fpapers\u002F259e5efe669945a343bad6eccb89018b\u002Fstatus.svg)](https:\u002F\u002Fjoss.theoj.org\u002Fpapers\u002F259e5efe669945a343bad6eccb89018b)\n\n> :warning: [Spleeter 2.1.0](https:\u002F\u002Fpypi.org\u002Fproject\u002Fspleeter\u002F) 版本发布引入了一些破坏性更改，包括输入 CLI 选项的新命名方式，以及不再提供专用的 GPU 包。请阅读 [CHANGELOG](CHANGELOG.md) 获取更多详细信息。\n\n## 关于\n\n**Spleeter** 是 [Deezer](https:\u002F\u002Fwww.deezer.com\u002F) 开发的源分离库，内置预训练模型，使用 [Python](https:\u002F\u002Fwww.python.org\u002F) 编写，并基于 [TensorFlow](https:\u002F\u002Ftensorflow.org\u002F) 构建。它使训练源分离模型变得简单（前提是您拥有独立音源的数据集），并提供了已经训练好的先进模型，用于执行多种风格的分离任务：\n\n* 主唱（人声）与伴奏分离（[2 音轨](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F2.-Getting-started#using-2stems-model)）\n* 主唱、鼓、贝斯及其他乐器分离（[4 音轨](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F2.-Getting-started#using-4stems-model)）\n* 主唱、鼓、贝斯、钢琴及其他乐器分离（[5 音轨](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F2.-Getting-started#using-5stems-model)）\n\n2 音轨和 4 音轨模型在 [musdb](https:\u002F\u002Fsigsep.github.io\u002Fdatasets\u002Fmusdb.html) 数据集上表现出色。此外，**Spleeter** 运行速度极快，在 GPU 上处理音频文件时，可实现 4 音轨分离的速度达到实时的 100 倍。\n\n我们设计 **Spleeter** 的初衷是使其既可以通过 [命令行](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F2.-Getting-started#usage) 直接使用，也可以作为 [Python 库](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F4.-API-Reference#separator) 集成到您的开发流程中。您可以使用 [pip](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F1.-Installation#using-pip) 安装，或通过 [Docker](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F2.-Getting-started#using-docker-image) 镜像运行。\n\n### 使用 **Spleeter** 的项目和软件\n\n自发布以来，出现了许多基于 **Spleeter** 的分支项目，它们通过图形用户界面（GUI）或独立的免费\u002F付费网站对外提供服务。请注意，我们并不托管、维护或直接支持这些项目。\n\n尽管如此，仍有许多优秀的项目在此基础上构建而成。例如，通过 [Spleeter 4 Max](https:\u002F\u002Fgithub.com\u002Fdiracdeltas\u002Fspleeter4max#spleeter-for-max) 项目将其移植到了 *Ableton Live* 生态系统中。\n\n**Spleeter** 的预训练模型也被专业音频软件所采用。以下是一些非详尽的列表：\n\n* [iZotope](https:\u002F\u002Fwww.izotope.com\u002Fen\u002Fshop\u002Frx-8-standard.html) 在其 *RX 8* 软件中的“音乐再平衡”功能中使用\n* [SpectralLayers](https:\u002F\u002Fnew.steinberg.net\u002Fspectralayers\u002F) 在其 *SpectralLayers 7* 软件中的“解混”功能中使用\n* [Acon Digital](https:\u002F\u002Facondigital.com\u002Fproducts\u002Facoustica-audio-editor\u002F) 在其 *Acoustica 7* 软件中使用\n* [VirtualDJ](https:\u002F\u002Fwww.virtualdj.com\u002Fstems\u002F) 在其音轨分离功能中使用\n* [Algoriddim](https:\u002F\u002Fwww.algoriddim.com\u002Fapps) 在其 *NeuralMix* 和 *djayPRO* 系列应用中使用\n\n🆕 **Spleeter** 是正在进行的 [音乐解混挑战赛](https:\u002F\u002Fwww.aicrowd.com\u002Fchallenges\u002Fmusic-demixing-challenge-ismir-2021) 的基准！\n\n## Spleeter Pro（商业版）\n\n请查看我们的商业版本：[Spleeter Pro](https:\u002F\u002Fwww.deezer-techservices.com\u002Fsolutions\u002Fspleeter\u002F)。借助我们的专业知识，享受精准的音频分离、更快的处理速度以及专业的技术支持。\n\n## 快速入门\n\n想试用但又不想安装任何东西？我们已搭建了一个 [Google Colab](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fdeezer\u002Fspleeter\u002Fblob\u002Fmaster\u002Fspleeter.ipynb) 笔记本。\n\n准备深入体验了吗？只需几行代码即可安装 **Spleeter**，并将示例音频文件中的主唱和伴奏部分分离出来。\n首先需要安装 `ffmpeg` 和 `libsndfile`。在大多数平台上可以使用 [Conda](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F1.-Installation#using-conda) 完成：\n\n```bash\n# 使用 conda 安装依赖\nconda install -c conda-forge ffmpeg libsndfile\n# 使用 pip 安装 spleeter\npip install spleeter\n# 下载示例音频文件（如果没有 wget，可以使用其他下载工具）\nwget https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fraw\u002Fmaster\u002Faudio_example.mp3\n# 将示例音频分离为两个部分\nspleeter separate -p spleeter:2stems -o output audio_example.mp3\n```\n\n> :warning: 请注意，我们不再推荐使用 `conda` 安装 spleeter。\n\n> ⚠️ 苹果 M1 芯片存在已知问题，主要是由于 TensorFlow 兼容性不足。在这些问题解决之前，您可以参考 [此解决方案](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fissues\u002F607#issuecomment-1021669444)。\n\n您应该会在 `output\u002Faudio_example` 文件夹中得到两个分离后的音频文件（`vocals.wav` 和 `accompaniment.wav`）。\n\n如需详细文档，请参阅 [仓库 Wiki](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F1.-Installation)。\n\n## 开发与测试\n\n该项目使用 [Poetry](https:\u002F\u002Fpython-poetry.org\u002Fdocs\u002Fbasic-usage\u002F) 进行管理。要运行测试套件，您可以执行以下命令：\n\n```bash\n# 克隆 spleeter 仓库\ngit clone https:\u002F\u002Fgithub.com\u002FDeezer\u002Fspleeter && cd spleeter\n# 安装 poetry\npip install poetry\n# 安装 spleeter 依赖\npoetry install\n# 运行单元测试套件\npoetry run pytest tests\u002F\n```\n\n## 参考资料\n\n* Deezer 研究 - 源分离引擎故事 - deezer.io 博客文章：\n  * [英文版](https:\u002F\u002Fdeezer.io\u002Freleasing-spleeter-deezer-r-d-source-separation-engine-2b88985e797e)\n  * [日文版](http:\u002F\u002Fdzr.fm\u002Fsplitterjp)\n* [带有预训练模型的音乐源分离工具 \u002F ISMIR2019 扩展摘要](http:\u002F\u002Farchives.ismir.net\u002Fismir2019\u002Flatebreaking\u002F000036.pdf)\n\n如果您在工作中使用 **Spleeter**，请引用以下文献：\n\n```BibTeX\n@article{spleeter2020,\n  doi = {10.21105\u002Fjoss.02154},\n  url = {https:\u002F\u002Fdoi.org\u002F10.21105\u002Fjoss.02154},\n  year = {2020},\n  publisher = {The Open Journal},\n  volume = {5},\n  number = {50},\n  pages = {2154},\n  author = {Romain Hennequin、Anis Khlif、Felix Voituret 和 Manuel Moussallam},\n  title = {Spleeter：一款快速高效的带预训练模型的音乐源分离工具},\n  journal = {Journal of Open Source Software},\n  note = {Deezer Research}\n}\n```\n\n## 许可证\n\n**Spleeter** 的代码采用 [MIT 许可证](LICENSE)。\n\n## 免责声明\n\n如果您计划将 **Spleeter** 用于受版权保护的素材，请务必事先获得权利所有者的正式授权。\n\n## 故障排除\n\n**Spleeter** 是一款复杂的软件，尽管我们一直在努力改进和测试它，但在运行过程中仍可能出现意外问题。如果遇到此类情况，请先查看 [FAQ 页面](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fwiki\u002F5.-FAQ)，以及 [当前未解决的问题列表](https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fissues)。\n\n### Windows 用户\n\n有时，在 Windows 系统上直接使用 `spleeter` 命令可能会出现问题。这是一个已知问题，我们将在不久的将来修复。在此期间，您可以将命令行中的 `spleeter separate` 替换为 `python -m spleeter separate`，这样应该可以正常工作。\n\n## 贡献\n\n如果您希望参与 **Spleeter** 的开发，我们非常欢迎您的加入。请随时向我们提交拉取请求，我们会尽快评估。请先阅读我们的[贡献指南](.github\u002FCONTRIBUTING.md)。\n\n## 注意事项\n\n本仓库包含一个演示音频文件 `audio_example.mp3`，它是 Steven M Bryant 的作品《Slow Motion Dream》中的一段摘录（c）2011 年版权所有，根据知识共享署名 3.0 许可证授权 [许可证](http:\u002F\u002Fdig.ccmixter.org\u002Ffiles\u002Fstevieb357\u002F34740)。合作艺人：CSoul、Alex Beroza 和 Robert Siekawitch。","# Spleeter 快速上手指南\n\nSpleeter 是 Deezer 开源的音频源分离工具，基于 Python 和 TensorFlow。它能利用预训练模型，将音乐快速分离为人声、伴奏、鼓点、贝斯等不同音轨（Stems）。在 GPU 环境下，其处理速度可达实时的 100 倍。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：Linux, macOS, Windows\n- **Python 版本**：3.6 - 3.9 (推荐 3.8)\n- **硬件加速**：支持 NVIDIA GPU（需安装 CUDA）以获得最佳性能；CPU 亦可运行但速度较慢。\n- **特别注意**：Apple M1\u002FM2 芯片用户可能存在 TensorFlow 兼容性问题，建议参考官方 workaround 或使用 Docker\u002FColab。\n\n### 前置依赖\n在安装 Spleeter 之前，必须先安装音频处理库 `ffmpeg` 和 `libsndfile`。\n\n**推荐使用 Conda 安装依赖（跨平台最简便）：**\n```bash\nconda install -c conda-forge ffmpeg libsndfile\n```\n\n> **注意**：虽然官方不再强推 Conda 环境，但对于管理 `ffmpeg` 和 `libsndfile` 依赖，Conda 依然是目前最稳定的方案。若使用 pip 直接安装系统级依赖，请确保系统中已正确配置 ffmpeg。\n\n## 安装步骤\n\n依赖安装完成后，使用 pip 安装 Spleeter：\n\n```bash\npip install spleeter\n```\n\n*国内用户加速建议：*\n如果下载速度较慢，可使用国内镜像源：\n```bash\npip install spleeter -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n安装完成后，即可通过命令行进行音频分离。以下示例展示如何将一首歌曲分离为**人声**和**伴奏**（2 轨模式）。\n\n### 1. 准备音频文件\n下载一个测试音频文件（或替换为你自己的本地文件）：\n```bash\nwget https:\u002F\u002Fgithub.com\u002Fdeezer\u002Fspleeter\u002Fraw\u002Fmaster\u002Faudio_example.mp3\n```\n\n### 2. 执行分离\n运行以下命令，将音频分离并输出到 `output` 文件夹：\n\n```bash\nspleeter separate -p spleeter:2stems -o output audio_example.mp3\n```\n\n**参数说明：**\n- `-p spleeter:2stems`：指定预训练模型。\n  - `spleeter:2stems`：人声 + 伴奏\n  - `spleeter:4stems`：人声 + 鼓点 + 贝斯 + 其他\n  - `spleeter:5stems`：人声 + 鼓点 + 贝斯 + 钢琴 + 其他\n- `-o output`：指定输出目录。\n- `audio_example.mp3`：输入音频文件路径。\n\n### 3. 查看结果\n命令执行完毕后，在 `output\u002Faudio_example\u002F` 目录下将生成两个文件：\n- `vocals.wav` (人声)\n- `accompaniment.wav` (伴奏)\n\n---\n*提示：Windows 用户若直接运行 `spleeter` 命令报错，可尝试使用 `python -m spleeter separate ...` 代替。*","一位独立音乐制作人需要为老歌制作伴奏版本，以便在短视频平台进行创意二创，但手头只有混合好的立体声音频文件。\n\n### 没有 spleeter 时\n- **分离成本极高**：传统方法需依赖昂贵的专业音频软件（如 iZotope RX）或人工重新录制，单次处理成本高且周期长。\n- **操作门槛复杂**：手动通过均衡器（EQ）或相位抵消尝试去除人声，往往导致伴奏中残留明显的人声痕迹或破坏乐器音色。\n- **效率极其低下**：处理一首 3 分钟的歌曲可能需要数小时的手工调试，无法满足短视频时代快速批量生产内容的需求。\n- **音质损失严重**：粗暴的滤波处理会让高频乐器（如镲片）和低频贝斯变得沉闷模糊，听感大打折扣。\n\n### 使用 spleeter 后\n- **零成本自动化**：利用预训练的 2 轨或 4 轨模型，一行命令即可免费将人声与伴奏完美分离，无需购买昂贵插件。\n- **智能精准分离**：基于深度学习算法，能精准识别并剥离人声、鼓点、贝斯等音轨，保留伴奏的完整度与清晰度。\n- **实时极速处理**：在 GPU 支持下，分离速度可达实时的 100 倍，几分钟内即可完成整张专辑的批量处理。\n- **高保真音质**：输出的分轨音频细节丰富，几乎无伪影，直接达到商用级别的混音素材标准。\n\nspleeter 将原本需要专业声学知识和高昂费用的音源分离工作，转变为开发者与创作者触手可及的自动化流程。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeezer_spleeter_237c9230.png","deezer","Deezer","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdeezer_e57ec148.png","",null,"deezerdevs@deezer.com","deezerdevs","http:\u002F\u002Fdevelopers.deezer.com\u002F","https:\u002F\u002Fgithub.com\u002Fdeezer",[83,87,91,95,99],{"name":84,"color":85,"percentage":86},"Python","#3572A5",87.9,{"name":88,"color":89,"percentage":90},"Dockerfile","#384d54",5.4,{"name":92,"color":93,"percentage":94},"TeX","#3D6117",3.8,{"name":96,"color":97,"percentage":98},"Jupyter Notebook","#DA5B0B",2.7,{"name":100,"color":101,"percentage":102},"Shell","#89e051",0.3,28142,3065,"2026-04-10T13:09:49","MIT","Linux, macOS, Windows","非必需，但推荐使用 NVIDIA GPU 以加速处理（速度可达实时的 100 倍）；不再提供专用的 GPU 安装包；Apple M1 芯片存在已知的 TensorFlow 兼容性问题","未说明",{"notes":111,"python":112,"dependencies":113},"安装前需先安装 ffmpeg 和 libsndfile（可通过 conda 安装，但官方已不再推荐首选 conda 方式）；Windows 用户若命令行 'spleeter' 无效，请使用 'python -m spleeter separate' 替代；Apple M1 用户需参考特定变通方案；2.1.0 版本引入了破坏性更新，移除了专用 GPU 包并更改了 CLI 选项命名。","3.6+",[114,115,116],"tensorflow","ffmpeg","libsndfile",[118,35,14],"音频",[73,120,114,121,122,123,124,125,126,127],"python","audio-processing","pretrained-models","bass","drums","vocals","deep-learning","model","2026-03-27T02:49:30.150509","2026-04-11T08:01:34.795902",[],[132,137],{"id":133,"version":134,"summary_zh":135,"released_at":136},198042,"v2.3.0","- 更新依赖项以支持 TensorFlow 2.5（以及 Python 3.9 整体）。\r\n- 从 Separator 类中移除析构函数。","2021-09-03T09:59:00",{"id":138,"version":139,"summary_zh":140,"released_at":141},198043,"v1.4.0","**Spleeter** 首次公开发布。\n\n本次发布附带 3 个预训练模型（分别支持 2、4 和 5 路音轨分离）。\n\n更多信息请查看维基页面。","2019-10-28T13:18:17"]