[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-libAudioFlux--audioFlux":3,"tool-libAudioFlux--audioFlux":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",154349,2,"2026-04-13T23:32:16",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":64,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":76,"owner_url":77,"languages":78,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":32,"env_os":99,"env_gpu":100,"env_ram":101,"env_deps":102,"category_tags":106,"github_topics":109,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":129,"updated_at":130,"faqs":131,"releases":152},7378,"libAudioFlux\u002FaudioFlux","audioFlux","A library for audio and music analysis, feature extraction.","audioFlux 是一款专为音频与音乐分析打造的高性能开源库，核心功能在于从声音数据中高效提取特征。它主要解决了在深度学习任务中，如何快速、灵活地获取高质量音频特征的难题，广泛适用于声音分类、音源分离、音乐信息检索（MIR）及语音识别（ASR）等研究场景。\n\n这款工具非常适合音频领域的研究人员、算法工程师以及需要处理大规模音频数据的开发者使用。audioFlux 的独特亮点在于其基于数据流的设计理念，将各个算法模块解耦，支持数十种时频分析变换方法（如短时傅里叶变换、非平稳加伯变换、连续小波变换等），并能组合出数百种时域与频域特征。其核心部分采用 C 语言编写并支持硬件加速，确保了极高的运算效率，甚至能满足移动端的实时音频流计算需求。此外，它还内置了多种先进的音高检测算法及乐器调音功能，为构建复杂的深度学习模型提供了坚实的数据基础。","\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FlibAudioFlux_audioFlux_readme_cadca27162aa.png'  width=\"400\"  style=\"max-width: 100%;\" > \n\n# audioFlux\n\n\u003C!-- shields.io -->\n![GitHub Workflow Status (with branch)](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Factions\u002Fworkflow\u002Fstatus\u002FlibAudioFlux\u002FaudioFlux\u002Fbuild.yml?branch=master)\n![example branch parameter](https:\u002F\u002Fgithub.com\u002FlibAudioFlux\u002FaudioFlux\u002Factions\u002Fworkflows\u002Fbuild.yml\u002Fbadge.svg?branch=master)\n![language](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flanguage-C%20%7C%20Python%20-blue.svg)\n[![PyPI - Version](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Faudioflux)](https:\u002F\u002Fpypi.org\u002Fproject\u002Faudioflux\u002F)\n[![PyPI - Python Version](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-%3E%3D3.6-brightgreen)](https:\u002F\u002Fpypi.org\u002Fproject\u002Faudioflux\u002F)\n[![Docs](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocs-passing-brightgreen)](https:\u002F\u002Faudioflux.top\u002Findex.html)\n![GitHub](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FlibAudioFlux\u002FaudioFlux)\n\u003C!--[![PyPI Downloads](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fdm\u002Faudioflux.svg?label=Pypi%20downloads)](https:\u002F\u002Fpypi.org\u002Fproject\u002Faudioflux\u002F)-->\n\n[![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.7548288.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.7548288)\n\n\u003C!--[![codebeat badge](https:\u002F\u002Fcodebeat.co\u002Fbadges\u002F0e21a344-0928-4aee-8262-be9a41fa488b)](https:\u002F\u002Fcodebeat.co\u002Fprojects\u002Fgithub-com-libaudioflux-audioflux-master)\n![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpod-v0.1.1-blue.svg)-->\n\n\n**`audioflux`** is a deep learning tool library for audio and music analysis, feature extraction. It supports dozens of\ntime-frequency analysis transformation methods and hundreds of corresponding time-domain and frequency-domain feature\ncombinations. It can be provided to deep learning networks for training, and is used to study various tasks in the audio\nfield such as Classification, Separation, Music Information Retrieval(MIR) and ASR etc.\n\n\u003C!-- **`audioflux`** has the following features: \n- Systematic and multi-dimensional feature extraction and combination can be flexibly used for various task research and analysis.\n- High performance, core part C implementation, FFT hardware acceleration based on different platforms, convenient for large-scale data feature extraction.\n- It supports the mobile end and meets the real-time calculation of audio stream at the mobile end. -->\n\n\n##### New Features\n* v0.1.8\n  * Add a variety of Pitch algorithms: `YIN`, `CEP`, `PEF`, `NCF`, `HPS`, `LHS`, `STFT` and `FFP`.\n  * Add `PitchShift` and `TimeStretch` algorithms.\n\n* v0.1.10 \n  * Add `TuneTrack` algorithms to an instrument tuner: accurate, fast, smooth for guitar, ukulele, bass, banjo, mandolin, violin and etc.\n\n\n### Table of Contents\n\n- [Overview](#overview)\n- [Installation](#installation)\n    - [Python Package Install](#python-package-install)\n    - [Other Build](#other-build)\n- [Quickstart](#quickstart)\n- [Benchmark](#benchmark)\n- [Documentation](#documentation)\n- [Contributing](#contributing)\n- [Citing](#citing)\n- [License](#license)\n\n## Overview\n\n**`audioFlux`** is based on data stream design. It decouples each algorithm module in structure, and can quickly and\nefficiently extract features of multiple dimensions. The following is the main feature architecture diagram.\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FlibAudioFlux_audioFlux_readme_daa1bb84e25d.png'>\n\u003C!--\u003Cimg src='.\u002Ffeature_all.pdf'>-->\n\nYou can use multiple dimensional feature combinations, select different deep learning networks training, study various\ntasks in the audio field such as Classification, Separation, MIR etc.\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FlibAudioFlux_audioFlux_readme_ba4cb4d3dd8a.png'>\n\n\nThe main functions of **`audioFlux`** include **transform**, **feature** and **mir** modules.\n\n#### 1. Transform\n\nIn the time–frequency representation, main transform algorithm:\n\n- **`BFT`**&nbsp;&nbsp; - &nbsp;&nbsp;Based Fourier Transform, similar short-time Fourier transform.\n- **`NSGT`** - &nbsp; Non-Stationary Gabor Transform.\n- **`CWT`**&nbsp;&nbsp; - &nbsp;&nbsp;Continuous Wavelet Transform.\n- **`PWT`**&nbsp;&nbsp; - &nbsp;&nbsp;Pseudo Wavelet Transform.\n\n\u003C!-- &emsp -->\n\nThe above transform supports all the following frequency scale types:\n\n- Linear - Short-time Fourier transform spectrogram.\n- Linspace - Linspace-scale spectrogram.\n- Mel - Mel-scale spectrogram.\n- Bark - Bark-scale spectrogram.\n- Erb - Erb-scale spectrogram.\n- Octave - Octave-scale spectrogram.\n- Log - Logarithmic-scale spectrogram.\n\nThe following transform are not supports multiple frequency scale types, only used as independent transform:\n\n- **`CQT`** - &nbsp;&nbsp;Constant-Q Transform.\n- **`VQT`** - &nbsp;&nbsp;Variable-Q Transform.\n- **`ST`**&nbsp;&nbsp; - &nbsp;&nbsp;S-Transform\u002FStockwell Transform.\n- **`FST`** - &nbsp;&nbsp;Fast S-Transform.\n- **`DWT`** - &nbsp;&nbsp;Discrete Wavelet Transform.\n- **`WPT`** - &nbsp;&nbsp;Wave Packet Transform.\n- **`SWT`** - &nbsp;&nbsp;Stationary Wavelet Transform.\n\nDetailed transform function, description, and use view the documentation.\n\nThe *_synchrosqueezing_* or *_reassignment_* is a technique for sharpening a time-frequency representation, contains the\nfollowing algorithms:\n\n- **`reassign`** - reassign transform for `STFT`.\n- **`synsq`** - reassign data use `CWT` data.\n- **`wsst`** - reassign transform for `CWT`.\n\n#### 2. Feature\n\nThe feature module contains the following algorithms:\n\n- **`spectral`** - Spectrum feature, supports all spectrum types.\n- **`xxcc`** - Cepstrum coefficients, supports all spectrum types.\n- **`deconv`** - Deconvolution for spectrum, supports all spectrum types.\n- **`chroma`** - Chroma feature, only supports `CQT` spectrum, Linear\u002FOctave spectrum based on `BFT`.\n\n\u003C!-- harmonic pitch class profiles(HPCP) -->\n\n#### 3. MIR\n\nThe mir module contains the following algorithms:\n\n- **`pitch`** - YIN, STFT, etc algorithm.\n- **`onset`** - Spectrum flux, novelty, etc algorithm.\n- **`hpss`** - Median filtering, NMF algorithm.\n\n## Installation\n\n![language](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fplatform-%20Linux%20%7C%20macOS%20%7C%20Windows%20%7C%20iOS%20%7C%20Android%20-lyellow.svg)\n\nThe library is cross-platform and currently supports Linux, macOS, Windows, iOS and Android systems.\n\n### Python Package Install\n\nTo install the **audioFlux** package, Python >=3.6, using the released python package.\n\nUsing PyPI:\n\n```\n$ pip install audioflux \n```\n\nUsing Anaconda:\n\n```\n$ conda install -c tanky25 -c conda-forge audioflux\n```\n\n\u003C!--Read installation instructions:\nhttps:\u002F\u002Faudioflux.top\u002Finstall-->\n\n### Other Build\n\n- [iOS build](docs\u002Finstalling.md#ios-build)\n- [Android build](docs\u002Finstalling.md#android-build)\n- [Building from source](docs\u002Finstalling.md#building-from-source)\n\n## Quickstart\n\n- [Mel & MFCC](docs\u002Fexamples.md#mel--mfcc)\n- [CWT & Synchrosqueezing](docs\u002Fexamples.md#cwt--synchrosqueezing)\n- [CQT & Chroma](docs\u002Fexamples.md#cqt--chroma)\n- [Different Wavelet Type](docs\u002Fexamples.md#different-wavelet-type)\n- [Spectral Features](docs\u002Fexamples.md#spectral-features)\n- [Pitch Estimate](docs\u002Fexamples.md#pitch-estimate)\n- [Onset Detection](docs\u002Fexamples.md#onset-detection)\n- [Harmonic Percussive Source Separation](docs\u002Fexamples.md#harmonic-percussive-source-separation)\n\nMore example scripts are provided in the [Documentation](https:\u002F\u002Faudioflux.top\u002F) section.\n\n## Benchmark\n\nserver hardware:\n\n    - CPU: AMD Ryzen Threadripper 3970X 32-Core Processor\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FlibAudioFlux_audioFlux_readme_e03dd3b2e295.png' width=\"800\" >\n\nMore detailed performance benchmark are provided in the [Benchmark](https:\u002F\u002Fgithub.com\u002FlibAudioFlux\u002FaudioFlux\u002Ftree\u002Fmaster\u002Fbenchmark) module.\n\n## Documentation\n\nDocumentation of the package can be found online:\n\n[https:\u002F\u002Faudioflux.top](https:\u002F\u002Faudioflux.top\u002F)\n\n## Contributing\n\nWe are more than happy to collaborate and receive your contributions to **`audioFlux`**. If you want to contribute,\nplease fork the latest git repository and create a feature branch. Submitted requests should pass all continuous\nintegration tests.\n\nYou are also more than welcome to suggest any improvements, including proposals for need help, find a bug, have a\nfeature request, ask a general question, new algorithms. \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FlibAudioFlux\u002FaudioFlux\u002Fissues\u002Fnew\">\nOpen an issue\u003C\u002Fa>\n\n## Citing\n\nIf you want to cite **`audioFlux`** in a scholarly work, please use the following ways:\n\n- If you are using the library for your work, for the sake of reproducibility, please cite the version you used as\n  indexed at Zenodo:\n\n  [![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.7548288.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.7548288)\n\n## License\n\naudioFlux project is available MIT License.\n\n\n","\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FlibAudioFlux_audioFlux_readme_cadca27162aa.png'  width=\"400\"  style=\"max-width: 100%;\" > \n\n# audioFlux\n\n\u003C!-- shields.io -->\n![GitHub Workflow Status (with branch)](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Factions\u002Fworkflow\u002Fstatus\u002FlibAudioFlux\u002FaudioFlux\u002Fbuild.yml?branch=master)\n![example branch parameter](https:\u002F\u002Fgithub.com\u002FlibAudioFlux\u002FaudioFlux\u002Factions\u002Fworkflows\u002Fbuild.yml\u002Fbadge.svg?branch=master)\n![language](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flanguage-C%20%7C%20Python%20-blue.svg)\n[![PyPI - Version](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Faudioflux)](https:\u002F\u002Fpypi.org\u002Fproject\u002Faudioflux\u002F)\n[![PyPI - Python Version](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-%3E%3D3.6-brightgreen)](https:\u002F\u002Fpypi.org\u002Fproject\u002Faudioflux\u002F)\n[![Docs](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocs-passing-brightgreen)](https:\u002F\u002Faudioflux.top\u002Findex.html)\n![GitHub](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FlibAudioFlux\u002FaudioFlux)\n\u003C!--[![PyPI Downloads](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fdm\u002Faudioflux.svg?label=Pypi%20downloads)](https:\u002F\u002Fpypi.org\u002Fproject\u002Faudioflux\u002F)-->\n\n[![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.7548288.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.7548288)\n\n\u003C!--[![codebeat badge](https:\u002F\u002Fcodebeat.co\u002Fbadges\u002F0e21a344-0928-4aee-8262-be9a41fa488b)](https:\u002F\u002Fcodebeat.co\u002Fprojects\u002Fgithub-com-libaudioflux-audioflux-master)\n![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpod-v0.1.1-blue.svg)-->\n\n\n**`audioflux`** 是一个用于音频和音乐分析、特征提取的深度学习工具库。它支持数十种时频分析变换方法以及数百种对应的时域和频域特征组合，可以为深度学习网络提供训练数据，并应用于音频领域的各类任务研究，如分类、分离、音乐信息检索（MIR）和自动语音识别（ASR）等。\n\n\u003C!-- **`audioflux`** 具有以下特点： \n- 系统化、多维度的特征提取与组合，可灵活应用于各种任务的研究与分析。\n- 高性能，核心部分采用 C 语言实现，基于不同平台的 FFT 硬件加速，便于大规模数据的特征提取。\n- 支持移动端应用，满足移动端音频流的实时计算需求。 -->\n\n\n##### 新特性\n* v0.1.8\n  * 增加多种音高检测算法：`YIN`、`CEP`、`PEF`、`NCF`、`HPS`、`LHS`、`STFT` 和 `FFP`。\n  * 增加 `PitchShift` 和 `TimeStretch` 算法。\n\n* v0.1.10 \n  * 增加乐器调音算法 `TuneTrack`：精准、快速、平滑，适用于吉他、尤克里里、贝斯、班卓琴、曼陀林、小提琴等乐器。\n\n\n### 目录\n\n- [概述](#overview)\n- [安装](#installation)\n    - [Python 包安装](#python-package-install)\n    - [其他构建方式](#other-build)\n- [快速入门](#quickstart)\n- [基准测试](#benchmark)\n- [文档](#documentation)\n- [贡献](#contributing)\n- [引用](#citing)\n- [许可证](#license)\n\n## 概述\n\n**`audioFlux`** 基于数据流设计，结构上将各个算法模块解耦，能够快速高效地提取多维特征。以下是其主要功能架构图。\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FlibAudioFlux_audioFlux_readme_daa1bb84e25d.png'>\n\u003C!--\u003Cimg src='.\u002Ffeature_all.pdf'>-->\n\n用户可以使用多种多维特征组合，搭配不同的深度学习网络进行训练，从而研究音频领域的各类任务，如分类、分离、MIR 等。\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FlibAudioFlux_audioFlux_readme_ba4cb4d3dd8a.png'>\n\n\n**`audioFlux`** 的主要功能包括 **变换**、**特征** 和 **MIR** 模块。\n\n#### 1. 变换\n\n在时频表示中，主要的变换算法如下：\n\n- **`BFT`**&nbsp;&nbsp; - &nbsp;&nbsp;基于傅里叶变换，类似于短时傅里叶变换。\n- **`NSGT`** - &nbsp; 非平稳 Gabor 变换。\n- **`CWT``**&nbsp;&nbsp; - &nbsp;&nbsp;连续小波变换。\n- **`PWT``**&nbsp;&nbsp; - &nbsp;&nbsp;伪小波变换。\n\n\u003C!-- &emsp -->\n\n上述变换均支持以下频率尺度类型：\n\n- 线性 - 短时傅里叶变换谱图。\n- 等间距 - 等间距尺度谱图。\n- Mel - Mel 尺度谱图。\n- Bark - Bark 尺度谱图。\n- Erb - Erb 尺度谱图。\n- 八度 - 八度尺度谱图。\n- 对数 - 对数尺度谱图。\n\n以下变换不支持多种频率尺度类型，仅作为独立变换使用：\n\n- **`CQT`** - &nbsp;&nbsp;恒 Q 变换。\n- **`VQT`** - &nbsp;&nbsp;变 Q 变换。\n- **`ST``**&nbsp;&nbsp; - &nbsp;&nbsp;S 变换\u002FStockwell 变换。\n- **`FST`** - &nbsp;&nbsp;快速 S 变换。\n- **`DWT`** - &nbsp;&nbsp;离散小波变换。\n- **`WPT`** - &nbsp;&nbsp;小波包变换。\n- **`SWT`** - &nbsp;&nbsp;平稳小波变换。\n\n详细的变换功能、说明及使用方法，请参阅文档。\n\n*_同步挤压_* 或 *_重分配_* 是一种用于锐化时频表示的技术，包含以下算法：\n\n- **`reassign`** - 用于 `STFT` 的重分配变换。\n- **`synsq`** - 使用 `CWT` 数据进行重分配。\n- **`wsst`** - 用于 `CWT` 的重分配变换。\n\n#### 2. 特征\n\n特征模块包含以下算法：\n\n- **`spectral`** - 谱特征，支持所有谱类型。\n- **`xxcc`** - 倒谱系数，支持所有谱类型。\n- **`deconv`** - 谱反卷积，支持所有谱类型。\n- **`chroma`** - 色彩特征，仅支持 `CQT` 谱，以及基于 `BFT` 的线性\u002F八度谱。\n\n\u003C!-- 谐波音级轮廓(HPCP) -->\n\n#### 3. MIR\n\nMIR 模块包含以下算法：\n\n- **`pitch`** - YIN、STFT 等算法。\n- **`onset`** - 谱通量、新颖性等算法。\n- **`hpss`** - 中值滤波、NMF 算法。\n\n## 安装\n\n![language](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fplatform-%20Linux%20%7C%20macOS%20%7C%20Windows%20%7C%20iOS%20%7C%20Android%20-lyellow.svg)\n\n该库是跨平台的，目前支持 Linux、macOS、Windows、iOS 和 Android 系统。\n\n### Python 包安装\n\n要安装 **audioFlux** 包，需使用 Python >=3.6，并通过发布的 Python 包进行安装。\n\n使用 PyPI：\n\n```\n$ pip install audioflux \n```\n\n使用 Anaconda：\n\n```\n$ conda install -c tanky25 -c conda-forge audioflux\n```\n\n\u003C!--阅读安装说明：\nhttps:\u002F\u002Faudioflux.top\u002Finstall-->\n\n### 其他构建方式\n\n- [iOS 构建](docs\u002Finstalling.md#ios-build)\n- [Android 构建](docs\u002Finstalling.md#android-build)\n- [从源码构建](docs\u002Finstalling.md#building-from-source)\n\n## 快速入门\n\n- [梅尔谱与MFCC](docs\u002Fexamples.md#mel--mfcc)\n- [连续小波变换与同步挤压变换](docs\u002Fexamples.md#cwt--synchrosqueezing)\n- [恒Q变换与色度特征](docs\u002Fexamples.md#cqt--chroma)\n- [不同小波类型](docs\u002Fexamples.md#different-wavelet-type)\n- [频谱特征](docs\u002Fexamples.md#spectral-features)\n- [音高估计](docs\u002Fexamples.md#pitch-estimate)\n- [节拍检测](docs\u002Fexamples.md#onset-detection)\n- [谐波与打击乐源分离](docs\u002Fexamples.md#harmonic-percussive-source-separation)\n\n更多示例脚本请参阅[文档](https:\u002F\u002Faudioflux.top\u002F)部分。\n\n## 基准测试\n\n服务器硬件：\n\n    - CPU：AMD Ryzen Threadripper 3970X 32核处理器\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FlibAudioFlux_audioFlux_readme_e03dd3b2e295.png' width=\"800\" >\n\n更详细的性能基准测试信息请参见[Benchmark](https:\u002F\u002Fgithub.com\u002FlibAudioFlux\u002FaudioFlux\u002Ftree\u002Fmaster\u002Fbenchmark)模块。\n\n## 文档\n\n该软件包的在线文档可访问以下网址：\n\n[https:\u002F\u002Faudioflux.top](https:\u002F\u002Faudioflux.top\u002F)\n\n## 贡献\n\n我们非常乐意与您合作，并欢迎对**`audioFlux`**做出贡献。如果您希望参与贡献，请先克隆最新的代码仓库并创建一个功能分支。提交的请求必须通过所有持续集成测试。\n\n同时，我们也欢迎您提出任何改进建议，包括需要帮助的事项、发现的漏洞、功能需求、一般性问题或新算法等。请通过\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FlibAudioFlux\u002FaudioFlux\u002Fissues\u002Fnew\">新建议题\u003C\u002Fa>与我们联系。\n\n## 引用\n\n如果您希望在学术论文中引用**`audioFlux`**，请使用以下方式：\n\n- 如果您在工作中使用了该库，为确保结果的可复现性，请引用您所使用的版本，该版本已在Zenodo上进行了索引：\n\n  [![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.7548288.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.7548288)\n\n## 许可证\n\naudioFlux项目采用MIT许可证。","# audioFlux 快速上手指南\n\n**audioFlux** 是一个专为音频和音乐分析设计的深度学习工具库。它支持数十种时频分析变换方法（如 STFT、CWT、CQT 等）以及数百种时域和频域特征组合，适用于音频分类、分离、音乐信息检索 (MIR) 和自动语音识别 (ASR) 等任务。其核心采用 C 语言实现并支持硬件加速，具备高性能和跨平台特性。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：支持 Linux, macOS, Windows, iOS, Android。\n*   **Python 版本**：Python >= 3.6。\n*   **依赖项**：无需额外安装复杂的底层依赖，pip 或 conda 安装时会自动处理。\n\n## 安装步骤\n\n您可以选择通过 PyPI 或 Anaconda 进行安装。国内用户若遇到网络问题，建议配置国内镜像源加速下载。\n\n### 方式一：使用 pip 安装（推荐）\n\n直接使用 pip 命令安装：\n\n```bash\npip install audioflux\n```\n\n**国内加速方案**：\n如果您在中国大陆，建议使用清华或阿里镜像源以提高下载速度：\n\n```bash\npip install audioflux -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n# 或者\npip install audioflux -i https:\u002F\u002Fmirrors.aliyun.com\u002Fpypi\u002Fsimple\u002F\n```\n\n### 方式二：使用 Conda 安装\n\n如果您使用 Anaconda 或 Miniconda 环境：\n\n```bash\nconda install -c tanky25 -c conda-forge audioflux\n```\n\n## 基本使用\n\naudioFlux 的核心功能模块包括 `transform`（变换）、`feature`（特征提取）和 `mir`（音乐信息检索）。以下是一个最基础的示例，展示如何读取音频文件并提取 **Mel 频谱图** 和 **MFCC 特征**。\n\n### 示例：提取 Mel 频谱与 MFCC\n\n```python\nimport audioflux as af\nimport numpy as np\n\n# 1. 创建音频对象 (替换为您的音频文件路径)\naudio_path = \"your_audio_file.wav\"\nwith af.AudioFile(audio_path) as af_obj:\n    # 读取音频数据\n    data_arr = af_obj.read()\n    sample_rate = af_obj.sample_rate\n\n    # 2. 时频变换：计算短时傅里叶变换 (BFT) 获取频谱\n    # window_len: 窗口长度，slide_len: 滑动步长\n    bft_obj = af.BFT(window_len=2048, slide_len=512, sample_rate=sample_rate)\n    spec_data = bft_obj.transform(data_arr)\n\n    # 3. 特征提取：基于频谱计算 Mel 频谱图\n    mel_obj = af.Mel(num=128, sample_rate=sample_rate)\n    mel_spec = mel_obj.extract(spec_data)\n\n    # 4. 特征提取：计算 MFCC 特征 (通常取前 13-20 维)\n    mfcc_obj = af.MFCC(num=13, sample_rate=sample_rate)\n    mfcc_data = mfcc_obj.extract(spec_data)\n\n    print(f\"原始音频形状：{data_arr.shape}\")\n    print(f\"Mel 频谱形状：{mel_spec.shape}\")\n    print(f\"MFCC 特征形状：{mfcc_data.shape}\")\n\n# 释放资源\nbft_obj.close()\nmel_obj.close()\nmfcc_obj.close()\n```\n\n### 更多功能提示\n\n*   **其他变换**：除了 `BFT` (类 STFT)，还支持 `CWT` (连续小波变换), `CQT` (常数 Q 变换), `NSGT` 等。\n*   **音高检测**：使用 `af.Pitch` 模块（支持 YIN, STFT 等算法）进行音高估计。\n*   **起止点检测**：使用 `af.Onset` 模块检测音频事件的起始点。\n*   **源分离**：使用 `af.HPSS` 模块进行谐波与打击乐源的分离。\n\n更多详细示例和 API 文档请访问：[https:\u002F\u002Faudioflux.top](https:\u002F\u002Faudioflux.top)","某音乐科技公司的算法团队正在开发一款面向专业乐手的智能调音与音高分析 App，需要处理吉他、小提琴等多种乐器的实时音频流。\n\n### 没有 audioFlux 时\n- **算法集成繁琐**：团队需分别寻找并拼接 YIN、CEP 等不同音高检测算法的代码库，接口不统一导致调试耗时极长。\n- **实时性能瓶颈**：纯 Python 实现的特征提取在移动端延迟过高，无法做到毫秒级的音高追踪，导致调音指示器出现明显卡顿。\n- **功能扩展困难**：想要增加变调（PitchShift）或变速（TimeStretch）功能时，缺乏现成的高质量模块，需从零研发或依赖重型商业 SDK。\n- **特征维度单一**：难以灵活组合时域与频域特征，导致深度学习模型在复杂背景噪音下的乐器分类准确率迟迟无法提升。\n\n### 使用 audioFlux 后\n- **一站式算法调用**：audioFlux 内置了 YIN、HPS 等十余种音高算法及 TuneTrack 专用调音模块，统一的数据流设计让团队一天内即可完成多算法对比测试。\n- **端侧实时响应**：得益于核心部分的 C 语言实现与 FFT 硬件加速，audioFlux 在手机上实现了低延迟的音频流处理，调音反馈丝滑流畅。\n- **功能快速落地**：直接调用 audioFlux 提供的 PitchShift 和 TimeStretch 接口，团队无需重复造轮子，迅速上线了练习辅助中的变速不变调功能。\n- **模型效果显著优化**：利用 audioFlux 丰富的时频变换（如 NSGT、CWT）构建多维特征组合，训练出的分类模型在嘈杂环境下的乐器识别率提升了 15%。\n\naudioFlux 通过高性能的多维特征提取与模块化设计，将原本数周的音频算法研发周期缩短至数天，同时确保了移动端极致的实时体验。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FlibAudioFlux_audioFlux_cadca271.png","libAudioFlux","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FlibAudioFlux_817ebe91.png","A library for audio and music analysis,feature extraction",null,"https:\u002F\u002Faudioflux.top","https:\u002F\u002Fgithub.com\u002FlibAudioFlux",[79,83,87,91],{"name":80,"color":81,"percentage":82},"C","#555555",66.4,{"name":84,"color":85,"percentage":86},"Python","#3572A5",33.2,{"name":88,"color":89,"percentage":90},"CMake","#DA3434",0.3,{"name":92,"color":93,"percentage":94},"Shell","#89e051",0.2,3298,148,"2026-04-11T14:28:18","MIT","Linux, macOS, Windows, iOS, Android","未说明 (核心部分为 C 实现，支持基于不同平台的 FFT 硬件加速，但未明确指定必须使用 NVIDIA GPU 或特定 CUDA 版本)","未说明",{"notes":103,"python":104,"dependencies":105},"该库核心部分采用 C 语言实现以提供高性能，并支持移动端（iOS\u002FAndroid）的音频流实时计算。除了通过 PyPI 安装外，还支持通过 Anaconda 安装。提供了多种时频分析变换方法（如 BFT, NSGT, CWT 等）及特征提取功能，适用于深度学习网络的训练数据准备。",">=3.6",[],[14,107,108],"其他","音频",[110,111,112,113,114,115,116,117,118,119,120,121,122,123,124,125,126,127,128],"audio","audio-analysis","audio-features","python","music","music-information-retrieval","spectrogram","wavelet-transform","spectral-analysis","wavelet-analysis","time-frequency-analysis","mfcc","pitch","mir","music-analysis","signal-processing","audio-processing","deep-learning","machine-learning","2026-03-27T02:49:30.150509","2026-04-14T12:26:54.764926",[132,137,142,147],{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},33120,"在 Windows 11 上安装 audioflux 后导入模块报错 [WinError 126] 找不到指定的模块，如何解决？","该问题通常由版本兼容性引起。维护者已提供测试版本修复此问题。您可以下载测试包 [audioflux-0.1.2-py3-none-any.whl.zip](https:\u002F\u002Fgithub.com\u002FlibAudioFlux\u002FaudioFlux\u002Ffiles\u002F10900387\u002Faudioflux-0.1.2-py3-none-any.whl.zip)，然后使用以下命令进行本地安装：\npip install path\u002Faudioflux-0.1.2-py3-none-any.whl\n（请将 path 替换为文件实际所在的路径）","https:\u002F\u002Fgithub.com\u002FlibAudioFlux\u002FaudioFlux\u002Fissues\u002F6",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},33121,"如何在 M1 Macbook Pro (ARM 架构) 上运行 audioflux？报错显示架构不兼容 (have x86_64, need arm64e)。","官方后续版本将增加对 Mac ARM 架构的支持。目前您可以先使用提供的测试版本来解决架构不兼容问题。请下载测试包 [audioflux-0.1.3-py3-none-any.whl.zip](https:\u002F\u002Fgithub.com\u002FlibAudioFlux\u002FaudioFlux\u002Ffiles\u002F11008498\u002Faudioflux-0.1.3-py3-none-any.whl.zip)，并使用以下命令本地安装：\npip install path\u002Faudioflux-0.1.3-py3-none-any.whl\n（请将 path 替换为文件实际所在的路径）","https:\u002F\u002Fgithub.com\u002FlibAudioFlux\u002FaudioFlux\u002Fissues\u002F12",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},33122,"如何获取尚未发布的 audioflux 0.5.0 版本？","audioflux 0.5.0 版本目前尚未发布，因此无法提供。请参考仓库中官方已发布的版本列表。如果您有特定的需求或疑问，可以直接向维护者反馈。","https:\u002F\u002Fgithub.com\u002FlibAudioFlux\u002FaudioFlux\u002Fissues\u002F47",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},33123,"使用 Matplotlib 3.9.0 时出现 ImportError: cannot import name 'get_cmap' from 'matplotlib.cm' 错误怎么办？","这是由于 Matplotlib 3.9.0 移除了 `matplotlib.cm.get_cmap` 函数导致的兼容性问题。\n解决方案如下：\n1. 如果您使用的是字符串类型的 colormap 名称，请改用 `matplotlib.colormaps[name]`。\n2. 如果您需要处理字符串、None 或 Colormap 对象，请使用 `matplotlib.cm.ColormapRegistry.get_cmap`。\n3. 为了保持向后兼容，也可以继续使用 `matplotlib.pyplot.get_cmap` 函数。","https:\u002F\u002Fgithub.com\u002FlibAudioFlux\u002FaudioFlux\u002Fissues\u002F37",[153,158,163,168,173,178,183,188,193,198],{"id":154,"version":155,"summary_zh":156,"released_at":157},255280,"v0.1.9","* 新特性：\n    * 添加 `audioflux.utils.synth_f0`。\n* 修复 bug：\n    * 修复 `audioflux.display.fill_spec` 的 bug。[#37](https:\u002F\u002Fgithub.com\u002FlibAudioFlux\u002FaudioFlux\u002Fissues\u002F37>)","2024-05-24T09:49:30",{"id":159,"version":160,"summary_zh":161,"released_at":162},255281,"v0.1.8","* 新特性：\n    * 添加 `audioflux.STFT` 算法。\n    * 添加 `audioflux.PitchFFP` 算法。\n    * 添加 `audioflux.PitchShift` 和 `audioflux.TimeStretch` 算法。\n    * 为 `audioflux.Temporal` 类添加 `temporal` 方法。\n    * 优化性能。\n* 修复 bug：\n    * 修复 `nmf` 的 bug。\n","2024-02-28T15:11:06",{"id":164,"version":165,"summary_zh":166,"released_at":167},255282,"v0.1.7","* 添加倒谱图算法\n* 添加音高CEP\u002F音高HPS\u002F音高LHS\u002F音高NCF\u002F音高PEF\u002F音高STFT\u002F音高YIN算法\n* 修复 bug","2023-12-16T10:54:59",{"id":169,"version":170,"summary_zh":171,"released_at":172},255283,"v0.1.6","* 修复 bug：\n    * 修复 v0.1.5 中的 bug。\n    * 修复 macOS 下的 Conda bug。","2023-04-25T09:48:47",{"id":174,"version":175,"summary_zh":176,"released_at":177},255284,"v0.1.5","* 新特性：\n    * 优化 macOS\u002FLinux 平台的性能。\n* 修改的 API：\n    * 移除 `audioflux.mel_spectrogram` 的参数 `is_reassign=False`。如果需要重分配功能，可以使用 `audioflux.BFT`。\n    * 移除 `audioflux.bark_spectrogram` 的参数 `is_reassign=False`。如果需要重分配功能，可以使用 `audioflux.BFT`。\n    * 移除 `audioflux.erb_spectrogram` 的参数 `is_reassign=False`。如果需要重分配功能，可以使用 `audioflux.BFT`。\n* 修复 bug：\n    * 支持 Ubuntu 18.04 系统。","2023-04-23T09:47:11",{"id":179,"version":180,"summary_zh":181,"released_at":182},255285,"v0.1.4","* Python\n    * 新特性：\n        * 支持了多种音频格式，如 MP3 等。\n        * 增加了对 macOS ARM 平台的支持。\n        * 支持多声道音频。\n    * 修改的 API：\n        * `audioflux.read` 增加了对音频文件列表和目录的支持，并新增了单声道转换和修改采样率的参数。\n        * 修改了 `audioflux.Temporal` API。\n        * 修改了 `audioflux.CWT` 参数：`num=84`。\n        * 修改了 `audioflux.PWT` 参数：`num=84, low_fre=None, high_fre=None`。\n        * 修改了 `audioflux.WSST` 参数：`num=84`。\n        * `audioflux.chirp` 现在使用 `scipy` 实现。同时修改了参数 `phi=None`，移除了参数 `linear`，新增了参数 `method='logarithmic'`。\n        * 新增了 `audioflux.resample` 和 `audioflux.convert_mono` 方法。\n    * 移除的 API：\n        * 所有调试相关的方法（`debug\u002Fenable_debug`）。\n        * `audioflux.Resample.enable_continue`。\n        * `audioflux.WindowResample.enable_continue`。\n        * `audioflux.NSGT.get_cell_data`。\n        * `audioflux.PWT.pwt_det`。\n        * `audioflux.PWT.enable_det`。\n        * `audioflux.Temporal.ezr`。\n        * `audioflux.Temporal.temporal`。\n    * 修复的 bug：\n        * 修复了 `audioflux.Temporal` 对象中的内存泄漏问题。\n        * 将 `audioflux.WindowResample.__init__` 的实现改为 C 语言方式。\n        * 修复了一些已知的 bug。","2023-03-24T09:32:32",{"id":184,"version":185,"summary_zh":186,"released_at":187},255286,"v0.1.3","1. 修复 Windows 下 Python 3.6\u002F3.7 的兼容性问题\n2. 更新文档","2023-03-07T08:21:31",{"id":189,"version":190,"summary_zh":191,"released_at":192},255287,"v0.1.2","1. 添加了示例音频文件  \n2. 更新了文档","2023-02-11T13:20:03",{"id":194,"version":195,"summary_zh":196,"released_at":197},255288,"v0.1.1","本次小版本更新主要修复了若干 bug，同时也新增了几项功能。\n\n优化了以下方法：\n* 语谱图\n  * 线性语谱图\n  * 梅尔语谱图\n  * 巴克语谱图\n  * ERB 语谱图\n  * CQT\n  * VQT\n* 倒谱系数\n  * MFCC\n  * BFFC\n  * GTCC\n  * CQCC\n\n并对部分参数的默认值进行了调整。","2023-01-19T00:46:06",{"id":199,"version":200,"summary_zh":201,"released_at":202},255289,"v0.0.1","首次公开发布","2023-01-18T16:11:17"]