[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-JinhuaLiang--WavCraft":3,"tool-JinhuaLiang--WavCraft":64},[4,17,27,35,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,43,44,45,15,46,26,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,46],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},2181,"OpenHands","OpenHands\u002FOpenHands","OpenHands 是一个专注于 AI 驱动开发的开源平台，旨在让智能体（Agent）像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点，通过自动化流程显著提升开发速度。\n\n无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员，还是需要快速原型验证的技术团队，都能从中受益。OpenHands 提供了灵活多样的使用方式：既可以通过命令行（CLI）或本地图形界面在个人电脑上轻松上手，体验类似 Devin 的流畅交互；也能利用其强大的 Python SDK 自定义智能体逻辑，甚至在云端大规模部署上千个智能体并行工作。\n\n其核心技术亮点在于模块化的软件智能体 SDK，这不仅构成了平台的引擎，还支持高度可组合的开发模式。此外，OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩，证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能，支持与 Slack、Jira 等工具集成，并提供细粒度的权限管理，适合从个人开发者到大型企业的各类用户场景。",70626,"2026-04-05T22:51:36",[26,15,13,45],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":10,"env_os":95,"env_gpu":96,"env_ram":96,"env_deps":97,"category_tags":100,"github_topics":79,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":101,"updated_at":102,"faqs":103,"releases":132},543,"JinhuaLiang\u002FWavCraft","WavCraft","Official repo for WavCraft, an AI agent for audio creation and editing","WavCraft 是一款创新的 AI 智能体，专注于音频内容的自动化创作与编辑。它打破了传统音频制作对专业软件的依赖，让用户只需输入一句简单的自然语言指令，就能完成从音频生成到精细编辑的全过程。例如，你可以轻松为现有的水声片段添加背景里的狗吠声，或者根据文字描述直接生成全新的音效。\n\n这项技术主要解决了音频处理流程复杂、门槛高的问题，让非专业人士也能体验高级的音频合成乐趣。WavCraft 特别适合人工智能研究人员、软件开发人员以及对音频创意感兴趣的设计师使用。其核心优势在于采用大语言模型作为驱动中枢，灵活调度多种音频专家模型和数字信号处理函数，实现了真正的文本引导式操作。此外，项目还集成了独特的水印机制，帮助用户识别音频是否经过 WavCraft 处理，保障内容溯源。目前支持本地部署及开源大模型接入，但请注意官方声明该项目主要用于学术研究目的。","# 🌊WavCraft\n\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-Paper-\u003CCOLOR>.svg)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.09527)    [![demo](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FNotion-Demo_Page-blue)](https:\u002F\u002Ffirst-riddle-7e9.notion.site\u002FWavCraft-Demo-40c079fc82ca411ca0520b9d65abd3f5)\n\nGenerate and edit the audio with a simple sentence.\n\nThis repo currently support:\n\n* text-guided audio editing: edit the content of given audio clip(s) conditioned on text input\n* text-guided audio generation: create an audio clip given text input\n* audio scriptwriting: get more inspiration from WavCraft by prompting a script setting and let the model do the scriptwriting and create the sound for you.\n* check if your audio file is synthesized by WavCraft\n\n## Change log\n\n**2024-05-06**: Support openLLMs (MistralAI family) for WavCraft.\n\n**2024-03-20**: Add watermarking to the system\n\n## Content\n\n- [Usage](##usage)\n  - [Installation](###installation)\n  - [Audio edition using a single line](###audio-edition-using-a-single-line)\n  - [Audio edition via interaction](###audio-edition-via-interaction)\n  - [Check if an audio file is generated\u002Fmodified by WavCraft](###check_if_an_audio_file_is_generated\u002Fmodified_by_wavcraft)\n- [Approach](##approach)\n- [Acknowledgments](##acknowledgments)\n- [Citing](##citing)\n\n## Usage\n\n### Installation\n\n```\nsource scripts\u002Fsetup_envs.sh\n```\n\n## Configure environment\n\n```bash\nexport OPENAI_KEY=YOUR_OPENAI_KEY\nexport HF_KEY=YOUR_HF_KEY\n```\n\n## Launch deep learning models on local\n\n```bash\nsource scripts\u002Fstart_services.sh\n```\n\n## Play with WavCraft\n\n### Audio edition using a single line\n\n```\npython3 WavCraft.py basic -f \\\n--input-wav assets\u002Fduck_quacking_in_water.wav \\\n--input-text \"Add dog barking.\"\n```\n\n### Audio edition via interaction\n\n```\npython3 WavCraft-chat.py basic -f -c\n[New session is create]\nAdd audio files(s) (each file starts with '+'): +assets\u002Fduck_quacking_in_water.wav\nEnter your instruction (input `EXIT` to exit the process): \"Add dog barking\"\n\n```\n\n### Check if an audio file is generated\u002Fmodified by WavCraft\n\n```\npython3 check_watermark.py --wav-path \u002Fpath\u002Fto\u002Faudio\u002Ffile\n```\n\n### Use openLLMs for generation\u002Fediting\n```\npython3 WavCraft.py basic -f \\\n--input-wav assets\u002Fduck_quacking_in_water.wav \\\n--input-text \"Add dog barking.\" \\\n--model 'mistralai\u002FMistral-7B-Instruct-v0.2'\n```\n\n## Approach\n\nWavCraft is an LLM-driven agent for audio content creation and editing. It applies LLM to connect various audio expert models and DSP function together. An overview of WavCraft architecture can be found bellow:\n\n![overview](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJinhuaLiang_WavCraft_readme_47ba8ecbb7ef.png)\n\n## Disclaimer\n\nThis repository is for **research purpose only**. We are not responsible for audio generated\u002Fedited using semantics created by this model. Also, everyone use WavCraft must NOT disable the watermarking techniques in anyway.\n\n## Acknowledgments\n\nWe appreciate [WavJourney](https:\u002F\u002Fgithub.com\u002FAudio-AGI\u002FWavJourney), [AudioCraft](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Faudiocraft), [AudioSep](https:\u002F\u002Fgithub.com\u002FAudio-AGI\u002FAudioSep), [AudioSR](https:\u002F\u002Fgithub.com\u002Fhaoheliu\u002Fversatile_audio_super_resolution), [AudioLDM](https:\u002F\u002Fgithub.com\u002Fhaoheliu\u002FAudioLDM), [WavMark](https:\u002F\u002Fgithub.com\u002Fwavmark\u002Fwavmark) for their amazing code work.\n\n## Citing\n\nIf you found our work is helpful, please cite our work:\n```\n@misc{liang2024wavcraft,\n      title={WavCraft: Audio Editing and Generation with Large Language Models}, \n      author={Jinhua Liang and Huan Zhang and Haohe Liu and Yin Cao and Qiuqiang Kong and Xubo Liu and Wenwu Wang and Mark D. Plumbley and Huy Phan and Emmanouil Benetos},\n      year={2024},\n      eprint={2403.09527},\n      archivePrefix={arXiv},\n      primaryClass={eess.AS}\n}\n```\n","# 🌊WavCraft\n\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-Paper-\u003CCOLOR>.svg)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.09527)    [![demo](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FNotion-Demo_Page-blue)](https:\u002F\u002Ffirst-riddle-7e9.notion.site\u002FWavCraft-Demo-40c079fc82ca411ca0520b9d65abd3f5)\n\n通过简单的句子生成和编辑音频。\n\n本仓库目前支持：\n\n* 文本引导的音频编辑 (text-guided audio editing)：根据文本输入编辑给定音频片段的内容\n* 文本引导的音频生成 (text-guided audio generation)：根据文本输入创建音频片段\n* 音频脚本创作 (audio scriptwriting)：通过提示脚本设置从 WavCraft 获得更多灵感，让模型为您完成脚本创作并生成声音。\n* 检查您的音频文件是否由 WavCraft 合成\n\n## 更新日志 (Change log)\n\n**2024-05-06**: 支持在 WavCraft 中使用开放大语言模型 (openLLMs)（MistralAI 系列）。\n\n**2024-03-20**: 为系统添加水印技术 (watermarking)\n\n## 目录 (Content)\n\n- [用法 (Usage)](##usage)\n  - [安装 (Installation)](###installation)\n  - [使用单行命令进行音频编辑 (Audio edition using a single line)](###audio-edition-using-a-single-line)\n  - [通过交互进行音频编辑 (Audio edition via interaction)](###audio-edition-via-interaction)\n  - [检查音频文件是否由 WavCraft 生成\u002F修改 (Check if an audio file is generated\u002Fmodified by WavCraft)](###check_if_an_audio_file_is_generated\u002Fmodified_by_wavcraft)\n- [方法 (Approach)](##approach)\n- [致谢 (Acknowledgments)](##acknowledgments)\n- [引用 (Citing)](##citing)\n\n## 用法 (Usage)\n\n### 安装 (Installation)\n\n```\nsource scripts\u002Fsetup_envs.sh\n```\n\n## 配置环境\n\n```bash\nexport OPENAI_KEY=YOUR_OPENAI_KEY\nexport HF_KEY=YOUR_HF_KEY\n```\n\n## 在本地启动深度学习模型\n\n```bash\nsource scripts\u002Fstart_services.sh\n```\n\n## 使用 WavCraft\n\n### 使用单行命令进行音频编辑\n\n```\npython3 WavCraft.py basic -f \\\n--input-wav assets\u002Fduck_quacking_in_water.wav \\\n--input-text \"Add dog barking.\"\n```\n\n### 通过交互进行音频编辑\n\n```\npython3 WavCraft-chat.py basic -f -c\n[New session is create]\nAdd audio files(s) (each file starts with '+'): +assets\u002Fduck_quacking_in_water.wav\nEnter your instruction (input `EXIT` to exit the process): \"Add dog barking\"\n\n```\n\n### 检查音频文件是否由 WavCraft 生成\u002F修改\n\n```\npython3 check_watermark.py --wav-path \u002Fpath\u002Fto\u002Faudio\u002Ffile\n```\n\n### 使用 openLLMs 进行生成\u002F编辑\n```\npython3 WavCraft.py basic -f \\\n--input-wav assets\u002Fduck_quacking_in_water.wav \\\n--input-text \"Add dog barking.\" \\\n--model 'mistralai\u002FMistral-7B-Instruct-v0.2'\n```\n\n## 方法 (Approach)\n\nWavCraft 是一个大语言模型 (LLM) 驱动的智能体，用于音频内容的创建和编辑。它应用 LLM 将各种音频专家模型和数字信号处理 (DSP) 函数连接在一起。WavCraft 架构概览如下：\n\n![overview](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJinhuaLiang_WavCraft_readme_47ba8ecbb7ef.png)\n\n## 免责声明 (Disclaimer)\n\n本仓库仅供**研究用途**。我们不对使用该模型创建的语义所生成\u002F编辑的音频负责。此外，所有使用 WavCraft 的用户绝不得以任何方式禁用水印技术。\n\n## 致谢 (Acknowledgments)\n\n我们要感谢 [WavJourney](https:\u002F\u002Fgithub.com\u002FAudio-AGI\u002FWavJourney), [AudioCraft](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Faudiocraft), [AudioSep](https:\u002F\u002Fgithub.com\u002FAudio-AGI\u002FAudioSep), [AudioSR](https:\u002F\u002Fgithub.com\u002Fhaoheliu\u002Fversatile_audio_super_resolution), [AudioLDM](https:\u002F\u002Fgithub.com\u002Fhaoheliu\u002FAudioLDM), [WavMark](https:\u002F\u002Fgithub.com\u002Fwavmark\u002Fwavmark) 提供的出色代码工作。\n\n## 引用 (Citing)\n\n如果您发现我们的工作有所帮助，请引用我们的工作：\n```\n@misc{liang2024wavcraft,\n      title={WavCraft: Audio Editing and Generation with Large Language Models}, \n      author={Jinhua Liang and Huan Zhang and Haohe Liu and Yin Cao and Qiuqiang Kong and Xubo Liu and Wenwu Wang and Mark D. Plumbley and Huy Phan and Emmanouil Benetos},\n      year={2024},\n      eprint={2403.09527},\n      archivePrefix={arXiv},\n      primaryClass={eess.AS}\n}\n```","# WavCraft 快速上手指南\n\nWavCraft 是一个由大语言模型（LLM）驱动的音频内容创作与编辑代理。它支持文本引导的音频编辑、生成、脚本编写以及水印检测。\n\n## 环境准备\n\n*   **操作系统**: Linux \u002F macOS (基于 Bash 脚本)\n*   **前置依赖**: Python 3, Git\n*   **API 密钥**:\n    *   OpenAI API Key\n    *   Hugging Face (HF) Token\n\n## 安装步骤\n\n1.  **初始化环境**\n    运行脚本自动配置依赖环境：\n    ```bash\n    source scripts\u002Fsetup_envs.sh\n    ```\n\n2.  **配置环境变量**\n    导出您的 API 密钥以授权访问：\n    ```bash\n    export OPENAI_KEY=YOUR_OPENAI_KEY\n    export HF_KEY=YOUR_HF_KEY\n    ```\n\n3.  **启动本地深度学习服务**\n    启动所需的后台服务：\n    ```bash\n    source scripts\u002Fstart_services.sh\n    ```\n\n## 基本使用\n\n### 1. 单行命令进行音频编辑\n通过文本指令修改给定音频片段的内容：\n```bash\npython3 WavCraft.py basic -f \\\n--input-wav assets\u002Fduck_quacking_in_water.wav \\\n--input-text \"Add dog barking.\"\n```\n\n### 2. 交互式音频编辑\n进入对话模式，可添加多个文件并输入指令：\n```bash\npython3 WavCraft-chat.py basic -f -c\n```\n*在交互界面中输入 `+文件名` 添加音频，输入指令后回车执行。*\n\n### 3. 检测音频水印\n检查音频是否由 WavCraft 生成或修改：\n```bash\npython3 check_watermark.py --wav-path \u002Fpath\u002Fto\u002Faudio\u002Ffile\n```\n\n### 4. 使用开源大模型 (OpenLLMs)\n支持使用 Mistral 等开源模型替代 OpenAI 进行生成或编辑：\n```bash\npython3 WavCraft.py basic -f \\\n--input-wav assets\u002Fduck_quacking_in_water.wav \\\n--input-text \"Add dog barking.\" \\\n--model 'mistralai\u002FMistral-7B-Instruct-v0.2'\n```\n\n> **注意**: 本工具仅供研究用途，使用时请勿禁用水印技术。","独立游戏开发者正在为原型关卡制作森林环境音效，需要频繁调整背景声以匹配动态剧情氛围。\n\n### 没有 WavCraft 时\n- 需花费大量时间在素材网站搜索并下载各类自然音效，筛选过程耗时且存在版权风险。\n- 必须依赖专业 DAW 软件进行多轨剪辑与混音，技术门槛高导致开发周期被拉长。\n- 每次微调需求（如“减弱雨声”）都需重新导入素材并手动调整音量曲线，灵活性差。\n- 缺乏对合成音频的溯源机制，难以确认最终输出是否符合发布平台的合规要求。\n\n### 使用 WavCraft 后\n- 仅需输入“森林清晨鸟鸣”等文本指令，即可直接生成高质量环境音，无需外部素材。\n- 支持文本引导编辑，直接命令“添加狗叫声”即可自动融合到原音频中，降低操作难度。\n- 交互式会话模式允许连续修改，无需反复导出导入，实现创意想法的秒级迭代验证。\n- 内置水印检测功能，可一键验证音频是否由系统生成，有效保障内容安全与合规性。\n\nWavCraft 通过大模型驱动音频工作流，让非专业人员也能高效完成专业级音效创作与编辑。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJinhuaLiang_WavCraft_b03d8cea.png","JinhuaLiang","Jinhua Liang","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FJinhuaLiang_9a3488cc.jpg","A Ph.D. student from Centre for Digial Music (C4DM), Queen Mary University of London.",null,"London","https:\u002F\u002Fgithub.com\u002FJinhuaLiang",[83,87],{"name":84,"color":85,"percentage":86},"Python","#3572A5",96.7,{"name":88,"color":89,"percentage":90},"Shell","#89e051",3.3,526,61,"2026-03-24T14:24:11","NOASSERTION","Linux, macOS","未说明",{"notes":98,"python":99,"dependencies":96},"需配置 OPENAI_KEY 和 HF_KEY 环境变量；安装和启动需执行 shell 脚本 (setup_envs.sh, start_services.sh)，暗示基于 Unix 环境；支持 MistralAI 等 openLLMs 模型；强制要求保留水印技术；声明仅限研究用途。","3.x",[47,15],"2026-03-27T02:49:30.150509","2026-04-06T08:46:04.352044",[104,109,114,119,123,127],{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},2193,"应该使用哪个 Conda 环境名称来运行 WavCraft？","在当前版本中，应使用 \"WavCraft\" 环境，而不是 \"AudioEditor\" 环境。如果您找不到 AudioEditor 环境，请确认是否创建或激活了名为 WavCraft 的环境。","https:\u002F\u002Fgithub.com\u002FJinhuaLiang\u002FWavCraft\u002Fissues\u002F5",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},2194,"如何复现论文中的 AUDIT 实验结果？","我们使用了原始论文中报告的检查点（checkpoint）进行复现。关于训练所使用的具体数据集等详细信息，建议直接联系 AUDIT 项目的作者获取。","https:\u002F\u002Fgithub.com\u002FJinhuaLiang\u002FWavCraft\u002Fissues\u002F3",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},2195,"运行 WavCraft 推理前必须启动本地专家模型服务吗？","是的。在使用 WavCraft 之前，您必须在本地启动专家模型服务。请执行命令 `source scripts\u002Fstart_services.sh`，并检查相关日志以确认应用已成功启动。","https:\u002F\u002Fgithub.com\u002FJinhuaLiang\u002FWavCraft\u002Fissues\u002F4",{"id":120,"question_zh":121,"answer_zh":122,"source_url":118},2196,"如何配置 OpenAI 和 HuggingFace 的 API Key？","首先运行 `source scripts\u002Fsetup_envs.sh`，然后在终端导出您的密钥：\n`export OPENAI_KEY=YOUR_OPENAI_KEY`\n`export HF_KEY=YOUR_HF_KEY`\n确保在执行推理命令前完成此步骤。",{"id":124,"question_zh":125,"answer_zh":126,"source_url":118},2197,"标准的音频编辑推理命令格式是什么？","基本推理命令格式如下：\n`python3 WavCraft.py basic -f --input-wav \u003C输入音频路径> --input-text \u003C文本指令>`\n示例：`python3 WavCraft.py basic -f --input-wav assets\u002Fduck_quacking_in_water.wav --input-text \"Add dog barking.\"`",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},2198,"运行时遇到 `InvalidURL` 或 `http:\u002F\u002FNone:None` 错误如何解决？","该错误通常表示未能正确在本地托管生成模型。请确保已按照说明启动了本地服务（运行 `source scripts\u002Fstart_services.sh`），否则程序无法解析正确的服务地址，导致 URL 解析失败。","https:\u002F\u002Fgithub.com\u002FJinhuaLiang\u002FWavCraft\u002Fissues\u002F1",[]]