[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-SamurAIGPT--Generative-Media-Skills":3,"tool-SamurAIGPT--Generative-Media-Skills":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160411,2,"2026-04-18T23:33:24",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":82,"forks":83,"last_commit_at":84,"license":85,"difficulty_score":32,"env_os":86,"env_gpu":87,"env_ram":88,"env_deps":89,"category_tags":96,"github_topics":100,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":121,"updated_at":122,"faqs":123,"releases":157},9349,"SamurAIGPT\u002FGenerative-Media-Skills","Generative-Media-Skills","Multi-modal Generative Media Skills for AI Agents (Claude Code, Cursor, Gemini CLI). High-quality image, video, and audio generation powered by muapi.ai.","Generative-Media-Skills 是一套专为 AI 智能体（如 Claude Code、Cursor、Gemini CLI）打造的多模态生成媒体工具集。它旨在解决大模型在直接调用图像、视频和音频生成 API 时面临的流程繁琐、缺乏专业领域知识以及输出格式不统一等痛点，让智能体能够高效地创作出专业级的多媒体内容。\n\n这套工具非常适合开发者、AI 工程师以及希望将多媒体生成能力集成到自动化工作流中的设计师使用。其核心亮点在于独特的“核心原语 + 专家库”架构：底层通过 muapi-cli 提供简洁的命令行接口，屏蔽了复杂的 API 调用细节；上层则封装了电影导演、UI 设计、矢量 Logo 创作等具备行业知识的“专家技能”，能将模糊的创意意图转化为精确的技术指令。此外，它原生支持 MCP 协议，可一键接入各类 AI 桌面应用，并提供超过 100 种主流 AI 模型（如 Midjourney v7、Flux、Kling 等）的统一访问入口，显著降低了多模态应用开发的门槛。","# 🎭 Generative Media Skills for AI Agents\n\n**The Ultimate Multimodal Toolset for Claude Code, Cursor, and Gemini CLI.**\nA high-performance, schema-driven architecture for AI agents to generate, edit, and display professional-grade images, videos, and audio — powered by the [muapi-cli](https:\u002F\u002Fgithub.com\u002FSamurAIGPT\u002Fmuapi-cli).\n\n\n[🚀 Get Started](#-quick-start) | [🎨 Expert Library](#-expert-library) | [⚙️ Core Primitives](#-core-primitives) | [🤖 MCP Server](#-mcp-server) | [📖 Reference](#-schema-reference)\n\n---\n\n## ✨ Key Features\n\n- **🤖 Agent-Native Design** — CLI-powered scripts with structured JSON outputs, semantic exit codes, and `--jq` filtering for seamless agentic pipelines.\n- **🧠 Expert Knowledge Layer** — Domain-specific skills that bake in professional cinematography, atomic design, and branding logic.\n- **⚡ CLI-Powered Core** — All primitives delegate to [`muapi-cli`](https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002Fmuapi-cli) — no curl, no JSON parsing, no boilerplate.\n- **🖼️ Direct Media Display** — Use the `--view` flag to automatically download and open generated media in your system viewer.\n- **📁 Local File Support** — Auto-upload images, videos, faces, and audio from your local machine to the CDN for processing.\n- **🌈 100+ AI Models** — One-click access to **Midjourney v7, Flux Kontext, Seedance 2.0, Kling 3.0, Veo3**, and more.\n- **🔌 MCP Server** — Run `muapi mcp serve` to expose all 19 tools directly to Claude Desktop, Cursor, or any MCP-compatible agent.\n\n---\n\n## 🏗️ Scalable Architecture\n\nThis repository uses a **Core\u002FLibrary** split to ensure efficiency and high-signal discovery for LLMs:\n\n### ⚙️ Core Primitives (`\u002Fcore`)\nThin wrappers around [`muapi-cli`](https:\u002F\u002Fgithub.com\u002FSamurAIGPT\u002Fmuapi-cli) for raw API access.\n- `core\u002Fmedia\u002F` — File upload\n- `core\u002Fedit\u002F` — Image editing (prompt-based)\n- `core\u002Fplatform\u002F` — Setup, auth & result polling\n\n### 📚 Expert Library (`\u002Flibrary`)\nHigh-value skills that translate creative intent into technical directives.\n- **Cinema Director** (`\u002Flibrary\u002Fmotion\u002Fcinema-director\u002F`) — Technical film direction & cinematography.\n- **Nano-Banana** (`\u002Flibrary\u002Fvisual\u002Fnano-banana\u002F`) — Reasoning-driven image generation (Gemini 3 Style).\n- **UI Designer** (`\u002Flibrary\u002Fvisual\u002Fui-design\u002F`) — High-fidelity mobile\u002Fweb mockups (Atomic Design).\n- **Logo Creator** (`\u002Flibrary\u002Fvisual\u002Flogo-creator\u002F`) — Minimalist vector branding (Geometric Primitives).\n- **Seedance 2 (Doubao Video)** (`\u002Flibrary\u002Fmotion\u002Fseedance-2\u002F`) — Director-level cinematic video generation with text-to-video, image-to-video, and video extension with native audio-video sync.\n\n---\n\n## 🚀 Quick Start\n\n### 1. Install the muapi CLI\n\nThe core scripts require [`muapi-cli`](https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002Fmuapi-cli). Install it once:\n\n```bash\n# via npm (recommended — no Python required)\nnpm install -g muapi-cli\n\n# via pip\npip install muapi-cli\n\n# or run without installing\nnpx muapi-cli --help\n```\n\n### 2. Configure Your API Key\n\n```bash\n# Interactive setup\nmuapi auth configure\n\n# Or pass directly\nmuapi auth configure --api-key \"YOUR_MUAPI_KEY\"\n\n# Get your key at https:\u002F\u002Fmuapi.ai\u002Fdashboard\n```\n\n### 3. Install the Skills\n\n```bash\n# Install all skills to your AI agent\nnpx skills add SamurAIGPT\u002FGenerative-Media-Skills --all\n\n# Or install a specific skill\nnpx skills add SamurAIGPT\u002FGenerative-Media-Skills --skill muapi-media-generation\n\n# Install to specific agents\nnpx skills add SamurAIGPT\u002FGenerative-Media-Skills --all -a claude-code -a cursor\n```\n\n### 4. Generate Your First Image\n\n```bash\nmuapi image generate \"a cyberpunk city at night\" --model flux-dev\n\n# Download the result automatically\nmuapi image generate \"a sunset over mountains\" --model hidream-fast --download .\u002Foutputs\n\n# Extract just the URL (agent-friendly)\nmuapi image generate \"product on white bg\" --model flux-schnell --output-json --jq '.outputs[0]'\n```\n\n### 5. Run an Expert Skill\n\n```bash\n# Use Nano-Banana reasoning to generate a 2K masterpiece\nbash library\u002Fvisual\u002Fnano-banana\u002Fscripts\u002Fgenerate-nano-art.sh \\\n  --file .\u002Fmy-source-image.jpg \\\n  --subject \"a glass hummingbird\" \\\n  --style \"macro photography\" \\\n  --resolution \"2k\" \\\n  --view\n```\n\n### 6. Direct a Cinematic Scene\n\n```bash\ncd library\u002Fmotion\u002Fcinema-director\n\n# Create a 10-second epic reveal\nbash scripts\u002Fgenerate-film.sh \\\n  --subject \"a cybernetic dragon over Tokyo\" \\\n  --intent \"epic\" \\\n  --model \"kling-v3.0-pro\" \\\n  --duration 10 \\\n  --view\n\n# Animate a reference image into video\nbash library\u002Fmotion\u002Fseedance-2\u002Fscripts\u002Fgenerate-seedance.sh \\\n  --mode i2v \\\n  --file .\u002Fconcept.jpg \\\n  --subject \"camera slowly pulls back to reveal the full landscape\" \\\n  --intent \"reveal\" \\\n  --view\n\n# Extend an existing video\nbash library\u002Fmotion\u002Fseedance-2\u002Fscripts\u002Fgenerate-seedance.sh \\\n  --mode extend \\\n  --request-id \"YOUR_REQUEST_ID\" \\\n  --subject \"camera continues pulling back to reveal the vast city\" \\\n  --duration 10\n```\n\n---\n\n## 🤖 MCP Server\n\nRun muapi as a **Model Context Protocol server** so Claude Desktop, Cursor, or any MCP-compatible agent can call generation tools directly — no shell scripts needed.\n\n```bash\nmuapi mcp serve\n```\n\n**Claude Desktop config** (`~\u002FLibrary\u002FApplication Support\u002FClaude\u002Fclaude_desktop_config.json`):\n\n```json\n{\n  \"mcpServers\": {\n    \"muapi\": {\n      \"command\": \"muapi\",\n      \"args\": [\"mcp\", \"serve\"],\n      \"env\": { \"MUAPI_API_KEY\": \"your-key-here\" }\n    }\n  }\n}\n```\n\nThis exposes **19 structured tools** with full JSON Schema input\u002Foutput definitions:\n\n| Tool | Description |\n|------|-------------|\n| `muapi_image_generate` | Text-to-image (14 models) |\n| `muapi_image_edit` | Image-to-image editing (11 models) |\n| `muapi_video_generate` | Text-to-video (13 models) |\n| `muapi_video_from_image` | Image-to-video (16 models) |\n| `muapi_audio_create` | Music generation (Suno) |\n| `muapi_audio_from_text` | Sound effects (MMAudio) |\n| `muapi_enhance_upscale` | AI upscaling |\n| `muapi_enhance_bg_remove` | Background removal |\n| `muapi_enhance_face_swap` | Face swap image\u002Fvideo |\n| `muapi_enhance_ghibli` | Ghibli style transfer |\n| `muapi_edit_lipsync` | Lip sync to audio |\n| `muapi_edit_clipping` | AI highlight extraction |\n| `muapi_predict_result` | Poll prediction status |\n| `muapi_upload_file` | Upload local file → URL |\n| `muapi_keys_list` | List API keys |\n| `muapi_keys_create` | Create API key |\n| `muapi_keys_delete` | Delete API key |\n| `muapi_account_balance` | Get credit balance |\n| `muapi_account_topup` | Add credits (Stripe checkout) |\n\n---\n\n## ⚡ Agentic Pipeline Examples\n\n```bash\n# Submit async, capture request_id, poll when ready\nREQUEST_ID=$(muapi video generate \"a dog running on a beach\" \\\n  --model kling-master --no-wait --output-json --jq '.request_id' | tr -d '\"')\n\n# ... do other work ...\n\nmuapi predict wait \"$REQUEST_ID\" --download .\u002Foutputs\n\n# Pipe a prompt from another command\ngenerate_prompt | muapi image generate - --model flux-dev\n\n# Chain: upload → edit → download\nURL=$(muapi upload file .\u002Fphoto.jpg --output-json --jq '.url' | tr -d '\"')\nmuapi image edit \"make it look like a painting\" --image \"$URL\" \\\n  --model flux-kontext-pro --download .\u002Foutputs\n```\n\n---\n\n## 📖 Schema Reference\n\nThis repository includes a streamlined `schema_data.json` that core scripts use at runtime to:\n- **Validate Model IDs**: Ensures the requested model exists.\n- **Resolve Endpoints**: Automatically maps model names to API endpoints.\n- **Check Parameters**: Validates supported `aspect_ratio`, `resolution`, and `duration` values.\n\nDiscover all available models via the CLI:\n\n```bash\nmuapi models list\nmuapi models list --category video --output-json\n```\n\n---\n\n## 🔧 Compatibility\n\nOptimized for the next generation of AI development environments:\n- **Claude Code** — Direct terminal execution via tools + MCP server mode.\n- **Gemini CLI \u002F Cursor \u002F Windsurf** — Seamless integration as local scripts.\n- **MCP** — Full Model Context Protocol server with typed input\u002Foutput schemas.\n- **CI\u002FCD** — `--output-json`, `--jq`, semantic exit codes for scripting.\n\n---\n\n## 📄 License\nMIT © 2026\n","# 🎭 面向 AI 代理的生成式媒体技能\n\n**适用于 Claude Code、Cursor 和 Gemini CLI 的终极多模态工具集。**  \n一套高性能、基于模式驱动的架构，供 AI 代理生成、编辑和展示专业级图像、视频和音频——由 [muapi-cli](https:\u002F\u002Fgithub.com\u002FSamurAIGPT\u002Fmuapi-cli) 提供支持。\n\n\n[🚀 开始使用](#-quick-start) | [🎨 专家库](#-expert-library) | [⚙️ 核心原语](#-core-primitives) | [🤖 MCP 服务器](#-mcp-server) | [📖 参考文档](#-schema-reference)\n\n---\n\n## ✨ 核心特性\n\n- **🤖 专为代理设计** — 基于 CLI 的脚本，输出结构化 JSON 数据、语义化退出码，并支持 `--jq` 过滤，实现无缝的代理式工作流。\n- **🧠 专家知识层** — 具有领域特性的技能，内置专业电影摄影、原子化设计和品牌逻辑。\n- **⚡ CLI 驱动的核心** — 所有原语均委托给 [`muapi-cli`](https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002Fmuapi-cli)，无需 curl、无需解析 JSON、无需编写样板代码。\n- **🖼️ 直接显示媒体** — 使用 `--view` 标志可自动下载并用系统查看器打开生成的媒体。\n- **📁 本地文件支持** — 自动将本地设备上的图像、视频、人脸和音频上传至 CDN 进行处理。\n- **🌈 100+ 种 AI 模型** — 一键访问 **Midjourney v7、Flux Kontext、Seedance 2.0、Kling 3.0、Veo3** 等多种模型。\n- **🔌 MCP 服务器** — 运行 `muapi mcp serve` 即可将全部 19 个工具直接暴露给 Claude Desktop、Cursor 或任何兼容 MCP 的代理。\n\n---\n\n## 🏗️ 可扩展架构\n\n本仓库采用 **核心\u002F库** 分离的设计，以确保高效性及 LLM 对高价值信息的精准提取：\n\n### ⚙️ 核心原语 (`\u002Fcore`)\n围绕 [`muapi-cli`](https:\u002F\u002Fgithub.com\u002FSamurAIGPT\u002Fmuapi-cli) 构建的轻量封装层，用于直接调用 API。\n- `core\u002Fmedia\u002F` — 文件上传\n- `core\u002Fedit\u002F` — 图像编辑（基于提示）\n- `core\u002Fplatform\u002F` — 设置、认证及结果轮询\n\n### 📚 专家库 (`\u002Flibrary`)\n高价值技能，能够将创意意图转化为技术指令。\n- **电影导演** (`\u002Flibrary\u002Fmotion\u002Fcinema-director\u002F`) — 技术性电影指导与摄影。\n- **纳米香蕉** (`\u002Flibrary\u002Fvisual\u002Fnano-banana\u002F`) — 基于推理的图像生成（Gemini 3 风格）。\n- **UI 设计师** (`\u002Flibrary\u002Fvisual\u002Fui-design\u002F`) — 高保真移动端\u002F网页原型设计（原子化设计）。\n- **Logo 创作者** (`\u002Flibrary\u002Fvisual\u002Flogo-creator\u002F`) — 极简矢量品牌设计（几何基元）。\n- **Seedance 2（Doubao Video）** (`\u002Flibrary\u002Fmotion\u002Fseedance-2\u002F`) — 导演级电影级视频生成，支持文生视频、图生视频以及带原生音视频同步的视频扩展。\n\n---\n\n## 🚀 快速入门\n\n### 1. 安装 muapi CLI\n\n核心脚本需要 [`muapi-cli`](https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002Fmuapi-cli)。只需安装一次：\n\n```bash\n# 推荐使用 npm（无需 Python）\nnpm install -g muapi-cli\n\n# 或使用 pip\npip install muapi-cli\n\n# 也可不安装直接运行\nnpx muapi-cli --help\n```\n\n### 2. 配置 API 密钥\n\n```bash\n# 交互式配置\nmuapi auth configure\n\n# 或直接传入密钥\nmuapi auth configure --api-key \"YOUR_MUAPI_KEY\"\n\n# 在 https:\u002F\u002Fmuapi.ai\u002Fdashboard 获取您的密钥\n```\n\n### 3. 安装技能\n\n```bash\n# 将所有技能安装到您的 AI 代理\nnpx skills add SamurAIGPT\u002FGenerative-Media-Skills --all\n\n# 或仅安装特定技能\nnpx skills add SamurAIGPT\u002FGenerative-Media-Skills --skill muapi-media-generation\n\n# 安装到指定代理\nnpx skills add SamurAIGPT\u002FGenerative-Media-Skills --all -a claude-code -a cursor\n```\n\n### 4. 生成第一张图片\n\n```bash\nmuapi image generate \"夜晚的赛博朋克城市\" --model flux-dev\n\n# 自动下载结果\nmuapi image generate \"山间的日落\" --model hidream-fast --download .\u002Foutputs\n\n# 仅提取 URL（适合代理使用）\nmuapi image generate \"白色背景上的产品\" --model flux-schnell --output-json --jq '.outputs[0]'\n```\n\n### 5. 运行专家技能\n\n```bash\n# 使用纳米香蕉推理生成 2K 水准杰作\nbash library\u002Fvisual\u002Fnano-banana\u002Fscripts\u002Fgenerate-nano-art.sh \\\n  --file .\u002Fmy-source-image.jpg \\\n  --subject \"玻璃蜂鸟\" \\\n  --style \"微距摄影\" \\\n  --resolution \"2k\" \\\n  --view\n```\n\n### 6. 指导一场电影级场景\n\n```bash\ncd library\u002Fmotion\u002Fcinema-director\n\n# 制作一段 10 秒的史诗级揭晓镜头\nbash scripts\u002Fgenerate-film.sh \\\n  --subject \"东京上空的赛博龙\" \\\n  --intent \"史诗\" \\\n  --model \"kling-v3.0-pro\" \\\n  --duration 10 \\\n  --view\n\n# 将参考图像动画化为视频\nbash library\u002Fmotion\u002Fseedance-2\u002Fscripts\u002Fgenerate-seedance.sh \\\n  --mode i2v \\\n  --file .\u002Fconcept.jpg \\\n  --subject \"相机缓缓拉远，展现完整风景\" \\\n  --intent \"揭示\" \\\n  --view\n\n# 扩展现有视频\nbash library\u002Fmotion\u002Fseedance-2\u002Fscripts\u002Fgenerate-seedance.sh \\\n  --mode extend \\\n  --request-id \"YOUR_REQUEST_ID\" \\\n  --subject \"相机继续拉远，露出广阔的城市\" \\\n  --duration 10\n```\n\n---\n\n## 🤖 MCP 服务器\n\n将 muapi 作为 **Model Context Protocol 服务器** 运行，这样 Claude Desktop、Cursor 或任何兼容 MCP 的代理都可以直接调用生成工具，无需使用 Shell 脚本。\n\n```bash\nmuapi mcp serve\n```\n\n**Claude Desktop 配置** (`~\u002FLibrary\u002FApplication Support\u002FClaude\u002Fclaude_desktop_config.json`):\n\n```json\n{\n  \"mcpServers\": {\n    \"muapi\": {\n      \"command\": \"muapi\",\n      \"args\": [\"mcp\", \"serve\"],\n      \"env\": { \"MUAPI_API_KEY\": \"your-key-here\" }\n    }\n  }\n}\n```\n\n这将暴露 **19 个结构化工具**，并提供完整的 JSON Schema 输入\u002F输出定义：\n\n| 工具 | 描述 |\n|------|-------------|\n| `muapi_image_generate` | 文本转图像（14 种模型） |\n| `muapi_image_edit` | 图像转图像编辑（11 种模型） |\n| `muapi_video_generate` | 文本转视频（13 种模型） |\n| `muapi_video_from_image` | 图像转视频（16 种模型） |\n| `muapi_audio_create` | 音乐生成（Suno） |\n| `muapi_audio_from_text` | 音效生成（MMAudio） |\n| `muapi_enhance_upscale` | AI 超分辨率 |\n| `muapi_enhance_bg_remove` | 背景移除 |\n| `muapi_enhance_face_swap` | 人脸交换（图像\u002F视频） |\n| `muapi_enhance_ghibli` | 吉卜力风格转换 |\n| `muapi_edit_lipsync` | 音频驱动的口型同步 |\n| `muapi_edit_clipping` | AI 高光提取 |\n| `muapi_predict_result` | 轮询预测状态 |\n| `muapi_upload_file` | 上传本地文件 → URL |\n| `muapi_keys_list` | 列出 API 密钥 |\n| `muapi_keys_create` | 创建 API 密钥 |\n| `muapi_keys_delete` | 删除 API 密钥 |\n| `muapi_account_balance` | 查询账户余额 |\n| `muapi_account_topup` | 充值（Stripe 支付） |\n\n---\n\n## ⚡ 代理式工作流示例\n\n```bash\n# 异步提交，捕获 request_id，待完成后再轮询\nREQUEST_ID=$(muapi video generate \"一只狗在海滩上奔跑\" \\\n  --model kling-master --no-wait --output-json --jq '.request_id' | tr -d '\"')\n\n# ... 进行其他工作 ...\n\nmuapi predict wait \"$REQUEST_ID\" --download .\u002Foutputs\n\n# 将另一个命令的提示直接管道传递\ngenerate_prompt | muapi image generate - --model flux-dev\n\n# 链式操作：上传 → 编辑 → 下载\nURL=$(muapi upload file .\u002Fphoto.jpg --output-json --jq '.url' | tr -d '\"')\nmuapi image edit \"让它看起来像一幅画\" --image \"$URL\" \\\n  --model flux-kontext-pro --download .\u002Foutputs\n```\n\n---\n\n## 📖 模式参考\n\n该仓库包含一个精简的 `schema_data.json` 文件，核心脚本在运行时会使用它来：\n- **验证模型 ID**：确保请求的模型存在。\n- **解析端点**：自动将模型名称映射到 API 端点。\n- **检查参数**：验证支持的 `aspect_ratio`、`resolution` 和 `duration` 值。\n\n可通过 CLI 查看所有可用模型：\n\n```bash\nmuapi models list\nmuapi models list --category video --output-json\n```\n\n---\n\n## 🔧 兼容性\n\n专为下一代 AI 开发环境优化：\n- **Claude Code** — 通过工具 + MCP 服务器模式直接在终端中执行。\n- **Gemini CLI \u002F Cursor \u002F Windsurf** — 可作为本地脚本无缝集成。\n- **MCP** — 完整的 Model Context 协议服务器，提供类型化的输入输出模式。\n- **CI\u002FCD** — 支持 `--output-json`、`--jq` 以及语义化退出码，便于脚本编写。\n\n---\n\n## 📄 许可证\nMIT © 2026","# Generative-Media-Skills 快速上手指南\n\nGenerative-Media-Skills 是一套专为 AI Agent（如 Claude Code、Cursor、Gemini CLI）设计的高性能多模态工具集。它基于 `muapi-cli`，支持通过命令行生成、编辑和展示专业级的图像、视频和音频，并内置了电影导演、UI 设计等专家级技能库。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows (WSL)。\n*   **运行时依赖**：\n    *   **Node.js** (推荐)：用于通过 npm 安装核心 CLI。\n    *   **Python** (可选)：如果您倾向于使用 pip 安装。\n    *   **Bash Shell**：运行专家技能脚本需要标准的 Bash 环境。\n*   **API 密钥**：您需要拥有 [muapi.ai](https:\u002F\u002Fmuapi.ai\u002Fdashboard) 的 API Key 以访问 Midjourney v7, Flux, Kling 3.0, Seedance 2.0 等 100+ 模型。\n\n## 安装步骤\n\n### 1. 安装核心 CLI (`muapi-cli`)\n\n推荐使用 npm 进行全局安装（无需 Python 环境）：\n\n```bash\nnpm install -g muapi-cli\n```\n\n或者使用 pip 安装：\n\n```bash\npip install muapi-cli\n```\n\n如果不希望全局安装，也可临时使用 `npx muapi-cli --help` 运行。\n\n### 2. 配置 API 密钥\n\n安装完成后，运行以下命令进行交互式配置，或直接传入密钥：\n\n```bash\n# 交互式配置（推荐）\nmuapi auth configure\n\n# 或直接指定 Key\nmuapi auth configure --api-key \"YOUR_MUAPI_KEY\"\n```\n*获取密钥请访问：https:\u002F\u002Fmuapi.ai\u002Fdashboard*\n\n### 3. 安装技能库\n\n使用 `skills` 命令将工具集集成到您的 AI Agent 中：\n\n```bash\n# 安装所有技能到当前 Agent\nnpx skills add SamurAIGPT\u002FGenerative-Media-Skills --all\n\n# 或仅安装特定技能（例如媒体生成）\nnpx skills add SamurAIGPT\u002FGenerative-Media-Skills --skill muapi-media-generation\n\n# 指定安装到特定 Agent (如 claude-code 或 cursor)\nnpx skills add SamurAIGPT\u002FGenerative-Media-Skills --all -a claude-code -a cursor\n```\n\n## 基本使用\n\n### 生成第一张图片\n\n使用 `muapi` 命令直接调用模型生成图像。`--view` 参数可自动下载并在系统默认查看器中打开结果。\n\n```bash\n# 基础生成：使用 flux-dev 模型\nmuapi image generate \"a cyberpunk city at night\" --model flux-dev\n\n# 自动下载结果到指定目录\nmuapi image generate \"a sunset over mountains\" --model hidream-fast --download .\u002Foutputs\n\n# Agent 友好模式：仅输出 JSON 中的图片 URL\nmuapi image generate \"product on white bg\" --model flux-schnell --output-json --jq '.outputs[0]'\n```\n\n### 运行专家技能 (Expert Skills)\n\n该项目内置了封装好专业逻辑的脚本，例如“纳米香蕉”（Nano-Banana）推理绘图或“电影导演”视频生成。\n\n**示例：使用 Nano-Banana 生成高质量艺术图**\n\n```bash\nbash library\u002Fvisual\u002Fnano-banana\u002Fscripts\u002Fgenerate-nano-art.sh \\\n  --file .\u002Fmy-source-image.jpg \\\n  --subject \"a glass hummingbird\" \\\n  --style \"macro photography\" \\\n  --resolution \"2k\" \\\n  --view\n```\n\n**示例：生成电影级视频片段**\n\n```bash\ncd library\u002Fmotion\u002Fcinema-director\n\n# 生成 10 秒史诗感视频\nbash scripts\u002Fgenerate-film.sh \\\n  --subject \"a cybernetic dragon over Tokyo\" \\\n  --intent \"epic\" \\\n  --model \"kling-v3.0-pro\" \\\n  --duration 10 \\\n  --view\n```\n\n### 进阶：启用 MCP 服务器\n\n若需在 Claude Desktop 或 Cursor 中直接调用这些工具而无需编写 Shell 脚本，可启动 MCP 服务：\n\n```bash\nmuapi mcp serve\n```\n\n然后在您的 Agent 配置文件（如 `claude_desktop_config.json`）中添加：\n\n```json\n{\n  \"mcpServers\": {\n    \"muapi\": {\n      \"command\": \"muapi\",\n      \"args\": [\"mcp\", \"serve\"],\n      \"env\": { \"MUAPI_API_KEY\": \"your-key-here\" }\n    }\n  }\n}\n```\n\n配置成功后，Agent 将直接拥有包括文生图、图生视频、音频生成、背景移除等在内的 19 种结构化能力。","一位全栈开发者正在为初创公司快速构建产品官网，需要同时生成高质量的品牌 Logo、UI 界面 mockup 以及宣传视频素材。\n\n### 没有 Generative-Media-Skills 时\n- **工作流割裂**：开发者需在浏览器中手动切换 Midjourney、Runway 等多个网页工具，反复复制粘贴提示词，无法在 Cursor 或 Claude Code 等 IDE 内闭环完成。\n- **专业度不足**：直接生成的图像缺乏电影级光影或原子设计规范，Logo 往往不够简洁矢量，需后期花费大量时间用 PS 或 Figma 二次修图。\n- **自动化困难**：难以将媒体生成步骤写入脚本，每次调整参数都要人工干预，无法通过 JSON 结构化数据让 AI Agent 自动判断生成结果是否合格。\n- **模型调用繁琐**：想尝试最新的 Flux 或 Kling 3.0 模型时，需分别注册账号、配置复杂的 API 请求，调试成本极高。\n\n### 使用 Generative-Media-Skills 后\n- **IDE 原生集成**：直接在 Cursor 中调用 `UI Designer` 和 `Logo Creator` 技能，AI Agent 自动将设计意图转化为技术指令，一键生成符合原子设计规范的界面与几何品牌标识。\n- **内置专家知识**：利用 `Cinema Director` 技能自动生成具备专业运镜和布光的宣传视频，无需懂摄影术语即可产出电影级素材，大幅减少后期修改。\n- **流水线自动化**：通过 `--jq` 过滤和结构化 JSON 输出，开发者可编写脚本让 Agent 自动批量生成并验证素材，实现从“文字需求”到“本地文件”的无人值守流程。\n- **统一模型网关**：仅需配置一次 muapi-cli，即可在命令行无缝切换调用 100+ 种顶尖模型（如 Seedance 2.0、Veo3），轻松对比不同模型效果。\n\nGenerative-Media-Skills 将分散的多模态创作能力转化为代码可调用的标准化技能，让开发者能像编写函数一样高效生产专业级媒体资产。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSamurAIGPT_Generative-Media-Skills_aa392bf2.png","SamurAIGPT","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FSamurAIGPT_e72b3e66.png",null,"https:\u002F\u002Fgithub.com\u002FSamurAIGPT",[78],{"name":79,"color":80,"percentage":81},"Shell","#89e051",100,3039,334,"2026-04-18T13:46:31","MIT","Linux, macOS, Windows","无需本地 GPU（基于云端 API）","未说明",{"notes":90,"python":91,"dependencies":92},"该工具是基于 muapi-cli 的命令行封装，所有生成任务（图像、视频、音频）均在云端运行，因此不需要本地高性能显卡或大量显存。核心依赖是 muapi-cli（可通过 npm 或 pip 安装），并需要配置 MUAPI_API_KEY。支持通过 MCP 协议集成到 Claude Desktop、Cursor 等 AI 编辑器中。","非必需（推荐通过 npm 安装，若使用 pip 则需 Python 环境）",[93,94,95],"muapi-cli","Node.js (npm\u002Fnpx)","jq (可选，用于 JSON 过滤)",[15,45,13,97,98,99],"其他","音频","视频",[101,102,103,104,105,106,107,108,109,110,111,112,113,114,115,116,117,118,119,120],"ai-agents","generative-ai","muapi","skills","text-to-audio","text-to-image","text-to-video","ai-art","ai-music","ai-video","flux","image-generation","kling","mcp","midjourney","multimodal-ai","suno","video-generation","agent-tools","claude-code","2026-03-27T02:49:30.150509","2026-04-19T09:16:29.103524",[124,129,134,139,144,149,153],{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},41931,"运行项目时遇到 'Error getting data' 或 HTTP 400 错误，原因是什么？","该问题通常是因为 CPU 不支持 AVX2 指令集。gpt4all 模型需要 CPU 具备 AVX2 支持才能正常运行。解决方法是更换一台支持 AVX2 的机器运行，或者参考 pygpt4all 的相关讨论线程寻找在不支持 AVX2 的 CPU 上的变通方案。","https:\u002F\u002Fgithub.com\u002FSamurAIGPT\u002FGenerative-Media-Skills\u002Fissues\u002F6",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},41932,"执行 'npm run dev' 时报错 'SyntaxError: Unexpected token '?'' 如何解决？","这是因为 Node.js 版本过低，不支持空值合并运算符 (??)。请升级您的 Node.js 版本（建议使用较新的 LTS 版本，如配合 npm 9.x）。如果升级后仍然报错，请尝试删除 `node_modules` 文件夹并重新运行 `npm install` 以重建依赖。","https:\u002F\u002Fgithub.com\u002FSamurAIGPT\u002FGenerative-Media-Skills\u002Fissues\u002F23",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},41933,"安装依赖时提示找不到 'gpt4all==0.2.3' 版本怎么办？","这通常发生在 ARM64 架构的设备（如 Orange Pi、M1\u002FM2 Mac 等）上，因为官方可能未提供该特定版本的 ARM64 Python  wheel 包。如果是 Docker 用户，请注意某些现成的 Docker 镜像可能也不支持 ARM64。建议检查是否有适用于您架构的替代版本，或需要在 x86_64 环境下运行。","https:\u002F\u002Fgithub.com\u002FSamurAIGPT\u002FGenerative-Media-Skills\u002Fissues\u002F33",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},41934,"运行 'npm run dev' 时出现 'ImportError: cannot import name Markup from flask' 错误？","这是因为缺少 Flask 依赖或版本不兼容。请尝试在终端中运行 `pip install flask` 进行安装。如果问题依旧，可能需要检查 Flask 及其相关依赖（如 markupsafe）的版本兼容性。","https:\u002F\u002Fgithub.com\u002FSamurAIGPT\u002FGenerative-Media-Skills\u002Fissues\u002F45",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},41935,"如何在局域网内的其他设备上访问服务（解决 404 或连接问题）？","默认代码中硬编码了 'localhost'，导致只能在本地访问。若要在局域网其他设备访问，需要修改客户端代码中将 'localhost' 替换为服务器实际的 IP 地址。找到客户端文件夹中引用 'localhost' 的文件，将其更改为运行 PrivateGPT 的主机 IP 即可。","https:\u002F\u002Fgithub.com\u002FSamurAIGPT\u002FGenerative-Media-Skills\u002Fissues\u002F25",{"id":150,"question_zh":151,"answer_zh":152,"source_url":143},41936,"运行 'npm run dev' 时出现 'Error: listen EADDRNOTAVAIL' 错误是什么意思？","该错误表示程序试图绑定的 IP 地址（例如日志中的 10.33.42.50）在当前机器上不可用或未配置。请检查您的网络配置，确保该 IP 地址确实绑定在当前网卡上，或者尝试将监听地址改为 '0.0.0.0' 或 '127.0.0.1'。",{"id":154,"question_zh":155,"answer_zh":156,"source_url":133},41937,"推荐的项目运行环境版本组合是什么？","根据社区反馈，一个稳定运行的环境配置参考如下：Python 3.10 (pip 23.1.2) 和 Node.js v9.5.1 (npm)。确保使用这些或更新的兼容版本可以减少许多依赖相关的错误。",[]]