[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-HITsz-TMG--AIGC-Claw":3,"tool-HITsz-TMG--AIGC-Claw":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":96,"forks":97,"last_commit_at":98,"license":99,"difficulty_score":100,"env_os":101,"env_gpu":102,"env_ram":103,"env_deps":104,"category_tags":109,"github_topics":110,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":115,"updated_at":116,"faqs":117,"releases":135},8894,"HITsz-TMG\u002FAIGC-Claw","AIGC-Claw","Your First AIGC Coworker. Chat an Idea. Get a Film. 🦞","AIGC-Claw 是一款开源的\"AI 创意视频生成员工”，旨在将用户的模糊想法或故事梗概自动转化为完整的影视短片。它不仅仅是一个简单的文生视频工具，而是一套覆盖剧本策划、角色场景设计、分镜规划、参考图生成、视频制作到后期剪辑的全流程自动化生产线。\n\n传统 AI 视频生成往往像“黑盒”，用户只能等待最终结果且难以干预。AIGC-Claw 解决了这一痛点，它将创作过程拆解为可视化的中间资产，允许用户在每个关键节点查看、确认、修改甚至重新生成内容，实现了真正的人机协作导演模式。无论是想快速制作短剧的创作者，还是希望探索可控视频生成工作流的研究者，都能从中受益。\n\n其独特亮点在于支持多端交互（如直接通过对话指令触发）和无限剧情续写功能，让用户能像与真实导演团队合作一样，灵活掌控创作走向。对于设计师、内容创作者及 AI 技术爱好者而言，AIGC-Claw 提供了一个低门槛、高自由度的视频创作新范式，让“一句话生成电影”变得可执行、可调整且充满乐趣。","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_b51db77b6857.png\" width=\"100%\" \u002F>\n\u003C\u002Fp>\n\n\u003Ch2 align=\"center\">\n  AIGC-Claw: AI 创意视频生成员工\n\u003C\u002Fh2>\n\n\u003Ch4 align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FVersion-1.0.0-blue.svg\" alt=\"Version\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAIGC-Claw\u002Fblob\u002Fmain\u002FLICENSE\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FHITsz-TMG\u002FAIGC-Claw?style=flat-square\" alt=\"License\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAIGC-Claw\u002Fstargazers\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FHITsz-TMG\u002FAIGC-Claw?style=flat-square&logo=github\" alt=\"Stars\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAIGC-Claw\u002Ffork\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002FHITsz-TMG\u002FAIGC-Claw?style=flat-square&logo=github\" alt=\"Forks\">\n  \u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-3.9+-purple.svg\" alt=\"Python\">\n  \u003Ca href=\"#openclaw-integration\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FOpenClaw-Compatible-ff4444?logo=data:image\u002Fsvg+xml;base64,PHN2ZyB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciIHZpZXdCb3g9IjAgMCAyNCAyNCI+PHBhdGggZD0iTTEyIDJDNi40OCAyIDIgNi40OCAyIDEyczQuNDggMTAgMTAgMTAgMTAtNC40OCAxMC0xMFMxNy41MiAyIDEyIDJ6IiBmaWxsPSJ3aGl0ZSIvPjwvc3ZnPg==\" alt=\"OpenClaw Compatible\">\n  \u003C\u002Fa>\n\u003C\u002Fh4>\n\n\u003Cp align=\"center\">\n  \u003Cb>\u003Ci>\u003Cfont size=\"5\">直接与 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopenclaw\u002Fopenclaw\">OpenClaw\u003C\u002Fa> 对话：\"生成 X 的视频\" → 搞定。\u003C\u002Ffont>\u003C\u002Fi>\u003C\u002Fb>\n\u003C\u002Fp>\n\n\u003Cdiv align=\"center\">\n\n🌐 [**English README**](.\u002FREADME_EN.md)  📺 [**Bilibili**](https:\u002F\u002Fspace.bilibili.com\u002F2031891503?spm_id_from=333.1007.0.0)  ▶️ [**YouTube**](https:\u002F\u002Fwww.youtube.com\u002F@imryanxu)  📖 [**集成指南**](https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAIGC-Claw?tab=readme-ov-file#%E6%96%B9%E5%BC%8F%E4%BA%8Copenclaw-%E8%87%AA%E5%8A%A8%E9%85%8D%E7%BD%AE)   🦀 [**ClawHub**](https:\u002F\u002Fclawhub.ai\u002Fhit-cxf\u002Faigc-director) \n\n\u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F24295\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_da43bb0fd7bb.png\" alt=\"HITsz-TMG%2FAIGC-Claw | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\n\u003C\u002Fdiv>\n\n\n## 💥 News\n\n- `2026\u002F3\u002F27`: 🎬 AIGC-Claw 正式发布，支持从想法到视频生成全流程自动化，用户可随时介入调整。  \n- `2026\u002F4\u002F6`: 🎭 AIGC-Claw 推出第二版，针对短剧进行优化。  \n- `2026\u002F4\u002F9`: ♾️ AIGC-Claw 推出第三版，新增无限续写，剧情可自定义。\n\n\n## 📖 项目介绍\n\nAIGC-Claw 是一个面向创意视频生产的 AI 导演系统。**你只需要给出一句想法、一个故事梗概，甚至一个模糊概念，系统就会把它拆解为可执行的影视工作流，持续产出可查看、可确认、可修改、可交付的中间资产，最终生成完整成片**。\n\n它不是单点式的文生视频工具，而是一条覆盖 **剧本策划 → 角色\u002F场景设计 → 分镜规划 → 参考图生成 → 视频生成 → 后期剪辑** 的全流程生产线。相比只给你一个黑盒结果的闭源视频生成框架，AIGC-Claw是一个真正可协作的 AI 导演团队：前一阶段决定后一阶段，所有关键节点都能可视化、可编辑、可继续生成。\n\n\n\n## 📺 AIGC-Claw 示例（全流程自动化）\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd align=\"center\" width=\"33%\">\n  \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F63c2f33c-da50-44f0-8c26-a65611479d6a\" controls width=\"100%\">\u003C\u002Fvideo>\n\u003C\u002Ftd>\n\u003Ctd align=\"center\" width=\"33%\">\n  \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fd7c65cad-05b9-46c8-ab0e-96e39909f978\" controls width=\"100%\">\u003C\u002Fvideo>\n\u003C\u002Ftd>\n\u003Ctd align=\"center\" width=\"33%\">\n  \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fec67546e-2d3d-4b34-b1ad-7d860a9bc1aa\" controls width=\"100%\">\u003C\u002Fvideo>\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>Web 前端界面\u003C\u002Fb>\u003C\u002Fsummary>\n\u003Cdiv align=\"center\">\n\n| | |\n|:---:|:---:|\n| ![Stage 1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_5cbe5d26489a.png) | ![Stage 2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_eb9f0b1155da.png) |\n| ![Stage 3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_f34625a1f2ce.png) | ![Stage 4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_26194d321cec.png) |\n| ![Stage 5](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_c73e7b37322e.png) | ![Stage 6](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_0efc4556e1a0.png) |\n\n\u003C\u002Fdiv>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>微信交互\u003C\u002Fb>\u003C\u002Fsummary>\n\u003Cdiv align=\"center\">\n\n| | | | |\n|:---:|:---:|:---:|:---:|\n| ![WeChat 1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_9eee675a12c3.jpg) | ![WeChat 2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_c52eabeb608b.jpg) | ![WeChat 3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_eb3079227738.jpg) | ![WeChat 4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_a63ee1087357.jpg) |\n\n\u003C\u002Fdiv>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>飞书交互\u003C\u002Fb>\u003C\u002Fsummary>\n\u003Cdiv align=\"center\">\n\n| | | | |\n|:---:|:---:|:---:|:---:|\n| ![Feishu 1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_bb54054a1c04.jpg) | ![Feishu 2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_d9fd41ca115f.jpg) | ![Feishu 3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_d3b2764f09bb.jpg) | ![Feishu 4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_724383ebf8ca.jpg) |\n\n\u003C\u002Fdiv>\n\u003C\u002Fdetails>\n\n## ✨ 功能特性\n\n| 能力 | 说明 |\n|---|---|\n| 🎬 **从创意到成片的全流程生成** | 一条链路打通剧本、角色、分镜、参考图、视频片段与后期剪辑，把零散生成能力升级为完整视频生产工作流。 |\n| 🖼️ **分镜驱动的可控创作** | 通过结构化剧本、分镜规划与参考图生成，让角色一致性、镜头表达和画面风格更稳定、更可控。 |\n| ✍️ **可修改、可续写、可继续生成** | 支持剧情 \u002F 分镜智能续写，也支持角色、参考图、视频阶段修改后重新生成，避免每次都从头开始。 |\n| 📲 **本地部署、多端协作、产物留存** | 支持 Web 界面、微信 \u002F 飞书协作、OpenClaw Skill 集成，并对剧本、图片、视频片段和最终成片进行全链路留存。 |\n\n---\n\n## 🚀 快速开始\n\n### 方式一：手动安装\n\n```bash\n# 1. 克隆项目\ngit clone https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAIGC-Claw.git\ncd AIGC-Claw\n\n# 2. 配置并启动后端\ncd aigc-director\u002Faigc-claw\u002Fbackend\n\n# 创建虚拟环境并安装依赖\npython -m venv venv\nsource venv\u002Fbin\u002Factivate  # Linux\u002FMac\npip install -r requirements.txt\n\n# 配置环境变量\ncp .env.example .env\n# 编辑 .env 填入 API Key\n\n# 启动后端\npython api_server.py\n# 服务运行在 http:\u002F\u002Flocalhost:8000\n```\n\n```bash\n# 3. 配置并启动前端（新终端）\ncd aigc-director\u002Faigc-claw\u002Ffrontend\nnpm install\nnpm run build\nnpm start\n# 访问 http:\u002F\u002Flocalhost:3000\n```\n\n### 方式二：OpenClaw 自动配置\n\n向 OpenClaw 发送消息：\n\n```\n帮我克隆git仓库：https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAIGC-Claw.git\n然后把AIGC-Claw中的aigc-director文件夹递归复制到.openclaw\u002Fworkspace\u002Fskills目录下，用作AIGC相关的skill\n```\n\n使用时建议指明 \"使用 aigc-director\"：\n\n```\n用aigc-director来生成一个视频，内容是\"一条狗的使命\"\n```\n\n### 方式三：通过 ClawHub 安装\n\n请确保本地安装了clawhub-cli\n\n打开终端，输入命令，所有询问均选择yes\n\n```bash\nclawhub install aigc-director\n```\n\n安装完成后，ClawHub 会将 `aigc-director` 复制到 `workspace\u002Fskills`（或指定的 skills 目录）。\n\n之后可以参考方式一手动安装自行构建项目并运行，也可以使用OpenClaw完成后续项目构建。\n\n在第一次使用 `aigc-director` 时，如果没有手动构建项目，OpenClaw会自动构建前后端并运行，无需手动初始化（构建项目需要配置环境和编译，请耐心等待）。\n\n\n---\n\n## 🔧 配置说明\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>点击展开完整环境要求和变量\u003C\u002Fb>\u003C\u002Fsummary>\n\n### 环境要求\n\n- **Python**: 3.9+\n- **Node.js**: 18+\n- **npm**: 9+\n\n### 后端环境变量\n\n在 `aigc-claw\u002Fbackend\u002F.env` 中配置：\n\n```bash\n# LLM 配置\nLLM_MODEL=qwen3.5-plus\nVLM_MODEL=qwen-vl-plus\n\n# 图像生成\nIMAGE_T2I_MODEL=doubao-seedream-5-0-260128\nIMAGE_IT2I_MODEL=doubao-seedream-5-0-260128\n\n# 视频生成\nVIDEO_MODEL=wan2.6-i2v-flash\nVIDEO_RATIO=16:9\n\n# API Keys\nDASHSCOPE_API_KEY=your_key\nARK_API_KEY=your_key\nDEEPSEEK_API_KEY=your_key\n```\n\n### 可用模型\n\n| 类型 | 模型 |\n|:---:|:---|\n| **LLM** | qwen3.5-plus, deepseek-chat, gpt-4o, gemini-2.5-flash |\n| **VLM** | qwen-vl-plus, gemini-2.5-flash-image |\n| **文生图** | doubao-seedream-5-0, jimeng_t2i_v40, wan2.6-t2i |\n| **图生图** | doubao-seedream-5-0, jimeng_t2i_v40, wan2.6-image |\n| **视频生成** | wan2.6-i2v-flash, kling-v3, jimeng_ti2v_v30_pro |\n\n\u003C\u002Fdetails>\n\n\n## 🙏 致谢\n\nAIGC-Claw 的想法和设计受到了 [AutoResearchClaw](https:\u002F\u002Fgithub.com\u002Faiming-lab\u002FAutoResearchClaw)、[huobao-drama](https:\u002F\u002Fgithub.com\u002Fchatfire-AI\u002Fhuobao-drama)、[LibTV](https:\u002F\u002Fwww.liblib.tv\u002F) 与 [libtv-skills](https:\u002F\u002Fgithub.com\u002Flibtv-labs\u002Flibtv-skills) 的启发。\n\n\n\n## 📚 系列工作\n\n| 框架图 | 论文信息 |\n|:---:|---|\n| \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_35c9d265b268.png\" width=\"420\" alt=\"FilmAgent framework\"\u002F> | **[SIGGRAPH Asia 2024] FilmAgent: Automating Virtual Film Production Through a Multi-Agent Collaborative Framework**\u003Cbr>*Zhenran Xu, Jifang Wang, Longyue Wang, Zhouyi Li, Senbao Shi, Baotian Hu, Min Zhang*\u003Cbr>[[Paper](https:\u002F\u002Fdoi.org\u002F10.1145\u002F3681758.3698014)] [[GitHub](https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAIGC-Claw\u002Fblob\u002Fmain\u002FFilmAgent.md)] |\n| \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_e98235e25f09.png\" width=\"420\" alt=\"Anim-Director result\"\u002F> | **[SIGGRAPH Asia 2024] Anim-Director: A Large Multimodal Model Powered Agent for Controllable Animation Video Generation**\u003Cbr>*Yunxin Li, Haoyuan Shi, Baotian Hu, Longyue Wang, Jiashun Zhu, Jinyi Xu, Zhen Zhao, Min Zhang*\u003Cbr>[[Paper](https:\u002F\u002Fdoi.org\u002F10.1145\u002F3680528.3687688)] [[GitHub](https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAnim-Director\u002Ftree\u002Fmain\u002FAnim-Director)] |\n| \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_e055476efe3f.png\" width=\"420\" alt=\"AniMaker pipeline\"\u002F> | **[SIGGRAPH Asia 2025] AniMaker: Multi-Agent Animated Storytelling with MCTS-Driven Clip Generation**\u003Cbr>*Haoyuan Shi, Yunxin Li, Xinyu Chen, Longyue Wang, Baotian Hu, Min Zhang*\u003Cbr>[[Paper](https:\u002F\u002Fdoi.org\u002F10.1145\u002F3757377.3764009)] [[GitHub](https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAnim-Director\u002Ftree\u002Fmain\u002FAniMaker)] |\n\n\n\u003Cp align=\"center\">\n  \u003Csub>Built with 🦞 by the Lychee Agent team\u003C\u002Fsub>\n\u003C\u002Fp>\n","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_b51db77b6857.png\" width=\"100%\" \u002F>\n\u003C\u002Fp>\n\n\u003Ch2 align=\"center\">\n  AIGC-Claw：AI 创意视频生成员工\n\u003C\u002Fh2>\n\n\u003Ch4 align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FVersion-1.0.0-blue.svg\" alt=\"版本\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAIGC-Claw\u002Fblob\u002Fmain\u002FLICENSE\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FHITsz-TMG\u002FAIGC-Claw?style=flat-square\" alt=\"许可证\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAIGC-Claw\u002Fstargazers\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FHITsz-TMG\u002FAIGC-Claw?style=flat-square&logo=github\" alt=\"星标\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAIGC-Claw\u002Ffork\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002FHITsz-TMG\u002FAIGC-Claw?style=flat-square&logo=github\" alt=\"复刻\">\n  \u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-3.9+-purple.svg\" alt=\"Python\">\n  \u003Ca href=\"#openclaw-integration\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FOpenClaw-Compatible-ff4444?logo=data:image\u002Fsvg+xml;base64,PHN2ZyB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciIHZpZXdCb3g9IjAgMCAyNCAyNCI+PHBhdGggZD0iTTEyIDJDNi40OCAyIDIgNi40OCAyIDEeczQuNDggMTAgMTAgMTAtNC40OCAxMC0xMFMxNy41MiAyIDEyIDJ6IiBmaWxsPSJ3aGl0ZSIvPjwvc3ZnPg==\" alt=\"OpenClaw 兼容\">\n  \u003C\u002Fa>\n\u003C\u002Fh4>\n\n\u003Cp align=\"center\">\n  \u003Cb>\u003Ci>\u003Cfont size=\"5\">直接与 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopenclaw\u002Fopenclaw\">OpenClaw\u003C\u002Fa> 对话：\"生成 X 的视频\" → 搞定。\u003C\u002Ffont>\u003C\u002Fi>\u003C\u002Fb>\n\u003C\u002Fp>\n\n\u003Cdiv align=\"center\">\n\n🌐 [**英文 README**](.\u002FREADME_EN.md)  📺 [**哔哩哔哩**](https:\u002F\u002Fspace.bilibili.com\u002F2031891503?spm_id_from=333.1007.0.0)  ▶️ [**YouTube**](https:\u002F\u002Fwww.youtube.com\u002F@imryanxu)  📖 [**集成指南**](https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAIGC-Claw?tab=readme-ov-file#%E6%96%B9%E5%BC%8F%E4%BA%8Copenclaw-%E8%87%AA%E5%8A%A8%E9%85%8D%E7%BD%AE)   🦀 [**ClawHub**](https:\u002F\u002Fclawhub.ai\u002Fhit-cxf\u002Faigc-director) \n\n\u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F24295\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_da43bb0fd7bb.png\" alt=\"HITsz-TMG%2FAIGC-Claw | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\n\u003C\u002Fdiv>\n\n\n## 💥 新闻\n\n- `2026\u002F3\u002F27`: 🎬 AIGC-Claw 正式发布，支持从想法到视频生成全流程自动化，用户可随时介入调整。  \n- `2026\u002F4\u002F6`: 🎭 AIGC-Claw 推出第二版，针对短剧进行优化。  \n- `2026\u002F4\u002F9`: ♾️ AIGC-Claw 推出第三版，新增无限续写，剧情可自定义。\n\n\n## 📖 项目介绍\n\nAIGC-Claw 是一个面向创意视频生产的 AI 导演系统。**你只需要给出一句想法、一个故事梗概，甚至一个模糊概念，系统就会把它拆解为可执行的影视工作流，持续产出可查看、可确认、可修改、可交付的中间资产，最终生成完整成片**。\n\n它不是单点式的文生视频工具，而是一条覆盖 **剧本策划 → 角色\u002F场景设计 → 分镜规划 → 参考图生成 → 视频生成 → 后期剪辑** 的全流程生产线。相比只给你一个黑盒结果的闭源视频生成框架，AIGC-Claw是一个真正可协作的 AI 导演团队：前一阶段决定后一阶段，所有关键节点都能可视化、可编辑、可继续生成。\n\n\n\n## 📺 AIGC-Claw 示例（全流程自动化）\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd align=\"center\" width=\"33%\">\n  \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F63c2f33c-da50-44f0-8c26-a65611479d6a\" controls width=\"100%\">\u003C\u002Fvideo>\n\u003C\u002Ftd>\n\u003Ctd align=\"center\" width=\"33%\">\n  \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fd7c65cad-05b9-46c8-ab0e-96e39909f978\" controls width=\"100%\">\u003C\u002Fvideo>\n\u003C\u002Ftd>\n\u003Ctd align=\"center\" width=\"33%\">\n  \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fec67546e-2d3d-4b34-b1ad-7d860a9bc1aa\" controls width=\"100%\">\u003C\u002Fvideo>\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>Web 前端界面\u003C\u002Fb>\u003C\u002Fsummary>\n\u003Cdiv align=\"center\">\n\n| | |\n|:---:|:---:|\n| ![Stage 1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_5cbe5d26489a.png) | ![Stage 2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_eb9f0b1155da.png) |\n| ![Stage 3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_f34625a1f2ce.png) | ![Stage 4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_26194d321cec.png) |\n| ![Stage 5](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_c73e7b37322e.png) | ![Stage 6](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_0efc4556e1a0.png) |\n\n\u003C\u002Fdiv>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>微信交互\u003C\u002Fb>\u003C\u002Fsummary>\n\u003Cdiv align=\"center\">\n\n| | | | |\n|:---:|:---:|:---:|:---:|\n| ![WeChat 1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_9eee675a12c3.jpg) | ![WeChat 2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_c52eabeb608b.jpg) | ![WeChat 3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_eb3079227738.jpg) | ![WeChat 4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_a63ee1087357.jpg) |\n\n\u003C\u002Fdiv>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>飞书交互\u003C\u002Fb>\u003C\u002Fsummary>\n\u003Cdiv align=\"center\">\n\n| | | | |\n|:---:|:---:|:---:|:---:|\n| ![Feishu 1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_bb54054a1c04.jpg) | ![Feishu 2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_d9fd41ca115f.jpg) | ![Feishu 3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_d3b2764f09bb.jpg) | ![Feishu 4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_724383ebf8ca.jpg) |\n\n\u003C\u002Fdiv>\n\u003C\u002Fdetails>\n\n## ✨ 功能特性\n\n| 能力 | 说明 |\n|---|---|\n| 🎬 **从创意到成片的全流程生成** | 一条链路打通剧本、角色、分镜、参考图、视频片段与后期剪辑，把零散生成能力升级为完整视频生产工作流。 |\n| 🖼️ **分镜驱动的可控创作** | 通过结构化剧本、分镜规划与参考图生成，让角色一致性、镜头表达和画面风格更稳定、更可控。 |\n| ✍️ **可修改、可续写、可继续生成** | 支持剧情 \u002F 分镜智能续写，也支持角色、参考图、视频阶段修改后重新生成，避免每次都从头开始。 |\n| 📲 **本地部署、多端协作、产物留存** | 支持 Web 界面、微信 \u002F 飞书协作、OpenClaw Skill 集成，并对剧本、图片、视频片段和最终成片进行全链路留存。 |\n\n---\n\n## 🚀 快速开始\n\n### 方式一：手动安装\n\n```bash\n# 1. 克隆项目\ngit clone https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAIGC-Claw.git\ncd AIGC-Claw\n\n# 2. 配置并启动后端\ncd aigc-director\u002Faigc-claw\u002Fbackend\n\n# 创建虚拟环境并安装依赖\npython -m venv venv\nsource venv\u002Fbin\u002Factivate  # Linux\u002FMac\npip install -r requirements.txt\n\n# 配置环境变量\ncp .env.example .env\n# 编辑 .env 填入 API Key\n\n# 启动后端\npython api_server.py\n# 服务运行在 http:\u002F\u002Flocalhost:8000\n```\n\n```bash\n# 3. 配置并启动前端（新终端）\ncd aigc-director\u002Faigc-claw\u002Ffrontend\nnpm install\nnpm run build\nnpm start\n# 访问 http:\u002F\u002Flocalhost:3000\n```\n\n### 方式二：OpenClaw 自动配置\n\n向 OpenClaw 发送消息：\n\n```\n帮我克隆git仓库：https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAIGC-Claw.git\n然后把AIGC-Claw中的aigc-director文件夹递归复制到.openclaw\u002Fworkspace\u002Fskills目录下，用作AIGC相关的skill\n```\n\n使用时建议指明 \"使用 aigc-director\"：\n\n```\n用aigc-director来生成一个视频，内容是\"一条狗的使命\"\n```\n\n### 方式三：通过 ClawHub 安装\n\n请确保本地安装了clawhub-cli\n\n打开终端，输入命令，所有询问均选择yes\n\n```bash\nclawhub install aigc-director\n```\n\n安装完成后，ClawHub 会将 `aigc-director` 复制到 `workspace\u002Fskills`（或指定的 skills 目录）。\n\n之后可以参考方式一手动安装自行构建项目并运行，也可以使用OpenClaw完成后续项目构建。\n\n在第一次使用 `aigc-director` 时，如果没有手动构建项目，OpenClaw会自动构建前后端并运行，无需手动初始化（构建项目需要配置环境和编译，请耐心等待）。\n\n\n---\n\n## 🔧 配置说明\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>点击展开完整环境要求和变量\u003C\u002Fb>\u003C\u002Fsummary>\n\n### 环境要求\n\n- **Python**: 3.9+\n- **Node.js**: 18+\n- **npm**: 9+\n\n### 后端环境变量\n\n在 `aigc-claw\u002Fbackend\u002F.env` 中配置：\n\n```bash\n# LLM 配置\nLLM_MODEL=qwen3.5-plus\nVLM_MODEL=qwen-vl-plus\n\n# 图像生成\nIMAGE_T2I_MODEL=doubao-seedream-5-0-260128\nIMAGE_IT2I_MODEL=doubao-seedream-5-0-260128\n\n# 视频生成\nVIDEO_MODEL=wan2.6-i2v-flash\nVIDEO_RATIO=16:9\n\n# API Keys\nDASHSCOPE_API_KEY=your_key\nARK_API_KEY=your_key\nDEEPSEEK_API_KEY=your_key\n```\n\n### 可用模型\n\n| 类型 | 模型 |\n|:---:|:---|\n| **LLM** | qwen3.5-plus, deepseek-chat, gpt-4o, gemini-2.5-flash |\n| **VLM** | qwen-vl-plus, gemini-2.5-flash-image |\n| **文生图** | doubao-seedream-5-0, jimeng_t2i_v40, wan2.6-t2i |\n| **图生图** | doubao-seedream-5-0, jimeng_t2i_v40, wan2.6-image |\n| **视频生成** | wan2.6-i2v-flash, kling-v3, jimeng_ti2v_v30_pro |\n\n\u003C\u002Fdetails.\n\n\n## 🙏 致谢\n\nAIGC-Claw 的想法和设计受到了 [AutoResearchClaw](https:\u002F\u002Fgithub.com\u002Faiming-lab\u002FAutoResearchClaw)、[huobao-drama](https:\u002F\u002Fgithub.com\u002Fchatfire-AI\u002Fhuobao-drama)、[LibTV](https:\u002F\u002Fwww.liblib.tv\u002F) 与 [libtv-skills](https:\u002F\u002Fgithub.com\u002Flibtv-labs\u002Flibtv-skills) 的启发。\n\n## 📚 系列工作\n\n| 框架图 | 论文信息 |\n|:---:|---|\n| \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_35c9d265b268.png\" width=\"420\" alt=\"FilmAgent framework\"\u002F> | **[SIGGRAPH Asia 2024] FilmAgent：通过多智能体协作框架实现虚拟电影制作自动化**\u003Cbr>*徐振然、王继芳、王龙岳、李周毅、史森宝、胡宝田、张敏*\u003Cbr>[[论文](https:\u002F\u002Fdoi.org\u002F10.1145\u002F3681758.3698014)] [[GitHub](https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAIGC-Claw\u002Fblob\u002Fmain\u002FFilmAgent.md)] |\n| \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_e98235e25f09.png\" width=\"420\" alt=\"Anim-Director result\"\u002F> | **[SIGGRAPH Asia 2024] Anim-Director：基于大型多模态模型的可控动画视频生成智能体**\u003Cbr>*李云欣、史浩源、胡宝田、王龙岳、朱嘉顺、许金怡、赵震*\u003Cbr>[[论文](https:\u002F\u002Fdoi.org\u002F10.1145\u002F3680528.3687688)] [[GitHub](https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAnim-Director\u002Ftree\u002Fmain\u002FAnim-Director)] |\n| \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_readme_e055476efe3f.png\" width=\"420\" alt=\"AniMaker pipeline\"\u002F> | **[SIGGRAPH Asia 2025] AniMaker：基于MCTS驱动片段生成的多智能体动画叙事**\u003Cbr>*史浩源、李云欣、陈鑫宇、王龙岳、胡宝田、张敏*\u003Cbr>[[论文](https:\u002F\u002Fdoi.org\u002F10.1145\u002F3757377.3764009)] [[GitHub](https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAnim-Director\u002Ftree\u002Fmain\u002FAniMaker)] |\n\n\n\u003Cp align=\"center\">\n  \u003Csub>由荔枝智能体团队用🦞构建\u003C\u002Fsub>\n\u003C\u002Fp>","# AIGC-Claw 快速上手指南\n\nAIGC-Claw 是一个面向创意视频生产的 AI 导演系统。只需输入一句想法或故事梗概，系统即可自动拆解为剧本、分镜、参考图及视频片段，最终生成完整成片。支持全流程自动化及人工介入修改。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux \u002F macOS \u002F Windows (WSL2 推荐)\n*   **Python**: 3.9 及以上版本\n*   **Node.js**: 18 及以上版本\n*   **npm**: 9 及以上版本\n*   **API Keys**: 需准备大模型及生成模型的密钥（如阿里云 DashScope、字节豆包等，详见配置说明）\n\n> 💡 **国内开发者提示**：安装 Python 依赖时，建议使用国内镜像源以加速下载：\n> `pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n## 2. 安装步骤\n\n您可以选择**手动安装**以获得完整控制权，或通过 **OpenClaw\u002FClawHub** 进行自动化部署。\n\n### 方式一：手动安装（推荐）\n\n**第一步：克隆项目**\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAIGC-Claw.git\ncd AIGC-Claw\n```\n\n**第二步：配置并启动后端**\n```bash\n# 进入后端目录\ncd aigc-director\u002Faigc-claw\u002Fbackend\n\n# 创建虚拟环境\npython -m venv venv\nsource venv\u002Fbin\u002Factivate  # Windows 用户请使用: venv\\Scripts\\activate\n\n# 安装依赖 (推荐使用国内镜像)\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 配置环境变量\ncp .env.example .env\n# 请使用编辑器打开 .env 文件，填入您的 LLM_KEY, IMAGE_KEY, VIDEO_KEY 等\n\n# 启动后端服务\npython api_server.py\n# 服务默认运行在 http:\u002F\u002Flocalhost:8000\n```\n\n**第三步：配置并启动前端**\n*请打开一个新的终端窗口*\n```bash\n# 进入前端目录\ncd aigc-director\u002Faigc-claw\u002Ffrontend\n\n# 安装依赖 (推荐使用淘宝镜像)\nnpm install --registry=https:\u002F\u002Fregistry.npmmirror.com\n\n# 构建并启动\nnpm run build\nnpm start\n# 浏览器访问 http:\u002F\u002Flocalhost:3000\n```\n\n### 方式二：通过 ClawHub 自动安装\n\n如果您已安装 `clawhub-cli`，可使用以下命令一键部署：\n\n```bash\nclawhub install aigc-director\n```\n*安装过程中所有询问请选择 `yes`。安装完成后，项目将自动复制到 `workspace\u002Fskills` 目录。首次运行时若无手动构建，OpenClaw 会自动完成环境配置与编译。*\n\n### 方式三：OpenClaw 集成\n\n向 OpenClaw 发送以下指令自动配置：\n```text\n帮我克隆 git 仓库：https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAIGC-Claw.git\n然后把 AIGC-Claw 中的 aigc-director 文件夹递归复制到.openclaw\u002Fworkspace\u002Fskills 目录下，用作 AIGC 相关的 skill\n```\n\n## 3. 基本使用\n\n### Web 界面使用\n启动前后端服务后，访问 `http:\u002F\u002Flocalhost:3000`。\n1. 在输入框中输入创意描述（例如：“一只猫在太空探险的科幻短片”）。\n2. 系统将自动生成剧本、分镜及参考图。\n3. 您可在线调整分镜或角色设定，确认无误后点击生成视频。\n4. 等待各阶段任务完成，最终下载成片。\n\n### OpenClaw 对话使用\n若已通过 OpenClaw 集成，可直接在对话框中下达指令：\n\n```text\n用 aigc-director 来生成一个视频，内容是\"一条狗的使命\"\n```\n\n系统将自动调用工作流，从剧本创作到视频渲染全程执行，并返回最终结果。\n\n---\n*注：具体支持的模型型号及详细 API 配置请参考项目根目录下的 `.env.example` 文件或官方文档。*","某短视频 MCN 机构的策划团队需要在 24 小时内为新兴品牌定制一支 30 秒的奇幻风格产品宣传片，从创意构思到成片交付时间极其紧迫。\n\n### 没有 AIGC-Claw 时\n- **流程割裂严重**：策划、编剧、分镜师和视频剪辑需多人接力，沟通成本高，想法在传递中极易变形。\n- **试错成本高昂**：若最终成片风格不符，需重新协调人员返工，无法在生成中途灵活调整角色或场景细节。\n- **技术门槛过高**：非技术人员难以直接操控复杂的文生视频模型，往往只能依赖随机生成的“黑盒”结果，可控性差。\n- **资产无法复用**：生成的中间素材（如角色设定图、分镜草图）分散在不同工具中，难以统一管理和二次编辑。\n\n### 使用 AIGC-Claw 后\n- **全流程自动化串联**：策划只需输入“赛博朋克风格的咖啡机广告”，AIGC-Claw 自动拆解并执行从剧本策划到后期剪辑的完整工作流。\n- **节点可视可干预**：在角色设计或分镜规划阶段，团队成员可随时介入修改指令，AIGC-Claw 会基于新指令继续生成后续内容，确保创意精准落地。\n- **自然语言协作**：通过微信或飞书直接与 AIGC-Claw 对话即可调整剧情走向，无需编写代码或学习复杂参数，人人都是“导演”。\n- **中间资产结构化**：系统自动保存并关联所有生成的参考图与分镜数据，方便随时回溯修改或用于其他衍生视频制作。\n\nAIGC-Claw 将原本需要数天协作的视频生产压缩至小时级，让创意团队真正拥有了一个随叫随到、可深度协作的 AI 导演合伙人。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHITsz-TMG_AIGC-Claw_5cbe5d26.png","HITsz-TMG","Lychee Team","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FHITsz-TMG_a52b65bd.jpg","RICI, Harbin Institute of Technology, Shenzhen",null,"https:\u002F\u002Fhuggingface.co\u002FHIT-TMG","https:\u002F\u002Fgithub.com\u002FHITsz-TMG",[81,85,89,93],{"name":82,"color":83,"percentage":84},"Python","#3572A5",61.3,{"name":86,"color":87,"percentage":88},"TypeScript","#3178c6",38.6,{"name":90,"color":91,"percentage":92},"CSS","#663399",0.1,{"name":94,"color":95,"percentage":92},"JavaScript","#f1e05a",1143,149,"2026-04-17T14:18:58","MIT",4,"Linux, macOS","未说明（依赖云端 API 模型如 Wan2.6, Kling, Doubao 等，本地无需特定 GPU，但视频生成通常建议配备 NVIDIA GPU）","未说明",{"notes":105,"python":106,"dependencies":107},"1. 前端需要 Node.js 18+ 和 npm 9+。2. 该工具主要依赖云端 API（如 DashScope, Ark, DeepSeek），需在 .env 文件中配置相应的 API Key。3. 支持通过 OpenClaw 或 ClawHub 自动配置环境。4. 核心功能（文生图、视频生成）调用的是外部模型服务，而非完全本地运行大模型。","3.9+",[108],"requirements.txt (具体列表未在 README 中展开)",[13],[111,112,6,113,114],"filmmaking","agent","openclaw-skills","multi-agent-system","2026-03-27T02:49:30.150509","2026-04-18T14:31:50.990882",[118,123,127,131],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},39880,"部署项目时 `.env.example` 中的 DEBUG 模式默认设置是否安全？","不安全。旧版本 `.env.example` 中默认设置 `DEBUG=True`，这在生产环境中会导致敏感信息泄露。维护者已将其默认值修改为 `False`。用户在部署时应检查环境变量配置，确保调试模式处于关闭状态。","https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FAIGC-Claw\u002Fissues\u002F21",{"id":124,"question_zh":125,"answer_zh":126,"source_url":122},39878,"项目默认配置中是否存在硬编码的第三方代理地址导致 API 密钥泄露风险？","是的，旧版本在 `vlm_gemini.py` 和 `.env.example` 中硬编码了第三方代理 IP（35.164.11.19:3887），这会导致 API 密钥被发送到未知服务器。维护者已修复此问题：\n1. 移除了硬编码的默认 URL。\n2. 将默认端点更改为官方地址：OpenAI 改为 `https:\u002F\u002Fapi.openai.com\u002Fv1`，Google Gemini 改为 `https:\u002F\u002Fgenerativelanguage.googleapis.com\u002Fv1`。\n3. 更新了 `.env.example` 中的示例值。\n建议用户拉取最新代码以确保安全。",{"id":128,"question_zh":129,"answer_zh":130,"source_url":122},39879,"如何解决项目中 Next.js 存在的多个高危 CVE 漏洞（如 RCE、SSRF 等）？","项目原依赖的 Next.js 15.2.4 版本存在多个严重漏洞。维护者已通过以下步骤修复：\n1. 将 `next` 依赖从 `15.2.4` 升级到 `16.2.3`。\n2. 在前端目录运行 `npm audit fix --force` 命令。\n用户若遇到类似审计警告，请执行上述升级操作以消除 RCE、SSRF 及代码暴露等风险。",{"id":132,"question_zh":133,"answer_zh":134,"source_url":122},39881,"代码中的 `subprocess.run` 调用是否存在命令注入风险，如何修复？","是的，`editor_agent.py` 中原有的 `subprocess.run` 调用存在潜在风险。维护者已重构该部分代码，改用非 shell 模式（non-shell mode）并传递参数化参数（parameterized arguments），从而防止命令注入攻击。开发者在编写类似逻辑时应避免使用 `shell=True`。",[]]