moyin-creator

GitHub
2.9k 580 简单 1 次阅读 今天AGPL-3.0图像视频音频Agent
AI 解读 由 AI 自动生成,仅供参考

魔因漫创(Moyin Creator)是一款专为 AI 影视创作打造的生产级工具,旨在打通从剧本到成片的全流程自动化链路。它有效解决了传统 AI 视频制作中环节割裂、角色形象难以保持一致以及批量生产效率低下的痛点,让用户无需手动拼接各个步骤,即可实现连贯的叙事视频生成。

这款工具特别适合短剧创作者、动漫制作人、独立导演以及希望探索 AI 影视工作流的设计师使用。其核心亮点在于独特的“五大板块”环环相扣机制:通过智能剧本解析引擎自动拆解分镜与对白,利用"6 层身份锚点”系统确保角色在不同镜头中的外观高度一致,并支持专业的电影级摄影参数设置。此外,魔因漫创深度集成了 Seedance 2.0 多模态技术,能够智能融合动作、镜头语言与对白唇形,自动校验并合并多个分镜生成连贯视频。配合多供应商 AI 调度与任务队列管理,它不仅支持复杂的多集剧本结构化处理,还能实现大规模并行生产,显著提升了影视内容的创作效率与质量。

使用场景

某独立短剧工作室急需在两周内将一部 10 集的古装悬疑小说改编为 AI 动画番剧,面临巨大的产能与一致性挑战。

没有 moyin-creator 时

  • 角色“变脸”严重:手动在不同分镜中生成角色,导致主角在上一秒是长发、下一秒变短发,观众极易出戏,后期修图耗时巨大。
  • 流程割裂低效:编剧、画师和视频生成人员需手动传递文件,剧本拆解靠人工,从文字到分镜再到视频的转换全靠“人肉接力”,极易出错。
  • 多模态整合困难:想要实现画面动作、镜头语言与对白唇形的精准同步,需要反复调试多个独立工具,难以生成连贯的叙事视频。
  • 批量生产受阻:面对 10 集的海量镜头需求,单任务串行处理效率极低,一旦某个生成任务失败,需人工重新排队,无法按时交付。

使用 moyin-creator 后

  • 六层身份锚定:利用“角色一致性系统”建立角色圣经,确保主角在数百个分镜中发型、服饰及五官特征高度统一,彻底解决“变脸”痛点。
  • 全流程自动化:导入剧本后,moyin-creator 自动拆解为场景与分镜,并串联起角色设定、场景生成到视频合成的完整链路,无需人工干预流转。
  • 智能多模态融合:通过 Seedance 2.0 板块,自动将动作描述、镜头指令与对白唇形三层融合,一键生成多镜头合并的连贯叙事视频。
  • 并行批量交付:启动“一键全流程”模式,多任务队列并行处理,自动重试失败任务,将原本需数周的制作周期压缩至几天内完成。

moyin-creator 将原本碎片化的 AI 创作环节整合为工业级流水线,让单人团队也能高效产出电影级一致性的批量短剧。

运行环境要求

操作系统
  • Windows
GPU

未说明

内存

未说明

依赖
notes该项目为基于 Electron 的桌面应用程序,非纯 Python 环境。主要运行依赖为 Node.js 和 npm。提供 Windows 安装包(版本 0.1.7),源码可通过 npm install 安装依赖后运行。AI 功能通过调用外部服务商 API 实现,本地无需部署大型模型或特定 GPU 环境,但需配置有效的 AI 服务商 API Key。
python未说明
Node.js >= 18
npm >= 9
Electron 30
React 18
TypeScript
Vite 5
Zustand 5
Radix UI
Tailwind CSS 4
moyin-creator hero image

快速开始

魔因漫创 Logo

魔因漫创 Moyin Creator

🎬 AI 影视生产级工具 · 支持 Seedance 2.0 · 剧本到成片全流程批量化

License Release Stars

🇨🇳 中文 | 🇬🇧 English

📖 工作流教程功能特性快速开始技术架构许可证贡献


1771428968476_3nkjdd

简介

魔因漫创 是一款面向 AI 影视创作者的生产级工具。五大板块环环相扣,覆盖从剧本到成片的完整创作链路:

📝 剧本 → 🎭 角色 → 🌄 场景 → 🎬 导演 → ⭐ S级(Seedance 2.0)

每一步的产出自动流入下一步,无需手动搅合。支持多种主流 AI 大模型,适合短剧、动漫番剧、预告片等场景的批量化生产。

基础设置教程:https://www.bilibili.com/video/BV1FsZDBHExJ/?vd_source=802462c0708e775ce81f95b2e486f175

功能特性

⭐ S级板块 — Seedance 2.0 多模态创作 SkyReels-V4 多模态创作

  • 多镜头合并叙事视频生成:将多个分镜分组合并生成连贯叙事视频
  • 支持 @Image / @Video / @Audio 多模态引用(角色参考图、场景图、首帧图自动收集)
  • 智能提示词构建:自动三层融合(动作 + 镜头语言 + 对白唇形同步)
  • 首帧图网格拼接(N×N 策略)
  • Seedance 2.0 参数约束自动校验(≤9图 + ≤3视频 + ≤3音频,prompt≤5000字符)
  • eecf9d3e210cb52066025a0d1b48b54
59e57c230f67e2c5aaa425a09332d2e 1b23b9abde0cc651ecb06d49576119b

🎬 剧本解析引擎

  • 智能拆解剧本为场景、分镜、对白
  • 自动识别角色、场景、情绪、镜头语言
  • 支持多集/多幕剧本结构
d37f36356961edcda06edee6382d2fe

🎭 角色一致性系统

  • 6层身份锚点:确保同一角色在不同分镜中外观一致
  • 角色圣经 (Character Bible) 管理
  • 支持角色参考图绑定
ffcddeeda0e1aa012529ed26c850a65

🖼️ 场景生成

  • 多视角联合图生成
  • 场景描述到视觉提示词的自动转换
8a5f019882995cd573b614d1e403ab3

🎞️ 专业分镜系统

  • 电影级摄影参数(景别、机位、运动方式)
  • 自动排版和导出
  • 视觉风格一键切换(2D/3D/写实/定格等)
916ad7c32920260c7f3ac89fbeb8f30

🚀 批量化生产工作流

  • 一键全流程:剧本解析 → 角色/场景生成 → 分镜切割 → 批量生图 → 批量生视频
  • 多任务并行队列,自动重试失败任务
  • 适合短剧/动漫番剧批量生产

🤖 多供应商 AI 调度

  • 支持多个 AI 图像/视频生成服务商
  • API Key 轮询负载均衡
  • 任务队列管理,自动重试

下载

打包程序版本0.1.7,对应开源源码 链接: https://pan.baidu.com/s/1ImH6tOIiuFxIDXC0fC-6Lg 提取码: 8888

快速开始

环境要求

  • Node.js >= 18
  • npm >= 9

安装运行

# 克隆仓库
git clone https://github.com/MemeCalculate/moyin-creator.git
cd moyin-creator

# 安装依赖
npm install

# 启动开发模式
npm run dev

配置 API Key

启动后,进入 设置 → API 配置,填入你的 AI 服务商 API Key 即可开始使用。

构建

# 编译 + 打包 Windows 安装程序
npm run build

# 仅编译(不打包)
npx electron-vite build

技术架构

层级 技术
桌面框架 Electron 30
前端框架 React 18 + TypeScript
构建工具 electron-vite (Vite 5)
状态管理 Zustand 5
UI 组件 Radix UI + Tailwind CSS 4
AI 核心 @opencut/ai-core(提示词编译、角色圣经、任务轮询)

项目结构

moyin-creator/
├── electron/              # Electron 主进程 + Preload
│   ├── main.ts            # 主进程(存储管理、文件系统、协议处理)
│   └── preload.ts         # 安全桥接层
├── src/
│   ├── components/        # React UI 组件
│   │   ├── panels/        # 主面板(剧本、角色、场景、分镜、导演)
│   │   └── ui/            # 基础 UI 组件库
│   ├── stores/            # Zustand 全局状态
│   ├── lib/               # 工具库(AI 调度、图片管理、路由)
│   ├── packages/          # 内部包
│   │   └── ai-core/       # AI 核心引擎
│   └── types/             # TypeScript 类型定义
├── build/                 # 构建资源(图标)
└── scripts/               # 工具脚本

许可证

本项目采用 双重许可 模式:

开源使用 — AGPL-3.0

本项目以 GNU AGPL-3.0 许可证开源。你可以自由使用、修改和分发,但修改后的代码必须以相同许可证开源。

商业使用

如果你需要闭源使用或集成到商业产品中,请联系我们获取 商业许可

贡献

欢迎贡献!请阅读 贡献指南 了解详情。

联系

联系我们

交流群 微信联系

Made with ❤️ by MemeCalculate

版本历史

v0.2.52026/03/30
V0.2.42026/03/20
V0.2.32026/03/15
V0.2.22026/03/11
V0.2.12026/03/07
v.0.2.02026/03/06
v.0.1.92026/02/28
v0.1.82026/02/26
v0.1.72026/02/21
V0.1.62026/02/18
v0.1.52026/02/12
v0.1.42026/02/12
v0.1.32026/02/11
v0.1.22026/02/10
v0.1.12026/02/09

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|昨天
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|2天前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

143.9k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.9k|★★☆☆☆|昨天
开发框架图像Agent

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|昨天
语言模型图像Agent

Deep-Live-Cam

Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。

88.9k|★★★☆☆|2天前
开发框架图像Agent