moyin-creator
魔因漫创(Moyin Creator)是一款专为 AI 影视创作打造的生产级工具,旨在打通从剧本到成片的全流程自动化链路。它有效解决了传统 AI 视频制作中环节割裂、角色形象难以保持一致以及批量生产效率低下的痛点,让用户无需手动拼接各个步骤,即可实现连贯的叙事视频生成。
这款工具特别适合短剧创作者、动漫制作人、独立导演以及希望探索 AI 影视工作流的设计师使用。其核心亮点在于独特的“五大板块”环环相扣机制:通过智能剧本解析引擎自动拆解分镜与对白,利用"6 层身份锚点”系统确保角色在不同镜头中的外观高度一致,并支持专业的电影级摄影参数设置。此外,魔因漫创深度集成了 Seedance 2.0 多模态技术,能够智能融合动作、镜头语言与对白唇形,自动校验并合并多个分镜生成连贯视频。配合多供应商 AI 调度与任务队列管理,它不仅支持复杂的多集剧本结构化处理,还能实现大规模并行生产,显著提升了影视内容的创作效率与质量。
使用场景
某独立短剧工作室急需在两周内将一部 10 集的古装悬疑小说改编为 AI 动画番剧,面临巨大的产能与一致性挑战。
没有 moyin-creator 时
- 角色“变脸”严重:手动在不同分镜中生成角色,导致主角在上一秒是长发、下一秒变短发,观众极易出戏,后期修图耗时巨大。
- 流程割裂低效:编剧、画师和视频生成人员需手动传递文件,剧本拆解靠人工,从文字到分镜再到视频的转换全靠“人肉接力”,极易出错。
- 多模态整合困难:想要实现画面动作、镜头语言与对白唇形的精准同步,需要反复调试多个独立工具,难以生成连贯的叙事视频。
- 批量生产受阻:面对 10 集的海量镜头需求,单任务串行处理效率极低,一旦某个生成任务失败,需人工重新排队,无法按时交付。
使用 moyin-creator 后
- 六层身份锚定:利用“角色一致性系统”建立角色圣经,确保主角在数百个分镜中发型、服饰及五官特征高度统一,彻底解决“变脸”痛点。
- 全流程自动化:导入剧本后,moyin-creator 自动拆解为场景与分镜,并串联起角色设定、场景生成到视频合成的完整链路,无需人工干预流转。
- 智能多模态融合:通过 Seedance 2.0 板块,自动将动作描述、镜头指令与对白唇形三层融合,一键生成多镜头合并的连贯叙事视频。
- 并行批量交付:启动“一键全流程”模式,多任务队列并行处理,自动重试失败任务,将原本需数周的制作周期压缩至几天内完成。
moyin-creator 将原本碎片化的 AI 创作环节整合为工业级流水线,让单人团队也能高效产出电影级一致性的批量短剧。
运行环境要求
- Windows
未说明
未说明

快速开始
魔因漫创 Moyin Creator
🎬 AI 影视生产级工具 · 支持 Seedance 2.0 · 剧本到成片全流程批量化
🇨🇳 中文 | 🇬🇧 English
📖 工作流教程 • 功能特性 • 快速开始 • 技术架构 • 许可证 • 贡献

简介
魔因漫创 是一款面向 AI 影视创作者的生产级工具。五大板块环环相扣,覆盖从剧本到成片的完整创作链路:
📝 剧本 → 🎭 角色 → 🌄 场景 → 🎬 导演 → ⭐ S级(Seedance 2.0)
每一步的产出自动流入下一步,无需手动搅合。支持多种主流 AI 大模型,适合短剧、动漫番剧、预告片等场景的批量化生产。
基础设置教程:https://www.bilibili.com/video/BV1FsZDBHExJ/?vd_source=802462c0708e775ce81f95b2e486f175
功能特性
⭐ S级板块 — Seedance 2.0 多模态创作 SkyReels-V4 多模态创作
- 多镜头合并叙事视频生成:将多个分镜分组合并生成连贯叙事视频
- 支持 @Image / @Video / @Audio 多模态引用(角色参考图、场景图、首帧图自动收集)
- 智能提示词构建:自动三层融合(动作 + 镜头语言 + 对白唇形同步)
- 首帧图网格拼接(N×N 策略)
- Seedance 2.0 参数约束自动校验(≤9图 + ≤3视频 + ≤3音频,prompt≤5000字符)

🎬 剧本解析引擎
- 智能拆解剧本为场景、分镜、对白
- 自动识别角色、场景、情绪、镜头语言
- 支持多集/多幕剧本结构
🎭 角色一致性系统
- 6层身份锚点:确保同一角色在不同分镜中外观一致
- 角色圣经 (Character Bible) 管理
- 支持角色参考图绑定
🖼️ 场景生成
- 多视角联合图生成
- 场景描述到视觉提示词的自动转换
🎞️ 专业分镜系统
- 电影级摄影参数(景别、机位、运动方式)
- 自动排版和导出
- 视觉风格一键切换(2D/3D/写实/定格等)
🚀 批量化生产工作流
- 一键全流程:剧本解析 → 角色/场景生成 → 分镜切割 → 批量生图 → 批量生视频
- 多任务并行队列,自动重试失败任务
- 适合短剧/动漫番剧批量生产
🤖 多供应商 AI 调度
- 支持多个 AI 图像/视频生成服务商
- API Key 轮询负载均衡
- 任务队列管理,自动重试
下载
打包程序版本0.1.7,对应开源源码 链接: https://pan.baidu.com/s/1ImH6tOIiuFxIDXC0fC-6Lg 提取码: 8888
快速开始
环境要求
- Node.js >= 18
- npm >= 9
安装运行
# 克隆仓库
git clone https://github.com/MemeCalculate/moyin-creator.git
cd moyin-creator
# 安装依赖
npm install
# 启动开发模式
npm run dev
配置 API Key
启动后,进入 设置 → API 配置,填入你的 AI 服务商 API Key 即可开始使用。
构建
# 编译 + 打包 Windows 安装程序
npm run build
# 仅编译(不打包)
npx electron-vite build
技术架构
| 层级 | 技术 |
|---|---|
| 桌面框架 | Electron 30 |
| 前端框架 | React 18 + TypeScript |
| 构建工具 | electron-vite (Vite 5) |
| 状态管理 | Zustand 5 |
| UI 组件 | Radix UI + Tailwind CSS 4 |
| AI 核心 | @opencut/ai-core(提示词编译、角色圣经、任务轮询) |
项目结构
moyin-creator/
├── electron/ # Electron 主进程 + Preload
│ ├── main.ts # 主进程(存储管理、文件系统、协议处理)
│ └── preload.ts # 安全桥接层
├── src/
│ ├── components/ # React UI 组件
│ │ ├── panels/ # 主面板(剧本、角色、场景、分镜、导演)
│ │ └── ui/ # 基础 UI 组件库
│ ├── stores/ # Zustand 全局状态
│ ├── lib/ # 工具库(AI 调度、图片管理、路由)
│ ├── packages/ # 内部包
│ │ └── ai-core/ # AI 核心引擎
│ └── types/ # TypeScript 类型定义
├── build/ # 构建资源(图标)
└── scripts/ # 工具脚本
许可证
本项目采用 双重许可 模式:
开源使用 — AGPL-3.0
本项目以 GNU AGPL-3.0 许可证开源。你可以自由使用、修改和分发,但修改后的代码必须以相同许可证开源。
商业使用
如果你需要闭源使用或集成到商业产品中,请联系我们获取 商业许可。
贡献
欢迎贡献!请阅读 贡献指南 了解详情。
联系
- 📧 Email: memecalculate@gmail.com
- 🐙 GitHub: https://github.com/MemeCalculate/moyin-creator
联系我们
Made with ❤️ by MemeCalculate
版本历史
v0.2.52026/03/30V0.2.42026/03/20V0.2.32026/03/15V0.2.22026/03/11V0.2.12026/03/07v.0.2.02026/03/06v.0.1.92026/02/28v0.1.82026/02/26v0.1.72026/02/21V0.1.62026/02/18v0.1.52026/02/12v0.1.42026/02/12v0.1.32026/02/11v0.1.22026/02/10v0.1.12026/02/09相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
Deep-Live-Cam
Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。