peinture
Peinture 是一款通用型 AI 图像生成框架,旨在让用户通过文字提示快速创作高质量图片、编辑现有图像甚至生成动态视频。它有效解决了用户在不同 AI 模型平台间切换繁琐、本地部署门槛高以及隐私担忧等痛点,提供了一个统一且流畅的操作界面。
无论是希望快速实现创意的普通用户、需要灵活调整参数的设计师,还是想要集成多模型能力的开发者,都能从中受益。Peinture 的独特亮点在于其强大的多供应商架构,无缝支持 Hugging Face、Gitee AI、Model Scope 及自定义 OpenAI 兼容接口,让用户能自由调用 FLUX、Qwen 等前沿模型。此外,它内置专业的图像编辑器与“文生视频”功能(基于 Wan 2.2),并具备智能提示词优化与自动翻译能力。
在技术实现上,Peinture 采用 React 19 与 Tailwind CSS 构建,拥有优雅的深色主题界面。其隐私优先的设计理念确保所有历史记录与凭证仅存储于本地浏览器,同时支持高性能的本地文件系统(OPFS)或与 S3、WebDAV 云存储同步,兼顾了数据安全与跨设备协作的灵活性。作为一个静态单页应用,它还极易部署,可轻松运行在个人电脑或各类云平台上。
使用场景
一位独立游戏开发者急需为即将上线的像素风 RPG 项目快速生成大量风格统一的角色立绘和动态宣传素材。
没有 peinture 时
- 多平台切换繁琐:需要在 Hugging Face、ModelScope 等多个网站间反复跳转,手动复制 API Key 和提示词,工作流频繁中断。
- 静态图缺乏表现力:生成的角色图仅为静止画面,若要制作宣传用的动态视频,必须额外学习复杂的视频生成工具或聘请动画师。
- 修改成本高昂:发现角色手部细节错误或背景不符时,无法局部修正,只能重新生成整张图片,难以精准控制结果。
- 资产管理局限:生成的数百张素材仅散落在浏览器下载文件夹中,缺乏统一的云端同步机制,换设备开发时历史记录全部丢失。
使用 peinture 后
- 一站式模型聚合:直接在 peinture 界面内无缝切换 FLUX.1 或 Qwen Image 等模型,统一配置接口,将分散的生成流程整合进单一工作台。
- 静转动一键完成:利用内置的 Wan 2.2 模型,选中满意的角色立绘即可直接转化为 5 秒 cinematic 视频,瞬间获得高质量宣发物料。
- 专业级局部重绘:调用 Qwen-Image-Edit 功能,通过画笔涂抹错误区域并输入修正指令,仅几秒即可精准修复细节而保持整体风格不变。
- 跨端云同步存储:配置 S3 或 WebDAV 后,所有生成历史和高清原图自动同步至云端,随时随地在不同设备上继续创作且数据不丢失。
peinture 通过聚合多源模型与集成编辑能力,将原本碎片化、高门槛的 AI 绘图流程转化为高效、连贯的一站式创作体验。
运行环境要求
- Linux
- macOS
- Windows
无需本地 GPU(基于浏览器运行,调用云端 API)
未说明(取决于浏览器性能,建议 4GB+)

快速开始
佩因图尔(免费AI图像生成器)
一款采用React、TypeScript和Tailwind CSS构建的简洁、暗色主题AI图像生成器。该应用利用来自Hugging Face、Gitee AI、Model Scope和A4F的强大生成模型,可在几秒钟内根据文本提示创建高质量图像。



✨ 特性
- 多提供商架构:无缝切换Hugging Face、Gitee AI、Model Scope和A4F。您还可以添加自定义OpenAI兼容提供商,以无限扩展功能。
- 多样化的模型生态:访问广泛的模型,包括:
- 生成类:
Z-Image Turbo、Qwen Image、Ovis Image、FLUX.1 Schnell/Dev/Krea、FLUX.2。 - 文本/优化类:
OpenAI 4o-mini、DeepSeek V3/R1、Qwen 3、Gemini 2.5 Flash Lite。
- 生成类:
- 专业图像编辑器:使用Qwen-Image-Edit模型精确地修改现有图像。功能包括画笔/矩形选择、参考图像支持(最多3张)以及AI辅助提示优化。
- 实时动态效果(Wan 2.2):使用先进的Wan 2.2模型将静态图像转换为5秒的动态电影级视频(支持Hugging Face和Gitee AI)。
- 灵活的存储系统:
- 本地(OPFS):浏览器内的高性能持久化本地存储。
- 云端:连接S3兼容存储(AWS、R2、MinIO)或WebDAV,以在不同设备间同步您的创作。
- 提示工程:集成的AI提示增强器,可将简单的想法扩展为详细的描述。包含自动翻译功能,用于优化针对以英语为中心的模型(如FLUX)的提示。
- 高级控制:通过可调节的推理步数、种子控制、引导尺度和高清模式(4倍超分辨率)精细调整您的创作。
- 服务模式:
- 本地:完全在浏览器中使用公共API运行。
- 服务器端:连接到私有后端以代理请求。
- 混合模式:结合本地逻辑与服务器功能的混合模式。
- 注重隐私:历史记录和凭据存储在浏览器的LocalStorage中。无用户追踪。
🛠 技术栈
- 框架:React 19
- 构建工具:Vite
- 样式:Tailwind CSS
- 图标:Lucide React
- 状态管理:Zustand(带持久化)
- 存储:OPFS(Origin Private File System)
- APIs:Hugging Face Inference、Gitee AI、Model Scope、A4F、Pollinations.ai、S3 / WebDAV协议
🚀 快速上手
先决条件
- Node.js(v18或更高版本)
- npm或yarn或pnpm
安装
克隆仓库:
git clone https://github.com/Amery2010/peinture.git cd peinture安装依赖项:
npm install启动开发服务器:
npm run dev打开浏览器,访问
http://localhost:5173。
📦 部署
该项目是一个静态单页应用(SPA),因此可以轻松部署到任何支持静态托管的平台上。
选项1:Vercel(推荐)
Vercel专为前端框架优化,无需任何配置。
安装Vercel CLI:
npm i -g vercel在项目根目录下运行部署命令:
vercel按照提示操作。Vercel会自动检测Vite,并将构建命令设置为
npm run build,输出目录设置为dist。
或者通过Vercel仪表板:
- 将代码推送到GitHub。
- 在Vercel中导入仓库。
- 保持默认的“框架预设”为
Vite。 - 点击部署。
选项2:Cloudflare Pages
Cloudflare Pages是在Cloudflare网络上托管静态资产的最佳方式。
- 将代码推送到GitHub仓库。
- 登录Cloudflare仪表板并前往Compute (Workers & Pages) > 创建应用 > Pages > 连接到Git。
- 选择您的仓库。
- 在“构建设置”中:
- 框架预设:
Vite - 构建命令:
npm run build - 构建输出目录:
dist
- 框架预设:
- 点击保存并部署。
选项3:静态CDN(Nginx、Apache、Netlify、S3)
要在任何标准Web服务器或CDN上托管:
在本地构建项目:
npm run build这将生成一个包含
index.html和打包资源的dist文件夹。将
dist文件夹的内容上传到您服务器的公共根目录(例如/var/www/html或S3存储桶)。对于SPA很重要:确保您的服务器配置为将所有404请求重定向到
index.html,以便React Router(如果未来添加)或客户端逻辑处理路由。
⚙️ 配置
您可以在应用的设置菜单中配置API令牌。
Hugging Face令牌(可选)
应用程序开箱即用,使用公共配额即可运行。然而,对于大量使用或高峰时段,建议提供您自己的令牌。
- 从Hugging Face设置获取令牌。
- 将其粘贴到设置中的Hugging Face令牌字段。
Gitee AI令牌(使用Gitee时必需)
要使用Gitee AI提供商,您必须提供API令牌。
- 从Gitee AI仪表板获取令牌。
- 将其粘贴到设置中的Gitee AI令牌字段。
- Gitee AI为生成的图像提供每日免费配额。
Model Scope令牌(使用Model Scope时必需)
要使用Model Scope提供商,您必须提供API令牌。
- 从Model Scope仪表板获取令牌。
- 将其粘贴到设置中的Model Scope令牌字段。
A4F令牌(使用A4F时必需)
要使用A4F提供商,您必须提供API令牌。
- 从A4F仪表板获取令牌。
- 将其粘贴到设置中的A4F令牌字段。
- A4F为生成的图像提供每日免费配额。
令牌安全地存储在您的浏览器localStorage中,仅用于对相应推理端点的请求进行身份验证。
云存储(可选)
要将您的创作保存到云端:
- 前往设置 > 存储。
- 选择S3存储或WebDAV。
- 输入您的凭据(例如,S3的Access Key/Secret Key,WebDAV的URL/用户名/密码)。
- 使用“测试连接”按钮进行验证。
- 配置完成后,将出现“图库”选项卡,您可以直接从创作或编辑视图上传图像。
❓ 常见问题解答
问:这项服务可以免费使用吗?
答:是的,本项目完全免费。默认使用公共 API 配额。由于高峰时段公共配额可能有限制,您可以在设置中配置自己的 Hugging Face Token,以获得更稳定的生成体验和更高的使用配额。Gitee AI 和 Model Scope 则需要您提供 Token 才能使用其免费配额。
问:我的数据和隐私安全吗?
答:当然安全。我们非常重视隐私保护。所有生成记录、设置和 Token 都会本地存储在您的浏览器中(LocalStorage)。我们没有后端数据库,也不会收集您的个人使用数据。请注意:生成的图片会保留 24 小时,请务必下载您喜欢的作品。提示词历史为临时保存,关闭页面后会自动清除。
问:多 Token 系统是如何工作的?
答:您可以输入多个 Token,用逗号分隔。系统会自动创建一个 Token 池。如果当前 Token 的每日配额用尽,系统会自动将其标记为当天已耗尽,并无缝切换到下一个可用 Token,确保您的创作不会中断。此机制适用于 Hugging Face、Gitee AI 和 Model Scope。
问:这款应用由哪些服务提供支持?
答:Hugging Face 的图像生成由 Hugging Face 提供,提示优化则由 Pollinations.ai 提供。Gitee AI 的图像生成和提示优化由 Gitee AI 提供。Model Scope 的图像生成和提示优化由 Model Scope 提供。
问:什么是 Live Motion?
答:Live 功能可以将静态图片转换成动态短视频。通过利用先进的图像转视频模型(如 Wan2.2),AI 会分析场景构图,生成自然流畅的运动效果和电影级的视觉效果,让您的作品栩栩如生。目前仅支持 Hugging Face 和 Gitee AI。
问:图像编辑器如何工作?
答:图像编辑器允许您使用 AI 对现有图片进行修改。您可以在透明图层上绘制(使用画笔或矩形工具)来指示需要修改的位置,然后输入 AI 指令。系统会将您的绘制内容与原图合并,并发送至 Qwen-Image-Edit 模型。您还可以上传最多 3 张参考图,以引导 AI 的艺术风格或内容。
问:我可以自己托管这个项目吗?
答:可以!这是一个基于 MIT 许可证的开源项目。您可以从 GitHub 上 Fork 该仓库,并部署到 Vercel、Cloudflare Pages 或任何静态托管服务上。
🔄 保持您的 Fork 最新
如果您已经 Fork 了该项目,可以通过 GitHub Actions 自动同步您的仓库与原始仓库。
- 在您的 Fork 仓库中,创建一个名为
.github/workflows/sync.yml的新文件。 - 将以下内容粘贴到文件中:
name: Upstream Sync
permissions:
contents: write
on:
schedule:
- cron: "0 0 * * *" # 每天 UTC 时间 00:00 运行
workflow_dispatch: # 允许手动触发
jobs:
sync_latest_from_upstream:
name: 同步上游仓库的最新提交
runs-on: ubuntu-latest
if: ${{ github.event.repository.fork }}
steps:
# 步骤 1:执行标准的 checkout 操作
- name: 检出目标仓库
uses: actions/checkout@v3
# 步骤 2:执行同步操作
- name: 同步上游更改
id: sync
uses: aormsby/Fork-Sync-With-Upstream-action@v3.4
with:
upstream_sync_repo: Amery2010/peinture
upstream_sync_branch: main
target_sync_branch: main
target_repo_token: ${{ secrets.GITHUB_TOKEN }} # 自动生成,无需设置
# 设置 test_mode 为 true 可以运行测试而非实际操作!!
test_mode: false
- name: 同步检查
if: failure()
run: |
echo "[错误] 由于上游仓库的工作流文件发生了变化,GitHub 已自动暂停计划中的自动更新。您需要手动同步您的 Fork。"
exit 1
- 提交更改。此后,您的 Fork 将每天检查更新并自动同步。
🤝 贡献
欢迎贡献!请随时提交 Pull Request。
- Fork 该项目
- 创建您的功能分支 (
git checkout -b feature/AmazingFeature) - 提交您的更改 (
git commit -m '添加一些 AmazingFeature') - 推送到分支 (
git push origin feature/AmazingFeature) - 打开 Pull Request
📄 许可证
根据 MIT 许可证发布。
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
Deep-Live-Cam
Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。