[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Amery2010--peinture":3,"tool-Amery2010--peinture":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,2,"2026-04-18T11:18:24",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":79,"owner_email":80,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":84,"stars":100,"forks":101,"last_commit_at":102,"license":81,"difficulty_score":103,"env_os":104,"env_gpu":105,"env_ram":106,"env_deps":107,"category_tags":116,"github_topics":117,"view_count":32,"oss_zip_url":81,"oss_zip_packed_at":81,"status":17,"created_at":121,"updated_at":122,"faqs":123,"releases":169},9067,"Amery2010\u002Fpeinture","peinture","A general-purpose AI image generation framework that supports Hugging Face, Gitee, Model Scope, and more.","Peinture 是一款通用型 AI 图像生成框架，旨在让用户通过文字提示快速创作高质量图片、编辑现有图像甚至生成动态视频。它有效解决了用户在不同 AI 模型平台间切换繁琐、本地部署门槛高以及隐私担忧等痛点，提供了一个统一且流畅的操作界面。\n\n无论是希望快速实现创意的普通用户、需要灵活调整参数的设计师，还是想要集成多模型能力的开发者，都能从中受益。Peinture 的独特亮点在于其强大的多供应商架构，无缝支持 Hugging Face、Gitee AI、Model Scope 及自定义 OpenAI 兼容接口，让用户能自由调用 FLUX、Qwen 等前沿模型。此外，它内置专业的图像编辑器与“文生视频”功能（基于 Wan 2.2），并具备智能提示词优化与自动翻译能力。\n\n在技术实现上，Peinture 采用 React 19 与 Tailwind CSS 构建，拥有优雅的深色主题界面。其隐私优先的设计理念确保所有历史记录与凭证仅存储于本地浏览器，同时支持高性能的本地文件系统（OPFS）或与 S3、WebDAV 云存储同步，兼顾了数据安全与跨设备协作的灵活性。作为一个静态单页应用，它还极易","Peinture 是一款通用型 AI 图像生成框架，旨在让用户通过文字提示快速创作高质量图片、编辑现有图像甚至生成动态视频。它有效解决了用户在不同 AI 模型平台间切换繁琐、本地部署门槛高以及隐私担忧等痛点，提供了一个统一且流畅的操作界面。\n\n无论是希望快速实现创意的普通用户、需要灵活调整参数的设计师，还是想要集成多模型能力的开发者，都能从中受益。Peinture 的独特亮点在于其强大的多供应商架构，无缝支持 Hugging Face、Gitee AI、Model Scope 及自定义 OpenAI 兼容接口，让用户能自由调用 FLUX、Qwen 等前沿模型。此外，它内置专业的图像编辑器与“文生视频”功能（基于 Wan 2.2），并具备智能提示词优化与自动翻译能力。\n\n在技术实现上，Peinture 采用 React 19 与 Tailwind CSS 构建，拥有优雅的深色主题界面。其隐私优先的设计理念确保所有历史记录与凭证仅存储于本地浏览器，同时支持高性能的本地文件系统（OPFS）或与 S3、WebDAV 云存储同步，兼顾了数据安全与跨设备协作的灵活性。作为一个静态单页应用，它还极易部署，可轻松运行在个人电脑或各类云平台上。","# Peinture (Free AI Image Gen)\n\n![Stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FAmery2010\u002Fpeinture?style=flat-square)\n![Forks](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002FAmery2010\u002Fpeinture?style=flat-square)\n![Issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FAmery2010\u002Fpeinture?style=flat-square)\n\nA sleek, dark-themed AI image generator built with React, TypeScript, and Tailwind CSS. This application leverages powerful generative models from **Hugging Face**, **Gitee AI**, **Model Scope**, and **A4F** to create high-quality images from text prompts in seconds.\n\n![App Screenshot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmery2010_peinture_readme_6d1ed2dc8b7a.png)\n\n![Image Editor](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmery2010_peinture_readme_d5399dfeec68.jpg)\n\n![Cloud Gallery](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmery2010_peinture_readme_98f56c16d39a.jpg)\n\n## ✨ Features\n\n- **Multi-Provider Architecture**: Seamlessly switch between **Hugging Face**, **Gitee AI**, **Model Scope**, and **A4F**. You can also add **Custom OpenAI-compatible Providers** to extend functionality infinitely.\n- **Diverse Model Ecosystem**: Access a wide range of models including:\n  - **Generation**: `Z-Image Turbo`, `Qwen Image`, `Ovis Image`, `FLUX.1 Schnell\u002FDev\u002FKrea`, `FLUX.2`.\n  - **Text\u002FOptimization**: `OpenAI 4o-mini`, `DeepSeek V3\u002FR1`, `Qwen 3`, `Gemini 2.5 Flash Lite`.\n- **Professional Image Editor**: Modify existing images with precision using the **Qwen-Image-Edit** model. Features include Brush\u002FRectangle selection, reference image support (up to 3), and AI-assisted prompt optimization.\n- **Live Motion (Wan 2.2)**: Transform static images into dynamic 5-second cinematic videos using the advanced **Wan 2.2** model (Supported on Hugging Face & Gitee AI).\n- **Flexible Storage System**: \n  - **Local (OPFS)**: High-performance, persistent local storage within the browser.\n  - **Cloud**: Connect **S3-compatible storage** (AWS, R2, MinIO) or **WebDAV** to sync your creations across devices.\n- **Prompt Engineering**: Integrated AI prompt enhancer that expands simple ideas into detailed descriptions. Includes **Auto Translation** for optimizing prompts for English-centric models like FLUX.\n- **Advanced Controls**: Fine-tune your creations with adjustable **inference steps**, **seed control**, **guidance scale**, and **HD Mode** (4x Upscaling).\n- **Service Modes**: \n  - **Local**: Runs entirely in the browser using public APIs.\n  - **Server**: Connects to a private backend for proxying requests.\n  - **Hydration**: Hybrid mode combining local logic with server capabilities.\n- **Privacy Focused**: History and credentials are stored locally in your browser's LocalStorage. No user tracking.\n\n## 🛠 Tech Stack\n\n- **Framework**: React 19\n- **Build Tool**: Vite\n- **Styling**: Tailwind CSS\n- **Icons**: Lucide React\n- **State Management**: Zustand (with Persistence)\n- **Storage**: OPFS (Origin Private File System)\n- **APIs**: Hugging Face Inference, Gitee AI, Model Scope, A4F, Pollinations.ai, S3 \u002F WebDAV Protocols\n\n## 🚀 Getting Started\n\n### Prerequisites\n\n- Node.js (v18 or higher)\n- npm or yarn or pnpm\n\n### Installation\n\n1. Clone the repository:\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FAmery2010\u002Fpeinture.git\n   cd peinture\n   ```\n\n2. Install dependencies:\n   ```bash\n   npm install\n   ```\n\n3. Start the development server:\n   ```bash\n   npm run dev\n   ```\n\n4. Open your browser at `http:\u002F\u002Flocalhost:5173`.\n\n## 📦 Deployment\n\nThis project is a static Single Page Application (SPA), making it easy to deploy on any platform that supports static hosting.\n\n### Option 1: Vercel (Recommended)\n\nVercel is optimized for frontend frameworks and requires zero configuration.\n\n1. Install Vercel CLI:\n   ```bash\n   npm i -g vercel\n   ```\n\n2. Run the deploy command from the project root:\n   ```bash\n   vercel\n   ```\n\n3. Follow the prompts. Vercel will automatically detect Vite and set the build command to `npm run build` and the output directory to `dist`.\n\n**Alternatively, via the Vercel Dashboard:**\n1. Push your code to GitHub.\n2. Import the repository in Vercel.\n3. Keep the default \"Framework Preset\" as `Vite`.\n4. Click **Deploy**.\n\n### Option 2: Cloudflare Pages\n\nCloudflare Pages is the best way to host static assets on the Cloudflare network.\n\n1. Push your code to a GitHub repository.\n2. Log in to the [Cloudflare Dashboard](https:\u002F\u002Fdash.cloudflare.com\u002F) and go to **Compute (Workers & Pages)** > **Create Application** > **Pages** > **Connect to Git**.\n3. Select your repository.\n4. In \"Build settings\":\n   - **Framework preset**: `Vite`\n   - **Build command**: `npm run build`\n   - **Build output directory**: `dist`\n5. Click **Save and Deploy**.\n\n### Option 3: Static CDN (Nginx, Apache, Netlify, S3)\n\nTo host on any standard web server or CDN:\n\n1. Build the project locally:\n   ```bash\n   npm run build\n   ```\n\n2. This will generate a `dist` folder containing `index.html` and bundled assets.\n\n3. Upload the **contents** of the `dist` folder to your server's public root directory (e.g., `\u002Fvar\u002Fwww\u002Fhtml` or an S3 bucket).\n\n4. **Important for SPAs**: Ensure your server is configured to redirect all 404 requests to `index.html` so that React Router (if added in the future) or client-side logic handles the routing.\n\n## ⚙️ Configuration\n\nYou can configure API tokens in the app's **Settings** menu.\n\n### Hugging Face Token (Optional)\nThe application works out-of-the-box using public quotas. However, for heavy usage or during peak times, providing your own token is recommended.\n1. Get a token from [Hugging Face Settings](https:\u002F\u002Fhuggingface.co\u002Fsettings\u002Ftokens).\n2. Paste it into the **Hugging Face Token** field in Settings.\n\n### Gitee AI Token (Required for Gitee)\nTo use the Gitee AI provider, you must provide an API token.\n1. Get a token from [Gitee AI Dashboard](https:\u002F\u002Fai.gitee.com\u002Fdashboard\u002Fsettings\u002Ftokens).\n2. Paste it into the **Gitee AI Token** field in Settings.\n3. Gitee AI provides a daily free quota for generated images.\n\n### Model Scope Token (Required for Model Scope)\nTo use the Model Scope provider, you must provide an API token.\n1. Get a token from [Model Scope Dashboard](https:\u002F\u002Fmodelscope.cn\u002Fmy\u002Fmyaccesstoken).\n2. Paste it into the **Model Scope Token** field in Settings.\n\n### A4F Token (Required for Gitee)\nTo use the A4F provider, you must provide an API token.\n1. Get a token from [A4F Dashboard](https:\u002F\u002Fwww.a4f.co\u002Fapi-keys).\n2. Paste it into the **A4F Token** field in Settings.\n3. A4F provides a daily free quota for generated images.\n\n*Tokens are stored securely in your browser's `localStorage` and are strictly used to authenticate requests to the respective Inference endpoints.*\n\n### Cloud Storage (Optional)\nTo save your creations to the cloud:\n1. Go to **Settings > Storage**.\n2. Select **S3 Storage** or **WebDAV**.\n3. Enter your credentials (e.g., Access Key\u002FSecret Key for S3, URL\u002FUser\u002FPass for WebDAV).\n4. Use the \"Test Connection\" button to verify.\n5. Once configured, a \"Gallery\" tab will appear, and you can upload images directly from the Creation or Editor views.\n\n## ❓ FAQ\n\n**Q: Is this service free to use?**\nA: Yes, this project is completely free. It defaults to using public API quotas. Due to potential limits on public quotas during peak times, you can configure your own Hugging Face token in the settings for a more stable generation experience and higher usage quotas. Gitee AI and Model Scope require you to provide a token to use their free quotas.\n\n**Q: Is my data and privacy safe?**\nA: Absolutely. We prioritize privacy. All generation history, settings, and tokens are stored locally in your browser (LocalStorage). We do not have a backend database, and we do not collect your personal usage data. Please note: Generated images are kept for 24 hours, so be sure to download your favorites. Prompt history is temporary and clears when you close the page.\n\n**Q: How does the multi-token system work?**\nA: You can enter multiple tokens separated by commas. The system automatically creates a pool. If the current token exhausts its daily quota, the system will automatically mark it as exhausted for the day and seamlessly switch to the next available token, ensuring your creation is uninterrupted. This mechanism applies to Hugging Face, Gitee AI, and Model Scope.\n\n**Q: Which services power this app?**\nA: Image generation for Hugging Face is powered by Hugging Face, and prompt optimization is provided by Pollinations.ai. Image generation and prompt optimization for Gitee AI are provided by Gitee AI. Image generation and prompt optimization for Model Scope are provided by Model Scope.\n\n**Q: What is Live Motion?**\nA: The Live feature transforms static images into dynamic short videos. By leveraging advanced Image-to-Video models (such as Wan2.2), the AI analyzes the scene's composition to generate natural motion and cinematic effects, bringing your creation to life. Currently, only Hugging Face and Gitee AI are supported.\n\n**Q: How does the Image Editor work?**\nA: The Image Editor allows you to modify existing images using AI. You can draw on a transparent layer (using Brush or Rectangle tools) to indicate where you want changes, then provide an AI command. The system merges your drawings with the original image and sends them to the Qwen-Image-Edit model. You can also upload up to 3 reference images to guide the AI's artistic style or content.\n\n**Q: Can I host this myself?**\nA: Yes! This is an open-source project licensed under MIT. You can fork the repository from GitHub and deploy it to Vercel, Cloudflare Pages, or any static hosting service.\n\n## 🔄 Keep Your Fork Updated\n\nIf you have forked this project, you can use GitHub Actions to automatically sync your repository with the original repository.\n\n1. In your forked repository, create a new file at `.github\u002Fworkflows\u002Fsync.yml`.\n2. Paste the following content into the file:\n\n```yaml\nname: Upstream Sync\n\npermissions:\n  contents: write\n\non:\n  schedule:\n    - cron: \"0 0 * * *\" # Run every day at 00:00 UTC\n  workflow_dispatch: # Allow manual triggering\n\njobs:\n  sync_latest_from_upstream:\n    name: Sync latest commits from upstream repo\n    runs-on: ubuntu-latest\n    if: ${{ github.event.repository.fork }}\n\n    steps:\n      # Step 1: run a standard checkout action\n      - name: Checkout target repo\n        uses: actions\u002Fcheckout@v3\n\n      # Step 2: run the sync action\n      - name: Sync upstream changes\n        id: sync\n        uses: aormsby\u002FFork-Sync-With-Upstream-action@v3.4\n        with:\n          upstream_sync_repo: Amery2010\u002Fpeinture\n          upstream_sync_branch: main\n          target_sync_branch: main\n          target_repo_token: ${{ secrets.GITHUB_TOKEN }} # Automatically generated, no need to set\n\n          # Set test_mode true to run tests instead of the true action!!\n          test_mode: false\n\n      - name: Sync check\n        if: failure()\n        run: |\n          echo \"[Error] Due to a change in the workflow file of the upstream repository, GitHub has automatically suspended the scheduled automatic update. You need to manually sync your fork.\"\n          exit 1\n```\n\n3. Commit the changes. Your fork will now check for updates daily and sync automatically.\n\n## 🤝 Contributing\n\nContributions are welcome! Please feel free to submit a Pull Request.\n\n1. Fork the project\n2. Create your feature branch (`git checkout -b feature\u002FAmazingFeature`)\n3. Commit your changes (`git commit -m 'Add some AmazingFeature'`)\n4. Push to the branch (`git push origin feature\u002FAmazingFeature`)\n5. Open a Pull Request\n\n## 📄 License\n\nDistributed under the MIT License.","# 佩因图尔（免费AI图像生成器）\n\n![星标](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FAmery2010\u002Fpeinture?style=flat-square)\n![叉子](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002FAmery2010\u002Fpeinture?style=flat-square)\n![问题](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FAmery2010\u002Fpeinture?style=flat-square)\n\n一款采用React、TypeScript和Tailwind CSS构建的简洁、暗色主题AI图像生成器。该应用利用来自**Hugging Face**、**Gitee AI**、**Model Scope**和**A4F**的强大生成模型，可在几秒钟内根据文本提示创建高质量图像。\n\n![应用截图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmery2010_peinture_readme_6d1ed2dc8b7a.png)\n\n![图像编辑器](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmery2010_peinture_readme_d5399dfeec68.jpg)\n\n![云图库](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmery2010_peinture_readme_98f56c16d39a.jpg)\n\n## ✨ 特性\n\n- **多提供商架构**：无缝切换**Hugging Face**、**Gitee AI**、**Model Scope**和**A4F**。您还可以添加**自定义OpenAI兼容提供商**，以无限扩展功能。\n- **多样化的模型生态**：访问广泛的模型，包括：\n  - **生成类**：`Z-Image Turbo`、`Qwen Image`、`Ovis Image`、`FLUX.1 Schnell\u002FDev\u002FKrea`、`FLUX.2`。\n  - **文本\u002F优化类**：`OpenAI 4o-mini`、`DeepSeek V3\u002FR1`、`Qwen 3`、`Gemini 2.5 Flash Lite`。\n- **专业图像编辑器**：使用**Qwen-Image-Edit**模型精确地修改现有图像。功能包括画笔\u002F矩形选择、参考图像支持（最多3张）以及AI辅助提示优化。\n- **实时动态效果（Wan 2.2）**：使用先进的**Wan 2.2**模型将静态图像转换为5秒的动态电影级视频（支持Hugging Face和Gitee AI）。\n- **灵活的存储系统**：\n  - **本地（OPFS）**：浏览器内的高性能持久化本地存储。\n  - **云端**：连接**S3兼容存储**（AWS、R2、MinIO）或**WebDAV**，以在不同设备间同步您的创作。\n- **提示工程**：集成的AI提示增强器，可将简单的想法扩展为详细的描述。包含**自动翻译**功能，用于优化针对以英语为中心的模型（如FLUX）的提示。\n- **高级控制**：通过可调节的**推理步数**、**种子控制**、**引导尺度**和**高清模式**（4倍超分辨率）精细调整您的创作。\n- **服务模式**：\n  - **本地**：完全在浏览器中使用公共API运行。\n  - **服务器端**：连接到私有后端以代理请求。\n  - **混合模式**：结合本地逻辑与服务器功能的混合模式。\n- **注重隐私**：历史记录和凭据存储在浏览器的LocalStorage中。无用户追踪。\n\n## 🛠 技术栈\n\n- **框架**：React 19\n- **构建工具**：Vite\n- **样式**：Tailwind CSS\n- **图标**：Lucide React\n- **状态管理**：Zustand（带持久化）\n- **存储**：OPFS（Origin Private File System）\n- **APIs**：Hugging Face Inference、Gitee AI、Model Scope、A4F、Pollinations.ai、S3 \u002F WebDAV协议\n\n## 🚀 快速上手\n\n### 先决条件\n\n- Node.js（v18或更高版本）\n- npm或yarn或pnpm\n\n### 安装\n\n1. 克隆仓库：\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FAmery2010\u002Fpeinture.git\n   cd peinture\n   ```\n\n2. 安装依赖项：\n   ```bash\n   npm install\n   ```\n\n3. 启动开发服务器：\n   ```bash\n   npm run dev\n   ```\n\n4. 打开浏览器，访问`http:\u002F\u002Flocalhost:5173`。\n\n## 📦 部署\n\n该项目是一个静态单页应用（SPA），因此可以轻松部署到任何支持静态托管的平台上。\n\n### 选项1：Vercel（推荐）\n\nVercel专为前端框架优化，无需任何配置。\n\n1. 安装Vercel CLI：\n   ```bash\n   npm i -g vercel\n   ```\n\n2. 在项目根目录下运行部署命令：\n   ```bash\n   vercel\n   ```\n\n3. 按照提示操作。Vercel会自动检测Vite，并将构建命令设置为`npm run build`，输出目录设置为`dist`。\n\n**或者通过Vercel仪表板：**\n1. 将代码推送到GitHub。\n2. 在Vercel中导入仓库。\n3. 保持默认的“框架预设”为`Vite`。\n4. 点击**部署**。\n\n### 选项2：Cloudflare Pages\n\nCloudflare Pages是在Cloudflare网络上托管静态资产的最佳方式。\n\n1. 将代码推送到GitHub仓库。\n2. 登录[Cloudflare仪表板](https:\u002F\u002Fdash.cloudflare.com\u002F)并前往**Compute (Workers & Pages)** > **创建应用** > **Pages** > **连接到Git**。\n3. 选择您的仓库。\n4. 在“构建设置”中：\n   - **框架预设**：`Vite`\n   - **构建命令**：`npm run build`\n   - **构建输出目录**：`dist`\n5. 点击**保存并部署**。\n\n### 选项3：静态CDN（Nginx、Apache、Netlify、S3）\n\n要在任何标准Web服务器或CDN上托管：\n\n1. 在本地构建项目：\n   ```bash\n   npm run build\n   ```\n\n2. 这将生成一个包含`index.html`和打包资源的`dist`文件夹。\n\n3. 将`dist`文件夹的**内容**上传到您服务器的公共根目录（例如`\u002Fvar\u002Fwww\u002Fhtml`或S3存储桶）。\n\n4. **对于SPA很重要**：确保您的服务器配置为将所有404请求重定向到`index.html`，以便React Router（如果未来添加）或客户端逻辑处理路由。\n\n## ⚙️ 配置\n\n您可以在应用的**设置**菜单中配置API令牌。\n\n### Hugging Face令牌（可选）\n应用程序开箱即用，使用公共配额即可运行。然而，对于大量使用或高峰时段，建议提供您自己的令牌。\n1. 从[Hugging Face设置](https:\u002F\u002Fhuggingface.co\u002Fsettings\u002Ftokens)获取令牌。\n2. 将其粘贴到设置中的**Hugging Face令牌**字段。\n\n### Gitee AI令牌（使用Gitee时必需）\n要使用Gitee AI提供商，您必须提供API令牌。\n1. 从[Gitee AI仪表板](https:\u002F\u002Fai.gitee.com\u002Fdashboard\u002Fsettings\u002Ftokens)获取令牌。\n2. 将其粘贴到设置中的**Gitee AI令牌**字段。\n3. Gitee AI为生成的图像提供每日免费配额。\n\n### Model Scope令牌（使用Model Scope时必需）\n要使用Model Scope提供商，您必须提供API令牌。\n1. 从[Model Scope仪表板](https:\u002F\u002Fmodelscope.cn\u002Fmy\u002Fmyaccesstoken)获取令牌。\n2. 将其粘贴到设置中的**Model Scope令牌**字段。\n\n### A4F令牌（使用A4F时必需）\n要使用A4F提供商，您必须提供API令牌。\n1. 从[A4F仪表板](https:\u002F\u002Fwww.a4f.co\u002Fapi-keys)获取令牌。\n2. 将其粘贴到设置中的**A4F令牌**字段。\n3. A4F为生成的图像提供每日免费配额。\n\n*令牌安全地存储在您的浏览器`localStorage`中，仅用于对相应推理端点的请求进行身份验证。*\n\n### 云存储（可选）\n要将您的创作保存到云端：\n1. 前往**设置 > 存储**。\n2. 选择**S3存储**或**WebDAV**。\n3. 输入您的凭据（例如，S3的Access Key\u002FSecret Key，WebDAV的URL\u002F用户名\u002F密码）。\n4. 使用“测试连接”按钮进行验证。\n5. 配置完成后，将出现“图库”选项卡，您可以直接从创作或编辑视图上传图像。\n\n## ❓ 常见问题解答\n\n**问：这项服务可以免费使用吗？**  \n答：是的，本项目完全免费。默认使用公共 API 配额。由于高峰时段公共配额可能有限制，您可以在设置中配置自己的 Hugging Face Token，以获得更稳定的生成体验和更高的使用配额。Gitee AI 和 Model Scope 则需要您提供 Token 才能使用其免费配额。\n\n**问：我的数据和隐私安全吗？**  \n答：当然安全。我们非常重视隐私保护。所有生成记录、设置和 Token 都会本地存储在您的浏览器中（LocalStorage）。我们没有后端数据库，也不会收集您的个人使用数据。请注意：生成的图片会保留 24 小时，请务必下载您喜欢的作品。提示词历史为临时保存，关闭页面后会自动清除。\n\n**问：多 Token 系统是如何工作的？**  \n答：您可以输入多个 Token，用逗号分隔。系统会自动创建一个 Token 池。如果当前 Token 的每日配额用尽，系统会自动将其标记为当天已耗尽，并无缝切换到下一个可用 Token，确保您的创作不会中断。此机制适用于 Hugging Face、Gitee AI 和 Model Scope。\n\n**问：这款应用由哪些服务提供支持？**  \n答：Hugging Face 的图像生成由 Hugging Face 提供，提示优化则由 Pollinations.ai 提供。Gitee AI 的图像生成和提示优化由 Gitee AI 提供。Model Scope 的图像生成和提示优化由 Model Scope 提供。\n\n**问：什么是 Live Motion？**  \n答：Live 功能可以将静态图片转换成动态短视频。通过利用先进的图像转视频模型（如 Wan2.2），AI 会分析场景构图，生成自然流畅的运动效果和电影级的视觉效果，让您的作品栩栩如生。目前仅支持 Hugging Face 和 Gitee AI。\n\n**问：图像编辑器如何工作？**  \n答：图像编辑器允许您使用 AI 对现有图片进行修改。您可以在透明图层上绘制（使用画笔或矩形工具）来指示需要修改的位置，然后输入 AI 指令。系统会将您的绘制内容与原图合并，并发送至 Qwen-Image-Edit 模型。您还可以上传最多 3 张参考图，以引导 AI 的艺术风格或内容。\n\n**问：我可以自己托管这个项目吗？**  \n答：可以！这是一个基于 MIT 许可证的开源项目。您可以从 GitHub 上 Fork 该仓库，并部署到 Vercel、Cloudflare Pages 或任何静态托管服务上。\n\n## 🔄 保持您的 Fork 最新\n\n如果您已经 Fork 了该项目，可以通过 GitHub Actions 自动同步您的仓库与原始仓库。\n\n1. 在您的 Fork 仓库中，创建一个名为 `.github\u002Fworkflows\u002Fsync.yml` 的新文件。\n2. 将以下内容粘贴到文件中：\n\n```yaml\nname: Upstream Sync\n\npermissions:\n  contents: write\n\non:\n  schedule:\n    - cron: \"0 0 * * *\" # 每天 UTC 时间 00:00 运行\n  workflow_dispatch: # 允许手动触发\n\njobs:\n  sync_latest_from_upstream:\n    name: 同步上游仓库的最新提交\n    runs-on: ubuntu-latest\n    if: ${{ github.event.repository.fork }}\n\n    steps:\n      # 步骤 1：执行标准的 checkout 操作\n      - name: 检出目标仓库\n        uses: actions\u002Fcheckout@v3\n\n      # 步骤 2：执行同步操作\n      - name: 同步上游更改\n        id: sync\n        uses: aormsby\u002FFork-Sync-With-Upstream-action@v3.4\n        with:\n          upstream_sync_repo: Amery2010\u002Fpeinture\n          upstream_sync_branch: main\n          target_sync_branch: main\n          target_repo_token: ${{ secrets.GITHUB_TOKEN }} # 自动生成，无需设置\n\n          # 设置 test_mode 为 true 可以运行测试而非实际操作！！\n          test_mode: false\n\n      - name: 同步检查\n        if: failure()\n        run: |\n          echo \"[错误] 由于上游仓库的工作流文件发生了变化，GitHub 已自动暂停计划中的自动更新。您需要手动同步您的 Fork。\"\n          exit 1\n```\n\n3. 提交更改。此后，您的 Fork 将每天检查更新并自动同步。\n\n## 🤝 贡献\n\n欢迎贡献！请随时提交 Pull Request。\n\n1. Fork 该项目\n2. 创建您的功能分支 (`git checkout -b feature\u002FAmazingFeature`)\n3. 提交您的更改 (`git commit -m '添加一些 AmazingFeature'`)\n4. 推送到分支 (`git push origin feature\u002FAmazingFeature`)\n5. 打开 Pull Request\n\n## 📄 许可证\n\n根据 MIT 许可证发布。","# Peinture 快速上手指南\n\nPeinture 是一款基于 React、TypeScript 和 Tailwind CSS 构建的现代化 AI 图像生成工具。它支持切换 Hugging Face、Gitee AI（码云）、Model Scope（魔搭）等多个提供商，具备文生图、图片编辑、动态视频生成及云端同步等功能。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Windows \u002F macOS \u002F Linux\n*   **Node.js**：版本 v18 或更高（推荐使用 LTS 版本）\n*   **包管理器**：npm、yarn 或 pnpm（任选其一）\n\n> **国内开发者提示**：若安装依赖速度较慢，建议配置国内镜像源。\n> *   npm: `npm config set registry https:\u002F\u002Fregistry.npmmirror.com`\n> *   yarn: `yarn config set registry https:\u002F\u002Fregistry.npmmirror.com`\n\n## 安装步骤\n\n### 1. 克隆项目\n将代码仓库克隆到本地并进入项目目录：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FAmery2010\u002Fpeinture.git\ncd peinture\n```\n\n### 2. 安装依赖\n使用包管理器安装项目所需依赖：\n\n```bash\nnpm install\n```\n*(如需使用 yarn 或 pnpm，可分别运行 `yarn` 或 `pnpm install`)*\n\n### 3. 启动开发服务器\n运行以下命令启动本地开发环境：\n\n```bash\nnpm run dev\n```\n\n启动成功后，终端会显示访问地址（通常为 `http:\u002F\u002Flocalhost:5173`）。在浏览器中打开该地址即可使用。\n\n## 基本使用\n\n### 1. 配置 API Token\n虽然应用默认使用公共配额，但为了获得更稳定的服务和更高的生成限额，建议在首次使用时配置 Token。\n\n*   点击界面右上角的 **设置 (Settings)** 图标。\n*   根据您选择的提供商填入对应的 Token：\n    *   **Gitee AI**：访问 [Gitee AI Dashboard](https:\u002F\u002Fai.gitee.com\u002Fdashboard\u002Fsettings\u002Ftokens) 获取（国内访问速度快，推荐）。\n    *   **Model Scope**：访问 [Model Scope Dashboard](https:\u002F\u002Fmodelscope.cn\u002Fmy\u002Fmyaccesstoken) 获取。\n    *   **Hugging Face**：访问 [Hugging Face Settings](https:\u002F\u002Fhuggingface.co\u002Fsettings\u002Ftokens) 获取。\n    *   **A4F**：访问 [A4F Dashboard](https:\u002F\u002Fwww.a4f.co\u002Fapi-keys) 获取。\n*   Token 仅存储在您浏览器的本地存储中，不会上传至第三方服务器。\n\n### 2. 生成图像\n*   在主界面的输入框中输入描述词（Prompt），例如：“一只在太空漫步的猫，赛博朋克风格”。\n*   点击 **生成** 按钮。\n*   系统会自动调用配置的模型（如 FLUX.1, Qwen Image 等）并在数秒内返回高清图片。\n*   **提示优化**：如果不确定如何描述，可使用内置的 \"AI Prompt Enhancer\" 功能，自动将简单想法扩展为详细的英文提示词。\n\n### 3. 图片编辑与动态化\n*   **编辑模式**：上传图片后，使用画笔或矩形工具标记需要修改的区域，输入指令即可利用 Qwen-Image-Edit 模型进行局部重绘。\n*   **动态视频 (Live Motion)**：选中生成的静态图片，启用 Wan 2.2 模型功能，可将图片转换为 5 秒的动态 cinematic 视频（需 Hugging Face 或 Gitee AI 支持）。\n\n### 4. 保存与同步\n*   **本地保存**：生成的图片默认保存在浏览器的高性能本地存储 (OPFS) 中，关闭页面不会丢失。\n*   **云端同步**：在设置中配置 S3 (兼容 AWS\u002FR2\u002FMinIO) 或 WebDAV 凭证后，可一键将作品同步至云端，实现多设备访问。","一位独立游戏开发者急需为即将上线的像素风 RPG 项目快速生成大量风格统一的角色立绘和动态宣传素材。\n\n### 没有 peinture 时\n- **多平台切换繁琐**：需要在 Hugging Face、ModelScope 等多个网站间反复跳转，手动复制 API Key 和提示词，工作流频繁中断。\n- **静态图缺乏表现力**：生成的角色图仅为静止画面，若要制作宣传用的动态视频，必须额外学习复杂的视频生成工具或聘请动画师。\n- **修改成本高昂**：发现角色手部细节错误或背景不符时，无法局部修正，只能重新生成整张图片，难以精准控制结果。\n- **资产管理局限**：生成的数百张素材仅散落在浏览器下载文件夹中，缺乏统一的云端同步机制，换设备开发时历史记录全部丢失。\n\n### 使用 peinture 后\n- **一站式模型聚合**：直接在 peinture 界面内无缝切换 FLUX.1 或 Qwen Image 等模型，统一配置接口，将分散的生成流程整合进单一工作台。\n- **静转动一键完成**：利用内置的 Wan 2.2 模型，选中满意的角色立绘即可直接转化为 5 秒 cinematic 视频，瞬间获得高质量宣发物料。\n- **专业级局部重绘**：调用 Qwen-Image-Edit 功能，通过画笔涂抹错误区域并输入修正指令，仅几秒即可精准修复细节而保持整体风格不变。\n- **跨端云同步存储**：配置 S3 或 WebDAV 后，所有生成历史和高清原图自动同步至云端，随时随地在不同设备上继续创作且数据不丢失。\n\npeinture 通过聚合多源模型与集成编辑能力，将原本碎片化、高门槛的 AI 绘图流程转化为高效、连贯的一站式创作体验。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmery2010_peinture_6d1ed2dc.png","Amery2010","子丶言","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FAmery2010_c091fe07.png","A bard who knows alchemy.","Freelancer","Dali, China","amery2010@qq.com",null,"https:\u002F\u002Fu14.app","https:\u002F\u002Fgithub.com\u002FAmery2010",[85,89,93,97],{"name":86,"color":87,"percentage":88},"TypeScript","#3178c6",98.8,{"name":90,"color":91,"percentage":92},"CSS","#663399",0.5,{"name":94,"color":95,"percentage":96},"JavaScript","#f1e05a",0.4,{"name":98,"color":99,"percentage":96},"HTML","#e34c26",616,252,"2026-04-18T06:33:42",1,"Linux, macOS, Windows","无需本地 GPU（基于浏览器运行，调用云端 API）","未说明（取决于浏览器性能，建议 4GB+）",{"notes":108,"python":109,"dependencies":110},"该项目是一个纯前端单页应用（SPA），无需安装 Python 或本地深度学习环境。运行需 Node.js v18+ 用于开发或构建，实际使用直接在浏览器中打开即可。生成图像、视频及提示词优化均通过调用 Hugging Face、Gitee AI、Model Scope 等云端 API 完成，因此对本地硬件无特殊要求。需自行配置各平台的 API Token 以获得更稳定的服务或访问特定模型。","不需要",[111,112,113,114,115],"React 19","Vite","Tailwind CSS","Zustand","Lucide React",[15],[118,119,120],"huggingface","image-generation-ai","z-image-turbo","2026-03-27T02:49:30.150509","2026-04-18T22:35:28.955958",[124,129,134,139,144,149,154,159,164],{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},40676,"为什么设置了 Hugging Face Token 仍然提示额度不足？","Hugging Face 免费用户每天有约 4 分钟的算力额度。部分文生图应用要求单次生成至少消耗 60 秒算力。如果额度用尽，需等待次日重置或升级账户。若需大量使用，建议切换至 Model Scope 或 Gitee AI 渠道。您可以访问 https:\u002F\u002Fhuggingface.co\u002Fsettings\u002Fbilling 查看当前剩余额度。","https:\u002F\u002Fgithub.com\u002FAmery2010\u002Fpeinture\u002Fissues\u002F3",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},40677,"配置 WebDAV 时出现 'Connection error: Failed to fetch' 或 500 错误怎么办？","首先确认 WebDAV 服务器是否赋予了项目创建文件夹和文件的权限。其次，注意协议匹配问题：如果部署的网站是 HTTPS 协议，浏览器安全策略会阻止其连接 HTTP 协议的内网地址或网站。解决方案包括：1. 将部署的网站改为 HTTP 协议；2. 使用 Cloudflare Tunnel 进行内网穿透以生成 HTTPS 链接；3. 自建后端代理进行转发。","https:\u002F\u002Fgithub.com\u002FAmery2010\u002Fpeinture\u002Fissues\u002F4",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},40678,"使用坚果云等 WebDAV 时遇到 CORS 跨域错误如何解决？","这是浏览器安全限制导致的，无法直接在 Web 项目中修复。推荐方案有：1. 安装开发者提供的 Chrome 扩展（peinture-extension.zip），以开发者模式加载后可移除 CORS 限制；2. 搭建反向代理（如 Nginx 或 Cloudflare Workers），在代理层允许 CORS；3. 如果 WebDAV 服务端支持，直接在其配置中添加 CORS 响应头。","https:\u002F\u002Fgithub.com\u002FAmery2010\u002Fpeinture\u002Fissues\u002F7",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},40679,"编辑图片时控制台报错，提示生成失败或额度问题如何处理？","此类错误通常意味着 Hugging Face 的 API 调用额度已用尽。解决方法是更换一个新的 API Key，或者等待第二天额度重置后再试。","https:\u002F\u002Fgithub.com\u002FAmery2010\u002Fpeinture\u002Fissues\u002F12",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},40680,"如何在 Peinture 中设置负面提示词（Negative Prompt）？","目前项目界面不支持手动填写负面提示词。原因是大部分接入的模型不支持该参数。对于少数支持该参数的模型，维护者已在代码层面的 API 请求中写入了固定的负面提示词，用户无需也无法自行修改。","https:\u002F\u002Fgithub.com\u002FAmery2010\u002Fpeinture\u002Fissues\u002F11",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},40681,"生成图片后无法自动上传到 S3 对象存储或在画廊中显示？","这通常是由于 Gitee AI 或 Model Scope 等平台生成的图片存在 CORS 跨域问题，导致前端代码无法下载图片进而无法上传至 S3。维护者已在最新版本中搭建了一个临时的图片中转服务来解决此问题，请确保您使用的是最新版本的代码。","https:\u002F\u002Fgithub.com\u002FAmery2010\u002Fpeinture\u002Fissues\u002F5",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},40682,"Peinture 是否提供可供其他程序调用的 API 接口？","Peinture 本身是一个直接调用第三方（如 Hugging Face, Model Scope 等）API 的前端项目，并未封装独立的对外服务 API。如果您需要编程调用画图功能，建议直接查阅各服务提供商（如 Hugging Face Inference API）的官方文档，或参考项目源码中 `services` 目录下的具体调用实现方式。","https:\u002F\u002Fgithub.com\u002FAmery2010\u002Fpeinture\u002Fissues\u002F2",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},40683,"遇到 'crypto.randomUUID is not a function' 报错是什么原因？","这是由于使用的浏览器版本过旧，不支持 `crypto.randomUUID` 这一现代浏览器 API 导致的。该问题已在项目的最新更新中通过代码兼容修复，请尝试刷新页面或更新项目代码至最新版本。","https:\u002F\u002Fgithub.com\u002FAmery2010\u002Fpeinture\u002Fissues\u002F1",{"id":165,"question_zh":166,"answer_zh":167,"source_url":168},40684,"官方的 Z-Image 空间关闭了内嵌功能导致 403 错误怎么办？","由于官方空间限制，项目已更新配置，将 Z-Image Base 的模型空间地址更改为社区维护的地址 `https:\u002F\u002Fmrfakename-z-image.hf.space`。请确保您的项目代码已更新至包含此更改的最新版本。","https:\u002F\u002Fgithub.com\u002FAmery2010\u002Fpeinture\u002Fissues\u002F10",[]]