[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-AHEKOT--ComfyUI_VNCCS":3,"similar-AHEKOT--ComfyUI_VNCCS":95},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":17,"owner_location":18,"owner_email":17,"owner_twitter":17,"owner_website":17,"owner_url":19,"languages":20,"stars":29,"forks":30,"last_commit_at":31,"license":32,"difficulty_score":33,"env_os":34,"env_gpu":35,"env_ram":34,"env_deps":36,"category_tags":47,"github_topics":17,"view_count":50,"oss_zip_url":17,"oss_zip_packed_at":17,"status":51,"created_at":52,"updated_at":53,"faqs":54,"releases":84},5796,"AHEKOT\u002FComfyUI_VNCCS","ComfyUI_VNCCS","Visual Novel Character Creation Suite is a comprehensive tool for creating character sprites for visual novels. It allows you to create unique characters with a consistent appearance across all images, which was previously a challenging task when using neural networks.","ComfyUI_VNCCS（视觉小说角色创作套件）是一款专为 ComfyUI 设计的完整工作流工具，旨在帮助用户高效制作视觉小说所需的角色立绘。它核心解决了利用神经网络生成图像时，难以保持同一角色在不同表情、服装和姿势下外观一致性的痛点。以往创作者往往需要反复调试提示词或进行复杂的后期修图，而 ComfyUI_VNCCS 通过标准化的五步流程——从创建基础角色、克隆现有角色，到定制服装与表情集，最终生成成品立绘——让角色的一致性维护变得像点击按钮一样简单。\n\n该工具特别适合视觉小说开发者、独立游戏制作人以及数字插画师使用。即使是不具备深厚技术背景的普通用户，也能通过其清晰的引导快速上手。其独特的技术亮点在于整合了先进的 SDXL 模型、专用的 LoRA 微调模型以及 ControlNet 姿态控制，并内置了自动化的面部检测与分割功能，确保生成的角色在多次迭代中始终保持特征稳定。此外，它还支持一键构建用于进一步训练的数据集，为高阶用户提供了扩展可能。无论是需要快速原型设计的团队，还是追求高质量美术资源的个人创作者，ComfyUI_VNCCS 都能提供一套专业且流畅的角色生产管线。","![Header](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_86e723322fff.png)\n---\n# VNCCS - Visual Novel Character Creation Suite\n\nVNCCS is NOT just another workflow for creating consistent characters, it is a complete pipeline for creating sprites for any purpose. It allows you to create unique characters with a consistent appearance across all images, organise them, manage emotions, clothing, poses, and conduct a full cycle of work with characters.\n\n## Description\n\nMany people want to use neural networks to create graphics, but making a unique character that looks the same in every image is much harder than generating a single picture. With VNCCS, it's as simple as pressing a button (just 4 times).\n\n## Character Creation Stages\n\nThe character creation process is divided into 5 stages:\n\n1. **Create a base character**\n2. **Clone any existing character**\n3. **Create clothing sets**\n4. **Create emotion sets**\n5. **Generate finished sprites**\n6. **Create a dataset for LoRA training** (optional)\n---\n## **If you find my project useful, please consider supporting it! I work on it completely on my own, and your support will allow me to continue maintaining it and adding even more cool features!**\n\n[![Buy Me a Coffee](https:\u002F\u002Fimg.buymeacoffee.com\u002Fbutton-api\u002F?text=Buy%20me%20a%20rtx%203090&emoji=☕&slug=MIUProject&button_colour=FFDD00&font_colour=000000&font_family=Comic&outline_colour=000000&coffee_colour=ffffff)](https:\u002F\u002Fwww.buymeacoffee.com\u002FMIUProject)\n\n## Installation\n\nFind `VNCCS - Visual Novel Character Creation Suite` in Custom Nodes Manager or install it manually:\n\n1. Place the downloaded folder into `ComfyUI\u002Fcustom_nodes\u002F`\n2. Launch ComfyUI and open Comfy Manager\n3. Click \"Install missing custom nodes\"\n4. Alternatively, in the console: go to `ComfyUI\u002Fcustom_nodes\u002F` and run `git clone https:\u002F\u002Fgithub.com\u002FAHEKOT\u002FComfyUI_VNCCS.git`\n\n## Required Models\n\nVNCCS requires the following models in ComfyUI. Make sure they are installed in the correct directories:\n\n### Stable Diffusion Checkpoints (`models\u002Fcheckpoints\u002F`)\n- Any illustrious based model.\n- Should work on any SDXL model, but not tested.\n\n### LoRA Models (`models\u002Floras\u002F`)\n- `vn_character_sheet_v4.safetensors`\n- `DMD2\u002Fdmd2_sdxl_4step_lora_fp16.safetensors`\n- `vn_character_sheet.safetensors`\n- `IL\u002Fmimimeter.safetensors`\n- `QWEN\u002Fall_loras_from_here`\n\n### ControlNet Models (`models\u002Fcontrolnet\u002F`)\n- `SDXL\u002FAnytestV4.safetensors`\n- `SDXL\u002FIllustriousXL_openpose.safetensors`\n\n### Face Detection Models (`models\u002Fultralytics\u002Fbbox\u002F` and `models\u002Fultralytics\u002Fsegm\u002F`)\n- `bbox\u002Fface_yolov8m.pt`\n- `bbox\u002Fface_yolov9c.pt`\n- `segm\u002Fface_yolov8m-seg_60.pt`\n\n### SAM Models (`models\u002Fsams\u002F`)\n- `sam_vit_b_01ec64.pth`\n\n### Upscale Models (`models\u002Fupscale_models\u002F`)\n- `4x_APISR_GRL_GAN_generator.pth`\n- `2x_APISR_RRDB_GAN_generator.pth`\n\nAll models must be placed in the standard ComfyUI directories according to their type.\n\nYou can download them from my huggingface: https:\u002F\u002Fhuggingface.co\u002FMIUProject\u002FVNCCS\u002Ftree\u002Fmain\n\n# Usage \n![Welcome](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_8921b0eecbfe.png)\n\n### Step 1: Create a Base Character\n\nOpen the workflow `VN_Step1_QWEN_CharSheetGenerator`.\n![Welcome](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_3d731d930da1.png)\n#### VNCCS Character Creator\n- First, write your character's name and click the ‘Create New Character’ button. Without this, the magic won't happen.\n- After that, describe your character's appearance in the appropriate fields.\n- SDXL is still used to generate characters. A huge number of different Loras have been released for it, and the image quality is still much higher than that of all other models.\n- Don't worry, if you don't want to use SDXL, you can use the following workflow. We'll get to that in a moment.\n\n### New Poser Node\n![Welcome](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_68aa35e4c848.png)\n#### VNCCS Pose Generator\nTo begin with, you can use the default poses, but don't be afraid to experiment!\n- At the moment, the default poses are not fully optimised and may cause problems. We will fix this in future updates, and you can help us by sharing your cool presets on our Discord server!\n\n### Step 1.1 Clone any character\n![Welcome](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_b45ed296ea54.png)\n- Try to use full body images. It can work with any images, but would \"imagine\" missing parst, so it can impact results.\n- Suit for anime and real photos\n![Welcome](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_2bab963cfab3.png)\n### Step 2 ClothesGenerator\nOpen the workflow `VN_Step2_QWEN_ClothesGenerator`.\n![Welcome](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_46ef90e63c87.png)\n- Clothes helper lora are still in beta, so it can miss some \"body parts\" sizes. If this happens - just try again with different seeds.\n\n### Step 3: Emotion Studio\n\nOpen the workflow `VN_Step3_CharEmotionGenerator` for SDXL processing or `VN_Step3_QWEN_EmotionStudio` for new experemental QWEN emotion generator.\n\n![Welcome](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_eb7534a06a38.png)\n\n#### VNCCS Emotion Studio\nThe new Emotion Studio provides a convenient visual interface for managing character expressions.\n\n- **Visual Selection**: Browse and select emotions from a visual grid instead of text lists.\n- **Multi-Costume Support**: Select one or multiple costumes to generate emotions for all of them in one batch.\n- **Prompt Styles**: Choose between **SDXL Style** (classic) or **QWEN Style** (improved) for different generation pipelines.\n\nSelect your character, pick the clothes, click on the desired emotions, and run the workflow. The system will generate faces and sheets for every selected combination!\n\n![Welcome](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_1ede23378a79.png)\n\n\n\n\n### Steps 4 and 5 are not changed, you can follow old guide below.\n\n### Be creative! Now everything is possible!\n![Welcome](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_d0882225265b.png)\n\n# Usage (Old SDXL WorkFlows)\n\nAlways use the latest versions of workflows!\n\n### Step 1: Create a Base Character\n\nOpen the workflow `VN_Step1_CharSheetGenerator`.\n\n#### Character Sheet\n![Character Sheet Node](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_61c4a7b0eeb9.png)\nDefault character sheet lay is in `character_template` folder\n\n---\n#### Settings\n![Settings Node](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_a2761e58e987.png)\n---\n#### VNCCS Character Creator\n![Creator Node](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_bd96938e678a.png)\n---\n#### Service Nodes\n![Service Nodes](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_6df665143129.png)\n---\n#### Workflow Nodes\n![Workflow Nodes](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_aeb6b222d03c.png)\n---\n#### **First Pass**\nInitial generation. Raw and imprecise, used for visual identification of the character.\n- **Match** - how much the new character would look like character from initial charsheet. Too low and too high settings are not recommended and will result to unwanted things.\nSafe to stay in about 0.5, but you can test other values!\n---\n#### **Stabilizer**\nStabilizes the initial generation, bringing it to a common look.\n- **Blur** - blur level for complex cases to help small differences disappear.\n- **Match** - similarity level (0.85 is safe, range 0.4-1.0)\n- LoRA trained on character sheet to help with matching things.\n---\n#### **Third Pass**\nThird generation pass using the stabilized character sheet.\n- **RMBG Resolution** - it's very important for great sprites. 1408 - maximum resolution for 8GB VRAM cards! But you can set 1536 if you have better videocard than me.\nBut if you have troubles - you can lower it to 1024 and edit small mistakes manualy.\nBetter resolution - better mask!\n---\n#### **Upscaler**\nImproves character sheet quality by adding details.\n- **Denoise** - strength in settings (safe values 0.4-0.5). More denoise - more details. More details - more inconsistency with small details on character. Stay in balance!\n- **Seam Fix Mode** - to the best results, set to \"Half Tile + intersections but this will result in dramatically increased generation time.\n---\n#### **Face Detailer**\nImproves face quality.\n- **Value range:** 0.2-0.7 (default 0.65). Higher value - more changes.\n---\n![FinishFirsStep](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_4b3bfb020604.png)\n---\n### Step 2: Create Clothing Sets\n\nOpen the workflow `VN_Step2_ClothesChanger`.\n\nIt's similar to the first, but has key differences:\n\n#### **VNCCS Character Selector**\n![Character Selector Node](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_475581cba9b2.png)\n---\n**Workflow nodes work the same way as in Character Creator.\nSo, let focus of the nuances of settings:**\n\n- Lower match strength means better and more diverse clothing, but the character may look less like themselves\n- Higher strength means the node repeats the previous result more\n- Find a balance between diversity and consistency\n- For complex clothing, look for similar examples on Danbooru for accurate tags\n- Complex multi-layered costumes may give unpredictable results\n- If the character is generated without clothes, fix the prompt – the model doesn't understand what to draw.\n---\n\nCreate as many costumes as you need. All data is saved in `ComfyUI\u002Foutput\u002FVN_CharacterCreatorSuit\u002FYOUR_CHARACTER_NAME`, parameters are in the JSON config.\n\nAfter creating costumes, proceed to emotions.\n\nOpen the workflow `VN_Step3_EmotionsGenerator`.\n\n---\n### Step 3: Create Emotion Sets - Deprecated and replaced with EmotionStudio (still available in old_workflows folder)\n\nThis step is similar to the previous ones, but focuses on creating emotions for your character.\n\n#### VNCCS Emotion Generator\n![Emotion Node](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_da8930368b55.png)\n- **Denoise** greatly impacts emotion strength but too high values can distort face of character and affect consistency.\n\nAfter setting the parameters, click \"Run\".\n\nEmotions will be generated and saved in the `ComfyUI\u002Foutput\u002FVN_CharacterCreatorSuit\u002FYOUR_CHARACTER_NAME\u002FSheets\u002Fspaceman\u002FEMOTION_NAME` folder for your character.\n\n---\n### Step 4: Generate Finished Sprites\n\nAfter creating the character and their emotions, you can generate finished sprites for use in your visual novel.\n\nOpen the workflow `VN_Step4_SpritesGenerator`.\n\n---\n#### Sprite Generator\n![Sprites Node](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_7d523f4a3d73.png)\n\n- **Select character** - choose the character for which you want to generate sprites.\nClick \"Run\" and wait for the process to finish.\n\nThe finished sprites will appear in the folder `ComfyUI\u002Foutput\u002FVN_CharacterCreatorSuit\u002FYOUR_CHARACTER\u002FSprites`\n\n---\n### Step 5: Create a Dataset for LoRA Training (Optional)\n\nThis step is optional and intended for those who want to further train their LoRA model on the created characters.\n\nOpen the workflow `VN_Step5_DatasetCreator`.\n\n#### Dataset Creator\n\n- **Select characters** – choose the characters you want to include in the dataset.\n- **Game Name** – a prefix that will be added to the character's name in the dataset, e.g. VN_your_character_name.\nClick \"Run\" and wait for the process to finish.\nThe dataset will appear in the folder `ComfyUI\u002Foutput\u002FVN_CharacterCreatorSuit\u002FYOUR_CHARACTER\u002FLora`\n\n\n\n## Conclusion\n\nCongratulations! You have successfully created your own character using VNCCS. Now you can use it in your projects or continue experimenting with the settings to create new unique characters.\n\nDon't forget to save all your work and regularly back up your data. Good luck creating your visual novels!\n\n---\n\nFuture plans: \n- implement more \"modern\" models like qwen, flux and nanobanana\n- consistent background generation\n- animated sprites\n- animation of transitions between poses\n- automatic translation of the game on RenPy into other languages.\n- automatic voice generation for the game on RenPy\n---\n\n","![Header](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_86e723322fff.png)\n---\n# VNCCS - 视觉小说角色创作套件\n\nVNCCS 不仅仅是一个用于创建一致性角色的工作流，它更是一套完整的精灵图制作流程，适用于任何用途。借助 VNCCS，你可以创建外观在所有图像中保持一致的独特角色，对角色进行组织管理、情绪与服装的设定以及姿势调整，并完成角色相关的全流程工作。\n\n## 描述\n\n许多人希望利用神经网络来生成美术资源，但要打造一个在每张图片中都保持一致的独特角色，其难度远超单纯生成一张图片。而使用 VNCCS，这一切只需简单地点击按钮（仅需四次）即可轻松实现。\n\n## 角色创建步骤\n\n角色创建过程分为五个阶段：\n\n1. **创建基础角色**\n2. **克隆现有角色**\n3. **创建服装套装**\n4. **创建情绪套装**\n5. **生成最终精灵图**\n6. **为 LoRA 训练创建数据集**（可选）\n---\n## 如果你觉得我的项目有用，请考虑支持一下！我完全独自开发这个项目，你的支持将帮助我继续维护并添加更多酷炫功能！\n\n[![给我买杯咖啡](https:\u002F\u002Fimg.buymeacoffee.com\u002Fbutton-api\u002F?text=Buy%20me%20a%20rtx%203090&emoji=☕&slug=MIUProject&button_colour=FFDD00&font_colour=000000&font_family=Comic&outline_colour=000000&coffee_colour=ffffff)](https:\u002F\u002Fwww.buymeacoffee.com\u002FMIUProject)\n\n## 安装\n\n你可以在自定义节点管理器中找到 `VNCCS - 视觉小说角色创作套件`，或者手动安装：\n\n1. 将下载的文件夹放入 `ComfyUI\u002Fcustom_nodes\u002F`\n2. 启动 ComfyUI 并打开 Comfy 管理器\n3. 点击“安装缺失的自定义节点”\n4. 或者，在终端中进入 `ComfyUI\u002Fcustom_nodes\u002F` 并运行 `git clone https:\u002F\u002Fgithub.com\u002FAHEKOT\u002FComfyUI_VNCCS.git`\n\n## 必需模型\n\nVNCCS 需要在 ComfyUI 中使用以下模型，请确保它们已正确安装到指定目录：\n\n### Stable Diffusion 检查点 (`models\u002Fcheckpoints\u002F`)\n- 任意基于 illustrious 的模型。\n- 应该能在任何 SDXL 模型上运行，但尚未经过测试。\n\n### LoRA 模型 (`models\u002Floras\u002F`)\n- `vn_character_sheet_v4.safetensors`\n- `DMD2\u002Fdmd2_sdxl_4step_lora_fp16.safetensors`\n- `vn_character_sheet.safetensors`\n- `IL\u002Fmimimeter.safetensors`\n- `QWEN\u002Fall_loras_from_here`\n\n### ControlNet 模型 (`models\u002Fcontrolnet\u002F`)\n- `SDXL\u002FAnytestV4.safetensors`\n- `SDXL\u002FIllustriousXL_openpose.safetensors`\n\n### 人脸检测模型 (`models\u002Fultralytics\u002Fbbox\u002F` 和 `models\u002Fultralytics\u002Fsegm\u002F`)\n- `bbox\u002Fface_yolov8m.pt`\n- `bbox\u002Fface_yolov9c.pt`\n- `segm\u002Fface_yolov8m-seg_60.pt`\n\n### SAM 模型 (`models\u002Fsams\u002F`)\n- `sam_vit_b_01ec64.pth`\n\n### 超分辨率模型 (`models\u002Fupscale_models\u002F`)\n- `4x_APISR_GRL_GAN_generator.pth`\n- `2x_APISR_RRDB_GAN_generator.pth`\n\n所有模型必须按照其类型放置在 ComfyUI 的标准目录中。\n\n你可以从我的 Hugging Face 下载这些模型：https:\u002F\u002Fhuggingface.co\u002FMIUProject\u002FVNCCS\u002Ftree\u002Fmain\n\n# 使用方法 \n![欢迎](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_8921b0eecbfe.png)\n\n### 第一步：创建基础角色\n\n打开工作流 `VN_Step1_QWEN_CharSheetGenerator`。\n![欢迎](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_3d731d930da1.png)\n#### VNCCS 角色创建器\n- 首先输入你的角色名称并点击“创建新角色”按钮。如果没有这一步，魔法就不会发生。\n- 接下来，在相应字段中描述你角色的外貌特征。\n- 目前仍使用 SDXL 来生成角色。针对 SDXL 已经发布了大量不同的 LoRa 模型，且其图像质量仍然远高于其他模型。\n- 如果你不想使用 SDXL，也可以使用下面的工作流，我们稍后会介绍。\n\n### 新的 Poser 节点\n![欢迎](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_68aa35e4c848.png)\n#### VNCCS 姿势生成器\n一开始可以使用默认姿势，但别害怕尝试新的可能性！\n- 目前默认姿势尚未完全优化，可能会出现一些问题。我们将在未来的更新中修复这些问题，你也可以通过在我们的 Discord 服务器上分享你喜欢的预设来帮助我们！\n\n### 第1.1步：克隆任意角色\n![欢迎](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_b45ed296ea54.png)\n- 尽量使用全身图像。虽然也能处理部分身体的图片，但系统可能会“想象”缺失的部分，从而影响结果。\n- 适用于动漫风格和真实照片。\n![欢迎](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_2bab963cfab3.png)\n### 第二步：服装生成器\n\n打开工作流 `VN_Step2_QWEN_ClothesGenerator`。\n![欢迎](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_46ef90e63c87.png)\n- 服装辅助 LoRa 仍处于测试阶段，因此可能会遗漏某些部位的尺寸信息。如果发生这种情况，只需尝试使用不同的种子重新生成即可。\n\n### 第三步：情绪工作室\n\n对于 SDXL 处理，打开工作流 `VN_Step3_CharEmotionGenerator`；而对于全新的实验性 QWEN 情绪生成器，则打开 `VN_Step3_QWEN_EmotionStudio`。\n\n![欢迎](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_eb7534a06a38.png)\n\n#### VNCCS 情绪工作室\n全新的情绪工作室提供了一个便捷的可视化界面，用于管理角色的表情。\n\n- **可视化选择**：无需再从文本列表中挑选情绪，而是可以直接在视觉网格中浏览并选择。\n- **多服装支持**：可以选择一件或多件服装，一次性为所有服装生成对应的情绪。\n- **提示风格**：可根据不同的生成流程选择 **SDXL 风格**（经典）或 **QWEN 风格**（改进版）。\n\n选择你的角色，挑选服装，点击所需的情绪，然后运行工作流。系统将会为每一个选定的组合生成面部和表情图！\n\n![欢迎](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_1ede23378a79.png)\n\n\n\n\n### 第四步和第五步没有变化，你可以参考下方的旧版指南。\n\n### 发挥你的创造力吧！现在一切皆有可能！\n![欢迎](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_d0882225265b.png)\n\n# 使用方法（旧版 SDXL 工作流）\n\n请务必使用最新版本的工作流！\n\n### 第一步：创建基础角色\n\n打开工作流 `VN_Step1_CharSheetGenerator`。\n\n#### 角色表\n![角色表节点](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_61c4a7b0eeb9.png)\n默认的角色表布局位于 `character_template` 文件夹中。\n\n---\n#### 设置\n![设置节点](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_a2761e58e987.png)\n---\n#### VNCCS 角色创建器\n![创建器节点](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_bd96938e678a.png)\n---\n#### 服务节点\n![服务节点](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_6df665143129.png)\n---\n#### 工作流节点\n![工作流节点](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_aeb6b222d03c.png)\n---\n#### **第一遍**\n初始生成。原始且不够精确，用于视觉上识别角色。\n- **匹配度** - 新角色与初始角色表中的角色相似程度。过低或过高的设置都不推荐，会导致不理想的结果。\n建议保持在约0.5左右，但你也可以尝试其他值！\n---\n#### **稳定器**\n稳定初始生成结果，使其达到统一的外观。\n- **模糊度** - 在复杂情况下使用的模糊级别，帮助消除细微差异。\n- **匹配度** - 相似度（0.85较为安全，范围为0.4–1.0）。\n- 使用基于角色表训练的LoRA模型来帮助匹配细节。\n---\n#### **第三遍**\n使用已稳定的角色表进行第三次生成。\n- **RMBG 分辨率** - 对高质量精灵图非常重要。1408是配备8GB显存显卡的最大分辨率！不过如果你的显卡比我好，可以设置为1536。\n如果遇到问题，也可以降低到1024，并手动修正小错误。\n分辨率越高，遮罩效果越好！\n---\n#### **超分辨率增强器**\n通过添加细节来提升角色表质量。\n- **去噪强度** - 设置中的强度参数（安全值为0.4–0.5）。去噪越强，细节越多；细节越多，与角色细部的一致性可能越差。需保持平衡！\n- **接缝修复模式** - 为了获得最佳效果，应设置为“半瓦片+交界处”，但这会显著增加生成时间。\n---\n#### **面部细节增强器**\n提升面部质量。\n- **取值范围：** 0.2–0.7（默认0.65）。数值越高，修改幅度越大。\n---\n![完成第一步](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_4b3bfb020604.png)\n---\n### 第二步：创建服装套装\n\n打开工作流 `VN_Step2_ClothesChanger`。\n\n它与第一步类似，但存在关键差异：\n\n#### **VNCCS 角色选择器**\n![角色选择器节点](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_475581cba9b2.png)\n---\n**工作流节点的工作方式与角色创建器相同。因此，我们重点关注设置上的细微差别：**\n\n- 较低的匹配度意味着更优质、更多样化的服装，但角色可能会显得不太像自己。\n- 较高的匹配度则会让节点更倾向于重复之前的结果。\n- 需在多样性和一致性之间找到平衡。\n- 对于复杂的服装，可在Danbooru上寻找相似示例以获取准确的标签。\n- 复杂的多层服装可能会产生不可预测的结果。\n- 如果角色生成时没有穿衣服，请调整提示词——模型无法理解该画什么。\n\n---\n\n根据需要创建尽可能多的服装套装。所有数据将保存在 `ComfyUI\u002Foutput\u002FVN_CharacterCreatorSuit\u002FYOUR_CHARACTER_NAME` 中，相关参数则存储在JSON配置文件里。\n\n完成服装创建后，即可进入情绪制作环节。\n\n打开工作流 `VN_Step3_EmotionsGenerator`。\n\n---\n### 第三步：创建情绪套装 - 已弃用，现由 EmotionStudio 取代（仍可在 old_workflows 文件夹中找到）\n此步骤与前几步类似，但专注于为你的角色创建不同情绪表现。\n\n#### VNCCS 情绪生成器\n![情绪节点](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_da8930368b55.png)\n- **去噪强度** 会显著影响情绪的表现力度，但过高值可能导致角色面部变形并影响一致性。\n\n设置好参数后，点击“运行”。\n\n生成的情绪图像将保存在 `ComfyUI\u002Foutput\u002FVN_CharacterCreatorSuit\u002FYOUR_CHARACTER_NAME\u002FSheets\u002Fspaceman\u002FEMOTION_NAME` 文件夹中，对应你的角色。\n\n---\n### 第四步：生成最终精灵图\n\n在完成角色及其情绪的创建后，你可以生成用于视觉小说中的最终精灵图。\n\n打开工作流 `VN_Step4_SpritesGenerator`。\n\n---\n#### 精灵图生成器\n![精灵图节点](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_readme_7d523f4a3d73.png)\n\n- **选择角色** - 选择要为其生成精灵图的角色。\n点击“运行”并等待处理完成。\n\n最终的精灵图将出现在 `ComfyUI\u002Foutput\u002FVN_CharacterCreatorSuit\u002FYOUR_CHARACTER\u002FSprites` 文件夹中。\n\n---\n### 第五步：创建 LoRA 训练数据集（可选）\n\n此步骤为可选操作，适用于希望对已创建的角色进一步训练LoRA模型的用户。\n\n打开工作流 `VN_Step5_DatasetCreator`。\n\n#### 数据集创建器\n\n- **选择角色** – 选择要纳入数据集的角色。\n- **游戏名称** – 将作为前缀添加到数据集中角色名称中，例如 VN_your_character_name。\n点击“运行”并等待处理完成。\n数据集将出现在 `ComfyUI\u002Foutput\u002FVN_CharacterCreatorSuit\u002FYOUR_CHARACTER\u002FLora` 文件夹中。\n\n\n\n## 总结\n\n恭喜你！你已成功使用VNCCS创建了自己的角色。现在你可以将其应用于自己的项目中，或者继续调整设置，创造出更多独特的新角色。\n\n别忘了保存所有作品，并定期备份数据。祝你在创作视觉小说的过程中一切顺利！\n\n---\n\n未来计划：\n- 引入更多“现代”模型，如Qwen、Flux和Nanobanana；\n- 实现一致性的背景生成；\n- 制作动画精灵图；\n- 实现姿势间过渡动画；\n- 自动将RenPy平台上的游戏翻译成其他语言；\n- 自动为RenPy游戏生成语音。\n---","# ComfyUI_VNCCS 快速上手指南\n\nVNCCS (Visual Novel Character Creation Suite) 是一个专为视觉小说设计的完整角色创作管线。它能帮助用户轻松创建外观一致的角色立绘，管理表情、服装和姿势，并生成可用于游戏开发的最终素材。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Windows \u002F Linux \u002F macOS\n- **ComfyUI**: 已安装最新版本的 ComfyUI\n- **显卡显存**: 建议 8GB VRAM 或以上（生成高分辨率立绘时，1408 分辨率需至少 8GB 显存）\n- **Python**: 与 ComfyUI 环境一致的 Python 版本\n\n### 前置依赖模型\n在使用前，请确保以下模型已下载并放置在 ComfyUI 对应的目录中。推荐从作者提供的 HuggingFace 仓库下载：\n[https:\u002F\u002Fhuggingface.co\u002FMIUProject\u002FVNCCS\u002Ftree\u002Fmain](https:\u002F\u002Fhuggingface.co\u002FMIUProject\u002FVNCCS\u002Ftree\u002Fmain)\n\n| 模型类型 | 存放目录 | 必需文件 |\n| :--- | :--- | :--- |\n| **Checkpoint** | `models\u002Fcheckpoints\u002F` | 任意基于 `illustrious` 的模型 (或 SDXL 模型) |\n| **LoRA** | `models\u002Floras\u002F` | `vn_character_sheet_v4.safetensors`, `dmd2_sdxl_4step_lora_fp16.safetensors`, `vn_character_sheet.safetensors`, `IL\u002Fmimimeter.safetensors`, `QWEN\u002F` 文件夹内所有 LoRA |\n| **ControlNet** | `models\u002Fcontrolnet\u002F` | `SDXL\u002FAnytestV4.safetensors`, `SDXL\u002FIllustriousXL_openpose.safetensors` |\n| **Face Detection** | `models\u002Fultralytics\u002Fbbox\u002F` \u003Cbr> `models\u002Fultralytics\u002Fsegm\u002F` | `face_yolov8m.pt`, `face_yolov9c.pt`, `face_yolov8m-seg_60.pt` |\n| **SAM** | `models\u002Fsams\u002F` | `sam_vit_b_01ec64.pth` |\n| **Upscale** | `models\u002Fupscale_models\u002F` | `4x_APISR_GRL_GAN_generator.pth`, `2x_APISR_RRDB_GAN_generator.pth` |\n\n## 安装步骤\n\n你可以通过 ComfyUI Manager 自动安装，也可以手动克隆仓库。\n\n### 方法一：使用 ComfyUI Manager (推荐)\n1. 启动 ComfyUI，打开 **ComfyUI Manager**。\n2. 点击 **\"Install missing custom nodes\"** (如果已检测到) 或在搜索栏输入 `VNCCS`。\n3. 找到 `VNCCS - Visual Novel Character Creation Suite` 并点击安装。\n4. 重启 ComfyUI。\n\n### 方法二：手动安装\n在终端中进入 ComfyUI 的自定义节点目录并执行克隆命令：\n\n```bash\ncd ComfyUI\u002Fcustom_nodes\u002F\ngit clone https:\u002F\u002Fgithub.com\u002FAHEKOT\u002FComfyUI_VNCCS.git\n```\n\n安装完成后重启 ComfyUI。\n\n## 基本使用\n\nVNCCS 的核心工作流分为五个阶段。以下是基于最新 **QWEN 实验性工作流** 的最简操作流程：\n\n### 第一步：创建基础角色 (Create Base Character)\n1. 打开工作流文件：`VN_Step1_QWEN_CharSheetGenerator`。\n2. 在 **VNCCS Character Creator** 节点中输入角色名称，点击 **\"Create New Character\"** 按钮（必须执行此操作以初始化数据）。\n3. 在描述字段中输入角色的外貌特征提示词。\n4. (可选) 使用 **VNCCS Pose Generator** 调整默认姿势或加载自定义姿势预设。\n5. 点击运行，生成角色设定图。\n\n> **提示**: 若已有参考图，可使用 `VN_Step1_QWEN_CharSheetGenerator` 中的克隆功能（Clone），上传全身照即可快速提取角色特征。\n\n### 第二步：生成服装套装 (Create Clothing Sets)\n1. 打开工作流文件：`VN_Step2_QWEN_ClothesGenerator`。\n2. 选择刚才创建的角色。\n3. 输入新服装的描述提示词。\n4. 点击运行。生成的多套服装将自动保存至 `ComfyUI\u002Foutput\u002FVN_CharacterCreatorSuit\u002F角色名\u002F` 目录下。\n   - *注意：若生成缺失身体部位，请尝试更换随机种子 (Seed) 重新生成。*\n\n### 第三步：制作表情集 (Emotion Studio)\n1. 打开工作流文件：`VN_Step3_QWEN_EmotionStudio` (推荐使用新版 Emotion Studio)。\n2. **可视化选择**: 在界面网格中浏览并勾选需要的表情。\n3. **多选支持**: 可一次性选择一个或多个服装套装，系统将批量生成所有组合的表情。\n4. 点击运行，系统会自动为选定的“角色 + 服装 + 表情”组合生成面部特写和设定图。\n\n### 第四步 & 第五步：生成最终立绘与数据集\n- **生成最终立绘**: 打开 `VN_Step4_SpritesGenerator`，选择角色，运行后即可在 `output` 文件夹获得去背后的完整立绘，可直接用于视觉小说引擎。\n- **训练数据集 (可选)**: 打开 `VN_Step5_DatasetCreator`，选择角色并设置游戏名前缀，运行后可生成用于进一步训练 LoRA 的标准数据集。\n\n---\n**小贴士**:\n- 所有生成的数据均保存在 `ComfyUI\u002Foutput\u002FVN_CharacterCreatorSuit\u002F` 目录中，配置文件为 JSON 格式。\n- 建议定期备份该目录以防数据丢失。\n- 如遇显存不足，可在设置中将 `RMBG Resolution` 降至 1024。","独立游戏开发者小林正在为他的视觉小说项目《星夜旅人》制作主角“艾拉”的全套立绘，需要涵盖多种表情、服装和姿势，且必须保证角色形象高度一致。\n\n### 没有 ComfyUI_VNCCS 时\n- **角色一致性极难维持**：每次生成新动作或表情时，AI 都会微调五官或发型，导致艾拉在不同画面中像“不同的人”，后期需花费大量时间手动修图对齐。\n- **工作流碎片化严重**：生成底图、换装、调整表情、控制姿态需要分别运行不同的插件或脚本，文件管理混乱，极易出错。\n- **迭代成本高昂**：若策划要求修改角色发色或服装细节，几乎需要重新生成所有素材，无法快速复用已有资产。\n- **缺乏系统化管理**：生成的数百张图片散落在文件夹中，难以按情绪或服装分类，团队协作时查找效率极低。\n\n### 使用 ComfyUI_VNCCS 后\n- **一键锁定角色特征**：通过\"Create Base Character\"阶段定义艾拉的核心外貌，后续所有生成步骤自动继承该特征，确保五官、发型在所有立绘中完全一致。\n- **全流程管道化作业**：在一个界面内依次完成克隆角色、创建服装集、设定情绪集及生成最终立绘，无需切换工具，流程清晰可控。\n- **高效局部迭代**：仅需调整“服装集”或“情绪集”参数，即可批量更新特定属性的立绘，无需重做整个角色，响应策划需求的速度提升数倍。\n- **自动化资产整理**：生成的素材自动按角色、情绪和服装归类存储，并可直接导出用于训练 LoRA 的数据集，便于后续微调或团队共享。\n\nComfyUI_VNCCS 将原本繁琐割裂的角色创作过程转化为标准化的工业流水线，让开发者能专注于叙事本身而非反复修正画面瑕疵。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAHEKOT_ComfyUI_VNCCS_86e72332.png","AHEKOT","MiuProject","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FAHEKOT_137e9728.png",null,"Uzbekistan","https:\u002F\u002Fgithub.com\u002FAHEKOT",[21,25],{"name":22,"color":23,"percentage":24},"Python","#3572A5",59.6,{"name":26,"color":27,"percentage":28},"JavaScript","#f1e05a",40.4,859,56,"2026-04-08T20:41:58","MIT",4,"未说明","需要 NVIDIA GPU，显存至少 8GB（推荐更高以支持 1536 分辨率及复杂工作流），需支持 SDXL 模型运行",{"notes":37,"python":34,"dependencies":38},"该工具是 ComfyUI 的自定义节点插件，需手动安装或透过 ComfyUI Manager 安装。必须下载大量特定模型文件（包括 SDXL 检查点、多个 LoRA、ControlNet、人脸检测、SAM 和放大模型）并放置于 ComfyUI 对应的标准目录中。默认工作流基于 SDXL，虽然提及可能兼容其他模型但未测试。生成高分辨率素材时，8GB 显存为最低要求（限制分辨率至 1408），更高显存可提升效果。",[39,40,41,42,43,44,45,46],"ComfyUI","ComfyUI-Manager","Stable Diffusion XL (SDXL) Checkpoints","LoRA Models (vn_character_sheet, DMD2, etc.)","ControlNet Models (AnytestV4, IllustriousXL_openpose)","Ultralytics YOLO (face_yolov8m, face_yolov9c)","SAM (sam_vit_b)","APISR Upscale Models",[48,49],"图像","插件",2,"ready","2026-03-27T02:49:30.150509","2026-04-09T12:37:23.668251",[55,60,65,70,75,80],{"id":56,"question_zh":57,"answer_zh":58,"source_url":59},26271,"遇到 ControlNet 报错 'Value not in list: control_net_name' 或路径分隔符错误怎么办？","这通常是因为工作流文件中硬编码了 Windows 风格的路径分隔符（反斜杠 \\），而在 Linux 系统或某些环境下会导致识别失败。解决方法是双击打开工作流中的相关节点（如 'First Pass' 和 'Upscaler' 节点内的 ControlNet Loader，以及 'Stabilizer' 节点内的 'Matcher Pass' 子节点），将路径字符串中的反斜杠 '\\' 修改为正斜杠 '\u002F'。此外，确保已更新 'ComfyUI-Impact-Pack' 自定义节点到最新版本，因为该问题也可能与旧版本插件有关。","https:\u002F\u002Fgithub.com\u002FAHEKOT\u002FComfyUI_VNCCS\u002Fissues\u002F22",{"id":61,"question_zh":62,"answer_zh":63,"source_url":64},26272,"运行工作流时出现 'Failed to validate prompt' 且提示 'blur_radius' 值小于最小值 1 的错误如何解决？","该错误表明工作流中 Blur 节点的 'blur_radius' 参数被设置为了 0，而该参数的最小允许值为 1。维护者已更新了所有工作流文件以修复此问题。如果遇到此错误，请重新下载最新的 workflow JSON 文件。如果是手动调整过参数，请检查所有 Blur 节点，确保 'blur_radius' 的值至少为 1。","https:\u002F\u002Fgithub.com\u002FAHEKOT\u002FComfyUI_VNCCS\u002Fissues\u002F5",{"id":66,"question_zh":67,"answer_zh":68,"source_url":69},26273,"生成图像时出现黑色方块（Black Box）或 NaN 值错误是什么原因？","黑色方块通常代表 NaN（非数字）值，这往往是由模型损坏、库版本不兼容或特定的注意力机制（attention mechanism）配置引起的。常见原因包括使用了错误版本的 'sageattention' 或 'xformers'。建议尝试切换不同的 xformers 版本，或者检查并重新安装与当前 PyTorch 版本匹配的 sageattention。如果问题出现在 FaceDetailer 阶段，也请检查相关的面部修复模型是否正常。","https:\u002F\u002Fgithub.com\u002FAHEKOT\u002FComfyUI_VNCCS\u002Fissues\u002F53",{"id":71,"question_zh":72,"answer_zh":73,"source_url":74},26274,"加载工作流时显示 'Missing Unknown Nodes'（缺失未知节点）怎么办？","这通常是因为缺少必要的自定义节点插件或插件版本过旧。首先确保所有相关的 ComfyUI 自定义节点（如 ImageSaverTools, RvTools, Selector pack 等）都已安装并更新至最新版本。如果更新后仍然显示未知节点，可能是工作流引用的节点名称与新版本插件不一致，此时可能需要根据现有插件重新连接对应的节点，或者等待作者在未来更新中提供专用的选择器节点以替代旧依赖。","https:\u002F\u002Fgithub.com\u002FAHEKOT\u002FComfyUI_VNCCS\u002Fissues\u002F6",{"id":76,"question_zh":77,"answer_zh":78,"source_url":79},26275,"默认的背景移除工具在复杂图像上留下绿色斑点或孔洞，有更好的替代方案吗？","默认的 BGRemover 在处理非简单 2D 艺术图（如复杂头发细节）时可能会留下绿色斑点或产生孔洞。用户测试发现 'InSpyReNet' 在某些情况下表现不佳，而 'RMBG 2' 目前在处理头发和身体部位细节上表现更好，没有明显的孔洞问题。虽然作者暂时未更改默认节点，但用户可以在自己的工作流中自由将背景移除节点替换为 'RMBG 2' 以获得更佳效果。","https:\u002F\u002Fgithub.com\u002FAHEKOT\u002FComfyUI_VNCCS\u002Fissues\u002F13",{"id":81,"question_zh":82,"answer_zh":83,"source_url":69},26276,"全新安装后运行角色生成工作流遇到 Ultimate SD Upscale 或 FaceDetailer 报错如何处理？","如果在干净安装后遇到此类运行时错误（如通道数不匹配或 Tensor 属性错误），很可能是下载的工作流文件本身已损坏或与当前环境不兼容。最有效的解决方法是加入项目的 Discord 社区，获取经过验证的可正常工作流文件进行替换。确保所有模型文件已正确放置在指定目录，并且自定义节点均已完整安装。",[85,90],{"id":86,"version":87,"summary_zh":88,"released_at":89},171517,"2.1.0","\u003Cimg width=\"1920\" height=\"1080\" alt=\"EmotionStudio_banner\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F6d9cf089-79c4-4aa0-a0fe-49794e43db64\" \u002F>\n\n#### VNCCS 情感工作室\n全新的情感工作室提供了一个便捷的可视化界面，用于管理角色表情。\n\n- **可视化选择**：通过视觉化的网格而非文本列表来浏览和选择表情。\n- **多服装支持**：可以选择一件或多件服装，一次性为所有服装生成对应的表情。\n- **提示风格**：在不同的生成流程中，可选择 **SDXL 风格**（经典）或 **QWEN 风格**（改进版）。\n\u003Cimg width=\"1920\" height=\"1080\" alt=\"Page2\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F41a72b94-d97f-4a13-8b45-858d49eee204\" \u002F>\n\n选择你的角色，挑选服装，点击所需的表情，然后运行工作流。系统将为每一种选定的组合生成对应的面部图像和表情表！","2026-01-10T09:46:08",{"id":91,"version":92,"summary_zh":93,"released_at":94},171518,"1.1.0","![标题](images\u002F1.1.0-Changelog.png)\n\n大家好呀！我是VNCCS的吉祥物**V**！🎉 今天可不请那位懒开发者出面，由我来给大家介绍一下这次更新哦！\n\n我和我的开发小伙伴可是认真听了大家很久的吐槽呢，于是决定一次性把所有问题都搞定！不过问题主要出在那些外部节点上。哎呀，遇到难题就得来点“猛药”才行！💪\n\n## 🚀 主要改动\n- **减少依赖**：我们移除了大部分外部依赖，只保留了最核心的几个！现在项目内置了大量实用节点，虽然功能简单，但都非常关键！\n- **分叉RMBG节点**：我们还对核心的RMBG节点进行了分叉（因为原作者突然改了逻辑，结果把我们的东西全搞崩了！！！😠）。所以[AILab](https:\u002F\u002Fgithub.com\u002F1038lab\u002FComfyUI-RMBG\u002Fblob\u002Fmain\u002FAILab_BiRefNet.py \"AILab_BiRefNet.py\")的小伙伴们，别生气啦，拜托了～🙏\n- **优化精灵图生成器**：精灵图生成的工作流程被彻底重做了！现在生成的精灵顺序每次都一样啦！（终于解决了这个让我抓狂的问题！🎯）\n- **清理垃圾**：把那些一直没用上的无用文件统统删掉了，让项目变得更轻量、更清爽！🧹\n- **工作流升级**：所有工作流也都重新调整了一遍，现在更加稳定，也稍微简单了一些！（呼，希望这次没弄出什么新问题吧！🤞）\n- **新增角色表模板**：我们添加了一个专为年轻或身材较矮角色设计的示例角色表！特别感谢用户gmork，他帮了大忙呢！你可以在项目文件夹里找到它（`character_template\u002FCharacterSheetTemplateShort.jpg`）。🌟\n\n## 🔮 接下来有什么计划？\n目前我的主人正拼命地研究如何驾驭**qwen图像编辑2509**模型，据说它能把服装生成提升到一个前所未有的全新高度呢！🚀 不过这活儿可太难了，尤其是在RTX 4060上运行的时候，简直让人头秃啊……😓\n\n如果你喜欢我们的项目，不妨通过小额捐助来支持我们购买新设备吧，这对我们帮助可大了！❤️\n\n[![给我买杯咖啡](https:\u002F\u002Fimg.buymeacoffee.com\u002Fbutton-api\u002F?text=Buy%20me%20a%20rtx%203090&emoji=☕&slug=MIUProject&button_colour=FFDD00&font_colour=000000&font_family=Comic&outline_colour=000000&coffee_colour=ffffff)](https:\u002F\u002Fwww.buymeacoffee.com\u002FMIUProject)\n\n**另外，欢迎加入我们的Discord服务器** [https:\u002F\u002Fdiscord.gg\u002F9Dacp4wvQw](https:\u002F\u002Fdiscord.gg\u002F9Dacp4wvQw) **，在这里你可以随时了解项目的最新动态、和大家一起聊天、分享自己的作品、获得技术帮助，还能单纯地聊聊天、放松一下呢！** 🌟\n\n更多精彩更新，敬请期待哦！💖","2025-10-11T20:45:59",[96,108,116,123,131,140],{"id":97,"name":98,"github_repo":99,"description_zh":100,"stars":101,"difficulty_score":102,"last_commit_at":103,"category_tags":104,"status":51},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[105,106,48,107],"Agent","开发框架","数据工具",{"id":109,"name":110,"github_repo":111,"description_zh":112,"stars":113,"difficulty_score":102,"last_commit_at":114,"category_tags":115,"status":51},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[106,48,105],{"id":117,"name":39,"github_repo":118,"description_zh":119,"stars":120,"difficulty_score":50,"last_commit_at":121,"category_tags":122,"status":51},2271,"Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[106,48,105],{"id":124,"name":125,"github_repo":126,"description_zh":127,"stars":128,"difficulty_score":50,"last_commit_at":129,"category_tags":130,"status":51},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[49,106],{"id":132,"name":133,"github_repo":134,"description_zh":135,"stars":136,"difficulty_score":102,"last_commit_at":137,"category_tags":138,"status":51},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[139,48,105,106],"语言模型",{"id":141,"name":142,"github_repo":143,"description_zh":144,"stars":145,"difficulty_score":102,"last_commit_at":146,"category_tags":147,"status":51},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[106,48,105,148],"视频"]