[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-kijai--ComfyUI-KwaiKolorsWrapper":3,"tool-kijai--ComfyUI-KwaiKolorsWrapper":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,2,"2026-04-06T11:32:50",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[43,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":76,"owner_location":77,"owner_email":76,"owner_twitter":78,"owner_website":76,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":10,"env_os":89,"env_gpu":90,"env_ram":91,"env_deps":92,"category_tags":98,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":99,"updated_at":100,"faqs":101,"releases":131},4649,"kijai\u002FComfyUI-KwaiKolorsWrapper","ComfyUI-KwaiKolorsWrapper","Diffusers wrapper to run Kwai-Kolors model","ComfyUI-KwaiKolorsWrapper 是一个专为 ComfyUI 设计的扩展节点，旨在让用户能够轻松调用快手团队推出的 Kwai-Kolors 文生图模型。它通过 Diffusers 库搭建桥梁，解决了高质量中文生成模型在本地工作流中集成困难的问题，让创作者无需编写复杂代码即可在熟悉的节点式界面中体验 Kolors 强大的图像生成能力。\n\n这款工具特别适合设计师、数字艺术家以及希望探索最新开源模型的 AI 爱好者使用。其核心亮点在于灵活的显存优化方案：除了支持标准的半精度（fp16）模式外，还特别提供了量化版本（int8 和 int4）的支持。这意味着即使显存资源有限（低至 4GB），用户也能顺利运行该模型，极大地降低了高性能中文绘图模型的使用门槛。此外，它支持直接从 Hugging Face 自动下载模型，并兼容单文件 safetensors 格式，简化了繁琐的环境配置与模型管理流程。无论是进行创意构思还是专业设计，ComfyUI-KwaiKolorsWrapper 都能帮助用户高效地将文字转化为精美的视觉作品。","# ComfyUI wrapper for Kwai-Kolors\n\nRudimentary wrapper that runs Kwai-Kolors text2image pipeline using diffusers.\n\n## Update - safetensors\n\nAdded alternative way to load the ChatGLM3 model from single safetensors file (the configs are included in this repo already).\nIncluding already quantized models:\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-KwaiKolorsWrapper_readme_5ca5ac7c9557.png)\n\nhttps:\u002F\u002Fhuggingface.co\u002FKijai\u002FChatGLM3-safetensors\u002Fupload\u002Fmain\n\ngoes into:\n\n`ComfyUI\\models\\LLM\\checkpoints`\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-KwaiKolorsWrapper_readme_477b69736fbb.png)\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-KwaiKolorsWrapper_readme_41d0afacc5a4.png)\n\n\n## Installation:\n\nClone this repository to 'ComfyUI\u002Fcustom_nodes` folder.\n\nInstall the dependencies in requirements.txt, transformers version 4.38.0 minimum is required:\n\n`pip install -r requirements.txt`\n\nor if you use portable (run this in ComfyUI_windows_portable -folder):\n\n`python_embeded\\python.exe -m pip install -r ComfyUI\\custom_nodes\\ComfyUI-KwaiKolorsWrapper\\requirements.txt`\n\n\nModels (fp16, 16.5GB) are automatically downloaded from https:\u002F\u002Fhuggingface.co\u002FKwai-Kolors\u002FKolors\u002Ftree\u002Fmain\n\nto `ComfyUI\u002Fmodels\u002Fdiffusers\u002FKolors`\n\nModel folder structure needs to be the following:\n\n```\nPS C:\\ComfyUI_windows_portable\\ComfyUI\\models\\diffusers\\Kolors> tree \u002FF\n│   model_index.json\n│\n├───scheduler\n│       scheduler_config.json\n│\n├───text_encoder\n│       config.json\n│       pytorch_model-00001-of-00007.bin\n│       pytorch_model-00002-of-00007.bin\n│       pytorch_model-00003-of-00007.bin\n│       pytorch_model-00004-of-00007.bin\n│       pytorch_model-00005-of-00007.bin\n│       pytorch_model-00006-of-00007.bin\n│       pytorch_model-00007-of-00007.bin\n│       pytorch_model.bin.index.json\n│       tokenizer.model\n│       tokenizer_config.json\n│       vocab.txt\n│\n└───unet\n        config.json\n        diffusion_pytorch_model.fp16.safetensors\n```\nTo run this, the text enconder is what takes most of the VRAM, but can be quantized to fit approximately these amounts:\n\n| Model | Size | \n|--------|------| \n| fp16 | ~13 GB|\n| quant8 | ~8 GB | \n| quant4 | ~4 GB |\n\nAfter that, the sampling single image at 1024 can be expected to take similar amounts than SDXL. For VAE the base SDXL VAE is used.\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-KwaiKolorsWrapper_readme_4a719d9699ae.png)\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-KwaiKolorsWrapper_readme_f038214b07be.png)\n\n","# Kwai-Kolors 的 ComfyUI 封装\n\n一个基础的封装，使用 Diffusers 运行 Kwai-Kolors 的文本到图像生成流程。\n\n## 更新 - safetensors\n\n新增了一种从单个 safetensors 文件加载 ChatGLM3 模型的方式（配置文件已包含在本仓库中）。其中也包含了已经量化的模型：\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-KwaiKolorsWrapper_readme_5ca5ac7c9557.png)\n\nhttps:\u002F\u002Fhuggingface.co\u002FKijai\u002FChatGLM3-safetensors\u002Fupload\u002Fmain\n\n应放置于：\n\n`ComfyUI\\models\\LLM\\checkpoints`\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-KwaiKolorsWrapper_readme_477b69736fbb.png)\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-KwaiKolorsWrapper_readme_41d0afacc5a4.png)\n\n\n## 安装：\n\n将此仓库克隆到 `ComfyUI\u002Fcustom_nodes` 文件夹。\n\n安装 `requirements.txt` 中的依赖项，要求 transformers 版本至少为 4.38.0：\n\n`pip install -r requirements.txt`\n\n或者，如果你使用的是便携版，请在 `ComfyUI_windows_portable` 文件夹中运行以下命令：\n\n`python_embeded\\python.exe -m pip install -r ComfyUI\\custom_nodes\\ComfyUI-KwaiKolorsWrapper\\requirements.txt`\n\n\n模型（fp16，16.5GB）会自动从 https:\u002F\u002Fhuggingface.co\u002FKwai-Kolors\u002FKolors\u002Ftree\u002Fmain 下载，\n\n并存放在 `ComfyUI\u002Fmodels\u002Fdiffusers\u002FKolors` 目录下。\n\n模型文件夹结构应如下所示：\n\n```\nPS C:\\ComfyUI_windows_portable\\ComfyUI\\models\\diffusers\\Kolors> tree \u002FF\n│   model_index.json\n│\n├───scheduler\n│       scheduler_config.json\n│\n├───text_encoder\n│       config.json\n│       pytorch_model-00001-of-00007.bin\n│       pytorch_model-00002-of-00007.bin\n│       pytorch_model-00003-of-00007.bin\n│       pytorch_model-00004-of-00007.bin\n│       pytorch_model-00005-of-00007.bin\n│       pytorch_model-00006-of-00007.bin\n│       pytorch_model-00007-of-00007.bin\n│       pytorch_model.bin.index.json\n│       tokenizer.model\n│       tokenizer_config.json\n│       vocab.txt\n│\n└───unet\n        config.json\n        diffusion_pytorch_model.fp16.safetensors\n```\n运行时，文本编码器是占用显存最多的部分，但可以通过量化来降低显存需求，大致如下：\n\n| 模型 | 显存占用 | \n|--------|------| \n| fp16 | ~13 GB|\n| quant8 | ~8 GB | \n| quant4 | ~4 GB |\n\n之后，以 1024 分辨率采样一张图片所需的显存与 SDXL 差不多。VAE 则使用 SDXL 的基础 VAE。\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-KwaiKolorsWrapper_readme_4a719d9699ae.png)\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-KwaiKolorsWrapper_readme_f038214b07be.png)","# ComfyUI-KwaiKolorsWrapper 快速上手指南\n\n## 环境准备\n\n*   **系统要求**：支持 Windows\u002FLinux，需具备足够的显存（VRAM）。\n    *   FP16 精度模型：约需 13 GB 显存。\n    *   INT8 量化模型：约需 8 GB 显存。\n    *   INT4 量化模型：约需 4 GB 显存。\n*   **前置依赖**：\n    *   已安装 **ComfyUI**。\n    *   Python 环境需安装 `transformers` 库，版本最低要求为 **4.38.0**。\n\n## 安装步骤\n\n### 1. 克隆插件仓库\n将本仓库克隆至 ComfyUI 的自定义节点目录：\n```bash\ncd ComfyUI\u002Fcustom_nodes\ngit clone https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-KwaiKolorsWrapper.git\n```\n\n### 2. 安装依赖\n根据您的需求选择以下一种方式安装依赖：\n\n**方式 A：标准 Python 环境**\n```bash\npip install -r requirements.txt\n```\n\n**方式 B：ComfyUI Portable (Windows 便携版)**\n请在 `ComfyUI_windows_portable` 文件夹下运行：\n```bash\npython_embeded\\python.exe -m pip install -r ComfyUI\\custom_nodes\\ComfyUI-KwaiKolorsWrapper\\requirements.txt\n```\n\n> **提示**：国内用户若下载依赖缓慢，可添加清华源加速：\n> `pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n### 3. 模型配置\n\n插件支持两种模型加载方式，任选其一即可：\n\n#### 方案一：自动下载完整模型（推荐新手）\n启动 ComfyUI 后，插件会自动从 HuggingFace 下载 fp16 版本模型（约 16.5GB）至以下目录：\n`ComfyUI\u002Fmodels\u002Fdiffusers\u002FKolors`\n\n*注意：若自动下载失败，可手动从 [Kwai-Kolors\u002FKolors](https:\u002F\u002Fhuggingface.co\u002FKwai-Kolors\u002FKolors\u002Ftree\u002Fmain) 下载并按以下结构放置：*\n```text\nComfyUI\u002Fmodels\u002Fdiffusers\u002FKolors\u002F\n├── model_index.json\n├── scheduler\u002F\n│   └── scheduler_config.json\n├── text_encoder\u002F\n│   ├── config.json\n│   ├── pytorch_model-*.bin (共 7 个分片)\n│   ├── pytorch_model.bin.index.json\n│   ├── tokenizer.model\n│   ├── tokenizer_config.json\n│   └── vocab.txt\n└── unet\u002F\n    ├── config.json\n    └── diffusion_pytorch_model.fp16.safetensors\n```\n\n#### 方案二：使用单文件 Safetensors (节省空间\u002F量化版)\n如果您希望使用量化模型以降低显存占用，或偏好单文件管理：\n\n1.  前往 [Kijai\u002FChatGLM3-safetensors](https:\u002F\u002Fhuggingface.co\u002FKijai\u002FChatGLM3-safetensors\u002Ftree\u002Fmain) 下载所需的 `.safetensors` 文件（包含 fp16, quant8, quant4 等版本）。\n2.  将下载的文件放入以下目录：\n    `Comfy\\models\\LLM\\checkpoints`\n3.  插件配置文件已内置在仓库中，无需额外配置即可识别。\n\n## 基本使用\n\n1.  **重启 ComfyUI**：完成安装和模型放置后，重启 ComfyUI 以加载新节点。\n2.  **加载工作流**：\n    *   在节点面板搜索 `KwaiKolors` 相关节点。\n    *   通常包含 `KwaiKolorsModelLoader` (模型加载)、`KwaiKolorsTextEncode` (提示词编码) 和 `KwaiKolorsSampler` (采样器)。\n3.  **构建最小流程**：\n    *   连接 **Model Loader** -> **Text Encode (Positive\u002FNegative)** -> **Sampler** -> **VAE Decode** -> **Save Image**。\n    *   **VAE 设置**：该插件默认使用基础的 **SDXL VAE**，请确保您的工作流中加载了 SDXL 兼容的 VAE 模型。\n    *   **分辨率建议**：推荐生成分辨率为 **1024x1024**，以获得最佳效果。\n4.  **运行生成**：输入提示词，点击 \"Queue Prompt\" 开始生成图像。","一位独立游戏开发者正在为项目生成具有独特东方美学风格的角色立绘，需要模型能精准理解复杂的中文提示词并输出高质量图像。\n\n### 没有 ComfyUI-KwaiKolorsWrapper 时\n- **语言理解障碍**：使用主流英文模型时，必须将精心构思的中文描述翻译成英文，导致“水墨晕染”、“赛博朋克长安”等特有文化意象丢失或变形。\n- **显存门槛过高**：原生运行 Kwai-Kolors 大模型需要约 13GB 显存，迫使开发者升级昂贵的显卡或放弃该模型。\n- **工作流割裂**：无法在熟悉的 ComfyUI 可视化界面中直接调用该模型，需在多个软件间切换，难以进行节点化的精细控制。\n- **部署繁琐**：手动配置 Diffusers 环境和模型文件结构极其复杂，容易因版本冲突（如 transformers 版本）导致运行失败。\n\n### 使用 ComfyUI-KwaiKolorsWrapper 后\n- **原生中文支持**：直接输入中文提示词，模型凭借 ChatGLM3 编码器精准捕捉“青绿山水”与“机械义肢”融合的细微语境，还原度大幅提升。\n- **低显存友好**：利用其内置的量化加载功能（如 quant4 模式），仅需约 4GB 显存即可流畅运行，让旧款显卡也能胜任生产任务。\n- **无缝集成工作流**：作为 ComfyUI 原生节点接入，开发者可像操作 SDXL 一样自由组合提示词、采样器和 ControlNet，实现全流程可视化调试。\n- **一键式部署**：自动下载并配置所需的模型文件与依赖，支持单文件 safetensors 加载，将原本数小时的环境搭建缩短至几分钟。\n\nComfyUI-KwaiKolorsWrapper 通过降低显存门槛和消除语言隔阂，让中文创作者能在本地高效构建专属的东方美学图像生成流水线。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-KwaiKolorsWrapper_41d0afac.png","kijai","Jukka Seppänen","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fkijai_5a67a464.jpg",null,"Finland","kijaidesign","https:\u002F\u002Fgithub.com\u002Fkijai",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,598,35,"2026-04-01T09:05:38","Apache-2.0","Windows, Linux, macOS","必需 NVIDIA GPU。显存需求取决于模型精度：FP16 约需 13GB，8-bit 量化约需 8GB，4-bit 量化约需 4GB。生成 1024 分辨率单张图像时，除文本编码器外，采样过程显存占用与 SDXL 类似。","未说明",{"notes":93,"python":94,"dependencies":95},"1. 该工具是 ComfyUI 的自定义节点，需克隆到 'ComfyUI\u002Fcustom_nodes' 目录。\n2. 主模型 (fp16, 16.5GB) 会自动从 HuggingFace 下载到 'ComfyUI\u002Fmodels\u002Fdiffusers\u002FKolors'。\n3. 支持加载单文件 safetensors 格式的 ChatGLM3 模型（含量化版本），需手动放入 'ComfyUI\\models\\LLM\\checkpoints' 目录。\n4. VAE 部分复用基础的 SDXL VAE 模型。\n5. 文本编码器是显存占用的主要瓶颈，建议使用量化模型以降低显存需求。","未说明 (需配合 ComfyUI 环境，便携式版本使用内置 python)",[96,97],"diffusers","transformers>=4.38.0",[15,43],"2026-03-27T02:49:30.150509","2026-04-07T06:45:13.226506",[102,107,112,117,122,127],{"id":103,"question_zh":104,"answer_zh":105,"source_url":106},21150,"为什么加载模型时出现 'invalid vector subscript' 错误，且与 Yoloworld 插件冲突？","该错误通常由插件间的兼容性冲突引起。用户测试发现，安装 KwaiKolorsWrapper 后会导致 Yoloworld_ESAM_Zho 节点报错。维护者已修复此问题，请确保将插件更新至最新版本。如果问题依旧，尝试暂时禁用其他可能冲突的自定义节点进行排查。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-KwaiKolorsWrapper\u002Fissues\u002F18",{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},21151,"为什么 'Loading checkpoint shards' 过程非常缓慢？","加载速度慢通常是因为使用了原始的 checkpoint 分片文件。维护者已添加了对 safetensors 格式的支持，该格式加载速度显著更快（例如 8G 模型仅需 1 秒）。解决方案是重新下载模型，并确保使用 .safetensors 格式的模型文件。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-KwaiKolorsWrapper\u002Fissues\u002F6",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},21152,"在 MacOS (MPS) 上使用量化模型（4bit\u002F8bit）时报错怎么办？","早期版本中，量化功能依赖 CUDA，导致在 MacOS (MPS) 上无法使用并抛出形状不匹配或缺少参数的错误。维护者已更新代码以支持非 CUDA 环境。请更新插件到最新版本，即可在 MacOS 上正常使用 4bit 和 8bit 的 safetensors 模型。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-KwaiKolorsWrapper\u002Fissues\u002F9",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},21153,"遇到 'snapshot_download() got an unexpected keyword argument ignore_patthers' 错误如何解决？","这是一个由拼写错误引起的 Bug（代码中将 'ignore_patterns' 误写为 'ignore_patthers'）。维护者已在后续版本中修复。如果遇到此错误，请直接更新 ComfyUI-KwaiKolorsWrapper 插件到最新版即可解决。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-KwaiKolorsWrapper\u002Fissues\u002F1",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},21154,"加载 ChatGLM 节点时出现 'stat: path should be string... not NoneType' 错误是什么原因？","该错误表明系统无法找到指定的模型路径，通常是因为模型文件未放置在正确的目录或文件名不匹配。请检查你的模型目录结构，确保 ChatGLM 模型文件位于 `models\u002FLLM\u002Fcheckpoints` 目录下，并且节点配置中的路径指向正确。如果使用的是自动下载功能，请检查网络连接或手动下载模型后指定本地路径。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-KwaiKolorsWrapper\u002Fissues\u002F21",{"id":128,"question_zh":129,"answer_zh":130,"source_url":116},21155,"MacOS 用户在使用 Load ChatGLM3 Model 节点时遇到 'Torch not compiled with CUDA enabled' 错误怎么办？","这是因为旧版本代码强制调用了仅适用于 CUDA 的量化方法。维护者已发布更新，移除了对 CUDA 的强制依赖，使其兼容 MPS。请务必更新插件至最新版本，之后即可在 MacOS 上正常加载模型而无需 CUDA 环境。",[]]