[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-LarryJane491--Lora-Training-in-Comfy":3,"tool-LarryJane491--Lora-Training-in-Comfy":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",156033,2,"2026-04-14T23:32:00",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":89,"forks":90,"last_commit_at":91,"license":75,"difficulty_score":10,"env_os":92,"env_gpu":93,"env_ram":94,"env_deps":95,"category_tags":102,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":103,"updated_at":104,"faqs":105,"releases":135},7638,"LarryJane491\u002FLora-Training-in-Comfy","Lora-Training-in-Comfy","This custom node lets you train LoRA directly in ComfyUI!","Lora-Training-in-Comfy 是一款专为 ComfyUI 设计的自定义节点，让用户无需离开界面即可直接训练 LoRA 模型。它解决了传统训练流程中需要切换软件、配置复杂环境以及手动迁移模型文件的痛点，实现了从数据准备、标签生成到模型训练与测试的全流程闭环。\n\n该工具特别适合希望简化工作流的 Stable Diffusion 设计师、AI 艺术创作者以及想要尝试模型微调的进阶用户。其核心亮点在于“即训即用”：训练完成的 LoRA 文件会自动保存至 ComfyUI 默认目录，用户只需刷新列表即可立即加载验证效果。此外，它还支持查看 TensorBoard 训练日志，方便监控过程，并兼容 SD 1.5、SD 2.0、LCM 及 SD Turbo 等多种主流架构。若配合开发者同系列的标签处理节点使用，用户甚至可以在 ComfyUI 内完成从图片整理到最终出图的全部操作，极大地降低了 LoRA 制作的技术门槛和时间成本。","\n# UPDATE! (19-01-2024)\nIntroducing an Advanced node and Access Tensorboard node!\nAccess Tensorboard is a very simple node that launches a URL to see data about the logs created during training. Click the node once (after, during, or even before training!), then copy-paste the URL that it wrote in the command prompt. The logs folder related to Tensorboard is in the same folder as your launcher file.\n\nThe Advanced node is full of many recommended features. Some are still missing, but they are here in the code, you just have to change their values manually! Not everything was tested, I personally don't even know what most of these do. Let me know if a certain feature doesn't work like it should!\n\nThis node is now confirmed to work with LCMs, SD2.0 and SD Turbo models. I am not able to test for SDXL though.\n\n\n\n\n\n# Lora-Training-in-Comfy\n\nDISCLAIMER: This is my first \"big\" custom node. More specifically, it's the first I publish that has a lot of requirements. Therefore, it could conflict with other custom nodes. If it happens, please let me know so I update it accordingly!\n\nThis custom node lets you train LoRA directly in ComfyUI! By default, it saves directly in your ComfyUI lora folder. That means you just have to refresh after training (...and select the LoRA) to test it!\n\n\nMaking LoRA has never been easier!\n\nI'll link my tutorial. Download it from here, then follow the guide:\n\nhttps:\u002F\u002Fwww.reddit.com\u002Fr\u002FStableDiffusion\u002Fcomments\u002F193hqkz\u002Flora_training_directly_in_comfyui\u002F\n\nIn short, you have to put it in custom_nodes and install the requirements (from requirements_win.txt if you're on Windows). Pretty standard for custom nodes!\n![LoRATrainingNode](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLarryJane491_Lora-Training-in-Comfy_readme_35ee58487b2e.png)\n\nAfter installing, you can find it in the LJRE\u002FLORA category or by double-clicking and searching for Training or LoRA.\nMake sure you have a folder containing multiple images with captions.\nThen, rename that folder into something like [number]_[whatever].\nCopy the path of the folder ABOVE the one containing images and paste it in data_path. For example, if it's in C:\u002Fdatabase\u002F5_images, data_path MUST be C:\u002Fdatabase.\nFinally, just choose a name for the LoRA, and change the other values if you want. Then just click Queue Prompt and training starts!\n\nI recommend using it alongside my other custom nodes, LoRA Caption Load and LoRA Caption Save:\n![LoraCaption and Training](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLarryJane491_Lora-Training-in-Comfy_readme_a417bcdb1d00.png)\n\nThat way you just have to gather images, then you can do the captioning AND training, all inside Comfy! And since it saves LoRAs in the loras folder of Comfy by default, you just need to refresh and you can test it right away!\n\nResults from the first LoRA I got with my method:\n\n![w62yekl73obc1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLarryJane491_Lora-Training-in-Comfy_readme_d9429046bbde.png)\n![am585t5h3obc1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLarryJane491_Lora-Training-in-Comfy_readme_fcf7d7862051.png)\n![1wacnvrv5obc1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLarryJane491_Lora-Training-in-Comfy_readme_8b1d3618f2b5.png)\n\n\nYou can compare with real images:\nhttps:\u002F\u002Fwww.google.com\u002Fsearch?client=opera&hs=eLO&sca_esv=597261711&sxsrf=ACQVn0-1AWaw7YbryEzXe0aIpP_FVzMifw:1704916367322&q=Pokemon+Dawn+Grand+Festival&tbm=isch&source=lnms&sa=X&ved=2ahUKEwiIr8izzNODAxU2RaQEHVtJBrQQ0pQJegQIDRAB&biw=1534&bih=706&dpr=1.25\n\n\n\nIMPORTANT NOTES:\nThis node is confirmed to work for SD 1.5, SD2.0, SDTurbo and LCM.\nBut I have no idea about SDXL. If someone could test it and confirm or infirm, I’d appreciate ^^. I know the LoRA project included custom scripts for SDXL, so maybe it’s more complicated.\n\n----\n\nTROUBLESHOOT:\nThe very first version I published online had very strict requirements, which made conflicts likely. I've reduced requirements to the bare minimum, but conflicts can still arise. If that happens to you, please let me know!\n\n\"No module X found\" : This error happens when Python can't find the required modules for the running program. For ComfyUI, it often happens if you forgot to install requirements for the custom node.\nBut it can also happen if you installed the requirements in the wrong folder! If your ComfyUI folder has a virtual environment (venv), make sure to enable it before installing requirements.\n\n\n\"Something about cuda.dll missing\" : there's a lot of variants of this error, but they're all the same problem (hopefully): it happens if you haven't installed CUDA properly (or, again, if it's not installed in the right folder). Here is what to do in this case:\n1) Open a command prompt and make absolutely sure that it's the right environment.\n2) Go there: https:\u002F\u002Fpytorch.org and scroll down. Follow the instructions to get a line of code, something like pip3 install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu121. Copy-paste the line the website gives you into the command prompt you opened and press Enter. This will install CUDA.\n\n\n\nI own a Windows 10 machine with a RTX 3060. I can't test for Linux, for MAC, for AMD GPUs and other weird situations x).\n\n\n\n\n----\n\nTO GO FURTHER\nEven the Advanced node doens't include all inputs available for LoRA training, but you can find them all in the script train.py! All of that can be modified by the user directly within the script.\n\n\n----\nSHOUTOUT\nThis is based off an existing project, lora-scripts, available on github. Thanks to the author for making a project that launches training with a single script!\n\nI took that project, got rid of the UI, translated this “launcher script” into Python, and adapted it to ComfyUI. Still took a few hours, but I was seeing the light all the way, it was a breeze thanks to the original project ^^.\n","# 更新！（2024年1月19日）\n隆重推出高级节点和访问 TensorBoard 节点！\n访问 TensorBoard 是一个非常简单的节点，它可以启动一个 URL，用于查看训练过程中生成的日志数据。只需单击该节点一次（在训练之前、期间或之后均可），然后将它在命令提示符中输出的 URL 复制并粘贴到浏览器中即可。与 TensorBoard 相关的日志文件夹位于你的启动器文件所在的同一目录下。\n\n高级节点包含许多推荐的功能。虽然目前仍有一些功能尚未实现，但它们已经写入代码中，你只需要手动调整相应的参数即可！并非所有功能都经过测试，事实上，我本人对其中大部分功能的作用也不甚了解。如果某个功能没有按预期工作，请及时告知我！\n\n目前确认该节点可以与 LCM、SD2.0 和 SD Turbo 模型配合使用。不过，我暂时无法测试 SDXL 模型。\n\n\n\n\n\n# Lora-Training-in-Comfy\n\n免责声明：这是我制作的第一个“大型”自定义节点。更确切地说，这是我首次发布的一个依赖项较多的节点。因此，它可能会与其他自定义节点产生冲突。如果出现此类问题，请务必告知我，以便我及时更新！\n\n这个自定义节点允许你在 ComfyUI 中直接训练 LoRA！默认情况下，它会将训练好的 LoRA 文件保存到你的 ComfyUI 的 lora 文件夹中。这意味着训练完成后，你只需刷新界面（…并选择对应的 LoRA）即可进行测试！\n\n\n现在，制作 LoRA 变得前所未有的简单！\n\n我会附上我的教程链接。请从这里下载，然后按照指南操作：\n\nhttps:\u002F\u002Fwww.reddit.com\u002Fr\u002FStableDiffusion\u002Fcomments\u002F193hqkz\u002Flora_training_directly_in_comfyui\u002F\n\n简而言之，你需要将其放置在 custom_nodes 文件夹中，并安装所需的依赖包（如果你使用 Windows 系统，可以从 requirements_win.txt 文件中获取）。这与其他自定义节点的安装方式并无二致！\n![LoRATrainingNode](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLarryJane491_Lora-Training-in-Comfy_readme_35ee58487b2e.png)\n\n安装完成后，你可以在 LJRE\u002FLORA 分类中找到它，或者通过双击搜索“Training”或“LoRA”来定位。请确保你有一个包含多张带标注图片的文件夹。然后将该文件夹重命名为类似“[数字]_[任意名称]”的格式。复制包含图片文件夹的上一级路径，并将其粘贴到 data_path 字段中。例如，如果图片文件夹位于 C:\u002Fdatabase\u002F5_images，则 data_path 必须设置为 C:\u002Fdatabase。最后，为你的 LoRA 命名，并根据需要调整其他参数。完成后，点击“Queue Prompt”，训练便会开始！\n\n我建议将此节点与我的另外两个自定义节点——LoRA Caption Load 和 LoRA Caption Save——一起使用：\n![LoraCaption and Training](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLarryJane491_Lora-Training-in-Comfy_readme_a417bcdb1d00.png)\n\n这样一来，你只需准备好图片，就能在 ComfyUI 内完成标注和训练。由于默认情况下，LoRA 会被保存到 ComfyUI 的 loras 文件夹中，因此你只需刷新界面，便可立即测试其效果！\n\n以下是我用这种方法训练出的第一批 LoRA 的效果示例：\n\n![w62yekl73obc1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLarryJane491_Lora-Training-in-Comfy_readme_d9429046bbde.png)\n![am585t5h3obc1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLarryJane491_Lora-Training-in-Comfy_readme_fcf7d7862051.png)\n![1wacnvrv5obc1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLarryJane491_Lora-Training-in-Comfy_readme_8b1d3618f2b5.png)\n\n\n你可以将其与真实图片进行对比：\nhttps:\u002F\u002Fwww.google.com\u002Fsearch?client=opera&hs=eLO&sca_esv=597261711&sxsrf=ACQVn0-1AWaw7YbryEzXe0aIpP_FVzMifw:1704916367322&q=Pokemon+Dawn+Grand+Festival&tbm=isch&source=lnms&sa=X&ved=2ahUKEwiIr8izzNODAxU2RaQEHVtJBrQQ0pQJegQIDRAB&biw=1534&bih=706&dpr=1.25\n\n\n\n重要说明：\n该节点已确认适用于 SD 1.5、SD2.0、SDTurbo 和 LCM。但对于 SDXL，我尚无相关经验。如果有人能够测试并确认或否定其兼容性，我将不胜感激 ^^. 我知道 LoRA 项目曾为 SDXL 提供了自定义脚本，因此可能更为复杂。\n\n----\n\n故障排除：\n我最初发布的版本对依赖项要求非常严格，容易引发冲突。如今我已经将依赖项简化到了最低限度，但仍有可能出现冲突。如果你遇到此类问题，请随时告诉我！\n\n“未找到模块 X”：此错误通常发生在 Python 无法找到运行程序所需模块时。对于 ComfyUI 而言，这种情况往往是因为你忘记为自定义节点安装必要的依赖包。\n\n此外，如果依赖包被安装到了错误的文件夹中，也可能导致此问题！如果你的 ComfyUI 文件夹中存在虚拟环境（venv），请务必先激活该环境，再进行依赖包的安装。\n\n“缺少 cuda.dll 相关错误”：这类错误有多种变体，但本质上都是同一个问题（希望如此）：通常是由于 CUDA 没有正确安装，或者安装位置不正确所致。解决方法如下：\n1) 打开命令提示符，确保当前环境正确。\n2) 访问 https:\u002F\u002Fpytorch.org 并向下滚动。按照页面上的指示获取一行代码，例如：pip3 install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu121。将网站提供的命令复制并粘贴到命令提示符中，然后按下回车键。这将完成 CUDA 的安装。\n\n\n\n我使用的是搭载 RTX 3060 显卡的 Windows 10 电脑。我无法测试 Linux、Mac、AMD 显卡以及其他特殊情况 x）。\n\n\n\n----\n\n进一步探索\n即使是高级节点，也并未涵盖 LoRA 训练的所有可用输入选项。不过，你可以在 train.py 脚本中找到所有这些选项！用户可以直接在脚本中对其进行修改。\n\n----\n特别鸣谢\n本项目基于 GitHub 上现有的 lora-scripts 项目。感谢原作者开发出只需一个脚本即可启动训练的工具！\n\n我在此基础上移除了 UI 界面，将该“启动脚本”转换为 Python 代码，并适配至 ComfyUI。整个过程耗时数小时，但由于有了原始项目的良好基础，进展十分顺利 ^^。","# Lora-Training-in-Comfy 快速上手指南\n\n本指南帮助你在 ComfyUI 中直接训练 LoRA 模型，无需离开界面即可完成从数据准备到模型生成的全流程。\n\n## 环境准备\n\n*   **操作系统**: Windows (作者主要测试环境)，Linux\u002FMac 需自行验证。\n*   **硬件要求**: 推荐 NVIDIA GPU (已测试 RTX 3060)。\n*   **软件依赖**:\n    *   Python 环境 (ComfyUI 内置或独立环境均可)。\n    *   **CUDA**: 必须正确安装并与 PyTorch 版本匹配。若遇到 `cuda.dll missing` 错误，请访问 [pytorch.org](https:\u002F\u002Fpytorch.org) 获取对应命令安装。\n    *   **节点依赖**: 安装本节点前，请确保 ComfyUI 的虚拟环境已激活。\n\n> **注意**: 本节点已确认支持 SD 1.5, SD 2.0, SD Turbo 和 LCM 模型。SDXL 支持情况尚不明确。\n\n## 安装步骤\n\n1.  **下载节点**:\n    将 `Lora-Training-in-Comfy` 文件夹下载并放入 ComfyUI 的 `custom_nodes` 目录中。\n    ```bash\n    # 示例路径\n    Your_ComfyUI_Path\u002Fcustom_nodes\u002FLora-Training-in-Comfy\n    ```\n\n2.  **安装依赖**:\n    打开命令行终端，**务必激活 ComfyUI 的 Python 虚拟环境** (如果有)，然后进入节点目录安装依赖。\n    \n    *Windows 用户:*\n    ```cmd\n    cd Your_ComfyUI_Path\u002Fcustom_nodes\u002FLora-Training-in-Comfy\n    pip install -r requirements_win.txt\n    ```\n    \n    *其他系统或通用安装:*\n    ```bash\n    pip install -r requirements.txt\n    ```\n    \n    > **国内加速建议**: 若下载缓慢，可使用清华源或阿里源：\n    > `pip install -r requirements_win.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n3.  **重启 ComfyUI**: 安装完成后重启 ComfyUI 以加载新节点。\n\n## 基本使用\n\n### 1. 准备数据集\n*   创建一个文件夹，内含多张训练图片及其对应的标题文件（.txt）。\n*   **命名规范**: 将该文件夹重命名为 `[数字]_[描述]` 格式（例如：`5_dawn_character`）。\n*   **路径设置**: 假设你的图片文件夹位于 `C:\u002Fdatabase\u002F5_dawn_character`，则在节点中填写的 `data_path` 应为**上一级目录**，即 `C:\u002Fdatabase`。\n\n### 2. 配置工作流\n*   在 ComfyUI 中双击搜索 `Training` 或 `LoRA`，找到 **`LJRE\u002FLORA`** 分类下的训练节点。\n*   **参数设置**:\n    *   `data_path`: 填入上述准备好的父目录路径 (如 `C:\u002Fdatabase`)。\n    *   `output_name`: 设定生成的 LoRA 文件名。\n    *   其他参数可根据需求调整（高级节点包含更多推荐选项）。\n*   *(可选)* 搭配作者的其他节点 `LoRA Caption Load` 和 `LoRA Caption Save` 可在 ComfyUI 内完成自动打标。\n\n### 3. 开始训练\n*   点击 **`Queue Prompt`** 开始训练。\n*   训练日志可通过 `Access Tensorboard` 节点查看：点击该节点，复制命令行中输出的 URL 到浏览器即可监控训练数据。\n\n### 4. 测试模型\n*   训练完成后，模型默认保存至 ComfyUI 的 `models\u002Floras` 文件夹。\n*   在 ComfyUI 中点击刷新按钮，加载新生成的 LoRA 即可立即进行测试。","一位独立游戏开发者需要为自创的二次元角色快速生成专属风格模型，以便在 ComfyUI 工作流中批量生产立绘素材。\n\n### 没有 Lora-Training-in-Comfy 时\n- **环境割裂严重**：必须退出 ComfyUI，切换到独立的 Python 脚本或外部训练软件（如 Kohya_ss），在不同界面间反复切换导致工作流中断。\n- **文件管理繁琐**：训练好的模型需手动从临时目录复制粘贴到 ComfyUI 的 `models\u002Floras` 文件夹，容易因路径错误导致模型无法加载。\n- **调试反馈滞后**：无法直观监控训练过程中的损失函数变化，若需查看 Tensorboard 日志，得额外配置命令行环境并手动获取 URL，排查问题效率极低。\n- **流程重复劳动**：每次调整参数重训时，都要重新整理数据集路径和标注文件，缺乏自动化闭环，难以进行快速迭代测试。\n\n### 使用 Lora-Training-in-Comfy 后\n- **全流程一体化**：直接在 ComfyUI 节点图中搭建训练工作流，从数据读取、模型训练到生成测试图，全程无需离开当前界面，实现“所见即所得”。\n- **自动部署生效**：训练完成的 LoRA 模型默认直接保存至 ComfyUI 专用目录，只需刷新列表即可立即挂载使用，彻底消除文件搬运步骤。\n- **实时监控便捷**：通过内置的 Access Tensorboard 节点，一键复制日志 URL 即可在浏览器查看实时训练曲线，快速判断过拟合或欠拟合状态。\n- **高效迭代闭环**：结合配套的标注节点，开发者可在同一画布上完成图片打标、模型训练与效果验证，大幅缩短从创意到成品的周期。\n\nLora-Training-in-Comfy 将原本破碎的外部训练流程无缝融入图形化界面，让个性化模型定制变得像连接普通节点一样简单高效。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLarryJane491_Lora-Training-in-Comfy_35ee5848.png","LarryJane491","Larry Jane","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FLarryJane491_2e455048.png",null,"https:\u002F\u002Fgithub.com\u002FLarryJane491",[78,82,86],{"name":79,"color":80,"percentage":81},"Python","#3572A5",100,{"name":83,"color":84,"percentage":85},"Dockerfile","#384d54",0,{"name":87,"color":88,"percentage":85},"PowerShell","#012456",539,77,"2026-04-13T07:24:59","Windows","需要 NVIDIA GPU（作者测试机型为 RTX 3060），必须安装 CUDA。具体显存大小未说明，但需支持 PyTorch CUDA 版本（如 cu121）。不支持 AMD GPU（作者明确无法测试）。","未说明",{"notes":96,"python":97,"dependencies":98},"1. 作者仅在 Windows 10 + RTX 3060 环境下测试，明确表示无法测试 Linux、macOS 及 AMD 显卡。2. 已确认支持 SD 1.5、SD 2.0、SD Turbo 和 LCM 模型，SDXL 模型支持情况未知。3. 安装依赖时需确保在正确的虚拟环境（venv）中操作，否则会出现模块缺失错误。4. 若出现 cuda.dll 缺失错误，需根据 pytorch.org 指引安装对应 CUDA 版本的 torch 系列库。5. 训练数据文件夹命名需遵循特定格式（如 [数字]_[名称]），且 data_path 需指向该文件夹的上一级目录。","未说明（需配合 ComfyUI 环境，若使用虚拟环境 venv 需先激活）",[99,100,101],"torch","torchvision","torchaudio",[15,14],"2026-03-27T02:49:30.150509","2026-04-15T11:20:33.774727",[106,111,116,121,126,131],{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},34214,"训练时出现错误，提示库文件或脚本缺失怎么办？","需要从 kohya_ss 仓库获取最新的库文件。具体步骤：\n1. 访问 https:\u002F\u002Fgithub.com\u002Fbmaltais\u002Fkohya_ss.git\n2. 复制其中的 \"library\" 目录。\n3. 将其替换到本插件目录下的 \"custom_nodes\u002FLora-Training-in-Comfy\u002Fsd-scripts\u002Flibrary\"。\n4. 同时替换 \"train_network.py\" 文件。\n完成替换后通常可解决该问题。","https:\u002F\u002Fgithub.com\u002FLarryJane491\u002FLora-Training-in-Comfy\u002Fissues\u002F36",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},34215,"安装插件后 ComfyUI 启动报错 \"Torch not compiled with CUDA enabled\" 怎么办？","这通常是因为便携式版本（Portable Version）的 Python 环境中缺少支持 CUDA 的 PyTorch 或 pip 未正确配置。解决方法如下：\n1. 进入 ComfyUI 目录下的 `python_embeded` 文件夹。\n2. 在该文件夹打开命令提示符（在地址栏输入 cmd 并回车）。\n3. 检查是否有 `get-pip.py` 文件，运行 `python get-pip.py` 安装 pip（如果尚未安装）。\n4. 使用安装好的 pip 重新安装支持 CUDA 的 PyTorch 版本（需参考 PyTorch 官网针对 Windows 和特定 CUDA 版本的安装命令）。\n注意：必须确保在嵌入式 Python 环境中执行安装操作。","https:\u002F\u002Fgithub.com\u002FLarryJane491\u002FLora-Training-in-Comfy\u002Fissues\u002F10",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},34216,"运行节点时报错 \"local variable 'image1' referenced before assignment\" 是什么原因？","该错误通常是因为加载的图片格式不被支持。解决方案是确保所有用于训练的图片文件均为 **PNG** 格式。请将其他格式（如 JPG, WEBP 等）转换为 PNG 后再尝试运行。","https:\u002F\u002Fgithub.com\u002FLarryJane491\u002FLora-Training-in-Comfy\u002Fissues\u002F54",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},34217,"训练脚本报错 \"Unrecognized Argument\" 或未识别参数错误怎么办？","这个问题通常是由文件路径中包含**空格**引起的。请检查你的 ComfyUI 安装路径、数据集路径以及输出路径，确保整个路径中没有任何空格字符。如果有，请移除空格或更改路径名称。","https:\u002F\u002Fgithub.com\u002FLarryJane491\u002FLora-Training-in-Comfy\u002Fissues\u002F28",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},34218,"如何在 ComfyUI 中切换以支持 SDXL 模型训练？","虽然底层 sd-scripts 支持 SDXL，但在 ComfyUI 插件中可能需要手动指定脚本或调整参数。用户反馈指出，对于 SDXL 训练，理论上应运行 `sdxl_train_network.py` 而不是默认的 `train_network.py`。此外，如果在 Windows 多显卡环境下遇到加速器（accelerator）问题，可以在 `run_nvidia_gpu.bat` 文件中添加 `--cuda-device 0`（或对应的显卡编号）参数来指定使用的 GPU。","https:\u002F\u002Fgithub.com\u002FLarryJane491\u002FLora-Training-in-Comfy\u002Fissues\u002F45",{"id":132,"question_zh":133,"answer_zh":134,"source_url":110},34219,"为什么只能基于 SD1.5 模型训练，而使用 PonyDiffusion 或 SDXL 时会失败？","这通常是因为缺少针对 SDXL 架构的正确脚本调用或库文件版本不匹配。首先请确认是否已按照 Issue #36 的方法更新了 `sd-scripts` 目录下的库文件和训练脚本。其次，检查是否明确指定了 SDXL 相关的训练参数或脚本（如 `sdxl_train_network.py`）。如果问题依旧，可能是当前插件版本对非 SD1.5 架构的支持尚不完善，建议关注后续更新或暂时使用 kohya_ss GUI 进行 SDXL 训练。",[]]