[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-XLabs-AI--x-flux-comfyui":3,"similar-XLabs-AI--x-flux-comfyui":80},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":7,"owner_location":7,"owner_email":7,"owner_twitter":7,"owner_website":7,"owner_url":18,"languages":19,"stars":28,"forks":29,"last_commit_at":30,"license":31,"difficulty_score":32,"env_os":33,"env_gpu":34,"env_ram":33,"env_deps":35,"category_tags":42,"github_topics":7,"view_count":45,"oss_zip_url":7,"oss_zip_packed_at":7,"status":46,"created_at":47,"updated_at":48,"faqs":49,"releases":79},6241,"XLabs-AI\u002Fx-flux-comfyui","x-flux-comfyui",null,"x-flux-comfyui 是一款专为 ComfyUI 设计的开源扩展节点包，旨在为强大的 FLUX.1 图像生成模型提供丰富的微调与控制能力。它通过集成多种预训练模型，有效解决了用户在创作中难以精准控制画面结构、风格或特定主体特征的痛点，让从线稿到成图、风格迁移及角色一致性保持变得更加简单可控。\n\n该工具非常适合希望深入探索 FLUX 模型潜力的设计师、数字艺术家以及 AI 技术爱好者使用。其核心亮点在于提供了包括 Canny（边缘）、Depth（深度）和 HED 在内的多种 ControlNet 支持，让用户能严格把控构图；同时收录了写实风格、毛绒角色等多种 LoRA 模型，极大丰富了创作风格。此外，x-flux-comfyui 还引入了处于测试阶段的 IP Adapter 功能，支持参考图生成，并特别优化了低显存模式，配合 GGUF 量化技术，使仅有 12GB 显存的设备也能流畅运行高精度生成任务。安装后，用户只需将下载模型放入指定目录即可在可视化界面中灵活调用，是提升本地 AI 绘画工作流效率的得力助手。","# *[Guide](\u002FGuide.md)*\n\n# How to use\n![FLUX Finetuning scripts](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXLabs-AI_x-flux-comfyui_readme_eb79b563ee9b.png)\n![FLUX Finetuning scripts](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXLabs-AI_x-flux-comfyui_readme_981859a25cf5.png)\n\n## Installation:\n\n1. Go to `ComfyUI\u002Fcustom_nodes`\n2. Clone this repo, path should be `ComfyUI\u002Fcustom_nodes\u002Fx-flux-comfyui\u002F*`, where * is all the files in this repo\n3. Go to  `ComfyUI\u002Fcustom_nodes\u002Fx-flux-comfyui\u002F` and run `python setup.py`\n4. Run ComfyUI after installing and enjoy!\n\nAfter the first launch, the `ComfyUI\u002Fmodels\u002Fxlabs\u002Floras` and `ComfyUI\u002Fmodels\u002Fxlabs\u002Fcontrolnets` folders will be created automatically. \u003Cbr\u002F>\nSo, to use lora or controlnet just put models in these folders. \u003Cbr\u002F>\nAfter that, you may need to click \"Refresh\" in the user-friendly interface to use the models. \u003Cbr\u002F>\nFor controlnet you need install https:\u002F\u002Fgithub.com\u002FFannovel16\u002Fcomfyui_controlnet_aux \u003Cbr\u002F>\n## Low memory mode\nYou can launch Flux utilizing 12GB VRAM memory usage.\n1. Follow installation as described in repo https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI-GGUF\n2. Use flux1-dev-Q4_0.gguf from repo https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI-GGUF \u003Cbr\u002F>\n3. Launch ComfyUI with parameters:\n```bash\npython3 main.py --lowvram --preview-method auto --use-split-cross-attention\n```\nIn our workflows, replace \"Load Diffusion Model\" node with \"Unet Loader (GGUF)\"\n\n![FLUX Finetuning scripts](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXLabs-AI_x-flux-comfyui_readme_f68375420580.png)\n\n## Models\n\nWe trained **Canny ControlNet**, **Depth ControlNet**, **HED ControlNet** and **LoRA** checkpoints for [`FLUX.1 [dev]`](https:\u002F\u002Fgithub.com\u002Fblack-forest-labs\u002Fflux) \u003Cbr\u002F>\nYou can download them on HuggingFace:\n\n- [flux-controlnet-collections](https:\u002F\u002Fhuggingface.co\u002FXLabs-AI\u002Fflux-controlnet-collections)\n- [flux-controlnet-canny](https:\u002F\u002Fhuggingface.co\u002FXLabs-AI\u002Fflux-controlnet-canny)\n- [flux-RealismLora](https:\u002F\u002Fhuggingface.co\u002FXLabs-AI\u002Fflux-RealismLora)\n- [flux-lora-collections](https:\u002F\u002Fhuggingface.co\u002FXLabs-AI\u002Fflux-lora-collection)\n- [flux-furry-lora](https:\u002F\u002Fhuggingface.co\u002FXLabs-AI\u002Fflux-furry-lora)\n- [flux-ip-adapter](https:\u002F\u002Fhuggingface.co\u002FXLabs-AI\u002Fflux-ip-adapter\u002F)\n## IP Adapter\n\n### Instruction\n1. Update x-flux-comfy with `git pull` or reinstall it.\n2. Download Clip-L `model.safetensors` from [OpenAI VIT CLIP large](https:\u002F\u002Fhuggingface.co\u002Fopenai\u002Fclip-vit-large-patch14), and put it to `ComfyUI\u002Fmodels\u002Fclip_vision\u002F*`.\n3. Download our IPAdapter from [huggingface](https:\u002F\u002Fhuggingface.co\u002FXLabs-AI\u002Fflux-ip-adapter\u002Ftree\u002Fmain), and put it to `ComfyUI\u002Fmodels\u002Fxlabs\u002Fipadapters\u002F*`.\n4. Use `Flux Load IPAdapter` and `Apply Flux IPAdapter` nodes, choose right CLIP model and enjoy your genereations.\n5. You can find example workflow in folder workflows in this repo.\n\n### Limitations\nThe IP Adapter is currently in beta.\nWe do not guarantee that you will get a good result right away, it may take more attempts to get a result. But we will make efforts to make this process easier and more efficient over time.\n","# *[指南](\u002FGuide.md)*\n\n# 使用方法\n![FLUX 微调脚本](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXLabs-AI_x-flux-comfyui_readme_eb79b563ee9b.png)\n![FLUX 微调脚本](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXLabs-AI_x-flux-comfyui_readme_981859a25cf5.png)\n\n## 安装：\n\n1. 进入 `ComfyUI\u002Fcustom_nodes`\n2. 克隆此仓库，路径应为 `ComfyUI\u002Fcustom_nodes\u002Fx-flux-comfyui\u002F*`，其中 * 代表该仓库中的所有文件。\n3. 进入 `ComfyUI\u002Fcustom_nodes\u002Fx-flux-comfyui\u002F` 并运行 `python setup.py`\n4. 安装完成后启动 ComfyUI，即可使用！\n\n首次启动后，`ComfyUI\u002Fmodels\u002Fxlabs\u002Floras` 和 `ComfyUI\u002Fmodels\u002Fxlabs\u002Fcontrolnets` 文件夹将自动创建。\u003Cbr\u002F>\n因此，要使用 LoRA 或 ControlNet 模型，只需将模型放入这些文件夹中。\u003Cbr\u002F>\n之后，您可能需要在用户友好界面中点击“刷新”按钮以使模型生效。\u003Cbr\u002F>\n对于 ControlNet，您还需要安装 https:\u002F\u002Fgithub.com\u002FFannovel16\u002Fcomfyui_controlnet_aux \u003Cbr\u002F>\n## 低显存模式\n您可以使用 12GB 显存来运行 Flux。\n1. 按照 https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI-GGUF 仓库中的说明进行安装。\n2. 使用来自 https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI-GGUF 仓库的 `flux1-dev-Q4_0.gguf` 文件。\u003Cbr\u002F>\n3. 使用以下参数启动 ComfyUI：\n```bash\npython3 main.py --lowvram --preview-method auto --use-split-cross-attention\n```\n在我们的工作流中，请将“加载扩散模型”节点替换为“Unet 加载器 (GGUF)”节点。\n\n![FLUX 微调脚本](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXLabs-AI_x-flux-comfyui_readme_f68375420580.png)\n\n## 模型\n\n我们为 [`FLUX.1 [dev]`](https:\u002F\u002Fgithub.com\u002Fblack-forest-labs\u002Fflux) 训练了 **Canny ControlNet**、**Depth ControlNet**、**HED ControlNet** 以及 **LoRA** 检查点。\u003Cbr\u002F>\n您可以在 HuggingFace 上下载它们：\n\n- [flux-controlnet-collections](https:\u002F\u002Fhuggingface.co\u002FXLabs-AI\u002Fflux-controlnet-collections)\n- [flux-controlnet-canny](https:\u002F\u002Fhuggingface.co\u002FXLabs-AI\u002Fflux-controlnet-canny)\n- [flux-RealismLora](https:\u002F\u002Fhuggingface.co\u002FXLabs-AI\u002Fflux-RealismLora)\n- [flux-lora-collections](https:\u002F\u002Fhuggingface.co\u002FXLabs-AI\u002Fflux-lora-collection)\n- [flux-furry-lora](https:\u002F\u002Fhuggingface.co\u002FXLabs-AI\u002Fflux-furry-lora)\n- [flux-ip-adapter](https:\u002F\u002Fhuggingface.co\u002FXLabs-AI\u002Fflux-ip-adapter\u002F)\n## IP 适配器\n\n### 使用说明\n1. 使用 `git pull` 更新 x-flux-comfy，或重新安装。\n2. 从 [OpenAI VIT CLIP large](https:\u002F\u002Fhuggingface.co\u002Fopenai\u002Fclip-vit-large-patch14) 下载 Clip-L 的 `model.safetensors` 文件，并将其放置到 `ComfyUI\u002Fmodels\u002Fclip_vision\u002F*` 目录下。\n3. 从 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002FXLabs-AI\u002Fflux-ip-adapter\u002Ftree\u002Fmain) 下载我们的 IPAdapter，并将其放置到 `ComfyUI\u002Fmodels\u002Fxlabs\u002Fipadapters\u002F*` 目录下。\n4. 使用 `Flux 加载 IPAdapter` 和 `应用 Flux IPAdapter` 节点，选择合适的 CLIP 模型，即可开始生成。\n5. 您可以在本仓库的 workflows 文件夹中找到示例工作流。\n\n### 局限性\nIP Adapter 目前仍处于测试阶段。\n我们无法保证您能立即获得理想效果，可能需要多次尝试才能得到满意的结果。不过，我们会不断努力，逐步简化并优化这一流程。","# x-flux-comfyui 快速上手指南\n\n本指南帮助开发者在 ComfyUI 中快速集成 XLabs 提供的 FLUX.1 控制网（ControlNet）、LoRA 及 IP Adapter 节点。\n\n## 环境准备\n\n*   **系统要求**：支持 Python 3.8+ 的操作系统（Linux\u002FWindows\u002FmacOS）。\n*   **前置依赖**：\n    *   已安装并配置好 **ComfyUI**。\n    *   **显存建议**：标准模式建议 16GB+ VRAM；若需低显存模式（12GB），需额外安装 `ComfyUI-GGUF` 插件。\n    *   **ControlNet 辅助依赖**：使用 ControlNet 功能前，必须安装 [comfyui_controlnet_aux](https:\u002F\u002Fgithub.com\u002FFannovel16\u002Fcomfyui_controlnet_aux) 节点包。\n*   **网络建议**：下载模型时若访问 HuggingFace 困难，建议使用国内镜像源（如 `hf-mirror.com`）或代理加速。\n\n## 安装步骤\n\n1.  **进入插件目录**\n    终端进入 ComfyUI 的自定义节点文件夹：\n    ```bash\n    cd ComfyUI\u002Fcustom_nodes\n    ```\n\n2.  **克隆仓库**\n    下载本项目代码：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FXLabs-AI\u002Fx-flux-comfyui.git\n    ```\n\n3.  **运行初始化脚本**\n    进入插件目录并执行设置脚本以安装依赖：\n    ```bash\n    cd x-flux-comfyui\n    python setup.py\n    ```\n\n4.  **重启 ComfyUI**\n    启动或重启 ComfyUI。首次运行后，系统将自动创建以下模型目录：\n    *   `ComfyUI\u002Fmodels\u002Fxlabs\u002Floras`\n    *   `ComfyUI\u002Fmodels\u002Fxlabs\u002Fcontrolnets`\n    *   `ComfyUI\u002Fmodels\u002Fxlabs\u002Fipadapters` (配置 IP Adapter 时使用)\n\n## 基本使用\n\n### 1. 部署模型\n从 HuggingFace 下载所需模型并放入对应目录（下载后若界面未显示，请点击 ComfyUI 界面上的 **\"Refresh\"** 按钮）：\n\n*   **ControlNet 模型** (Canny\u002FDepth\u002FHED): 放入 `ComfyUI\u002Fmodels\u002Fxlabs\u002Fcontrolnets`\n    *   来源：[flux-controlnet-collections](https:\u002F\u002Fhuggingface.co\u002FXLabs-AI\u002Fflux-controlnet-collections)\n*   **LoRA 模型**: 放入 `ComfyUI\u002Fmodels\u002Fxlabs\u002Floras`\n    *   来源：[flux-lora-collection](https:\u002F\u002Fhuggingface.co\u002FXLabs-AI\u002Fflux-lora-collection) 或 [flux-RealismLora](https:\u002F\u002Fhuggingface.co\u002FXLabs-AI\u002Fflux-RealismLora)\n\n### 2. 构建工作流\n在 ComfyUI 画布中添加以下专用节点进行连接：\n*   加载 ControlNet：使用 `Load ControlNet Model` 节点选择 xlabs 目录下的模型。\n*   加载 LoRA：使用标准的 `Load LoRA` 节点。\n*   参考官方示例工作流：查看仓库内 `workflows` 文件夹获取预设流程图。\n\n### 3. 低显存模式 (12GB VRAM)\n若显存有限，请按以下步骤启用量化推理：\n\n1.  安装 [ComfyUI-GGUF](https:\u002F\u002Fgithub.com\u002Fcity96\u002FComfyUI-GGUF) 插件。\n2.  下载 `flux1-dev-Q4_0.gguf` 模型文件。\n3.  在工作流中，将标准的 \"Load Diffusion Model\" 节点替换为 **\"Unet Loader (GGUF)\"**。\n4.  使用以下参数启动 ComfyUI：\n    ```bash\n    python3 main.py --lowvram --preview-method auto --use-split-cross-attention\n    ```\n\n### 4. IP Adapter 配置 (Beta)\n如需使用图像提示功能：\n1.  下载 OpenAI CLIP-L 模型 (`model.safetensors`) 至 `ComfyUI\u002Fmodels\u002Fclip_vision\u002F`。\n    *   来源：[openai\u002Fclip-vit-large-patch14](https:\u002F\u002Fhuggingface.co\u002Fopenai\u002Fclip-vit-large-patch14)\n2.  下载 XLabs IPAdapter 模型至 `ComfyUI\u002Fmodels\u002Fxlabs\u002Fipadapters\u002F`。\n    *   来源：[flux-ip-adapter](https:\u002F\u002Fhuggingface.co\u002FXLabs-AI\u002Fflux-ip-adapter\u002F)\n3.  使用 `Flux Load IPAdapter` 和 `Apply Flux IPAdapter` 节点连接工作流。\n    *   *注意：该功能处于测试阶段，可能需要多次尝试以获得最佳效果。*","一位独立游戏开发者需要为项目快速生成大量风格统一且结构精准的 2D 角色立绘，同时受限于本地显卡显存仅有 12GB。\n\n### 没有 x-flux-comfyui 时\n- **硬件门槛高**：原生 FLUX.1 模型对显存要求极高，12GB 显存无法直接运行或频繁爆显存崩溃，迫使开发者必须租赁昂贵的云端 GPU。\n- **控制力不足**：缺乏专为 FLUX 优化的 ControlNet（如 Canny、Depth），难以精确锁定角色轮廓和景深，生成的图像经常偏离草图构思。\n- **风格迁移难**：缺少高质量的专用 LoRA 支持，想要复现特定的“写实”或“毛绒”风格需反复调试提示词，效率极低且结果不稳定。\n- **参考图失效**：没有适配的 IP-Adapter，无法让角色保持面部特征一致，导致生成的系列立绘看起来像不同的人。\n\n### 使用 x-flux-comfyui 后\n- **低显存流畅运行**：通过集成 GGUF 量化加载节点及低显存模式参数，成功在 12GB 显存设备上流畅运行 FLUX 模型，无需额外云成本。\n- **精准结构控制**：直接调用内置的 Canny 和 Depth ControlNet 节点，完美将手绘草图转化为细节丰富的成品，构图完全符合预期。\n- **一键风格应用**：轻松加载官方提供的 Realism 或 Furry LoRA 模型，仅用少量步骤即可输出高质量、风格统一的资产。\n- **角色一致性保障**：利用新支持的 IP-Adapter 节点，上传一张参考图即可让不同动作的角色保持相同的面部特征和画风。\n\nx-flux-comfyui 通过降低硬件门槛并提供全套精细化控制组件，让个人开发者也能在本地高效生产工业级的 AI 美术资产。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXLabs-AI_x-flux-comfyui_f6837542.png","XLabs-AI","XLabs AI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FXLabs-AI_4bccb50a.png","A team where ambition is encouraged and growth areas are limitless.","https:\u002F\u002Fgithub.com\u002FXLabs-AI",[20,24],{"name":21,"color":22,"percentage":23},"Python","#3572A5",99.8,{"name":25,"color":26,"percentage":27},"Batchfile","#C1F12E",0.2,1701,104,"2026-04-10T04:09:50","Apache-2.0",3,"未说明","需要 NVIDIA GPU。标准模式未说明具体显存；低显存模式（Low memory mode）可利用 12GB VRAM 运行，需配合 GGUF 量化模型（如 flux1-dev-Q4_0.gguf）及特定启动参数。",{"notes":36,"python":37,"dependencies":38},"1. 该工具是 ComfyUI 的自定义节点，需安装在 `ComfyUI\u002Fcustom_nodes\u002Fx-flux-comfyui\u002F` 目录下并运行 `python setup.py` 进行设置。\n2. 首次运行后会自动创建模型文件夹，LoRA 模型需放入 `ComfyUI\u002Fmodels\u002Fxlabs\u002Floras`，ControlNet 模型需放入 `ComfyUI\u002Fmodels\u002Fxlabs\u002Fcontrolnets`。\n3. 使用 ControlNet 功能必须额外安装 `comfyui_controlnet_aux` 插件。\n4. 低显存模式需遵循 `ComfyUI-GGUF` 仓库的安装指南，使用 GGUF 格式模型，并在启动时添加 `--lowvram --preview-method auto --use-split-cross-attention` 参数，同时在工作流中将加载节点替换为 'Unet Loader (GGUF)'。\n5. IP Adapter 功能处于 Beta 阶段，效果可能不稳定，需手动下载 CLIP-L 视觉模型和专用的 IPAdapter 模型至指定目录。","未说明 (通过 `python setup.py` 和 `python3 main.py` 推断需安装 Python)",[39,40,41],"ComfyUI","comfyui_controlnet_aux (ControlNet 必需)","ComfyUI-GGUF (低显存模式必需)",[43,44],"图像","插件",2,"ready","2026-03-27T02:49:30.150509","2026-04-10T20:37:33.109666",[50,55,60,65,70,75],{"id":51,"question_zh":52,"answer_zh":53,"source_url":54},28226,"加载 Flux LoRA 时出现 'list index out of range' 错误，或者在 'Load Flux Lora' 节点中找不到任何 LoRA 文件，应该放在哪个文件夹？","LoRA 文件必须复制\u002F移动到常规的 `ComfyUI\\models\\loras` 文件夹中，才能在标准的 LoRA 加载器下拉菜单中显示并被识别。请确保文件路径正确。","https:\u002F\u002Fgithub.com\u002FXLabs-AI\u002Fx-flux-comfyui\u002Fissues\u002F57",{"id":56,"question_zh":57,"answer_zh":58,"source_url":59},28227,"运行时遇到 'Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu!' 的设备不匹配错误怎么办？","这个问题通常可以通过更新插件来解决。请尝试执行 `git pull` 更新 x-flux-comfyui 到最新版本，或者在 ComfyUI Manager 中检查并更新该节点。","https:\u002F\u002Fgithub.com\u002FXLabs-AI\u002Fx-flux-comfyui\u002Fissues\u002F11",{"id":61,"question_zh":62,"answer_zh":63,"source_url":64},28228,"使用 xlabsampler 时卡住并报错：'DoubleStreamBlock' object has no attribute 'processor'，如何解决？","这是一个已知问题，已在后续版本修复。如果暂时无法更新，可以手动修改代码进行临时修复：打开 `ComfyUI\u002Fcustom_nodes\u002Fx-flux-comfyui\u002Fsampling.py` 文件，找到第 42 行左右，将 `if isinstance(block.processor, DoubleStreamMixerProcessor):` 修改为 `if hasattr(block, 'processor') and isinstance(block.processor, DoubleStreamMixerProcessor):`，增加对属性存在的检查。","https:\u002F\u002Fgithub.com\u002FXLabs-AI\u002Fx-flux-comfyui\u002Fissues\u002F60",{"id":66,"question_zh":67,"answer_zh":68,"source_url":69},28229,"在非 A100+ GPU（如 RTX 3090\u002F4090 等算力低于 8.0 的显卡）上运行时报错 'bf16 is only supported on A100+ GPUs' 或 'memory_efficient_attention_forward' 错误怎么办？","这是因为您的显卡不支持 bf16 (bfloat16) 精度或相关的 Flash Attention 操作。解决方法是在工作流中将模型权重数据类型（dtype）从 bf16 改为 fp16 (float16) 或 fp32。通常在加载模型的节点（如 Load Unet 或 Load Clip）中设置 dtype 参数为 'fp16' 即可解决。","https:\u002F\u002Fgithub.com\u002FXLabs-AI\u002Fx-flux-comfyui\u002Fissues\u002F24",{"id":71,"question_zh":72,"answer_zh":73,"source_url":74},28230,"ComfyUI Manager 无法找到 x-flux 的相关节点，即使已经更新了 ComfyUI 和 git pull 了代码库，怎么办？","如果更新后仍然找不到节点，可能是显存（VRAM）不足导致节点加载失败，或者是缓存问题。请尝试重启 ComfyUI。如果问题依旧，请确认是否安装了正确的依赖项，并检查控制台日志是否有具体的加载错误信息。有时重新安装插件也能解决管理器识别问题。","https:\u002F\u002Fgithub.com\u002FXLabs-AI\u002Fx-flux-comfyui\u002Fissues\u002F99",{"id":76,"question_zh":77,"answer_zh":78,"source_url":54},28231,"如何简化复杂的 Flux 工作流，有没有最小化的示例可用？","维护者提供了最小化的工作流示例以减少复杂性。用户可以寻找名为 'minimal_flux.json' 的文件或在工作流分享区下载最简配置。这通常只包含核心的加载模型、采样器和保存图像节点，去除了不必要的控制网或其他复杂组件，适合初学者调试。",[],[81,92,100,107,115,123],{"id":82,"name":83,"github_repo":84,"description_zh":85,"stars":86,"difficulty_score":32,"last_commit_at":87,"category_tags":88,"status":46},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,"2026-04-06T06:32:30",[89,90,43,91],"Agent","开发框架","数据工具",{"id":93,"name":94,"github_repo":95,"description_zh":96,"stars":97,"difficulty_score":32,"last_commit_at":98,"category_tags":99,"status":46},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[90,43,89],{"id":101,"name":39,"github_repo":102,"description_zh":103,"stars":104,"difficulty_score":45,"last_commit_at":105,"category_tags":106,"status":46},2271,"Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[90,43,89],{"id":108,"name":109,"github_repo":110,"description_zh":111,"stars":112,"difficulty_score":45,"last_commit_at":113,"category_tags":114,"status":46},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[44,89,43,90],{"id":116,"name":117,"github_repo":118,"description_zh":119,"stars":120,"difficulty_score":45,"last_commit_at":121,"category_tags":122,"status":46},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[44,90],{"id":124,"name":125,"github_repo":126,"description_zh":127,"stars":128,"difficulty_score":32,"last_commit_at":129,"category_tags":130,"status":46},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[131,43,89,90],"语言模型"]