LanPaint

GitHub
1.1k 38 简单 1 次阅读 昨天GPL-3.0图像视频
AI 解读 由 AI 自动生成,仅供参考

LanPaint 是一款专为 Stable Diffusion 系列模型打造的高质量图像修复(Inpainting)采样器,无需额外训练即可直接提升现有模型的修复效果。它主要解决了传统修复方法在复杂场景下边缘生硬、内容不协调或细节模糊的痛点,让 AI 在生成最终像素前能进行多轮“思考”迭代,从而以更优的计算策略换取更自然、逼真的修复画质。

该工具特别适合希望突破模型原生修复极限的创作者、设计师以及研究人员使用。对于普通用户,若通过 ComfyUI 工作流操作,也能轻松获得专业级的图像编辑能力;对于开发者,它提供了清晰的接口以集成到各类扩散模型应用中。

LanPaint 的核心技术亮点在于其独特的“思考模式”(Think Mode),这是一种基于渐进式精确条件采样的算法。它不依赖昂贵的重新训练,而是通过优化采样过程,让模型在去噪前充分理解掩码区域与周围环境的逻辑关系。目前,LanPaint 不仅全面支持 ComfyUI 插件化部署,还率先实现了对 Z-Image、Z-Image-Base 等新型架构的支持,甚至拓展到了基于 Wan 2.2 的视频修复与扩展(Outpainting)领域,展现了极强的通用性与前瞻性。

使用场景

一位电商设计师急需为促销海报移除模特衣服上过时的品牌 Logo,并自然替换为新的活动标语,同时必须保持衣物褶皱和光影的完美连贯。

没有 LanPaint 时

  • 边缘融合生硬:传统重绘采样器往往无法理解掩码周围的复杂纹理,导致修补区域与原始衣物之间出现明显的接缝或光晕。
  • 结构逻辑断裂:直接重绘容易忽略衣物的物理褶皱走向,新生成的文字像浮在表面,缺乏随布料起伏的真实立体感。
  • 模型兼容性差:为了获得较好效果,不得不专门寻找支持重绘的微调模型,无法直接利用手头现有的高质量通用大模型。
  • 反复试错成本高:需要多次调整蒙版羽化值和重绘幅度,耗费大量时间微调参数仍难以达到“无痕”效果。

使用 LanPaint 后

  • 智能“思考”上下文:LanPaint 的"Think Mode"让模型在去噪前进行多步推理,精准捕捉周围像素特征,实现了掩码边界的天衣无缝融合。
  • 完美保留几何结构:生成的新标语严格遵循原有衣物的褶皱形态和光照方向,仿佛原本就印在衣服上一样自然逼真。
  • 通用模型即插即用:无需重新训练或切换特定模型,直接在 ComfyUI 中调用任意 Stable Diffusion 模型即可实现电影级的重绘质量。
  • 一次生成即达标:凭借渐进式精确采样技术,大幅减少了重复生成的次数,将原本半小时的修图工作缩短至几分钟。

LanPaint 通过让模型在重绘前深度“思考”,彻底解决了复杂场景下局部编辑的结构断层问题,让任何开源模型都能瞬间具备专业级的图像修复能力。

运行环境要求

操作系统
  • 未说明 (基于 ComfyUI,通常支持 Windows
  • Linux
  • macOS)
GPU
  • 必需 (NVIDIA GPU 推荐)
  • 显存需求取决于具体模型和视频帧数:视频修复建议限制在 40 帧以内以保证稳定性,长序列处理资源消耗显著增加
  • 具体型号未说明,但需支持所选扩散模型(如 Wan 2.2, Flux, SDXL 等)的运行需求
内存

未说明 (视频处理和多步“思考”模式会显著增加内存占用)

依赖
notes1. 本工具主要作为 ComfyUI 的扩展节点运行,需先安装 ComfyUI 及 ComfyUI-Manager。 2. 支持多种模型(Z-image, Wan 2.2, Flux, SDXL 等),无需重新训练。 3. 视频修复功能处于 Beta 阶段,处理长序列(如 81 帧)耗时显著且可能不稳定,建议限制在 40 帧以内。 4. 在蒸馏模型(如 Flux.dev)上性能可能下降,建议使用较低的 guidance scale (1.0-2.0)。 5. v1.5.0 版本修复了可能导致图像模糊的隐藏 bug。
python未说明 (依赖宿主 ComfyUI 环境,通常要求 Python 3.8+)
ComfyUI (>0.3.11)
ComfyUI-Manager
torch (版本依模型而定)
diffusers (可选,通过 LanPaint-Diffusers)
LanPaint hero image

快速开始

LanPaint:带有“思考模式”的通用修复采样器

TMLR PDF Python 基准测试 ComfyUI 插件 Hugging Face 博客 GitHub 星标 Discord

适用于所有模型的通用修复能力。LanPaint 采样器允许模型在去噪之前通过多次迭代进行“思考”,从而使您能够投入更多计算时间以获得更优质的修复效果。

这是被 TMLR 接受的论文《LanPaint:无需训练的扩散修复,具有渐近精确且快速的条件采样》(https://arxiv.org/abs/2502.03491)的官方实现。

该仓库是用于 ComfyUI 的扩展插件。

Diffusers 支持:由 @charrywhite 提供的 LanPaint-Diffusers

用于复现论文结果的基准测试代码:LanPaintBench

引用

@article{
zheng2025lanpaint,
title={LanPaint: Training-Free Diffusion Inpainting with Asymptotically Exact and Fast Conditional Sampling},
author={Candi Zheng and Yuan Lan and Yang Wang},
journal={Transactions on Machine Learning Research},
issn={2835-8856},
year={2025},
url={https://openreview.net/forum?id=JPC8JyOUSW},
note={}
}

🎉 新消息 2026:加入我们的 Discord!

加入我们的 Discord,分享经验、讨论功能并探索未来开发方向。

v1.5.0 修复了一个重要的隐藏 bug,该 bug 会降低性能并可能导致图像模糊(尤其是在使用 z-image-base 时),同时也提升了 LanPaint 在其他模型上的整体性能。 如果您的修复结果出现奇怪的(发光或破损)遮罩边界,请查看此 issue

🎬 新功能:LanPaint 现在支持基于 Z-Image 的修复和外扩!

原图 遮罩 修复后
原始 Z-image 遮罩后的 Z-image 修复后的 Z-image

🎬 新功能:LanPaint 现在也支持 Z-Image-Base!

原图 遮罩 修复后
原始 Z-image-base 遮罩后的 Z-image-base 修复后的 Z-image-base

🎬 新功能:LanPaint 现在支持基于 Wan 2.2 的视频修复和外扩!

原始视频 遮罩(编辑 T 恤文字) 修复结果
原始 遮罩 结果

视频修复示例:81 帧,具有时间一致性

请查看我们最新的 Wan 2.2 视频示例Wan 2.2 图像示例,以及对 Qwen Image Edit 2509 的支持。

目录

功能特性

  • 通用兼容性 – 可立即与几乎任何模型(Z-image、Z-image-base、Hunyuan、Wan 2.2、Qwen Image/Edit、HiDream、SD 3.5、Flux系列、SDXL、SD 1.5 或自定义 LoRA)及 ControlNet 配合使用。
    修复结果 13
  • 无需训练 – 直接与您现有的模型配合使用,开箱即用。
  • 易于使用 – 工作流程与标准 ComfyUI KSampler 完全相同。
  • 灵活的掩码处理 – 支持任意形状、大小和位置的掩码,用于图像修复或扩展。
  • 无需变通方法 – 生成 100% 全新内容(无混合或平滑处理),不依赖部分去噪技术。
  • 超越图像修复 – 您甚至可以将其用作生成一致角色的简单方式。

警告:由于与 LoRA 训练类似的问题,LanPaint 在蒸馏模型上性能有所下降,例如 Flux.dev。请使用较低的 flux 引导值(1.0–2.0)来缓解此问题参见此处

快速入门

  1. 安装 ComfyUI:按照官方ComfyUI 安装指南在您的系统上设置 ComfyUI。或确保您的 ComfyUI 版本 > 0.3.11。
  2. 安装 ComfyUI 管理器:添加ComfyUI 管理器,以便轻松管理扩展插件。
  3. 安装 LanPaint 节点
    • 通过 ComfyUI 管理器:在管理器中搜索“LanPaint”并直接安装。
    • 手动安装:在 ComfyUI 管理器中点击“通过 Git URL 安装”,并输入以下 GitHub 仓库链接:
      https://github.com/scraed/LanPaint.git
      
      或者将此仓库克隆到 ComfyUI/custom_nodes 文件夹中。
  4. 重启 ComfyUI:重启 ComfyUI 以加载 LanPaint 节点。

安装完成后,您将在 ComfyUI 的“采样”类别下找到 LanPaint 节点。像使用默认的 KSampler 一样使用它们,即可实现高质量的图像修复!

使用示例说明:

  1. 导航至 example 文件夹(例如 example_1),下载所有图片。
  2. InPainted_Drag_Me_to_ComfyUI.png 拖入 ComfyUI,以加载工作流。
  3. 下载所需的模型(例如点击“本示例所用模型”)。
  4. 在 ComfyUI 中加载该模型。
  5. Masked_Load_Me_in_Loader.png 上传至 “用于图像修复的掩码图像” 组中的 “加载图像” 节点(从左数第二个),或 “准备图像” 节点。
  6. 提交任务队列,您将获得 LanPaint 的修复结果。部分示例还提供了以下方法的修复结果作为对比:

视频示例(测试版)

LanPaint 现已支持使用 Wan 2.2 进行视频修复,能够在保持时间一致性的同时,无缝修复视频帧中的遮挡区域。

注意:LanPaint 支持较长序列的视频修复(例如 81 帧),但处理时间会显著增加(详情请参阅资源消耗部分),且性能可能变得不稳定。为获得最佳效果和稳定性,我们建议将视频修复限制在40 帧或更少

Wan 2.2 视频修复

示例:Wan2.2 t2v 14B,480p 视频(1:6),40 帧,LanPaint K Sampler,2 步思考

原始视频 掩码(添加一顶白帽) 修复结果
原始视频 掩码 修复结果

查看工作流与掩码

您需要遵循 ComfyUI 版本的Wan2.2 T2V 工作流,以下载并安装 T2V 模型。

Wan 2.2 5B 视频修复

与 Wan 2.2 14B 类似,但工作流略有不同。查看工作流与掩码

Wan 2.2 视频扩展

借助基于 Wan 2.2 的 LanPaint 视频扩展功能,您可以将视频画面延伸至原始边界之外。此功能允许您扩展视频画布,同时保持流畅的运动和连贯的上下文。

示例:Wan2.2 t2v 14B,480p 视频(1:1 扩展至 11:6),40 帧,LanPaint K Sampler,2 步思考

原始视频 掩码(扩展至 880x480) 扩展结果
原始视频 掩码 扩展结果

查看工作流与掩码

您需要遵循 ComfyUI 版本的Wan2.2 T2V 工作流,以下载并安装 T2V 模型。

资源消耗

处理模式 分辨率 处理帧数 所需显存 总运行时间(20步)
修复填充 880×480(11:6) 40帧 39.8 GB 05:37 分钟
修复填充 480×480(1:1) 40帧 38.0 GB 05:35 分钟
扩展填充 880×480(11:6) 40帧 40.2 GB 05:36 分钟
修复填充 880×480(11:6) 81帧 43.3 GB 16:23 分钟
修复填充 480×480(1:1) 81帧 39.8 GB 14:25 分钟
扩展填充 880×480(11:6) 81帧 42.6 GB 13:46 分钟

测试平台:所有测试均在NVIDIA RTX Pro 6000上进行。
所用模型wan2.2_t2v_low_noise_14B_fp8_scaled.safetensorswan2.2_t2v_high_noise_14B_fp8_scaled.safetensors
处理步骤:20次采样步骤 × 2(LanPaint的思考步骤)。

:显存需求由模型而非LanPaint本身决定。为进一步降低显存占用,建议减少生成帧数,并将CLIP加载至CPU。

图像示例

Hunyuan T2I 示例:修复填充(LanPaint K采样器,5步思考)

我们很高兴地宣布,LanPaint现已支持使用Hunyuan文本到图像生成模型进行修复填充。

查看工作流与掩码

您需要按照ComfyUI版本的Hunyuan工作流下载并安装该模型。

Wan2.2 示例:修复填充(LanPaint K采样器,5步思考)

我们很高兴地宣布,LanPaint现已支持使用Wan2.2 T2V模型进行Wan2.2文本到图像生成。

修复填充结果45
查看工作流与掩码

您需要按照ComfyUI版本的Wan2.2 T2V工作流下载并安装T2V模型。

Z-image 示例:修复填充(LanPaint K采样器,5步思考)

LanPaint还支持使用Z-image文本到图像模型进行修复填充。

查看原图/掩码图/修复填充图对比
原图 掩码图 修复填充图
原Z-image 掩码Z-image 修复填充Z-image

查看工作流与掩码

查看Z-image扩展填充(原图/掩码图/扩展填充图)
原图 掩码图 扩展填充图
原Z-image扩展填充 掩码Z-image扩展填充 扩展填充Z-image

查看扩展填充工作流与掩码

您可以从Z-image下载适用于ComfyUI的Z-image模型。

Z-image-base 示例:修复填充(LanPaint K采样器,3步思考)

LanPaint也支持使用Z-image-base模型进行修复填充。

警告(稳定性):Z-image-base与LanPaint结合时容易发散。请从较小的LanPaint_StepSize较少的思考次数(较低的LanPaint_NumSteps)开始,仅在稳定的情况下逐步增加。

查看原图/掩码图/修复填充图对比
原图 掩码图 修复填充图
原Z-image-base 掩码Z-image-base 修复填充Z-image-base

查看工作流与掩码

工作流模板(JSON):Z_image_base_Inpaint.json

Wan2.2 示例:部分修复填充(LanPaint K采样器,5步思考)

有时我们并不希望完全替换原有内容,而是让修复后的图像保留一些原始图像的特征。实现这一目标的一种方法是使用编辑模型,如Qwen Image Edit进行修复填充。另一种方法则是进行部分修复填充:让扩散过程从中间步骤开始,而不是从第0步开始。

修复填充结果46
查看工作流与掩码

您需要按照ComfyUI版本的Wan2.2 T2V工作流下载并安装T2V模型。

Qwen Edit 2509 示例:修复填充

请查看我们最新更新的Mased Qwen Edit工作流,适用于Qwen Image Edit 2509。您可以在Qwen Image Edit 2509 Comfy下载该模型。此工作流同样支持Qwen Image Edit 2511。

Qwen 结果3

示例 Qwen 编辑 2508:InPaint

Qwen 结果 2 请查看 Mased Qwen 编辑工作流。您需要按照 ComfyUI 版本的 Qwen 图像编辑工作流 下载并安装模型。

示例 Qwen 图像:InPaint(LanPaint K 采样器,5 步思考)

修补结果 14
查看工作流与掩码

您需要按照 ComfyUI 版本的 Qwen 图像工作流 下载并安装模型。

以下示例使用随机种子 0 生成一批 4 张图像,用于展示方差并进行公平比较。(注意:生成 4 张图像可能会超出您的 GPU 显存;请根据需要调整批次大小。)

Qwen 结果 1 同时请查看 Qwen Inpaint 工作流Qwen Outpaint 工作流。您需要按照 ComfyUI 版本的 Qwen 图像工作流 下载并安装模型。

示例 HiDream:InPaint(LanPaint K 采样器,5 步思考)

修补结果 8
查看工作流与掩码

您需要按照 ComfyUI 版本的 HiDream 工作流 下载并安装模型。

示例 HiDream:OutPaint(LanPaint K 采样器,5 步思考)

修补结果 8
查看工作流与掩码

您需要按照 ComfyUI 版本的 HiDream 工作流 下载并安装模型。感谢 Amazon90 提供此示例。

示例 SD 3.5:InPaint(LanPaint K 采样器,5 步思考)

修补结果 8
查看工作流与掩码

您需要按照 ComfyUI 版本的 SD 3.5 工作流 下载并安装模型。

示例 Flux.2.Dev:InPaint(LanPaint K 采样器,5 步思考)

查看原图 / 掩码图 / 修补图对比
原图 掩码图 修补图
原图 Flux.2.Dev 掩码图 Flux.2.Dev 修补图 Flux.2.Dev

查看工作流与掩码

本示例所用模型

(注:Flux.2.Dev 上未启用“提示优先”模式,因为它不使用 CFG 引导。)

示例 Flux 2 klein:InPaint(LanPaint K 采样器,2 步思考)

查看原图 / 掩码图 / 修补图对比
原图 掩码图 修补图
原图 Flux 2 klein 掩码图 Flux 2 klein 修补图 Flux 2 klein

查看工作流与掩码

本示例所用模型。如果您在 Comfy 0.11 和 0.12 上遇到质量问题,请查看 此问题

示例 Flux:InPaint(LanPaint K 采样器,5 步思考)

修补结果 7
查看工作流与掩码 本示例所用模型 (注:Flux 上未启用“提示优先”模式,因为它不使用 CFG 引导。)

示例 SDXL 0:角色一致性(侧视图生成)(LanPaint K 采样器,5 步思考)

修补结果 6
查看工作流与掩码 本示例所用模型

(技巧 1:您可以通过 Photoshop 多次复制角色图像来强化角色特征。这里我额外制作了一张副本。)

(技巧 2:使用诸如多视角、多角度、克隆、转身等提示词。请使用 LanPaint 的“提示优先”模式(不支持 Flux)。)

(技巧 3:请记住,LanPaint 可以进行修补:遮盖不一致的区域并再次尝试!)

示例 SDXL 1:篮子变篮球(LanPaint K 采样器,2 步思考)。

修补结果 1
查看工作流与掩码 本示例所用模型

示例 SDXL 2:白衬衫变蓝衬衫(LanPaint K 采样器,5 步思考)

修补结果 2
查看工作流与掩码 本示例所用模型

示例 SDXL 3:微笑变悲伤(LanPaint K 采样器,5 步思考)

修补结果 3
查看工作流与掩码 本示例所用模型

示例 SDXL 4:损伤修复(LanPaint K采样器,5步思考)

修复结果 4
查看工作流与掩码 本示例使用的模型

示例 SDXL 5:大规模损伤修复(LanPaint K采样器,20步思考)

修复结果 5
查看工作流与掩码 本示例使用的模型

更多用例如在微调模型上进行修复,以及人脸替换,感谢Amazon90

使用方法

工作流设置
与默认的 ComfyUI KSampler 相同——只需将节点替换为 LanPaint KSampler 即可。修复工作流与 SetLatentNoiseMask 的修复工作流一致。

注意

  • LanPaint 需要二值掩码(值为 0 或 1),不能带有透明度或平滑处理。为确保兼容性,请在您的掩码编辑器中将掩码的透明度和硬度设置为最大值。在修复过程中,任何带有平滑或渐变的掩码都会自动转换为二值掩码。
  • LanPaint 在很大程度上依赖于文本提示来指导修复过程——请明确描述您希望在遮罩区域内生成的内容。如果结果出现伪影或不匹配的元素,请使用有针对性的负面提示来纠正。

基础采样器

采样器

  • LanPaint KSampler:最基础且易于使用的修复采样器。
  • LanPaint KSampler(高级):全面控制所有参数。

LanPaint KSampler

简化界面,配有推荐默认值:

  • 步数:20–50。步数越多,“思考”越充分,效果越好。
  • LanPaint NumSteps:去噪前的思考轮次。大多数任务建议设置为 5(即比无思考采样慢 5 倍)。对于更具挑战性的任务,可设置为 10。
  • LanPaint Prompt 模式:图像优先模式与提示优先模式。图像优先模式更注重图像本身,会根据图像上下文进行修复(可能忽略提示);而提示优先模式则更强调提示内容。建议在需要保持角色一致性等任务时使用提示优先模式。(从技术层面讲,提示优先模式会将 BIG 分数中的 CFG 缩放系数调整为负值以强化提示,但这可能会降低图像质量。)

LanPaint KSampler(高级)

完全参数控制: 关键参数

参数 范围 描述
Steps 0–100 扩散采样的总步数。数值越高,修复效果越好。建议设置为 20–50。
LanPaint_NumSteps 0–20 每个去噪步骤中的推理迭代次数(“思考深度”)。简单任务:2–5。困难任务:5–10
LanPaint_Lambda 0.1–50 内容对齐强度(数值越高,约束越严格)。建议设置为 4.0–10.0
LanPaint_StepSize 0.1–1.0 每次思考步骤的大小。建议设置为 0.1–0.5。
LanPaint_Beta 0.1–2.0 遮罩区域与非遮罩区域之间的步长比例。较小的值可以抵消较高的 Lambda 值。建议设置为 1.0
LanPaint_Friction 0.0–100.0 朗之万动力学的摩擦力。数值越高,速度越慢但越稳定;数值越低,速度越快但越不稳定。建议设置为 10.0–20.0
LanPaint_EarlyStop 0–10 在最终采样步骤之前停止 LanPaint 迭代。有助于在某些情况下去除伪影。建议设置为 1–5
LanPaint_PromptMode 图像优先 / 提示优先 图像优先模式侧重于图像上下文,可能忽略提示。提示优先模式则更注重提示内容。

如需了解每个参数的详细说明,只需将鼠标悬停在相应输入字段上,即可查看包含附加信息的工具提示。

LanPaint Mask Blend

此节点根据掩码将原始图像与修复后的图像混合。如果您希望未遮罩区域的像素与原始图像完全一致,此节点非常有用。

LanPaint KSampler(高级)调优指南

针对具有挑战性的修复任务:

1️⃣ 提升质量 如果修复结果未达到预期,请增加总采样步数(非常重要!)、LanPaint_NumSteps(思考迭代次数)或LanPaint_Lambda

2️⃣ 提升速度 减少LanPaint_NumSteps以加快生成速度!若希望获得更好的效果但仍需减少步数,可考虑: - 增大 LanPaint_StepSize以加快思考过程。 - 降低 LanPaint_Friction以使朗之万动力学更快收敛。

3️⃣ 解决不稳定问题
如果发现结果纹理异常,可尝试:

  • 降低LanPaint_Friction以提高朗之万动力学的稳定性。
  • 减小LanPaint_StepSize以使用更小的步长。
  • 如果使用了较高的 Lambda 值,可适当降低LanPaint_Beta

⚠️ 注意事项

  • 为有效调优,请固定种子,并逐步调整参数,同时观察结果。这有助于隔离每个设置的影响。最好使用一批图像进行测试,以免过度拟合单张图像。

社区展示

看看社区是如何使用 LanPaint 的吧!以下是一些用户创建的教程:

欢迎提交 PR 将您的教程/视频添加到这里,或通过Issue提供详细信息!

常见问题解答

与裁剪拼接协同工作

更新

  • 2026年3月2日
    • v1.5.0:修复了一个隐藏的性能瓶颈问题,该问题会导致图像模糊(尤其是在 z-image-base 上),同时也提升了其他模型上 LanPaint 的整体性能。
  • 2026年1月30日
    • 添加 Z-image-base 的文档及 Example_25 工作流示意图。
  • 2025年8月8日
    • 增加对 Qwen 图像模型的支持。
  • 2025年6月21日
    • 更新算法,提升稳定性和外扩绘图性能。
    • 添加外扩绘图示例。
    • 支持自定义采样器(感谢 MINENEMA)。
  • 2025年6月4日
    • 增加更多采样器支持。
    • 在高级采样器中加入提前停止功能。
  • 2025年5月28日
    • 对 Langevin 求解器进行重大更新。现在速度更快、稳定性更高。
    • 大幅简化了高级采样器的参数设置。
    • 修复了 Flux 和 SD 3.5 上的性能问题。
  • 2025年4月16日
    • 增加对 Primary HiDream 的支持。
  • 2025年3月22日
    • 增加对 Primary Flux 的支持。
    • 新增“戏弄模式”。
  • 2025年3月10日
    • LanPaint 进行了一次重大更新!所有示例现均采用 LanPaint K 采样器,界面更加简洁,性能和稳定性也得到了提升。
  • 2025年3月6日:

待办事项

  • 尝试实现细节增强模块。
  • 提供无 GUI 的推理代码。 请参阅我们的本地 Python 基准测试代码 LanPaintBench

引用

@article{
zheng2025lanpaint,
title={LanPaint:无需训练的扩散模型内补画技术——渐近精确且快速的条件采样},
author={Candi Zheng, Yuan Lan, Yang Wang},
journal={机器学习研究汇刊},
issn={2835-8856},
year={2025},
url={https://openreview.net/forum?id=JPC8JyOUSW},
note={}
}

版本历史

1.5.32026/04/11
1.5.22026/03/26
1.5.02026/03/02
1.4.132026/02/02
1.4.112026/01/27
1.4.102026/01/13
1.4.82025/12/25
1.4.72025/12/15
1.4.62025/12/06
1.4.52025/12/04
1.4.42025/11/22
1.4.32025/11/17
1.4.22025/10/26
1.4.12025/10/16
1.4.02025/10/02
1.3.22025/09/17
1.3.12025/08/25
1.3.02025/08/21
1.2.02025/08/08
1.1.02025/06/21

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|2周前
Agent开发框架图像

n8n

n8n 是一款面向技术团队的公平代码(fair-code)工作流自动化平台,旨在让用户在享受低代码快速构建便利的同时,保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点,帮助用户轻松连接 400 多种应用与服务,实现复杂业务流程的自动化。 n8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”:既可以通过直观的可视化界面拖拽节点搭建流程,也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外,n8n 原生集成了基于 LangChain 的 AI 能力,支持用户利用自有数据和模型构建智能体工作流。在部署方面,n8n 提供极高的自由度,支持完全自托管以保障数据隐私和控制权,也提供云端服务选项。凭借活跃的社区生态和数百个现成模板,n8n 让构建强大且可控的自动化系统变得简单高效。

184.7k|★★☆☆☆|今天
数据工具开发框架Agent

AutoGPT

AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台,核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点,让用户只需设定目标,AI 即可自主规划步骤、调用工具并持续运行直至完成任务。 无论是开发者、研究人员,还是希望提升工作效率的普通用户,都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体;研究人员能基于开源架构探索多智能体协作机制;而非技术背景用户也可直接选用预置的智能体模板,立即投入实际工作场景。 AutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑,每个块负责单一动作,灵活且易于调试。同时,平台支持本地自托管与云端部署两种模式,兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本,即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛,让人人都能成为 AI 的创造者与受益者。

183.6k|★★★☆☆|今天
Agent语言模型插件

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|2周前
开发框架图像Agent

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

109.2k|★★☆☆☆|2天前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|1周前
插件Agent图像