stable-fast

GitHub
1.3k 92 中等 1 次阅读 1周前MIT视频开发框架图像
AI 解读 由 AI 自动生成,仅供参考

stable-fast 是一个专为 NVIDIA GPU 设计的推理优化框架,旨在大幅提升 HuggingFace Diffusers 库中各类生成式模型(如图像生成、视频生成模型)的运行速度。它主要解决了传统加速方案(如 TensorRT)编译耗时过长的问题:以往可能需要数十分钟才能完成模型编译,而 stable-fast 仅需数秒即可就绪,同时还能保持业界领先的推理性能。

该工具特别适合需要高效部署扩散模型的开发者、研究人员以及追求本地快速生成的技术爱好者。无论是运行最新的 FLUX、Wan 2.1 视频模型,还是使用 Stable Video Diffusion,stable-fast 都能提供流畅的体验。其独特的技术亮点在于“开箱即用”地支持动态形状(dynamic shape)、LoRA 微调权重以及 ControlNet 控制网络,无需复杂的额外配置。这意味着用户在尝试不同分辨率或叠加多种插件时,无需重新编译模型,极大地提升了工作流的灵活性与效率。虽然目前针对最新架构的主动开发已转向新项目,但 stable-fast 依然是当前兼容旧款主流扩散模型、实现极速推理的可靠选择。

使用场景

一家专注于短视频营销的创意工作室,正利用 FLUX-dev 和 Wan 2.1 模型为客户批量生成带有特定品牌风格(LoRA)的高清宣传视频。

没有 stable-fast 时

  • 编译等待漫长:每次切换新的 LoRA 风格或调整分辨率,基于 TensorRT 的方案都需要数十分钟重新编译模型,严重打断创作流。
  • 动态适配困难:无法灵活支持动态形状(dynamic shape),一旦视频尺寸微调,就必须重新构建优化引擎,缺乏灵活性。
  • 硬件资源闲置:在漫长的编译和低速推理过程中,昂贵的 NVIDIA GPU 利用率波动大,单位时间内的产出量极低。
  • 新功能兼容慢:面对最新的 StableVideoDiffusionPipeline 等更新,旧有优化框架往往滞后,无法立即享受性能红利。

使用 stable-fast 后

  • 秒级即时编译:stable-fast 将模型编译时间从几十分钟压缩至几秒钟,切换 LoRA 或调整参数几乎无需等待,实现“即改即看”。
  • 原生动态支持:开箱即用支持动态形状、LoRA 和 ControlNet,无论视频分辨率如何变化,都能自动适配并保持高速推理。
  • 推理性能飞跃:在 NVIDIA GPU 上达成 SOTA 级别的推理速度,显著缩短单视频生成耗时,使批量生产成为可能。
  • 前沿模型同步:无缝支持最新的 FLUX-dev 和 Wan 2.1 架构,确保团队始终能用最快速度部署业界最先进的生成模型。

stable-fast 通过秒级编译与极致推理加速,将 AI 视频工作流从“等待编译”的瓶颈中解放,真正实现了创意到成片的实时转化。

运行环境要求

操作系统
  • Linux
  • Windows (仅限 WSL2)
GPU

必需 NVIDIA GPU,需安装 CUDNN 和 CUBLAS,测试环境为 CUDA 12.1

内存

未说明

依赖
notesmacOS 不支持。Windows 用户若从源码编译可能无法使用 Triton(可跳过),建议直接安装预编译的 Wheel 包。从源码编译可能需要数十分钟,建议安装 ninja 加速构建。为了获得最佳性能,必须启用 xformers 和 Triton。该工具主要针对 HuggingFace Diffusers 模型进行优化,支持动态形状、LoRA 和 ControlNet。
python3.10
torch>=2.1.0
xformers>=0.0.22
triton>=2.1.0
diffusers>=0.19.3
stable-fast hero image

快速开始

🚀稳定快速

使用LoRA的极速FLUX-dev

使用LoRA的极速Wan 2.1 T2V

使用LoRA的极速Wan 2.1 I2V

🎉重要公告🎉

经过一年的延迟,我很高兴地宣布我计划构建一个新项目Comfy-WaveSpeed,以提供使用ComfyUI运行的所有模型的最快推理速度。 它刚刚开始,我希望它会成为一个很棒的项目👏。请继续关注它,并给我反馈👍!

轮子 上传Python包 在Colab中打开

注意

stable-fast的积极开发已被暂停。目前,我正在从事一个基于torch._dynamo的新项目,目标是针对像stable-cascadeSD3Sora这样的新型模型。 它将更快、更灵活,并且支持更多的硬件后端,而不仅仅是CUDA

欢迎联系。

Discord频道

stable-fast在__所有__类型的扩散模型上都实现了最先进的推理性能,即使是使用最新的StableVideoDiffusionPipeline也是如此。 与需要花费数十分钟来编译模型的TensorRTAITemplate不同,stable-fast只需几秒钟即可完成模型编译。 stable-fast还开箱即用地支持动态形状LoRAControlNet

模型 torch torch.compile AIT oneflow TensorRT stable-fast
SD 1.5 (毫秒) 1897 1510 1158 1003 991 995
SVD-XT (秒) 83 70 47

注意: 在基准测试期间,TensorRT是在静态批量大小启用CUDA图的情况下进行测试的,而stable-fast则是在动态形状下运行的。

简介

这是什么?

stable-fast 是一个针对 HuggingFace DiffusersNVIDIA GPU 上的超轻量级推理优化框架。 stable-fast 通过利用一些关键技术与特性,提供了极快的推理优化:

  • CUDNN 卷积融合: stable-fast 实现了一系列功能完备且完全兼容的 CUDNN 卷积融合算子,适用于各种 Conv + Bias + Add + Act 计算模式的组合。
  • 低精度与融合 GEMM: stable-fast 实现了一组以 fp16 精度进行计算的融合 GEMM 算子,其速度比 PyTorch 的默认设置更快(即以 fp16 读写数据,但以 fp32 进行计算)。
  • 融合线性 GEGLU: stable-fast 能够将 GEGLU(x, W, V, b, c) = GELU(xW + b) ⊗ (xV + c) 融合为一个 CUDA 核心。
  • NHWC 与融合 GroupNorm: stable-fast 使用 OpenAI 的 Triton 实现了一个高度优化的 NHWC GroupNorm + Silu 融合算子,从而消除了对内存格式转换算子的需求。
  • 全追踪模型: stable-fast 改进了 torch.jit.trace 接口,使其更适合追踪复杂模型。几乎 StableDiffusionPipeline/StableVideoDiffusionPipeline 的每一个部分都可以被追踪并转换为 TorchScript。它比 torch.compile 更加稳定,且 CPU 开销显著低于 torch.compile,同时支持 ControlNetLoRA
  • CUDA 图: stable-fast 可以将 UNetVAETextEncoder 捕获为 CUDA 图格式,从而在小批量情况下降低 CPU 开销。该实现还支持动态形状。
  • 融合多头注意力: stable-fast 直接使用 xformers,并使其与 TorchScript 兼容。

我的下一个目标是让 stable-fast 继续保持作为 diffusers 最快的推理优化框架之一,同时为 transformers 提供加速和显存占用减少的功能。 事实上,我已经使用 stable-fast 来优化 LLM,并取得了显著的加速效果。 不过,我还需要进一步完善,使其更加稳定、易于使用,并提供一个稳定的用户界面。

与其他加速库的区别

  • 快速: stable-fast 专为 HuggingFace Diffusers 优化。它在众多库中都能达到高性能,并且仅需几秒钟即可完成非常快速的编译。在编译时间上,它显著快于 torch.compileTensorRTAITemplate
  • 极简: stable-fast 作为一个 PyTorch 的插件框架运行。它充分利用现有的 PyTorch 功能和基础设施,能够与其他加速技术以及流行的微调技术和部署方案兼容。
  • 最大兼容性: stable-fast 兼容所有版本的 HuggingFace DiffusersPyTorch。它同样兼容 ControlNetLoRA,甚至开箱即用就支持最新的 StableVideoDiffusionPipeline

安装

注意: stable-fast 目前仅在 LinuxWindows 的 WSL2 上进行了测试。 您需要先安装支持 CUDA 的 PyTorch(建议使用 1.12 至 2.1 版本)。

我仅在 CUDA 12.1Python 3.10 环境下,使用 torch>=2.1.0xformers>=0.0.22triton>=2.1.0stable-fast 进行了测试。 其他版本或许也能成功构建和运行,但无法保证。

安装预编译的 wheel 包

Releases 页面 下载适合您系统的 wheel 文件,并使用 pip3 install <wheel file> 进行安装。

目前已有适用于 LinuxWindows 的 wheel 包。

# 将 cu121 替换为您使用的 CUDA 版本,<wheel file> 替换为 wheel 文件的路径。
# 请确保 wheel 文件与您的 PyTorch 版本兼容。
pip3 install --index-url https://download.pytorch.org/whl/cu121 \
    'torch>=2.1.0' 'xformers>=0.0.22' 'triton>=2.1.0' 'diffusers>=0.19.3' \
    '<wheel file>'

从源码安装

# 请确保已安装 CUDNN/CUBLAS。
# https://developer.nvidia.com/cudnn
# https://developer.nvidia.com/cublas

# 首先安装带有 CUDA 支持的 PyTorch 及其他依赖包。
# Windows 用户:Triton 可能不可用,可跳过。
# 注意:必须安装 wheel 包,否则在构建时会遇到 `No module named 'torch'` 错误。
pip3 install wheel 'torch>=2.1.0' 'xformers>=0.0.22' 'triton>=2.1.0' 'diffusers>=0.19.3'

# (可选)这会使构建过程更快。
pip3 install ninja

# 如果您在不同类型的 GPU 上运行和构建,请设置 TORCH_CUDA_ARCH_LIST。
# 您也可以从 PyPI 安装最新稳定版。
# pip3 install -v -U stable-fast
pip3 install -v -U git+https://github.com/chengzeyi/stable-fast.git@main#egg=stable-fast
# (这可能需要数十分钟)

注意: 任何不在 sfast.compilers 中的用法均不保证向后兼容。

注意: 为了获得最佳性能,需要安装并启用 xformers 和 OpenAI 的 triton>=2.1.0。 您可能需要从源码构建 xformers,以使其与您的 PyTorch 兼容。

使用方法

优化 StableDiffusionPipeline

stable-fast 能直接优化 StableDiffusionPipelineStableDiffusionPipelineXL

import time
import torch
from diffusers import (StableDiffusionPipeline,
                       EulerAncestralDiscreteScheduler)
from sfast.compilers.diffusion_pipeline_compiler import (compile,
                                                         CompilationConfig)

def load_model():
    model = StableDiffusionPipeline.from_pretrained(
        'runwayml/stable-diffusion-v1-5',
        torch_dtype=torch.float16)

    model.scheduler = EulerAncestralDiscreteScheduler.from_config(
        model.scheduler.config)
    model.safety_checker = None
    model.to(torch.device('cuda'))
    return model

model = load_model()

config = CompilationConfig.Default()
# 建议启用 xformers 和 Triton 以获得最佳性能。
try:
    import xformers
    config.enable_xformers = True
except ImportError:
    print('xformers 未安装,跳过')
try:
    import triton
    config.enable_triton = True
except ImportError:
    print('Triton 未安装,跳过')
# 对于小批量和低分辨率的情况,建议启用 CUDA 图以减少 CPU 开销。
# 但这样做可能会增加 GPU 显存的使用量。
# 对于 StableVideoDiffusionPipeline,则无需启用。
config.enable_cuda_graph = True

model = compile(model, config)

kwarg_inputs = dict(
    prompt=
    '(masterpiece:1,2), best quality, masterpiece, best detailed face, a beautiful girl',
    height=512,
    width=512,
    num_inference_steps=30,
    num_images_per_prompt=1,
)

# 注意:请先预热。
# 初始几次调用会触发编译,可能会非常慢。
# 之后应该会非常快。
for _ in range 3:
    output_image = model(**kwarg_inputs).images[0]

# 让我们看看吧!

# 注意:由于 CUDA 的异步特性,进度条可能会显示不准确。
begin = time.time()
output_image = model(**kwarg_inputs).images[0]
print(f'推理时间: {time.time() - begin:.3f}秒')

# 让我们在终端中查看它!
from sfast.utils.term_image import print_image

print_image(output_image, max_width=80)

更多详情请参考 examples/optimize_stable_diffusion_pipeline.py

您可以通过此 Colab 了解其在 T4 GPU 上的运行情况:Open In Colab

优化 LCM 流水线

stable-fast 能够优化最新的 latent consistency model 流水线,并实现显著的速度提升。

有关如何使用 LCM LoRA 优化普通 SD 模型的详细信息,请参阅 examples/optimize_lcm_lora.py。有关如何优化独立的 LCM 模型的详细信息,请参阅 examples/optimize_lcm_pipeline.py

优化 StableVideoDiffusionPipeline

stable-fast 能够优化最新的 StableVideoDiffusionPipeline,并实现 2 倍 的速度提升。

更多详情请参阅 examples/optimize_stable_video_diffusion_pipeline.py

动态切换 LoRA

支持动态切换 LoRA,但需要进行一些额外的操作。 之所以可行,是因为编译后的图和 CUDA Graph 与原始 UNet 模型共享相同的底层数据(指针)。因此,您只需就地更新原始 UNet 模型的参数即可。

以下代码假设您已经加载了一个 LoRA 并编译了模型,现在想要切换到另一个 LoRA。

如果您未启用 CUDA 图且保持 preserve_parameters = True,操作会简单得多。甚至可能不需要执行以下代码。

# load_state_dict with assign=True 需要 torch >= 2.1.0

def update_state_dict(dst, src):
    for key, value in src.items():
        # 进行就地复制。
        # 由于追踪的前向函数共享相同的底层数据(指针),此修改将反映在追踪的前向函数中。
        dst[key].copy_(value)

# 将“另一个”LoRA 切换到 UNet
def switch_lora(unet, lora):
    # 存储原始 UNet 参数
    state_dict = unet.state_dict()
    # 加载另一个 LoRA 到 unet
    unet.load_attn_procs(lora)
    # 将当前 UNet 参数就地复制到原始 unet 参数
    update_state_dict(state_dict,unet.state_dict())
    # 将原始 UNet 参数重新加载回模型。
    # 我们使用 assign=True,因为我们仍希望保留原始 UNet 参数的引用
    unet.load_state_dict(state_dict,assign=True)

switch_lora(compiled_model.unet,lora_b_path)

模型量化

stable-fast 扩展了 PyTorch 的 quantize_dynamic 功能,在 CUDA 后端提供了一种动态量化的线性算子。 启用后,您可以为 diffusers 获得轻微的 VRAM 减少,为 transformers 获得显著的 VRAM 减少,并有可能提高速度(但并非总是如此)。

对于 SD XL,预计在图像尺寸为 1024x1024 时,VRAM 可减少 2GB

def quantize_unet(m):
    from diffusers.utils import USE_PEFT_BACKEND
    assert USE_PEFT_BACKEND
    m = torch.quantization.quantize_dynamic(m,{torch.nn.Linear},
                                            dtype=torch.qint8,
                                            inplace=True)
    return m

model.unet = quantize_unet(model.unet)
if hasattr(model,'controlnet'):
    model.controlnet = quantize_unet(model.controlnet)

更多详情请参阅 examples/optimize_stable_diffusion_pipeline.py

提高 PyTorch 性能的一些常用方法

# 强烈建议使用 TCMalloc 来减少 CPU 开销
# https://github.com/google/tcmalloc
LD_PRELOAD=/path/to/libtcmalloc.so python3 ...
import packaging.version
import torch

if packaging.version.parse(torch.__version__) >= packaging.version.parse('1.12.0'):
    torch.backends.cuda.matmul.allow_tf32 = True

性能对比

不同硬件/软件/平台/驱动程序配置下的性能差异非常大。 准确地进行基准测试非常困难,而准备基准测试环境本身也是一项艰巨的任务。 我曾在一些平台上进行过测试,但结果仍然可能存在误差。 需要注意的是,在进行基准测试时,由于 CUDA 的异步特性,tqdm 显示的进度条可能会不准确。 为了解决这个问题,我使用 CUDA Event 来精确测量每秒迭代次数。

stable-fast 在较新的 GPU 和较新版本的 CUDA 上表现更佳。 在较旧的 GPU 上,性能提升可能有限。 在基准测试过程中,由于 CUDA 的异步特性,进度条可能会显示不准确。

RTX 4080(512x512,批次大小 1,fp16,在 WSL2 中)

这是我个人的游戏电脑😄。它的 CPU 比云服务器提供商的更强大。

框架 SD 1.5 SD XL (1024x1024) SD 1.5 ControlNet
Vanilla PyTorch (2.1.0) 29.5 it/s 4.6 it/s 19.7 it/s
torch.compile (2.1.0,max-autotune) 40.0 it/s 6.1 it/s 21.8 it/s
AITemplate 44.2 it/s
OneFlow 53.6 it/s
AUTO1111 WebUI 17.2 it/s 3.6 it/s
AUTO1111 WebUI(带 SDPA) 24.5 it/s 4.3 it/s
TensorRT(AUTO1111 WebUI) 40.8 it/s
TensorRT 官方演示 52.6 it/s
stable-fast(带 xformers & Triton) 51.6 it/s 9.1 it/s 36.7 it/s

H100

感谢 @Consceleratus@harishp 的帮助,我在 H100 上进行了速度测试。

框架 SD 1.5 SD XL (1024x1024) SD 1.5 ControlNet
Vanilla PyTorch (2.1.0) 54.5 it/s 14.9 it/s 35.8 it/s
torch.compile (2.1.0,max-autotune) 66.0 it/s 18.5 it/s
stable-fast(带 xformers & Triton) 104.6 it/s 21.6 it/s 72.6 it/s

A100

感谢 @SuperSecureHuman@jon-chuang 的帮助,现在可以在 A100 上进行基准测试了。

框架 SD 1.5 SD XL (1024×1024) SD 1.5 ControlNet
原生 PyTorch (2.1.0) 35.6 it/s 8.7 it/s 25.1 it/s
torch.compile (2.1.0, max-autotune) 41.9 it/s 10.0 it/s
stable-fast (使用 xformers 和 Triton) 61.8 it/s 11.9 it/s 41.1 it/s

兼容性

模型 支持
Hugging Face Diffusers (1.5/2.1/XL)
使用 ControlNet
使用 LoRA
隐式一致性模型
SDXL Turbo
Stable Video Diffusion
功能 支持
动态形状
文本到图像
图像到图像
图像修复
UI 框架 支持 链接
AUTOMATIC1111 开发中
SD Next SD Next
ComfyUI ComfyUI_stable_fast
操作系统 支持
Linux
Windows
Windows WSL

故障排除

更多详情请参阅 doc/troubleshooting.md

您也可以加入 Discord 频道 寻求帮助。

版本历史

nightly2024/11/27
v1.0.52024/05/09
v1.0.42024/03/14
v1.0.32024/01/31
v1.0.22024/01/19
v1.0.12023/12/28
v1.0.02023/12/19
v0.0.15.post12023/12/18
v0.0.152023/12/13
v0.0.142023/12/11
v0.0.13.post42023/12/11
v0.0.13.post32023/12/05
v0.0.13.post12023/12/05
v0.0.132023/12/05
v0.0.12.post62023/11/29
v0.0.12.post52023/11/28
v0.0.12.post42023/11/27
v0.0.12.post32023/11/25
v0.0.12.post22023/11/25
v0.0.12.post12023/11/24

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|2周前
Agent开发框架图像

n8n

n8n 是一款面向技术团队的公平代码(fair-code)工作流自动化平台,旨在让用户在享受低代码快速构建便利的同时,保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点,帮助用户轻松连接 400 多种应用与服务,实现复杂业务流程的自动化。 n8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”:既可以通过直观的可视化界面拖拽节点搭建流程,也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外,n8n 原生集成了基于 LangChain 的 AI 能力,支持用户利用自有数据和模型构建智能体工作流。在部署方面,n8n 提供极高的自由度,支持完全自托管以保障数据隐私和控制权,也提供云端服务选项。凭借活跃的社区生态和数百个现成模板,n8n 让构建强大且可控的自动化系统变得简单高效。

184.7k|★★☆☆☆|今天
数据工具开发框架Agent

AutoGPT

AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台,核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点,让用户只需设定目标,AI 即可自主规划步骤、调用工具并持续运行直至完成任务。 无论是开发者、研究人员,还是希望提升工作效率的普通用户,都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体;研究人员能基于开源架构探索多智能体协作机制;而非技术背景用户也可直接选用预置的智能体模板,立即投入实际工作场景。 AutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑,每个块负责单一动作,灵活且易于调试。同时,平台支持本地自托管与云端部署两种模式,兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本,即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛,让人人都能成为 AI 的创造者与受益者。

183.6k|★★★☆☆|今天
Agent语言模型插件

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|2周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

161.1k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

109.2k|★★☆☆☆|2天前
开发框架图像Agent