Liger-Kernel

GitHub
6.3k 510 简单 1 次阅读 今天BSD-2-Clause语言模型开发框架
AI 解读 由 AI 自动生成,仅供参考

Liger-Kernel 是一套专为大语言模型(LLM)训练打造的高效 Triton 算子库。在大模型训练过程中,显存占用高和计算速度慢往往是制约效率的瓶颈,Liger-Kernel 正是为了解决这一难题而生。它通过重新实现并优化了包括 RMSNorm、RoPE、SwiGLU 及交叉熵损失在内的关键组件,能够与 Hugging Face 生态无缝集成,让用户无需大幅修改现有代码即可享受性能提升。

实测数据显示,Liger-Kernel 能将多卡训练的吞吐量提升约 20%,同时将显存占用降低高达 60%。这意味着研究人员可以在有限的硬件资源下训练更大的模型,或使用更少的显卡完成相同的任务,显著降低了训练成本与门槛。其核心技术亮点在于利用 Triton 语言编写定制化内核,充分发挥 GPU 算力,并支持 AMD 等多样化硬件环境。

这款工具主要面向 AI 研究员、深度学习工程师以及大模型开发者。如果你正在从事 LLM 的微调、预训练或相关算法研究,希望在不牺牲兼容性的前提下极致优化训练效率,Liger-Kernel 将是一个值得尝试的开源利器。它不仅提供了易于调用的高级 API,也保留了供专家深入定制的低级接口,兼顾了易用性与灵活性。

使用场景

某 AI 初创团队正在使用 8 张 H100 显卡对 Llama-3-70B 大模型进行全量微调,以适配垂直领域的客服对话任务。

没有 Liger-Kernel 时

  • 显存频繁溢出:在开启较大批次大小(Batch Size)时,标准的 PyTorch 算子导致显存占用过高,训练进程频频因 OOM(内存不足)崩溃,被迫不断缩小批次。
  • 训练速度缓慢:由于缺乏底层算子融合,GPU 计算单元等待数据搬运的时间过长,多卡并行下的整体吞吐量难以提升,预计完整训练周期需耗时两周。
  • 代码改造复杂:若要手动编写高效的 Triton 内核来优化 RMSNorm 或 CrossEntropy 等关键算子,需要深厚的 CUDA 编程功底,研发门槛极高且容易出错。
  • 资源成本高昂:低效的硬件利用率导致云计算账单激增,有限的预算无法支撑长时间的实验迭代。

使用 Liger-Kernel 后

  • 显存占用骤降:Liger-Kernel 通过高效的内核实现将显存使用量降低了 60%,团队得以将批次大小翻倍,彻底解决了 OOM 问题,训练过程稳定流畅。
  • 吞吐性能飞跃:得益于算子融合技术,多卡训练吞吐量提升了 20%,原本两周的训练任务现在仅需不到三天即可完成,大幅加速了模型迭代。
  • 无缝集成体验:只需几行代码即可替换 Hugging Face 兼容的算子(如 RoPE、SwiGLU),无需重写底层逻辑,普通算法工程师也能轻松上手。
  • 成本显著优化:更高的硬件利用率直接缩短了云端租赁时间,在同等预算下可支持更多轮次的超参数调优实验。

Liger-Kernel 通过底层算子的极致优化,让大模型训练在节省六成显存的同时提速两成,真正实现了“花更少的钱,训更快的模型”。

运行环境要求

操作系统
  • Linux
GPU
  • 必需
  • 支持 NVIDIA GPU (CUDA) 和 AMD GPU (ROCm)
  • README 示例中使用了 A100,具体显存需求取决于模型大小和上下文长度(相比原生可节省 60% 显存)
内存

未说明

依赖
notes1. 该工具核心依赖 Triton,继承了 Triton 的硬件兼容性范围。2. 针对 AMD 用户,需安装特定的 nightly 版 PyTorch (rocm6.3)。3. 支持多 GPU 训练环境(如 PyTorch FSDP, DeepSpeed, DDP)。4. 提供稳定版和 nightly 版安装包。5. 能够与 Flash Attention 协同工作。
python未说明
torch>=2.1.2 (CUDA) / torch>=2.5.0 (ROCm)
triton>=2.3.0 (CUDA) / triton>=3.0.0 (ROCm)
transformers>=4.x (可选,用于模型修补 API)
Liger-Kernel hero image

快速开始

Liger Kernel:用于 LLM 训练的高效 Triton 内核

稳定版 每日构建版 Discord
下载量(稳定版) PyPI - 版本 下载量(每日构建版) PyPI - 版本 加入我们的 Discord

安装 | 快速入门 | 示例 | 高级 API | 低级 API | 引用我们的工作

最新消息 🔥
  • [2025/12/19] 我们宣布在 https://discord.gg/X4MaxPgA 上开设了 Liger Kernel 的 Discord 频道;我们将于 2026 年 1 月中旬举办 Liger Kernel x Triton 中国线下聚会。
  • [2025/03/06] 我们发布了 TorchTune × Liger 的联合博客文章——《性能巅峰,内存最小化:使用 torch.compile 和 Liger Kernel 优化 torchtune 性能》。
  • [2024/12/11] 我们发布了 v0.5.0:训练后损失(DPO、ORPO、CPO 等)的内存效率提升了 80%!
  • [2024/12/5] 我们发布了 LinkedIn 工程博客——《Liger-Kernel:赋能高效的 LLM 训练 Triton 内核开源生态》。
  • [2024/11/6] 我们发布了 v0.4.0:全面支持 AMD,技术报告,Modal CI,Llama-3.2-Vision!
  • [2024/10/21] 我们已在 Arxiv 上发布了 Liger Kernel 的技术报告:https://arxiv.org/pdf/2410.10989。
  • [2024/9/6] 我们发布了 v0.2.1(X 帖子)。两周内收获超过 2500 颗星,新增 10 多位贡献者,提交了 50 多份 PR,下载量达到 5 万次!
  • [2024/8/31] CUDA MODE 演讲——《Liger-Kernel:LLM 训练中的实战 Triton 内核》(视频:https://youtu.be/gWble4FreV4?si=dxPeIchhkJ36Mbns),演示文稿:https://github.com/cuda-mode/lectures?tab=readme-ov-file#lecture-28-liger-kernel。
  • [2024/8/23] 正式发布:请查看我们的 X 帖子

Liger Kernel 是一套专为 LLM 训练设计的 Triton 内核集合。它能够有效提升多 GPU 训练吞吐量 20%,并降低 内存占用 60%。我们实现了与 Hugging Face 兼容的 RMSNormRoPESwiGLUCrossEntropyFusedLinearCrossEntropy 等,并计划推出更多功能。该内核可与 Flash AttentionPyTorch FSDPMicrosoft DeepSpeed 即插即用。我们欢迎社区贡献,共同打造最优秀的 LLM 训练内核。

此外,我们还添加了优化的训练后内核,可在对齐和蒸馏任务中实现 高达 80% 的内存节省。我们支持 DPO、CPO、ORPO、SimPO、KTO、JSD 等多种损失函数。请参阅 我们如何优化内存

您可以通过以下链接查看文档站点,获取更多安装说明、使用示例和 API 参考:https://linkedin.github.io/Liger-Kernel/

您还可以查看 Liger Kernel 技术报告:https://openreview.net/forum?id=36SjAIT42G

使用 Liger Kernel 加速您的模型

横幅

只需一行代码,Liger Kernel 就能使吞吐量提升 20% 以上,同时将内存占用减少 60%,从而支持更长的上下文长度、更大的批量大小以及超大规模词汇表。

速度提升 内存减少
速度提升 内存

注:

  • 基准条件:LLaMA 3-8B,批量大小 = 8,数据类型 = bf16,优化器 = AdamW,梯度检查点 = 开启,分布式策略 = FSDP1,使用 8 张 A100 显卡。
  • Hugging Face 模型在 4K 上下文长度时就会出现 OOM 错误,而结合 Liger Kernel 后则可扩展至 16K。

使用 Liger Kernel 优化训练后流程

训练后

我们提供了 DPO、ORPO、SimPO 等优化后的训练后内核,可将内存占用降低多达 80%。您可以轻松地将其作为 Python 模块直接使用。

from liger_kernel.chunked_loss import LigerFusedLinearORPOLoss
orpo_loss = LigerFusedLinearORPOLoss()
y = orpo_loss(lm_head.weight, x, target)

示例

用例 描述
Hugging Face Trainer 使用4张A100显卡和FSDP,在Alpaca数据集上训练LLaMA 3-8B模型,速度提升约20%,显存占用减少超过40%
Lightning Trainer 在MMLU数据集上使用8张A100显卡和DeepSpeed ZeRO3,对LLaMA3-8B模型进行训练,吞吐量提升15%,显存占用减少40%
Medusa多头LLM(微调阶段) 使用8张A100显卡和FSDP,采用5个LM头部的架构,显存占用减少80%,吞吐量提升40%
视觉-语言模型SFT 使用4张A100显卡和FSDP,在图像-文本数据上微调Qwen2-VL模型
Liger ORPO Trainer 使用Liger ORPO Trainer结合FSDP对Llama 3.2进行对齐训练,显存占用减少50%

核心特性

  • 易用性: 只需一行代码即可为Hugging Face模型打上补丁,或者使用我们的Liger Kernel模块自定义构建模型。
  • 高效节能: 借鉴Flash-Attn的设计理念,专为RMSNormRoPESwiGLUCrossEntropy等层优化!通过内核融合原地替换分块计算等技术,将多GPU训练的吞吐量提升20%,同时将显存占用降低60%。
  • 精确无误: 计算完全精确,无任何近似!前向和反向传播均经过严格的单元测试,并与未使用Liger Kernel的训练结果进行收敛性对比,确保准确性。
  • 轻量化: Liger Kernel依赖极少,仅需Torch和Triton,无需额外库!告别依赖问题带来的烦恼!
  • 多GPU支持: 兼容多种多GPU训练方案(PyTorch FSDP、DeepSpeed、DDP等)。
  • 训练框架集成: AxolotlLLaMa-FactorySFTTrainerHugging Face TrainerSWIFToumi

安装

依赖项

CUDA

  • torch >= 2.1.2
  • triton >= 2.3.0

ROCm

  • torch >= 2.5.0 按照PyTorch官网的说明安装。
  • triton >= 3.0.0 从pypi安装。(例如:pip install triton==3.0.0
pip install -e .[dev]
pip3 install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/rocm6.3/

可选依赖项

  • transformers >= 4.x:如果您计划使用transformers模型的补丁API,则需要此版本。具体所需的最低版本取决于您正在使用的模型。

注意: 我们的内核继承了Triton提供的全面硬件兼容性。

安装稳定版:

$ pip install liger-kernel

安装夜间版:

$ pip install liger-kernel-nightly

从源码安装:

git clone https://github.com/linkedin/Liger-Kernel.git
cd Liger-Kernel

# 安装默认依赖
# setup.py会检测您是使用AMD还是NVIDIA
pip install -e .

# 安装开发依赖
pip install -e ".[dev]"

# 注意 -> 仅适用于AMD用户
pip3 install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/rocm6.3/

快速入门

根据所需的自定义程度,有几种方法可以应用Liger内核。

1. 使用AutoLigerKernelForCausalLM

使用AutoLigerKernelForCausalLM是最简单的方式,因为您无需导入特定于模型的补丁API。如果模型类型受支持,建模代码将自动使用默认设置进行补丁。

from liger_kernel.transformers import AutoLigerKernelForCausalLM

# 这个AutoModel包装类会在模型受支持时自动为其打上优化后的Liger内核补丁。
model = AutoLigerKernelForCausalLM.from_pretrained("path/to/some/model")

2. 应用特定于模型的补丁API

通过使用补丁API,您可以将Hugging Face模型替换为优化后的Liger内核。

import transformers
from liger_kernel.transformers import apply_liger_kernel_to_llama

# 1a. 添加这一行后,模型会自动被优化后的Liger内核打上补丁。
apply_liger_kernel_to_llama()

# 1b. 您也可以明确指定要应用哪些内核。
apply_liger_kernel_to_llama(
  rope=True,
  swiglu=True,
  cross_entropy=True,
  fused_linear_cross_entropy=False,
  rms_norm=False
)

# 2. 实例化已补丁的模型。
model = transformers.AutoModelForCausalLM("path/to/llama/model")

3. 自定义构建模型

您可以单独使用Liger内核来构建自己的模型。

from liger_kernel.transformers import LigerFusedLinearCrossEntropyLoss
import torch.nn as nn
import torch

model = nn.Linear(128, 256).cuda()

# 将线性层和交叉熵层融合在一起,并采用分块计算以减少显存占用。
loss_fn = LigerFusedLinearCrossEntropyLoss()

input = torch.randn(4, 128, requires_grad=True, device="cuda")
target = torch.randint(256, (4, ), device="cuda")

loss = loss_fn(model.weight, input, target)
loss.backward()

高级API

AutoModel

AutoModel变体 API
AutoModelForCausalLM liger_kernel.transformers.AutoLigerKernelForCausalLM

补丁

模型 API 支持的操作
Llama4(文本)和(多模态) liger_kernel.transformers.apply_liger_kernel_to_llama4 RMSNorm、LayerNorm、GeGLU、交叉熵损失、融合线性交叉熵
LLaMA 2 和 3 liger_kernel.transformers.apply_liger_kernel_to_llama RoPE、RMSNorm、SwiGLU、交叉熵损失、融合线性交叉熵
LLaMA 3.2-Vision liger_kernel.transformers.apply_liger_kernel_to_mllama RoPE、RMSNorm、SwiGLU、交叉熵损失、融合线性交叉熵
Ministral liger_kernel.transformers.apply_liger_kernel_to_ministral RoPE、RMSNorm、SwiGLU、交叉熵损失、融合线性交叉熵
Mistral liger_kernel.transformers.apply_liger_kernel_to_mistral RoPE、RMSNorm、SwiGLU、交叉熵损失、融合线性交叉熵
Mixtral liger_kernel.transformers.apply_liger_kernel_to_mixtral RoPE、RMSNorm、SwiGLU、交叉熵损失、融合线性交叉熵
Nemotron liger_kernel.transformers.apply_liger_kernel_to_nemotron ReLUSquared、交叉熵损失、融合线性交叉熵
Pixtral liger_kernel.transformers.apply_liger_kernel_to_pixtral RoPE、RMSNorm、SwiGLU
Gemma1 liger_kernel.transformers.apply_liger_kernel_to_gemma RoPE、RMSNorm、GeGLU、交叉熵损失、融合线性交叉熵
Gemma2 liger_kernel.transformers.apply_liger_kernel_to_gemma2 RoPE、RMSNorm、GeGLU、交叉熵损失、融合线性交叉熵
Gemma3(文本) liger_kernel.transformers.apply_liger_kernel_to_gemma3_text RoPE、RMSNorm、GeGLU、交叉熵损失、融合线性交叉熵
Gemma3(多模态) liger_kernel.transformers.apply_liger_kernel_to_gemma3 LayerNorm、RoPE、RMSNorm、GeGLU、交叉熵损失、融合线性交叉熵
Paligemma、Paligemma2 和 Paligemma2 Mix liger_kernel.transformers.apply_liger_kernel_to_paligemma LayerNorm、RoPE、RMSNorm、GeGLU、交叉熵损失、融合线性交叉熵
Qwen2、Qwen2.5 和 QwQ liger_kernel.transformers.apply_liger_kernel_to_qwen2 RoPE、RMSNorm、SwiGLU、交叉熵损失、融合线性交叉熵
Qwen2-VL 和 QVQ liger_kernel.transformers.apply_liger_kernel_to_qwen2_vl RMSNorm、LayerNorm、SwiGLU、交叉熵损失、融合线性交叉熵
Qwen2.5-VL liger_kernel.transformers.apply_liger_kernel_to_qwen2_5_vl RMSNorm、SwiGLU、交叉熵损失、融合线性交叉熵
Qwen3 liger_kernel.transformers.apply_liger_kernel_to_qwen3 RoPE、RMSNorm、SwiGLU、交叉熵损失、融合线性交叉熵
Qwen3 MoE liger_kernel.transformers.apply_liger_kernel_to_qwen3_moe RoPE、RMSNorm、SwiGLU、交叉熵损失、融合线性交叉熵
Qwen3.5 liger_kernel.transformers.apply_liger_kernel_to_qwen3_5 RMSNorm、SwiGLU、交叉熵损失、融合线性交叉熵
Phi3 和 Phi3.5 liger_kernel.transformers.apply_liger_kernel_to_phi3 RoPE、RMSNorm、SwiGLU、交叉熵损失、融合线性交叉熵
Granite 3.0 和 3.1 liger_kernel.transformers.apply_liger_kernel_to_granite RoPE、RMSNorm、SwiGLU、交叉熵损失
OLMo2 liger_kernel.transformers.apply_liger_kernel_to_olmo2 RoPE、RMSNorm、SwiGLU、交叉熵损失、融合线性交叉熵
Olmo3 liger_kernel.transformers.apply_liger_kernel_to_olmo3 RoPE、RMSNorm、SwiGLU、交叉熵损失、融合线性交叉熵
GLM-4 liger_kernel.transformers.apply_liger_kernel_to_glm4 RoPE、RMSNorm、SwiGLU、交叉熵损失、融合线性交叉熵
GPT-OSS liger_kernel.transformers.apply_liger_kernel_to_gpt_oss RoPE、RMSNorm、交叉熵损失、融合线性交叉熵
InternVL3 liger_kernel.transformers.apply_liger_kernel_to_internvl RoPE、RMSNorm、SwiGLU、交叉熵损失、融合线性交叉熵
HunyuanV1 liger_kernel.transformers.apply_liger_kernel_to_hunyuan_v1_dense RoPE、RMSNorm、SwiGLU、交叉熵损失、融合线性交叉熵
HunyuanV1 MoE liger_kernel.transformers.apply_liger_kernel_to_hunyuan_v1_moe RoPE、RMSNorm、SwiGLU、交叉熵损失、融合线性交叉熵

低级 API

  • Fused Linear 内核将线性层与损失函数结合,可将内存使用量减少多达 80%,非常适合 HBM 资源受限的工作负载。
  • 其他内核则采用融合和就地技术来优化内存和性能。

模型内核

内核 API
RMSNorm liger_kernel.transformers.LigerRMSNorm
LayerNorm liger_kernel.transformers.LigerLayerNorm
RoPE liger_kernel.transformers.liger_rotary_pos_emb
SwiGLU liger_kernel.transformers.LigerSwiGLUMLP
GeGLU liger_kernel.transformers.LigerGEGLUMLP
交叉熵 liger_kernel.transformers.LigerCrossEntropyLoss
融合线性交叉熵 liger_kernel.transformers.LigerFusedLinearCrossEntropyLoss
多令牌注意力 liger_kernel.transformers.LigerMultiTokenAttention
Softmax liger_kernel.transformers.LigerSoftmax
Sparsemax liger_kernel.transformers.LigerSparsemax
mHC(超连接) liger_kernel.transformers.LigerMHC

对齐内核

内核 API
融合线性 CPO 损失 liger_kernel.chunked_loss.LigerFusedLinearCPOLoss
融合线性 DPO 损失 liger_kernel.chunked_loss.LigerFusedLinearDPOLoss
融合线性 ORPO 损失 liger_kernel.chunked_loss.LigerFusedLinearORPOLoss
融合线性 SimPO 损失 liger_kernel.chunked_loss.LigerFusedLinearSimPOLoss
融合线性 KTO 损失 liger_kernel.chunked_loss.LigerFusedLinearKTOLoss

蒸馏核函数

核函数 API
KLDivergence liger_kernel.transformers.LigerKLDIVLoss
JSD liger_kernel.transformers.LigerJSD
熔合线性 JSD liger_kernel.transformers.LigerFusedLinearJSD
TVD liger_kernel.transformers.LigerTVDLoss

实验性核函数

核函数 API
嵌入 liger_kernel.transformers.experimental.LigerEmbedding
Matmul int2xint8 liger_kernel.transformers.experimental.matmul

贡献、致谢与许可

赞助与合作

  • Glows.ai:为我们的开源开发者赞助 NVIDIA GPU。
  • AMD:为我们的 AMD CI 提供 AMD GPU。
  • Intel:为我们的 Intel CI 提供 Intel GPU。
  • Modal:为我们的 NVIDIA CI 提供 GPU MODE IRL 的 3000 积分。
  • EmbeddedLLM:使 Liger Kernel 在 AMD 上运行得更快更稳定。
  • HuggingFace:将 Liger Kernel 集成到 Hugging Face Transformers 和 TRL 中。
  • Lightning AI:将 Liger Kernel 集成到 Lightning Thunder 中。
  • Axolotl:将 Liger Kernel 集成到 Axolotl 中。
  • Llama-Factory:将 Liger Kernel 集成到 Llama-Factory 中。

CI 状态

构建

联系方式

引用本工作

Biblatex 条目:

@inproceedings{
hsu2025ligerkernel,
title={Liger-Kernel: Efficient Triton Kernels for {LLM} Training},
author={Pin-Lun Hsu and Yun Dai and Vignesh Kothapalli and Qingquan Song and Shao Tang and Siyu Zhu and Steven Shimizu and Shivam Sahni and Haowen Ning and Yanning Chen and Zhipeng Wang},
booktitle={Championing Open-source DEvelopment in ML Workshop @ ICML25},
year={2025},
url={https://openreview.net/forum?id=36SjAIT42G}
}

星标历史

星标历史图表

↑ 返回顶部 ↑

版本历史

v0.7.02026/02/12
v0.6.52026/02/04
v0.6.42025/11/21
v0.6.32025/10/27
v0.6.22025/08/22
v0.6.12025/07/28
v0.6.02025/07/09
v0.5.102025/05/22
v0.5.92025/05/04
v0.5.82025/04/12
v0.5.72025/04/12
v0.5.62025/04/02
v0.5.52025/03/14
v0.5.42025/02/24
v0.5.32025/02/10
v0.5.22024/12/11
v0.5.12024/12/10
v0.5.02024/12/10
v0.4.22024/11/17
v0.4.12024/11/12

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|4天前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|5天前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

148.6k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.1k|★★☆☆☆|2天前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|今天
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|3天前
插件开发框架