BigDL

GitHub
2.7k 732 中等 1 次阅读 4天前Apache-2.0开发框架
AI 解读 由 AI 自动生成,仅供参考

BigDL 是一套专为英特尔硬件优化的开源 AI 库,旨在帮助用户轻松将数据分析和人工智能应用从笔记本电脑无缝扩展至云端集群。它核心解决了深度学习框架(如 TensorFlow、PyTorch)在处理大规模数据时面临的分布式训练难、硬件加速复杂以及隐私安全等痛点。

这套工具集特别适合需要处理海量数据的 AI 开发者、数据科学家及研究人员。通过其子项目 Orca,用户可以在 Spark 或 Ray 集群上直接运行现有的单机深度学习代码,无需重写逻辑即可实现分布式扩容;Nano 模块则能透明地加速英特尔 CPU 和 GPU 上的模型推理与训练。此外,BigDL 还提供了 Chronos 用于自动化时间序列分析,Friesian 用于构建推荐系统,以及 PPML 利用硬件安全技术保护数据隐私。

值得注意的是,原本的大语言模型(LLM)支持已迁移至新项目 IPEX-LLM,专注于在英特尔架构上高效运行大模型。BigDL 让开发者能够利用熟悉的 Python 生态,结合大数据平台的强大算力,以更低的成本构建高性能、可扩展且安全的智能应用。

使用场景

某电商数据团队需要在现有 Spark 大数据集群上,利用历史用户行为数据训练大规模深度学习推荐模型,以优化实时商品推荐效果。

没有 BigDL 时

  • 架构割裂严重:数据处理依赖 Spark,而模型训练需迁移至独立的 TensorFlow/PyTorch 集群,数据搬运耗时且易出错。
  • 资源利用率低:现有的 Spark 计算节点在数据预处理阶段空闲,无法直接复用其算力进行分布式模型训练。
  • 开发门槛高:数据工程师需额外学习复杂的分布式深度学习框架,且难以将熟悉的 Spark MLlib 流程平滑升级为深度神经网络。
  • 扩展性差:随着数据量激增,单机或小规模集群训练时间从小时级延长至数天,无法满足业务快速迭代需求。

使用 BigDL 后

  • 无缝集成架构:通过 BigDL Orca 组件,直接在 Spark 集群上运行分布式 TensorFlow 或 PyTorch 程序,实现“数据在哪里,计算就在哪里”。
  • 资源高效复用:透明地调用现有 Spark 集群的 CPU/GPU 资源进行模型训练,无需维护额外的 AI 基础设施,硬件成本显著降低。
  • 开发体验流畅:支持用标准的 Python 代码编写模型,像使用 Spark MLlib 一样简单,数据科学家可专注于算法而非底层分布式逻辑。
  • 线性加速能力:轻松将训练任务从笔记本电脑扩展至云端千核集群,训练速度提升数十倍,使大规模推荐模型的日更成为可能。

BigDL 打破了大数据与深度学习的技术壁垒,让企业能以最低成本在现有数据平台上构建高性能 AI 应用。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU
  • 非必需
  • 支持 Intel CPU 和 Intel GPU(通过 IPEX/BigDL-Nano 优化)
  • 若使用 OpenVINO 后端可加速 Intel 集成显卡
  • 未提及对 NVIDIA GPU 或 CUDA 的具体需求
内存

未说明(示例代码中演示了单节点 10GB 内存配置,实际取决于数据规模和模型大小)

依赖
notes1. 原 bigdl-llm 组件已弃用,大语言模型功能已迁移至 ipex-llm 项目。 2. 推荐使用 conda 创建虚拟环境进行安装。 3. 该工具主要针对 Intel 硬件架构(CPU/GPU)进行了深度优化,支持在笔记本电脑到云端集群间无缝扩展。 4. 支持多种运行模式:本地、K8s、YARN。 5. 包含多个子库(Orca, Nano, DLlib 等),可按需单独安装(如 pip install bigdl-chronos)。
python未明确指定版本(建议 Python 3.x,需配合 conda 环境使用)
conda
bigdl
tensorflow
pytorch
spark
ray
openvino
ipex
BigDL hero image

快速开始

[!IMPORTANT] bigdl-llm 现已更名为 ipex-llm,我们未来的开发将迁移至 IPEX-LLM 项目。




概述

BigDL 可以无缝地将您的数据分析和 AI 应用从笔记本电脑扩展到云端,提供以下库:

  • LLM (已弃用 - 请改用 IPEX-LLM):针对 Intel CPU 和 GPU 优化的大语言模型库

  • Orca:基于 Spark 和 Ray 的分布式大数据与 AI(TF 和 PyTorch)流水线

  • Nano:在 Intel CPU/GPU 上透明加速 TensorFlow 和 PyTorch 程序

  • DLlib:深度学习领域的“Spark MLlib 对等工具”

  • Chronos:使用 AutoML 进行可扩展的时间序列分析

  • Friesian:端到端的推荐系统

  • PPML:安全的大数据与 AI(采用 SGX/TDX 硬件安全技术)

如需更多信息,请访问 文档


选择合适的 BigDL 库

flowchart TD;
    Feature1{{硬件安全的大数据与 AI?}};
    Feature1-- 否 -->Feature2{{Python 还是 Scala/Java?}};
    Feature1-- 是  -->ReferPPML([<em><strong>PPML</strong></em>]);
    Feature2-- Python -->Feature3{{应用类型是什么?}};
    Feature2-- Scala/Java -->ReferDLlib([<em><strong>DLlib</strong></em>]);
    Feature3-- “大语言模型” -->ReferLLM([<em><strong>LLM</strong></em>]);
    Feature3-- “大数据 + AI(TF/PyTorch)” -->ReferOrca([<em><strong>Orca</strong></em>]);
    Feature3-- 加速 TensorFlow / PyTorch -->ReferNano([<em><strong>Nano</strong></em>]);
    Feature3-- 针对 Spark MLlib 的 DL -->ReferDLlib2([<em><strong>DLlib</strong></em>]);
    Feature3-- 高层次应用框架 -->Feature4{{领域是什么?}};
    Feature4-- 时间序列 -->ReferChronos([<em><strong>Chronos</strong></em>]);
    Feature4-- 推荐系统 -->ReferFriesian([<em><strong>Friesian</strong></em>]);
    
    click ReferLLM "https://github.com/intel-analytics/ipex-llm"
    click ReferNano "https://github.com/intel-analytics/BigDL-2.x#nano"
    click ReferOrca "https://github.com/intel-analytics/BigDL-2.x#orca"
    click ReferDLlib "https://github.com/intel-analytics/BigDL-2.x#dllib"
    click ReferDLlib2 "https://github.com/intel-analytics/BigDL-2.x#dllib"
    click ReferChronos "https://github.com/intel-analytics/BigDL-2.x#chronos"
    click ReferFriesian "https://github.com/intel-analytics/BigDL-2.x#friesian"
    click ReferPPML "https://github.com/intel-analytics/BigDL-2.x#ppml"
    
    classDef ReferStyle1 fill:#5099ce,stroke:#5099ce;
    classDef Feature fill:#FFF,stroke:#08409c,stroke-width:1px;
    class ReferLLM,ReferNano,ReferOrca,ReferDLlib,ReferDLlib2,ReferChronos,ReferFriesian,ReferPPML ReferStyle1;
    class Feature1,Feature2,Feature3,Feature4,Feature5,Feature6,Feature7 Feature;
    

安装

  • 建议使用 conda 环境来安装 BigDL:

    conda create -n my_env 
    conda activate my_env
    pip install bigdl
    

    如需安装最新的 nightly 版本,请使用 pip install --pre --upgrade bigdl;更多详细信息请参阅 PythonScala 用户指南。

  • 若要单独安装某个库,例如 Chronos,可以使用 pip install bigdl-chronos;更多详情请访问 文档网站


入门

Orca

  • Orca 库能够无缝地将您单节点的 TensorFlowPyTorchOpenVINO 程序扩展到大型集群中运行(以便处理分布式大数据)。

    显示 Orca 示例

    您可以使用 Orca 通过 4 个简单步骤构建端到端的分布式数据处理与 AI 程序:

    # 1. 初始化 Orca 上下文(以便在 K8s、YARN 或本地笔记本上运行程序)
    from bigdl.orca import init_orca_context, OrcaContext
    sc = init_orca_context(cluster_mode="k8s", cores=4,memory="10g",num_nodes=2)
    
    # 2. 执行分布式数据处理(支持 Spark DataFrames、TensorFlow Dataset、PyTorch DataLoader、Ray Dataset、Pandas、Pillow 等)
    spark = OrcaContext.get_spark_session()
    df = spark.read.parquet(file_path)
    df = df.withColumn('label', df.label-1)
    ...
    
    # 3. 使用标准框架 API 构建深度学习模型
    # (支持 TensorFlow、PyTorch、Keras、OpenVino 等)
    from tensorflow import keras
    ...
    model = keras.models.Model(inputs=[user, item], outputs=predictions)  
    model.compile(...)
    
    # 4. 使用 Orca Estimator 进行分布式训练/推理
    from bigdl.orca.learn.tf.estimator import Estimator
    est = Estimator.from_keras(keras_model=model)  
    est.fit(data=df,
            feature_cols=['user', 'item'],
            label_cols=['label'],
            ...)
    

    有关更多详细信息,请参阅 Orca 用户指南,以及 TensorFlowPyTorch 快速入门。

  • 此外,您还可以使用 Orca 中的 RayOnSpark 在 Spark 集群上运行标准 Ray 程序。

    显示 RayOnSpark 示例

    您不仅可以在 Spark 集群上运行 Ray 程序,还可以使用 Orca 中的 RayOnSpark 将 Ray 代码内嵌到 Spark 代码中(以便处理内存中的 Spark RDD 或 DataFrame)。

    # 1. 初始化 Orca 上下文(以便在 K8s、YARN 或本地笔记本上运行程序)
    from bigdl.orca import init_orca_context,OrcaContext
    sc = init_orca_context(cluster_mode="yarn",cores=4,memory="10g",num_nodes=2,init_ray_on_spark=True)
    
    # 2. 使用 Spark 进行分布式数据处理
    spark = OrcaContext.get_spark_session()
    df = spark.read.parquet(file_path).withColumn(...)
    
    # 3. 将 Spark DataFrame 转换为 Ray 数据集
    from bigdl.orca.data import spark_df_to_ray_dataset
    dataset = spark_df_to_ray_dataset(df)
    
    # 4. 使用 Ray 操作 Ray 数据集
    import ray
    
    @ray.remote
    def consume(data) -> int:
       num_batches = 0
       for batch in data.iter_batches(batch_size=10):
           num_batches += 1
       return num_batches
    
    print(ray.get(consume.remote(dataset)))
    

    有关更多详细信息,请参阅 RayOnSpark 用户指南快速入门

Nano

您可以在笔记本电脑或服务器上使用 Nano 透明地加速您的 TensorFlow 或 PyTorch 程序。只需进行最少的代码修改,Nano 就能自动将现代 CPU 优化(例如 SIMD、多进程、低精度等)应用于标准的 TensorFlow 和 PyTorch 代码,从而实现高达 10 倍的加速。

显示 Nano 推理示例

您可以使用 Nano 自动优化已训练好的 PyTorch 模型以用于推理或部署:

model = ResNet18().load_state_dict(...)
train_dataloader = ...
val_dataloader = ...
def accuracy (pred, target):
  ... 

from bigdl.nano.pytorch import InferenceOptimizer
optimizer = InferenceOptimizer()
optimizer.optimize(model,
                   training_data=train_dataloader,
                   validation_data=val_dataloader,
                   metric=accuracy)
new_model, config = optimizer.get_best_model()

optimizer.summary()

optimizer.summary() 的输出可能如下所示:

 -------------------------------- ---------------------- -------------- ----------------------
|             method             |        status        | latency(ms)  |     metric value     |
 -------------------------------- ---------------------- -------------- ----------------------
|            original            |      successful      |    45.145    |        0.975         |
|              bf16              |      successful      |    27.549    |        0.975         |
|          static_int8           |      successful      |    11.339    |        0.975         |
|         jit_fp32_ipex          |      successful      |    40.618    |        0.975*        |
|  jit_fp32_ipex_channels_last   |      successful      |    19.247    |        0.975*        |
|         jit_bf16_ipex          |      successful      |    10.149    |        0.975         |
|  jit_bf16_ipex_channels_last   |      successful      |    9.782     |        0.975         |
|         openvino_fp32          |      successful      |    22.721    |        0.975*        |
|         openvino_int8          |      successful      |    5.846     |        0.962         |
|        onnxruntime_fp32        |      successful      |    20.838    |        0.975*        |
|    onnxruntime_int8_qlinear    |      successful      |    7.123     |        0.981         |
 -------------------------------- ---------------------- -------------- ----------------------
* 表示我们假设追踪模型的指标值不会改变,因此为了节省时间,不再重新计算指标值。
优化总耗时 60.8 秒。
显示 Nano 训练示例
您可以通过 Nano 轻松加速 PyTorch 训练(例如 IPEX、BF16、多实例训练等):
model = ResNet18()
optimizer = torch.optim.SGD(...)
train_loader = ...
val_loader = ...

from bigdl.nano.pytorch import TorchNano

# 在 `TorchNano.train` 中定义您的训练循环
class Trainer(TorchNano):
	def train(self):
	# 调用 `setup` 准备模型、优化器和数据加载器,以便进行加速训练
	model, optimizer, (train_loader, val_loader) = self.setup(model, optimizer,
  train_loader, val_loader)
  
    for epoch in range(num_epochs):  
      model.train()  
      for data, target in train_loader:  
        optimizer.zero_grad()  
        output = model(data)  
        # 将 loss.backward() 替换为 self.backward(loss)  
        loss = loss_fuc(output, target)  
        self.backward(loss)  
        optimizer.step()   

# 加速训练(IPEX、BF16 和多实例训练)
Trainer(use_ipex=True, precision='bf16', num_processes=2).train()

请参阅 Nano 用户指南教程 以获取更多详细信息。

DLlib

借助 DLlib,您可以使用标准的 (ScalaPython) Spark 程序,通过相同的 Spark DataFramesML Pipeline API 来编写分布式深度学习应用程序。

显示 DLlib Scala 示例

您可以通过以下三个简单步骤使用 DLlib 的 Scala API 为 Spark 构建分布式深度学习应用程序:

// 1. 在代码开头调用 `initNNContext`: 
import com.intel.analytics.bigdl.dllib.NNContext
val sc = NNContext.initNNContext()

// 2. 使用 DLlib 中的 Keras 风格 API 定义深度学习模型:
import com.intel.analytics.bigdl.dllib.keras.layers._
import com.intel.analytics.bigdl.dllib.keras.Model
val input = Input[Float](inputShape = Shape(10))  
val dense = Dense[Float](12).inputs(input)  
val output = Activation[Float]("softmax").inputs(dense)  
val model = Model(input, output)

// 3. 使用 `NNEstimator` 通过 Spark DataFrame 和 ML Pipeline API 来训练/预测/评估模型
import org.apache.spark.sql.SparkSession
import org.apache.spark.ml.feature.MinMaxScaler
import org.apache.spark.ml.Pipeline
import com.intel.analytics.bigdl.dllib.nnframes.NNEstimator
import com.intel.analytics.bigdl.dllib.nn.CrossEntropyCriterion
import com.intel.analytics.bigdl.dllib.optim.Adam
val spark = SparkSession.builder().getOrCreate()
val trainDF = spark.read.parquet("train_data")
val validationDF = spark.read.parquet("val_data")
val scaler = new MinMaxScaler().setInputCol("in").setOutputCol("value")
val estimator = NNEstimator(model, CrossEntropyCriterion())  
        .setBatchSize(128).setOptimMethod(new Adam()).setMaxEpoch(5)
val pipeline = new Pipeline().setStages(Array(scaler, estimator))

val pipelineModel = pipeline.fit(trainDF)  
val predictions = pipelineModel.transform(validationDF)
显示 DLlib Python 示例

您也可以通过以下三个简单步骤使用 DLlib 的 Python API 为 Spark 构建分布式深度学习应用程序:

# 1. 在代码开头调用 `init_nncontext`:
from bigdl.dllib.nncontext import init_nncontext
sc = init_nncontext()

# 2. 使用 DLlib 中的 Keras 风格 API 定义深度学习模型:
from bigdl.dllib.keras.layers import Input, Dense, Activation
from bigdl.dllib.keras.models import Model
input = Input(shape=(10,))
dense = Dense(12)(input)
output = Activation("softmax")(dense)
model = Model(input, output)

# 3. 使用 `NNEstimator` 通过 Spark DataFrame 和 ML pipeline API 训练/预测/评估模型
from pyspark.sql import SparkSession
from pyspark.ml.feature import MinMaxScaler
from pyspark.ml import Pipeline
from bigdl.dllib.nnframes import NNEstimator
from bigdl.dllib.nn.criterion import CrossEntropyCriterion
from bigdl.dllib.optim.optimizer import Adam
spark = SparkSession.builder.getOrCreate()
train_df = spark.read.parquet("train_data")
validation_df = spark.read.parquet("val_data")
scaler = MinMaxScaler().setInputCol("in").setOutputCol("value")
estimator = NNEstimator(model, CrossEntropyCriterion())\
    .setBatchSize(128)\
    .setOptimMethod(Adam())\
    .setMaxEpoch(5)
pipeline = Pipeline(stages=[scaler, estimator])

pipelineModel = pipeline.fit(train_df)
predictions = pipelineModel.transform(validation_df)

更多详细信息,请参阅 DLlib 的 NNFramesKeras API 用户指南。

Chronos

Chronos 库使构建快速、准确且可扩展的 时间序列分析 应用程序(支持 AutoML)变得简单易行。

显示 Chronos 示例

您可以通过以下三个简单步骤使用 Chronos 训练时间序列预测器:

from bigdl.chronos.forecaster import TCNForecaster 
from bigdl.chronos.data.repo_dataset import get_public_dataset

# 1. 使用 `TSDataset` 处理时间序列数据
tsdata_train, tsdata_val, tsdata_test = get_public_dataset(name='nyc_taxi')
for tsdata in [tsdata_train, tsdata_val, tsdata_test]:
    data.roll(lookback=100, horizon=1)

# 2. 创建一个 `TCNForecaster`(根据训练数据自动配置)
forecaster = TCNForecaster.from_tsdataset(train_data)

# 3. 训练预测器以进行预测
forecaster.fit(train_data)

pred = forecaster.predict(test_data)

要应用 AutoML,可以使用 AutoTSEstimator 代替普通预测器。

# 创建并拟合一个 `AutoTSEstimator`
from bigdl.chronos.autots import AutoTSEstimator
autotsest = AutoTSEstimator(model="tcn", future_seq_len=10)

tsppl = autotsest.fit(data=tsdata_train, validation_data=tsdata_val)
pred = tsppl.predict(tsdata_test)

更多详细信息,请参阅 Chronos 的 用户指南快速入门

Friesian

Friesian 库使构建端到端的大规模 推荐系统 变得容易(包括 离线 特征转换与训练、近线 特征和模型更新,以及 在线 服务管道)。

更多详细信息,请参阅 Friesian 的 README

PPML

BigDL PPML 提供一种 基于硬件(Intel SGX)保护的可信集群环境,用于在私有云或公有云上以安全的方式运行分布式大数据和 AI 应用程序。

更多详细信息,请参阅 PPML 的 用户指南教程

获取支持


引用

如果您发现 BigDL 对您的项目有所帮助,您可以按照以下方式引用我们的论文:

  • BigDL 2.0:从笔记本电脑到分布式集群的 AI 流程无缝扩展
    @INPROCEEDINGS{9880257,
        title={BigDL 2.0: Seamless Scaling of AI Pipelines from Laptops to Distributed Cluster}, 
        author={Dai, Jason Jinquan and Ding, Ding and Shi, Dongjie and Huang, Shengsheng and Wang, Jiao and Qiu, Xin and Huang, Kai and Song, Guoqiong and Wang, Yang and Gong, Qiyuan and Song, Jiaming and Yu, Shan and Zheng, Le and Chen, Yina and Deng, Junwei and Song, Ge},
        booktitle={2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)}, 
        year={2022},
        pages={21407-21414},
        doi={10.1109/CVPR52688.2022.02076}
    }
    

[^1]: 性能因使用场景、配置及其他因素而异。bigdl-llm 可能无法针对非 Intel 产品达到相同的优化效果。更多信息请访问 www.Intel.com/PerformanceIndex。

  • BigDL:面向大数据的分布式深度学习框架
    @INPROCEEDINGS{10.1145/3357223.3362707,
        title = {BigDL: A Distributed Deep Learning Framework for Big Data},
        author = {Dai, Jason Jinquan and Wang, Yiheng and Qiu, Xin and Ding, Ding and Zhang, Yao and Wang, Yanzhang and Jia, Xianyan and Zhang, Cherry Li and Wan, Yan and Li, Zhichao and Wang, Jiao and Huang, Shengsheng and Wu, Zhongyuan and Wang, Yang and Yang, Yuhao and She, Bowen and Shi, Dongjie and Lu, Qi and Huang, Kai and Song, Guoqiong},
        booktitle = {Proceedings of the ACM Symposium on Cloud Computing (SoCC)},
        year = {2019},
        pages = {50–60},
        doi = {10.1145/3357223.3362707}
    }
    

版本历史

v2.5.0b12024/10/15
v2.4.02024/03/06
v2.3.02024/03/06
v2.2.02024/03/06
v2.1.02024/03/06
v2.0.02024/03/06
v0.13.02024/03/07
v0.12.22024/03/07
v0.12.12024/03/07
v0.11.12024/03/07
v0.10.02024/03/07
v0.9.02024/03/07
v0.8.02024/03/07
v0.7.02024/03/07
v0.6.02024/03/07
v0.5.02024/03/07
v0.4.02024/03/07
v0.3.02024/03/07
v0.2.02024/03/07
v0.1.12024/03/07

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|今天
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|昨天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

140.4k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|3天前
开发框架图像Agent

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|今天
语言模型图像Agent

Deep-Live-Cam

Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。

88.9k|★★★☆☆|今天
开发框架图像Agent