score_sde_pytorch

GitHub
2.1k 353 中等 1 次阅读 3天前Apache-2.0图像开发框架
AI 解读 由 AI 自动生成,仅供参考

score_sde_pytorch 是一个基于 PyTorch 实现的开源项目,核心用于“基于分数的生成建模”。它通过随机微分方程(SDE)这一统一框架,将复杂的数据分布逐步转化为简单的噪声分布,再通过逆向过程从噪声中高质量地还原出图像。

该工具主要解决了传统生成模型在理论统一性、采样效率及似然计算方面的局限。它不仅复现并整合了 NCSN、DDPM 等经典算法,还支持精确的似然计算、潜在空间操控以及图像修复、上色等条件生成任务。其在 CIFAR-10 数据集上取得了极低的 FID 分数,并能生成高达 1024 像素的高保真人脸图像,展现了卓越的生成能力。

技术亮点在于其高度模块化的设计,允许研究人员轻松扩展新的随机微分方程、预测器或校正器。此外,该项目已与 Hugging Face 🤗 Diffusers 库深度集成,用户仅需几行代码即可调用预训练模型进行推理,大幅降低了使用门槛。同时,官方还提供了支持分类条件生成的 JAX 版本供选择。

score_sde_pytorch 非常适合人工智能研究人员、算法开发者以及对生成式模型原理有深入探索需求的技术人员使用。对于希望快速验证 SDE 理论或复现前沿论文结果的用户而言,这是一个不可或缺的基础设施。

使用场景

某数字艺术工作室的设计师需要为游戏项目快速生成大量高分辨率、风格统一且无版权风险的背景素材,同时要求能灵活修复局部破损或进行上色创作。

没有 score_sde_pytorch 时

  • 生成质量受限:传统 GAN 模型在生成 1024px 高清图像时容易出现伪影或模式崩溃,难以达到商业级画质标准。
  • 功能扩展困难:若需实现图像修复(Inpainting)或黑白上色等条件生成任务,往往需要重新训练专用模型,开发周期长达数周。
  • 理论验证复杂:缺乏统一的随机微分方程(SDE)框架,开发者难以精确计算生成概率或操控潜在代码,调优过程如同“黑盒”摸索。
  • 复现成本高昂:社区中 NCSN、DDPM 等多种算法代码分散且接口不一,整合对比不同架构的性能需要耗费大量工程精力。

使用 score_sde_pytorch 后

  • 画质显著提升:利用其 SDE 逆向采样能力,直接在 CIFAR-10 上取得 FID 2.20 的优异成绩,并能稳定生成 1024px 的 Celeba-HQ 级高保真人脸与场景。
  • 任务灵活切换:依托统一框架,无需重新训练即可通过调整采样过程,轻松实现类条件生成、局部修复及自动上色等多种创意需求。
  • 可控性增强:支持精确的似然计算和潜在空间操作,设计师可量化评估生成效果,并对图像细节进行更精细的定向编辑。
  • 开发效率飞跃:代码库模块化集成了 NCSN++、DDPM++ 等主流模型,甚至可通过 Hugging Face Diffusers 几行代码直接调用预训练模型,即刻投入生产。

score_sde_pytorch 通过统一的随机微分方程视角,将高质量图像生成从复杂的科研实验转化为高效、可控且多功能的工程实践。

运行环境要求

操作系统
  • 未说明
GPU
  • 需要 NVIDIA GPU
  • 基准测试使用 4x Nvidia Tesla V100 (32GB)
  • PyTorch 版本相比 JAX 显存占用较低(约 20.6GB 用于训练 NCSN++),但具体最低显存取决于模型和数据集分辨率(如 1024px 图像需要更大显存)
内存

未说明

依赖
notes1. 代码通过 `requirements.txt` 安装依赖,具体版本未在 README 列出。 2. 定量评估(如计算 FID)需预先下载统计文件(如 `cifar10_stats.npz`)至 `assets/stats/` 目录。 3. 预训练模型权重托管在 Google Drive,需手动下载;部分原始 CelebA 检查点因政策未发布,但提供了重新训练的 FFHQ 和 CelebA-HQ 替代版本。 4. 支持通过 `main.py` 进行训练和评估,配置文件位于 `configs/` 目录。 5. 提供与 Hugging Face 🤗 Diffusers 库的集成,可简化推理过程。
python未说明
torch
ml_collections
diffusers (可选,用于集成)
accelerate (可选,配合 diffusers)
score_sde_pytorch hero image

快速开始

基于分数的生成模型:通过随机微分方程

PWC

本仓库包含论文《基于分数的生成模型:通过随机微分方程》的 PyTorch 实现,该论文由 Yang Song、Jascha Sohl-Dickstein、Diederik P. Kingma、Abhishek Kumar、Stefano Ermon 和 Ben Poole 共同撰写。


我们提出了一种统一的框架,通过随机微分方程(SDE)的视角,对先前基于分数的生成模型工作进行了泛化和改进。具体而言,我们可以利用由 SDE 描述的连续时间随机过程,将数据转换为简单的噪声分布。如果已知每个中间时间步长上边缘分布的分数函数,就可以逆转这一 SDE 过程以进行采样;而这些分数函数则可通过分数匹配方法来估计。其基本思想如图所示:

示意图

我们的工作不仅有助于更好地理解现有方法,还带来了新的采样算法、精确的似然计算、唯一可识别的编码、潜在空间代码操控等功能,并为基于分数的生成模型家族增添了新的条件生成能力(包括但不限于类别条件生成、图像修复和彩色化等)。综合来看,在 CIFAR-10 数据集上的无条件生成任务中,我们取得了 FID 为 2.20、Inception 分数为 9.89 的优异成绩,并能高质量地生成 1024px 尺寸的 Celeba-HQ 图像(见下方样本)。此外,在对 CIFAR-10 图像进行均匀去量化处理后,我们还获得了 2.99 比特/维度的似然值。

FFHQ 样本

该代码的功能是什么?

除了我们论文中的 NCSN++DDPM++ 模型外,本代码库还在一处重新实现了许多先前的基于分数的模型,包括来自论文《通过估计数据分布的梯度进行生成建模》的 NCSN、来自论文《训练基于分数的生成模型的改进技术》的 NCSNv2,以及来自论文《去噪扩散概率模型》的 DDPM

该代码支持训练新模型,也支持评估现有模型的样本质量和似然值。我们精心设计了代码结构,使其具有模块化特性,便于扩展到新的随机微分方程、预测器或校正器。

与 🤗 Diffusers 库的集成

目前,大多数模型也已在 🧨 Diffusers 中提供,并可通过 ScoreSdeVE 流水线 访问。

借助 Diffusers,您只需几行代码即可在 PyTorch 中测试基于分数 SDE 的模型。

安装 Diffusers 的命令如下:

pip install diffusers torch accelerate

然后只需几行代码即可试用这些模型:

from diffusers import DiffusionPipeline

model_id = "google/ncsnpp-ffhq-1024"

# 加载模型和调度器
sde_ve = DiffusionPipeline.from_pretrained(model_id)

# 在推理模式下运行流水线(生成随机噪声并逐步去噪)
image = sde_ve().images[0]

# 保存图像
image[0].save("sde_ve_generated_image.png")

更多模型可以直接在 Hub 上找到

JAX 版本

请参阅 此处 的 JAX 实现,该版本额外支持使用预训练分类器进行类别条件生成,以及在中断后恢复评估过程。

JAX 与 PyTorch 的对比

总体而言,PyTorch 版本的内存消耗较低,但运行速度比 JAX 慢。以下是在 4 张 Nvidia Tesla V100 GPU(每张 32GB)硬件上训练 NCSN++ VE SDE 模型的基准测试结果:

框架 每步耗时(秒) 总内存占用(GB)
PyTorch 0.56 20.6
JAX (n_jitted_steps=1) 0.30 29.7
JAX (n_jitted_steps=5) 0.20 74.8

如何运行代码

依赖项

运行以下命令以安装本代码所需的部分 Python 包:

pip install -r requirements.txt

定量评估用统计文件

我们提供了 CIFAR-10 数据集的统计文件。您可以下载 cifar10_stats.npz,并将其保存到 assets/stats/ 目录下。有关如何为新数据集计算此类统计文件,请参阅 #5

使用方法

通过 main.py 训练和评估我们的模型。

main.py:
  --config: 训练配置。
    (默认值:'None')
  --eval_folder: 存储评估结果的文件夹名称
    (默认值:'eval')
  --mode: <train|eval>:运行模式:训练或评估
  --workdir: 工作目录
  • config 是配置文件的路径。我们提供的预设配置文件位于 configs/ 目录下。这些配置文件按照 ml_collections 的格式编写,应该非常直观易懂。

    配置文件命名规范:配置文件的路径由以下维度组合而成:

    • 数据集:cifar10celebacelebahqcelebahq_256ffhq_256celebahqffhq 中的一个。
    • 模型:ncsnncsnv2ncsnppddpmddpmpp 中的一个。
    • 连续性:使用连续采样的时间步长进行训练。
  • workdir 是存储一次实验所有产物的路径,例如检查点、样本和评估结果。

  • eval_folderworkdir 中用于存储评估过程所有产物的子文件夹名称,例如用于防止中断的元检查点、图像样本以及定量结果的 NumPy 文件。

  • mode 可以是 "train""eval"。当设置为 "train" 时,将开始训练新模型;如果 workdir/checkpoints-meta 中存在该模型的元检查点(用于在云环境中被抢占后恢复运行),则会从中断处继续训练。当设置为 "eval" 时,可以执行以下任意组合的操作:

    • 在测试/验证数据集上评估损失函数。
    • 生成固定数量的样本,并计算其 Inception 分数、FID 或 KID。在评估之前,必须先下载或计算好统计文件,并将其存储在 assets/stats 目录中。
    • 在训练或测试数据集上计算对数似然。

这些功能可以通过配置文件进行配置,也可以更方便地通过 ml_collections 包的命令行支持来实现。例如,要生成样本并评估样本质量,可以使用 --config.eval.enable_sampling 标志;要计算对数似然,则使用 --config.eval.enable_bpd 标志,并通过 --config.eval.dataset=train/test 指定是在训练集还是测试集上计算似然。

如何扩展代码

  • 新的随机微分方程 (SDE):继承 sde_lib.SDE 抽象类,并实现所有抽象方法。discretize() 方法是可选的,默认采用欧拉-丸山离散化。现有的采样方法和似然计算将自动适用于这个新的 SDE。
  • 新的预测器:继承 sampling.Predictor 抽象类,实现 update_fn 抽象方法,并使用 @register_predictor 注册其名称。新预测器可以直接用于 sampling.get_pc_sampler 中的预测-校正采样,以及 controllable_generation.py 中的所有其他可控生成方法。
  • 新的校正器:继承 sampling.Corrector 抽象类,实现 update_fn 抽象方法,并使用 @register_corrector 注册其名称。新校正器可以直接用于 sampling.get_pc_sampler,以及 controllable_generation.py 中的所有其他可控生成方法。

预训练检查点

所有检查点均在此 Google Drive 中提供。

说明:对于某些模型,您可能会找到两个检查点。第一个检查点(编号较小)是我们论文表3中报告FID分数的版本(也对应下表中的FID和IS列)。第二个检查点(编号较大)是我们论文表2中报告黑箱ODE采样器的似然值和FID的版本(也对应下表中的FID(ODE)和NNL (bits/dim)列)。前者对应于训练过程中每5万次迭代时取得的最小FID,而后者则是训练结束时的最后一个检查点。

根据Google的政策,我们无法发布原始的CelebA和CelebA-HQ检查点。不过,我已利用个人资源在FFHQ 1024px、FFHQ 256px以及CelebA-HQ 256px数据集上重新训练了模型,其性能与我们的内部检查点相当。

以下是检查点及其在论文中报告结果的详细列表。FID (ODE) 对应于应用于概率流ODE的黑箱ODE求解器的样本质量。

检查点路径 FID IS FID (ODE) NNL (bits/dim)
ve/cifar10_ncsnpp/ 2.45 9.73 - -
ve/cifar10_ncsnpp_continuous/ 2.38 9.83 - -
ve/cifar10_ncsnpp_deep_continuous/ 2.20 9.89 - -
vp/cifar10_ddpm/ 3.24 - 3.37 3.28
vp/cifar10_ddpm_continuous - - 3.69 3.21
vp/cifar10_ddpmpp 2.78 9.64 - -
vp/cifar10_ddpmpp_continuous 2.55 9.58 3.93 3.16
vp/cifar10_ddpmpp_deep_continuous 2.41 9.68 3.08 3.13
subvp/cifar10_ddpm_continuous - - 3.56 3.05
subvp/cifar10_ddpmpp_continuous 2.61 9.56 3.16 3.02
subvp/cifar10_ddpmpp_deep_continuous 2.41 9.57 2.92 2.99
检查点路径 样本
ve/bedroom_ncsnpp_continuous bedroom_samples
ve/church_ncsnpp_continuous church_samples
ve/ffhq_1024_ncsnpp_continuous ffhq_1024
ve/ffhq_256_ncsnpp_continuous ffhq_256_samples
ve/celebahq_256_ncsnpp_continuous celebahq_256_samples

演示与教程

链接 描述
Open In Colab 加载我们的预训练检查点,体验采样、似然计算和可控生成(JAX + FLAX)
Open In Colab 加载我们的预训练检查点,体验采样、似然计算和可控生成(PyTorch)
Open In Colab JAX + FLAX中的基于分数的生成模型教程
Open In Colab PyTorch中的基于分数的生成模型教程

小贴士

  • 使用JAX代码库时,可以将多个训练步骤一起进行jit编译,以提高训练速度,但会增加内存消耗。这可以通过config.training.n_jitted_steps来设置。对于CIFAR-10数据集,如果您的GPU/TPU内存充足,建议使用config.training.n_jitted_steps=5;否则建议使用config.training.n_jitted_steps=1。目前的实现要求config.training.log_freq能够被n_jitted_steps整除,以便日志记录和检查点保存正常工作。
  • LangevinCorrectorsnr(信噪比)参数在某种程度上类似于温度参数。较大的snr通常会产生更平滑的样本,而较小的snr则会产生更多样但质量较低的样本。典型的snr取值为0.05 - 0.2,需要通过调优找到最佳平衡点。
  • 对于VE SDE,建议将config.model.sigma_max设置为训练数据集中任意两个样本之间的最大距离。

参考文献

如果您发现该代码对您的研究有帮助,请考虑引用以下文献:

@inproceedings{
  song2021scorebased,
  title={基于分数的生成模型:通过随机微分方程},
  author={杨松、雅沙·索尔-迪克斯坦、迪德里克·P·金格玛、阿比谢克·库马尔、斯特凡诺·埃尔蒙、本·普尔},
  booktitle={国际表示学习大会},
  year={2021},
  url={https://openreview.net/forum?id=PxTIG12RRHS}
}

本工作建立在一些先前的论文基础上,这些论文也可能对您有所兴趣:

  • 杨松和斯特凡诺·埃尔蒙. “通过估计数据分布的梯度进行生成建模.” 第33届神经信息处理系统年会论文集. 2019年.
  • 杨松和斯特凡诺·埃尔蒙. “训练基于分数的生成模型的改进方法.” 第34届神经信息处理系统年会论文集. 2020年.
  • 霍, 乔纳森、阿贾伊·贾因和皮特·阿贝尔. “去噪扩散概率模型.” 第34届神经信息处理系统年会论文集. 2020年.

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|2天前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|3天前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

144.7k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.9k|★★☆☆☆|昨天
开发框架图像Agent

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|昨天
插件开发框架

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|2天前
语言模型图像Agent