pytorch-custom-dataset-examples

GitHub
873 114 非常简单 1 次阅读 2周前MIT开发框架数据工具
AI 解读 由 AI 自动生成,仅供参考

pytorch-custom-dataset-examples 是一个专为 PyTorch 初学者和开发者打造的开源教程仓库,旨在通过丰富的实战案例,帮助用户轻松掌握自定义数据集(Custom Dataset)的构建方法。许多新手在使用 PyTorch 官方文档时,常因示例过于抽象而难以理解如何将本地数据(如图片、CSV 文件)转化为模型可训练的格式。本工具直击这一痛点,系统地拆解了从基础骨架到高级应用的完整流程。

它详细演示了如何编写核心的 __init____getitem____len__ 函数,并展示了多种实用场景:包括结合 torchvision 进行图像增强、利用 pandas 读取表格数据、在文件名中嵌入类别标签以及灵活设计数据加载逻辑等。其独特的技术亮点在于不仅提供了标准写法,还分享了作者历经多年项目迭代后的“极简”实现思路,强调了自定义数据集的灵活性——用户完全可以根据需求自由塑造数据结构。

无论是刚入门深度学习的学生、需要快速验证想法的研究人员,还是正在构建复杂数据管道的工程师,都能从中找到适合自己的参考方案。通过阅读这些清晰的代码示例,用户可以省去查阅海量文档的时间,快速建立起对 PyTorch 数据加载机制的直观理解,从而更高效地推进自己的 AI 项目。

使用场景

某计算机视觉工程师正在构建一个医疗影像分类模型,需要处理分散在多个 CSV 文件中的患者 X 光片及其对应的复杂诊断标签。

没有 pytorch-custom-dataset-examples 时

  • 开发者需反复查阅晦涩的官方文档,难以理解如何正确继承 Dataset 基类并实现 __getitem__ 方法。
  • 面对非标准存储结构(如图片路径与标签分离),不知如何在初始化阶段高效整合 Pandas 数据清洗逻辑。
  • 容易因返回数据类型错误(如直接返回 PIL 图像而非 Tensor)导致 DataLoader 报错,调试耗时极长。
  • 缺乏灵活的数据增强示例,难以将 torchvision 变换自然地嵌入自定义数据加载流程中。
  • 只能照搬固定模板,无法根据实际项目需求灵活调整数据集类的内部逻辑。

使用 pytorch-custom-dataset-examples 后

  • 参考清晰的骨架代码,快速掌握 __init____getitem____len__ 的核心写法,立即上手编写自定义类。
  • 直接复用集成 Pandas 读取 CSV 的成熟案例,轻松实现路径解析、标签映射及异常数据过滤的一站式处理。
  • 通过示例明确得知 __getitem__ 必须返回张量或字典等特定类型,彻底避免批次加载时的类型错误。
  • 学习多种 torchvision 变换的接入模式,灵活选择在初始化时应用还是在线动态增强,提升模型泛化能力。
  • 领悟“自定义”的真谛,不再受限于固定范式,而是根据医疗数据的特殊性设计出最契合的数据管道。

pytorch-custom-dataset-examples 通过提供从基础到进阶的实战范例,将原本陡峭的自定义数据加载学习曲线转化为平滑的开发路径,显著提升了原型验证效率。

运行环境要求

GPU

未说明

内存

未说明

依赖
notes这是一个教学示例仓库,用于展示如何编写 PyTorch 自定义数据集类。文中未明确指定具体的操作系统、硬件配置或严格的版本要求。代码依赖标准的 PyTorch 生态(torch, torchvision)以及数据处理库(pandas, numpy, Pillow)。作者提到随着时间推移,其个人实践已不再强制依赖 torchvision transforms 或 CSV 文件,而是倾向于在数据集类内部实现更灵活的预处理逻辑。
python未说明
torch
torchvision
pandas
numpy
Pillow
pytorch-custom-dataset-examples hero image

快速开始


PyTorch 自定义数据集示例

两年后的更新: 我创建这个仓库来指导刚开始接触 PyTorch 的人(就像当年的我一样)已经过去很久了。然而,随着岁月的流逝和不同项目的开展,我构建数据集的方式也多次改变。我在 这里 添加了一个更基础的数据集,以展示我现在常用的实现方式。我想强调的是,自定义数据集之所以被称为“自定义”,正是因为它可以根据你的需求进行任意设计。因此,在你参与不同的项目后,自然而然会形成自己独特的数据集构建方式。本项目中提供的示例并不是创建自定义数据集的唯一正确方法,而是为了展示 PyTorch 数据集的灵活性和可能性。希望这个仓库能够帮助你更好地理解 PyTorch 数据集。

PyTorch 官方仓库中也有一些自定义数据集的示例,比如 这个,但对于初学者来说(像当时的我一样),这些示例仍然有些晦涩难懂。我不得不花一些时间去弄清楚究竟需要做些什么才能构建一个完全自定义的数据集。为了避免大家翻阅大量资料的麻烦,我在这里总结了 PyTorch 数据集的基础知识。具体内容如下:

主题

自定义数据集基础

首先也是最重要的一点,就是创建一个数据集类。

from torch.utils.data.dataset import Dataset

class MyCustomDataset(Dataset):
    def __init__(self, ...):
        # 初始化操作
        
    def __getitem__(self, index):
        # 处理数据
        return (img, label)

    def __len__(self):
        return count # 你拥有的样本数量

这就是你需要填充的基本框架,才能构建一个自定义数据集。数据集必须包含以下方法,以便后续被数据加载器使用:

  • __init__() 方法用于执行初始化逻辑,例如读取 CSV 文件、设置变换、筛选数据等。
  • __getitem__() 方法返回数据及其标签。该方法会在数据加载器中被调用,例如:
img, label = MyCustomDataset.__getitem__(99)  # 获取第 99 个样本

这里的 MyCustomDataset 返回了一张图像和一个标签,但这并不意味着 __getitem__() 只能返回这两样内容。根据你的应用场景,你可以返回多种类型的数据。

需要注意的是,__getitem__() 必须为单个数据点返回特定类型的对象(如张量、NumPy 数组等),否则在数据加载器中会遇到类似以下的错误:

TypeError: batch must contain tensors, numbers, dicts or lists; found <class 'PIL.PngImagePlugin.PngImageFile'>

  • __len__() 方法返回数据集中样本的总数。

使用 torchvision transforms

在大多数示例中,__init__() 方法中的 transforms 参数通常被设置为 None。这是用来对你的数据或图像应用 torchvision 提供的变换操作。详细的变换列表可以参考 这里这里。最常见的用法如下:

from torch.utils.data.dataset import Dataset
from torchvision import transforms

class MyCustomDataset(Dataset):
    def __init__(self, ..., transforms=None):
        # 初始化操作
        ...
        self.transforms = transforms
        
    def __getitem__(self, index):
        # 处理数据
        ...
        data = # 从文件或图像中读取的数据
        if self.transforms is not None:
            data = self.transforms(data)
        # 如果 transforms 不为空,则按照其创建顺序依次应用变换操作
        return (img, label)

    def __len__(self):
        return count # 你拥有的数据(图像)数量
        
if __name__ == '__main__':
    # 定义变换 (1)
    transformations = transforms.Compose([transforms.CenterCrop(100), transforms.ToTensor()])
    # 实例化数据集
    custom_dataset = MyCustomDataset(..., transformations)
    

另一种使用 torchvision transforms 的方式

就我个人而言,我不太喜欢把数据集的变换逻辑放在数据集类之外(见上面的 (1))。因此,除了上述示例中的用法外,你还可以这样使用:

from torch.utils.data.dataset import Dataset
from torchvision import transforms

class MyCustomDataset(Dataset):
    def __init__(self, ...):
        # 初始化操作
        ...
        # (2) 一种方法是单独定义每个变换
        # 当你定义变换时,会调用该变换的 __init__() 方法
        self.center_crop = transforms.CenterCrop(100)
        self.to_tensor = transforms.ToTensor()
        
        # (3) 或者你也可以直接组合它们
        self.transformations = \
            transforms.Compose([transforms.CenterCrop(100),
                                transforms.ToTensor()])
        
    def __getitem__(self, index):
        # 处理数据
        ...
        data = # 从文件或图像中读取的数据
        
        # 第二次调用变换时,会触发 __call__() 方法并应用变换
        data = self.center_crop(data)  # (2)
        data = self.to_tensor(data)  # (2)
        
        # 或者你可以直接使用组合好的变换
        data = self.transformations(data)  # (3)
        
        # 注意,你只需要选择其中一种实现方式即可,(2) 或 (3)
        return (img, label)

    def __len__(self):
        return count # 你拥有的数据(图像)数量
        
if __name__ == '__main__':
    # 实例化数据集
    custom_dataset = MyCustomDataset(...)
    

结合 Pandas

假设我们想用 Pandas 从一个 CSV 文件中读取数据。第一个示例的 CSV 文件如下(虽然没有表头,但这并不影响),它包含文件名、标签(类别)以及一个额外的操作指示符。根据这个操作标志,我们会对图像执行一些操作。

文件名 标签 额外操作
tr_0.png 5 TRUE
tr_1.png 0 FALSE
tr_1.png 4 FALSE

如果我们想要构建一个自定义数据集,从这个 CSV 文件中读取图像路径,可以按照以下方式实现:

class CustomDatasetFromImages(Dataset):
    def __init__(self, csv_path):
        """
        参数:
            csv_path (string): CSV 文件的路径
            img_path (string): 图像所在文件夹的路径
            transform: PyTorch 的变换工具,用于图像变换和转换为张量
        """
        # 定义转换:将图像转换为张量
        self.to_tensor = transforms.ToTensor()
        # 读取 CSV 文件
        self.data_info = pd.read_csv(csv_path, header=None)
        # 第一列是图像路径
        self.image_arr = np.asarray(self.data_info.iloc[:, 0])
        # 第二列是标签
        self.label_arr = np.asarray(self.data_info.iloc[:, 1])
        # 第三列是操作指示符
        self.operation_arr = np.asarray(self.data_info.iloc[:, 2])
        # 计算数据长度
        self.data_len = len(self.data_info.index)

    def __getitem__(self, index):
        # 从 Pandas DataFrame 中获取图像名称
        single_image_name = self.image_arr[index]
        # 打开图像
        img_as_img = Image.open(single_image_name)

        # 检查是否有操作
        some_operation = self.operation_arr[index]
        # 如果有操作
        if some_operation:
            # 对图像执行某些操作
            # ...
            # ...
            pass
        # 将图像转换为张量
        img_as_tensor = self.to_tensor(img_as_img)

        # 根据截取的 Pandas 列获取图像的标签(类别)
        single_image_label = self.label_arr[index]

        return (img_as_tensor, single_image_label)

    def __len__(self):
        return self.data_len

if __name__ == "__main__":
    # 调用数据集
    custom_mnist_from_images =  \
        CustomDatasetFromImages('../data/mnist_labels.csv')

结合 Pandas 并加入更多逻辑

另一个例子可能是从 CSV 文件中读取图像,其中每个像素的值都列在单独的一列中。(有时 MNIST 数据集就是以这种方式提供的)。这只需要修改 __getitem__() 方法中的逻辑即可。最终,你只需返回图像的张量及其标签。数据可能被组织成如下形式:

标签 pixel_1 pixel_2 ...
1 50 99 ...
0 21 223 ...
9 44 112 ...
class CustomDatasetFromCSV(Dataset):
    def __init__(self, csv_path, height, width, transforms=None):
        """
        参数:
            csv_path (string): CSV 文件的路径
            height (int): 图像的高度
            width (int): 图像的宽度
            transform: PyTorch 的变换工具,用于图像变换和转换为张量
        """
        self.data = pd.read_csv(csv_path)
        self.labels = np.asarray(self.data.iloc[:, 0])
        self.height = height
        self.width = width
        self.transforms = transform

    def __getitem__(self, index):
        single_image_label = self.labels[index]
        # 读取每行的 784 个像素值,并将一维数组 ([784]) 重塑为二维数组 ([28,28])
        img_as_np = np.asarray(self.data.iloc[index][1:]).reshape(28,28).astype('uint8')
	# 将 NumPy 数组转换为 PIL 图像,模式 'L' 表示灰度图
        img_as_img = Image.fromarray(img_as_np)
        img_as_img = img_as_img.convert('L')
        # 将图像转换为张量
        if self.transforms is not None:
            img_as_tensor = self.transforms(img_as_img)
        # 返回图像和标签
        return (img_as_tensor, single_image_label)

    def __len__(self):
        return len(self.data.index)
        

if __name__ == "__main__":
    transformations = transforms.Compose([transforms.ToTensor()])
    custom_mnist_from_csv = \
        CustomDatasetFromCSV('../data/mnist_in_csv.csv', 28, 28, transformations)
        

一个自定义的自定义的自定义数据集

我已经很久没有更新这个仓库了(居然有两年了),在这段时间里,我几乎完全不再使用 torchvision 的变换以及 CSV 等文件格式(除非绝对必要)。我之所以不再使用 torchvision 的变换,一方面是因为我自己编写了相应的变换函数;但更重要的原因是,我不太喜欢在大多数最佳实践示例中,将变换作为参数传入数据集类并在初始化时设置的做法,因为这并不是一种最佳的方式。在我的训练数据集中,我经常需要对图像或数据进行一些随机的预处理操作(如翻转、镜像、填充、添加噪声、饱和度调整、裁剪等),并且希望能够自由地选择这些操作的程度,甚至决定是否应用它们。因此,我的数据集通常遵循如下流程:

1- 获取待读取图像/数据的位置
2- 读取图像/数据
3- 转换为 NumPy 数组
4- 对 NumPy 数组进行一些处理(随机)
5- 对 NumPy 数组进行一些处理(随机)
6- 对 NumPy 数组进行一些处理(随机)
...
15- 将数据转换为张量
返回数据位置、数据名称、数据和标签

当然,你也可以像我上面列出的那样直接应用变换,归根结底这只是个人偏好问题。

下面我分享一个我在大多数实验中使用的极简自定义数据集。

class CustomDatasetFromFile(Dataset):
    def __init__(self, folder_path):
        """
        一个数据集示例,其中类别信息嵌入在文件名中。
        此数据集也不使用任何 PyTorch 变换。

        Args:
            folder_path (string): 图像文件夹路径
        """
        # 获取图像列表
        self.image_list = glob.glob(folder_path+'*')
        # 计算数据长度
        self.data_len = len(self.image_list)

    def __getitem__(self, index):
        # 从文件路径中获取图像名称
        single_image_path = self.image_list[index]
        # 打开图像
        im_as_im = Image.open(single_image_path)

        # 对图像进行一些操作
        # 转换为 NumPy 数组,尺寸为 28x28
        im_as_np = np.asarray(im_as_im)/255
        # 增加通道维度,尺寸为 1x28x28
        # 注意:如果你读取的是 RGB 图像,或者数据本身已经有通道维度,则无需执行此步骤。
        im_as_np = np.expand_dims(im_as_np, 0)
        # 对 NumPy 数组进行一些预处理操作
        # ...
        # ...
        # ...

        # 将图像转换为张量,并更改数据类型
        im_as_ten = torch.from_numpy(im_as_np).float()

        # 根据文件名获取图像的标签(类别)
        class_indicator_location = single_image_path.rfind('_c')
        label = int(single_image_path[class_indicator_location+2:class_indicator_location+3])
        return (im_as_ten, label)

    def __len__(self):
        return self.data_len

使用数据加载器

PyTorch 的数据加载器会调用 __getitem__() 方法,并将数据打包成批次。理论上,我们也可以不使用数据加载器,而是逐个调用 __getitem__() 方法并将数据输入模型(尽管使用数据加载器确实非常方便)。继续以上面的例子为例,假设我们有一个名为 CustomDatasetFromCSV 的自定义数据集,那么我们可以这样调用数据加载器:

...
if __name__ == "__main__":
    # 定义变换
    transformations = transforms.Compose([transforms.ToTensor()])
    # 定义自定义数据集
    custom_mnist_from_csv = \
        CustomDatasetFromCSV('../data/mnist_in_csv.csv',
                             28, 28,
                             transformations)
    # 定义数据加载器
    mn_dataset_loader = torch.utils.data.DataLoader(dataset=custom_mnist_from_csv,
                                                    batch_size=10,
                                                    shuffle=False)
    
    for images, labels in mn_dataset_loader:
        # 将数据输入模型

数据加载器的第一个参数是数据集对象,它会调用该数据集的 __getitem__() 方法。batch_size 参数决定了每个批次包含多少个独立的数据点。如果假设单个图像张量的尺寸为 1x28x28(D:1, H:28, W:28),那么通过这个数据加载器返回的张量将是 10x1x28x28(批次-深度-高度-宽度)。

关于 多 GPU 的使用说明。在 PyTorch 中,多 GPU 数据加载器的工作方式是尝试将批次均匀地分配到所有可用的 GPU 上。因此,如果使用的 batch_size 小于 GPU 的数量,就无法充分利用所有的 GPU。

未来更新

我会在有空的时候继续更新这个仓库。以下是我计划加入的一些内容。如果你希望看到其他特定的示例,请随时告诉我。

  • 一个可运行的 Imagenet 自定义数据集,包含归一化等操作。注: 嗯,我一直想做这件事很久了。我可能会同时再做一个 CIFAR 的自定义数据集。
  • 一个适用于编码器-解码器网络(如 U-Net)的自定义数据集示例。注: 我的学生们已经为他们的项目编写了一个 U-Net 数据集,感兴趣的话可以查看 这里

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|2周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

160.4k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

109.2k|★★☆☆☆|昨天
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|1周前
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|1周前
插件开发框架