ValueError:使用火炬张量时需要解压的值太多

2024-05-15

对于神经网络项目,我使用 Pytorch 并使用 EMNIST 数据集。

已经给出的代码加载到数据集中:

train_dataset = dsets.MNIST(root='./data', 
                            train=True, 
                            transform=transforms.ToTensor(),
                            download=True)

并准备它:

train_loader = torch.utils.data.DataLoader(dataset=train_dataset, 
                                           batch_size=batch_size, 
                                           shuffle=True)

然后,当定义了网络的所有配置后,有一个 for 循环来训练每个时期的模型:

 for i, (images, labels) in enumerate(train_loader):

在示例代码中,这工作得很好。

对于我的任务,我得到了一个加载的数据集,如下所示:

emnist = scipy.io.loadmat("DIRECTORY/emnist-letters.mat")

data = emnist ['dataset']
X_train = data ['train'][0, 0]['images'][0, 0]
y_train = data ['train'][0, 0]['labels'][0, 0]

然后,我创建 train_dataset 如下:

train_dataset = np.concatenate((X_train, y_train), axis = 1)
train_dataset = torch.from_numpy(train_dataset)

并使用相同的步骤来准备它:

train_loader = torch.utils.data.DataLoader(dataset=train_dataset, 
                                           batch_size=batch_size, 
                                           shuffle=True)

但是,当我尝试使用与以前相同的循环时:

for i, (images, labels) in enumerate(train_loader):

我收到以下错误:

ValueError: too many values to unpack (expected 2)

谁知道我可以做什么才能用这个循环训练我的数据集?


您从 EMNIST 数据创建的数据集是单个张量,因此数据加载器也将生成单个张量,其中第一个维度是批次维度。这会导致尝试在批量维度上解压缩该张量,这是行不通的,因为您的批量大小大于二,但也不是您想要发生的情况。

您可以使用torch.utils.data.TensorDataset https://pytorch.org/docs/stable/data.html#torch.utils.data.TensorDataset轻松创建一个数据集,该数据集会生成图像元组及其各自的标签,就像 MNIST 数据集一样。

train_dataset = torch.utils.data.TensorDataset(torch.from_numpy(X_train), torch.from_numpy(y_train))
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

ValueError:使用火炬张量时需要解压的值太多 的相关文章

随机推荐