哪里使用了PyTorch Dataset中的len函数?

我想使用这里的代码。然而,我在查看第5个代码块时,发现了以下函数:

def __len__(self):    # 默认的epoch大小为10000个样本    return 10000

我在这整个脚本中没有看到任何地方使用了这个函数。希望能得到一些澄清。

另外,我想确定用于训练这个卷积神经网络的图像块数量。这个len函数是否与图像块的数量有关?


回答:

这是Dataset类的一个函数。__len__()函数指定了数据集的大小。在你引用的代码中,第10个代码块中初始化了一个数据集并传递给DataLoader对象:

train_set = ISPRS_dataset(train_ids, cache=CACHE)train_loader = torch.utils.data.DataLoader(train_set,batch_size=BATCH_SIZE)

你可以看到在DataLoader中传递了数据集对象以及批次大小。DataLoader对象随后使用Dataset的__len__函数来创建批次。这在第13个代码块中,通过迭代DataLoader来实现。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注