我在尝试使用相应的批量大小为 8 的 Dataloader 对长度为 785 的数据集进行训练时遇到了同样的问题。
使数据集长度可被批量大小整除解决了问题
【讨论】:
主要原因可能是内存不足(不是 GPU 内存)。使用检查内存和交换内存。如果是,那就是内存问题。您可以使用小批量,使用小的 num_workers,扩展您的交换内存等。任何可以减少记忆负荷的方法都会有所帮助。
how-to-add-swap-space-on-ubuntu
使用 np.loadtxt() 方法时,请确保添加 ndims = 2 作为参数。 因为对象数参数 num_obj 变为 10,即使它只有 1 个对象。
这是因为 1 个对象变成了一个列向量,显示为 10 个对象。 (代表10列)
ndims = 2,确保 np.loadtxt() 方法的输出不给出任何行或列向量,只有二维输出。