Pytorch如果batch size大于dataset size会发生什么

271 阅读1分钟

结论

先给结论:**和batch size无关了。**DataLoader每次会把full size给出来,同时每个step就等于一个epoch

相关

ptrblck在以下这个回答中指出:DataLoader的时候设置batchsize之后他就会划分data,然后有个函数__len()__提前计算好了有多少个batch,如果1001个样本,batchsize是10,那__len__()就会返回101,同时最后一个batch将只有1个样本。

discuss.pytorch.org/t/about-the…

如果希望每次DataLoader都严格给出batchsize大小的batch,就设置drop_last=True