结论
先给结论:**和batch size无关了。**DataLoader每次会把full size给出来,同时每个step就等于一个epoch
相关
ptrblck在以下这个回答中指出:DataLoader
的时候设置batchsize之后他就会划分data,然后有个函数__len()__
提前计算好了有多少个batch,如果1001个样本,batchsize是10,那__len__()
就会返回101,同时最后一个batch将只有1个样本。
discuss.pytorch.org/t/about-the…
如果希望每次DataLoader都严格给出batchsize大小的batch,就设置drop_last=True