关于深度学习的 batch、iteration 和 epoch

340 阅读1分钟

假设整个数据集的数据量用 dataSet 表示。
把 dataSet 个数据都训练一遍,就叫一个 epoch。
又可以将整个 dataSet 分成几批去训练,每一批的数量就是 batch。
而把 batch(batch_size) 个数据都训练一遍,就叫一个 iteration。
有这样的对应关系:

    graph LR
    dataSet --> C(epoch)
    graph LR
    batch --> C(iteration)

并且有: iteration * batch = dataSet 的等式关系。