NNのバッチサイズ変更による学習結果の変化
概要
- ニューラルネットワークでバッチサイズを変更した場合に、学習結果(推論精度)がどのように変化するかを調べる
- 題材としてMNISTを使用し、畳み込みニューラルネットワークでバッチサイズのみ変更して学習を行う
結果
- バッチサイズがある値より小さいと、同じエポック数でも精度があがっていない
- エポック1回分の学習回数が異なるためと考えられる
- またある値より大きいと、だいたい同じ精度となっている
- 学習が収束に向かうため
- 可能ならばバッチサイズは大きめにとるとよさそう
環境
- Python 3.7.10
- TensorFlow 2.4.1