Der Batch-Size bezieht sich auf
die Anzahl der Trainingsbeispiele, die in einer Iteration einer Lernmethode wie
Gradient Descent oder Stochastic Gradient Descent verwendet werden. Ein höherer
Batch-Size führt normalerweise zu einer schnelleren Konvergenz des Modells, da
die Gewichte des Modells weniger häufig aktualisiert werden. Ein niedrigerer
Batch-Size kann jedoch dazu beitragen, das Modell vor Überanpassung zu
schützen, da es mehr Variationen in den Trainingsdaten gibt.