Der ADAM-Optimizer ist ein
Optimierungsalgorithmus, der in der Deep-Learning-Methode der künstlichen
Intelligenz verwendet wird, um die Gewichte eines neuronalen Netzes anzupassen.
Der Name steht für "Adaptive Moment Estimation". ADAM ist eine Erweiterung
des Stochastic-Gradient-Descent-Verfahrens (SGD) und nutzt adaptive
Schrittweiten und Momente, um die Lernrate automatisch zu justieren. Es ist ein
effektiver Optimierungsalgorithmus, der in vielen Anwendungen verwendet wird.