Die ReLU-Funktion ist eine
Aktivierungsfunktion, die häufig in neuronalen Netzen verwendet wird. Sie ist
definiert als max(0,x) und gibt den Wert von x zurück, wenn er positiv ist, und
0, wenn er negativ ist. Die ReLU-Funktion ist nützlich, um die Effizienz von
neuronalen Netzen zu erhöhen und das Problem des Verschwindens des Gradienten
zu vermeiden.