Bias bezieht sich auf eine
systematische Abweichung in den Vorhersagen eines künstlichen
Intelligenz-Modells. Es tritt auf, wenn das Modell nicht in der Lage ist, alle
relevanten Informationen in den Trainingsdaten zu erfassen und daher bestimmte
Arten von Mustern oder Merkmalen bevorzugt. Ein Beispiel hierfür ist ein
Gesichtserkennungsmodell, das bestimmte Ethnien oder Geschlechter aufgrund von
Vorurteilen bevorzugt.