Bias

Bias bezieht sich auf eine systematische Abweichung in den Vorhersagen eines künstlichen Intelligenz-Modells. Es tritt auf, wenn das Modell nicht in der Lage ist, alle relevanten Informationen in den Trainingsdaten zu erfassen und daher bestimmte Arten von Mustern oder Merkmalen bevorzugt. Ein Beispiel hierfür ist ein Gesichtserkennungsmodell, das bestimmte Ethnien oder Geschlechter aufgrund von Vorurteilen bevorzugt.


» Fachbegriffe der künstlichen Intelligenz