
Die KI-Gesichtserkennung ist immer noch nicht neutral
Obwohl KI-Gesichtserkennungs-Programme bereits massiv von der Polizei in den USA, in Australien und in Frankreich eingesetzt werden, können diese Programme Menschen mit dunkler Hautfarbe viel schlechter erkennen als Weiße. Außerdem Frauen schlechter als Männer. Die meisten Fehler passieren also bei dunkelhäutigen Frauen.
Die naheliegende Erklärung dafür ist: Die Foto-Datenbanken für das Training der Gesichtserkennungsprogramme stammen aus dem Internet und enthalten bis zu 80 % Gesichter von Weißen.
Die generell schlechtere Gesichtserkennung von Frauen erklärt man mit der Verwendung von Makup. Ich glaube aber, Frauen haben eine viele reichere Gefühlswelt als Männer und zeigen das dementsprechend in viel mehr Gesichtsausdrücken als Männer. Das bringt die Maschinen durcheinander. 🙂 Nicht ihr Makeup macht Frauen so schwer fassbar, sondern ihre Gefühle.
Wohl werden dunkelhäutige Menschen aber auch schlechter von den KI-Programmen erkannt, da die Digitalfotografie eher auf die Aufnahme von weißen Gesichtern hin entwickelt wurde. Also könnte das auch ein technisches Problem sein. Sicher spielen beide Ursachen eine Rolle: zu wenige Fotos von dunkelhäutigen Menschen in den Datenbanken und eine schlechtere Qualität ihrer Fotos.
Der Gesichtserkennungsexperte Patrick Grother stellte eine etwas politisch unkorrekte Hypothese auf: dunkelhäutige Menschen seien statistisch gesehen schlechter unterscheidbar als Weiße. Das wäre eine phänotypische Erklärung, für die es jedoch keine wissenschaftliche Begründung gibt. Auf jeden Fall kann ich dafür als ursprünglich theoretischer Molekularbiologe keinen molekularbiologischen Grund erkennen.
Photo by Mehrdad Haghighi on Unsplash.
Neueste Kommentare