


Wie Bankräuber sich vor der Überwachung mit KI tarnen können
Wissenschaftler der Universität Tübingen haben in diesem Jahre herausgefunden, dass künstliche neuronale Netze (KNN) Objekte eher an ihren Texturen erkennen, das heißt an der Oberflächenbeschaffenheit dieser Objekte. Menschen eher an Formen der Objekte. Unseren Vorfahren musste nun mal nur ein schneller Blick ins Dunkle reichen, um den Tiger an seinen Umrissen zu erkennen. Wer den Tiger im Dunkeln nur an seinem gestreiften Fell erkennen konnte, wurde gefressen.
Dass KNN sich nicht an Gestalten orientieren, weist auch Wege, wie man sie austrickst: Vor kurzem haben Forscher an der Universität Leuven entdeckt, womit man künstliche neuronale Netze, die in der Überwachung eingesetzt werden, in die Irre führen kann: Eine Person wird von dem Überwachungsnetz nicht als Person erkannt, wenn sie am Körper ein bestimmtes farbiges Bild trägt.
So kann man für die Erkennung von Bankräubern bald wieder Menschen statt KI-Überwachungskameras einsetzen. Wenn eine Person in die Bank kommt, die am Bauch ein farbiges Bild trägt, um das KI-Überwachungssystem zu überlisten, ist es ein Räuber. 🙂

Mit einem T-Shirt gegen Überwachung
Der beste Datenschutz heutzutage ist wohl, so viele Lügen über sich zu verbreiten, dass darin niemand die Wahrheit fischen kann. Deswegen müsste man jede Google-Suche mit einigen parallel dazu laufenden Tarnsuchen nach Unsinn begleiten. Ansonsten hat man den fleißigen Datensammlern schon durch das Stöbern im Netz ein lückenloses Persönlichkeitsprofil geliefert: Was man kauft, was man isst, was man liest, welche Krankheiten man hat, welche sexuellen Vorleiben und den ganzen Rest.
Auch wo und wie man sich bewegt, wird gern erfasst. Zum Beispiel bei der automatischen Kennzeichen-Erfassung, und das nicht nur in den USA, sondern auch in Bayern.
Zumindest, was Überwachung angeht, kann man aber künstliche neuronale Netze (KNN) in der Bilderkennung austricksen. Wohl orientieren sich KNN bei ihrer Erkennung an den Texturen, also an der Oberflächenbeschaffenheit der Objekte. Nicht an ihren Formen wie wir Menschen.
Gern verwechseln KNN dreidimensionale mit zweidimensionalen Bildern. So wurde eine berühmte chinesische Managerin auf einem öffentlichen Bildschirm angeprangert, weil sie verbotenerweise über eine Straße gegangen sei. Dabei hat sie die Kamera auf dem Plakat eines vorbeifahrenden Busses gefilmt. Die Statue des berühmten tschechischen Marathonläufers und Olympiasiegers Emil Zatopek könnte ein Bilderkennungsprogreamm somit folgend beschreiben: “Ein Mann, der auf der Straße läuft.”
Auf der diesjährigen DefCon (August 2019), der Cybersicherheitskonferenz in Las Vegas, hat die Designerin und Hackerin Kate Rose ihre “Adversial Fashion Line” vorgestellt: Mit verschiedenen Autokennzeichen bedruckte Kleidungsstücke.
Selbstverständlich würden gut trainierte neuronale Netze auf diesen Trick nicht hereinfallen. Um die gängigen Modelle für die Autokennzeichen-Überwachung zu verwirren, dürften sie aber reichen. Momentan. Die künstlichen neuronalen Netze werden immer besser. Bald wird es sehr schwierig sein, sie auszutricksen. Deswegen sollten wir schauen, dass KNN nicht dazu missbraucht werden, uns zu überwachen.
Foto: Lianhao Qu bei Unsplash

Optimierung
So wie es sich beim Kochen einer Kartoffelsuppe mit Steinpilzen auch um ein Optimierungsverfahren handelt, nur kein mathematisches: dabei tue ich Kartoffel in die Suppe, Steinpilze, etwas Salz, etwas Pfeffer, Majoran, Butter, wieder Pfeffer und Salz … Wenn die Suppe plötzlich zu salzig ist, schmeiße ich noch zwei Kartoffeln hinein. Und dann wieder Pfeffer. Auch Wasser gieße ich nach. Gebe Knoblauch dazu … So lange schütte ich Zutaten in die Suppe und koste die Suppe nach jedem solchen Schritt, bis die Suppe super schmeckt. Mit dem Kosten der Suppe ermittle ich schrittweise ihren Fehler und verbessere diesen. Immer wenn ich nach dem Kosten neue Zutaten hinzufüge, ist das Backpropagation of Error. Wie beim Training eines künstlichen neuronalen Netzes eben.

Die KI-Gesichtserkennung ist immer noch nicht neutral
Obwohl KI-Gesichtserkennungs-Programme bereits massiv von der Polizei in den USA, in Australien und in Frankreich eingesetzt werden, können diese Programme Menschen mit dunkler Hautfarbe viel schlechter erkennen als Weiße. Außerdem Frauen schlechter als Männer. Die meisten Fehler passieren also bei dunkelhäutigen Frauen.
Die naheliegende Erklärung dafür ist: Die Foto-Datenbanken für das Training der Gesichtserkennungsprogramme stammen aus dem Internet und enthalten bis zu 80 % Gesichter von Weißen.
Die generell schlechtere Gesichtserkennung von Frauen erklärt man mit der Verwendung von Makup. Ich glaube aber, Frauen haben eine viele reichere Gefühlswelt als Männer und zeigen das dementsprechend in viel mehr Gesichtsausdrücken als Männer. Das bringt die Maschinen durcheinander. 🙂 Nicht ihr Makeup macht Frauen so schwer fassbar, sondern ihre Gefühle.
Wohl werden dunkelhäutige Menschen aber auch schlechter von den KI-Programmen erkannt, da die Digitalfotografie eher auf die Aufnahme von weißen Gesichtern hin entwickelt wurde. Also könnte das auch ein technisches Problem sein. Sicher spielen beide Ursachen eine Rolle: zu wenige Fotos von dunkelhäutigen Menschen in den Datenbanken und eine schlechtere Qualität ihrer Fotos.
Der Gesichtserkennungsexperte Patrick Grother stellte eine etwas politisch unkorrekte Hypothese auf: dunkelhäutige Menschen seien statistisch gesehen schlechter unterscheidbar als Weiße. Das wäre eine phänotypische Erklärung, für die es jedoch keine wissenschaftliche Begründung gibt. Auf jeden Fall kann ich dafür als ursprünglich theoretischer Molekularbiologe keinen molekularbiologischen Grund erkennen.
Photo by Mehrdad Haghighi on Unsplash.
Neueste Kommentare