von SERGIO AMADEU DA SILVEIRA*
Die Risiken extrem schädlicher Auswirkungen auf Gesellschaften.
Durch die derzeitige neoliberale Vorherrschaft wird die Logik verstärkt, dass alle erfundenen Technologien genutzt werden müssen. Eine Variante dieses Gedankens findet sich in dem Satz „Wenn eine Technologie von kommerziellem Interesse ist, gibt es keine Möglichkeit, sie zu stoppen“. Die Fakten deuten jedoch auf andere Möglichkeiten hin. Viele Technologien wurden verboten und andere wurden nach einer gewissen Zeit verboten.
Beispielsweise gelten chemische Waffen als inakzeptabel und werden von demokratischen Ländern nicht eingesetzt. Mehrere Pestizide wurden abgeschafft, beispielsweise das gefährliche DDT. Im Jahr 2015 unterzeichneten Hunderte von Persönlichkeiten, darunter Noam Chomsky und Stephen Hawking, einen offenen Brief mit dem Titel „Autonome Waffen: Ein offener Brief von KI- und Robotikforschern” und forderte ein Verbot von Waffen mit künstlicher Intelligenz. Die Europäische Union hat seit mehr als fünf Jahren ein Moratorium für Transgene verhängt. Schließlich wurden mehrere Technologien schon immer von Demokratien reguliert, da ihre Herstellung oder Nutzung Risiken und äußerst schädliche Auswirkungen für die Gesellschaften mit sich bringen könnte.
Derzeit wächst weltweit die Mobilisierung für ein Verbot von Gesichtserkennungstechnologien. Im Jahr 2019, vor der Pandemie, beschlossen die Gesetzgeber in San Francisco, Kalifornien, den Einsatz der Gesichtserkennung durch lokale Behörden, darunter Polizei und Verkehrsbehörden, zu verbieten. Es wurde außerdem festgelegt, dass jede Überwachungstechnologie von der Stadtverwaltung genehmigt werden muss und nicht mehr als ausschließlich technische Entscheidung angesehen werden kann. Der Grund ist einfach. Die Vorteile der Gesichtserkennung überwiegen nicht die Risiken und gefährlichen Einsatzmöglichkeiten. Laut mehreren Stadträten von San Francisco wurde diese Technologie eingesetzt, um marginalisierte soziale Gruppen weiter zu schwächen.
Nach Angaben des Netzwerks der Sicherheitsobservatorien sind in Brasilien 90 % der wegen Gesichtserkennung festgenommenen Personen Schwarze. Bei der auf Gesichtern basierenden Identifikationsbiometrie kommen im Allgemeinen sogenannte Identifikationsalgorithmen zum Einsatz. tiefe Lernen oder Deep Learning, einer der Dachzweige der Technologien der künstlichen Intelligenz, der auf eine große Datenmenge angewiesen ist, um eine akzeptable Qualität zu erreichen. Im Allgemeinen werden diese Algorithmen auf Fotodatenbanken trainiert, um die Extraktion von Gesichtsmustern und ihre Fähigkeit zur Identifizierung von Gesichtern zu verbessern.
Joy Buolamwini, Forscherin am MIT-Media Lab, hat gezeigt, dass maschinelle Lernalgorithmen aufgrund von Klasse, Rasse und Geschlecht diskriminieren können. In einem mit Timnit Gebru unterzeichneten Text heißt es: Gender Shades: Intersektionale Genauigkeitsunterschiede bei der kommerziellen GeschlechtsklassifizierungBuolamwini analysierte drei kommerzielle Geschlechtsklassifizierungssysteme anhand einer Reihe von Fotos. Sie fanden heraus, dass dunkelhäutige Frauen die am häufigsten falsch klassifizierte Gruppe waren (mit Fehlerraten von bis zu 3 %).
Es ist wichtig zu verstehen, wie ein algorithmisches Gesichtserkennungssystem funktioniert. Dabei handelt es sich um einen automatisierten Prozess, der ein von einer Kamera oder einem Erfassungsgerät aufgenommenes Bild mit in einer Datenbank gespeicherten Bildern vergleicht. Eine der ersten Aufgaben des Algorithmus besteht darin, das Gesicht der Person im Bild zu erkennen. Nachdem das Gesicht erkannt wurde, muss es ausgerichtet und virtuell in einer bestimmten Position platziert werden, die die nächste Phase erleichtert, nämlich die Extraktion der Messungen. Der Algorithmus misst gemäß seinem vorherigen Training den Abstand zwischen den Augen, zwischen Augen und Nase, die Position des Mundes, die Textur der Haut, kurz gesagt, er extrahiert Messungen aus dem Bild und quantifiziert sie Es.
Anschließend vergleichen Sie je nach Modell das quantifizierte Bild mit jedem der gescannten und in Ihre Datenbank eingefügten Fotos. Daher gibt der Algorithmus eine Bewertung aus, während er zwei Bilder vergleicht, zwei Gesichter, das Ihres Ziels und das in der Datenstruktur gespeicherte. Wie ich hier zu zeigen versuchte, sind Erkennungssysteme probabilistisch. Sie können nicht beantworten, ob es sich bei dem Bild um eine bestimmte Person handelt oder nicht. Sie liefern Ähnlichkeits- und Differenzprozentsätze.
Einige Systeme können den Prozentsatz des Vergleichs mehrerer Bilder und Gesichtsalternativen bieten, um ein bestimmtes Ziel zu identifizieren. Das Training der Algorithmen ist unerlässlich, um Muster aus Fotos extrahieren zu können, da sie Muster aus Bildern an unterschiedlichen Positionen extrahieren müssen. Dieser Prozess erfordert Tausende von Fotos, um das Training durchzuführen. Sie benötigen häufig Verstärkung und Markierungen durch Menschen.
Der Einsatz militärischer Drohnen, die Gesichtserkennungssysteme nutzen, kann uns helfen, dieses Problem zu verstehen. Forscher Gregory S. McNeal, im Text „US-Praxis zur Schätzung und Minderung von Kollateralschäden“, analysierte die Nebenwirkungen von Angriffen durch Drohnen. Solche unbemannten Luftfahrzeuge verfügen über hochauflösende Kameras, die eine Identifizierung von Zielen ermöglichen. McNeal bewertete den durch Drohnen verursachten Kollateralschaden, der im Irak und in Afghanistan zum Tod von Zivilisten führte. Es kam zu dem Schluss, dass 70 % davon auf Fehler bei der Identitätserkennung zurückzuführen waren, d. h. es handelte sich um einen sogenannten „positiven Identifizierungsfehler“. Aber was wäre eine positive Identifikation in einem Wahrscheinlichkeitssystem? 80 % Ähnlichkeiten? 90 %? 98 %? Wie hoch ist der für uns akzeptable Prozentsatz, um davon auszugehen, dass eine gesuchte Person entdeckt wurde?
Gesichtserkennung ist biometrisch und gehört zur Kategorie der sogenannten sensiblen Daten. Sie können Narben erzeugen. Sie müssen ihre Verwendungen unter dem Vorsorgeprinzip analysieren lassen. Sie werden derzeit verwendet, um gefährliche Klassen und marginalisierte Segmente zu identifizieren. Sie ermöglichen die Verfolgung von Zielen in Echtzeit. Automatisierte Gesichtserkennungssysteme verstärken Vorurteile und verstärken den strukturellen Rassismus in der Gesellschaft, außerdem begünstigen sie die Belästigung von Homosexuellen, Transsexuellen und unerwünschten Aktivisten der Polizei. Es handelt sich um Technologien der Belästigung, Selbstjustiz und Verfolgung.
In Brasilien gelte ich als weiße Person. Angesichts meines Alters und meines Körpertyps würde ein algorithmisches System der Polizei, das mich aufgrund der Kameras in dem Mittelschichtviertel, in dem ich lebe, fälschlicherweise identifizieren würde, wahrscheinlich einen zivilisierteren Ansatz erfordern. Es konnte sogar zu einer Polizeiwache gebracht werden. Dort würde der Fehler des Gesichtserkennungssystems erkannt und das „falsche Positiv“ gemeldet.
Stellen Sie sich jedoch einen jungen schwarzen Mann vor, der von der Arbeit in Jardim Ângela oder Sapopemba kommt und vom Gesichtserkennungssystem fälschlicherweise als gefährlicher Krimineller identifiziert wird. Abhängig von der Rota-Einheit, die sich ihm näherte, hatte er möglicherweise keine Chance, am Leben zu bleiben. Ich behaupte, dass Gesichtserkennungstechnologien heute zu den Vernichtungspraktiken junger Schwarzer in den Randgebieten beitragen können. Sie können der politischen Verfolgung von Anführern sozialer Bewegungen dienen, insbesondere in Bereichen, in denen Milizen im Staatsapparat nebeneinander stehen.
Darüber hinaus ist die biometrische Identifizierung ein typisches Gerät der alten Eugenikgeräte. Sie werden verwendet, um Einwanderer und unerwünschte Segmente in Europa und den Vereinigten Staaten zu identifizieren. In China dienen sie einem inakzeptablen Autoritarismus in einer Demokratie. Bei Personen, die durch mit Gesichtserkennungssystemen verbundene Kameras identifiziert werden und nicht empfohlene Handlungen ausführen, wird der Punktestand geändert und es wird schwierig, Leistungen vom Staat zu erhalten.
Ohne die Möglichkeit der Verteidigung, ohne die Möglichkeit, das Wahrscheinlichkeitsmodell der Erkennung anzufechten, ist eine allgegenwärtige Polizeiarbeit durch Kameras, die Gesichtserkennungssysteme versorgen, in Demokratien nicht akzeptabel. Wir müssen seine Ausbreitung stoppen. Tatsächlich müssen wir sie verbieten, wenn wir eine minimale Übereinstimmung mit dem Vorsorgeprinzip erreichen wollen. Wir können keine Technologie verwenden, die fehlerhafte algorithmische Systeme verwendet, die dennoch keine angemessene Erklärung zulassen. Wir müssen Gesichtserkennungstechnologien verbieten, bis sie sozial diskriminierungsfrei, überprüfbar und sicherer sind.
*Sergio Amadeu da Silveira ist Professor an der Federal University of ABC. Autor, unter anderem von Freie Software – der Kampf für die Freiheit des Wissens (Konrad).