Kenne deine Rechte

Big Brother knows who you are


Gesichtserkennungssoftware erleichtert unseren Alltag schon heute beträchtlich und wird das auch in Zukunft tun. Das eigene Gesicht ersetzt die Eintrittskarte für das Fußballstadion, den Reisepass bei der Einreisekontrolle am Flughafen und den PIN-Code am Smartphone. Diese Technologie, die für uns ein logischer Fortschritt der Digitalisierung und eine Hilfestellung im Alltag sein mag, wird von Staaten wie China eingesetzt, um die eigene Bevölkerung auf Schritt und Tritt zu überwachen und die Unterdrückung der Uiguren voranzutreiben. Doch auch in unserer westlich-demokratischen Welt birgt Gesichtserkennungstechnologie unzählige Gefahren: Diskriminierung, falsche Anschuldigungen und Einschränkungen der Privatsphäre.

Es war der 3. Juni 2017 in Cardiff, Wales. Im Millenium Stadium feuerten über 40.000 Fans ihre Fußballmannschaften im UEFA Champions League Finale an. Events wie dieses lösen verständlicherweise Sicherheitsbedenken bei den Behörden aus, was die Polizei von South Wales dazu veranlasste, das Stadion rigoros mit Kameras zu überwachen und parallel dazu eine Gesichtserkennungssoftware einzusetzen. Diese sollte die Gesichter der Besucher:innen mit jenen einer Datenbank voll Terrorverdächtiger vergleichen. Das Ergebnis war, dass knapp 3.000 betrunkene aber harmlose Fußballfans für Terrorist:innen gehalten wurden.[1] Die Technik hat eindrücklich versagt. Eine derart hohe Fehlerquote kann mit dem heutigen Stand der Technik zwar verringert, aber niemals ganz ausgeschlossen werden. Das zeigt ein Versuch in Berlin, bei dem am Bahnhof Südkreuz 300 Freiwillige eine Überwachungskamera passierten, deren Aufnahmen dann durch Gesichtserkennung mit eingereichten Fotos der Personen verglichen wurden. Ergebnis: eine Fehlerquote von 0,3%.[2] Diese mag erstaunlich gering klingen, bedenkt man aber, dass große Verkehrsknotenpunkte täglich von etwa 100.000 Personen frequentiert werden, kommt man auf 300 Fehlalarme pro Tag.

Verifizierung, Identifizierung, Kategorisierung

Die Fehlerquote, die diesen Technologien stets immanent ist, ist allerdings nur eines von vielen Problemen. Doch zunächst ein kurzer Exkurs zu den technischen Aspekten. FRT (kurz für facial recognition technology) ist in ihrer heutigen Erscheinung nichts anderes als eine Form künstlicher Intelligenz. Das System lernt zunächst anhand einer Trainings-Datenbank menschliche Gesichter auf Fotos zu erkennen – damit wird zum Beispiel bei Kameras automatisch auf Gesichter fokussiert. Anhand einzigartiger Merkmale der Gesichtszüge wird dann ein sogenannter Faceprint erstellt. Quasi ein Fingerabdruck des Gesichts, der bei jeder Person anders aussieht. Dieser Faceprint wird ebenso bei Fotos der Vergleichsdatenbank (etwa bestehend aus Fahndungsfotos) erstellt. Die Software vergleicht den erstellten Faceprint dann mit jenen der Datenbank und kann so die gesuchte Person identifizieren. Die Möglichkeiten der Technologie hören hier aber noch längst nicht auf. Sie stellt zudem einen massiven Fortschritt in der ethisch höchst umstrittenen Methode des racial profiling dar. FRT ermöglicht die Kategorisierung von Personen anhand von Merkmalen wie Alter, Geschlecht oder ethnischer Herkunft. Sogar die aktuelle Gefühlslage oder sexuelle Orientierung kann vor der Technologie nicht geheim gehalten werden.[3]

Der Spionage Markt boomt

Obwohl das beunruhigend klingt, wird FRT von Strafverfolgungsbehörden immer häufiger eingesetzt. Auch die Privatwirtschaft feiert mit der Gesichtserkennung von Jahr zu Jahr Rekordumsätze, mit Big Tech Konzernen wie Amazon, Google und Microsoft, die dabei dick im Geschäft sind. Dass ausgerechnet Unternehmen, die massenhaft Daten von beinahe der gesamten Weltbevölkerung besitzen, sich solcher Technologien bedienen, löst bei Datenschützern naturgemäß Bedenken aus. Auf die Spitze getrieben wird dies von Herstellern wie Clearview AI. Dieser entwarf eine einfach zu bedienende App, die es ermöglicht, Aufnahmen mittels Gesichtserkennung mit einer gigantischen Datenbank zu vergleichen. Diese Datenbank besteht aus sämtlichen öffentlich zugänglichen Bildern aus dem Netz und aus sozialen Medien. Anders formuliert: Clearview speichert ohne die Zustimmung  der Nutzer:innen Bilder von Instagram, Facebook und Co und erstellt damit Faceprints. Somit ist ein privater Konzern im Besitz biometrischer Daten von Millionen Menschen weltweit – einsatzbereit für amerikanische Strafverfolgungsbehörden.[4]

Neben Datenschutzbedenken und der Gefahr falscher Anschuldigungen durch die fehleranfällige Software, kommt noch hinzu, dass besonders letztere vermehrt Personen treffen, die ohnehin Opfer struktureller Diskriminierung sind. Einer Umfrage des MIT Media Lab zufolge hat FRT gerade bei dunkelhäutigen Menschen und Frauen die größten Probleme und damit die höchste Fehlerquote. 2015 musste sich Google gar entschuldigen, da ihre Gesichtserkennungssoftware einige Menschen afroamerikanischer Herkunft als Gorillas bezeichnete.[5]

Vom praktischen Gadget zum Massenüberwachungstool

All diese Aspekte sind zutiefst besorgniserregend und bedürfen klarer gesetzlicher Vorgaben, Transparenz und effektiver Kontrolle. Was passieren könnte, wenn Technologien dieser Art in die Hände illiberaler Staaten fallen, lässt sich am Beispiel China gut ablesen. China ist der bis dato größte Investor in Überwachungstechnologie, Gesichtserkennung und künstliche Intelligenz. Im Jahr 2020 überwachten Schätzungen zufolge 600 Millionen Kameras das Geschehen auf den Straßen chinesischer Städte. In Beijing sind Polizist:innen sogar mit Brillen ausgestattet, in denen ein Gesichtserkennungsprogramm integriert ist. Das umfassende Netz an Überwachung ist direkt mit einem sozialen Punktesystem verbunden, das Personen aufgrund ihres Verhaltens bewertet und entsprechende Begünstigungen oder Nachteile daran knüpft. Besonders hartnäckig wird FRT eingesetzt, um die rund 11 Millionen Uiguren auf Schritt und Tritt zu überwachen. Am Eingang von Moscheen hängen FRT fähige Kameras und erkennen jede:n, der:die sie betritt.[6] So werden die Spuren und Bewegungsabläufe der muslimischen Minderheit penibel verfolgt.

Die Wohngebiete der Uiguren sind ein Schlaraffenland für FRT Konzerne, die dort ihre Technologien ohne jegliche Einschränkung testen und entwickeln können. Gesichtserkennung spielt zweifelsfrei eine wesentliche Rolle im Ziel Chinas, einen umfassenden Überwachungsstaat zu installieren. Dieses Beispiel sollte uns vor Augen führen, wozu künstliche Intelligenz schon heute in der Lage ist und dass der Schritt vom einfachen Entsperren des Smartphones bis zur totalen Überwachung womöglich kleiner ist, als gedacht. Nichtsdestotrotz wird der Einsatz von Gesichtserkennung auch in Europa zunehmen. Daher sind jetzt die Verantwortlichen gefragt, ein entsprechendes Regelwerk auf den Weg zu bringen, um den zahlreichen negativen Aspekten der Technologie Einhalt zu gebieten. Es bleibt zu hoffen, dass Institutionen wie der Europäische Gerichtshof für Menschenrechte, bei dem zurzeit ein derartiger Fall anhängig ist, ebenso die Möglichkeit eines weitreichenden Einsatzes von FRT von vorne herein beseitigen. Die Hoffnung scheint gerechtfertigt, ist die Rechtsprechung des EGMR doch für ihre restriktive Haltung bezüglich des Schutzes der Privatsphäre und der Versammlungs- und Meinungsfreiheit bekannt.

Quellen

[1] Chris Duckett: Facial recognition system had 7 percent hit rate at 2017 Champions League Final, in: zdnet.com, 7.5.2018.
https://www.zdnet.com/article/facial-recognition-system-had-7-percent-hit-rate-at-2017-champions-league-final/

[2] Jonathan Day: Überwachung per Gesichtserkennung: eine Bedrohung für gesetzestreue Bürgerinnen und Bürger, in: liberties.eu, 21.9.2018. https://www.liberties.eu/de/stories/gesichtserkennung-clue-artikel/15661

 [3] EU Agency for fundamental rights: Facial recognition technology: fundamental rights considerations in the context of law enforcement, S. 7 f.

[4] Kashmir Hill: The Secretive Company That Might End Privacy as We Know It, in: New York Times, 18.01.2020.
https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-recognition.html

[5] Gesichtserkennung und Menschenrechte: Leitfaden für Investoren, März 2021, S. 14.
https://investrends.ch/site/assets/files/29658/2021_03_facial_recognition_de_web.pdf

[6] Gesichtserkennung und Menschenrechte: Leitfaden für Investoren, März 2021, S. 13.


Das könnte dich auch interessieren