Was ist passiert?
Daniela Klette, die mit den Anschlägen der RAF in Verbindung steht, wurde dreißig Jahre später, letzte Woche in Berlin, von der Polizei festgenommen. Dem kanadischen Journalisten Michael Colborne gelang es Ende letzten Jahres, sie aufzuspüren. Es gab nur da eine halbe Stunde notwendig für.
Auf der Website eines deutsch-brasilianischen Capoeira-Studios in Berlin fand er mithilfe von Fotos von ihr PimEyes, eine Gesichtssuchmaschine. Ein deutscher Polizeisprecher bestreitet den Einsatz von PimEyes, vermutet aber, dass „andere Software“ zum Einsatz gekommen sei.
Über die Autoren
Laurens Verhagen ist wissenschaftlicher Herausgeber von von Volkskrant. Er schreibt über Technologie und die Auswirkungen künstlicher Intelligenz auf die Gesellschaft. Pieter Sabel ist investigativer Journalist im Data-Redaktionsteam von von Volkskrant. Es erstellt Geschichten basierend auf der Analyse öffentlicher Quellen wie sozialer Medien und Satellitenbildern.
Wie funktioniert diese Art von Software?
Mithilfe von KI kann PimEyes die Identität von Personen auf einem Foto enthüllen. Dies wird durch den Vergleich beliebiger Schnappschüsse mit Bildern aus einer großen Datenbank erreicht.
Die Technologie ist sehr gut darin, (verschiedene) Bilder derselben Person zu vergleichen, auch wenn Menschen eine Ähnlichkeit nicht leicht erkennen können. Anders als die umgekehrte Bildsuche PimEyes von Google untersucht nicht exakte Ähnlichkeiten anhand von Zusammensetzung und Farbe, sondern anhand einer Vielzahl von Gesichtsmerkmalen.
„Jeder denkt sofort an die Größe der Augen oder den Abstand zwischen Nase und Augen, aber es ist viel abstrakter und komplexer“, sagt Luuk Spreeuwers, außerordentlicher Professor für Computer Vision und Biometrie an der Universität Twente. Das System hat während des Trainingsprozesses gelernt, diese Eigenschaften zu destillieren.
Das Ergebnis dieses sogenannten Deep-Learning-Ansatzes sei „teils erschreckend gut“, sagt Spreeuwers. Auf diese Weise ist es möglich, ein gestochen scharfes, neutrales Schwarzweißfoto mit einem vagen Farbschnappschuss zu vergleichen, der jemanden mit einem breiten Lächeln, einer Sonnenbrille und einer seltsamen Mütze zeigt.
Wie gut funktioniert das?
So einfach ist das: Sie geben ein Foto ein und die Software durchsucht ihre Datenbank nach Millionen von Bildern aus dem öffentlichen Internet. Es geht sehr schnell und die Ergebnisse sind manchmal unvorstellbar. Anhand eines kürzlich verbreiteten Polizeifotos kann man beispielsweise auf einem verschwommenen Übersichtsfoto des Publikums einer Konferenz von vor Jahren einen Verdächtigen finden.
Das in Polen ansässige Unternehmen erklärt kategorisch, dass sein Produkt nicht dazu gedacht sei, Personen zu verfolgen. PimEyes vergibt auch keine Namen für Bilder, verteidigte den CEO geschah im Oktober letzten Jahres. Aber es ist ein Kinderspiel, es selbst herauszufinden.
Laut PimEyes ist der Missbrauch nicht allzu schwerwiegend, es gibt jedoch viele beunruhigende Beispiele. Beispielsweise habe ein Mann die Namen und Adressen von Pornodarstellerinnen gefunden, die nur unter ihren Pseudonymen arbeiteten, schilderte der Journalist Kashmir Hill Die New York Times in seinem Buch Dein Gesicht gehört jetzt uns. Es gibt immer mehr Unternehmen, die mit dieser Art von Technologie aktiv sind. Am bekanntesten ist Clearview AI. Im Gegensatz zu PimEyes enthält dieses auch Bilder aus sozialen Netzwerken.
Verwendet die niederländische Polizei auch diese Art von Software?
Die Polizei hat ein eigenes System namens Catch entwickelt. Die Bedienung ist grundsätzlich die gleiche wie bei Clearview oder PimEyes: Geben Sie ein Foto ein und das System prüft, ob die Gesichtsmerkmale mit den Fotos in der Datenbank übereinstimmen. Allerdings gibt es auch Unterschiede in Bezug auf die Größe dieser Datendatei.
Wo Clearview auf Milliarden von Bildern zurückgreifen kann, muss Catch mit ein paar Millionen Fotos auskommen. Diese stammen nicht aus dem Internet, sondern stammen von Personen, die auf einer Polizeistation in den Niederlanden fotografiert wurden. Also verdächtig.
Es ist bekannt, dass Clearview von mehreren Polizeikräften auf der ganzen Welt getestet wurde. Die Niederlande sagen, es gehöre nicht dazu, obwohl die nationale Truppe bereits ein Testkonto beantragt habe.
Was sind die Gefahren?
Die Gesichtserkennungstechnologie bietet Bürgern und Ermittlern ungeahnte neue Möglichkeiten, ist aber wegen ihrer Gefahren auch umstritten. Unabhängig davon, ob es rechtlich zulässig ist, eine Datenbank mit personenbezogenen Daten anzulegen, weisen Datenschützer seit langem darauf hin, dass die Gründung eines Überwachungsunternehmens grundsätzlich unerwünscht sei. In einer solchen Gesellschaft kann sich niemand anonym bewegen, weder online noch in der Offline-Welt.
Spreeuwers weist auch auf technische Mängel hin: „Auch wenn Gesichtserkennungssoftware oft beeindruckende Bilder liefert, kommt es dennoch regelmäßig zu Fehlern.“ Ein aktuelles Beispiel ist der Fehler der Gesichtserkennungssoftware bei der Identifizierung von Teilnehmern eines Klimaprotestes 2022 in Schiphol. Sie wären erkannt worden, wenn sie an diesem Tag nicht auf Schiphol gewesen wären. Der Staatsanwalt entschuldigte sich schließlich.
„Der Hauptnachteil dieser Art von Deep-Learning-Netzwerken besteht darin, dass wir nicht wirklich wissen, wie sie zu ihren Schlussfolgerungen gelangen“, sagt Spreeuwers. Deshalb versuchen Forscher, die Black Box teilweise zu öffnen, um die Funktionsweise von Systemen besser zu verstehen. Dies ist auch eine Anforderung der neuen EU-KI-Gesetzgebung.
„Analyst. Totaler Alkoholkenner. Stolzer Internet-Fan. Ärgerlich bescheidener Leser.“