Die Bundesregierung will Polizei und Behörden erlauben, alle Gesichtsfotos im Internet zu speichern und zu nutzen. AlgorithmWatch kritisiert diese neue Form der anlasslosen Vorratsdatenspeicherung. Die Bundesregierung muss stattdessen geltendes Recht umsetzen – und Gesichtssuchmaschinen verbieten.
Pia Sombetzki ist Policy & Advocacy Managerin bei der Nichtregierungsorganisation AlgorithmWatch. Sie beschäftigt sich mit der Regulierung von algorithmischer Entscheidungsfindung in Deutschland, insbesondere im öffentlichen Sektor.
Was haben Millionen Deutsche und ein Ex-RAF-Mitglied gemeinsam? Wahrscheinlich mindestens ein Foto in veralteter Bildqualität auf Facebook und einen Post, der nur drei Likes bekommen hat.
Was erstmal wie das Normalste von der Welt klingt, ist Daniela Klette dieses Jahr zum Verhängnis geworden. Nach über 30 Jahren Suche wurde das ehemalige RAF-Mitglied im Februar festgenommen.
Journalisten helfen der Polizei
Ein ARD-Rechercheteam um Investigativ-Journalist Khesrau Behroz war ihr in deren Recherche für den Podcast Legion: Most Wanted im Dezember 2023 bereits sehr nah gekommen. Behroz erklärte später, das Recherchenetzwerk Bellingcat hatte das Team dabei unterstützt, mit Hilfe der Gesichtsdatenbank PimEyes nach ihr zu suchen. Bilder von Klette auf der Webseite eines Capoeira-Vereins in Kreuzberg wurden damit in nur knapp 30 Minuten gefunden.
Es stellte sich heraus, dass Klette über 30 Jahre lang mitnichten im „Untergrund“ gelebt hatte, sondern, im Gegenteil, sich die meiste Zeit aktiv am öffentlichen Leben beteiligte.
Als Klette nur wenige Wochen nach Veröffentlichung der Recherchen festgenommen wurde, entbrannte eine Diskussion um die Methoden, mit denen die Polizei und die Journalist:innen nach ihr gesucht hatten.
Hatte die Polizei nicht ausreichend ermittelt? Und hätte Klette eigentlich früher gefunden werden müssen, wenn sie ihr genauso gut zufällig auf den Straßen von Berlin-Kreuzberg begegnen hätten können? Oder fehlten der Polizei etwa die nötigen digitalen Ermittlungstools?
Das Argument der Polizeigewerkschaften klang in Folge etwa so: Wir haben den Fall zwar perfekt gelöst, hätten wir PimEyes allerdings selbst benutzen dürfen, hätte es nicht 30 Jahre dauern müssen, Daniela Klette zu finden. So weit, so verwirrend.
Gesichtsdatenbanken sind illegal
Wir alle sind im Netz wiederzufinden, ob wir wollen oder nicht. Jedes Mal angestrengt wegzugucken, wenn jemand im Vorbeilaufen ein Foto macht, ist auf Dauer mindestens etwas anstrengend. Am Ende landet das Bild dann doch auf Social Media.
Firmen wie Clearview AI und PimEyes haben es zu ihrem Geschäftsmodell gemacht, öffentlich einsehbare Bilder aus dem Netz in Datenbanken abzuspeichern und sie durchsuchbar zu machen. Eine Geschäftspraxis, die von Datenschützern über die Jahre immer wieder beanstandet und mit Bußgeldern geahndet wurde – allein schon, weil die abgebildeten Personen nie in die Bildernutzung eingewilligt haben.
Erst diese Woche hat die niederländische Datenschutzbehörde eine Strafe von 30,5 Millionen Euro gegenüber Clearview AI wegen des illegalen Aufbaus einer Datenbank verhangen, die mittlerweile mehr als 50 Milliarden Fotos umfassen soll.
Wenn Polizeigewerkschaften in Deutschland fordern, dass sie solche riesigen Gesichtsdatenbanken nutzen wollen, sagen sie also gleichzeitig, dass sie damit eine illegale Praxis unterstützen wollen.
Und nicht nur Datenschützern ist dieses Vorhaben ein Dorn im Auge. Die gerade erst im Sommer beschlossene KI-Verordnung der EU verbietet explizit das Verkaufen, Bereitstellen oder Verwenden von KI-Systemen, „die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern“. Zum 2. Februar 2025 wird das Verbot offiziell in Kraft treten.
Bereits während der Verhandlungen wurde intensiv über dessen Sinn und Notwendigkeit diskutiert. Dass dieses Verbot in der aktuellen Debatte um Befugnisse einfach ignoriert wird, lässt tief blicken.
Immer mehr biometrische Überwachung
Die Rufe nach mehr biometrischen Überwachungsbefugnissen sind aber mitnichten neu. Seit mehreren Jahren läuft die Debatte um KI-getriebene Überwachungsmaßnahmen im öffentlichen Raum.
Während der G20-Proteste 2017 wurden Menschen, die sich in Hamburg aufhielten, zum ersten Mal großflächig mit der Software Videmo 360 erfasst. Ihre Bewegungsabläufe konnten damit über mehrere Tage hinweg durch die Stadt nachvollzogen werden – natürlich ohne dass die Betroffenen davon wussten.
Weil die Software so großflächig eingesetzt wurde, wurden um die 100.000 Menschen erfasst und ihre biometrischen Profile in einer Datenbank abgespeichert. Nicht nur wurde ihr Recht auf informationelle Selbstbestimmung und Anonymität im öffentlichen Raum vor Ort eingeschränkt. Noch dazu sind sie in einer Datenbank der Polizei gelandet, die sie auch in Zukunft wieder auffindbar macht.
Gesichtsdatenbanken treffen Unschuldige
Welche Gefahren in der Nutzung von Gesichtserkennungssystemen in den Händen der Polizei bestehen, zeigen auch immer wieder Fälle aus den USA. Porcha Woodruff, eine Schwarze Amerikanerin aus Detroit, war im achten Monat schwanger als sie 2023 wegen Autodiebstahls verhaftet wurde.
Die dortige Polizei setzte Gesichtserkennungstechnologie ein und ließ das Bild einer verdächtigen Person durch eine Fahndungsdatenbank laufen. Das Foto von Woodruff wurde als Ergebnis ausgespielt. Elf Stunden lang wurde sie daraufhin verhört. Einen Monat später stellte die Staatsanwaltschaft das Verfahren wegen unzureichender Beweise ein.
Der Fall von Woodruff zeigt das reale Risiko, das auf künstlicher Intelligenz basierende Tools für unschuldige Menschen darstellt. Untersuchungen weisen außerdem immer wieder darauf hin, dass die Falschpositivraten für People of Color und insbesondere Schwarze Frauen besonders hoch sind.
In erster Linie hätte ihr Bild aber erst gar nicht in der Polizeidatenbank landen sollen.
Solingen hat der Innenministerin geholfen
Trotz aller Gegenargumente wurden die Rufe nach mehr Überwachungsbefugnissen für die Polizei von Innenministerin Nancy Faeser erhört. Bereits Mitte August hat netzpolitik.org einen Gesetzesentwurf des Innenministeriums veröffentlicht, der Befugnisse für den Einsatz von Gesichtserkennungssoftware bei der Polizei ausweiten soll.
Nach dem Anschlag von Solingen ist dieses Vorhaben zu einem Teil des „Sicherheitspakets“ der Bundesregierung geworden, obwohl völlig unklar ist, was eine Polizeibefugnis zur massenhaften Gesichtserkennung in dem Fall hätte bewirken sollen. Dennoch ist es Faeser so gelungen, ihre Ampel-Partner, insbesondere Justizminister Buschmann, als Unterstützer zu mobilisieren, der sich zuvor zu ihren Plänen skeptisch geäußert hatte.
In diesem Sicherheitspaket taucht also neben erweiterten Befugnissen für Big-Data-Analysen und Wohnungsdurchsuchungen auch die Forderung nach Gesichtserkennungstools für die Polizei wieder auf.
Neue Form von Vorratsdatenspeicherung
In welchem Ausmaß dieser Wunsch nach Befugnissen in dem Sicherheitspaket ausbuchstabiert wird, verwundert dabei allerdings doch.
Ermittlungsbehörden sollen die Befugnis zum biometrischen Abgleich von allgemein öffentlich zugänglichen Internetdaten bekommen, um Tatverdächtige identifizieren zu können. Man beachte: Der Begriff Internetdaten ist hier viel weiter gefasst als Gesichtsbilder.
Künftig dürfte vor allem auch Videomaterial relevant werden, beispielsweise um die individuelle Gangart, die Stimme und spezifische Sprechmuster von Menschen zu erfassen und identifizierbar zu machen.
Das kommt einer neuen Form der anlasslosen Vorratsdatenspeicherung gleich. Nur das es diesmal nicht um das Durchsuchbarmachen von Telekommunikations-Verkehrsdaten, sondern von besonders sensiblen personenbezogenen Körperdaten geht.
Nicht nur Tatverdächtige
Zusätzlich soll die Befugnis sich außerdem auch auf die Suche nach der denkbar unbestimmten Gruppe „gesuchter Personen“ erstrecken, beispielhaft werden Opfer und Zeug:innen genannt.
Ebenso soll auch das Bundesamt für Migration und Flüchtlinge die Befugnis zum biometrischen Abgleich von Internetdaten erhalten, zu einem noch weniger eingegrenzten Zweck – der Feststellung der Identität von Schutzsuchenden.
Das Sicherheitspaket verweist zwar u.a. darauf, die KI-Verordnung, die Datenschutzgrundverordnung und Vorgaben des Bundesverfassungsgerichts beachten zu wollen. Doch die Bundesregierung will das unmissverständliche Verbot in der KI-Verordnung augenscheinlich ignorieren.
Wir müssen Gesichtserkennung verbieten
Wenn die Befugnisse, wie sie die Bundesregierung jetzt mit ihrem Sicherheitspaket auf die Tagesordnung gesetzt hat, nur auf annähernde Weise ins Gesetz gegossen und die Gesichtsdatenbanken eingeführt werden, ist es nur eine Frage der Zeit, bis unbescholtene Personen zu Beschuldigten werden. Derweil werden sie unter Generalverdacht gestellt und ihre privaten Urlaubsfotos landen in einer undurchsichtigen Datenbank.
Wir sollten es nicht darauf ankommen lassen, dass Fälle wie der von Woodruff zukünftig als zeitgemäße Nebeneffekte „zeitgemäßer“ Überwachungstools wegerklärt werden.
Stattdessen muss sich die Bundesregierung auf die Fakten besinnen, die zuletzt mit der KI-Verordnung uneindeutig geschaffen wurden. Sie darf nicht die Tools für einen Überwachungsstaat schaffen, die im Zweifel noch in die falschen Hände geraten könnten.
Was eigentlich ihre Aufgabe wäre: Sich gemeinsam mit den Partnern in der EU für die Durchsetzung der neuen geschaffenen Regeln einsetzen und den Gesichtssuchmaschinen von Clearview AI und PimEyes den Garaus machen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.