Die Bundesregierung will Polizeibehörden und auch das Bundesamt für Migration und Flucht mit neuen Befugnissen für die biometrische Gesichtersuche im Netz ausstatten. Aber darf sie das überhaupt? Mit den neuen EU-Regeln für den Einsatz von KI ist das kaum unter einen Hut zu bringen.
Als die Bundesregierung vergangene Woche nach dem Anschlag von Solingen geplante Gesetzesverschärfungen vorstellte, ging es nicht nur um Messerverbote auf Volksfesten und Abschiebungen nach Syrien und Afghanistan. Es ging auch um biometrische Überwachung.
Als Teil der neuen Maßnahmen gegen Akte islamistischen Terrors wie in Solingen sollen Behörden mit Technologien ausgestattet werden, die wenige Tage zuvor noch umstritten waren, auch innerhalb der Ampel. Konkret: Ermittlungsbehörden sollen jetzt auch im öffentlichen Internet per biometrischem Abgleich nach Personen suchen dürfen – nicht nur nach Verdächtigen, sondern auch nach Zeugen oder vermissten Personen.
Und auch das Bundesamt für Migration und Flucht (BAMF) soll die Technologie in ihrem Portfolio einsetzen dürfen. Per „biometrischem Abgleich mit Internetdaten“ soll es die Identität derjenigen überprüfen, die ohne Papiere ankommen und in Deutschland Asyl beantragen.
Gesichtserkennung als Aufregerthema
Bislang sind die Ankündigungen tatsächlich nicht mehr als das: der Versuch einer Reaktion der Bundesregierung, um noch vor den Wahlen in Sachsen und Thüringen Härte und Entschlossenheit zu zeigen. Sie richtet sich vor allem gegen den neuen erklärten Gegner, den die politische Mitte von der AfD übernommen hat: Geflüchtete. Der Gesetzentwurf, der die Befugnisse regelt, befinde sich derzeit noch in der Abstimmung, teilt eine Sprecherin des Bundesinnenministeriums mit. Genaueres könne man nicht mitteilen.
Doch schon jetzt stellen sich viele Fragen. Etwa diese: Dürfte die Bundesregierung die geforderten Maßnahmen überhaupt umsetzen?
Gesichtserkennung und andere Formen von biometrischer Identifikation basieren auf Technologien, die mehr oder weniger treffend als „Künstliche Intelligenz“ bezeichnet werden. Jederzeit im Bahnhof, auf der Demo oder beim Einkaufen anhand des Gesichtes oder der eigenen Bewegungsmuster identifiziert werden können? Das war in den vergangenen Jahren das wohl größte Reizthema bei der Aushandlung der KI-Verordnung der Europäischen Union. Bürgerrechtsorganisationen mobilisierten in ganz Europa gegen das Szenario einer solchen Massenüberwachung in der EU.
Und auch die Ampel-Parteien selbst hatten das in ihrem Koalitionsvertrag noch ausgeschlossen: „Flächendeckende Videoüberwachung und den Einsatz von biometrischer Erfassung zu Überwachungszwecken lehnen wir ab“, heißt es dort. Das Recht auf Anonymität im öffentlichen Raum sei zu gewährleisten. Auch auf Ebene der EU wollte man das ausschließen.
Was zu Biometrie in der KI-Verordnung steht
Am Ende hat es für ein klares Verbot dann doch nicht gereicht. Die Regeln der KI-Verordnung zur biometrischen Identifikation kann man selbst mit besten Willen nur lasch nennen. Nicht einmal die als besonders gefährlich geltende Echtzeit-Überwachung ist komplett verboten: Für zahlreiche Ausnahmen wie die Suche nach vermissten Personen ist sie erlaubt. Bei Verdacht auf Terroranschläge sowieso.
Noch lockerer sind die Verbote gefasst, wenn es um die nachträgliche Identifikation von Personen auf Video- und sonstigen Aufnahmen geht. In solchen Fällen dürften Menschen laut EU-Gesetz bereits dann biometrisch identifiziert werden, wenn sie einer einfachen Straftat verdächtigt sind – Bagatelldelikte wie einfachen Diebstahl eingeschlossen.
Schon bei der Verabschiedung der Verordnung war die Kritik daran harsch. Der damalige Bundesdatenschutzbeauftragte Ulrich Kelber (SPD) mahnte: „Dies könnte gravierende Auswirkungen auf die Erwartung der Bevölkerung haben, im öffentlichen Raum anonym zu bleiben.“
Szenario Massenüberwachung im öffentlichen Netz
Das Bundesinnenministerium, dessen Forderungen nun im Sicherheitspaket gelandet sind, will aber gar keine biometrische Überwachung des öffentlichen Raumes. Es verlangt nach Befugnissen, wie man sie von Gesichtersuchmaschinen wie PimEyes oder Clearview kennt. Diese kommerziellen Anbieter scannen das öffentliche Internet breit gestreut nach allen dort auffindbaren Gesichtern und erstellen daraus gigantische Datenbanken. Der Upload eines Fotos reicht: Schon werden einem Treffer zu dem gesuchten Gesicht im Internet angezeigt.
Nach der Verhaftung des ehemaligen RAF-Mitglieds Daniela Klette Anfang des Jahres kam diese Debatte das erste Mal auf. Journalist:innen hatten Klette mit Hilfe von PimEyes auf Facebook entdeckt. Daraufhin wurde diskutiert, warum Strafverfolgungsbehörden diese Möglichkeiten nicht ebenfalls nutzen können.
Dieses Szenario ist laut der KI-Verordnung allerdings ganz klar untersagt, sagt Kilian Vieth-Ditlmann von der NGO AlgorithmWatch. Er verweist auf Artikel 5, wo die Verbote gelistet sind. Der verbietet unter anderem „die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsmaterial erstellen oder erweitern“.
„Der Mensch ist der Stalker, nicht die Suchmaschine“
Eine Klausel, die alle Regeln aushebelt?
Genau das müssten Ermittlungsbehörden aber tun, um die von der Ampel angekündigte Maßnahme umzusetzen. Um im öffentlichen Internet nach Personen suchen zu dürfen, müssten sie dieses öffentliche Internet erst wahllos durchsuchen und indexieren – genau wie PimEyes und Clearview das tun. Was im Übrigen auch gegen geltende Datenschutzbestimmungen der EU verstößt, wie gerade die niederländische Datenschutzaufsicht wieder festgestellt hat.
Allerdings könnte sich die Bundesregierung womöglich auf eine Lücke in der Verordnung stützen: Als eine Art Catch-All-Klausel ganz am Anfang des Gesetzes haben die Mitgliedstaaten festlegen lassen, wo die Verordnung nicht greift. „Diese Verordnung gilt nicht für Bereiche, die nicht in den Anwendungsbereich des Unionsrechts fallen, und berührt in keinem Fall die Zuständigkeiten der Mitgliedstaaten im Bereich der nationalen Sicherheit“, heißt es dort.
Ist dieser Satz das Schlupfloch, über das die biometrische Überwachung des Internets nun doch in Deutschland Einzug hält? Simone Ruf, Verfahrenskoordinatorin bei der Gesellschaft für Freiheitsrechte, hält das für eher unwahrscheinlich. „Auch wenn die Formulierungen aus dem Sicherheitspaket bisher vage sind: Rein technisch laufen die Befugnisse, die Ermittlungsbehörden bekommen sollen, auf genau das hinaus, was laut KI-Verordnung verboten ist: das ungezielte Auslesen von Gesichtsbildern aus dem Internet.“
„Hätten die Gesetzgeber bei der EU gewollt, dass es Ausnahmen von diesem Verbot geben sollte, etwa für Ermittlungsbehörden, hätten sie das hier explizit erwähnen können. Das tun sie aber nicht“, sagt Ruf. Für sie ist damit klar: Im Einklang mit der KI-Verordnung ließen sich die Pläne der Bundesregierung nicht umsetzen.
So leicht wird es nicht
Zweite Frage: Wie steht es um das BAMF, das per biometrischem Abgleich mit Internetdaten die Identität von Asylsuchenden bestätigen soll? Für KI-Systeme, die bei der Überwachung und Kontrolle von Migration und Asyl zum Einsatz kommen, hatten die Mitgliedstaaten weitreichende Ausnahmen in die Verordnung verhandelt. Ob „Lügendetektoren“ an den EU-Außengrenzen oder Systeme zur Risikoabschätzung bei der Einreise: Erlaubt ist hier fast alles.
Laut KI-Verordnung würde ein Szenario wie aus dem „Sicherheitspaket“ der Bundesregierung am ehesten in die Kategorie der Systeme fallen, die „die zuständigen Behörden bei der Prüfung von Anträgen auf Asyl, Visa oder Aufenthaltstitel“ unterstützen sollen. Laut Anhang III der Verordnung eine hochriskante, aber legale Anwendung.
Doch auch hier wird die Regierung das Verbot für das PimEyes-Szenario nicht umgehen können, sagt Ruf. Was unter nationale Sicherheit falle, sei von der EU eng definiert. Die Prüfung der Identität von Asylsuchenden, wie das BAMF sie vornehmen soll, falle mit Sicherheit nicht darunter.
„Wenn EU-Gesetzgeber sowieso davon ausgegangen wären, dass Behörden wie das BAMF nicht unter die Regelungen fallen sollten, hätten sie weiter hinten all die spezifischen Regeln für den Migrationsbereich nicht klarstellen müssen. Da hat man gute Argumente zu sagen: So ist das nicht gedacht.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.