Zum Inhalt springen

Überwachung in Deutschland Umstrittene Gesichtserkennung soll ausgeweitet werden

Am Berliner Bahnhof Südkreuz testeten Behörden, wie gut Software Gesichter in einer Menschenmenge erkennt. Nach dem Ende des Tests wollen Bundespolizei und Innenministerium die Technik nun häufiger einsetzen.
Bundesinnenminister Thomas de Maizière am Berliner Südkreuz

Bundesinnenminister Thomas de Maizière am Berliner Südkreuz

Foto: POOL/ REUTERS

Die "Systeme haben sich bewährt": Dieses Fazit zieht das Innenministerium zu einem der umstrittensten deutschen Überwachungsprojekte. Es geht um das Pilotprojekt zur automatisierten Gesichtserkennung, durchgeführt am Berliner Bahnhof Südkreuz.

Das Projekt war am 1. August 2017 gestartet und lief insgesamt ein Jahr. Nun veröffentlichten die Verantwortlichen ihren Abschlussbericht. Er bewertet die Tests am Südkreuz als erfolgreich - massiver Bedenken zum Trotz.

Empfohlener externer Inhalt
An dieser Stelle finden Sie einen externen Inhalt von X.com, der den Artikel ergänzt und von der Redaktion empfohlen wird. Sie können Ihre Zustimmung jederzeit wieder zurücknehmen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Der Test habe gezeigt, "dass Gesichtserkennungssysteme in Zukunft einen wesentlichen Mehrwert für die polizeiliche Arbeit, insbesondere der Bundespolizei, darstellen können", heißt es in der Pressemitteilung des Innenministeriums. Innenminister Horst Seehofer (CSU) wird darin zitiert mit den Worten, dass nun "eine breite Einführung möglich ist."

Video (von 2017): Beginn der Testphase in Berlin

SPIEGEL ONLINE

So lief der Test ab

Bei dem Test in Berlin filmten drei Kameras bestimmte Bereiche des Umsteigebahnhofs Südkreuz. Drei Programme unterschiedlicher Hersteller wurden dann auf das Live-Videomaterial losgelassen. Das Ziel der Software: Sie suchte nach bestimmten Gesichtern, nach im System definierten Zielpersonen. Sobald die Software glaubte, jemand Bekanntes in der Menschenmenge entdeckt zu haben, meldete sie dies.

Ungefähr 300 Testpersonen hatten sich freiwillig am Projekt beteiligt und sich als Zielpersonen bereitgestellt, die es in der Menge zu entdecken galt. Ursprünglich sollte der Test nur ein halbes Jahr dauern, dann wurde er bis zum Sommer 2018 verlängert. Alle anderen Passanten, die die gekennzeichneten Bereiche durchquerten, waren Beifang des Systems.

Das Innenministerium hatte das Projekt zusammen mit der Bundespolizei und dem Bundeskriminalamt (BKA) vorbereitet, durchgeführt worden war es von der Bundespolizei. Die Beteiligten erhoffen sich von der Technik mehr Sicherheit in Zeiten von terroristischen Anschlägen. Die Hoffnung: So könnten Straftäter schneller ausgemacht werden.

Wie viele falsche Treffer landen die Programme?

Knackpunkt des Tests war aber die Frage, wie zuverlässig die Software Gesichter erkennt - und vor allem, wie viele falsche Treffer sie ausgibt. Der Hintergrund: Wenn die Software eine Übereinstimmung meldet, die gar keine ist, dann ist nicht nur ein unbeteiligter Passant in den Verdacht geraten, eine gesuchte Zielperson zu sein. Bei zu vielen solcher "false positive" genannten falschen Zuordnungen wäre das System auch unbrauchbar für die Polizei.

Das beste Programm im Test lieferte laut Abschlussbericht nun eine Trefferrate von gut 80 Prozent. Das heißt: In über 80 Prozent der Fälle wurde die Testperson durch das System erkannt, wenn sie durch den Bahnhof lief. Ob die Person eine Brille oder einen Schal trug, sei egal gewesen. Der Wert heißt aber auch: Selbst das erfolgreichste System erkannte Zielpersonen nicht immer, bei durchschnittlich 20 Prozent der Bahnhofsbesuche blieben sie unerkannt, Ermittler sprechen in diesem Kontext von einem "false negative".

Eine Person aus Tausend gerät unter falschen Verdacht

Auch "false positives", also falsche Matches, gab es. Diese Falschtrefferrate liegt aber laut Bericht bei unter 0,1 Prozent. Bei 1000 Abgleichen, die das Programm durchführt, ist also eine Meldung über ein Match dabei, das gar keines ist. Wenn Tausende Pendler jeden Tag den Bahnhof passieren, bedeutet das, dass mehrere zufällige Personen pro Tag als verdächtig gemeldet werden, einfach weil das System sie mit einer Zielperson verwechselt.

Aus Sicht des Ministeriums ist der Wert akzeptabel. Es heißt zudem, dass er sich durch eine Kombination von zwei unterschiedlichen Programmen noch "auf ein verschwindend geringes Maß" verringern lasse.

Nun müsse man entscheiden, "unter welchen Bedingungen und in welchem Umfang die Technik künftig zum Einsatz kommen soll", heißt es vom Innenministerium weiter . Das "ob" ist aus Sicht des Innenministeriums offenbar geklärt.

Im Abschlussbericht des Bundespolizeipräsidiums wird ein ausgeweiteter, dauerhafter Einsatz der Gesichtserkennungssoftware klar als Handlungsempfehlung genannt. Die Videotechnik solle "an ausgewählten Personenbahnhöfen" als "Unterstützungsinstrument der polizeilichen Fahndung eingesetzt werden". Bereits installierte Kameras sollten auf die Möglichkeit überprüft werden, sie aufzurüsten.

Massiver Eingriff in die Grundrechte

Der Pilotversuch war von Protesten und Warnungen von Datenschützern begleitet worden. Der Deutsche Anwaltsverein hatte etwa bemängelt, dass eine Rechtsgrundlage für diese Art der Videoüberwachung fehlt. "Wenn massenhaft Gesichter von unbescholtenen Bürgerinnen und Bürgern an Bahnhöfen gescannt werden, dann greift der Staat schwerwiegend in Grundrechte ein", erklärte der Verein.

Zum Start des Testlaufs hatte sich unter anderem auch Deutschlands oberste Datenschützerin Andrea Voßhoff kritisch geäußert. "Sollten derartige Systeme einmal in Echtbetrieb gehen, wäre dies ein erheblicher Grundrechtseingriff."

Der damalige Innenminister Thomas de Maizière hatte Bedenken stets beiseite gewischt und von Beginn des Tests an über einen möglichen flächendeckenden Einsatz der Technik gesprochen. Wenn man nach Terroristen und Schwerverbrechern suche, könne er sich verfassungsrechtliche Bedenken schlecht vorstellen, sagte de Maizière. Die Verhältnismäßigkeit müsse bei der Überwachungsmaßnahme aber stets geprüft werden.