»Gesichtserkennung durch Polizei in London wahrscheinlich rechtswidrig

Gesichtserkennung in der Menschenmenge
Gesichtserkennung
[Foto: Bernd Settnik, Quelle: Bundesarchiv/ Wikimedia Commons, Lizenz: CC BY-SA 3.0 de, Montage: Robert Züblin]

 

Robert Züblin – 05.07.2019, 23:58 Uhr

Das System zur Echtzeit-Gesichtserkennung der Londoner Polizei (Metropolitan Police Service) verstoße sehr wahrscheinlich gegen Menschenrechtsnormen, heißt es in einem aktuellen Forschungsbericht.

»Kein Bestand vor Gericht

Forscher vom Menschenrechtszentrum der Universität Essex haben im Rahmen des sogenannten Human Rights, Big Data and Technology Project die von der Londoner Polizei (Metropolitan Police Service) eingesetzte LFR-Technologie untersucht.

LFR steht für live facial recognition, also Gesichtserkennung in Echtzeit. Dabei würden Menschen live über Kameras aufgenommen, und diese Aufnahmen dann in ein Gesichtserkennungssystem gestreamt, das von den Gesichtern digitale Signaturen anfertige, wie es in dem Bericht der Wissenschaftler Professor Pete Fussey und Dr. Daragh Murray heißt. Anschließend würden die digitalen Signaturen mit einer Datenbank abgeglichen werden, der sogenannten “Watchlist”, auf der Fotos von gesuchten Personen hinterlegt sind.

Die Forscher weisen unter anderem auf die wahrscheinliche Rechtswidrigkeit der Echtzeit-Gesichtserkennung hin: “Ohne ausdrückliche rechtliche Genehmigung im nationalen Recht ist es durchaus möglich, dass der polizeiliche Einsatz der LFR-Technologie – als besonders invasive Überwachungstechnologie, die eine Reihe von geschützten Menschenrechten beeinträchtigt, einschließlich solcher, die für die demokratische Partizipation relevant sind – für rechtswidrig erklärt werde, wenn er vor Gericht angefochten wird.”

Erfolgsquote ist extrem niedrig

Bei der Überprüfung der von der Londoner Polizei verwendeten Echtzeit-Gesichtserkennung haben die Wissenschaftler 42 der vom Gesichtserkennungssystem angezeigten angeblichen Übereinstimmungen von aufgenommenem Echtzeit-Foto und Datenbankbild untersucht.

Von diesen 42 Fällen hielten die Polizisten aber in rund 38 Prozent der Fälle die vom Computer behauptete Übereinstimmung der live aufgenommenen Gesichter mit den Fotos aus der Datenbank für nicht glaubwürdig.

Vier der verbliebenen 26 Zielpersonen seien in der Menge verloren gegangen. Bei den restlichen 22 angeblichen Übereinstimmungen hätte sich nach Identitätskontrollen herausgestellt, dass es nur in acht Fällen eine tatsächliche Übereinstimmung mit der Person auf der “Watchlist” gab.

Zieht man die anfänglich als analysierbar eingestufte Gesamtzahl von 42 Fällen heran, konnten die Forscher auf Grund der acht echten Treffer also nur in rund 19 Prozent der Fälle eine erfolgreiche Anwendung des Gesichtserkennungssystems feststellen.

Staatliche Massenüberwachung