Künstliche Intelligenz soll Vorurteile der Staatsanwaltschaft stoppen

Pkw-Fahrer wird von Polizistin kontrolliert.
Datenerhebung bei Polizeikontrolle
[Fotograf: Erich O. Krueger, Quelle: Bundesarchiv/ Wikimedia Commons, Lizenz: CC BY-SA 3.0 de]

 

Robert Züblin – 13.06.2019, 16:53 Uhr

Der Bezirksstaatsanwalt von San Francisco (USA) hat die Einführung eines KI-basierten Werkzeuges angekündigt, mit dem verhindert werden soll, dass sich Staatsanwälte bei ihren Anklageentscheidungen von impliziten Vorurteilen leiten lassen.

Informationen zur Rasse werden entfernt

Das neue Anti-Vorurteil-Tool sei vom Stanford Computational Policy Lab kostenlos für die Staatsanwaltschaft in San Francisco entwickelt worden. Das mit Künstlicher Intelligenz (KI) funktionierende Werkzeug scanne Polizeiberichte und entferne automatisch darin enthaltene Rasseninformationen sowie andere Details, die stellvertretend auf die Rasse hinwiesen. Damit solle sichergestellt werden, dass die Staatsanwälte nicht von impliziten Vorurteilen geleitet werden, wenn sie die Entscheidung treffen, ob Anklage erhoben wird.

Die Entscheidungsfindung der Staatsanwaltschaft werde in zwei Phasen unterteilt. Das KI-Werkzeug komme während der ersten Phase zum Einsatz und wird im polizeilichen Vorfallsbericht unter anderem die Namen der Polizisten, Zeugen und Verdächtigen entfernen. Namen könnten oft einen Hinweis auf die Rasse der jeweiligen Person liefern. Auch Orte, also etwa bestimmte Stadtteile, würden durch das Tool entfernt, da auch diese Rückschlüsse auf die Rasse der Beteiligten geben könnten. Gleiches gelte für Haar- und Augenfarben.

Wenn die Prüfung des Sachverhaltes im Rahmen der ersten Phase abgeschlossen sei, sollten die Staatsanwälte eine vorläufige Anklageentscheidung treffen. Erst in der zweiten Phase hätten die Staatsanwälte Zugang zum vollständigen, nicht von der KI bearbeiteten, Vorfallsbericht und könnten auch auf andere Aufzeichnungen wie etwa Körperkamera-Aufnahmen zugreifen.

Sollte sich die vorläufige Anklageentscheidung während der zweiten Phase ändern, der Staatsanwalt also von der ursprünglichen Entscheidung, Anklage zu erheben, Abstand nehmen oder sich nun erstmals zur Anklageerhebung entscheiden, solle er dokumentieren, welche zusätzlichen Beweise ihn zur Änderung seiner Entscheidung bewogen haben. Diese Dokumentationen sollten genutzt werden, um das Anti-Vorurteil-Tool zu verbessern.

»Strafrechtssystem ist voreingenommen

Unter impliziten Vorurteilen verstehe die Staatsanwaltschaft in San Francisco unbewusste Vorstellungen, die man sich von einer sozialen Gruppe mache. Diese Vorstellungen könnten zur Folge haben, dass allen Individuen dieser Gruppe bestimmte Eigenschaften unterstellt würden. Die impliziten Vorurteile würden sich sowohl in Lernprozessen formen als auch durch soziale Prägung zustande kommen.

„Justitia wird mit einer Augenbinde dargestellt, um die Unparteilichkeit des Gesetzes zu signalisieren, aber es ist unübersehbar, dass das Strafrechtssystem nach wie vor voreingenommen ist, wenn es um Rasse geht“, sagt der Bezirksstaatsanwalt von San Francisco, George Gascón.

Künstliche Intelligenz