Forscher warnen vor KI: superintelligente Maschinen unkontrollierbar

Künstlicher Maschinenmensch mit dem Namen Robot beim Frühstück mit seinem Erfinder in Berlin.
Der künstliche Maschinenmensch „Robot“ beim Frühstück mit seinem Erfinder
[Fotograf: Georg Pahl, Quelle: Bundesarchiv/ Wikimedia Commons, Lizenz: CC BY-SA 3.0 de, Kolorierung: Robert Züblin]
Robert Züblin | 12.01.2021 | 11:03 Uhr

Ein Forscherteam hat mit Hilfe theoretischer Berechnungen festgestellt, dass eine superintelligente Künstliche Intelligenz (KI) nicht kontrollierbar wäre.

Superintelligenz kontrollierbar?

Die Warnung vor den unkontrollierbaren superintelligenten Maschinen haben die Wissenschaftler in der Fachzeitschrift „Journal of Artificial Intelligence Research“ veröffentlicht.

Die Forscher hatten sich die Frage gestellt, ob eine superintelligente Künstliche Intelligenz (KI) durch den Menschen kontrollierbar wäre.

„Eine superintelligente Maschine, die die Welt kontrolliert, klingt nach Science-Fiction. Doch schon heute gibt es Maschinen, die bestimmte wichtige Aufgaben selbständig erledigen, ohne dass Programmierer komplett verstehen, wie sie das gelernt haben. Daher stellt sich für uns die Frage, ob das für die Menschheit irgendwann unkontrollierbar und gefährlich werden könnte“, sagt Manuel Cebrian, einer der Studienautoren.

In ihrer Studie kommen die Wissenschaftler zu dem Schluss, dass eine totale Beherrschung einer superintelligenten KI durch den Menschen unmöglich sei, was sie mit den grundlegenden Grenzen der Computertechnik selbst begründen.

Komplexität macht KI unkontrollierbar

In der Pressemitteilung zur KI-Studie wird erklärt, dass weltweit von Wissenschaftlern zwei Herangehensweisen zur Kontrolle superintelligenter KIs entwickelt wurden. Eine Idee sei, dass man der superintelligenten KI nur begrenzte Ressourcen zur Verfügung stelle; die Künstliche Intelligenz zum Beispiel vom Internet abschotte. Der Nachteil: Eine solche KI hätte wesentlich weniger Fähigkeiten, als eine KI, die mit dem Internet verbunden wäre.

Eine andere Idee sei, eine superintelligente KI von vornherein so zu motivieren, dass sie nur im Interesse der Menschheit liegende Ziele verfolge; etwa durch das Programmieren von ethischen Regeln. In diesem Sinne hätten die Forscher der aktuellen KI-Studie einen Algorithmus konzipiert, der dafür sorgen sollte, dass eine superintelligente KI der Menschheit keinen Schaden zufüge. Der Algorithmus müsste das Verhalten der KI simulieren und diese vor der Ausführung schädlichen Verhaltens stoppen.

Allerdings seien die Forscher in ihrer Studie zu dem Schluss gekommen, dass eine superintelligente KI ein Programm enthalten würde, welches alle Programme umfasse, die anhand einer Eingabe von einer universellen Turing-Maschine ausgeführt werden könnten. Die Komplexität wäre so hoch wie der Zustand der Welt. Die Simulation eines solchen Superprogrammes wäre theoretisch und praktisch unmöglich.

„Bricht man das Problem auf einfache Grundregeln aus der theoretischen Informatik herunter, zeigt sich, dass ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, sich womöglich aufhängen würde. Man wüsste dann nicht, ob der Algorithmus die Bedrohung noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht diesen Algorithmus praktisch unbrauchbar“, sagt Iyad Rahwan, der ebenfalls an der Studie beteiligt war.

Künstliche Intelligenz