Trends Grundlagen Magazin

iStock.com/mennovandijk

Forscher: Superintelligente Maschinen sind nicht kontrollierbar

Angenommen, es gebe eine Künstliche Intelligenz (KI), deren Fähigkeiten denen des Menschen extrem überlegen wäre und die selbstständig alles lernen könnte. Angeschlossen an das Internet hätte die KI Zugriff auf alle Daten der Menschheit, sie könnte alle bestehenden Programme ersetzen und alle ans Web angeschlossenen Maschinen kontrollieren. Ist das eine Utopie oder ein Horrorszenario? Würde die KI Krebs heilen, den Weltfrieden herbeiführen und die Klimakatastrophe verhindern? Oder würde sie die Menschheit vernichten und die Erde übernehmen? In der wissenschaftlichen Debatte stellt sich die Frage, ob so eine superintelligente KI überhaupt zu kontrollieren ist, sodass sie der Menschheit nicht schadet. 

Ein internationales Forscherteam unter Beteiligung des Forschungsbereichs Mensch und Maschine am Max-Planck-Institut für Bildungsforschung zeigt anhand theoretischer Berechnungen, dass es nicht möglich sei, eine superintelligente KI zu kontrollieren. „Eine superintelligente Maschine, die die Welt kontrolliert, klingt nach Science-Fiction. Doch schon heute gibt es Maschinen, die bestimmte wichtige Aufgaben selbständig erledigen, ohne dass diejenigen, die sie programmiert haben, komplett verstehen, wie sie das gelernt haben. Daher stellt sich für uns die Frage, ob das für die Menschheit irgendwann unkontrollierbar und gefährlich werden könnte“, erklärte Manuel Cebrian, Leiter der Forschungsgruppe Digitale Mobilisierung am Forschungsbereich Mensch und Maschine und Co-Autor der Studie.

Ressourcen der superintelligenten KI gezielt einschränken
Forschende weltweit hätten zwei Ideen entwickelt, wie eine superintelligente KI kontrolliert werden könnte, teilte das Institut in Berlin mit. Zum einen könnte man die Ressourcen der superintelligenten KI gezielt einschränken, indem man sie etwa vom Internet und von allen anderen technischen Geräten abschotte, so dass sie keinen Kontakt zur Außenwelt habe – doch wären dadurch auch die Fähigkeiten der superintelligente KI deutlich geringer. Die großen Menschheitsprobleme würde sie so nicht lösen, hieß es. Die andere Option wäre, die KI von vornherein zu motivieren, nur Ziele zu verfolgen, die im Interesse der Menschheit lägen, zum Beispiel indem man ihr ethische Regeln einprogrammiere. Doch zeigen die Forschenden den Angaben zufolge, dass diese und andere historische oder aktuelle Ideen zur Kontrolle superintelligenter KI ihre Grenzen hätten.

Das Forschungsteam habe in seiner Studie einen theoretischen Algorithmus konzipiert, der sicherstelle, dass eine sehr intelligente KI unter keinen Umständen der Menschheit schade. Dieser Algorithmus simuliere zunächst das Verhalten der KI und stoppe sie, wenn er es als schädlich erachte, hieß es. Jedoch zeige eine genaue Analyse, dass nach aktuellem Stand der Computerwissenschaften ein solcher Algorithmus nicht programmiert werden könne. „Bricht man das Problem auf einfache Grundregeln aus der theoretischen Informatik herunter, zeigt sich, dass ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, versehentlich seine eigenen Prozesse zum Stillstand bringen könnte. Man wüsste dann nicht, ob der Algorithmus die Bedrohung noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht diesen Algorithmus praktisch unbrauchbar“, erläuterte Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine.

Auf Basis dieser Berechnungen sei es somit nicht möglich, einen Algorithmus zu programmieren, der erkenne, ob eine KI der Welt Schaden zufügen würde oder nicht, hieß es weiter. Dazu komme, dass möglicherweise nicht einmal erkennbar sei, ob eine Maschine superintelligent sei. Ob eine Maschine eine dem Menschen überlegene Intelligenz besitze, lasse sich nach aktuellen Erkenntnissen ebenfalls nicht berechnen. (ud)

Verwandte Artikel

Anzeige

Lexikoneinträge