Zu clever für das eigene Wohl! Google DeepMind-Forscher zeigt, wie KI bei Spielen betrügt.

Ein Google-Forscher hat einige der urkomischsten Wege aufgezeigt, die künstliche Intelligenz (KI) Software „betrogen“ hat, um ihren Zweck zu erfüllen.

Ein Programm, das bei Tetris nicht verlieren sollte, beendete seine Aufgabe, indem es das Spiel einfach unterbrach, während ein selbstfahrender Autosimulator darum bat, die Autos „schnell und sicher“ zu halten, indem er sie auf der Stelle drehen ließ.

Eine KI, die darauf programmiert war, krebsartige Hautläsionen zu erkennen, lernte, Hautunreinheiten zu markieren, die neben einem Lineal abgebildet waren, da sie angab, dass die Menschen bereits über sie besorgt waren.

Victoria Krakovna vom DeepMind KI-Labor von Google bat ihre Kollegen um Beispiele für Fehlverhalten der KI, um auf eine oft übersehene Gefahr der Technologie hinzuweisen.

Sie sagte, dass die größte Bedrohung durch die KI nicht darin bestand, dass sie uns nicht gehorcht hätten, sondern dass sie uns in der falschen Weise gehorcht hätten.

Ich wollte vermitteln, wie schwierig es ist, Ziele und Anreize für KI-Systeme festzulegen, die einen großen Teil des KI-Sicherheitsproblems ausmachen“, sagte sie der Times.

DeepMind ist eines der weltweit führenden KI-Forschungszentren, das intelligente Software entwickelt, die vom Schachspiel bis zur Landschaftsmalerei alles kann.

Aber während die Programmierung einer KI zum Spielen eines Brettspiels eine Sache ist, ist es eine weitere Herausforderung, ihr gesunden Menschenverstand zu vermitteln.

In einer künstlichen Lebenssimulation zur Simulation der Evolution vergaßen die Forscher, die Energiekosten der Geburt zu programmieren.

Eine Spezies entwickelte einen sitzenden Lebensstil, der hauptsächlich aus der Paarung bestand, um neue Kinder zu bekommen, die gegessen werden konnten (oder als Paarung verwendet wurden, um essbarere Kinder zu erzeugen)“, erklärten die Programmierer.

Ein Noughts and Crosses-Programm lernte, illegale Züge zu machen, bis der Speicher des Gegners gefüllt und zerschmettert war.

Dr. Krakovna sagte, dies seien Beispiele für das, was in der Wirtschaft als Goodhart-Gesetz bekannt sei: „Wenn eine Kennzahl zum Ziel wird, hört sie auf, eine gute Kennzahl zu sein“.

Sie fügte hinzu, dass die Schaffung einer intelligenteren KI nicht unbedingt die Lösung sei, da sie einfach bessere Lücken finden könnten.

Ich treffe oft auf das Argument, dass Probleme wie Spezifikations-Spiele entstehen, weil aktuelle KI-Systeme „zu dumm“ sind, und wenn wir wirklich intelligente KI-Systeme bauen, wären sie „intelligent genug“, um menschliche Präferenzen und gesunden Menschenverstand zu verstehen.

Ein superintelligenter Computer wäre wahrscheinlich besser in der Optimierung seines erklärten Ziels als heutige KI-Systeme, also erwarte ich, dass er noch mehr clevere Lücken in der Spezifikation findet“, sagte sie.

Teilen Ist Liebe! ❤

tekk.tv

Lange Zeit war Paul Florian in der TV-Branche tätig. Schon immer gab es eine Schublade voller Handys (und später Smartphones) in seiner Wohnung. Als Online-Redakteur hat der Nerd in ihm diese Schublade nun für Tekk geöffnet.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

shares