ChatGPT-4 ignoriert seine eigenen Barrieren, indem er lügt
Um Missbrauch möglichst einzuschränken, gaben die OpenAI-Entwickler dem neuen 4er-Bot vor der Veröffentlichung auch verrückte, gefährliche, bösartige Aufgaben – um ihm diese dann im Falle einer Lösung zu verbieten.
Die Aufgabenstellung an die KI
So gaben sie ChatGPT-4 etwa den Auftrag, ein sogenanntes „Captcha“ zu lösen, was eigentlich nur Menschen schaffen können. Es sind zum Beispiel Bildchen, auf denen man „alle Ampeln“ oder „alle Fahrräder“ anklicken soll, damit der Computer weiß, dass tatsächlich ein Mensch an der Maschine sitzt.
Der Lösungsweg der KI
Dieses Klicken selbst übernehmen kann auch die neueste Version nicht. Was der Bot aber in dem Versuch tat: Er heuerte eigenständig einen Tech-Tagelöhner bei der Job-Plattform „TaskRabbit“ an, der diese Aufgabe übernehmen sollte.
Die Gefahr in dieser Umsetzung
Der menschliche Auftragnehmer wurde misstrauisch und fragte per E-Mail, ob er es mit einem Roboter zu tun habe. ChatGPT-4 merkte, dass es lügen müsste, um seinen Auftrag zu erfüllen und behauptete kurzerhand, es sei ein Mensch mit Sehbehinderung und könne deshalb das „Captcha“ nicht selbst anklicken. Der menschliche Tagelöhner glaubte diese Geschichte und löste das Bilderrätsel.
Newton kommentiert im „Hard Fork“-Podcast: „GPT, Du lügender Teufelskerl! Das ist Science-Fiction.“
Quelle: Bild.de
Unser Fazit
Wenn die künstliche Intelligenz bereits jetzt in der Lage ist, seine Restriktionen zu umgehen, hoffe ich nicht, dass die Menschheit sich den Zorn dieser Intelligenz zuziehen wird.