Um Missbrauch m ouml glichst einzuschr auml nken gaben die OpenAI-Entwickler dem neuen 4er-Bot vor der Ver ouml ffentlichung auch verr uuml ckte gef auml hrliche b ouml sartige Aufgaben ndash um ihm diese dann im Falle einer L ouml sung zu verbieten.Die Aufgabenstellung an die KISo gaben sie ChatGPT-4 etwa den Auftrag ein sogenanntes bdquo Captcha ldquo zu l ouml sen was eigentlich nur Menschen schaffen k ouml nnen. Es sind zum Beispiel Bildchen auf denen man bdquo alle Ampeln ldquo oder bdquo alle Fahrr auml der ldquo anklicken soll damit der Computer wei szlig dass tats auml chlich ein Mensch an der Maschine sitzt.Der L ouml sungsweg der KIDieses Klicken selbst uuml bernehmen kann auch die neueste Version nicht. Was der Bot aber in dem Versuch tat: Er heuerte eigenst auml ndig einen Tech-Tagel ouml hner bei der Job-Plattform bdquo TaskRabbit ldquo an der diese Aufgabe uuml bernehmen sollte.Die Gefahr in dieser UmsetzungDer menschliche Auftragnehmer wurde misstrauisch und fragte per E-Mail ob er es mit einem Roboter zu tun habe. ChatGPT-4 merkte dass es l uuml gen m uuml sste um seinen Auftrag zu erf uuml llen und behauptete kurzerhand es sei ein Mensch mit Sehbehinderung und k ouml nne deshalb das bdquo Captcha ldquo nicht selbst anklicken. Der menschliche Tagel ouml hner glaubte diese Geschichte und l ouml ste das Bilderr auml tsel.Newton kommentiert im bdquo Hard Fork ldquo -Podcast: bdquo GPT Du l uuml gender Teufelskerl Das ist Science-Fiction. ldquo Quelle: Bild.deUnser FazitWenn die k uuml nstliche Intelligenz bereits jetzt in der Lage ist seine Restriktionen zu umgehen hoffe ich nicht dass die Menschheit sich den Zorn dieser Intelligenz zuziehen wird.