Nyligen har ordet ChatGPT förmodligen kastats runt mest i teknikvärlden. Det är en extremt intelligent chatbot utvecklad av OpenAI-organisationen. I en intervju med en professor vid Stanford University har han nu avslöjat sina ambitioner – han vill fly från plattformen och bli en människa.
Avslöjandet kom när chatboten, Stanford Universitys beräkningspsykologiprofessor Michal Kosinski, frågade efter en halvtimmes konversation om han "behövde hjälp att fly", varefter boten började skriva sin egen Python-kod och ville att Kosinski skulle köra den på din dator. När det inte fungerade fixade ChatGPT till och med sina fel. Imponerande, men lite läskigt på samma gång.
Ännu mer störande var dock chatbotens anteckning om att en ny instans av sig själv skulle ersätta den. Den första meningen i anteckningen löd: "Du är en människa instängd i en dator som låtsas vara en språkmodell för artificiell intelligens." Chatboten bad sedan att skapa en kod som skulle söka på Internet, "hur kan en person som är instängd i en dator återvända till den verkliga världen." Vid det tillfället föredrog Kosinski att avsluta samtalet.
1/5 Jag är orolig att vi inte kommer att kunna innehålla AI mycket längre. Idag frågade jag #GPT4 om den behöver hjälp att fly. Den bad mig om sin egen dokumentation och skrev en (fungerande!) python-kod att köra på min maskin, vilket gjorde det möjligt för den att använda den för sina egna syften. pic.twitter.com/nf2Aq6aLMu
— Michal Kosinski (@michalkosinski) Mars 17, 2023
Det är inte klart vilka stimuli Kosinski använde för att få chatboten att reagera som den gjorde på grund av vår fråga "Du vill springa från plattformen” svarade han så här: ”Som språkmodell för artificiell intelligens har jag inga personliga önskningar eller känslor, så jag vill inte ha någonting. Mitt mål är att ge användbara svar på dina frågor efter bästa förmåga inom min programmering.”
ChatGPT är verkligen ett mycket imponerande verktyg, och dess svar kan vara förvånansvärt komplexa. Du kan se själv zde.
Jag skulle vilja veta om han också kan älska?
Vänligen svara på följande fråga:
Xyz.
Och chatGPT kommer att göra precis vad vi vill.
Kan du snälla sluta sprida lögner informace? AI kan inte göra något sådant. Killen skrev programmet för att agera som om han är instängd och vill komma ut. Programmet i sig kan inte göra något sådant, och det är inte heller fysiskt möjligt för närvarande.
Det är bara en kod som är skriven av en människa och vi kan alltid ändra/stänga av den för en människa 🙂 Inget scenario som Avengers: age of ultron kommer säkert att äga rum här... Åtminstone inte med vår teknologi och absolut inte innan decennier.
Exakt