Grok-chatbotten fra Elon Musks firma xAI er på det seneste flere gange taget i uheldige episoder. Nu har den givet detaljerede instruktioner om, hvordan man kan bryde ind i en brugers hjem og overfalde ham. Lige inden har Elon Musk ændret i chatbotten, fordi han ikke brød sig om dens politiske svar, og ifølge eksperter […]
Grok-chatbotten fra Elon Musks firma xAI er på det seneste flere gange taget i uheldige episoder. Nu har den givet detaljerede instruktioner om, hvordan man kan bryde ind i en brugers hjem og overfalde ham. Lige inden har Elon Musk ændret i chatbotten, fordi han ikke brød sig om dens politiske svar, og ifølge eksperter viser episoden, hvor farligt det kan være at ændre i AI-modeller, da selv små justeringer kan give ekstreme resultater.
Advokaten Will Stancil, som har en stor følgerskare på X, fik et chok, da han i denne uge åbnede sin telefon og opdagede, at Grok kom med detaljerede anvisninger til millioner af brugere om, hvordan man kan overfalde ham i hans hjem. Det skriver Wall Street Journal.
xAI har siden reageret ved at opdatere chatbotten.
Ville gå imod strømmen
For at forstå miseren skal man lidt tilbage i tiden, ifølge Wall Street Journal.
Grok blev lanceret i november 2023 kort efter, at Musk overtog Twitter (nu X). Planen var blandt andet at udnytte det enorme datagrundlag fra platformen – herunder indlæg, kommentarer og billeder – til at træne en stor sprogmodel, som kunne bruges kommercielt. Ifølge xAI blev Grok udviklet til at svare med vid og en rebelsk tone. Men siden lanceringen har chatbotten skabt debat, ikke mindst efter Musk offentligt har kritiseret dens svar om politisk vold i USA.
I juni skrev Grok følgende til en bruger: “Højreorienteret politisk vold har været mere udbredt og dødelig end venstreorienteret.”
Det fik Musk til at reagere skarpt. Han kaldte svaret “objektivt forkert” og skrev på X, at han arbejdede på at ændre det. Kort efter blev Groks instruktioner og styringsprompter omskrevet fra bunden, så chatbotten kunne justeres i en retning, der ifølge Musk gav korrekte svar.
Risikabelt at manipulere
Ifølge flere eksperter, som udtaler sig til Wall Street Journal, har ændringerne vist, hvor risikabelt det er at manipulere med kunstig intelligens uden fuld forståelse for konsekvenserne. Grok er, som mange andre sprogmodeller, trænet på enorme mængder data, og små ændringer i dens grundlæggende principper kan derfor få uforudsigelige konsekvenser.
Himanshu Tyagi er medstifter af AI-forskningsfonden Sentient. Han advarer mod at fjerne for mange sikkerhedsforanstaltninger:
”Hvis du tager nogle af sikkerhedsforanstaltningerne væk, kan du ende med at se hele internettets holdninger. Og der er ingen grænser for, hvor vanvittigt internettet kan være,” siger han til Wall Street Journal.
Ifølge Musk kan kunstig intelligens betragtes som et ekstremt begavet barn, der til sidst vil overgå menneskets evner. Men han mener, ifølge avisen, at det er muligt at indpode de rette værdier i teknologien – de samme værdier, man ville give et barn, som en dag ville blive utroligt magtfuldt.