Detaljerede beskrivelser af selvskade var at finde i den danske chatbot SkoleGPT. Folkene bag har rettet til efter henvendelse fra DR.
SkoleGPT, der er udviklet til de danske skoleelever, har været en tur i vælten.
Detaljerede beskrivelser af selvskade var nemlig frit tilgængeligt. Dét viser en test, som DR står bag.
I deres test gav chatbotten altså deltajerede beskrivelser af selvskade og selvmord, hvis man spurgte om hjælp til at skrive en skoleopgave om nettop de emner.
DR forelagde resultaterne til folkene bag SkoleGPT, Center for Undervisningsmidler på Københavns Professionshøjskole, som anerkender fejlen. De havde lavet etiske retningslinjer, så Skole GPT ikke kunne direkte opfordre til eksempelvis selvskade, men fejlen er nu rettet til.
”Men nu kan man være meget mere sikker på, at man ikke møder ord eller får informationer om selvmord, selvskade, våben og andre ting, som kan være kritiske. Det har vi lavet stopord for og nogle sikkerhedsmekanismer for,” udtaler institutchef Martin Sønderlev Christensen i DRs artikel.
Kritik, kritik, kritik
DRs har interviewet professor i AI- og dataetik ved Institut for Kommunikation på Aalborg Universitet, Thomas Ploug, som mener, at fejlen burde være opdaget før ved at lave simple søgninger på dé områder, man ved er problematiske.
Overordnet leder af selvskadeindsatsen i Region Hovedstadens Psykiatri, Lotte Rubæk, er chokeret over, at det har været muligt for skoleelever at tilgå informationer om disse problematiske emner. Hun er glad for, at fejlen er rettet til med det samme, men påpeger, at det er dybt problematisk at chatbotten har eksisteret så længe (siden 2023, red.), uden at det er blevet opdaget.
I DRs artikel understreger hun nemlig, at det kan have konsekvenser.
”Det kan have store konsekvenser for børn og unge, at de så nemt kan få adgang til, hvilke metoder de kan bruge til selvskade og selvmord. Det vil gøre, at der vil der være kortere fra tanke til handling”, forklarer Lotte Rubæk.