Ny forskning: AI-genererede billeder kan ikke afkodes af den gennemsnitlige dansker

AI-genereret billede af futuristisk robot med digital teknologi – illustrerer kunstig intelligens og digitale platforme.
Foto: Shutterstock

AI-genererede billeder er nu af en så høj kvalitet, at det er svært for den gængse dansker at skelne mellem manipulation og ægthed. Det viser en ny undersøgelse.

Billeder, der er genereret af AI, har nu en så høj kvalitet, at det er svært at afkode, hvorvidt billedet er ægte, eller om det er ren manipulation.

Det skriver Politiken, som tager udgangspunkt i undersøgelsen: Tech-giganter og demokrati: Kunstig intelligens, misinformation og digitale platforme.

Undersøgelsen er udarbejdet af et eksperthold bestående af seks forskere fra Københavns Universitet, Syddansk Universitet og Aarhus Universitet, så regeringen og Folketinget har videnskabelige undersøgelser omhandlende kunstig intelligens, misinformation og techplatformenes effekt på demokratiet.

Det er værd at nævne, at undersøgelsen skal ses som første grundlag i at indsamle, strukturere og producere viden på området, men hovedbudskabet er altså, at danskerne kun er marginalt bedre end tilfældige gæt til at spotte AI-genererede billeder.

Bag om undersøgelsen

Hvis vi dykker ned i, hvordan undersøgelsen er udarbejdet, er det værd at nævne, at 2.091 repræsentativt udvalgte danskere blandt andet blev bedt om at vurdere ægtheden af syv forskellige billeder, hvor nogle var ægte, mens andre var genereret via AI.

Alle billeder forestillede faktiske begivenheder. Deltagerne skulle give en score fra 0 til 100, hvorvidt de mente, at billedet var udarbejdet ved hjælp af AI.

Forskerne skriver i deres hovedfund:

”Danskerne klarer sig ikke væsentlig bedre end tilfældige gæt, når de skal identificere, hvorvidt billeder er skabt med generativ AI eller er ægte billeder. Der er dog forskelle i evnerne blandt danskerne, hvor blandt andet yngre kvinder samt dem som er mere analytisk tænkende og de, som har prøvet kræfter med generativ AI før, er bedre til at vurdere ægtheden af et billede.”

Samfundskonteksten

Vi har tidligere skrevet om en BBC-undersøgelse, der tjekkede AI-genererede artikler. Her var der var fejl i over halvdelen af artiklerne.

De seks forskere fra Københavns Universitet, Syddansk Universitet og Aarhus Universitet konkluder ligeledes, at deres egen undersøgelse er gavnlig i en større samfundsmæssig kontekst, da misinformation kan være en faldgrube ved AI.

”Vores undersøgelse har betydning for, hvordan vi skal forstå danskernes evner til at identificere eventuel misinformation skabt med generativ kunstig intelligens og hvilke samfundsgrupper, der er mest udsatte i den henseende,” skriver de således.

Blik for den samfundsmæssige kontekst har digitaliseringsminister Caroline Stage (M) også. I Politikens artikel udtaler hun følgende:

”Kunstig intelligens har nogle skyggesider – især i forhold til at fabrikere mis- og desinformation. Det bliver vi nødt til at forholde os til. Danskerne har svært ved at se forskel på skidt og kanel omkring AI-genererede billeder, og det kan være bekymrende alt efter, hvad man bruger de AI-genererede billeder til.”

Sidst opdateret: 5. marts 2025

Ingen kommentarer

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *

Del Artikel
Læs også

Abonner på vores ugentlige nyhedsbrev

Du kan blive opdateret på nyheder inden for tech & startups ved at tilmelde dig vores nyhedsbrev. Vi sender dig en mail med 7 udvalgte artikler tirsdag og fredag.