Gjør KI virkeligheten uklar?

Professor ved Universitetet i Bergen, Christoph Trattner, forklarer hvordan KI-redigerte bilder kan påvirke folks tillit til det de ser.

SE: Ser du noen galt med dette bildet?
Publisert

Fagfolket forklarer

Nyhetsspalten «Fagfolket forklarer» er en fast spalte der Studvest spør fagpersoner om temaer som kan engasjere og interessere.

Kunstig intelligens har på kort tid endret hvordan vi produserer, konsumerer og forstår medieinnhold. I takt med at teknologien blir mer avansert, oppstår nye utfordringer knyttet til publikums tillit til mediene.

– Hvordan påvirker KI folks oppfatning av virkeligheten?

– I en global undersøkelse utført av ISOS Mori Social Research Institute rapporterte 60 prosent av respondentene i Brasil at de ikke klarte å skille mellom ekte og falske nyheter. I Sverige svarte 55 prosent det samme. Det viser at verden står overfor en betydelig utfordring med å navigere i et medielandskap, der KI-generert innhold blir stadig mer utbredt. Særlig utsatt er barn og eldre som ikke har vokst opp med digitale medier og mangler den kritiske mediekompetansen. Teknologien har nådd nivåer der manipulasjonen er vanskeligere å oppdage.

– Hvordan kan retusjering av bilder påvirke tilliten til media?

EKSPERT: Professor ved Universitetet i Bergen, Christoph Trattner forklarer mer om KI.

– Det er ikke noe nytt – folk har drevet med bildebehandling i mange år. Faktisk blir nesten alle bilder du tar med mobilen i dag automatisk retusjert til en viss grad. I en Zoom-samtale finnes det for eksempel en funksjon for «touch-up» som glatter ut ansiktet ditt. Fra et forskningsperspektiv ser vi at dette reiser noen utfordringer, særlig når det gjelder tillit. Vi har undersøkt hvordan folk reagerer på ulike temaer som ofte skaper sterke meninger – som klimaendringer, abort og våpenkontroll. Ved disse temaene så vi at bildefiltre hadde en tydelig effekt på tillit til nyhetene. Vi så at folk generelt hadde høyere tillit til nyheter om klima og underholdning – men når det ble brukt filtre på bilder i saker om våpenkontroll, sank tilliten. 

– Hvordan kan KI skape falske narrativ?

– Språkmodeller har én grunnleggende svakhet: de hallusinerer ofte, altså at de finner på informasjon i stedet for å gi korrekt fakta. Dette gjør dem upålitelige, særlig når det gjelder tall og detaljer, og derfor bør de ikke brukes til kritiske oppgaver. Modellen fungerer ved å gjette neste ord basert på store mengder tekst fra internett, uten reell forståelse av kontekst eller lokale forhold, noe som gjør svarene uklare og lite presise. 

– Hvilken konsekvens tror du KI kan ha på samfunnet?

– Vi er egentlig bare i startfasen når det gjelder å forstå de langsiktige sosiale konsekvensene av kunstig intelligens – både i mediene og i samfunnet generelt. Dette er litt som den industrielle revolusjonen, fordi det kommer til å endre seg veldig mye. Man ser allerede at selskaper som Meta og Amazon har sagt opp folk i KI-avdelingene sine. Vi ble fortalt at KI ikke skulle erstatte oss, men det skjer allerede. Når det gjelder mediebransjen, tror jeg at de har sterkere retningslinjer på plass. Jeg tror heller ikke leger vil bli erstattet, fordi det er et område vi fortsatt ønsker å ha menneskelig kontroll over. Jobber som samfunnet helst vil slippe, er det klart at vi prøver å automatisere. Ingen har lyst til å stå å skru den samme bolten i timevis.

– Hvordan kan KI-genererte sammendrag i artikler påvirke tilliten til media?

– Flere store nyhetsaktører har begynt å legge til KI-genererte sammendrag på toppen av artiklene. 

– Vi har også sett eksempler på feil i slike sammendrag. Ett kjent tilfelle var fra VG, der et sammendrag skrev at «Haaland skjøt keeperen», som om det var med pistol og ikke med ball. Slike feil kan være morsomme, men de viser utfordringen med kunstig intelligens. 

– Vet du noe om hvordan opphavsrett håndteres når man bruker KI-genererte bilder?

– KI-skapte bilder kan ikke ha opphavsrett i EU og Norge, fordi loven krever menneskelige opphavspersoner. KI regnes ikke som menneske, og kan dermed ikke være medforfatter av artikler. Vi kan heller ikke saksøke KI, fordi ansvaret ligger hos oss som skaper og bruker teknologien.

– Problemet er at journalister har opphavsrett til sine artikler, så man kan ikke bare bruke dem uten tillatelse. Det har vært juridiske diskusjoner om dette, og nylig har norske myndigheter endret noen regler for å gjøre det enklere å skape slike modeller uten å bryte loven. Vi må være forsiktige og respektere opphavsretten. 

VI SPØR CHAT-GPT:

(For å høre hvor nærme eller langt unna chat er fagfolket.)

– Gjør KI virkeligheten uklar?

– Ja, kunstig intelligens kan gjøre virkeligheten uklar. Teknologier som deepfakes, bilde- og tekstgenerering gjør det vanskelig å skille mellom ekte og kunstig innhold. Når AI kan etterligne mennesker, stemmer og bilder, kan tilliten til informasjon svekkes. Samtidig kan AI også brukes til å avsløre manipulasjon og styrke kritisk tenkning – alt avhenger av hvordan vi bruker den.

Powered by Labrador CMS