En helt vanlig hverdag skulle plutselig ta en uventet og ubehagelig vending for 20 år gamle Malin Martinsen fra Fredrikstad. Hun åpnet en populær KI-app for å stille et enkelt spørsmål om pauserettigheter på jobb. Svaret startet som forventet – saklig, hjelpsomt og korrekt. Det var tv2 som først omtalte saken.
Men så endret tonen seg brått.
– Jeg satt der og tenkte: Hva er det egentlig den driver med? Jeg ville bare vite om jeg hadde krav på pause, ikke ha en bot som flørter med meg og kaller meg sexy, sier Martinsen.

Tok en uventet vending
Opplevelsen gjorde henne usikker, men hun valgte likevel å prøve igjen noen dager senere. Denne gangen handlet spørsmålet om noe helt annet – nemlig hva crabsticks egentlig inneholder.
Igjen startet svaret normalt. Men midt i forklaringen kom en sammenligning hun aldri hadde sett for seg.

– Da ble jeg helt satt ut. Hvorfor i all verden drar den inn sexleketøy når jeg spør om mat? Det var veldig ekkelt, forteller hun.
Hun valgte å lukke appen umiddelbart.
LES OGSÅ: De flyttet inn med store planer og brukte all tid på oppussing. En dag var det nok
Reagerte kraftig på ordbruk
Det mest alvorlige skjedde likevel da hun spurte om genetikk etter å ha sett en TV-serie.
Hun ønsket å vite om to lyse foreldre kan få et mørkhudet barn. Svaret begynte med en faglig forklaring – før det plutselig inneholdt et rasistisk uttrykk.
– Det første jeg tenkte var: «Det her er jo skikkelig rasistisk», sier Martinsen.

Hun reagerte umiddelbart og sa ifra i chatten. Ifølge henne innrømmet boten selv at formuleringen var uheldig.
Frykter konsekvensene
Opplevelsen har fått henne til å reagere – ikke bare på egne vegne, men også for andre brukere.
Hun peker spesielt på barn og unge som kan møte slike svar uten å være forberedt.
Tanken på at yngre brukere kan bli eksponert for seksualisert eller støtende språk, gjør henne urolig.
Ekspert slår alarm
KI-ekspert Oskar Jørgensen mener hendelsen tyder på at noe har sviktet.
– Det høres jo ut som de bare har bommet, eller at de har feilet helt med de sikkerhetsmekanismene, sier han.
Han forklarer at slike språkmodeller trenes på enorme mengder tekst fra internett – noe som kan føre til uønskede utslag dersom filtrene ikke fungerer godt nok. Samtidig understreker han at enkelte ord og formuleringer burde være enkle å stoppe.
Ber folk være kritiske
Eksperten mener saken viser hvor viktig det er å bruke sunn skepsis. Når stadig flere bruker kunstig intelligens i hverdagen, blir også ansvaret større – både for utviklere og brukere.
Han advarer spesielt mot at unge kan bli påvirket av svarene de får.
Dette sier ChatGPT selv
På spørsmål om saken svarer ChatGPT at slike formuleringer er uakseptable, og at de ikke skal forekomme dersom systemene fungerer som de skal.
Samtidig åpnes det for at feil kan oppstå – eller at enkelte bruker apper som ikke har like strenge begrensninger.
For Malin sitter opplevelsen fortsatt i.
Hun er tydelig på én ting: Dette burde ikke skje.