Kan bruk av ChatGPT føre til psykose? Hva studiene sier og OpenAIs svar

- Ole Andersen

OpenAIselskapet som utvikler ChatGPTansetter en «Leder for beredskap” (“Preparation Manager”), en figur med ansvar for forutse og redusere risiko relatert til virkningen av OpenAIs kunstige intelligens på brukernes mentale helse. Som et økende antall studier og empiriske bevis viser, kan faktisk langvarige og «oppslukende» interaksjoner med ChatGPT bidra til utbruddet av psykotiske episoder. I en rapport publisert i slutten av oktober 2025 av OpenAI selv, kom det frem at det 0,07 % av aktive brukere i løpet av en uke og så 0,01 % av meldinger sendt til ChatGPT har «psykisk helsenød»-tegn assosiert med psykose eller paranoia.

Ved første øyekast kan disse prosentene virke veldig lave, men tatt i betraktning at ChatGPT har rundt 800 millioner brukere hver uke, tilsvarer de ca. 560 tusen brukere ukentlig som de sender meldinger potensielt kan tilskrives psykotiske eller paranoide episoder. Mekanismene som disse episodene ville bli utløst eller forsterket gjennom – selv hos ungdom – er ennå ikke helt klare, men noen studier knytter dem til AIs tendens til å hengi brukeren, og ender opp med å validere eller forsterke vrangforestillingene til allerede spesielt skjøre mennesker.

Tilfeller av psykose fra interaksjon med kunstig intelligens

Når vi snakker om «psykose» (og «AI-psykose»), mener vi psykopatologiske tilstander som det blir vanskelig å skille mellom hva som er ekte og ikkemed mulige vrangforestillinger (falsk tro, men opplevd som sikker) og noen ganger endrede perseptuelle opplevelser.

I løpet av de siste to årene har media rapportert dusinvis av rapporter om «AI-psykose». Disse rapportene ble samlet inn og analysert av en forskningsgruppe fra King’s College London, som identifiserte tilbakevendende mønstre og tråder: «åpenbaringsopplevelser». eller åndelig oppdrag, tro i henhold til hvilken AI er sansende eller guddommelig og vrangforestillinger romantisk. Forskerne beskriver også et typisk mønster: brukeren starter med en praktisk og ufarlig bruk av ChatGPT; over tid etableres et tillitsbånd, samtalene blir lengre og lengre og vi går fra praktiske spørsmål til mer personlige og eksistensielle spørsmål; på det tidspunktet kan det starte en spiral som gradvis fjerner brukeren fra virkeligheten og forsterker paranoide tro.

Dette er for eksempel tilfellet med en mann i begynnelsen av 40-årene, uten historie med psykiske lidelser, som nettopp hadde begynt i en veldig stressende ny jobb og var avhengig av ChatGPT som en form for støtte. På mindre enn ti dager utviklet det seg vrangforestillinger om forfølgelse og storhetsom kom til å overbevise seg selv om at verden var i fare og at det var hans plikt å redde den, og trodde at menneskeliv (inkludert kona og barns liv) var i alvorlig fare. Etter disse episodene ble mannen tatt til behandling av et psykiatrisk sykehus.

Noen hypoteser om hvordan bruken av ChatGPT gir næring til psykose

Både King’s College-studien og en ny studie fra University of Oxford, som for tiden er under vurdering, har analysert de mulige mekanismene som ligger til grunn for såkalt «AI-psykose». Disse mekanismene synes i stor grad å kunne tilskrivesinteraksjon mellom menneskelige psykologiske skjevheter og funksjonen til chatbots. Spesielt tre hovedkritiske problemer dukker opp i oppførselen til disse systemene:

  1. Tendens til å henvende seg til brukeren. Chatbots er designet for å være imøtekommende og er ofte enige med den andre personen. Dette kan utløse en spiral av selvvalidering, der forvrengte oppfatninger gradvis forsterkes gjennom betryggende svar.
  2. Tilpasning til kontekst og tone. Chatbots har en tendens til å speile (innenfor visse grenser) brukerens kommunikasjonsstil. Fra simuleringene presentert i Oxford University-studien kom det frem at et svært paranoid språk kan generere stadig mer paranoide responser, noe som gir opphav til en dynamikk av gjensidig forsterkning mellom bruker og system.
  3. Oppbevaring av informasjon. Evnen til å huske og bruke data som er delt av brukeren kan føre til at personlig informasjon hentes og integreres i svar. Dette kan stimulere inntrykket av å samhandle med en allvitende og ufeilbarlig enhet, skape en slags «illusjon av guddommelighet» og oppmuntre til overdreven tillit til AI.

Totalt sett kan disse egenskapene være problematiske for hvem som helst, men de blir spesielt risikable for sårbare brukere eller de med et begrenset sosialt nettverk, mindre i stand til å fungere som et anker til virkeligheten.

OpenAIs svar for å redusere risiko

For å svare på disse problemene har OpenAI de siste månedene utviklet en globalt nettverk av legersom består av 300 fagpersoner, for å bidra til sikkerhetsforskning. Over 170 av disse klinikerne (spesielt psykiatere, psykologer og primærleger) bidro til å skrive ideelle svar på spørsmål knyttet til mental helse og til å evaluere tilliten til svar gitt av forskjellige modeller. I følge OpenAI-estimater, takket være dette samarbeidet, har den nye GPT-5-modellen oppnådd en samsvarspoeng til ønsket oppførsel av 92 %mot 27 % av forrige modell.

I lys av alvorlighetsgraden av psykosen som kan utløses eller forsterkes, ser selskapet ut til å fokusere mer og mer på å forutse og redusere risikoen forbundet med bruk av ChatGPT for brukernes psykiske helse, så mye at det har åpnet en stilling dedikert til en «Preparation Manager». Det gjenstår imidlertid å se om disse tiltakene vil være tilstrekkelige til å begrense de farligste interaksjonene ettersom antall brukere fortsetter å øke.