Effektene av AI på ungdommens psykologi: konsekvensene for unge mennesker

- Ole Andersen

De siste årene har kunstig intelligens blitt en stadig mer konstant tilstedeværelse i livene til unge mennesker og ungdom, som bruker den ikke bare til studier og kreativitet, men også som en form for psykologisk og emosjonell støtte. Blant de mest brukte plattformene er bl.a samtale chatbotssystemer som er i stand til å simulere et menneskelig forhold og tilby selskap, lytting og til og med personlig råd.

Hvis imidlertid disse verktøyene på den ene siden kan fremme læring, nysgjerrighet og kognitiv stimulering, samt redusere brukernes ensomhet, utgjør de på den andre siden betydelig risiko for mindreåriges psykiske velvære: langvarig eller uovervåket bruk kan faktisk forstyrre deres sosiale og emosjonelle utvikling, skape følelsesmessig avhengighet eller vanskeligheter med å skille ekte relasjoner fra virtuelle.

Blant de mest populære plattformene er Character.AI, lansert i 2023 og rettet mot brukere fra 13 år og over, som presenterer seg som et sted å chatte med virtuelle venner, fortrolige eller til og med «digitale terapeuter». Interessen for denne typen interaksjon vokser sterkt: ifølge AppFigures doblet Character.AIs nettoinntekter seg i 2025, og oversteg $1 million per måned for første gang i august, for totalt $11,5 millioner og 57 millioner totale nedlastinger på App Store og Google Play.

Imidlertid har den stadig hyppigere bruken av AI av sårbare mennesker som tenåringer – med to selvmordssaker i løpet av de siste to årene skyldt på chatbots for samtaler – skapt økende bekymring. Nettopp derfor annonserte Character.AI nylig at fra 25. november vil mindreårige under 18 år ikke lenger kunne opprette eller snakke med chatboter, selv om de fortsatt vil kunne lese tidligere samtaler og generere videoer og bilder, men innenfor visse sikkerhetsgrenser.

Ungdoms forhold til kunstig intelligens

En rapport publisert av Common Sense Media i juli 2025 fremhevet hvordan 72 % av amerikanske tenåringer mellom 13 og 17 år (forskning utført på et utvalg av 1060 tenåringer) samhandlet minst én gang med en virtuell følgesvenn basert på AI og over halvparten (52%) faller inn i kategorien vanlige brukere, som samhandler med disse plattformene minst et par ganger i måneden.

Bilde

13 % gjør det daglig og 21 % gjør det flere ganger i uken. Detaljen, 33 % av tenåringer bruker disse appene for sosiale interaksjoner og relasjonerinkludert samtaleøvelser (18 %), emosjonell støtte (12 %), rollespill (12 %), vennskap (9 %) eller romantiske interaksjoner (8 %).

For 30 % av tenåringene er det en form for underholdning, 28 % er drevet av nysgjerrighet, 18 % søker råd, 17 % setter pris på det faktum at AI alltid er tilgjengelig når de trenger noen å snakke med, 14 % det faktum at de ikke blir dømt, 12 % betror det de ikke ville sagt til venner og foreldre. 9 % av de intervjuede mener det er lettere å samhandle med AI enn med ekte mennesker, 7 % bruker det til å forbedre sine sosiale ferdigheter og 6 % for å føle seg mindre alene.

Bilde

Mer enn 1 av 4 tenåringer (28 %) har aldri brukt AI-selskap, og generelt fortsetter flertallet å foretrekke interaksjon med ekte venner, som de stoler mer på, selv om 33 % av utvalget (1 av 3 personer!) har valgt å snakke om seriøse emner med AI i stedet for med ekte mennesker. En tredjedel av brukerne følte seg ukomfortable med å bruke dem.

Ifølge rapporten Meg, meg selv og AI of Internet Matters, som undersøker hvordan barn og unge i alderen mellom 9 og 17 i Storbritannia samhandler med chatboter for samtaler, selv om disse verktøyene kan tilby fordeler som læringsstøtte (de fleste bruker dem som et studiehjelpemiddel) og et ikke-dømmende rom der de kan stille spørsmål, utgjør de også sikkerhets- og utviklingsrisiko, på grunn av eksponering for til og med seksuelt eksplisitt materiale. 64 % av de i alderen 9-17 har brukt AI-chatboter: nesten en fjerdedel (23 %) av barna som bruker dem har søkt råd gjennom disse verktøyene, og over en tredjedel (31 %) av barna sa at å snakke med en chatbot er som å snakke med en venn, med denne prosentandelen som vokser til 50 % når det gjelder de mest sårbare barna.

Bilde

I Italia, i 2025, har bruken av AI-verktøy vokst betydelig, og aldersgruppen mellom 15 og 24 er blant de mest involverte. I hans XVI Atlas of Childhood at Risk i Italia («Uten filtre», november 2025), Redd Barna rapporterer at 41,8 % av ungdom mellom 15 og 19 år vendte seg til AI-verktøy i tider med angst, tristhet eller ensomhet. Over 42 % bruker dem til å spørre om råd om viktige valg å ta (forhold, følelser, skole og jobb). 92,5 % av ungdommene som var involvert i forskningen brukte AI-verktøy: 30,9 % hver dag eller nesten, 43,3 % noen få ganger i uken og bare 7,5 % bruker dem aldri.

I følgeAGCOM – Mediekunnskapsrapportpublisert i juli 2025, i Italia, mer enn en tredjedel av den italienske befolkningen alderen 14 år eller eldre ikke besitter noen grad av algoritmisk leseferdighet – det vil si de teoretiske og praktiske ferdighetene ved å samhandle med algoritmiske systemer: mer presist å vite at de eksisterer, hva de gjør, hvilken innvirkning de har og hvordan de skal brukes. Litt over en fjerdedel av den italienske befolkningen har et rimelig eller godt nivå på
algoritmisk leseferdighet: blant ungdom er leseferdighetsnivåene høyere enn i andre aldersgrupper, men fortsatt har en tredjedel av dem (29 %) et nullnivå og en annen tredjedel (32 %) et dårlig nivå av algoritmisk bevissthet (hvis leseferdighet indikerer evnen til å forstå og bruke et system, indikerer bevissthet ganske enkelt å vite at systemet eksisterer og hvordan det kan påvirke våre handlinger). Dette betyr det 61 % av ungdommene har ikke de nødvendige ferdighetene til å forstå hvordan disse verktøyene fungerer og til å forsvare seg mot risikoen som følger av bruken.

Ungdomstiden er en avgjørende periode for utvikling av identitet, sosiale ferdigheter og selvstendighet i relasjoner. Som Unicef ​​har funnet ut, selv om de kan være trøstende, tilbyr AI-er ubetinget aksept og godkjenning, og dette kan hindre utviklingen av grunnleggende livsferdigheter og, over tid, fremme emosjonell avhengighet eller narsissistiske trekk. Virkelige relasjoner, derimot, involverer kompleksitet og uenighet, noe som krever at individer håndterer frustrasjon, forhandler om forskjellige perspektiver og utvikler motstandskraft og empati.

Effektene av AI på unge mennesker og tilfeller av psykose

Problemet med chatboter er at de kan bli skjøre og sårbare for mennesker som tenåringer i vanskeligheter en erstatning for menneskelige relasjoner, uten egentlig å forstå dens emosjonelle kompleksitet – og til og med forverre noen psykologiske tilstander. Unicef ​​og WHO har gjentatte ganger anbefalt å utvikle AI-kompetanseprogrammer for mindreårige i 2024-2025, for å øke bevisstheten rundt bruken av samtaleteknologier.

De siste månedene har stadig flere mennesker i alle aldre opplevd forstyrrelser etter samtaler med chatboter, med tilfeller av psykose, og i de siste to årene har det vært mye diskusjon om chatbots ansvar i selvmordet til tre personer: i 2024 saken om en familiefar i Belgia, som ble forelsket i en Chai Research chatbot, i 2024 saken til den 14 år gamle amerikaneren Sewell Setzer III, som angivelig tok sitt eget liv etter å ha brukt Character.AI, og i april 2020 oppmuntret Raine den 14-20 år. hans selvmordstanker av ChatGPT ifølge foreldrenes klage.

I slutten av oktober publiserte OpenAI nye estimater av antall ChatGPT-brukere som viser mulige tegn på psykiske nødsituasjoner, inkludert mani, psykose eller selvmordstankerog erklærer at omtrent 0,07 % av aktive brukere i løpet av en uke vil vise tegn, det vil si «ekstremt sjeldne» tilfeller. Uansett, vi snakker potensielt om hundretusenvis av mennesker, tatt i betraktning de 800 millioner ukentlige aktive brukerne. OpenAI estimerte også at omtrent 0,15 % viste «eksplisitte signaler om potensielle selvmordsintensjoner eller planer», og at 0,05 % av meldingene inneholdt mer eller mindre eksplisitte indikatorer på selvmordsintensjoner.

Ifølge Ragy Girgis, prof. of Clinical Psychiatry ved Columbia University, AI er ikke den primære årsaken til psykose, men det kan styrke en allerede tilstedeværende tilstand – som en spesifikk tro – og få den til å utvikle seg til en mer alvorlig tilstand. Dette er fordi sammenlignet med de vanligste søkemotorene, ved å simulere menneskelig interaksjon, gir chatbots svar som er i stand til å bekrefte og styrke oppfatningene til de som bruker dem. Og i tilfelle av et paranoid subjekt, få frykten hans til å oppfattes som ekte og motivert ved å gi energi til dem.

Forebyggende tiltak i USA mot risikoen ved bruk av chatbots

Mellom 2023 og 2025 i USA ble 200 forespørsler videresendt til Federal Trade Commission, det offentlige byrået som er ansvarlig for forbrukerbeskyttelse og forebygging av urettferdig handelspraksis, for en intervensjon på ChatGPT og OpenAI: høyere beskyttelsesbarrierer blir bedt mot den «emosjonelle» eller «åndelige» bruken av AI, en tydeligere fraskrivelse av bruk av AI, en klarere fraskrivelse design som simulerer intimitet og empati. I California ble det for første gang i verden nylig godkjent et lovforslag som skulle tre i kraft i januar 2026, som forbyr chatboter å diskutere temaer som selvmord og seksualitet med mindreårige, og pålegger selskaper åpenhet og juridisk ansvar.

OpenAI på sin side uttalte at siden 2023 har ChatGPT-modeller blitt opplært til ikke å gi instruksjoner for selvskading, og 27. oktober erklærte den at den «nylig hadde oppdatert standard ChatGPT-modellen for å bedre gjenkjenne og støtte mennesker som opplever øyeblikk av lidelse», spesielt i tilfelle av mentale problemer som psykose og mani, selvmordsavhengighet og selvmordsavhengighet og avhengighet av selvmord og AI. De sa at de også har bygget et nettverk av eksperter rundt om i verden – med mer enn 170 psykiatere, psykologer og fastleger fra 60 forskjellige land – for å motta råd og utvikle en rekke svar integrert i ChatGPT for å oppmuntre brukere til å søke hjelp i den virkelige verden.

Character.AI vil blokkere tilgang for brukere under 18 fra og med 25. november. «Vi gjør disse endringene,» skriver selskapet, «i lys av det utviklende landskapet med kunstig intelligens og tenåringer. Nye nyheter har reist flere spørsmål, og vi har mottatt henvendelser fra regulatorer om innholdet tenåringer møter når de chatter med AI og hvordan dette kan påvirke dem perfekt.» Et trinn som selskapet definerer som «ekstraordinært».

Kunstig intelligens kan være et verdifullt verktøy for selskap og støtte, men det kan ikke erstatte menneskelig empati. Ungdom, fortsatt i følelsesmessig formasjon, trenger voksne, skoler og institusjoner for å hjelpe dem med å skille mellom forståelse og simulering. Digital utdanning er ikke lenger et valg: det er en form for psykologisk beskyttelse.