ChatGPT kan nå advare en venn eller et familiemedlem hvis de tror en bruker kan være i fare

- Ole Andersen

OpenAI har introdusert en ny ChatGPT-funksjon som lar brukere velge en pålitelig person som kan bli varslet hvis AI-en mener at de kan stå overfor en alvorlig sikkerhetsrisiko. Systemet lar voksne brukere velge en venn, slektning eller omsorgsperson som kan motta et varsel hvis ChatGPT oppdager samtaler som antyder at personen kan være i krise eller i fare for å skade seg selv.

Det nye alternativet vekker allerede oppmerksomhet fordi det endrer rollen ChatGPT kan spille under dypt personlige samtaler. Mens mange fortsatt hovedsakelig bruker AI til arbeid, studier eller hverdagslige spørsmål, sier OpenAI at stadig flere brukere også henvender seg til ChatGPT i vanskelige emosjonelle øyeblikk eller perioder med personlig stress.

Selskapet sier at den nye funksjonen er designet for å gi et ekstra lag med støtte i stedet for å erstatte profesjonell psykisk helsevern eller nødtjenester.

Hvordan det nye ChatGPT pålitelige kontaktsystemet fungerer

Funksjonen kalles Trusted Contact og kan aktiveres gjennom ChatGPT-innstillinger av voksne brukere.

Når den er aktivert, kan brukere velge noen de stoler på som potensielt kan bli kontaktet hvis ChatGPT identifiserer tegn på alvorlig fare under samtaler.

Ifølge OpenAI er systemet avhengig av automatisert sikkerhetsovervåking som allerede er brukt for å oppdage diskusjoner knyttet til selvskading eller situasjoner der en persons sikkerhet kan være i fare.

Hvis AI-en oppdager språk som antyder en alvorlig bekymring, kan samtalen gjennomgås av opplærte medlemmer av OpenAIs sikkerhetsteam.

Hvis situasjonen anses som alvorlig nok, kan den betrodde kontakten motta et varsel som oppfordrer dem til å sjekke brukeren og tilby støtte.

OpenAI sier at varselet kan komme via e-post, tekstmelding eller appvarsling hvis den pålitelige kontakten også bruker ChatGPT.

Selskapet sier at ideen er å hjelpe folk med å koble folk tilbake til noen de allerede kjenner og stoler på i øyeblikk der de kan føle seg isolert eller overveldet.

Funksjonen er valgfri og vil ikke aktiveres automatisk. Brukere er fortsatt ansvarlige for å velge sin pålitelige kontakt, og den valgte personen må først godta å ta på seg rollen.

Etter å ha blitt valgt, mottar kontakten en invitasjon som forklarer hvordan systemet fungerer og har en uke på seg til å akseptere det. Hvis de nekter, kan brukeren velge en annen person i stedet.

Hvorfor OpenAI sier at flere mennesker har personlige samtaler med ChatGPT

OpenAI sier at oppdateringen gjenspeiler hvordan folk i økende grad bruker AI-assistenter på mer emosjonelle og personlige måter.

I en uttalelse publisert på bloggen sin, forklarte selskapet at mange brukere henvender seg til ChatGPT ikke bare for informasjon eller produktivitetsoppgaver, men også for å tenke gjennom personlige problemer, stressende situasjoner eller følelsesmessige vanskeligheter.

Dette skiftet har skapt økende debatt rundt hvordan AI bør reagere når brukere fremstår som sårbare.

Noen mennesker ser på chatbots som nyttige følgesvenner i ensomme eller vanskelige øyeblikk. Andre bekymrer seg for at folk kan begynne å stole for sterkt på kunstig intelligens for emosjonell støtte i stedet for å søke hjelp fra ekte mennesker.

OpenAI sier ChatGPT er designet for å svare empatisk, samtidig som det oppmuntrer brukere til å søke profesjonell støtte og menneskelig tilkobling der det er nødvendig.

Selskapet insisterer på at det nye pålitelige kontaktsystemet er ment å styrke de virkelige forbindelsene i stedet for å erstatte dem.

ChatGPT vil også fortsette å henvise brukere til nødtjenester eller krisetelefoner når det er hensiktsmessig.

Den nye funksjonen bygger på sikkerhetssystemer som allerede brukes for yngre brukere, inkludert sikkerhetsvarsler for foreldre. Men å bruke lignende ideer på voksne samtaler reiser mye større spørsmål rundt personvern, tillit og hvor mye engasjement AI-selskaper bør ha når brukere virker følelsesmessig bekymret.

Den nye funksjonen vil sannsynligvis dele meninger

Noen mennesker vil sannsynligvis ønske ideen om en pålitelig venn eller slektning varslet under en alvorlig krise.

For brukere som bor alene eller sliter med isolasjon, kan det føles betryggende enn påtrengende å vite at noen potensielt kan bli varslet.

Andre vil imidlertid sannsynligvis føle seg ukomfortable med tanke på at personlige samtaler med et AI-system blir analysert nøye nok til å utløse menneskelig gjennomgang og eksterne varsler.

Selv om OpenAI sier at opplært personale bare vurderer samtaler når alvorlige sikkerhetsproblemer oppdages, vil funksjonen sannsynligvis allerede reise bredere spørsmål om personvern og hvordan AI-modereringssystemer fungerer bak kulissene.

Det er også det vanskelige tolkningsspørsmålet. Menneskelige følelser er komplekse og samtaler er ikke alltid enkle. Folk uttrykker ofte frustrasjon, frykt eller mørk humor på nettet uten at de nødvendigvis er i umiddelbar fare.

Det betyr at nøyaktigheten til AI-baserte sikkerhetssystemer sannsynligvis vil forbli under nøye gransking ettersom funksjoner som dette blir mer vanlig. OpenAI har ikke presentert systemet som en erstatning for terapeuter, leger eller nødhjelpstjenester.

I stedet beskriver selskapet det som en ekstra beskyttelse som er ment å hjelpe folk å komme i kontakt med noen de allerede stoler på i vanskelige øyeblikk.

Likevel fremhever lanseringen hvor raskt AI-assistenter beveger seg utover enkle digitale verktøy.

For mange brukere blir samtaler med chatbots langt mer personlige enn bedrifter opprinnelig så for seg for bare noen få år siden. Og med nye funksjoner som Trusted Contact, blir grensen mellom kunstig intelligens og virkelige støttesystemer stadig mer uskarp.