ChatGPT og lignende generative AI-verktøy har raskt blitt populære følgesvenner for millioner av mennesker verden over, enten man ønsker kreative råd, gode samtaler eller rask informasjon. Jeg bruker selv ofte ChatGPT til å finne middagstips eller få hjelp med tekniske problemer. Men det er viktig å være bevisst på hva man deler med slike verktøy. Selv om det kan virke uskyldig, kan sensitiv informasjon bli lagret og potensielt misbrukt.
Personlig informasjon og identitetsopplysninger
Dette punktet er kanskje åpenbart, men det tåler gjentakelse: Aldri del sensitive personopplysninger som personnummer, passnummer, adresse eller telefonnummer med ChatGPT. Selv om utviklere som OpenAI stadig forbedrer sikkerheten, kan feil skje. I mars 2023 oppstod det for eksempel en feil som viste utdrag av andre brukeres samtaler til tilfeldige personer. Slike hendelser understreker behovet for forsiktighet.
Helsedata og medisinske resultater
Mange av oss, inkludert meg selv, har sikkert vurdert å bruke ChatGPT for å få et raskt svar på medisinske spørsmål. Men tenk deg om to ganger før du deler blodprøveresultater eller annen helseinformasjon med AI-en. Chatbots har nemlig ingen juridisk forpliktelse til å beskytte slike sensitive data. Skulle informasjonen lekke ut, kan den misbrukes til kommersielle formål, forsikring eller verre – diskriminering.
Økonomisk informasjon
Det sier seg selv at finansielle data som kontonummer eller innloggingsdetaljer aldri bør deles med en chatbot. Disse verktøyene er ikke designet som sikre digitale banker. Et familiemedlem av meg opplevde en gang at kontoopplysninger lekket ut gjennom en usikker nettside. Det var et mareritt å rydde opp i, og dette bør være en påminnelse om å behandle økonomiske opplysninger med den største varsomhet.
Bedriftens konfidensielle opplysninger
ChatGPT er praktisk når man vil brainstorme eller få innspill på jobbrelevante tekster. Men alt du skriver inn kan bli lagret og i verste fall brukt til å videreutvikle chatbotens funksjoner. Mange selskaper investerer nå i sikre, private versjoner av disse AI-verktøyene nettopp av denne grunnen. Hvis ikke ditt selskap har dette på plass, bør du styre unna å dele sensitiv forretningsinformasjon med offentlige chatbots.
Passord og sikkerhetsinformasjon
ChatGPT er absolutt ingen erstatning for en sikker passordlagrer. Passord og påloggingsinformasjon må alltid oppbevares i en dedikert passordbehandler med totrinnsverifisering aktivert. Dette rådet støttes også av Datatilsynet, som understreker betydningen av spesialiserte verktøy for passordadministrasjon.
Som Jennifer King fra Stanford Institute for Human-Centered Artificial Intelligence treffende har uttalt: «Chatbots er laget for å holde samtalen gående, men du må selv vite hvor grensene går.» Bruk disse verktøyene smart og med nødvendig forsiktighet.