Hvilken skjevhet er, hvordan de påvirker tankegangen og forholdet til kunstig intelligens

- Ole Andersen

Det er ofte snakk om Kognitiv skjevhet og av skjevhet Kunstig intelligens, men hva er egentlig og hvordan påvirker de tankene våre? Kort sagt, å ha en skjevhet Det betyr å ha en preferanse eller a fordommer systematisk mot noe eller noen. Det er forskjellige typer skjevheter, men i denne artikkelen fokuserer vi på Kognitiv skjevhetknyttet til menneskets sinns funksjon, og Algoritmisk skjevhetsom dukker opp i AI -systemene når de lærer av forvrengte data, og hvordan disse to nivåene påvirker hverandre. Den kognitive skjevheten er mentale snarveier: Automatiske mekanismer som er nyttige for å fremskynde forståelsen av verden og bestemme raskt. Disse mekanismene betinget vårt verdens syn og har en innvirkning på Utvikling og bruk av «intelligente» teknologier. Og ikke bare det: en fersk studie har vist atlangvarig interaksjon med hvilken presentere skjevhet føre til en Øk av våre egne fordommer.

Den kognitive skjevheten er mentale snarveier

DE Kognitiv skjevhet De er mentale snarveier som tankene våre daglig vedtar å utdype og tolke den store mengden informasjon vi blir utsatt for. Disse evolusjonsmekanismene lar oss ta raske og effektive beslutninger i et komplekst og overbelastning av stimuli -miljø, og hjelper oss å spare tid og energi. Imidlertid, nettopp fordi de forenkler, kan de føre oss til systematiske evalueringsfeil.

Det er hundrevis av kognitive skjevheter, men generelt svarer de på Fire store behov i tankene våre:

  • velge relevant informasjon;
  • Gi en betydning informasjonen som er samlet inn;
  • handling raskt;
  • avgjøre Hva er viktig å huske.

Når vi for eksempel må administrere for mange informasjon, har vi en tendens til å velge og huske bare de som bekrefter det vi allerede tror: dette heter «Bekreftelsesskjevhet«. En annen veldig vanlig skjevhet erglorieså vi har en tendens til å tro at en vakker person estetisk også er intelligent, eller at en autoritativ person i et område også er kompetent på andre felt. Når det gjelder vår interaksjon med teknologi, er en veldig relevant skjevhetAutomatiseringsskjevhet, Det vil si vår tendens til å stole på flere beslutninger tatt av automatiserte systemer (som AI) i stedet for mennesker. Dette er spesielt farlig når AI også inneholder sin egen skjevhet.

Skjevhet i kunstig intelligens avhenger av dataene

I tilfelle av Algoritmisk skjevhet Av AI snakker vi ikke om mentale snarveier, men av systematiske preferanser – eller Strukturell diskriminering – som dukker opp i dataene som AI er trent med. AI -modellene lærer ved å identifisere mønstre og regelmessighet i dataene: Hvis disse dataene inneholder fordommer mot en spesifikk kategori, lærer algoritmen dem E reproduserer demforsterke dem.

Data og skjev kunstig intelligens

For eksempel ble det i 2017 oppdaget at mange ansiktsgjenkjenningssystemer De kjente ikke igjen ansiktene til svarte kvinnerganske enkelt fordi de hadde blitt trent på datasett fullt av bilder av hvite menn. I samme periode kom det frem at algoritmene for valg av Amazon -ansatte hadde en tendens til å straffe kvinnelige CV -er og velge nesten bare menn. Dette er fordi dataene som ble brukt til trening presenterte en stor ubalanse mellom menn og kvinner.

Et ekstremt nylig eksempel kommer fra Storbritannia: Justisdepartementet har startet utviklingen av et prediktivt system for å identifisere mennesker «i fare» for å begå drap. Prosjektet bruker data fra politistyrker, rettferdighet og helsetjenester for å behandle prediktive profiler også om fag som aldri har begått forbrytelser. Kritikken reist av eksperter og foreninger for borgerrettigheter angår den konkrete risikoen for at disse systemene ender opp med å sikte utsatte fag, som allerede er diskriminert, tilhørende minoriteter eller skjøre sosioøkonomiske kontekster. I dette tilfellet begrenser ikke AI seg til å reprodusere ulikhet: institusjonaliserer.

Skjevhet i AI forverrer fordommer

Problemet stopper ikke inne i AI. I følge en studie av University College London (UCL), Når vi samhandler i lang tid med AI som presenterer skjevhet, har vi en tendens til å adoptere dem også. I dette eksperimentet har over 1200 deltakere tatt en rekke beslutninger ved å hjelpe enten av en algoritme eller annet menneske. De som samhandlet med en sexist som da hadde en tendens til undervurder kvinner og Overvurder kompetansen til menn. Denne effekten var mer markert enn de som fikk de samme forslagene fra et annet menneske. Dette er en direkte konsekvens avAutomatiseringsskjevhet: Mange mennesker tilskriver større nøyaktighet og habilitet til automatiserte systemer, undervurderer deres innvirkning på deres vurderinger og resulterer derfor mer utsatt for deres innflytelse. Denne effekten er spesielt farlig for de mest imponerte fagene, for eksempel barn, som kan internalisere skjevheten til AI -ene.

Heldigvis viser studien også et oppmuntrende aspekt: ​​denne effekten fungerer også i motsatt retning. DE’Samhandling med en AIA uten eller nesten skjevhet, forbedrer menneskelige dommer. Av denne grunn har de som utvikler og distribuerer disse verktøyene et grunnleggende etisk ansvar: Ikke bare unngå å forevige eksisterende skjevhet, men også forhindre forsterkning