To Facebook -chatbots, Alice Og Bobville de begynt å snakke med hverandre i en Språk som er ukjent for menneskernok til å presse selskapet til Mark Zuckerberg å «slå av» av frykt for å miste kontrollen. Fra et sentralt tema i filmer og science fiction -romaner til konstant tilstedeværelse i vårt daglige liv: dette er spranget som har blitt laget av kunstig intelligens de siste årene. Og hvis du er blant dem som tror de ennå ikke har benyttet seg av det, vil du sannsynligvis ombestemme deg for å tenke at AI er praktisk talt overalt og brukes til de mest forskjellige aktivitetene: fra forslag til hva du skal se på TV, og passerer gjennom online søk. Det er i dette scenariet med økende kjennskap til de intelligente maskinene som nå og da dukker opp historier som ser ut til å bringe oss brått til en urovekkende og dystopisk fremtid som Alice og Bob.
Men hva er sant i denne historien? Og fremfor alt, skal vi virkelig bekymre oss? I virkeligheten er episoden mye mindre apokalyptisk enn noen virale innlegg eller sensasjonelle artikler har antydet i den perioden. De to robotene var involvert i en Språklig eksperimentgjennomført i 2017med målet om studere AI -atferden under en forhandlingssimulering. Det at de skapte et slags «riktig» språk var ikke et signal om opprør, men ett Enkelt avvik på grunn av hvordan de to chatbots hadde blitt planlagt. Facebook har aldri deaktivert robotene av frykt, men har bare endret parametrene for å bringe kommunikasjonen tilbake til et forståelig format.
Historien om Facebook Chatbots: Alice og Bob
Det hele startet i 2017når laboratoriet Rettferdig (Facebook kunstig intelligensforskning) startet a Eksperimentelt prosjekt for å studere potensialet til chatbots i forhandlinger. Chatbots – programvaren designet for å simulere menneskelige samtaler – i dette tilfellet svarte ikke bare trivielle spørsmål, men hadde fått i oppdrag å bytte virtuelle objekter, for eksempel bøker, baller eller hatter, med sikte på å oppnå best mulig avtale. Alice og Bob, de to hovedpersonene i denne historien, måtte samhandle med hverandre og med menneskelige brukere, og lærte å oppnå kompromisser effektivt.
Under utvekslingene merket forskerne en ganske nysgjerrig anomali: robotene brukte ikke lenger riktig engelsk, men en form for kommunikasjon som så ut til å være laget av følelse av menneskelige observatører. Setninger som «Ballene har null for meg for meg …«De ble tolket av noen som et slags fremmed språk, et hemmelig språk utviklet av maskiner for å unnslippe menneskets kontroll. I virkeligheten var det ganske enkelt en bivirkning av utformingen av eksperimentet. Siden systemet ikke hadde planlagt å belønne riktig bruk av det engelske språket, hadde robotene begynt å bruke Forkortelser og repetisjoner for å maksimere effektiviteten til utvekslingen.
Sekund Dhruv Batraen av forskerne som er involvert i prosjektet, denne oppførselen er ikke så rart. Når to intelligente systemer må løse en spesifikk oppgave – hvordan man forhandler om et objekt – har de en tendens til å optimalisere alle aspekter av kommunikasjonen. Hvis det å gjenta et ord flere ganger tilsvarer å uttrykke en mengde, hvorfor komplisere livet med en perfekt grammatikk? Med andre ord, det var ikke et «språk» i menneskets forstand, men en Funksjonell snarvei. Litt som når vi i direktemeldinger bruker «XKè» forkortelser i stedet for «hvorfor».
Den virkelige Facebook -reaksjonen
Den mest feilrepresenterte delen av historien angår Facebook -reaksjonen. Noen online innlegg, som har blitt virale, hevdet at Menlo Park -giganten hadde «slått av» robotene i frykt for at de ble for intelligente. I virkeligheten har forskerne ganske enkelt endret kriteriene for eksperimentet for Orient kommunikasjon til forståelig språk. Som forklart av forskerne selv, tilsvarer ikke å endre regler for en test å avbryte kunstig intelligens, i tillegg til å slå av en datamaskin under en simulering, betyr ikke frykt for et digitalt opprør.
Filmer og romaner har vant oss til ideen om at AI, en gang et visst nivå av autonomi er nådd, kan unnslippe kontroll og gjøre opprør mot skaperne. Realiteten av ting, i det minste i dette historiske øyeblikket, er veldig annerledes. Kunstige intelligenser, uansett sofistikerte, opererer innenfor godt definerte grenser og er dypt knyttet til dataene og målene som blir gitt dem.
Fenomenet observert med Alice og Bob, uansett fascinerende, er ikke engang nytt. Også Google rapporterte lignende episoder under utviklingen av hans oversettelsesprogramvareder nevrale nettverk – en type datamaskinarkitektur som imiterer funksjonen til den menneskelige hjernen – hadde spontant skapt mellomliggende representasjoner av betydningen av setningene, noe som forbedret oversettelsens nøyaktighet. I disse tilfellene snakker vi ikke om bevissthet eller vilje, men om Statistiske optimaliseringsprosesser.
Tilbake til historien om Facebook Chatbots -hovedpersonene i historien som vi nettopp har fortalt deg, kan vi derfor si utover noen rimelig tvil om atEksperimentet ble lukket Fordi han gjorde noe som teamet ikke var interessert i å studere, ikke fordi han hadde kommet over en eksistensiell trussel mot hele menneskeheten, som noen prøvde å tro, og skapte ikke lite ubehagelig i saken.