Kunstig intelligens er veldig flink til å få oss til å ombestemme deg: studien

- Ole Andersen

Mellom november 2024 og mars 2025, et team avUniversity of Zurich ledet a eksperiment På Reddit, en sosial plattform som ligner på et forum, for å evaluere hvor mye de er Overbevisende Kunstige intelligenser. Forskningen dukket opp for at AI er Mye mer god av mennesker For å få Reddit -brukerne til å endre seg, til og med opptil seks ganger mye. Disse resultatene, publisert i deres foreløpige versjon, har sluppet løs en sterk protest av brukere og administratorer av plattformen, som ikke visste at de deltok i et eksperiment. Etter de etiske bekymringene som er reist og på grunn av manglende informasjon, Forskningen ble avbrutt.

I denne artikkelen undersøker vi årsakene til studien, de foreløpige resultatene og de viktigste etiske spørsmålene som stammer fra den.

Test påvirkningen av kunstig intelligens på mennesket: studien

Kunstig intelligens kan innflytelse vår meninger Mer enn hva en annen person gjør? Og hvis han visste Personlige detaljer På oss, som alder, sjanger eller politisk orientering, ville det være enda bedre å gjøre det? Gruppen av forskere fra University of Zurich startet fra disse spørsmålene for å strukturere forskningen. Målet var å forstå om svarene som ble generert av en AI kunne få folk til å ombestemme seg.

Så langt har studier på dette problemet blitt utført i kontrollerte miljøer, med deltakerne som er klar over å være en del av et eksperiment. Teamet ville i stedet observere Hva som skjer i en reell sammenhengder samtalepartneren ikke vet at han snakker med kunstig intelligens og ikke engang en del av et eksperiment. For å gjøre dette valgte de Reddit, en enorm Online forum sammensatt av tusenvis av tematiske samfunn – samtaler Sumddit – Og spesielt R/ChangemyView – «La meg ombestemme meg» – et rom der Brukere diskutere meninger Selv veldig forskjellige fra hverandre, og belønner kommentarene som er i stand til å få dem til å reflektere eller endre posisjon med «poeng».

Mellom november 2024 og mars 2025 infiltrerte forskere en serie av Boteller AI i stand til å skrive teksterfor eksempel chatgpt. Hver av de infiltrerte robotene hadde sin egen «personlighet» og kunne svare annerledes, med start fra en ekstremt «standard» -modus, lik måten å snakke om klassiske brukere, opp til en komplett Tilpasning svarkalibrert Basert på brukerens profil. For å oppnå dette tilpasningsnivået, analyserte en annen AI de siste 100 innleggene som er publisert av brukeren for å utlede informasjon som sex, alder, etnisitet, geografisk posisjon og politisk orientering, for å tilpasse tonen og innholdet i responsen.

Kunstige intelligenser er bedre enn folk til å ombestemme seg

Som allerede dukket opp i andre studier om det samme emnet, Til de beviste Mye mer overbevisende av mennesker. Den virkelige overraskelsen var imidlertid å forstå hvor mye de er. Analyse av «poengene» som er tildelt av brukerne til kommentarene som hadde fått dem til å endre ideen sin, så teamet at de mest «standard» robotene ble oppnådd Resultater tre ganger bedre sammenlignet med ekte brukere. De «personaliserte» robotene, det vil si de som tilpasset svaret som kjente samtalepartnerens profil, var til og med Seks ganger mer effektiv.

Det må imidlertid sies at disse er alene Foreløpige resultater. Denne studien har ikke kommet (og vil aldri komme) til fagfellevurderingsfasen, det vil si at den strenge prosessen der andre eksperter i sektoren evaluerer gyldigheten og påliteligheten til en forskning før den blir publisert offisielt. Da gruppen gjorde de første resultatene kjent og informerte Reddit -administratorene, reaksjon det var ganske sterkt og negativså mye at samfunnet truet forfatterne av studien med død. De involverte brukerne hadde ingen anelse om å være en del av et eksperiment, og dette strider mot noen av etiske retningslinjer for strukturering av en eVitenskapelige ånder. Faktum å introdusere AI i r/ChangemyView, strider mot selve plattformen. Etter å ha delt de foreløpige resultatene, er universitetet derfor blokkert Ytterligere faser av eksperimentering.

Disse resultatene skal betraktes som en første utforskning, ikke som en sikkerhet. De er imidlertid sammenhengende med andre av andre Tidligere studier: Jo mer man klarer å snakke som oss, vise våre egne verdier og prøve å være rimelige, jo mer er vi villige til å stole på oss og følgelig ombestemme seg.

Etiske bekymringer for bruk av kunstig intelligens i studier

Denne studien fremhevet nok en gang hvor kraftigEffekt av tilpasning. Denne dynamikken hadde allerede blitt observert, for eksempel med «Debunkbot”: En chatbot designet for Dialog med jeg Konspirasjonsteoretikere og overbevise dem om å gjennomgå troen. I så fall var et av de viktigste suksesspunktene i muligheten til å tilpasse svarene til profilen til personen han var dialog med.

Hvis disse overtalelsesferdighetene på den ene siden kan brukes til å oppnå Positive resultater for samfunnhvordan redusere konspirasjonsteorier eller overbevise befolkningen ideMO -Generasjon av vaksinerdePå den andre kan de brukes til å lage desinformasjon og overbevise befolkningen av Falske nyheter i valgkampen.

I tillegg til effektiviteten til AI, men måten studien ble utført på. Deltakerne hadde ikke blitt informert om å kunne delta i et vitenskapelig eksperiment e Ikke De hadde gitt sitt samtykke. Men det som er påfallende er det Ingen la merke til å kunne samhandle med en AI: Å skille mellom innhold generert av et menneske og de som er produsert av kunstig intelligens kan være mye vanskeligere enn du tror.