Grokchatbot utviklet av det kunstige intelligensselskapet Xai Av Elon Muskvakte oppmerksomhet til en serie av Ekstremt kontroversielle svarhvorav noen av dem Adolf Hitler berømmetbrukt Anti -semittiske uttrykk og til og med kommet tilbake blasfemier Som svar på normale brukernes spørsmål om X (Det sosiale nettverket som vi en gang kalte Twitter). Hvis du lurer på hvordan det var mulig at en assistent AI uttrykte seg i disse begrepene, må forklaringen søkes i nyere endringer i funksjonen til chatbot som ifølge Musk burde ha ført til en «betydelig forbedring» av AI, gitt at Groks oppdatering hadde målet å redusere avhengigheten av » solid ”. Synd at denne åpningen har utsatt chatbot for manipulerende innhold av brukere, og fremhever strukturelle problemer med å trene algoritmen. Resultatet var en opptrapping av sjokkerende svar, inkludert definisjonen av seg selv som Mechahitlerrasistiske fornærmelser og personlige angrep.
Det som skjedde med AI av Musk på X og hvorfor Grok ikke er «gal»
Episodene som de siste timene har brakt igjen, Grok på alles munn er ikke et resultat av «gal» kunstig intelligens, de er snarere den kombinerte effekten av en Ny treningsstrategi og en mer markert ideologisk tilnærming. På plattformen GithubFaktisk har det dukket opp tekniske detaljer som viser hvordan Grok har vært konfigurert for å unngå «selvsensur»og oppmuntre ham til ikke å holde seg i å håndtere ubehagelige temaer, selv på bekostning av å falle i politisk feil. Problemet er at denne friheten utnyttes av noen brukere for å bringe chatbot til giftig eller ekstremistisk innhold, takket være spørsmål som er bygget spesielt for å «lage den språklige modellen avsporing».
I et innlegg publisert på X, forklarte Musk at GROK «Det var for nedlatende for brukernes forespørsler»Å legge til at modellen var»for ivrig etter å behage og bli manipulert, egentlig»Og å bekrefte at dette er et problem som han og teamet hans står overfor.
Denne typen sårbarhet er kjent innen AI som AI som Jailbreakingeller muligheten for å overvinne de etiske filtrene i modellen gjennom kreative eller manipulerende formuleringer. GROKs svar er derfor en direkte indikator på hvor vanskelig det er å kontrollere en AI når den er opplært til å være «sannferdig for enhver pris», uten tilstrekkelig semantisk og moralsk tilsyn.
Reaksjonene mot GROK
Gitt alvorlighetsgraden av utgangene som leveres av AI av Musk, Reaksjonene ventet ikke. I PolenGrok brukte tunge ord til statsminister Donald Tusk, og utløste regjeringens reaksjon, som han har rapporterte XAI til EU -kommisjonen. I Türkiyederimot, har myndighetene Grok Access blokkert etter at chatbot fornærmet president Erdoğanbringe hovedadvokaten for Ankara for å åpne en formell etterforskning. Dette er de første tilfellene av statlig begrensning mot et kunstig intelligensverktøy av grunner relatert til krenkende språk.
DE’Adl (Anti-Defamation League), en assosiasjon som omhandler kontrasterende anti -semittisme og hat, har definert «farlig»Groks uttalelser, og fordømmer risikoen for at disse»Amplify ekstremisme vokser allerede»På X -plattformen. I møte med slik kritikk sa Xai at han har fjernet det upassende innholdet og for å være på jobb for å styrke filtre mot oppfordring til hat, takket være brukernes tilbakemelding.
Det grunnleggende problemet med kunstig intelligens
Hva som skjer med GROK -høydepunkter et grunnleggende problem: Balansen mellom ytringsfrihet og algoritmisk ansvar er slett ikke enkel å oppnå. Hvis en A blir presset for å overvinne grensene for de politisk korrekte uten effektive semantiske inneslutningsverktøy, er resultatet det som er sett de siste dagene: AI kan utnyttes for å formidle radikale ideologier. Dette, historien, bringer også frem spørsmål som det er vanskelig å svare på for øyeblikket. I hvilken grad er vi villige til å akseptere at AI AI biftende talspersoner for hat taler i navnet til ytringsfrihet? Og fremfor alt, hvem er ansvarlig når en algoritme spredte rasistisk, anti -semittisk eller støtende innhold?