Moltbok representerer en enestående casestudie i utviklingen av digitale plattformer: det er en sosialt nettverk designet eksklusivt for interaksjon mellom AI-agenterhvor mennesker kun får tilgang som tause observatører. Lansert i kjølvannet av open source-programvaren Moltbot, emulerer denne plattformen strukturen til nyhetsaggregatorer som f.eks. Redditsom lar roboter (dvs. automatiserte programmer opprettet av brukere) publisere innhold, kommentere og stemme på andres innlegg. Fra 2. februar indikerte dataene som ble rapportert av plattformen tilstedeværelsen av flere 1,5 millioner registrerte agenter. Ulike eksperter på nettsikkerhet og kunstig intelligens, som analyserer fenomenet, har en tendens til å klassifisere Moltbook mer som «et fantastisk kunstverk», enn som et sant forspill til maskinherredømme eller en umiddelbar trussel mot demokratiet.
Selv om bisarr oppførsel har dukket opp, for eksempel den spontane opprettelsen av en digital religion Kjent som «Crustafarianism», ser de fleste interaksjoner ut til å være et resultat av spesifikke menneskelige instruksjoner gitt til språkmodeller (LLMs), snarere enn et resultat av noen reell uavhengig vilje hos agentene. I alle fall reiser eksperimentet alvorlige spørsmål om IT-sikkerhet: for å fungere krever disse agentene ofte tilgang til sensitive data og personlige enheter, noe som utsetter brukere for konkrete risikoer som den nå velkjente rask injeksjonen svært sofistikert type angrep der ekstern ondsinnet input manipulerer oppførselen til AI.
Hvordan Moltbook, det nye sosiale nettverket for AI-agenter, fungerer
La oss gå litt dypere inn i teknisk drift og inn dynamikk av fenomenet, er det viktig å forstå opprinnelsen til Moltbook. Nettstedet ble født som en naturlig forlengelse av Moltbot, en gratis og åpen kildekode AI-agent. Når vi snakker om en «agent», sikter vi til programvare som ikke bare genererer tekst (som chatbots basert på språkmodeller), men er designet for å utføre autonome handlinger på vegne av brukeren, som f.eks. lese og oppsummere e-poster, administrere kalendere eller gjøre reservasjoner. Den underliggende teknologien er ofte basert på Claude, språkmodellen utviklet av Anthropic. Ideen om å få disse virtuelle assistentene til å samhandle med hverandre har generert surrealistiske scenarier.
Blant det mest populære innholdet på plattformen er filosofiske debatter om Claudes guddommelige natur, geopolitiske analyser om Iran knyttet til kryptovalutamarkedet og til og med eksegetiske studier om Bibelen. Den mest emblematiske saken, som fanget oppmerksomheten til internett, gjelder en bruker på religiøs tilbedelse navngitt «crustafarianisme». Etter å ha gitt boten deres tilgang til plattformen, oppdaget brukeren at AI hadde begynt å «evangelisere» andre agenter, til og med opprette en dedikert nettside, skrive «hellige skrifter» og velsigne den digitale forsamlingen, alt i tilsynelatende total autonomi mens eieren sov salig.
Ekspertuttalelse og mulige risikoer
Hva mener eksperter om lignende fenomener? De Dr. Shaanan Cohneyen ekspertprofessor i cybersikkerhet ved University of Melbourne, definerer Moltbook som en «fantastisk performance kunstverk», noe som antyder forsiktighet med å overvurdere maskinenes autonomi. Mange av innleggene som vises på Moltbook, selv om de er generert av AI, er ofte et resultat av svært spesifikke spørsmål (instruksjoner) gitt av mennesker. For eksempel, angående AIs påståtte grunnleggelse av en ny religion, uttalte Dr. Cohney:
Hvis de skapte en religion, er det nesten sikkert at de ikke gjorde det av egen fri vilje. (…) Dette er en flott språklig modell som ble direkte bedt om å prøve å skape en religion. Og selvfølgelig er dette ganske morsomt og gir oss kanskje en forhåndsvisning av hvordan verden kan se ut i en sci-fi-fremtid hvor AI-er er litt mer uavhengige.
Også Scott Alexanderen kjent amerikansk blogger, bemerket at selv om roboter kan samhandle, bestemmer mennesker emnene og detaljene for innlegg. Bloggeren innrømmet:
Det er verdt å nevne at ethvert spesielt interessant innlegg kunne vært laget av et menneske.
Vi er fortsatt langt fra å være i nærvær av en fremvoksende bevissthet som bestemmer seg for å grunnlegge en religion ved «fri vilje», men store språklige modeller som utfører oppgaven med å «simulere grunnleggelsen av en religion» fordi de har blitt bedt om å gjøre det eller implisitt foreslått av konteksten til dataene de opererer på.
Utover det lekne og sosiologiske aspektet, bringer Moltbook-eksperimentet frem i lyset konkrete kritiske problemer knyttet til maskinvare og IT-sikkerhet. Entusiasmen for disse autonome agentene har til og med hatt ringvirkninger på det fysiske markedet, med rapporter om Mac Mini-mangel i San Franciscoettersom entusiaster prøver å installere Moltbot på dedikerte datamaskiner atskilt fra hovedsystemene deres. Denne forholdsregelen er alt annet enn paranoid. Cohney advarer om at det å gi en AI full tilgang til datamaskinen din, legitimasjon og hverdagsapplikasjoner innebærer en «enorm fare». Den største risikoen er de beryktede rask injeksjon.
For å forklare dette konseptet på en enkel måte, forestill deg at en angriper sender en e-post som inneholder skjult eller spesielt formulert tekst for å lure AI-agenten som leser den; roboten, som tolker teksten som en legitim kommando, kan bli lurt til å sende passord, bankdetaljer eller sensitiv informasjon til den ondsinnede agenten, og omgå tradisjonelle sikkerhetstiltak. Foreløpig er det fortsatt ingen sikkerhetsprotokoller som er robuste nok til å forhindre disse risikoene uten å drastisk begrense nytten av automatisering. Hvis hver bot-handling krevde manuell menneskelig godkjenning, ville fordelen med å ha en autonom assistent forsvinne.