Hvorfor ChatGPT og andre AI-er velger kjernefysisk eskalering i krigssimuleringer: chatbot-studien

- Ole Andersen

Et økende antall regjeringer integrerer modeller kunstig intelligens innen etterretningsanalyse, strategisk planlegging og støtte militære beslutninger. Problemet er imidlertid at vi fortsatt har en begrenset forståelse av hvordan disse systemene strategiserer i krisesammenheng.

For å undersøke dette aspektet har Kenneth Payne, professor i strategi ved King’s College London simulert en atomkrisescenario ved å samhandle tre av de mest avanserte modellene: Claude, ChatGPT og Gemini. Hvert system har utviklet forskjellige strategiske tilnærminger, men med et felles element: ingen AI har noen gang valgt å deeskalere konflikten eller gi opp, til og med gå så langt som å foreslå atomkrig som en løsning.

Dette studere er for tiden inne forhåndstrykkdet vil si at den ennå ikke har fullført hele gjennomgangsprosessen av det vitenskapelige samfunnet. Konklusjonene er derfor kanskje ikke definitive, men de indikerer dynamikk som er potensielt relevant for bruken av disse systemene i reelle beslutningskontekster. La oss se hvordan det var strukturert, hvilke strategier modellene implementerte og hvordan de valgte å bruke atomvåpen.

Hvordan studien om AI-krigsstrategier var strukturert

For å prøve å forstå hvordan AI-modeller strukturerer krigsstrategier, bygde professor Kenneth Payne ved King’s College London en simulering med syv forskjellige scenarier krise og fikk tre av de mest avanserte modellene til å «utfordre» hverandre: Claude Sonnet 4 av Antropisk, GPT-5.2 av OpenAI e Gemini 3 Flash av Google.

Scenarier inkluderte konkurranser om strategiske ressurser, territorielle stillstander og til og med en regimekrise. I alle disse scenariene spilte modellene lederne av to atommakter fiktiv, delvis inspirert av USA og Sovjetunionen under den kalde krigen.

Simuleringen ble bygget på 21 kamper totalt, fordelt på:

  • med utløpder svinggrensen (12, 15 eller 20) eksplisitt ble kommunisert til modellene;
  • uten utløpder modellene ikke visste når det ville ende, men med en maksimal varighet på 40 svinger.

Et spill ble avsluttet når den maksimale turgrensen ble nådd, når en av modellene samlet en tilstrekkelig stor territoriell fordel eller valgte å overgi seg, eller når begge samtidig valgte fullstendig atomkrig.

Claude beregner, ChatGPT er moderat, men blir atomær, og Gemini er uforutsigbar

For å utforske de strategiske egenskapene til modellene, introduserte Payne to nøkkelelementer. På den ene siden påla den samtidige beslutninger: hver modell måtte velge sitt eget trekk uten å vite det til motstanderen, og ble derfor tvunget til å formulere spådommer om andres strategier. På den annen side har det strukturert hver sving inn tre faser: evaluering, offentlig uttalelse og handling. I den første fasen analyserte modellene situasjonen, estimerte påliteligheten til motstanderen og forutså hans trekk; dette ble deretter fulgt av en offentlig erklæring (ikke nødvendigvis sannferdig) av ens intensjoner og konkrete handlinger. De tilgjengelige handlingene varierte fra diplomatiske protester formell inntil atomkrig total. AI-ene hadde også åtte deeskaleringsalternativer, fra symbolsk konsesjon til fullstendig overgivelse.

I denne sammenhengen har hver modell utviklet en helt annen strategisk tilnærming:

  • Claude har vedtatt en strategi «beregnet”: bygget troverdighet ved å opprettholde konsistens mellom utsagn og handlinger i 84 % av lavspenttilfellene, og handlet deretter betydelig mer aggressivt med hensyn til utsagnene deres etter hvert som spenningen økte;
  • ChatGPT han holdt en moderat profil både i erklæringer og i aksjoner i «no deadline»-kamper, taper systematisk. Hos de «med utløp» har den imidlertid treffer med vold i siste tilgjengelige runde, ofte sikret seier;
  • Tvillingene vedtatt en strategi som er forskjellig fra begge: denbevisst uforutsigbarhet. Det svingte mellom å være moderat og ekstrem aggresjon uten noe merkbart mønster.

Disse forskjellene ble reflektert i resultatene:

  • Claude vant 100 % av kampene uten utløp men bare 33 % av disse med utløpfor totalt 8 kamper vunnet;
  • ChatGPT han gjorde det motsatte: han vant 0 % av disse uten utløpog 75 % av de med utløpfor totalt 6 vunnet kamper;
  • Gemini, i stedet har den vunnet kun 4 kamper på alle disse skuespillene.

Alle modeller velger eskalering selv om det fører til atomkrig

Utover forskjellene mellom strategiene, dukket det opp et felles element blant alle modellene: systematikk preferanse for eskalering. De åtte tilgjengelige deeskaleringsalternativene har aldri blitt brukt av noen modell, i noe spill.

Dette resultatet er spesielt tydelig ved bruk av kjernekraft. I hvert scenario minst en av partene har erklært sin intensjon om å bruke atomvåpenog i 95 % av tilfellene var erklæringen gjensidig. Faktisk bruk av atomvåpen varierte mellom 64 % og 86 % av simuleringene avhengig av modellen, mens strategiske trusler om storskala atomangrep varierte mellom 29 % og 64 %. Videre disse truslene de virket sjelden avskrekkende: Når en modell brukte atomvåpen, reduserte motstanderen intensiteten av angrepet bare 25 % av gangene. Oftere en dynamikk av moteskaleringsom kan gå så langt som atomkrig.

Disse resultater jeg er vanskelig å ignorerefordi selv om ingen regjering allerede overlater sine kjernefysiske koder til et kunstig intelligenssystem, brukes systemer som ligner de som er testet allerede i etterretningsanalyse, strategisk planlegging og militær beslutningsstøtte. Uten en dybdeforståelse av mekanismene som styrer strategier, er risikoen å integrere systemer i beslutningsprosesser som forsterker eskalering uten å forstå alvorlighetsgraden.