Anthropics AI-hypotese bak Iran-angrepene, hvordan USAs sentralkommando kan ha brukt Claude til angrepet

- Ole Andersen

De USAs sentralkommando han kan ha tydd til verktøy kunstig intelligens å støtte planleggingen og gjennomføringen av den nylige krigen i Iran som begynte med Israel-USA angrep av 28. februar. I følge rekonstruksjonene av Wall Street Journal Og Axiosville det amerikanske militæret bruke Claude, språkmodellen til Antropiskunder den militære operasjonen utført sammen med Israel. I dette tilfellet ville AI blitt brukt i områder med intelligensi valg av mål og også i konstruksjon av operasjonssimuleringer.

Alt dette til tross for en ordre på Donald Trump som påla (minst inntil noen få timer før angrepet) denavbrudd av hver samarbeidet med selskapet. For ordens skyld, hadde den amerikanske presidenten til og med erklært på sitt sosiale nettverk Sannhet at antropisk er «et radikalt venstreorientert AI-selskap drevet av folk som ikke aner hva den virkelige verden er». Friksjonen med Anthropic oppsto etter raidet som ble utført i januar mot Venezuelas president, Nicolás Maduro. I den anledning kom det ut nyheter om at hæren hadde brukt Claude til å utføre oppdraget, og Anthropic uttrykte sin skuffelse over det, og la merke til at tjenestens bruksvilkår ikke tillater at Claude brukes til voldelige og overvåkingsformål.

Hvordan USAs sentralkommando ville bruke Anthropics AI mot Iran

I henhold til gjensidig enig rekonstruksjoner gjort av Wall Street Journal og fra Axiosunder den felles israelsk-amerikanske bombingen, ville USAs sentralkommando fortsette å bruke Claude til å utvikle etterretningsvurderinger, det vil si strukturerte analyser av informasjon som kommer fra forskjellige kilder, og for å utføre simuleringer av slagmarkendigitale verktøy som lar deg virtuelt teste utfallet av ulike taktiske alternativer. AI har også blitt brukt tilidentifikasjon av mål.

Nå mener vi ikke med dette at en algoritme «bestemmer» hva og hvem som skal treffes, men at den kunne ha hjulpet menneskelige analytikere med å identifisere korrelasjoner, prioriteringer og mulige konsekvenser av angrep, og fremskynde prosesser og beslutninger som ellers ville tatt mye lengre tid.

På det operative nivået så angrepet bruk av Tomahawk kryssermissiler, stealth fighter Og enveis angrepsdronerdvs. ubemannede fly designet for å treffe et enkelt mål og ikke returnere til basen. Det er viktig å presisere at AI ikke kontrollerer disse våpnene direkte: dets bidrag gjelder analysen og planleggingen, derfor den strategiske delen av angrepene utført av USA mot Iran, og ikke den utøvende delen av det samme.

Trumps brudd og inkluderingen av OpenAI

Brytepunktet mellom Anthropic og Pentagon ble nådd bare timer før operasjonen startet mot Iran, da presidenten Donald Trump hadde bestiltumiddelbar avslutning av alle forhold til Anthropicoffentlig anklager selskapet for å ha en ideologisk orientering som er uforenlig med behovene til nasjonalt forsvar. Presidentbeslutningen inkluderte en periode på seks måneder for å fase ut selskapets produkter fra offentlige systemer. Imidlertid, som flere tekniske kilder har understreket, når en AI-modell allerede er integrert i klassifiserte nettverk (dvs. IT-infrastrukturer som administrerer hemmelige data), er fjerning av den ikke en enkel administrativ handling. Nye sikkerhetssertifiseringer, opplæring av personalet, parallelle tester og dyre alternative integrasjoner er nødvendig. Midhun Krishna Mmedgründer og administrerende direktør for TknOps.io, en kostnadssporingstjeneste for LLM-er, forklarte:

Når AI-verktøy allerede er integrert i simulerings- og sanntids etterretningssystemer, blir beslutninger tatt på toppen ikke umiddelbart oversatt til konkrete endringer. (…) Når en modell inkorporeres i klassifiserte simulerings- og etterretningssystemer, er det sunkne kostnader ved integrasjon, ombygging, nye sikkerhetssertifiseringer og parallelltesting, så en seks måneders utfasing kan virke avgjørende, men den reelle økonomiske og operasjonelle byrden er mye dypere.

Forholdet mellom Anthropic og USA, som forventet i begynnelsen, har sine røtter i en tidligere episode: bruken av AI i en operasjon imot presidenten i Venezuela, Nicolás Madurosom hadde fått Anthropic til å påpeke at bruken av Claude i den aktuelle saken hadde representert et klart brudd på vilkårene for bruk av tjenesten. Disse forbyr eksplisitt voldelige applikasjoner, utvikling av autonome våpen eller masseovervåking, det vil si systematisk og storstilt overvåking av sivilbefolkningen. Siden den gang har forholdet mellom Pentagon og selskapet blitt dårligere. Forsvarsministeren Pete Hegseth anklaget Anthropic for å representere en «nasjonal sikkerhetsrisiko i forsyningskjeden».

Etter bruddet med Anthropic OpenAI kunngjorde en avtale med Pentagon for bruk av deres verktøy, inkludert ChatGPT, på klassifiserte militære nettverk, som bekreftet av selskapet selv i innlegget på X som du kan lese nedenfor.