AI er det nye våpenet som brukes til å utføre datamaskinforbrytelser: oppdagelsen av antropisk

- Ole Andersen

Kunstig intelligens, et stadig mer uunnværlig verktøy for de som jobber, kan ikke bare brukes av ansatte, regnskap og kreativt, men også av Det kriminelle: en avgjort spesiell «arbeidere» -kategori. Det amerikanske selskapet Antropisksom utvikler Claude Linguistic Model, har nylig publisert en rapport der den hevder at teknologien er blitt utnyttet av angripere for nettkriminalitetsaktiviteter på et høyt kompleksitetsnivå. Sakene som er identifisert, spenner fra skriving av kode som er skadelig for organiseringen av reelle utpressingskampanjer, opp til svindel orkestrert av grupper relatert til Nord -Korea. Selskapet har rapportert hvordan disse episodene representerer et kvalitativt sprang i teknikkene som brukes av kriminelle, fordi AI lar deg automatisere beslutninger, redusere angrepstider og gjøre inntrenginger vanskeligere å oppdage. Med andre ord, AI er det nye våpenet som brukes til å utføre cybercrosicssom gjør oss alle litt mer sårbare, i det minste potensielt.

Hvordan cyberkriminelle brukte AI til deres formål

Spørsmålet er ikke begrenset til det eneste tyveriet av data eller ransomware, den ondsinnede programvaren som blokkerer systemer opp til betaling av en innløsning: kunstig intelligens er også nyttig for å manipulere personer med målrettede sosialtekniske strategier, som i So -kalt «VIBE HACKING»det vil si bruk av AI for å forstå hvordan man psykologisk skal overtale et offer. Når det gjelder denne teknikken, forklarte antropiske forskere at de hadde funnet en datakriminell som brukte Claude -kode for å begå tyveri av stor skala og personopplysninger. Forfatteren av angrepet har påvirket minst 17 forskjellige organisasjoner, inkludert helsetjenester, nødetater, offentlige institusjoner og religiøse organisasjoner, og truet med å lage offentlige data for å prøve å utpressing til ofrene betaling av løsepenger som i noen tilfeller oversteg en halv million dollar i Bitcoin. I følge Anthropic brukte sinnet bak dette angrepet AI etter enestående dynamikk. Selskapet forklarte:

Claude -kode ble brukt til å automatisere rekognosering, samle legitimasjonen til ofrene og trenge gjennom nettverkene. Claude fikk autorisasjon til å ta både taktiske og strategiske beslutninger, hvordan de skal bestemme hvilke data de skulle trekke fra og hvordan man formulerer forespørsler om utpressing målrettet fra et psykologisk synspunkt. Claude analyserte de stjålne økonomiske dataene for å bestemme de aktuelle mengdene av løsepenger og genererte visuelt alarmerende innløsningsforespørsler som ble vist på ofrene for ofrene.

AI fungerte derfor ikke som et enkelt støtteverktøy av IT -kriminelle som brukte det til å utføre lignende angrep, men faktisk hadde den en strategisk støtterolle: det antydet hvilke data de skulle stjele, hvordan man kan eksfilter dem, og til og med hvordan de skulle bestemme de mest overbevisende beløpene som skulle bli bedt om som en innløsning.

En annen dokumentert episode angår Opprettelse av falske profiler For å få tilgang til arbeidsstillinger eksternt ved store amerikanske teknologiske selskaper. I følge rapporten brukte nordkoreanske operatører Claude til å skrive applikasjoner, oversette tekster og til og med utvikle kode. Dette tillot dem å overvinne kulturelle og språklige hindringer som i fortiden begrenset deres handlingsområde. Når de er tatt, kunne disse IT -kriminelle få tilgang til de interne systemene til selskaper, ofte uten å vekke umiddelbare mistanker. Antropisk anser denne metoden som en ny fase i svindel relatert til sysselsettingsverdenen, fordi bruken av AI drastisk senker inngangsbarrieren for de som prøver å infiltrere.

Kunstig intelligens for cyberforbrytelser akselererer utviklingen av ny skadelig programvare

Ved siden av disse konkrete episodene dukker det også opp noen scenarier som vi kan definere som «eksperimentelle» dukker også opp. ESET -forskere identifiserte en ransomware -prototype kalt Hurtiglocksom bruker AI for å stadig generere ny skadelig kode. Den AI-baserte malware er i stand til å velge de mest sensitive filene, kopiere og kryptere dem (dvs. gjøre dem uleselige uten en nøkkel). Selv om det ennå ikke har vært utbredt i stor skala, viser den hvordan AI kan akselerere opprettelsen av ny skadelig programvare. Ikke ved en tilfeldighet Anton Cherepanoven av forskerne som hjalp til med å finne hurtiglock, forklarte:

Ved hjelp av kunstig intelligens har det blitt betydelig enklere å starte sofistikerte angrep. En godt konfigurert modell er nå tilstrekkelig til å skape en kompleks og selvtilpasset skadelig programvare. Hvis de er tilstrekkelig implementert, kan disse truslene alvorlig komplisere deteksjonen og gjøre arbeidet til forsvarerne av cybersikkerhet betydelig mer krevende.