AI genererte videoer som viser Will Smith spiser en tallerken spaghetti har i løpet av noen år blitt mye mer enn et viralt meme: i dag representerer de en test enkelt, men effektivt å måle hvor mye evnen til AI til å simulere menneskelig atferd har forbedret seg. Dette rent empiriske eksperimentet, kjent på nett som “Will Smith spiser spaghetti”konsentrerer på noen få sekunder noen av de mest komplekse utfordringene ved videogenerering: sammenhengen i ansiktet fra en ramme til den neste, naturligheten i bevegelsene, forholdet mellom hender, bestikk og mat, og til og med synkroniseringen mellom lyd og lepper. Ved å følge utviklingen kan vi forstå hvorfor et klipp som i 2023 virket som et klassisk eksempel på AI-slop, i dag har nådd et kino-lignende nivå, og hva dette forteller oss om dagens forskning på generativ kunstig intelligens, uten å gi etter for lett entusiasme eller tvert imot uberettiget frykt.
Evolusjonen til Will Smiths spise spaghetti meme: 2023 vs 2026
Den første videoen, som dukket opp i mars 2023 på Redditviste en ugjenkjennelig Will Smith, med stadig skiftende ansiktstrekk og mekaniske gester, langt fra noen reell opplevelse. Den var laget med ModelScopeet tekst til video konverteringsverktøy: betyr at brukeren skriver inn en skriftlig beskrivelse, kalt ledetekstog modellen prøver å forvandle det til levende bilder. Resultatet var mildt sagt urovekkende nettopp fordi den menneskelige hjernen er ekstremt følsom for anomalier i ansikter og hverdagslige handlinger som å spise. Det er ingen tilfeldighet at filmen spredte seg raskt, og genererte en blanding av munterhet og angst hos de som så den, og ble råstoff for parodier og diskusjoner av ulike slag.
Fra det øyeblikket, “Will Smith spiser spaghetti” det begynte å fungere som en slags uoffisiell målestokk, det vil si en test brukt av fellesskapet for å sammenligne fremdriften til forskjellige modeller. I 2024 de nye iterasjonene viste allerede fremgang: bevegelsene var mer flytende og scenen mer stabil, men åpenbare feil vedvarte fortsatt, for eksempel deformerte gafler eller spaghetti som så ut til å ignorere tyngdekraften.
Det mest interessante spranget kommer inn 2025når verktøy som Google Veo 3 de produserer mye mer overbevisende testversjoner. Ansiktene er mer sammenhengende, holdningen troverdig og den generelle handlingen mer naturlig. Merkelige detaljer gjenstår, for eksempel overdrevent «knasende» tyggelyder, men vi står overfor subtile ufullkommenheter, ikke lenger makroskopiske feil. Det er på dette stadiet at deepfake slutter å bare være en eksperimentell kuriositet og blir en mer moden teknologi, i det minste fra et visuelt synspunkt. Denne visuelle modenheten innebærer tydeligvis ikke en reell forståelse av handling fra AI, men en stadig mer raffinert simulering av måten virkeligheten er representert på i syntetiske videoer.
I den siste utviklingen utvikler testen seg videre takket være generatorer som f.eks Kling 3.0utviklet av det kinesiske selskapet Kuaishou teknologi. Her ser vi ikke lenger bare en mann som spiser foran kamera, men en ekte scene er representert der vi ser to karakterer som sitter ved bordet (en av de to er Will Smith åpenbart), komplett med dialoger, kamerabytter osv. Stemmene, også syntetiske, er leppesynkroniserte, noe som er teknisk komplekst fordi det krever at lyd og video genereres konsekvent. Men bedøm selv fremgangen fra 2023 til i dag.
Stopp klipp av Will Smith som spiser spaghetti?
Merkelig nok, akkurat som kvaliteten på AI-genererte videoer vokser, spaghetti-testen begynner å nå grensene. Selskaper liker OpenAI Og xAI (Elon Musks selskap som utvikler den kontroversielle Grok) vedtar rekkverk stadig strengere, med automatiske regler som forhindrer generering av bilder som kan tilskrives ekte personer eller beskyttes av opphavsrett. Dette gjør det stadig vanskeligere å gjenskape det samme eksperimentet med kjente skuespillere, spesielt i USA, hvor underholdningsindustrien er spesielt nøye med å beskytte sin immaterielle eiendom.