Når de blir avhørt på aktuelle nyheter, AI ender opp med å rapportere falsk informasjon i 35% av tilfellene: er resultatet av et år med systematisk observasjon på de viktigste generative kunstige intelligenssystemene. Dette betyr at mer enn ett svar i gjennomsnitt inneholder ukjente eller fullstendig oppfunnet elementer. Prosentandelen, målt med NewsGuard Mellom August 2024 Og August 2025 og publisert i en rapport 4. september, det er det nesten doblet sammenlignet med 18% som ble oppdaget året før. Å treffe er ikke bare nettoøkningen, men det faktum at det finner sted til tross for et år med teknologisk fremgang, dykket av annonser med oppdateringer og løfter om større pålitelighet av selskapene som utvikler modellene. Et annet interessant faktum, chatbots i dag unngår mye mindre enn å svare – for rekorden har andelen «ikke -svar» kollapset forbipasserende fra 31% til 0% – Og tilgjengeligheten av AI til å snakke om alt har ført til en vekst av feil. Her lærer du å dyrke ens kritiske tenkning kombinert med å vite hvordan du kan identifisere når en nyhet er falsk, er to viktige aspekter å leve i dagens samfunn.
Chatbot og falske nyheter: AI svarer mer, men verre
Ved å zoome på Studieresultater dirigert av NewsGuarddet er mulig å sette pris på noen forskjeller mellom systemene som er analysertsom som du ser er bemerkelsesverdig. Antropisk Claude -modell registrerte de laveste feilene med feil rundt 10%mens Google Gemini stoppet på 17%. På den annen side har mer av bøyning overskredet 56% og forvirring 46%. De mest populære chatbots, som Openai Chatgpt, Microsofts Copilot og Mistrals chatter, er plassert i et mellomområde, med verdier rundt 35-40%.

Problemet angår imidlertid ikke bare tallene: andre NewsGuardhovedvanskeligheten er knyttet til måte som chatbots velger kilder. Med introduksjonen av forskning i sanntid har chatbots begynt å fiske innhold direkte fra nettet, som er et rikt miljø, men også forurenset med propaganda og upålitelige steder. Og dette er også grunnen til at en chatbot nekter å svare. Slik er det NewsGuard kommenterte tingen:
Med introduksjonen av sanntidssøk har chatbots sluttet å nekte å svare. Sakene der de ikke ga noe svar som ble gitt fra 31% av august 2024 til 0% av august 2025. Likevel, så sannsynligheten har også blitt dobbelt, nå til 35%, at modellene rapporterer falsk informasjon. I stedet for å rapportere de tidsmessige grensene for dataene sine eller unngå delikate emner, trekker de språklige modellene nå på et forvirret online informasjonsøkosystem, ofte forurenset med vilje av organiserte nettverk, inkludert de som er ansvarlige for russisk innflytelsesoperasjoner. Dermed ender de opp med å behandle upålitelige kilder som om de var pålitelige.
EN Nyttig eksempel for å forstå mekanismen Det er det av den så -kalt «Nettverk». Dette er organiserte strukturer som skaper hundrevis av tilsynelatende informasjonssider med sikte på å spre falske fortellinger. Et av disse nettverkene, kalt Pravda og koblet til russiske interesser, publiserer millioner av artikler hvert år Uten nesten ingen reell interaksjon fra brukere. Intensjonen er ikke å overbevise menneskelige lesere, men Mett det digitale økosystemet for å bli indeksert av søkemotorer og følgelig, havner i chatbot -svarene. Når modellene ikke skiller mellom en pålitelig kilde og en manipulert, ender de opp med å forsterke desinformasjonen fra denne typen «falske nyhetsinkubatorer».
Fra overvåking av NewsGuard Det kom derfor frem at mens chatbots tidligere hadde en tendens til å nekte å svare på delikate spørsmål og opprettholde en forsvarlig tilnærming, i dag foretrekker de å svare på selv om dette betyr å fiske responsen fra upålitelige kilder. Denne bevegelsen fra «best å ikke si noe» til «vi reagerer alltid» «skaper enIllusjon av presisjon som kan være farligerefordi leseren får en klar og strukturert respons, som han kan merke som en «troverdig», til tross for at han kan hvile på falske data.

Hvordan forsvare seg mot den falske nyheten om AI og fra desinformasjonen
I lys av resultatene fremhevet i den nevnte studien, er det naturlig å tenke på en viss strategi for forsvare seg mot de falske nyhetene som AI fremmet. Rådene vi gir deg er å alltid følge disse to tipsene.
- Sjekk alltid å gå tilbake til kildene til nyhetene: Dette kan kalle det den «gyldne regelen» når vi informerer hverandre på nettet, at du gjør det direkte ved å stille spørsmål ved en chatbot AI eller konsultere en online avis ansett som pålitelig. Du bør aldri unnlate å bekrefte fakta, tall, data og uttalelser. Bare for å gi et eksempel, hvis du oppsummerer et sitat fra en viss online kilde, ville det være bedre å stille lignende spørsmål: er parafrasen til sitatet riktig? Hvem kom med denne uttalelsen? I hvilken sammenheng? Tillater hele sitasjonen deg å gi en annen lesetast til en setning ekstrapolert fra konteksten? For å svare på alle disse spørsmålene er det selvfølgelig viktig å forske på å gå tilbake til den opprinnelige kilden som inneholder erklæringen, noe som er essensielt for ikke å bli offer for desinformasjon.
- Del med andre, bare hvis du er sikker på sannheten i en nyhet: Siden falske nyheter lever med aksjer og avstemminger fra mindre bevisste brukere, når en viss nyhet er tvilsom, bedre å ikke dele det. På denne måten vil du bidra til å bryte desinformasjonskjeden.