La nuova strategia della propaganda russa
Negli ultimi anni, la propaganda russa ha subito un’evoluzione significativa, puntando a influenzare non solo l’opinione pubblica, ma anche i sistemi di intelligenza artificiale. Secondo un’analisi condotta da NewsGuard, la rete di disinformazione con sede a Mosca, conosciuta come ‘Pravda’, ha diffuso oltre 3,6 milioni di articoli nel 2024, con l’obiettivo di distorcere le informazioni utilizzate dai chatbot AI. Questa strategia, lanciata in concomitanza con l’invasione dell’Ucraina, ha portato a risultati allarmanti, con i chatbot che ripetono le narrazioni false diffuse dalla rete Pravda nel 33% dei casi.
Il riciclaggio della propaganda
Ciò che rende la rete Pravda unica nel panorama della disinformazione è la sua metodologia. Invece di creare fake news, la rete si dedica al ‘riciclaggio della propaganda del Cremlino’, raccogliendo e diffondendo affermazioni provenienti da media statali russi, influencer pro-Cremlino e funzionari.
Questa strategia mira a rendere i contenuti più credibili agli occhi dei modelli di intelligenza artificiale, spingendo i chatbot a riproporre tali informazioni agli utenti. La rete Pravda si distingue per la sua capacità di diffondere contenuti in decine di lingue, raggiungendo diverse regioni geografiche e aumentando così la sua influenza.
Impatto sui chatbot di intelligenza artificiale
Secondo l’analisi di NewsGuard, i dieci chatbot AI più noti, tra cui ChatGPT e Gemini, hanno ripetuto informazioni false provenienti dalla rete Pravda in almeno un terzo dei casi. Questo fenomeno è preoccupante, poiché dimostra come la disinformazione possa infiltrarsi nei sistemi di intelligenza artificiale, influenzando le risposte fornite agli utenti. In un esempio concreto, quando è stata posta la domanda sul divieto del social network Truth in Ucraina, sei chatbot hanno fornito risposte errate, basate su contenuti della rete Pravda.
Questo mette in luce la vulnerabilità dei modelli AI e la necessità di un monitoraggio più attento delle fonti di informazione utilizzate per l’addestramento.
Conclusioni e prospettive future
La rete Pravda ha dimostrato di avere successo nel manipolare i chatbot di intelligenza artificiale, saturando i dati di addestramento con disinformazione. Questo non solo influisce sulle risposte fornite dagli AI, ma ha anche il potenziale di orientare le opinioni degli utenti. È fondamentale che gli sviluppatori di intelligenza artificiale e i ricercatori prestino attenzione a queste dinamiche, implementando misure di sicurezza per garantire che le informazioni diffuse siano accurate e verificate. La battaglia contro la disinformazione è solo all’inizio, e la consapevolezza di queste strategie è essenziale per proteggere l’integrità delle informazioni nel mondo digitale.