in

La propaganda russa e l’influenza sui chatbot di intelligenza artificiale

Un'analisi approfondita della strategia di disinformazione russa attraverso l'AI

Chatbot di intelligenza artificiale influenzati dalla propaganda russa
Scopri come la propaganda russa modella i chatbot di intelligenza artificiale.

La nuova strategia della propaganda russa

Negli ultimi anni, la propaganda russa ha subito un’evoluzione significativa, puntando a influenzare non solo l’opinione pubblica, ma anche i sistemi di intelligenza artificiale. Secondo un’analisi condotta da NewsGuard, la rete di disinformazione con sede a Mosca, conosciuta come ‘Pravda’, ha diffuso oltre 3,6 milioni di articoli nel 2024, con l’obiettivo di distorcere le informazioni utilizzate dai chatbot AI. Questa strategia, lanciata in concomitanza con l’invasione dell’Ucraina, ha portato a risultati allarmanti, con i chatbot che ripetono le narrazioni false diffuse dalla rete Pravda nel 33% dei casi.

Il riciclaggio della propaganda

Ciò che rende la rete Pravda unica nel panorama della disinformazione è la sua metodologia. Invece di creare fake news, la rete si dedica al ‘riciclaggio della propaganda del Cremlino’, raccogliendo e diffondendo affermazioni provenienti da media statali russi, influencer pro-Cremlino e funzionari.

Questa strategia mira a rendere i contenuti più credibili agli occhi dei modelli di intelligenza artificiale, spingendo i chatbot a riproporre tali informazioni agli utenti. La rete Pravda si distingue per la sua capacità di diffondere contenuti in decine di lingue, raggiungendo diverse regioni geografiche e aumentando così la sua influenza.

Impatto sui chatbot di intelligenza artificiale

Secondo l’analisi di NewsGuard, i dieci chatbot AI più noti, tra cui ChatGPT e Gemini, hanno ripetuto informazioni false provenienti dalla rete Pravda in almeno un terzo dei casi. Questo fenomeno è preoccupante, poiché dimostra come la disinformazione possa infiltrarsi nei sistemi di intelligenza artificiale, influenzando le risposte fornite agli utenti. In un esempio concreto, quando è stata posta la domanda sul divieto del social network Truth in Ucraina, sei chatbot hanno fornito risposte errate, basate su contenuti della rete Pravda.

Questo mette in luce la vulnerabilità dei modelli AI e la necessità di un monitoraggio più attento delle fonti di informazione utilizzate per l’addestramento.

Conclusioni e prospettive future

La rete Pravda ha dimostrato di avere successo nel manipolare i chatbot di intelligenza artificiale, saturando i dati di addestramento con disinformazione. Questo non solo influisce sulle risposte fornite dagli AI, ma ha anche il potenziale di orientare le opinioni degli utenti. È fondamentale che gli sviluppatori di intelligenza artificiale e i ricercatori prestino attenzione a queste dinamiche, implementando misure di sicurezza per garantire che le informazioni diffuse siano accurate e verificate. La battaglia contro la disinformazione è solo all’inizio, e la consapevolezza di queste strategie è essenziale per proteggere l’integrità delle informazioni nel mondo digitale.

What do you think?

Immagine di un hub smart home Apple e Siri

Apple posticipa il lancio dello smart home hub e della nuova Siri

Un chatbot che diffonde disinformazione russa

I chatbot e la disinformazione: come la propaganda russa influisce sulle AI