Introduzione all’uso dell’intelligenza artificiale
Negli ultimi anni, la crescente diffusione delle fake news ha sollevato interrogativi sulla possibilità di utilizzare l’intelligenza artificiale (AI) per combatterle. La domanda centrale è se i modelli di linguaggio avanzati possano automatizzare il processo di fact checking, contribuendo così a garantire l’affidabilità delle informazioni che circolano online. Recenti studi condotti da ricercatori dell’Università La Sapienza di Roma hanno esaminato come tre diversi modelli di AI affrontano questa sfida, cercando di comprendere le dinamiche che governano le loro valutazioni.
I modelli di linguaggio e il loro funzionamento
I ricercatori hanno analizzato tre modelli di linguaggio di grandi dimensioni: Gemini 1.5 Flash di Google, GPT-4o mini di OpenAI e LLaMA 3.1 405B di Meta.
L’obiettivo era quello di valutare come questi modelli decidano se una notizia sia affidabile o meno. Tuttavia, il processo di valutazione non è semplice. I ricercatori avvertono che i modelli potrebbero non eseguire un’analisi approfondita, ma piuttosto basarsi su opinioni derivate dai dati con cui sono stati addestrati. Questo solleva interrogativi sulla loro capacità di discernere tra fonti affidabili e non.
Il confronto con i fact checker umani
Per valutare l’affidabilità dei modelli di AI, gli studiosi hanno confrontato i loro risultati con quelli di due aziende di fact checking, NewsGuard e Media Bias Fact Check. Hanno analizzato 7.715 siti di notizie, chiedendo ai modelli di classificare le fonti come affidabili o meno. I risultati hanno rivelato che, mentre i modelli di AI tendono a concordare nel classificare le fonti non attendibili, mostrano una maggiore rigidità nel riconoscere quelle considerate affidabili dagli esperti umani.
Questo porta a una preoccupante discrepanza tra le valutazioni umane e quelle automatizzate.
Bias e criteri di valutazione
Un altro aspetto cruciale emerso dallo studio è l’uso di criteri uniformi da parte dei modelli di AI per valutare l’affidabilità delle fonti. Tra questi criteri ci sono la trasparenza, l’uso di toni sensazionalistici e la presenza di opinioni anziché fatti. Inoltre, parole chiave come “Biden” e “Trump” sono automaticamente associate a una scarsa affidabilità. Questo approccio schematico potrebbe portare a conclusioni errate, evidenziando il rischio di un’eccessiva dipendenza dall’AI per il fact checking.
Rischi e considerazioni finali
Nonostante i risultati promettenti, gli esperti avvertono che l’implementazione di sistemi di AI per il fact checking potrebbe essere rischiosa.
Se i criteri utilizzati dagli algoritmi diventano noti, esiste il pericolo che qualcuno possa manipolarli per presentare contenuti non affidabili come attendibili. Questo scenario è simile a quanto accade con le regole di moderazione sui social media, dove la speranza di automatizzare i controlli può portare a forme di ingegneria inversa che peggiorano la situazione. Pertanto, è fondamentale affrontare la questione con cautela e considerare l’AI come uno strumento complementare, piuttosto che un sostituto, nel contrasto alle fake news.