L’intelligenza artificiale che difende il politicamente corretto: la provocazione di Raffaele Alberto Ventura

Raffaele Alberto Ventura, esperto di comunicazione, ha sviluppato un chatbot di intelligenza artificiale chiamato PCorrector.

L'intelligenza artificiale che difende il politicamente corretto

Raffaele Alberto Ventura, esperto di comunicazione, ha sviluppato un chatbot di intelligenza artificiale chiamato PCorrector, che riesce a difendere il politicamente corretto. Una provocazione che non è passata inosservata.

L’intelligenza artificiale che difende il politicamente corretto: la provocazione di Raffaele Alberto Ventura

Negli ultimi anni gli sviluppi tecnologici hanno generato una domanda crescente di soluzioni innovative per affrontare i problemi di comunicazione e interpretazione del mondo digitale. Raffaele Alberto Ventura, esperto di comunicazione e autore del libro “La regola del gioco. Comunicare senza far danni”, uscito martedì 10 ottobre, è partito da questo punto per sviluppare un chatbot di intelligenza artificiale chiamato PCorrector, in grado di riconoscere “i rischi comunicativi potenziali” in una frase e di proporre riformulazioni più adatte e “linguisticamente neutrali”.

Ventura si autodefinisce in modo ironico come l’Elon Musk del politicamente corretto e ha spiegato a Wired che il suo chatbot è stato concepito come strumento per gestire e strutturare i conflitti comunicativi. Lo scopo principale non è quello di imporre regole definitive, anche perché cambiano continuamente, ma di mettere a disposizione indicazioni e suggerimenti a brand, istituzioni private e pubbliche e utenti normali per minimizzare i rischi che riguardano la comunicazione.

PCorrector: come funziona e perché usarlo

Il chatbot funziona tramite una serie di prompt e criteri proposti dal suo creatore. Tiene conto dei filtri di moderazione dei social media, evita riferimenti opachi, stereotipi, giudizi e doppi sensi, e propone riformulazioni quando è necessario. Ventura ha spiegato di aver configurato il sistema in modo che sia in grado di valutare le frasi scritte dagli utenti su una scala che va da “non problematico” a “altamente problematico”.

Ha anche addestrato l’algoritmo per individuare almeno un contesto rischioso in cui una frase pur considerata “poco problematica” possa risultare offensiva. PCorrector è pensato per essere un modello di linguaggio rigido, quindi non in grado di comprendere il contesto specifico di un messaggio. Secondo i creatore questa caratteristica lo rende funzionale in ogni contesto. “La rigidità è ideale, perché è rigido anche il contesto di ricezione” ha spiegato. PCorrector riesce ad anticipare il contesto comunicativo e segnalare eventuali ambiguità o mancanza di chiarezza. Quando si parla di comunicazione aziendale, campagne pubblicitarie o post sui sociale, il rischio è quello di essere fraintesi da chi legge. Un’intelligenza artificiale come PCorrector prepara agli effetti che le parole hanno sulla percezione delle persone .

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

What do you think?

Scritto da Chiara Nava

Microsoft userà energia nuclerare per alimentare intelligenza artificiale

Microsoft userà l’energia nucleare per alimentare la sua intelligenza artificiale

Il rapporto tra italiani, fake news e intelligenza artificiale

Italiani e fake news, il rapporto: due su tre chiedono di indicare se un documento è generato da intelligenza artificiale