in

ChatGPT capisce le persone da quello che scrivono

ChatGPT è in grado di comprendere le persone e dedurre molte informazioni sensibili in base a quello che scrivono e alle conversazioni che fanno.

ChatGPT coglie informazioni sugli utenti
Photo illustration showing ChatGPT and OpenAI research laboratory logo and inscription at a mobile phone smartphone screen with a blurry background. Open AI is an app using artificial intelligence technology. Italy is the first European country to ban and block the robot Chat GPT application and website. ChatGPT is an artificial-intelligence (AI) chatbot developed by OpenAI and launched in November 2022 using reinforcement learning techniques both from machine and human feedback. Tunis, Tunisia on April 02, 2023. (Photo by Yassine Mahjoub/SIPA) //MAHJOUBYASSINE_MAHJOUB0343/Credit:Yassine Mahjoub/SIPA/2304030848

ChatGPT è in grado di comprendere le persone e dedurre molte informazioni sensibili in base a quello che scrivono e alle conversazioni che fanno. Questo è dovuto al modo in cui vengono addestrati gli algoritmi.

ChatGPT capisce le persone da quello che scrivono

Il modo in cui le persone si esprimono può dire tanto di come sono, anche quando conversano con un chatbot di intelligenza artificiale. Una nuova ricerca, come riportato da Wired, ha rivelato che i sistemi come ChatGPT sono in grado di comprendere molte informazioni sensibili sul conto degli utenti, anche da semplici conversazioni. Questo fenomeno sembra legato al modo in cui vengono addestrati gli algoritmi di questi modelli. “Non è nemmeno chiaro come questo problema si possa risolvere. È molto, molto problematico” ha spiegato Martin Vechev, professore di informatica al Politecnico di Zurigo, che ha guidato la ricerca.

Vechev e il suo team hanno scoperto che i modelli linguistici di grandi dimensioni che alimentano i chatbot possono dedurre con precisione una quantità di informazioni personali degli utenti decisamente allarmante, come etnia, posizione, occupazione e molto altro. Questo tramite una semplice conversazione apparentemente innocua. Secondo l’esperto, truffatori potrebbero sfruttare questa capacità per raccogliere dati di utenti. Inoltre, si potrebbe aprire una nuova era della pubblicità, in cui le aziende usano le informazioni ottenute dai chatbot per costruire profili dettagliati degli utenti. Le stesse società che stanno dietro i chatbot iniziano a fare molto affidamento sulla pubblicità per i loro profitti.

I ricercatori di Zurigo hanno testato modelli linguistici sviluppati da OpenAI, Google, Meta e Anthropic, e hanno spiegato di aver segnalato il problema alle aziende.

Niko Felix, portavoce di OpenAI, ha dichiarato che la società cerca di rimuovere le informazioni personali dai dati di addestramento che usa per creare i suoi modelli, che vengono poi regolati in modo da rifiutare le richieste di dati personali. Gli utenti possono chiedere che OpenAI cancelli le informazioni personali. Anthropic ha fatto riferimento alla sua informativa sulla privacy, dove afferma di non raccogliere o vendere informazioni personali. Google e Meta non hanno risposto. “Questo solleva sicuramente domande sulla quantità di informazioni personali che stiamo inavvertitamente facendo trapelare in situazioni in cui ci aspetteremmo l’anonimato” ha dichiarato Florian Tramer, professore assistente del Politecnico di Zurigo, che non è stato coinvolto nello studio. I modelli di intelligenza artificiale alla base di questi bot vengono alimentati con enormi quantità di dati raccolti dal web, che permettono ai sistemi AI di sviluppare una sensibilità agli schemi del linguaggio.

I testi, però, contengono anche informazioni personali e conversazioni che possono portare a formulare ipotesi sul conto delle persone. I chatbot sono in grado di individuare con precisione città, sesso, età ed etnia di una persona.

Intelligenza artificiale e chatbot: la privacy è a rischio

Secondo Taylor Berg-Kirkpatrick, professore associato all’University California San Diego, che si occupa di apprendimento automatico e linguaggio, a sorprendere è stata l’accuratezza con cui questi sistemi riescono ad ottenere informazioni. Il docente ha spiegato che si potrebbe usare un altro modello di apprendimento automatico per riscrivere i testi oscurando i dati personali. Mislav Balunovic, studente di dottorato che ha lavorato al progetto, ha attribuito il fenomeno al fatto che i modelli linguistici sono addestrati su una grande varietà di informazioni. Cercare di proteggere la privacy di una persona eliminando i dati dell’età o la posizione dei testi non impedirebbe a questi modelli di arrivare a conclusioni accurate. Balunovic e Vechev sostengono che questi modelli potrebbero essere usati per esaminare i post dei social media e ottenere informazioni sensibili. Secondo i ricercatori, teoricamente si potrebbe anche progettare un chatbot capace di scovare informazioni attraverso una serie di richieste apparentemente innocue. Il problema è molto difficile da risolvere.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

What do you think?

Scritto da Chiara Nava

La grave accusa contro X

Australia contro Elon Musk: la grave accusa nei confronti del social X

I rischi online per i minori: i dati

I rischi online per i minori tra intelligenza artificiale, gaming e social: segnalazioni di abusi cresciute dell’87%