in

Il padrino dell’IA lascia Google per mettere tutti in guardia dai pericoli della tecnologia

Geoffrey Hinton, il padrino dell’intelligenza artificiale, ha lasciato il suo ruolo in Google per mettere in guardia dai pericoli della tecnologia.

Google
Google

Geoffrey Hinton, il padrino dell’intelligenza artificiale, ha lasciato il suo ruolo in Google per mettere in guardia dai pericoli della tecnologia che lui stesso ha contribuito a sviluppare.

Il padrino dell’IA lascia Google

Geoffrey Hinton, definito il padrino dell’intelligenza artificiale, ha lasciato il suo ruolo in Google la scorsa settimana per mettere in guardia dai pericoli legati alla tecnologia che lui stesso ha contribuito a sviluppare. Il lavoro di Hinton sulle reti neurali ha dato forma ai sistemi di intelligenza artificiali che stanno alimentando moltissimi dei prodotti attuali. Per un decennio ha lavorato part-time a Google per lo sviluppo dell’intelligenza artificiale, ma ha iniziato a nutrire preoccupazioni sempre più grandi sulla tecnologia e sul suo ruolo nel farla progredire così in fretta.

Mi consolo con la normale scusa: se non l’avessi fatto io, l’avrebbe fatto qualcun altro” ha spiegato Hinton al New York Times. In un tweet, l’uomo ha dichiarato di aver lasciato Google per poter essere libero di parlare dei rischi dell’intelligenza artificiale. “Me ne sono andato per poter parlare dei pericoli dell’IA senza considerare l’impatto so Google” ha scritto Hinton, sottolineando che “Google ha agito in modo molto responsabile”.

Jeff Dean, Chief Scientist di Google, ha dichiarato che Hinton “ha fatto scoperte fondamentali nell’IA” e ha espresso apprezzamenti per il “decennio di contributi di Hinton a Google”. “Rimaniamo impegnati in un approccio responsabile all’IA. Stiamo imparando continuamente a comprendere i rischi emergenti e al contempo a innovare con coraggio” ha dichiarato Jeff Dean alla Cnn.

I pericoli dell’intelligenza artificiale

La decisione di Hinton di ritirarsi dall’azienda e di esprimersi sui pericoli della tecnologia è arrivata mentre un numero crescente di legislatori, gruppi di difesa e addetti ai lavori del settore tecnologico hanno lanciato l’allarme sul potenziale di una nuova generazione di chatbot alimentati dall’intelligenza artificiale per diffondere disinformazione e spostare posti di lavoro. L’attenzione suscitata da ChatGPT alla fine dello scorso anno ha contribuito a rinnovare la corsa agli armamenti tra le aziende tecnologiche per lo sviluppo e l’implementazione di strumenti di IA simili nei loro prodotti. In prima linea in questa tendenza ci sono OpenAI, Microsoft e Google, ma anche IBM, Amazon, Baidu e Tencent, che stanno lavorando a tecnologie simili.

Nel mese di marzo alcune figure molto importanti del mondo della tecnologia hanno firmato una lettera in cui chiedevano ai laboratori di intelligenza artificiale di interrompere l’addestramento dei sistemi di IA più potenti per almeno sei mesi, parlando di “profondi rischi per la società e l’umanità”. La lettera, pubblicata dal Future of Life Institute, organizzazione no-profit sostenuta da Elon Musk, è arrivata due settimane dopo che OpenAI ha annunciato GPT-4, una versione più potente della tecnologia che alimenta ChatGPT. Hinton, nella sua intervista al Times, ha ribadito le sue grandi preoccupazioni per il potenziale dell’IA di eliminare posti di lavoro e creare un mondo in cui molti “non saranno più in grado di sapere cosa è vero”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

What do you think?

Scritto da Chiara Nava

IA

Norme più severe per i software con Intelligenza Artificiale: l’accordo al Parlamento UE

studi legali sempre piu gettonati i software per avvocati

Studi legali: sempre più gettonati i software per avvocati