in

Intelligenza artificiale, OpenAI si prepara ai rischi catastrofici: creato un team

OpenAI ha creato un nuovo team che dovrà monitorare i rischi catastrofici associati all’intelligenza artificiale.

OpenAI si prepara ai rischi dell'intelligenza artificiale

OpenAI ha creato un nuovo team che dovrà monitorare i rischi catastrofici associati all’intelligenza artificiale, cercando di proteggere le persone. I rischi legati a questa nuova tecnologia potrebbero essere davvero devastanti.

Intelligenza artificiale, OpenAI si prepara ai rischi catastrofici: creato un team

OpenAI ha creato un nuovo team che avrà il compito di “monitorare, valutare, prevedere e proteggerci dai rischi catastrofici” che un’intelligenza artificiale evoluta potrebbe portare all’umanità. Il gruppo, che è stato chiamato Preparedness, è guidato da Aleksander Madry, ex direttore del Center for Deployable Machine Learning del MIT. Questo team dovrà supervisionare i prodotti OpenAI in modo da comprendere se la loro evoluzione stia prendendo una piega benefica per l’umanità oppure possa comportare dei rischi molto gravi. “Riteniamo che i modelli di intelligenza artificiale, che supereranno le capacità attualmente presenti nei modelli esistenti più avanzati, abbiano il potenziale per apportare benefici a tutta l’umanità.

Ma comportano anche rischi sempre più gravi. Dobbiamo assicurarci di disporre della comprensione e delle infrastrutture necessarie per la sicurezza dei sistemi di intelligenza artificiale altamente capaci” ha scritto OpenAI in un post.

Intelligenza artificiale: cosa intende OpenAI con rischi catastrofici?

OpenAI ha citato alcune categorie specifiche, come la capacità dell’intelligenza artificiale di persuadere e ingannare gli uomini, ambiti come la sicurezza informatica ma anche minacce di carattere chimico, biologico, radiologico e nucleare, fino ad arrivare alla capacità di questa tecnologia di replicarsi e adattarsi in modo autonomo. Nonostante OpenAI abbia fondato il suo business su questa tecnologia, il CEO Sam Altman è un famoso “AI doomsayer”, ovvero pensa che lo sviluppo dell’intelligenza artificiale sia un problema molto serio per l’uomo, tanto da arrivare a parlare di rischio di “estinzione”.

Altman è convinto che un’intelligenza superiore a quella umana potrebbe arrivare entro un decennio e non è detto che sarà benevola. Per questo bisogna essere preparati, in modo da limitarla il più possibile.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

What do you think?

Scritto da Chiara Nava

marcello mancini

Al leadership forum 2023 un messaggio di fiducia dai business thinker mondiali: la crisi ci rende più resilienti

L'intelligenza artificiale facilita la navigazione su Google Maps

Google Maps, l’intelligenza artificiale facilita la navigazione: i cambiamenti