Intelligenza artificiale: i quattro gruppi al comando

Il settore dell’intelligenza artificiale continua il suo sviluppo, con ben quattro gruppi al comando.

I gruppi al comando dell'intelligenza artificiale
AI Technologies. Businessman using digital chatbot robot application on smartphone

Il settore dell’intelligenza artificiale continua il suo sviluppo, con ben quattro gruppi al comando. Scopriamo insieme tutti i dettagli e le caratteristiche di questi gruppi diversi che si occupano di questa tecnologia.

Intelligenza artificiale, OpenAI: lo scontro

Nell’ultima settimana si è parlato molto di intelligenza artificiale e la protagonista è stata OpenAI, che ha fatto emergere uno scontro che coinvolge l’intelligenza artificiale. All’origine del licenziamento di Sam Altman ci sarebbero delle divergenze con il consiglio di amministrazione sul modo corretto di sviluppare questa tecnologia. Da un lato il precedente consiglio di amministrazione, guidato dal direttore scientifico Ilya Sutskever, che considerava l’intelligenza artificiale una tecnologia pericolosa e da trattare con cautela, e dall’altra Sam Altman, convinto che l’AI “possa elevare l’umanità”. Quello che è avvenuto all’interno di OpenAI è simile allo scontro che da tempo va avanti nella Silicon Valley.

Uno scontro che ha ai suoi poli opposti i doomers, o tecno-apocalittici, convinti che l’intelligenza artificiale possa portare rischi importanti per l’essere umano, e i tecno-utopisti, sicuri che questa tecnologia porterà ad un futuro migliore e consentirà all’essere umano di raggiungere alti livelli di benessere. Questi gruppi stanno mettendo in secondo piano chi, come la maggior parte degli scienziati informatici, sta cercando di concentrarsi su questioni molto più realistiche e concrete. Wired ha analizzato i 4 clan che sembrano comandare lo sviluppo dell’intelligenza artificiale. Scopriamoli insieme.

Intelligenza artificiale: i quattro gruppi al comando

I quattro gruppi al comando dell’intelligenza artificiale, come riportato da Wired, sono:

  • Tecno-apocalittici: nel 2014, quando lo sviluppo dell’intelligenza artificiale era ancora lontano, Elon Musk ha affermato che il suo sviluppo fosse l’equivalente tecnologico di “evocare il demonio”.

    Il miliardario metteva da tempo in guardia sui rischi di questa tecnologia, diventando capofila dei doomers e della teoria del “rischio esistenziale”. Nonostante questo fondò OpenAI, con lo scopo di sviluppare l’intelligenza artificiale in modo “sicuro e responsabile”. Molte altre persone fanno parte del gruppo che crede nella teoria del “rischio esistenziale”;

  • AI Safety – I cauti: il gruppo che desidera che lo sviluppo l’intelligenza artificiale avvenga in sicurezza. È il cosiddetto “AI Alignment”, che viene considerata la strada più promettente per evitare che questa tecnologia sfugga al controllo umano. Bisogna cercare di far fare alle macchine ciò che intendono gli umani, non espressamente ciò che dicono. Fornire i nostri valori alle macchine consentirebbe loro di interpretare i comandi correttamente, comprendendo quali sono limiti e vincoli da rispettare.

    Tra i seguaci di questa teoria l’ex direttore scientifico di OpenAI, Ilya Sutskever, il fondatore di DeepMind, Demis Hassabis, quelli di Anthropic, Dario e Daniela Amodei e molti altri;

  • Tecno-utopisti: al primo posto l’investitore Marc Andreessen, fondatore della società di venture capital a16z e autore di un recente scritto dal titolo L’intelligenza artificiale salverà il mondo. Anche in questo gruppo, di cui fa parte anche Sam Altman, viene prestata attenzione ai potenziali rischi dell’intelligenza artificiale, ma hanno tutti una fiducia importante nei confronti di questa tecnologia che, se sviluppata in modo corretto, porterà il mondo a vivere una nuova utopia socioeconomica. Gli utopisti sono contrari a qualsiasi regolamentazione che possa rallentare lo sviluppo dell’intelligenza artificiale, puntando a farla diventare più forte possibile nei tempi più rapidi. In questo gruppo anche il ceo di Microsoft, Satya Nadella, e di Google, Sundar Pichai;
  • Eticisti: questo gruppo ha preoccupazioni più concrete, immediate e realistiche. Si tratta degli esperti di etica dell’intelligenza artificiale, che invece di preoccuparsi di apocalissi o utopie, cercano di puntare l’attenzione sui rischi immediati di questa tecnologia. Questo gruppo di persone ha scoperto come l’algoritmo di Amazon usato per la selezione del personale discriminasse sistematicamente le donne, di come i sistemi di riconoscimento facciale usati dalla polizia americana sbaglino molto frequentemente quando si tratta di individuare donne o persone appartenenti a minoranze etniche. L’esponente più conosciuta è la ricercatrice Timnit Gebru, autrice di un paper sui rischi di discriminazione dei sistemi come ChatGPT. Troviamo anche Joy Buolamwini, fondatrice della Algorithmic justice league, Kate Crawford, autrice del saggio Nè artificiale né intelligente, e anche la linguista dell’università di Washington, Emily Bender. È anche per merito loro che l’AI Act europeo si concentra soprattutto sui rischi concreti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

What do you think?

Scritto da Chiara Nava

Garante Privacy apre un'indagine sull'intelligenza artificiale

Intelligenza artificiale: il Garante Privacy apre un’indagine sulla raccolta di dati personali

think 1 1

Buoni benzina come strumento di welfare aziendale: perché sceglierli?