Recentemente, Deep Q-network (un sistema di algoritmi software) ha imparato a giocare da zero a 49 classici videogiochi Atari, facendo affidamento solo sui dati relativi ai pixel su uno schermo e al metodo di punteggio. Impressionante? Sì, da un punto di vista ingegneristico. No, in termini di avvicinamento alla vera intelligenza artificiale (IA). Ci vuole meno “cervello” per vincere giocando a Space Invaders o Breakout che per essere un campione di scacchi. Quindi era solo una questione di tempo prima che alcuni esseri umani intelligenti escogitassero un modo per creare un algoritmo capace di giocare abilmente con degli elementari videogiochi Atari. Perché tutto questo non è la prova definitiva che ci stiamo avvicinando a una sorta di forma primordiale di intelligenza artificiale? La risposta richiede un chiarimento.
LE DUE ANIME DELL’INTELLIGENZA ARTIFICIALE
Ci sono due tipi di intelligenza artificiale. Una è una branca dell’ingegneria e cerca di riprodurre comportamenti umani (anzi animali) intelligenti con mezzi non biologici.
Deep Q-network appartiene a questo genere. Poi c’è un altro tipo di intelligenza artificiale, che è più una branca della scienza cognitiva e cerca di produrre l’equivalente non biologico della nostra intelligenza. Attualmente questa è fantascienza.Come ramo dell’ingegneria volta a riprodurre il comportamento intelligente, l’intelligenza artificiale ha riscosso un successo sorprendente. Facciamo sempre più affidamento su tecnologie “smart” (applicazioni IA-related) per eseguire attività che sarebbero semplicemente impossibili per un’intelligenza umana non aiutata o non aumentata.
Per le tecnologie smart il limite è il cielo e Deep Q-network ha appena eliminato un altro settore in cui gli esseri umani sono più bravi delle macchine.
Tuttavia, come ramo della scienza cognitiva interessato alla produzione dell’intelligenza biologica, l’IA è stata e resta del tutto deludente. L’intelligenza artificiale produttiva non si limita a essere sotto-performante rispetto all’intelligenza umana; e non ha neppure fatto il primo passo. Siamo ancora allo stesso livello degli anni cinquanta.
Credits: hub.jhu.edu
Il fatto che Watson – il sistema di IBM in grado di rispondere alle domande poste in linguaggio naturale – può vincere contro i suoi avversari umani quando si gioca a Jeopardy! mostra solo che le macchine possono comportarsi intelligentemente pur non essendo intelligenti. Questo ci dice molto di più sull’intelligenza umana, le sue capacità e competenze, stupefacenti, e sul gioco stesso. John McCarthy, lo scienziato che coniò l’espressione “intelligenza artificiale” credeva davvero nella sua realizzabilità, ma faceva osservazioni simili anche riguardo Deep Blue, il computer IBM che ha sconfitto il campione del mondo di scacchi Garry Kasparov nel 1972.
Egli si lamentava che il progetto dell’IA era stato tradito, che queste applicazioni non avevano nulla a che fare con la vera IA.
Aveva ragione, si tratta di meravigliosi sistemi che hanno l’intelligenza del frigorifero di mia nonna.
Ma aveva torto nel sostenere che questa non fosse la strada giusta de perseguire. Il futuro dell’IA è quello della produzione dei risultati smart, non quello della riproduzione dell’intelligenza umana.
QUANDO NASCE L’INTELLIGENZA ARTIFICIALE
Le due anime dell’intelligenza artificiale, quella ingegneristica (tecnologie smart) e quella cognitiva (tecnologie abili, nel senso di “clever”), sono spesso impegnate in lotte fratricide per il predominio intellettuale, il potere accademico e il controllo delle risorse finanziarie. Questo avviene in parte perché entrambe hanno antenati comuni e un’unica eredità intellettuale: un evento fondativo, la Conferenza estiva di Dartmouth sull’intelligenza artificiale del 1956, organizzata dallo stesso McCarthy, e uno dei padri fondatori, Turing, con la sua macchina, i limiti computazionali della stessa, e poi il suo famoso test.
Purtroppo non aiuta il fatto che una simulazione possa essere utilizzata al fine di verificare sia se la fonte simulata (cioè, l’intelligenza umana) è stata riprodotta, sia se è stato riprodotto o addirittura superato il comportamento o le prestazioni della stessa fonte (ad esempio, quello che si può fare grazie all’intelligenza umana). Il disallineamento degli obiettivi delle due anime dell’IA e dei loro risultati ha causato infinite diatribe, per lo più inutili. I difensori dell’intelligenza artificiale mettono in luce i successi dell’approccio ingegneristico, mentre i detrattori si focalizzano sugli insuccessi dell’approccio cognitivo all’IA. Si parla tra sordi.
LA SINGOLARITA’ ARTIFICIALE
Molte delle speculazioni in corso sul futuro dell’IA e la cosiddetta “singolarità” (singularity) hanno le loro radici in questa confusione. A volte mi vien da sospettare che questo sia fatto di proposito. Per sfuggire alla dicotomia appena delineata, bisogna rendersi conto che l’intelligenza artificiale non può essere ridotta ad una “scienza della natura”, o ad una “scienza della cultura”, perché si tratta di una “scienza dell’artificiale”, per dirla con Herbert Simon. In quanto tale, l’IA persegue per il mondo un approccio né descrittivo né prescrittivo. Essa indaga le condizioni vincolanti che rendono possibile costruire e incorporare artefatti smart nel mondo e interagirvi con successo.
In altre parole, l’intelligenza artificiale inscrive il mondo: perché questi nuovi artefatti sono nuovi pezzi logico-matematici di codice, cioè nuovi testi, scritti nel libro matematico della natura di Galileo.
Fino a poco tempo fa, l’impressione diffusa era che questo processo di aggiunta al libro della natura (iscrizione) avrebbe richiesto la fattibilità dell’IA produttiva, cioè dell’intelligenza artificiale come scienza cognitiva. Dopo tutto, sviluppare anche una rudimentale forma di intelligenza non biologica può sembrare non solo il migliore, ma forse l’unico modo per implementare tecnologie sufficientemente adattive e flessibili, e per far fronte in modo efficace a un ambiente complesso, in continua evoluzione e spesso imprevedibile, se non addirittura ostile. Questa impressione non è incorretta, ma è fonte di distrazione perché, mentre perseguivamo senza successo l’iscrizione dell’IA produttiva nel mondo, in realtà stavamo modificando (ri-ontologizzando) il mondo a misura dell’IA riproduttiva, cioè dell’intelligenza artificiale creata secondo l’approccio ingegneristico.
L’INFOSFERA DELL’INTELLIGENZA ARTIFICIALE
Il mondo sta diventando sempre più un’infosfera che ben si adattata alle intelligenze artificiali riproduttive e alle loro capacità limitate. Nella robotica, una “envelop” (letteralmente “busta”) è lo spazio tridimensionale che definisce i confini che un robot può raggiungere. Per decenni siamo stati avvolti (“enveloped”) nel mondo senza rendercene completamente conto.
Credits: illustrationserved.com
L’avvolgimento (l’enveloping) per molto tempo è stato un fenomeno autonomo (si acquista il robot con la “envelop” che lo avvolge, per esempio un semplice sistema a pale roteanti inserito in una scatola di metallo, come nel caso di una lavastoviglie o lavatrice) o implementato, con attenzione e su misura all’interno delle mura di edifici industriali, intorno ai loro abitanti artificiali, come succede nell’industria automobilistica. Al giorno d’oggi, la “envelop” usata per avvolgere l’ambiente dell’infosfera IA-friendly ha iniziato a pervadere ogni aspetto della realtà, e quotidianamente è visibile ovunque.
Se aerei o veicoli senza conducente possono muoversi con sempre meno difficoltà, questo non è perché è finalmente arrivata l’intelligenza artificiale produttiva,
ma perché l’ambiente in cui devono negoziare con successo le proprie azioni e operazione è diventato sempre più adatto all’intelligenza artificiale riproduttiva e alla sua stupidità “smart”. L’enveloping è una tendenza oramai robusta, cumulativa e progressivamente in ridefinizione. Non ha nulla a che fare con qualche singolarità fantascientifica, perché non si basa su irrealistiche speculazioni (per quanto riguarda la nostra comprensione attuale e prevedibile dello sviluppo dell’IA e dell’informatica) su una qualche super-intelligenza artificiale che conquisterà il mondo nel prossimo futuro.
Al contrario, si tratta di un processo che aumenta il rischio che le nostre tecnologie possano plasmare i nostri ambienti fisici e concettuali, vincolandoci ad adattarci a loro perché questo è il migliore, o, talvolta, l’unico modo per far funzionare le cose. Diventando più consapevoli, criticamente, del potere ri-ontologizzante dell’intelligenza artificiale produttiva e delle applicazioni smart, potremmo essere in grado di evitare le peggiori forme di distorsione (rigetto), o almeno tollerarle consapevolmente (accettazione), soprattutto quando non sono troppo problematiche o quando sono soluzioni temporanee, in attesa di un design migliore.
In quest’ultimo caso, essere in grado di immaginare come sarà il futuro e quali tecnologie di adattamento saranno richieste per i suoi utenti umani significa poter individuare soluzioni tecnologiche che potranno abbassare i loro costi antropologici. In breve, il disegno intelligente umano (il riferimento al cosiddetto “intelligent design” è voluto) dovrebbe svolgere un ruolo importante nel plasmare il futuro delle nostre interazioni con le future macchine “intelligenti” e gli ambienti che condividiamo e sempre più condivideremo con loro.
Dopotutto, è un segno d’intelligenza saper far lavorare la stupidità per noi.
LUCIANO FLORIDI
* Traduzione e adattamento editoriale dal post originale in inglese dell’autore.
BIBLIOGRAFIA– Floridi, Luciano. 2003. Informational Realism. Paper read at Selected papers from conference on Computers and philosophy-Volume 37.– McCarthy, John. 1997. Review of Kasparov Vs. Deep Blue by Monty Newborn. Science 6 June.– Mnih, Volodymyr, Koray Kavukcuoglu, David Silver, Andrei A Rusu, Joel Veness, Marc G Bellemare, Alex Graves, Martin Riedmiller, Andreas K Fidjeland, and Georg Ostrovski. 2015. Human-Level Control through Deep Reinforcement Learning. Nature 518 (7540):529-533.