Non è intenzione di questo post sostenere il rischio imminente di disoccupazione tecnologica. Credo occorrano molti dati non facili da ottenere, a meno di essere un ricercatore. Mi interessa piuttosto criticare le posizioni che ridimensionano questo rischio, provando a mostrare come derivino da una non completa conoscenza dei campi implicati, l’intelligenza artificiale e le neuroscienze.
Prima obiezione: gli uomini sono creativi
Serve creatività per inventare teorie scientifiche ma, a quanto pare, i big data ci potrebbero permettere un domani di trovare correlazioni impreviste nel flusso di dati e spiegarle a posteriori, sempre che una spiegazione ci serva. Se è vero che la statistica è uno strumento fondamentale della scienza, perché dovremmo limitarci a usarlo per dimostrare solo a posteriori la validità di un’ipotesi? Oggi la tecnologia ci consente di invertire il procedimento.
Questo pezzo di Chris Anderson lanciò il dibattito, quest’altro pezzo di qualche mese fa mostra invece delle applicazioni concrete dell’uso dei big data in medicina.
Potremmo in futuro avere meno bisogno di teorici e più di tecnici da laboratorio? Non è facile da accettare e, mi auguro, non è valido per tutti i domini della conoscenza: ma in ambito scientifico (fisica, biologia) è un rischio reale.
Un secondo ordine di problemi deriva dal fatto che l’intelligenza artificiale sta trovando strade per essere creativa. Una delle più interessanti è costituita dagli algoritmi genetici: software che elaborano soluzioni ottimali mediante la creazione di “cromosomi” fatti da vettori di bit, mutazioni casuali, ricombinazione delle informazioni e selezione evolutiva (attraverso filtri di fitness). Perché allora non viene fatto ricorso massivo ai software per inventare cose nuove? Perché siamo ancora più efficienti noi: abbiamo d’altronde fino a 100 miliardi di neuroni che hanno un numero enorme di connessioni (fino a 10.000 per singolo neurone) e diverse modalità di elaborazione dell’informazione (le sinapsi usano diversi tipi di neurotrasmettitori, esistono neuroni eccitatori e neuroni inibitori).
Cifre che fanno impallidire gli attuali computer, soprattutto di livello consumer, anche se il prezzo del calcolo è in calo costante e non ci consente di dormire sonni tranquilli.
Rimangono gli architetti, gli artisti, i designer, i grafici, i pubblicitari: qui la creatività è ancora molto difficile da imitare. Vero, ma esistono strumenti che li facilitano nel loro lavoro: non conosco grafico che non frequenti siti che raccolgono le migliori grafiche disponibili, stesso discorso per i giornalisti (che spesso copiano-incollano da siti stranieri).
Ecco svelata una delle ragioni per cui temo di più le nuove tecnologie: l’assistenza che offrono agli uomini aumenta incredibilmente la loro produttività e quindi diminuisce gli occupabili.
Un miglioramento nel sistema di organizzazione dell’informazione, il raggiungimento dell’agognato web semantico, dovrebbe rendere molto più efficiente il reperimento di informazione funzionale al nostro lavoro.
Con gli avvocati già funziona, pure con i traduttori attraverso il sito www.proz.com grazie al quale gli umani si scambiano traduzioni. Per il mercato del lavoro è drammatico: se un giornalista produce più pezzi, se un traduttore è più rapido, la domanda cala e con lei i posti di lavoro e i salari. L’assistenza si estende praticamente a tutti i campi e può produrre anche degli effetti di sostituzione. Google Translate non è ancora al livello di un essere umano, ma semplifica molto il lavoro di un traduttore non sufficientemente esperto, rendendo per alcune applicazioni inutile rivolgersi ad un traduttore professionista.
Seconda obiezione: il cambiamento tecnologico non ha finora prodotto disoccupazione
Una visione del passato ci consente di essere ottimisti: la disoccupazione tecnologica è sempre stata assorbita nel lungo periodo, con tempi diversi. Dovremmo aspettare con fiducia la nascita di nuovi lavori, anche se oggi sono difficili da prevedere.
Il primo problema è questo: se il tempo di distruzione di lavoro è molto più rapido della creazione, che si fa nell’intervallo? Si pagano sussidi di disoccupazione, si formano i disoccupati a nuovi lavori ancora da inventare? Quante risorse andrebbero mobilitate?
Con l’attuale situazione dei conti pubblici di tutte le potenze occidentali, come si fa? Problemi politici che dovrebbero iniziare a interessare i più progressisti ma non compaiono nei dibattiti concentrati sul presente (fa eccezione il Governatore della Banca d’Italia). Eppure la posta in gioco è molto alta: una crisi sociale può aggravare ulteriormente quella economica.
Il secondo problema di questo ragionamento è la sua astrattezza-astoricità. Non si può pensare che la velocità del cambiamento sia identica nelle diverse rivoluzioni tecnologiche: un conto l’avvento della macchina a vapore, un conto quello dell’informatica, un conto Internet. Il cambiamento tecnologico non è avvenuto sempre alla stessa velocità: ce lo spiega, tra gli altri, Ray Kurzweil in un suo libro (La singolarità è vicina), dicendoci in sostanza che segue una legge esponenziale. Nelle CPU (Legge di Moore), nelle memorie RAM, nella rapidità nella diffusione di nuovi strumenti di comunicazione, forse anche nel numero di articoli scientifici pubblicati. I ricercatori sono passati da poche migliaia ad alcuni milioni (6-7 secondo stime) nel giro di sessant’anni, si produce molta più conoscenza oggi rispetto a vent’anni fa e soprattutto circola più velocemente.
Non si può paragonare la rivoluzione informatica degli anni ’50, portata avanti per lo più da IBM e dai suoi giganteschi mainframe, con quella robotica di oggi: movimenti come l’open source e i makers rendono la robotica a portata di migliaia di talentuosi hobbisti. La potenza manifatturiera cinese assorbirà migliaia di robot e spingerà gli investimenti in innovazione, la ricchezza accumulata da aziende come Google (molto impegnata nel campo della robotica) fa presagire la disponibilità di ingenti risorse nei prossimi anni.
Viviamo in un’epoca in cui le dinamiche sociali sono accelerate dalla rete. Lo sviluppo delle tecnologie, grazie alla condivisione della conoscenza, non è più limitato ai laboratori di ricerca. Viviamo in un mondo in cui ci sono nuovi e potenti attori economici, e un mercato molto più ampio e competitivo rispetto a cinquant’anni fa.
Terza obiezione: le macchine non hanno buon senso né conoscenze tacite
Un’obiezione di natura cognitiva assai comune riguarda l’argomento del buon senso che appartiene alla classe più ampia delle conoscenze tacite: gli algoritmi non sono in grado di riprodurle perché non siamo in grado di programmarli per farlo – è un apparente problema di conoscenza incompleta.
Credo che sia un problema se adottiamo l’Intelligenza Artificiale formale, in cui il computer è una macchina di Turing, ossia un sistema che processa simboli secondo regole logiche predefinite (il cosiddetto “programma”) in maniera lineare. Eppure la programmazione oggi offre molte più alternative: esistono per esempio le reti neurali che sono sub-simboliche e che potrebbero subire notevoli miglioramenti grazie agli studi sul funzionamento del cervello (es. Blue Brain, diventato Human Brain Project). Per chi fosse interessato alcuni sviluppi interessanti li trova qui. L’imitazione del cervello dovrebbe consentirci migliori risultati: le prime prove di Synapse, chip di IBM che simula il comportamento di 256 neuroni, appaiono in tal senso promettenti. Esistono anche interessanti esperimenti di ibridazione tra silicio e neurone che hanno prodotti strani “cyborg”: robot governati dal cervello di un pesce o di un topo. Nel caso del buon senso, alcuni esperimenti, nemmeno troppo nuovi, meritano attenzione; è il caso della fuzzy logic, una logica che cerca di imitare la capacità del linguaggio naturale di cogliere sfumature, evitando le rigidità binarie della logica booleana.
È sufficiente per imitare il buon senso? Non ancora. Perché? Perché il buon senso richiede combinazione di statistica ed esperienza, la capacità, in parte implicita, di estrarre delle regolarità dall’accumulo di azioni compiute, di comprendere e fare proprio il sensus communis, il sentire della maggioranza che, a sua volta, deriva dallo wisdom of crowd.
Sarebbe richiesto, tecnicamente, il contributo di tecnologie simboliche, capaci di tradurre proposizioni dotate di senso, e sub-simboliche, in grado di apprendere. Non proprio facile, anche se pare che una società acquisita da Google per 400 milioni di dollari ci stia riuscendo. Nelle scienze cognitive sta avendo successo da qualche anno l’approccio bayesiano, secondo cui il cervello è sostanzialmente una macchina probabilistica. La teoria per riportare il genere umano al livello dei computer esiste già.
Quarta obiezione: solo degli uomini possono prendersi cura di altri uomini
Tendiamo a sopravvalutarci, anche perché non abbiamo ancora esperienza di caregiver robotici. Non abbiamo idea di che effetto possano fare, anche se sperimentiamo quotidianamente la felicità per aver ricevuto un sms da un amico, una telefonata dalla propria dolce metà, un’email densa di contenuti. Anche se abbiamo a che fare con freddi cellulari e computer, sperimentiamo una gioia reale: perché sappiamo che, dietro gli sms, ci sono i nostri cari e li sentiamo vicini. Magari un giorno i nostri amici, senza dircelo, potranno cedere in outsourcing i loro messaggi a un’intelligenza artificiale che ricombina le email e gli sms che altri umani hanno scritto, e difficilmente ce ne accorgeremmo. O che dire di un software che, vedendoci depressi (dai post che scriviamo, dalla foto che carichiamo) filtrasse i nostri risultati di ricerca per renderci più felici? Forse il discusso esperimento di Facebook andava in questa direzione. Non è impossibile allora immaginare due scenari:
Punto uno: il caregiver come mediatore. Il robot o lo smartphone (unito a dispositivi indossabili) potrebbero fungere da mediatori controllati a distanza da medici o altro personale qualificato. Esistono diversi progetti europei in tal senso, per esempio Giraff Plus. Sarebbe ancora l’uomo a prendersi cura di un altro uomo, ma con un evidente aumento di produttività.
Il robot Giraff, da Dailyrecord.co.uk
Punto due: il caregiver autonomo. Miglioramenti nell’intelligenza artificiale potrebbero consentire al robot di prendersi cura quasi autonomamente del proprio paziente. Negli Stati Uniti un algoritmo ha seguito dei pazienti diabetici, attraverso l’uso di Fitbit, e li ha incoraggiati a svolgere attività fisica. Tramite il riconoscimento vocale i robot possono soddisfare buona parte delle richieste (Siri è solo un inizio), il confronto via cloud computing con migliaia di pazienti può consentire un monitoraggio accurato dello stato di salute, unito a sensori e telemetria per capire quando il paziente è caduto o ha crisi acute. Simili robot potrebbero chiamare assistenza umana solo quando strettamente necessario.
ANDREA DANIELLI