in

Il licenziamento di Timnit Gebru da Google espone i problemi dell’IA

La situazione ha reso evidente che qualcosa deve cambiare. Ecco da dove cominciare.

Timnit Gebru Google IA
Timnit Gebru Google IA

Quest’anno ci sono state molte scoperte, tra cui audaci affermazioni di scoperte nel campo dell’intelligenza artificiale. I commentatori del settore hanno ipotizzato che il modello di generazione linguistica GPT-3 possa aver raggiunto “l’intelligenza generale artificiale”, mentre altri hanno lodato l’algoritmo di piegatura delle proteine della filiale di Alphabet DeepMind, AlphaFold, e la sua capacità di “trasformare la biologia”. Nonostante tali affermazioni siano un po’premature, questo non ha fatto molto per smorzare l’entusiasmo in tutto il settore, i cui profitti e il cui prestigio dipendono dalla proliferazione dell’IA. È in questo contesto che Google ha licenziato Timnit Gebru, leader nel campo dell’intelligenza artificiale. È anche una delle poche donne nere nella ricerca sull’IA ed è una sostenitrice inflessibile per portare sul campo più BIPOC (Black, Indigenous and people of color), donne e persone non occidentali.

In ogni caso, si è distinta per il lavoro per il quale Google l’ha assunta, tra cui la dimostrazione delle disparità razziali e di genere nelle tecnologie di analisi facciale e lo sviluppo di linee guida di reporting per i set di dati e i modelli di IA. Ironia della sorte, questo, e il suo sostegno a coloro che sono sottorappresentati nella ricerca sull’IA, sono anche le ragioni per cui l’azienda l’ha licenziata. Secondo Gebru, dopo aver chiesto a lei e ai suoi colleghi di ritirare un documento di ricerca critico sui sistemi di IA (redditizi) su larga scala, Google Research ha detto al suo team di aver accettato le sue dimissioni, nonostante il fatto che non si fosse dimessa.

(Google si è rifiutato di commentare questa storia).

Google licenzia Timnit Gebru, leadear nel campo dell’IA

Lo spaventoso modo in cui Google ha trattato Gebru espone una doppia crisi nella ricerca sull’IA. Il settore è dominato da un’élite, principalmente di uomini bianchi, ed è controllato e finanziato principalmente dai grandi operatori del settore: Microsoft, Facebook, Amazon, IBM e sì, Google. Con il licenziamento di Gebru, la politica della civiltà che ha spinto i giovani a costruire i necessari guardrail intorno all’IA è stata stravolta, portando al centro del discorso le domande sull’omogeneità razziale della forza lavoro AI e l’inefficacia dei programmi di diversità aziendale. Ma questa situazione ha anche chiarito che – per quanto sincera possa sembrare una società come Google – la ricerca finanziata dalle aziende non può mai essere separata dalla realtà del potere e dai flussi di reddito e di capitale.

Timnit Gebru Google IA

Questo dovrebbe riguardare tutti noi. Con la proliferazione dell’IA in settori come la sanità, la giustizia penale e l’istruzione, i ricercatori e gli avvocati stanno sollevando preoccupazioni urgenti. Questi sistemiprenderebbero decisioni che cambiano direttamente la vita, e allo stesso tempo sono incorporati in organizzazioni strutturate per rafforzare le storie di discriminazione razziale. I sistemi di intelligenza artificiale concentrano anche il potere nelle mani di coloro che li progettano e li utilizzano, oscurando la responsabilità dietro l’apparenza di un calcolo complesso. I rischi sono profondi e gli incentivi sono decisamente perversi.

La crisi attuale espone le barriere strutturali che limitano la nostra capacità di costruire protezioni efficaci intorno ai sistemi di IA. Ciò è particolarmente importante perché le popolazioni soggette a danni e pregiudizi derivanti dalle previsioni e dalle determinazioni dell’IA sono in primo luogo le persone BIPOC, le donne, le minoranze religiose e di genere, e i poveri – quelli che hanno sopportato il peso della discriminazione sociale. Qui abbiamo un chiaro divario razziale tra coloro che ne traggono vantaggio – le aziende e i ricercatori e gli sviluppatori di sesso maschile, principalmente bianchi – e coloro che hanno più probabilità di essere danneggiati.

Prendiamo le tecnologie di riconoscimento facciale, per esempio, che hanno dimostrato di “riconoscere” le persone con la pelle più scura meno frequentemente di quelle con la pelle più chiara. Già solo questo è spaventoso. Ma questi “errori” razziali non sono gli unici problemi del riconoscimento facciale. Tawana Petty, direttore dell’organizzazione di Data for Black Lives, sottolinea che questi sistemi sono impiegati in modo sproporzionato nei quartieri e nelle città prevalentemente nere, mentre le città che hanno avuto successo nel bandire e respingere l’uso del riconoscimento facciale sono prevalentemente bianche.

Senza una ricerca indipendente e critica che concentri le prospettive e le esperienze di coloro che subiscono i danni di queste tecnologie, la nostra capacità di comprendere e contestare le affermazioni sovraesposte dell’industria è significativamente ostacolata. Il trattamento che Google ha riservato a Gebru rende sempre più chiaro dove si collocano le priorità dell’azienda quando un lavoro critico frano gli obiettivi di business. Questo rende quasi impossibile garantire che i sistemi di IA siano responsabili nei confronti delle persone più vulnerabili.

Timnit Gebru Google IA

I controlli sul settore sono ulteriormente compromessi dagli stretti legami tra le aziende tecnologiche e le istituzioni accademiche apparentemente indipendenti. I ricercatori delle aziende e del mondo accademico pubblicano insieme i loro lavori e si impegnano a collaborare alle stesse conferenze, con alcuni ricercatori che ricoprono anche posizioni concomitanti presso aziende tecnologiche e università. Ciò offusca il confine tra la ricerca accademica e quella aziendale e oscura gli incentivi a sottoscrivere tale lavoro. Significa anche che i due gruppi hanno un aspetto molto simile: la ricerca universitaria soffre delle stesse questioni di omogeneità razziale e di genere dei suoi omologhi aziendali. Inoltre, i principali dipartimenti di informatica accettano copiose somme di fondi per la ricerca Big Tech. Basterebbe anche solo guardare Big Tobacco e Big Oil per trovare modelli preoccupanti che rivelano quanta influenza possono esercitare sulla comprensione pubblica di questioni scientifiche complesse, quando la creazione di conoscenza è lasciata nelle loro mani.

Il licenziamento di Gebru suggerisce che questa dinamica è di nuovo all’opera. Le aziende potenti come Google hanno la capacità di ridurre al minimo o mettere a tacere le critiche ai propri sistemi di intelligenza artificiale su larga scala che sono al centro delle loro motivazioni di profitto. Infatti, secondo un recente rapporto della Reuters, la leadership di Google è arrivata al punto di istruire i ricercatori a “dare un tono positivo” al lavoro che ha esaminato le tecnologie e le questioni sensibili ai profitti di Google. Il licenziamento di Gebru evidenzia anche il pericolo che corre il resto del pubblico se permettiamo a una coorte di ricerca elitaria e omogenea, composta da persone che difficilmente sperimenteranno gli effetti negativi dell’IA, di guidare e modellare la ricerca su di essa dall’interno degli ambienti aziendali. La manciata di persone che stanno beneficiando della proliferazione dell’IA sta plasmando la comprensione accademica e pubblica di questi sistemi, mentre coloro che più probabilmente saranno danneggiati sono esclusi dalla creazione di conoscenza e dall’influenza. Questa iniquità segue le prevedibili linee razziali, di genere e di classe.

Mentre la polvere comincia a depositarsi sulla scia del licenziamento di Gebru, riecheggia una domanda: Cosa facciamo per contestare questi incentivi, e per continuare il lavoro critico sull’IA in solidarietà con le persone più a rischio? A questa domanda abbiamo alcune risposte preliminari.

Timnit Gebru Google IA

Innanzitutto, i lavoratori del settore tecnologico hanno bisogno di un sindacato. I lavoratori organizzati sono una leva fondamentale per il cambiamento e la responsabilità, e una delle poche forze che si sono dimostrate capaci di andare contro le grandi imprese. Ciò è particolarmente vero nel settore tecnologico, dato che molti lavoratori hanno competenze specifiche e non sono facilmente sostituibili, il che conferisce loro una notevole forza lavoro. Tali organizzazioni possono agire con un controllo sulle ritorsioni e sulle discriminazioni, e possono essere una forza che respinge gli usi moralmente riprovevoli della tecnologia. Basta guardare la lotta dei lavoratori di Amazon contro il cambiamento climatico o la resistenza dei dipendenti di Google agli usi militari dell’IA, che ha cambiato le politiche aziendali e ha dimostrato il potere dei lavoratori tecnologici auto-organizzati. Per essere efficace in questo caso, una tale organizzazione deve essere fondata sull’antirazzismo e sulla solidarietà tra le classi, assumendo una visione ampia di chi conta come lavoratore tecnico, e lavorando per dare priorità alla protezione e all’elevazione dei lavoratori tecnici BIPOC a tutti i livelli. Dovrebbe anche usare la sua forza collettiva per respingere la tecnologia che danneggia le persone storicamente emarginate oltre i confini della Big Tech, e per allinearsi con i sostenitori e gli organizzatori esterni per garantire questo.

Abbiamo anche bisogno di protezioni e finanziamenti per una ricerca critica al di fuori dell’ambiente aziendale che sia libera da influenze aziendali. Non tutte le aziende hanno una Timnit Gebru pronta a respingere la censura della ricerca segnalata. Ai ricercatori al di fuori dell’ambiente aziendale deve essere garantito un maggiore accesso alle tecnologie attualmente nascoste dietro le rivendicazioni di segretezza aziendale, come l’accesso ai set di dati di formazione e alle politiche e procedure relative all’annotazione dei dati e alla moderazione dei contenuti. Tali spazi per la ricerca critica e protetta dovrebbero anche dare priorità al sostegno di BIPOC, donne e altri ricercatori storicamente esclusi, riconoscendo che l’omogeneità razziale e di genere nel settore contribuisce ai danni dell’IA. Questo sforzo avrebbe bisogno di finanziamenti significativi, che potrebbero essere ottenuti attraverso una tassa applicata a queste aziende.

Infine, il settore dell’IA ha disperatamente bisogno di una regolamentazione. I governi locali, statali e federali devono intervenire e approvare una legislazione che protegga la privacy e garantisca un consenso significativo sulla raccolta dei dati e sull’uso dell’IA, che aumenti le protezioni per i lavoratori BIPOC e altri soggetti a discriminazione e chegarantisca che le persone più vulnerabili ai rischi dei sistemi di IA possano contestarne e rifiutarne l’uso.

Questa crisi rende chiaro che l’attuale ecosistema della ricerca sull’IA, vincolato com’è dall’influenza aziendale e dominato da un insieme privilegiato di ricercatori, non è in grado di porre e rispondere alle domande più importanti per coloro che subiscono i danni dei sistemi di IA. La ricerca pubblica e la creazione di conoscenza non è importante solo per il suo stesso scopo, ma fornisce informazioni essenziali per coloro che sviluppano strategie solide per il controllo democratico e la governance dell’IA, e per i movimenti sociali che possono respingere le tecnologie dannose e coloro che le utilizzano. Sostenere e proteggere i lavoratori tecnologici organizzati, espandere il campo che esamina l’IA e coltivare ambienti di ricerca ben finanziati e inclusivi al di fuori dell’ombra dell’influenza aziendale sono passi essenziali nel fornire lo spazio per affrontare queste urgenti preoccupazioni.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

What do you think?

Scritto da Filippo Sini

Massimiliano Ventimiglia

Nasce Nazarè, il nuovo acceleratore di innovazione di Onde Alte

Ryan Kaji youtube

In che modo Ryan Kaji, il bambino da 30 milioni, diventa sempre più ricco su Youtube