in

Combattere i bias dell’IA deve essere una parte fondamentale dell’agenda dei diritti civili di Biden

La legislazione sui diritti civili che affronta i danni causati dall'IA potrebbe essere in arrivo.

bias ai
bias ai

Quando Ron Wyden, Cory Booker e Yvette Clarke hanno introdotto il loro Algorithmic Accountability Act nel 2019, che avrebbe richiesto alle aziende tecnologiche di condurre verifiche di bias (pregiudizi) sulla loro AI, i tre sponsor potrebbero essere stati un po’ in anticipo. Nonostante il fatto che le aziende tecnologiche stessero già utilizzando algoritmi di intelligenza artificiale per una vasta gamma di prodotti e servizi che toccano la vita di milioni di persone, la questione del bias di AI e dei suoi effetti nel mondo reale è rimasta astratta per molti americani, compresi molti a Washington. L’amministrazione Trump era ignara della questione, e i repubblicani hanno mostrato poco interesse per la legge di Wyden e Booker, che non è mai stata letta in commissione, tanto meno al Senato.

Anche la proposta di legge di Clarke alla Camera non è andata avanti.

Bias dell’AI e amministrazione Biden: cosa cambierà?

Ora, Wyden, Booker e Clarke hanno intenzione di riproporre le loro leggi al Senato e alla Camera quest’anno. Un ambiente politico molto diverso, tra cui un Congresso e una Casa Bianca guidati dai Democratici, significa che le loro idee potrebbero ricevere un’accoglienza molto più calorosa. Inoltre, la nuova versione dell’Algorithmic Accountability Act arriverà dopo alcuni recenti casi di alto profilo di IA discriminatoria e una migliore comprensione pubblica dell’ubiquità dell’IA in generale – insieme alla crescente consapevolezza che non ci si può fidare delle aziende tecnologiche quando si tratta di autoregolarsi (soprattutto quando hanno l’abitudine di cercare di mettere a tacere i loro critici).

Un rapporto del Protocollo che cita fonti anonime suggerisce che la legge del Senato Wyden-Booker è vista dalla Casa Bianca come un modello per la futura legislazione sull’IA. Se il disegno di legge Wyden-Booker – o una qualche versione di essa – avanzerà, dipenderà da quanto sia alta la priorità della regolamentazione dell’IA per l’amministrazione Biden.

bias ai

Sulla base delle dichiarazioni e delle azioni sia del presidente Joe Biden che del vicepresidente Kamala Harris, ci potrebbe essere la voglia di mettere finalmente in atto delle barriere per una tecnologia che è sempre più parte dei nostri più importanti sistemi automatizzati.

Ma il vero lavoro potrebbe essere quello di far passare una legislazione che affronti alcune delle insidie più pericolose dell’AI e che costringa le aziende tecnologiche ad evitarle.

Una legge modello

L’Algorithmic Accountability Act del 2019 ha proposto che le aziende con più di 50 milioni di dollari di fatturato (o il possesso di più di 100 milioni di dati di persone) dovrebbero condurre valutazioni dell’impatto algoritmico della loro tecnologia.

Ciò significa che le aziende sarebbero tenute a valutare i sistemi automatizzati che prendono decisioni sulle persone studiando il design del sistema, lo sviluppo e i dati di formazione, fino ad arrivare alla ricerca di “impatti su precisione, equità, pregiudizi, discriminazione, privacy e sicurezza”, secondo quanto scritto nella proposta di legge.

Nel precedente disegno di legge del Senato, Wyden e Booker hanno scelto di affrontare l’IA ad “alto rischio” che ha la capacità di impattare seriamente la vita di qualcuno se sbaglia o fallisce. Il riconoscimento facciale, che finora ha causato il falso arresto di almeno tre uomini neri, è solo un esempio. In particolare, il disegno di legge si concentra sugli algoritmi che fanno determinazioni da informazioni sensibili (si pensi ai dati personali, informazioni finanziarie o dati sanitari), da grandi gruppi di dati di sorveglianza, o da dati che potrebbero influenzare l’occupazione di una persona.

L’audit algoritmico rappresenta un approccio simile al quadro utilizzato nelle valutazioni di impatto ambientale, dove enti pubblici o privati studiano come un nuovo progetto o una nuova tecnologia potrebbe avere un impatto sulla natura e sulle persone.

“Le aziende devono essere responsabili per un’eventuale tecnologia dannosa – dopo tutto, il redlining – una pratica discriminatoria che mette i servizi (finanziari e di altro tipo) fuori dalla portata dei residenti di certe aree in base alla razza o all’etnia – fatto da un computer fa lo stesso danno delle politiche di redlining fatte da una persona”, dice Wyden in una dichiarazione a Fast Company. “E’ buon senso richiedere alle aziende di controllare i loro sistemi per garantire che gli algoritmi non facciano danni”. “Ecco perché ho intenzione di aggiornare l’Algorithmic Accountability Act per incorporare il feedback degli esperti e reintrodurlo presto”, dice Wyden.

bias ai

Uno sviluppatore di AI in Microsoft, sostiene la legislazione federale sull’AI etica, almeno in linea di principio. Natasha Crampton, Chief Responsible AI Officer di Microsoft, dice che la valutazione dell’impatto dovrebbe essere il punto di partenza per guardare profondamente e onestamente nei casi d’uso reali dell’IA e le parti interessate. “Questo può davvero metterci sulla strada per capire come il sistema potrebbe funzionare nel mondo reale, in modo da poter salvaguardare, preservare i benefici e mitigare i rischi”, mi dice. Crampton dice che Microsoft ha chiesto una legislazione che affronti l’etica nell’IA già nel 2018.

L’Algorithmic Accountability Act è uno dei primi disegni di legge ad affrontare il problema dei bias a livello federale. È probabile che venga visto come un punto di partenza in un lungo processo di sviluppo di un regime normativo per una tecnologia complessa che viene utilizzata in modi molto diversi.

Segnali promettenti

Il presidente Biden e il vicepresidente Harris hanno detto durante la loro campagna che intendevano affrontare le questioni dei diritti civili in più aree fin dall’inizio. Uno di questi fronti potrebbe essere lo sviluppo e l’uso discriminatorio degli algoritmi in applicazioni come il riconoscimento facciale.

Harris si è già impegnata con il problema del bias algoritmico. Nell’autunno del 2018, Harris e altri sette membri del Congresso hanno inviato lettere ai leader di diverse agenzie, tra cui il Federal Bureau of Investigation (FBI), la Federal Trade Commission (FTC) e la Equal Employment and Opportunity Commission (EEOC), chiedendo come stavano affrontando il bias nell’uso della tecnologia di riconoscimento facciale. Il General Accountability Office ha riferito nel 2019 che l’FBI ha fatto alcuni progressi nella protezione della privacy e nella precisione del riconoscimento facciale. Tuttavia, le migliori pratiche dell’EEOC per i dipendenti del settore privato non contengono ancora linee guida specifiche per evitare i pregiudizi algoritmici come richiesto dai senatori.

Inoltre, la FTC manca ancora di un’autorità specifica e completa per affrontare le violazioni della privacy relative alla tecnologia di riconoscimento facciale, anche se la sezione 5 della legge FTC autorizza l’agenzia ad agire su atti o pratiche ingannevoli utilizzati dagli sviluppatori di tecnologia di riconoscimento facciale. Questi dettagli sono importanti perché la FTC sarebbe, molto probabilmente, l’agenzia più attiva nel far rispettare qualsiasi nuova legge che affronti i pregiudizi nell’IA. È chiaro che l’argomento è importante per Becca Kelly Slaughter, che Biden ha nominato come commissario ad interim dell’agenzia nel mese di gennaio, in quanto è stata esplicita sulla giustizia AI e le questioni di trasparenza nel corso dell’ultimo anno.

“Per me il bias algoritmico è un problema di giustizia economica“, ha detto durante una recente tavola rotonda. “Vediamo risultati disparati derivanti dal processo decisionale algoritmico che colpiscono e danneggiano in modo sproporzionato le comunità nere e influenzano la loro capacità di partecipare equamente alla società”.

bias ai

Un altro segno promettente: quando Biden ha nominato il genetista Eric Lander come direttore dell’Office of Science and Technology Policy (OSTP) a gennaio, ha elevato quel posto a una posizione di livello di gabinetto per la prima volta. Questo suggerisce che la nuova amministrazione considera le questioni di politica scientifica e tecnologica, come l’etica dell’IA e la privacy, altrettanto importanti quanto altre preoccupazioni a livello di gabinetto come la difesa, il commercio e l’energia.

Biden ha anche nominato due avvocati per i diritti civili ai posti più alti del Dipartimento di Giustizia, indicando che l’agenzia può dare uno sguardo critico al modo in cui le tecnologie come gli algoritmi di valutazione del rischio criminale e l’IA di riconoscimento facciale sono utilizzati a tutti i livelli di applicazione della legge. In particolare, ha nominato il presidente del Comitato degli avvocati per i diritti civili, Kristen Clarke, come assistente del procuratore generale per i diritti civili, e il presidente della Leadership Conference on Civil and Human Rights Vanita Gupta come procuratore generale associato. Entrambe le donne hanno intentato cause o fatto molta pressione sui social network, tra cui Facebook, Google e Twitter, ed entrambe hanno condotto casi emblematici che denunciano bias algoritmici e discriminazione.

Un altro segno promettente è la nomina della dottoressa Alondra Nelson, che Biden ha nominato come primo vice direttore dell’OSTP per la scienza e la società. “Quando forniamo input all’algoritmo, quando programmiamo il dispositivo, quando progettiamo, testiamo e facciamo ricerca, stiamo facendo scelte umane, scelte che portano il nostro mondo sociale in un modo nuovo e potente”, ha detto in una cerimonia alla Casa Bianca.

“Penso che la creazione del ruolo di Alondra Nelson – che è vice direttore della scienza e della società – sia degno di nota”, dice Rashida Richardson, studiosa in visita alla Rutgers Law School ed esperta di politica AI. “Solo quel titolo di per sé significa che almeno [l’amministrazione] sta segnalando che c’è una certa consapevolezza che c’è un problema”.

Una legge autorevole

intelligenza artificiale

I legislatori potrebbero cercare di affrontare questo problema solo regolando gli algoritmi che sono già in largo uso e che fanno danni dimostrabili. Ma altrettanto importante è approvare una legislazione che impedisca effettivamente che questo danno accada in primo luogo, forse obbligando gli sviluppatori di un algoritmo a correggere attivamente i problemi prima della distribuzione.

Richardson teme che il Congresso potrebbe finire per concentrarsi su una legislazione che è facile da far passare, ma che si occupa dei pregiudizi dell’IA solo in modo superficiale. Per esempio, dice, il governo potrebbe creare una serie di standard di sviluppo destinati a liberare l’IA dai pregiudizi.Mentre l’Algorithmic Accountability Act è stato per lo più lodato nella comunità etica dell’AI, anch’esso mancava di autorevolezza in un modo importante. Il linguaggio originale del disegno di legge ha permesso agli sviluppatori di AI di mantenere i risultati delle loro verifiche di bias in silenzio.

Richardson dice che questa mancanza di trasparenza non è l’ideale “perché allora non genererà un cambiamento, sia da parte di coloro che creano le tecnologie che di coloro che le utilizzano”. “Ma avere un qualche tipo di processo completamente pubblico o semi-pubblico, o almeno l’opzione di consultazione pubblica, può consentire la stessa cosa che accade nel quadro della valutazione di impatto ambientale”. Questo permetterebbe al governo di sottolineare i casi d’uso che non sono stati considerati, o certe etnie che sono state trascurate, dice. Gli uffici di Wyden e Booker stanno ora considerando di cambiare il linguaggio della legge per richiedere agli sviluppatori di rivelare, in qualche modo, i risultati delle loro verifiche.

Il più grande vento contrario all’approvazione di una legge al Congresso può essere la capacità limitata tra alcuni legislatori di comprendere la tecnologia stessa, dice Richardson. Ricorda un’udienza del Senato del 2019 a cui ha partecipato che si è concentrata sugli algoritmi di ottimizzazione utilizzati dalle grandi aziende tecnologiche: “Era molto chiaro che pochissimi senatori capivano l’argomento”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

What do you think?

Scritto da Filippo Sini

lilium

Lilium in procinto di quotarsi in borsa, sta lavorando a un aero-taxi più grande

coa salute mentale

La startup Coa vuole che tu tratti la salute mentale come quella fisica