Introduzione all’AI Act
Il 14 novembre 2023 segna una data cruciale per il futuro dell’intelligenza artificiale in Europa, con la pubblicazione della prima bozza del codice di condotta sui sistemi di intelligenza artificiale per uso generale (GPAI). Questo regolamento mira a stabilire linee guida chiare per gli sviluppatori, garantendo che i modelli di AI siano sviluppati e utilizzati in modo responsabile e trasparente. I GPAI, come GPT-4 di OpenAI e Gemini di Google, sono progettati per eseguire una varietà di compiti, dall’elaborazione del linguaggio naturale alla generazione di immagini.
Struttura e obiettivi del codice di condotta
Il codice di condotta, che dovrà essere finalizzato entro aprile 2024, fornisce un quadro di riferimento per gli sviluppatori, delineando le responsabilità e le aspettative in un contesto di crescente utilizzo dell’AI.
Sebbene non abbia valore legale, il codice può servire come prova di conformità in caso di contestazioni. Gli sviluppatori dovranno attenersi a principi fondamentali, come la trasparenza e la responsabilità, per evitare sanzioni che possono arrivare fino al 3% del fatturato globale o 15 milioni di euro in caso di violazioni.
Parametri di valutazione dei modelli di AI
Per identificare i modelli di AI generale ad alto impatto, l’AI Act introduce sette parametri chiave, tra cui la qualità del set di dati e il potere computazionale. Questi criteri sono fondamentali per garantire che i modelli siano sviluppati in modo etico e responsabile. Gli sviluppatori dovranno fornire informazioni dettagliate riguardo al consumo energetico, ai risultati dei test e alla politica di uso accettabile, che definirà chiaramente gli usi consentiti e vietati della tecnologia.
Rischi e responsabilità degli sviluppatori
Il codice di condotta affronta anche i rischi sistemici associati all’AI, come i rischi cibernetici e le potenziali discriminazioni. Gli sviluppatori sono tenuti a valutare se i rischi siano intrinseci alla tecnologia o derivino dall’uso improprio dei modelli. È essenziale che le aziende implementino procedure di intervento in caso di emergenze e stabiliscano processi di analisi e mappatura per mitigare i rischi. Le linee guida non sono definitive e potrebbero subire modifiche in base ai feedback ricevuti dagli oltre mille enti coinvolti nel processo di consultazione.
Prospettive future e conclusioni
Il percorso verso una regolamentazione efficace dell’intelligenza artificiale è complesso e richiede un dialogo continuo tra le parti interessate. La Commissione europea ha avviato un processo di consultazione per raccogliere opinioni e suggerimenti, con l’obiettivo di finalizzare il codice di condotta entro la primavera del 2025.
La sfida principale sarà quella di stabilire standard comuni che possano essere applicati a un numero crescente di modelli di AI, garantendo al contempo la sicurezza e la protezione degli utenti.