AI Intelligenza Artificiale21 Maggio 2024 12:05

Intelligenza artificiale: Il Consiglio Ue dà il via libera definitivo alle prime norme mondiali sull’IA

Il Consiglio Ue ha approvato oggi una legge innovativa che mira ad armonizzare le norme sull'intelligenza artificiale, la cosiddetta legge sull'intelligenza artificiale. La legislazione di punta segue un approccio "basato sul rischio", il che significa che più alto è il rischio di causare danni alla società, più severe sono le regole. È la prima al mondo nel suo genere e può stabilire uno standard globale per la regolamentazione dell'intelligenza artificiale. 

La nuova legge mira a promuovere lo sviluppo e l'adozione di sistemi di IA sicuri e affidabili nel mercato unico dell'UE da parte di soggetti pubblici e privati. Allo stesso tempo, mira a garantire il rispetto dei diritti fondamentali dei cittadini dell'UE e a stimolare gli investimenti e l'innovazione sull'intelligenza artificiale in Europa. La legge sull'intelligenza artificiale si applica solo ai settori che rientrano nel diritto dell'UE e prevede esenzioni, ad esempio per i sistemi utilizzati esclusivamente per scopi militari e di difesa e per la ricerca.

 

“L'adozione della legge sull'intelligenza artificiale rappresenta una tappa importante per l'Unione europea. Questa legge storica, la prima del suo genere al mondo, affronta una sfida tecnologica globale che crea anche opportunità per le nostre società ed economie. Con la legge sull'IA, l'Europa sottolinea l'importanza della fiducia, della trasparenza e della responsabilità quando si ha a che fare con le nuove tecnologie, garantendo al contempo che questa tecnologia in rapida evoluzione possa prosperare e dare impulso all'innovazione europea”, ha commentato in una nota Mathieu Michel, segretario di Stato belga per la digitalizzazione, la semplificazione amministrativa, la tutela della privacy e il regolamento edilizio

 

Classificazione dei sistemi di intelligenza artificiale come ad alto rischio e pratiche di intelligenza artificiale vietate

 

La nuova legge classifica i diversi tipi di intelligenza artificiale in base al rischio. I sistemi di IA che presentano solo un rischio limitato sarebbero soggetti a obblighi di trasparenza molto leggeri, mentre i sistemi di IA ad alto rischio sarebbero autorizzati, ma soggetti a una serie di requisiti e obblighi per accedere al mercato dell'UE. I sistemi di IA come, ad esempio, la manipolazione cognitiva del comportamento e il social scoring saranno banditi dall'UE perché il loro rischio è considerato inaccettabile. La legge vieta anche l'uso dell'IA per la polizia predittiva basata sulla profilazione e i sistemi che utilizzano dati biometrici per classificare le persone in base a categorie specifiche come razza, religione o orientamento sessuale. 

 

Modelli di IA per scopi generali

 La legge sull'IA tratta anche l'uso di modelli di IA per scopi generali (GPAI). I modelli GPAI che non presentano rischi sistemici saranno soggetti ad alcuni requisiti limitati, ad esempio per quanto riguarda la trasparenza, ma quelli che presentano rischi sistemici dovranno rispettare regole più severe. 

Una nuova architettura di governance

Per garantire un'applicazione adeguata, sono stati istituiti diversi organi di governo:

 

un Ufficio AI all'interno della Commissione per far rispettare le norme comuni in tutta l'UE;

un gruppo scientifico di esperti indipendenti per sostenere le attività di applicazione delle norme;

un comitato per l'IA con rappresentanti degli Stati membri per consigliare e assistere la Commissione e gli Stati membri nell'applicazione coerente ed efficace della legge sull'IA;

un forum consultivo per le parti interessate che fornisca competenze tecniche al comitato per l'IA e alla Commissione. 

 
Le sanzioni

Le ammende per le infrazioni alla legge sull'IA sono fissate come una percentuale del fatturato annuo globale dell'azienda trasgressore nell'esercizio finanziario precedente o di un importo predeterminato, a seconda di quale sia più alto. Le PMI e le start-up sono soggette a sanzioni amministrative proporzionali. 

 

Trasparenza e tutela dei diritti fondamentali

 Prima che un sistema di intelligenza artificiale ad alto rischio venga utilizzato da alcuni enti che forniscono servizi pubblici, dovrà essere valutato l'impatto sui diritti fondamentali. Il regolamento prevede anche una maggiore trasparenza per quanto riguarda lo sviluppo e l'utilizzo dei sistemi di IA ad alto rischio. I sistemi di IA ad alto rischio e alcuni utenti di un sistema di IA ad alto rischio che sono enti pubblici dovranno essere registrati nella banca dati dell'UE per i sistemi di IA ad alto rischio e gli utenti di un sistema di riconoscimento delle emozioni dovranno informare le persone fisiche quando sono esposte a tale sistema.

 

Misure a sostegno dell'innovazione

La legge sull'IA prevede un quadro giuridico favorevole all'innovazione e mira a promuovere l'apprendimento normativo basato sull'evidenza. La nuova legge prevede che le sandbox di regolamentazione dell'IA, che consentono un ambiente controllato per lo sviluppo, la sperimentazione e la convalida di sistemi innovativi di IA, debbano anche consentire la sperimentazione di sistemi innovativi di IA in condizioni reali.