AI Act: via libera definitivo del Consiglio UE alla legge sull’Intelligenza artificiale

21 Maggio 2024 in Normativa

Il nuovo regolamento europeo sull’intelligenza artificiale, l’Artificial Intelligence Act, già in precedenza approvato il 13 marzo 2024 dal Parlamento Europeo con 523 voti favorevoli, 46 contrari e 49 astensioni, ha ottenuto, il 21 maggio, il via libera all’unanimità dal Consiglio europeo.

Dopo essere stato firmato dai presidenti del Parlamento europeo e del Consiglio, l’atto legislativo sarà pubblicato nella Gazzetta ufficiale dell’UE nei prossimi giorni ed entrerà in vigore venti giorni dopo la presente pubblicazione.

Il nuovo regolamento si applicherà due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche. 

Pubblichiamo il testo Artificial Intelligence Act, che era stato approvato a marzo, il testo nuovo o modificato è evidenziato in grassetto corsivo e le soppressioni sono segnalate con il simbolo ▌

Con il termine intelligenza artificiale (IA) si indica una famiglia di tecnologie in rapida evoluzione in grado di apportare una vasta gamma di benefici economici e sociali in tutto lo spettro delle attività industriali e sociali.

Lo scopo del presente regolamento è migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, l'immissione sul mercato, la messa in servizio e l'uso di sistemi di intelligenza artificiale (sistemi di IA) nell'Unione, in conformità dei valori dell'Unione, promuovere la diffusione di un'intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell'Unione europea (la "Carta"), compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente, contro gli effetti nocivi dei sistemi di IA nell'Unione nonché promuovere l'innovazione.

Il presente regolamento garantisce la libera circolazione transfrontaliera di beni e servizi basati sull'IA, impedendo così agli Stati membri di imporre restrizioni allo sviluppo, alla commercializzazione e all'uso di sistemi di IA, salvo espressa autorizzazione del presente regolamento.

La nuova legge classifica diversi tipi di intelligenza artificiale a seconda del rischio:

  • I sistemi di intelligenza artificiale che presentano solo un rischio limitato sarebbero soggetti a obblighi di trasparenza molto leggeri, 
  • mentre i sistemi di intelligenza artificiale ad alto rischio sarebbero autorizzati, ma soggetti a una serie di requisiti e obblighi per accedere al mercato dell'UE. 

I sistemi di intelligenza artificiale come, ad esempio, la manipolazione comportamentale cognitiva e il punteggio sociale saranno banditi dall’UE perché il loro rischio è ritenuto inaccettabile. 

La legge vieta inoltre l’uso dell’IA per la polizia predittiva basata sulla profilazione e sui sistemi che utilizzano i dati biometrici per classificare le persone in base a categorie specifiche come razza, religione o orientamento sessuale.

Vediamo brevemente alcuni degli obblighi principali che le imprese dovranno rispettare nell'ambito della proposta di regolamento sull'intelligenza artificiale. 

Obblighi delle Imprese

Viene adottato un approccio basato sul rischio per regolare i sistemi di IA, distinguendo tra sistemi ad alto rischio e altri sistemi. Per i sistemi di IA ad alto rischio, sono previsti obblighi specifici e più rigorosi, come la valutazione dei rischi e la conformità a standard elevati di affidabilità e sicurezza. 

Le imprese sono obbligate a garantire la trasparenza dei sistemi di IA, compresa la spiegabilità delle decisioni e dei processi decisionali automatizzati. Questo include l'obbligo di informare gli utenti quando interagiscono con un sistema di IA e di fornire adeguata documentazione tecnica e registrazioni. In particolare:

  • Trasparenza: Le imprese devono garantire che gli utenti siano informati quando interagiscono con un sistema di IA. Questo implica che gli utenti devono essere consapevoli del fatto che le decisioni che li riguardano sono prese con l'assistenza o sulla base di un sistema di IA. Inoltre, devono essere fornite informazioni sufficienti sul funzionamento dei sistemi di IA, sui dati utilizzati e sui principi di decisione, in modo da renderli comprensibili agli utenti.
  • Documentazione e Registrazioni: È richiesto che le imprese mantengano una documentazione dettagliata e registrazioni dei sistemi di IA, compresi gli algoritmi, i dati di addestramento e le procedure di decisione. Questo non solo aiuta nel garantire la trasparenza ma fornisce anche una base per la valutazione dell'impatto, la verifica della conformità e l'identificazione delle responsabilità in caso di dispute o danni.
  • Spiegabilità: I sistemi di IA dovrebbero essere progettati e implementati in modo che le loro decisioni siano spiegabili agli utenti e ai soggetti interessati. Ciò significa che gli utenti dovrebbero essere in grado di comprendere le ragioni alla base delle decisioni prese dai sistemi di IA, contribuendo così alla responsabilità e alla fiducia nell'uso dell'IA.
  • Responsabilità: Le imprese devono essere in grado di identificare chi è responsabile delle varie fasi del ciclo di vita di un sistema di IA, dall'ideazione all'implementazione e all'uso. Ciò include la responsabilità per la conformità ai principi etici, alle normative sulla protezione dei dati e ai requisiti di sicurezza. La chiara assegnazione della responsabilità è fondamentale per garantire che i diritti degli utenti siano protetti e che vi sia un punto di riferimento in caso di problemi.

Allegati:

Studio Mattavelli: Partner di impresa - Dottore Commercialista e Revisore Contabile - Partita IVA: 11883450154