Dopo negoziati prolungati, l’UE stabilisce norme pionieristiche per il settore dell’intelligenza artificiale (IA), mirando a proteggere i diritti fondamentali e promuovere l’innovazione responsabile.
Dopo un periodo di intense speculazioni e attesa, l’Unione Europea ha finalmente raggiunto un accordo su un’innovativa legge che riguarda l’intelligenza artificiale (AI Act), posizionandosi come il primo continente a stabilire regole chiare per lo sviluppo di questa tecnologia emergente. L’accordo, risultato di un negoziato maratoniano di oltre 36 ore, è finalizzato a garantire che l’utilizzo dell’IA sia in linea con i principi fondamentali quali i diritti umani, la democrazia, lo Stato di diritto e la sostenibilità ambientale, promuovendo contemporaneamente l’innovazione.
L’AI Act è considerato un passo cruciale verso una governance europea responsabile nel campo dell’intelligenza artificiale. Il regolamento proposto stabilisce un quadro normativo chiaro per lo sviluppo e l’utilizzo dell’IA, in modo responsabile e rispettoso dei diritti fondamentali, e allo stesso tempo offre alle aziende opportunità di innovazione e concorrenza nel mercato.
Il testo dell’accordo, che ora deve essere formalmente adottato dal Parlamento europeo e dal Consiglio per diventare legge dell’UE, affronta alcuni dei punti più controversi e delicati legati all’uso dell’IA. Tra questi, i negoziatori hanno concordato una serie di salvaguardie e restrizioni per l’uso di sistemi di identificazione biometrica (RBI) in spazi pubblici per scopi di applicazione della legge, subordinati a autorizzazione giudiziaria e a elenchi di reati rigorosamente definiti.
In particolare, l’AI Act introduce divieti su:
- Sistemi di categorizzazione biometrica basati su caratteristiche sensibili come le convinzioni politiche, religiose e la razza.
- Raccolta indiscriminata di immagini del volto da Internet o da filmati CCTV per creare database di riconoscimento facciale.
- Riconoscimento delle emozioni nelle scuole e sul posto di lavoro.
- Pratiche di social scoring.
- Tecniche manipolative.
- IA utilizzata per sfruttare le vulnerabilità delle persone.
L’accordo impone inoltre una serie di obblighi per i sistemi di IA ad alto rischio, tra cui la necessità di una valutazione dell’impatto sui diritti fondamentali. Questi sistemi dovranno essere conformi alla normativa sulla protezione dei dati e dovranno implementare misure tecniche e organizzative per mitigare i rischi. Sarà inoltre richiesta una spiegazione chiara delle decisioni prese dai sistemi di IA ad alto rischio che hanno un impatto sulle persone.
I cittadini europei avranno il diritto di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni prese dai sistemi di IA ad alto rischio che influenzano i loro diritti.
La supervisione e l’attuazione dell’AI Act saranno affidate all’Agenzia europea per la sicurezza cibernetica (ENISA). Le violazioni delle norme stabilite potranno comportare multe fino a 35 milioni di euro o il 7% del fatturato globale dell’azienda in violazione, a seconda dell’infrazione e delle dimensioni dell’azienda.