L’Unione Europea presenta una bozza di codice per l’AI generativa con regole su trasparenza, sicurezza e gestione dei rischi. Feedback aperti fino a novembre.
L’Unione Europea ha pubblicato la prima bozza di un codice di condotta per i modelli di IA per scopi generali (GPAI). Il documento rappresenta il primo passo per definire linee guida chiare per la gestione dei rischi legati all’IA, fornendo alle aziende un piano concreto per conformarsi ed evitare sanzioni pesanti. L’AI Act dell’UE, entrato in vigore il 1° agosto, aveva lasciato spazio per ulteriori dettagli specifici sui regolamenti dei modelli GPAI, e ora questa bozza cerca di colmare quelle lacune. Le parti interessate hanno tempo fino al 28 novembre per inviare il proprio feedback e contribuire a perfezionare il documento, che dovrebbe essere finalizzato entro il 1° maggio 2025.
I modelli di AI generativa per scopi generali sono definiti come quelli addestrati con una potenza di calcolo superiore a 10²⁵ FLOP. Tra le aziende coinvolte dalle nuove linee guida dell’UE ci sono OpenAI, Google, Meta, Anthropic e Mistral, ma è probabile che la lista si allunghi con l’evoluzione della normativa.
La bozza del codice affronta diversi aspetti fondamentali, tra cui la trasparenza, la conformità al copyright, la valutazione del rischio e la mitigazione del rischio sia tecnico che governativo. Tra i punti chiave emerge l’importanza della trasparenza nello sviluppo dell’IA, con l’obbligo per le aziende di fornire informazioni dettagliate sui web crawler utilizzati per addestrare i loro modelli. I titolari di copyright e i creatori di contenuti sono particolarmente interessati a questa tematica, poiché sono preoccupati per possibili violazioni dei loro diritti.
Un’altra area importate trattata dal codice riguarda la valutazione dei rischi. L’obiettivo è prevenire problemi come reati informatici, discriminazioni e il potenziale rischio di perdita di controllo sull’AI, un tema che da sempre preoccupa sia esperti che cittadini comuni. Le aziende devono adottare un Safety and Security Framework (SSF) per organizzare le loro politiche di gestione del rischio e mitigare i rischi in proporzione alla loro portata.
Il codice include anche regole per la protezione dei dati dei modelli, la fornitura di controlli di accesso a prova di errore e la rivalutazione continua dell’efficacia delle misure adottate. La sezione sulla governance mira a responsabilizzare le aziende, richiedendo una valutazione costante dei rischi e, se necessario, l’intervento di esperti esterni per garantire un adeguato controllo.
Come per altre normative europee in campo tecnologico, le sanzioni per chi viola l’AI Act possono essere molto severe. Le aziende rischiano multe fino a 35 milioni di euro o fino al 7% dei profitti annuali globali, a seconda di quale sia la cifra più alta.
Con il feedback aperto fino a novembre e la finalizzazione delle regole prevista per maggio 2025, il codice di condotta dell’UE per l’IA punta a stabilire standard chiari e condivisi per un utilizzo responsabile dell’IA. Le aziende tecnologiche devono prepararsi ad adeguarsi a queste nuove normative, che mirano a bilanciare innovazione e sicurezza, proteggendo al contempo i diritti di utenti e creatori di contenuti.