Riconoscere e contenere la disinformazione: l’UE sottolinea il ruolo dell’intelligenza artificiale per identificare e segnalare i contenuti generati da IA.
La disinformazione online continua a essere una minaccia globale e l’Unione Europea sta intensificando i suoi sforzi per combatterla. In un recente incontro con oltre 40 firmatari del codice di condotta sulla disinformazione online, Vera Jourova, la Commissaria Europea per i valori e la trasparenza, ha enfatizzato l’importanza di adottare tecnologie in grado di identificare chiaramente i contenuti generati dall’intelligenza artificiale (IA).
L’attuale scenario digitale è inondato da un flusso costante di informazioni, di cui una parte significativa può essere intenzionalmente fuorviante o falsa. Questa disinformazione può avere ripercussioni drammatiche su vari aspetti della vita sociale, politica e culturale. Ecco perché Jourova sottolinea l’importanza di una tecnologia che può aiutare a identificare e segnalare i contenuti generati da IA, come i deepfake, affinché gli utenti possano riconoscerli senza alcun dubbio.
I firmatari del codice, che ora ammontano a 44, rispetto ai 34 dell’anno scorso, includono giganti tecnologici come Google, Facebook e Microsoft, così come piccole entità del settore tech e altre organizzazioni. Questi firmatari sono impegnati a combattere la disinformazione e, come suggerito da Jourova, dovrebbero adottare tecnologie capaci di identificare e segnalare chiaramente i contenuti generati da IA.
Secondo Jourova, le nuove tecnologie basate sull’IA offrono notevoli opportunità in termini di efficienza e creatività. Tuttavia, c’è un lato oscuro che comporta nuovi rischi e potenziali conseguenze negative per la società, specialmente quando si tratta di disinformazione.
A oggi, la versione corrente del Codice, modificata e rafforzata dall’UE solo nel giugno dell’anno scorso, non considera i deepfake e non prevede misure per identificarli o etichettarli. Tuttavia, Jourova ha confermato l’intenzione di colmare questa lacuna nel prossimo futuro.
Gli approcci suggeriti includono l’obbligo per i fornitori di servizi che integrano l’IA generativa di implementare “protezioni necessarie per evitare che tali servizi possano essere utilizzati da attori malintenzionati per generare disinformazione”. Inoltre, i firmatari che offrono servizi con potenziale di diffusione di disinformazione generata da IA dovrebbero adottare “tecnologie per riconoscere tali contenuti ed etichettarli chiaramente agli utenti”.
Un interessante colpo di scena in questa discussione riguarda Twitter. Nota a tutti come una delle principali piattaforme di social media, Twitter faceva parte del gruppo dei firmatari fino al mese scorso. Tuttavia, l’azienda ha scelto di ritirarsi volontariamente, sollevando interrogativi sulle sue future intenzioni in termini di lotta alla disinformazione.
L’approccio proposto da Jourova rappresenta un passo significativo nella lotta alla disinformazione. Con l’aumento dell’uso dell’intelligenza artificiale nella generazione di contenuti, l’adozione di misure per identificare e segnalare i contenuti generati da IA è di fondamentale importanza. Speriamo che l’adozione di tali misure da parte dei firmatari del codice contribuisca a un internet più sicuro e informato.