L’IA sta entrando sempre più a far parte delle nostre vite, in un modo o nell’altro. Da quando però si è registrata l’incredibile ascesa di ChatGPT, Bard e di altri modelli linguistici di grandi dimensioni (LLM), si è sentito più volte parlare dei rischi posti dall’intelligenza artificiale. Ora, un gruppo di leader di alto profilo del settore ha firmato una dichiarazione che in una sola frase riassume questi timori.
“Mitigare il rischio di estinzione derivante dall’IA dovrebbe essere una priorità globale insieme ad altri rischi di portata sociale come le pandemie e la guerra nucleare.”
La dichiarazione è stata pubblicata sul sito web del Center for AI Safety e i firmatari sono un vero e proprio esercito dell’industria dell’IA, tra cui l’amministratore delegato di OpenAI Sam Altman, il responsabile di Google DeepMind Demis Hassabis e i ricercatori vincitori del premio Turing Geoffrey Hinton e Yoshua Bengio, considerati da molti i padrini dell’IA moderna.
A marzo, Musk, Steve Wozniak e più di 1.000 altre persone avevano chiesto una pausa di sei mesi sull’IA per consentire all’industria e al pubblico di mettersi effettivamente al passo con la tecnologia.
Sebbene l’IA abbia i suoi punti di forza, come abbiamo più volte rimarcato, presenta rischi di uso improprio e di danni attraverso deepfakes, disinformazione e altro, ma le LLM potrebbero anche cambiare il modo in cui vengono prodotti contenuti, arte e letteratura, con potenziali ripercussioni su numerosi posti di lavoro.
Il presidente degli Stati Uniti Joe Biden ha recentemente dichiarato che l’IA può aiutare ad affrontare alcune sfide, come le malattie e il cambiamento climatico, ma deve anche affrontare i potenziali rischi per la società, l’economia e la sicurezza. In un recente incontro alla Casa Bianca, Altman ha chiesto una regolamentazione dell’IA a causa dei rischi potenziali.
Con molte opinioni in circolazione, la nuova breve dichiarazione intende mostrare una preoccupazione comune sui rischi dell’IA, anche se questi non vengono esattamente definiti. L’intenzione è in definitiva quella di aprire ad una discussione relativa ai seri rischi legati all’IA avanzata.