Anthropic, Google, Microsoft e OpenAI formano un organo di supervisione sull’IA, ma la mancanza di Apple solleva dubbi e l’opinione degli esperti rimane divisa.
In un colpo di scena senza precedenti, quattro titani del settore tecnologico, Anthropic, Google, Microsoft e OpenAI, hanno unito le forze per creare il Frontier Model Forum, un organo progettato per sorvegliare l’evoluzione dell’intelligenza artificiale (IA). Il focus sono i modelli di machine learning di frontiera, che superano in capacità i modelli più avanzati attualmente disponibili. L’iniziativa segue una promessa fatta al presidente degli Stati Uniti, Joe Biden, e ufficializzata all’amministrazione il 21 luglio.
Queste quattro aziende, assieme ad Amazon, Meta e Inflection, si erano precedentemente impegnate verso la Casa Bianca a mettere in campo ogni misura necessaria per assicurare che i loro prodotti IA non rappresentassero un rischio per la sicurezza informatica, la biosicurezza e la sicurezza sociale. Tali fattori, infatti, rappresentano fonti di preoccupazione per molti esperti del settore. Eppure, una società sembra rimanere indifferente a queste problematiche: Apple, la cui assenza da entrambe le iniziative è stata notevole.
Non è dato sapere se Apple sia stata consultata dal Frontier Model Forum, ma la sua mancata partecipazione a un’azione precedente della Casa Bianca non è passata inosservata. Le motivazioni di tale scelta non sono chiare, ma sono possibili diverse spiegazioni. Forse Apple non considera i propri prodotti basati sull’IA pericolosi, o non desidera condividere segreti industriali con potenziali concorrenti, oppure semplicemente non vede il valore in un’iniziativa di questo tipo. È da sottolineare che Apple è già membro della Partnership Of AI, un’organizzazione con obiettivi simili a quelli del Frontier Model Forum, fondata nel 2016 in collaborazione con Microsoft e Google.
Non tutti, tuttavia, vedono queste iniziative con occhi favorevoli. Emily Bender, esperta di IA presso l’Università di Washington, le considera addirittura dannose. Secondo Bender, dovrebbero essere i governi, come rappresentanti del popolo, a imporre limiti alle grandi aziende, piuttosto che quest’ultime auto-regolarsi, un comportamento che lei interpreta come un tentativo di aggirare le regole. Tuttavia, per implementare regole efficaci, è indispensabile che gli organi governativi siano in grado di destreggiarsi nel complesso universo della tecnologia, un compito tutt’altro che semplice.
L’istituzione del Frontier Model Forum rappresenta quindi un passo significativo nel tentativo di stabilire un controllo sull’IA e i suoi progressi, ma la strada verso una regolamentazione efficace ed equa è ancora lunga e piena di ostacoli. La mancanza di Apple, uno dei leader nel campo dell’IA, solleva interrogativi e la divisione di opinioni tra gli esperti sottolinea la complessità della questione. Sarà interessante vedere come si svilupperà la situazione nei prossimi mesi.