Big Sleep, l’IA di Google, ha scoperto una vulnerabilità in SQLite, una delle librerie di database più utilizzate al mondo. Ciò sottolinea il potenziale dell’intelligenza artificiale nella sicurezza informatica.
L’intelligenza artificiale continua ad essere al centro del dibattito, tra l’innovazione che rappresenta e che porta, anche nel quotidiano, e le sfide da affrontare, che siano legate alla sicurezza o alla privacy. Google, come ormai tutte le big tech, sta investendo molto nell’IA ed ha annunciato la scoperta di una vulnerabilità ad opera di Big Sleep, uno strumento AI precedentemente noto come Project Naptime. Questa è, di fatto, la prima vulnerabilità scoperta da un’AI annunciata pubblicamente. Secondo i criteri stabiliti, la falla doveva essere completamente sconosciuta, priva di exploit noti e presente in software largamente utilizzato nel mondo reale. A essere coinvolto è SQLite, una delle librerie di database più diffuse a livello globale.
Big Sleep ha individuato che in determinate condizioni SQLite può subire un errore di “stack buffer underflow”. In altre parole, il software potrebbe tentare di accedere a una posizione di memoria antecedente al buffer, con la possibilità di causare il crash del programma o, in alcuni casi, l’esecuzione di codice non autorizzato.
Come avviene spesso nel campo della sicurezza informatica, Google ha informato in anticipo gli sviluppatori di SQLite già il mese scorso, per dare loro il tempo di risolvere la vulnerabilità. Inoltre, il bug è stato rilevato su una versione sperimentale del database, riducendo i rischi per la vasta platea di siti e sistemi che lo utilizzano.
Big Sleep è un progetto relativamente nuovo. Il sistema è il frutto di una collaborazione tra DeepMind, la divisione specializzata in machine learning acquisita da Google, e Project Zero, il gruppo di esperti che si dedica all’individuazione di vulnerabilità zero-day in prodotti hardware e software di qualsiasi tipo.
Pensato per imitare il comportamento di un esperto umano nel rilevare falle, Big Sleep rappresenta un’ulteriore dimostrazione delle capacità dell’intelligenza artificiale nel campo della programmazione e della sicurezza. Google ha recentemente dichiarato che oltre il 25% del codice prodotto oggi è generato dall’IA, senza intervento umano. Big Sleep, inoltre, è in grado di produrre prove della vulnerabilità, come script Python eseguiti in ambienti protetti, per osservare direttamente gli effetti delle falle individuate.