Group-IB, un’azienda di intelligence sulle minacce con sede a Singapore, rivela una grave fuga di dati che coinvolge gli utenti di ChatGPT, esortando a cambiare le password immediatamente.
L’azienda di intelligence sulle minacce Group-IB, con sede a Singapore, ha individuato le credenziali di oltre 100.000 account ChatGPT, che sono già in vendita sul dark web, secondo quanto riportato da The Hacker News.
Group-IB, specializzata in cybersicurezza, riferisce che ChatGPT ha subito una nuova violazione di sicurezza che ha permesso a criminali informatici di accedere a più di 100.000 credenziali. Queste credenziali appartengono agli utenti che hanno effettuato l’accesso a ChatGPT tra il lancio del servizio nel giugno 2022 e maggio 2023, il che significa che la violazione è ancora attuale.
Gli utenti più colpiti sembrano provenire dagli Stati Uniti, Francia, Marocco, Indonesia, Pakistan e Brasile. Il problema si complica dal fatto che queste credenziali sono già in vendita sul dark web, ponendo potenzialmente in pericolo gli account degli utenti coinvolti. Pertanto, è fortemente consigliabile cambiare immediatamente la password dell’account.
Ma come sono state rubate le credenziali di ChatGPT? Secondo i ricercatori, i criminali informatici hanno utilizzato un software per il furto di informazioni per depredare gli account. Questi cosiddetti “ladri di informazioni” sono una categoria di malware che mira a rubare i dati dell’account memorizzati in applicazioni come client di posta elettronica, browser web, messaggistica istantanea, servizi di gioco, portafogli di criptovalute e altro.
Il principale sospettato sembra essere Racoon, un noto malware russo scoperto per la prima volta nel 2019. La campagna di hacking fu sospesa all’inizio dello scorso anno a seguito della morte del suo creatore, ma riprese tre mesi dopo con una versione aggiornata e migliorata.
Nonostante possa sembrare un incidente innocuo, questa violazione può effettivamente presentare significativi problemi di sicurezza. Infatti, ChatGPT conserva per impostazione predefinita tutte le richieste degli utenti e le risposte dell’IA. Di conseguenza, un accesso non autorizzato agli account ChatGPT può rivelare dati privati o sensibili che possono essere utilizzati per lanciare attacchi mirati alle aziende e ai loro dipendenti.
Per prevenire tali violazioni, Google e Apple hanno già vietato ai loro dipendenti di condividere informazioni sensibili tramite chatbot. In particolare, Samsung ha emesso questo divieto dopo aver scoperto che i suoi sviluppatori utilizzavano ChatGPT per correggere errori nel codice interno dei prodotti dell’azienda.