Una nuova fuga di dati sembra aver colpito ChatGPT esponendo ID e password di alcuni utenti ed accendendo nuovamente il dibattito sulla sicurezza dei dati.
Nel mese di marzo dello scorso anno un’enorme fuga di dati ha colpito ChatGPT. Prima che il chatbot venisse messo offline per risolvere il problema, alcuni utenti hanno avuto accesso a numerose cronologie di conversazioni di altri utenti; inoltre OpenAI ha riconosciuto la possibilità che fossero stati esposti i dati di pagamento di una piccola percentuale di abbonati a ChatGPT Plus. Ora sembra che si sia verificata una nuova fuga di dati.
Secondo quanto riportato da Ars Technica un loro utente ha avuto accesso agli ID e alle password dei clienti di un’azienda farmaceutica. L’utente ha ottenuto i dati di alcuni clienti che chiedevano assistenza per un portale dedicato alle prescrizioni mediche. La cosa che colpisce è che, a quanto pare, l’utente non ha chiesto a ChatGPT di consegnare queste informazioni. La sua query era ben diversa e per nulla correlata, visto che riguardava la ricerca di nomi intelligenti per i colori in una tavolozza; l’utente ha anche aggiunto che gli identificatori sono apparsi automaticamente nella cronologia delle conversazioni.
ChatGPT forniva anche un URL che, se cliccato, dava accesso a un numero ancora maggiore di identificatori e password. Non solo. Il chatbot ha rivelato anche il nome di un documento riservato dell’azienda colpita, l’oggetto di uno studio in corso e un script PHP.
A quanto pare OpenAI sta indagando sul rapporto e su quanto accaduto. Non è ancora chiaro se il problema possa essere più esteso e se si siano verificati altri casi non ancora emersi. Quel che è certo è che il tema della sicurezza dei dati personali resta centrale e che potrebbe essere utile cancellare i propri dati dalle conversazioni in modo da evitare che possano essere “intercettati” da altri utenti.