Gruppi di hacker governativi stanno impiegando strumenti di intelligenza artificiale come quella di ChatGPT per portare a termine i loro attacchi informatici.
Microsoft e OpenAI hanno rivelato che diversi gruppi di hacker, riconducibili a enti governativi di Cina, Russia, Corea del Nord e Iran, stanno facendo uso degli strumenti di intelligenza artificiale generativa (GAI) per rafforzare le loro operazioni di cyberattacco. Questa scoperta è rilevante al fine di comprendere come l’IA possa essere utilizzata in contesti malevoli a livello internazionale.
Le aziende hanno descritto come questi cybercriminali impiegano l’IA generativa per una serie di attività criminali, tra cui il debugging del codice, la ricerca di informazioni open-source per identificare obiettivi, lo sviluppo di tecniche di ingegneria sociale, la stesura di e-mail di phishing e la stesura di testi. La risposta di OpenAI, la forza motrice dietro ChatGPT e i prodotti AI di Microsoft come Copilot, è stata quella di bloccare l’accesso di tali gruppi ai suoi sistemi non appena è stato rilevato il loro utilizzo improprio.
Uno dei gruppi implicati, il collettivo russo Forest Blizzard, avrebbe utilizzato gli strumenti di OpenAI per ricerche open source su protocolli di comunicazione satellitare e tecnologia di imaging radar, oltre che per supportare le attività di scripting. Questo impiego dell’IA da parte di hacker dimostra la potenziale versatilità degli strumenti GAI nel facilitare attività illecite.
Microsoft, che monitora circa 300 gruppi di hacker, inclusi gruppi di hacker governativi, ha condiviso le proprie informazioni con OpenAI per identificare e neutralizzare questi utenti malevoli. La collaborazione tra le due aziende sottolinea l’importanza di un approccio congiunto nella lotta contro le minacce informatiche potenziate dall’IA.
OpenAI ha sottolineato il proprio impegno nell’investire risorse per individuare e interrompere le attività dannose. Utilizzando una serie di metodologie per analizzare l’uso dei suoi sistemi da parte degli hacker, inclusa l’applicazione dei propri modelli IA per tracciare le loro attività, OpenAI cerca di capire meglio le intenzioni e gli obiettivi di questi gruppi. Una volta individuati, l’azienda adotta misure decisive per interrompere il loro accesso, come la chiusura degli account e la terminazione dei servizi.