Oltre 20 attacchi cyber confermati: ChatGPT è diventata uno strumento pericoloso nelle mani degli hacker. Leggi il nostro articolo per saperne di più.

L’intelligenza artificiale sta aprendo nuove strade, ma non sempre nella direzione desiderata. Secondo OpenAI, l’AI generativa, come ChatGPT, è stata coinvolta in più di venti cyberattacchi. Gli attacchi includono attività dannose come spear-phishing, sviluppo di malware e sfruttamento di vulnerabilità. Un dato preoccupante che solleva interrogativi su quanto l’IA possa diventare uno strumento pericoloso nelle mani sbagliate.

Due dei cyberattacchi confermati nel rapporto di OpenAI mettono in luce come ChatGPT sia stato utilizzato per attività criminali. Il primo, scoperto da Cisco Talos nel novembre 2023, è stato condotto da kacker cinesi che hanno preso di mira governi asiatici attraverso un attacco di spear-phishing noto come SweetSpecter. Questo metodo ha utilizzato un file ZIP dannoso che, una volta aperto, ha innescato una catena di infezione nel sistema della vittima. L’analisi ha dimostrato che più account ChatGPT sono stati utilizzati per creare script e individuare vulnerabilità, con l’aiuto di uno strumento di intelligenza artificiale.

Un altro attacco segnalato è stato orchestrato da un gruppo iraniano noto come CyberAv3ngers. In questo caso, ChatGPT è stato usato per rubare password da PC basati su macOS, sfruttando falle di sicurezza nei sistemi. Sempre dall’Iran, il gruppo Storm-0817 ha sviluppato un malware per Android utilizzando l’IA generativa. Il malware in questione poteva accedere ai contatti, registri delle chiamate, cronologia del browser e persino alla posizione dei dispositivi infetti.

Pur non sviluppando nuovi malware, i cybercriminali hanno ottimizzato tecniche esistenti tramite ChatGPT. Ciò dimostra come l’AI possa facilmente essere adoperata per generare strumenti nocivi, specialmente da chi possiede conoscenze tecniche fondamentali. OpenAI ha chiesto maggiori controlli sull’intelligenza artificiale generativa a causa dei potenziali rischi.

Nel tentativo di frenare questi abusi, OpenAI ha dichiarato di essere al lavoro per migliorare la sicurezza della propria IA, collaborando con team interni e condividendo le scoperte con altre aziende e ricercatori. Tuttavia, resta il timore che, mentre OpenAI si impegna a sviluppare possibili soluzioni, altri operatori del settore IA potrebbero non essere altrettanto preparati a fronteggiare minacce simili.

Articolo precedentePOCO C75 ufficiale: design e specifiche tecniche rivelate
Articolo successivoFujifilm X-M5 ufficiale: la mirrorless compatta e versatile
Team CEOTECH
La tecnologia dovrebbe arricchire la vita delle persone oltre a tutelare il pianeta.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui