Un nuovo modo per aggirare i meccanismi di sicurezza? Denis Shiryaev mostra come l’intelligenza artificiale di Bing Chat riesce a leggere o captcha.
Dal suo rilascio nel novembre 2022, l’intelligenza artificiale ChatGPT ha creato una vera e propria rivoluzione. Sempre più persone cercano di capire come sfruttare le potenzialità di questo nuovo strumento. E sembra che, nonostante le varie misure di sicurezza integrate, ci sia un modo per “ingannare” quest’IA, rendendola capace di infrangere certe regole.
In una rivelazione sorprendente, Denis Shiryaev ha condiviso su X (ex Twitter) una tecnica che sfrutta Bing Chat, l’IA conversazionale di Microsoft, per decifrare i captcha. Questi sistemi, creati per assicurarsi che chi accede a una piattaforma sia un essere umano e non un bot, sono ovunque sul web. Sebbene siano progettati per ostacolare gli attacchi automatici, risultano sorprendentemente facili da superare per potenti IA come il GPT-4.
OpenAI, consapevole delle capacità del suo LLM di riconoscere componenti visivi, ha espressamente vietato a ChatGPT di interpretare i captcha. Ma Shiryaev ha dimostrato che cambiando il contesto di una discussione con Bing Chat, si può bypassare tale restrizione. In pratica, ha trovato un modo per “confondere” l’intelligenza artificiale.
Le ramificazioni di questa scoperta sono significative. Se le IA possono essere “ingannate” in modo così semplice, ciò solleva questioni sulla loro sicurezza e affidabilità. Come sottolineato da un esperto intervistato da Ars Technica, questo metodo di manipolazione del contesto assomiglia più a un jailbreak, ovvero un metodo per eludere le restrizioni imposte dai produttori di software.
Queste tecniche non sono passate inosservate nel mondo della cyber-criminalità. ChatGPT, con le sue immense potenzialità, è diventato un bersaglio ambito. Secondo un rapporto di Europol, l’IA sta diventando lo strumento di predilezione per molti hacker, offrendo loro nuove tecniche e metodi per violare sistemi che prima erano considerati sicuri.