Il gruppo Alphabet, la società madre di Google, sta esortando i suoi dipendenti a essere vigili quando utilizzano chatbot AI come ChatGPT e persino Bard. Perché lo fanno? Per paura di vedere le sue IA recuperare e condividere informazioni riservate.
Come la maggior parte delle aziende che partecipano alla corsa all’intelligenza artificiale, Google vuole procedere con cautela. Così come Alphabet, la società madre del gigante del web.
Secondo un rapporto condiviso da Reuters, il gruppo sta invitando i suoi dipendenti a esercitare una certa vigilanza quando utilizzano chatbot come ChatGPT e persino Bard, l’IA conversazionale di Google. In particolare, Alphabet invita i suoi dipendenti a non utilizzare informazioni riservate quando interagiscono con queste IA.
Alphabet (Google) teme fughe di notizie sui chatbot AI
I timori di Alphabet sono del tutto legittimi, nel senso che queste IA sfruttano l’apprendimento automatico per migliorare nel tempo. In effetti, nulla impedisce loro di riprodurre e condividere i dati sensibili raccolti durante le conversazioni precedenti.
Il Gruppo ha anche chiesto ai suoi ingegneri di non utilizzare il codice informatico su cui si basa Bard direttamente nel chatbot. Anche in questo caso, l’idea è di evitare fughe di notizie che potrebbero mettere a rischio la sicurezza del chatbot. Si noti che Google non è l’unica azienda ad aver messo in guardia i propri dipendenti dall’uso di chatbot accessibili al pubblico. Anche diversi grandi attori dell’industria tecnologica, tra cui Samsung, Apple e Amazon, hanno introdotto misure di salvaguardia.
Molti professionisti usano i chatbot senza preoccuparsi dei rischi
Queste misure sono necessarie, come ha dimostrato uno studio pubblicato nel gennaio 2021 dal social network professionale Fishbowl. Secondo questo sondaggio condotto su 12.000 persone, il 43% dei professionisti intervistati ha utilizzato chatbot pubblici nell’ambito del proprio lavoro senza informare i propri superiori.
Come sappiamo, i ChatGPT e altre IA conversazionali sono perfettamente in grado di redigere e-mail e documenti complessi, compresi i software. Se da un lato sono quindi strumenti fantastici per facilitare il lavoro di molti professionisti, dall’altro i contenuti generati possono contenere informazioni errate, riservate o protette.
Il 1° giugno, Google ha preso l’iniziativa con una nota condivisa con i suoi dipendenti, in cui si legge: “Non includere informazioni riservate o sensibili nelle tue conversazioni con Bard”. Secondo Matthew Prince, CEO di Cloudflare, inserire dati sensibili in chatbot pubblici è come “affidare a un gruppo di dottorandi tutti i vostri file privati”. È una buona sintesi.