Ogni giorno le persone si rivolgono a Google per capire come proteggere se stesse e le proprie famiglie. Che si tratti di mettere in risalto informazioni utili in caso di disastro naturale o informazioni sensibili in situazioni di emergenza sanitaria, Google si impegna ad aiutare gli utenti per trovare rapidamente le risposte di cui hanno bisogno. I progressi dell’intelligenza artificiale possono fare in modo che le nuove tecnologie aiutino le persone a rimanere al sicuro.
Vediamo come i sistemi di intelligenza artificiale permettono di aiutare le persone in situazioni di emergenza, evitando allo stesso tempo contenuti potenzialmente sensibili o dannosi, così da stare al sicuro, online e offline.
Informazioni affidabili e utili quando si ha più bisogno
Le persone utilizzano la Ricerca Google nei momenti che contano di più. Oggi, chi cerca su Google informazioni su suicidio, violenza sessuale, abuso di sostanze e violenza domestica, vedrà le informazioni di contatto per il numero verde nazionale più pertinente insieme ai risultati più rilevanti e di qualità disponibili.
Ma le persone che attraversano un momento di crisi personale fanno ricerche imprevedibili e non è sempre immediato il fatto che abbiano bisogno di aiuto. Se il sistema non riesce a riconoscerlo non può mostrare i risultati di ricerca più utili. Ecco perché l’applicazione del machine learning alla comprensione del linguaggio è così importante.
Utilizzando il suo ultimo modello di intelligenza artificiale, MUM, Google può rilevare automaticamente e con maggiore precisione una varietà più ampia di ricerche legate a momenti di crisi personale. MUM può comprendere meglio le motivazioni dietro le domande delle persone e rilevare quando una persona ha bisogno, il che aiuta a mostrare informazioni affidabili e fruibili in un dato momento. MUM verrà utilizzato per apportare questi miglioramenti nelle prossime settimane.
Evitare contenuti scioccanti inaspettati
Mantenere al sicuro gli utenti quando usano la Ricerca Google significa anche aiutarli ad evitare contenuti scioccanti che non stanno cercando. Può essere difficile, perché chi crea contenuti inappropriati a volte usa termini benevoli con riferimento a contenuti espliciti o allusivi. E i contenuti più diffusi, che corrispondono alla ricerca che si sta effettuando, potrebbero non essere quelli che si intendevano. In questi casi, anche se le persone non cercano direttamente contenuti espliciti, questi ultimi possono apparire tra i risultati.
Un modo per affrontare questo problema è con la modalità SafeSearch, che offre alle persone la possibilità di filtrare i risultati espliciti. Questa impostazione è attiva per impostazione predefinita per gli account Google per i minori di 18 anni. E anche quando le persone scelgono di disattivare SafeSearch, i sistemi Google riducono comunque i risultati indesiderati. Ogni giorno gli algoritmi di sicurezza migliorano centinaia di milioni di ricerche in tutto il mondo che si tratti di web, immagini o video.
Per ridurre i risultati imprevisti, vengono utilizzate tecnologie di intelligenza artificiale avanzate come BERT per capire meglio cosa le persone stanno cercando. Grazie a BERT il sistema riesce a capire meglio se le ricerche sono mirate a contenuti espliciti, aiutando a ridurre notevolmente le possibilità di incontrare risultati di ricerca inaspettati.
E’ una sfida complessa che l’azienda affronta da un po’, ma solo nell’ultimo anno, i miglioramenti di BERT hanno portato a una riduzione del 30% dei risultati scioccanti inaspettati. È stato particolarmente efficace nel ridurre i contenuti espliciti per le ricerche relative a etnia, orientamento sessuale e genere.
Ridimensionare i sistemi di protezione in tutto il mondo
MUM può trasferire la conoscenza attraverso le 75 lingue su cui è “addestrato”, il che aiuta Google a scalare le protezioni di sicurezza in tutto il mondo in modo molto più efficiente. Quando viene fornito un modello, come classificare la natura di una domanda, MUM impara a farlo in tutte le lingue che conosce.
Ad esempio, l’intelligenza artificiale viene usata per ridurre le pagine di spam inutili e talvolta pericolose nei risultati di ricerca. Nei prossimi mesi MUM verrà impiegato per migliorare la qualità delle protezioni anti spam e per identificare meglio le richieste legate a crisi personali in tutto il mondo, in collaborazione con partner di fiducia a livello locale.
Come ogni passo avanti della Ricerca, questi cambiamenti vengono sottoposti a una valutazione rigorosa, con il contributo dei valutatori di ricerca in tutto il mondo.