Quando esploriamo nuovi luoghi, le recensioni su Google Maps rappresentano una fonte di conoscenza locale che può indirizzarci verso i posti e le attività che preferiamo. Che si tratti del fornaio con le migliori torte senza glutine o del ristorante vicino a casa che fa musica dal vivo. Con milioni di recensioni pubblicate ogni giorno dalle persone di tutto il mondo, il team di assistenza lavora incessantemente per fare in modo che le informazioni su Google siano sempre pertinenti e precise. Poiché gran parte del lavoro per impedire la pubblicazione di contenuti inappropriati avviene dietro le quinte, ecco alcuni dettagli su ciò che succede quando pubblichiamo una recensione.
Come vengono applicate le norme
Sono state create rigide norme relative ai contenuti per assicurare che le recensioni siano basate su esperienze reali e per evitare la pubblicazione di commenti offensivi e non pertinenti sui Profili delle attività su Google. Le norme e misure di protezione si evolvono di pari passo con i cambiamenti intorno a noi. In questo modo, si può impedire la pubblicazione di contenuti fuori tema o con spam per luoghi o attività che potrebbero essere soggetti a potenziali abusi. Ad esempio, quando i governi e le attività hanno iniziato a chiedere una prova del vaccino anti COVID-19 per consentire l’accesso in determinati luoghi, sono state adottate misure di protezione aggiuntive per rimuovere le recensioni Google che criticavano un’attività per le sue norme in materia di salute e sicurezza o per l’applicazione delle disposizioni relative all’obbligo vaccinale. Dopo aver redatto una norma, viene creato il materiale didattico corrispondente, sia per gli operatori che per gli algoritmi di machine learning, in modo da aiutare il team a riconoscere i contenuti che violano le norme e in definitiva a mantenere le recensioni su Google utili e autentiche.
Moderare le recensioni grazie al Machine Learning
Non appena un utente pubblica una recensione, viene inviata al sistema di moderazione per assicurare che non violi nessuna delle norme. Il sistema di moderazione è come una guardia di sicurezza che impedisce alle persone non autorizzate di entrare in un edificio, con la differenza che il team impedisce ai contenuti illeciti di essere pubblicati su Google. Dato il volume di recensioni ricevute regolarmente, Google si è reso conto di aver bisogno sia del contributo umano – più attento alle sfumature di ogni contenuto – che di quello delle macchine – che invece riescono ad agire su grande scala – hanno punti di forza diversi, quindi si continua a investire enormemente in entrambi. Il Machine Learning è la prima linea di difesa poiché in grado di identificare determinati schemi. Spesso, questi schemi consentono loro di determinare immediatamente se i contenuti sono legittimi in modo da rimuovere la grande maggioranza di contenuti falsi e fraudolenti prima che qualcuno li veda. Le macchine analizzano le recensioni da diverse angolazioni, ad esempio:
- I contenuti della recensione: si tratta di contenuti offensivi o fuori tema?
- L’account che ha lasciato la recensione: in passato sono già stati riscontrati comportamenti sospetti di questo Account Google?
- Il luogo in questione: sono stati registrati comportamenti insoliti, ad esempio abbondanza di recensioni in un breve periodo di tempo, per questo luogo o questa attività? Di recente, ha ricevuto attenzioni nei canali di notizie o sui social media che potrebbero indurre le persone a lasciare recensioni fraudolente?
Insegnare a una macchina a riconoscere la differenza tra i contenuti accettabili e quelli che violano le norme è un’operazione delicata. Ad esempio, a volte il termine “gay” viene usato in senso dispregiativo e questo non è tollerato nelle recensioni su Google. Tuttavia, se insegniamo ai modelli di machine learning che questo termine viene usato solo in contenuti di incitamento all’odio, potremmo rimuovere erroneamente delle recensioni che promuovono un’attività gay-friendly o uno spazio rispettoso della comunità LGBTQIA+. Gli operatori umani eseguono frequenti test sulla qualità e seguono corsi formativi aggiuntivi per rimuovere i bias dai modelli di machine learning. Addestrando accuratamente i modelli riguardo a tutti i modi in cui determinate parole o frasi vengono usate, migliora la capacità di riconoscere i contenuti che violano le norme e si riduce la possibilità di bloccare inavvertitamente la pubblicazione di recensioni legittime. Se i sistemi non rilevano violazioni delle norme, la recensione può essere pubblicata in pochi secondi, ma il lavoro non si ferma lì. I sistemi continuano ad analizzare i contenuti pubblicati e cercano schemi discutibili. Questi schemi possono essere di qualsiasi tipo, da un gruppo di persone che lascia recensioni sulla stessa serie di profili delle attività fino a un luogo o un’attività che riceve un numero insolitamente elevato di recensioni con 1 o 5 stelle in un breve periodo di tempo.
Mantenere le recensioni autentiche e affidabili
Come in qualsiasi piattaforma che ospita contributi generati dagli utenti, Google si impegna attentamente per impedire la pubblicazione di contenuti fraudolenti e illeciti su Maps. Parte di questo lavoro è semplificare l’utilizzo di Google Maps per consentire alle persone di segnalare recensioni che violano le norme. Se ritenete che una recensione su Google violi le norme, vi incoraggiamo a segnalarla al team, a questo link per le imprese e a questo link per gli utenti. Il team di operatori umani lavora costantemente per rivedere i contenuti segnalati. Quando trovano recensioni che violano le norme, le rimuovono da Google e, in alcuni casi, sospendono l’account utente o addirittura avviano una controversia. Oltre a esaminare i contenuti segnalati, il team lavora per identificare potenziali rischi di abusi, il che può ridurre notevolmente la probabilità di successo di attacchi di questo tipo. Ad esempio, nel caso di un evento imminente con un seguito significativo come le elezioni, si effettuano controlli e applicano le misure di protezione in modo proattivo per i luoghi associati all’evento e altre attività nelle vicinanze che le persone potrebbero cercare su Maps. Si continua a monitorare questi luoghi e attività finché il rischio di abuso non è cessato, nell’ambito dell’obiettivo di pubblicare solo recensioni autentiche e affidabili. L’investimento nell’analisi e nella comprensione dei modi in cui il contenuto fornito può essere abusato è stato fondamentale per tenere un passo avanti ai malintenzionati. Con oltre un miliardo di persone che utilizzano Google Maps ogni mese per navigare ed esplorare, Google vuole assicurarci che le informazioni che vedono, soprattutto le recensioni, siano affidabili per tutti.