Bumble ha rilasciato la versione open source della funzione AI Private Detector per aiutare la comunità tecnologica a combattere il cyberflashing.

Dal 2019, Bumble, l’app di incontri nata nel 2014, utilizza l’apprendimento automatico per proteggere i suoi utenti dalle foto oscene. Denominata Private Detector, la funzione esamina le immagini inviate per determinare se ritraggono contenuti inappropriati allo scopo principalmente di catturare foto di nudo non richieste. Quando viene intercettata un’immagine considerata inappropriata, l’app sfoca l’immagine incriminata, consentendo all’utente di decidere se visualizzarla, bloccarla o segnalare la persona che l’ha inviata.

In un post sul blog, Bumble ha annunciato l’open-sourcing di Private Detector, rendendo disponibile il framework su Github. L’intento è quello di ampliare l’uso della funzione in modo da rendere “Internet un posto più sicuro”, ha dichiarato l’azienda e di aiutare ad affrontare il problema del cyberflashing. Per questo tra l’altro l’azienda ha collaborato negli anni con i legislatori perchè venissero approvati disegni di legge che hanno reso l’invio di foto oscene non richieste un reato punibile.

Le avance sessuali indesiderate sono purtroppo una realtà frequente per molte persone sia online che nel mondo reale. Uno studio del 2020 condotto nel Regno Unito ha rilevato che al 76% delle ragazze di età compresa tra i 12 e i 18 anni sono state inviate immagini di nudo non richieste. Il problema si estende anche al di là delle app di incontri, con app come Instagram che stanno lavorando alle proprie soluzioni.

Articolo precedentevivo X90, le specifiche chiave emergono prima del lancio
Articolo successivoDimensity 9200 si mostra in benchmark AnTuTu
Carolina Napolano
La tecnologia, roba da donne: ecco la blogger per promuovere il lato rosa della tecnologia.