Google Lens è senza dubbio una delle app più intelligenti e utili di Google. Ieri giovedì 07 aprile, l’azienda ha iniziato a rendere disponibile una funzionalità innovativa in versione beta, il “multisearch”, che consentirà ricerche sul Web utilizzando immagini e filtri di testo per perfezionare i risultati della piattaforma di ricerca.
Multisearch è descritto come un “nuovo modo di cercare” su Google. Ad esempio, se un utente desidera cercare colori diversi per un vestito che ha trovato su Internet, deve solo salvare l’immagine del capo, accedervi tramite Google Lens e digitare il filtro desiderato, ad esempio “verde” – nel campo Aggiungi alla ricerca.
Le possibilità sono innumerevoli, dato che il grande motore di riconoscimento delle immagini tecnologico è in grado di identificare anche le diversificazioni di esseri e oggetti, come razze canine, specie vegetali, personaggi di fantasia e tanto altro ancora.
Puoi anche scattare una foto della tua pianta di rosmarino e includere il filtro “istruzioni per la cura” nella ricerca e Google troverà tutto quello che stai cercando. Tutto questo è possibile grazie ai progressi nell’intelligenza artificiale, tali da rendere il mondo intorno a noi più naturale e intuitivo sempre se usata in modo giusto.
Il modello utilizzato da Google Lens è il MUM (Multitask Unified Model). Lo strumento ha dimostrato la sua utilità in varie occasioni. Durante la pandemia, ad esempio, l’IA di Google ha contribuito al riconoscimento di oltre 800 varianti dei nomi dei vaccini Covid-19, in modo che gli utenti di tutto il mondo abbiano potuto avere accesso alle informazioni.
Lo strumento è ora disponibile in versione beta per Android tramite il Play Store. Per ora l’applicazione riconosce solo i filtri inseriti in lingua inglese e, secondo Google, i risultati più accurati si ottengono attualmente con gli acquisti online.