Scopriamo come ARCore Google, la piattaforma SDK di Google per la realtà aumentata, sta rivoluzionando le esperienze digitali su oltre 1,4 miliardi di smartphone compatibili. Dai giochi come Pokémon GO alle funzioni avanzate di Live View su Google Maps Live View, ARCore integra perfettamente oggetti digitali nel mondo fisico. Con tecnologie avanzate come il tracciamento del movimento e la stima della luce, ARCore di Google offre esperienze AR realistiche e immersive. Esplora come questa potente piattaforma sta ridefinendo la nostra interazione con l’ambiente circostante e prepara il terreno per un futuro dove la realtà aumentata diventerà parte integrante della nostra vita quotidiana.

Se non siete sviluppatori Android, potreste non aver mai sentito parlare di ARCore durante una conversazione. La piattaforma ARCore SDK (Augmented Reality Core Software Development) è stata utilizzata per creare le esperienze di realtà aumentata presenti in molte app Android e iOS. Con oltre 1,4 miliardi di smartphone compatibili con l’AR in tutto il pianeta, Google ARCore Google è una piattaforma leader per lo sviluppo della realtà aumentata.

I migliori smartphone Android, compresi i Google Pixel, hanno le capacità hardware per supportare l’AR, ma non è sempre stato così. Qualsiasi dispositivo mobile che utilizzi la AR deve avere una buona fotocamera, sensori specifici e una potenza di elaborazione sufficiente. Perché l’AR funzioni, il dispositivo deve tracciare il movimento, stimare l’illuminazione e avere una comprensione di base dell’ambiente.

Come ARCore integra gli oggetti digitali nel mondo fisico

Se avete mai usato Google Lens o Live View di Google Maps, avete usato la tecnologia AI sviluppata con ARCore. Google ha rilasciato ufficialmente la sua piattaforma di sviluppo AR come concorrente di ARKit di Apple nel marzo 2018, rendendo lo sviluppo AR disponibile a chiunque sia in grado di eseguire l’SDK.

La realtà aumentata si distingue dalla realtà virtuale, anche se possono essere utilizzate insieme. Le funzionalità principali sono tre. Le app AR rilevano e comprendono gli oggetti presenti nell’ambiente fisico, utilizzano luci e ombre simili alla realtà e mantengono ogni oggetto digitale ancorato al suo posto quando si sposta il telefono. Vediamo insieme come funzionano.

1. Tracciamento del movimento

La realtà aumentata utilizza la visual-interial odometry (VIO) per osservare l’ambiente (visuale), stimare la velocità di un oggetto (inerzia) e la variazione di posizione nel tempo (odometria). I dati dello smartphone vengono utilizzati per posizionare l’utente e gli oggetti digitali nell’ambiente e mantenere precise le posizioni in caso di spostamento dell’utente o del telefono.

Per fare ciò, i dati della fotocamera vengono combinati con quelli dell’accelerometro e del giroscopio. La fotocamera viene utilizzata per il rilevamento delle caratteristiche, mappando elementi come bordi, angoli, texture, piani, pavimenti, persone e altri punti di interesse visivo.

L’accelerometro e il giroscopio calcolano la posizione e l’orientamento del dispositivo, in modo che il dispositivo sappia dove si trovano tutti gli elementi mappati, anche se non sono temporaneamente visibili o se il telefono è girato ad angolo. Il rilevamento continuo del movimento di questi elementi in relazione alla posizione della fotocamera consente di mantenere gli oggetti nella posizione in cui dovrebbero trovarsi.

2. Stima della luce

In molte esperienze utente, la stima della luce può essere impercettibile o non riconosciuta. Il dispositivo mappa la posizione delle sorgenti luminose e questi dati vengono utilizzati per creare luci, ombre, ombre e riflessi realistici per gli oggetti digitali. Il sensore LiDAR (Light Detection and Ranging) del dispositivo è uno dei sensori utilizzati a questo scopo. Se ben fatto, questo fa la differenza nella credibilità dell’oggetto digitale nel mondo reale.

Se avete mai giocato o visto Pokémon GO, questo può essere semplice come creare ombre per i Pokémon, facendo sembrare che siano in piedi sul terreno o che fluttuino nell’aria. Senza queste ombre, sarebbe più difficile capire quale sia la loro posizione reale. Sembrerebbe che siano stati incollati in un’immagine piuttosto che in un ambiente 3D.

3. Comprensione dell’ambiente

Oltre all’illuminazione, ci sono tre cose principali che Google ARCore deve capire dell’ambiente circostante. Uno dei più importanti è il rilevamento dei piani. Affinché un oggetto appaia come se si trovasse nel mondo reale, soprattutto se si trova sopra qualcosa, deve sembrare che si trovi esattamente su quella superficie. Il rilevamento dei piani cerca i punti che formano piani orizzontali o verticali, come pareti, pavimenti o tavoli.

Vengono anche generate nuvole di punti, in cui le caratteristiche rilevate intorno all’utente ricevono un punto 3D, creando un set di dati con diversi punti che rappresentano diversi tipi di dati. È come i punti di una persona o di un animale che si possono vedere durante la cattura del movimento per i film, ma ce ne sono tonnellate posizionate su tutto ciò che ci circonda. Quando viene mappato un piano o un punto specifico, gli sviluppatori ARCore possono inserire dei punti di ancoraggio, che fissano l’oggetto virtuale nel punto in cui è stato posizionato. In questo modo, l’oggetto sarà dove ci si aspetta che sia, anche se ci si muove molto.

Molte di queste informazioni vengono raccolte attraverso il rilevamento della luce e il raggio d’azione (LiDAR) e la mappatura della profondità, che scansionano l’ambiente e inviano stime della profondità tra i diversi punti dell’ambiente e la fotocamera del telefono. In altre parole, Google ARCore cerca una mappa della distanza tra il telefono e i vari oggetti nell’ambiente. In questo modo si crea una sorta di memoria visiva 3D dell’ambiente e si tiene traccia dei cambiamenti nell’ambiente catturati dalla fotocamera o dai sensori in tempo reale.

La realtà aumentata ha ancora molto spazio di crescita.

La novità di ARCore Google è l’API geospaziale, che sfrutta le informazioni raccolte da Google Maps e Street Views e consente agli sviluppatori di utilizzarle per migliorare le proprie app. Si tratta di un’ottima funzione per il geocaching, per i giochi basati sulla geo-identificazione come Pokémon GO e per la mappatura delle informazioni ancorate a luoghi specifici del mondo. Ad esempio, si può puntare la fotocamera del telefono verso un ristorante e vedere un menu virtuale davanti a sé. Oppure, mentre si cammina in un giardino botanico, si può puntare lo smartphone su una pianta per vedere un’etichetta con il nome della pianta e altre informazioni su di essa.

Grazie a sensori sempre più precisi, a fotocamere migliori e a una maggiore potenza di calcolo, la realtà aumentata si avvia a diventare qualcosa di più che posizionare oggetti dall’aspetto digitale in un ambiente. ARCore di Google ha contribuito a promuovere la crescita dello sviluppo della realtà aumentata e continuerà ad aiutare gli sviluppatori a esplorare diversi casi d’uso. Tra non molto, quando farete shopping online e userete la AR per vedere un prodotto nella vostra stanza o per provare degli occhiali, vedrete dimensioni più precise e una perfetta integrazione nell’ambiente reale.

Articolo precedenteGoogle sotto accusa per la raccolta di dati sensibili degli utenti
Articolo successivoXiaomi Pad 7: nuova generazione di tablet, Pad 7 Pro globale

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui