Nintendo

Google cambia la ricerca delle informazioni con l’obiettivo si renderla più naturale e intuitiva a beneficio degli utenti. In occasione di Search On 2022 il colosso di Mountain View ha mostrato come i progressi dell’intelligenza artificiale stanno consentendo di trasformare ancora una volta i prodotti, andando ben oltre la casella di ricerca per creare esperienze di ricerca che funzionino come le nostre menti e che siano multidimensionali come le nostre persone. Obiettivo: “ricreare” un mondo in cui l’utente è in grado di trovare esattamente ciò che cerca combinando immagini, suoni, testo e voce, proprio come nella vita di tutti i giorni. Ma ecco le tre novità mostrate da Google a Search On edizione 2022.

Per una ricerca visiva più naturale

Le fotocamere esistono da centinaia di anni e di solito sono considerate un modo per conservare i ricordi o per creare contenuti. Ma una fotocamera è anche un modo potente per accedere alle informazioni e comprendere il mondo che ci circonda, tanto che la secondo Google fotocamera sarà la prossima tastiera. La Big Tech nel 2017 ha introdotto Lens, che consente di cercare ciò che si vede utilizzando la fotocamera o un’immagine. Ora, l’era della ricerca visiva è arrivata: le persone usano Lens per rispondere a 8 miliardi di domande ogni mese. In tal senso, il passo in avanti è quello di rendere la ricerca visiva ancora più naturale con la ricerca multipla, un modo completamente nuovo di effettuare ricerche utilizzando contemporaneamente immagini e testo, in modo simile a come potreste trovarvi a indicare qualcosa e chiederne a un amico. Per questo a inizio anno è stata introdotta la ricerca multipla beta negli Stati Uniti e, in occasione di Search On, abbiamo annunciato che la estenderemo a più di 70 lingue nei prossimi mesi. Stiamo portando questa funzionalità ancora più avanti con “multisearch near me”, che consente di scattare una foto di un oggetto sconosciuto, come un piatto o una pianta, e di trovarlo in un luogo vicino, come un ristorante o un negozio di giardinaggio. Inizieremo a diffondere “multisearch near me” in inglese negli Stati Uniti quest’autunno. Gif mostra come sia possibile utilizzare l’app Google per effettuare ricerche utilizzando contemporaneamente immagini e testo, scattando una foto e aggiungendo poi del testo alla query. La ricerca multipla consente un modo completamente nuovo di effettuare ricerche utilizzando contemporaneamente immagini e testo.

Google: il nuovo modo tradurre il mondo che ci circonda

Uno degli aspetti più potenti della comprensione visiva è la sua capacità di abbattere le barriere linguistiche. Le persone utilizzano già Google per tradurre il testo delle immagini oltre 1 miliardo di volte al mese, in più di 100 lingue, in modo da poter leggere istantaneamente vetrine, menu, insegne e altro ancora. Ma spesso è la combinazione di parole e contesto, come le immagini di sfondo, a dare un significato. Ora Google annuncia di essere in grado di fondere il testo tradotto con l’immagine di sfondo grazie a una tecnologia di apprendimento automatico chiamata Generative Adversarial Networks (GAN). Se si punta la fotocamera su una rivista in un’altra lingua, ad esempio, il testo tradotto si sovrappone in modo realistico alle immagini sottostanti. 

Esplorare con la visualizzazione immersiva

Grazie ai progressi della computer vision e dei modelli predittivi, Google reimmaginando completamente la definizione di “mappa”. Ciò significa che la mappa 2D si evolverà in una visione multidimensionale del mondo reale, che vi permetterà di vivere un luogo come se foste lì. Proprio come il traffico in tempo reale nella navigazione ha reso Google Maps molto più utile, il colosso di Mountain Vienw sta apportando un altro cambiamento significativo nella mappatura, dando vita a informazioni utili, come il meteo e l’affollamento di un luogo, con la visualizzazione immersiva in Google Maps. Con la visualizzazione immersiva, l’obiettivo è aiutare l’utente a farsi un’idea di un luogo prima ancora di andarci. Un esempio: se qualcuno è interessato a incontrare un amico in un ristorante è possibile ingrandire il quartiere e il ristorante per farsi un’idea di come potrebbe essere alla data e all’ora in cui si intende incontrarsi, visualizzando elementi come il tempo e la presenza di persone. Fondendo le immagini avanzate con i nostri predittivi, Google può fornire un’idea di come sarà un posto domani, la prossima settimana o addirittura il mese prossimo. È in fase di ampliamento la prima iterazione di questo sistema con le viste aeree di 250 punti di riferimento, e nei prossimi mesi la visualizzazione immersiva arriverà in cinque grandi città, e altre sono in arrivo.