
27 settembre 2023. In questa data, Google festeggia 25 anni e coglie l’opportunità per ripercorrere alcuni dei traguardi raggiunti in questo quarto di secolo. Dal 1998, quando Google è nato per semplificare l’uso di Internet con un esaustivo motore di ricerca, Big G si è evoluto negli anni in un servizio multiforme e articolato, che spazia su più fronti. Questo è il ringraziamento ufficiale di Google per questo importante risultato:
“25 anni fa abbiamo lanciato la Ricerca Google per aiutarti a trovare risposte a domande grandi e piccole. Da allora, miliardi di persone si sono rivolte ai nostri prodotti per fare proprio questo: soddisfare la propria curiosità. Per avviare un’attività. Per iniziare un viaggio. Per fare un barile rotante.
Come ha scritto all’inizio di questo mese il CEO di Google Sundar Pichai, è un enorme privilegio raggiungere questo traguardo, e non l’abbiamo fatto da soli. Possiamo essere un’azienda tecnologica, ma Google è quello che è oggi grazie alle persone: i nostri dipendenti, i nostri partner e, soprattutto, tutte le persone che utilizzano i nostri prodotti.
Quindi, mentre oggi festeggiamo il nostro 25° compleanno, stiamo festeggiando anche 25 anni della tua curiosità. Dopotutto, la tua curiosità è ciò che ci ha alimentato, Considera che nel 2000 così tante persone si sono precipitate su Google in cerca di foto dell’audace abito dei Grammy di Jennifer Lopez che è diventata la query di ricerca più popolare. Quella ricerca ha restituito 10 link blu, ma nessun vestito verde. Così i nostri ingegneri si sono messi al lavoro, cercando nuovi modi per indicizzare le immagini insieme alle pagine web, ed è nata Google Immagini, che ti consente di trovare la foto che stai cercando più velocemente che mai.

È un ciclo che si è ripetuto in Google più e più volte negli ultimi 25 anni. Sia che tu voglia imparare a fare un nodo alla cravatta o pianificare dove fare il nodo, rimanere in salute o rimanere informato, ogni capitolo della nostra storia è stato scritto insieme a te.
Per il nostro compleanno, festeggiamo in modi che potresti esserti aspettato negli ultimi 25 anni. Il doodle della nostra homepage di oggi celebra l’evoluzione del logo di Google, e se cerchi (o canticchi) query legate al compleanno, potresti vedere una piccola sorpresa. Ma soprattutto, vogliamo dire grazie.
Amiamo sognare nuovi modi in cui la tecnologia può esserti utile ogni giorno, e siamo infinitamente ispirati da come è stata usata ad oggi. Siamo anche entusiasti dalle opportunità che ci attendono e dal potenziale dell’intelligenza artificiale per aiutarci a continuare a realizzare la nostra missione e migliorare la vita di ancora più persone in tutto il mondo. Come ha scritto Sundar Pichai, “La nostra ricerca di risposte porterà a progressi tecnologici straordinari nei prossimi 25 anni”. Non vediamo l’ora di costruire il futuro insieme a voi.
Da tutti noi di Google, grazie per 25 anni incredibili. A molti altri anni di curiosità”.
10 innovazioni fondamentali in 25 anni di Google nella IA
Di recente l’intelligenza artificiale (IA) è diventata una questione centrale nella tecnologia e nella società. Ma, precisa la società Mountain View, per “Google lo è già fin dall’inizio della sua esistenza, e per un buon motivo. L’IA ha il potere di rendere le attività quotidiane più semplici e di aiutare a risolvere i più grandi problemi della società. In occasione dei festeggiamenti per il nostro 25° compleanno, stiamo tornando indietro nel tempo per ripercorrere alcuni dei momenti migliori dell’IA fino a questo momento e stiamo anche guardando al futuro in vista dei traguardi ancora più importanti che ci aspettano”.
2001: Il machine learning aiuta gli utenti della Ricerca Google a correggere l’ortografia delle query
Larry Page, il co-fondatore di Google, una volta ha detto: “Il motore di ricerca perfetto deve comprendere esattamente cosa intendi e offrirti in risposta esattamente ciò di cui hai bisogno”. Google ha fatto un grande passo avanti nel far progredire questa vision quando ha iniziato a usare per la prima volta una versione semplice di machine learning per suggerire l’ortografia migliore per le ricerche web. Anche se la query contiene errori, gli utenti possono comunque ottenere la risposta che cercano.

2006: Google Traduttore
Cinque anni dopo, Google ha lanciato Traduttore, che usa il machine learning per tradurre automaticamente diverse lingue. Big G ha iniziato con le traduzioni dall’arabo all’inglese, e viceversa, e Google Traduttore attualmente supporta 133 lingue parlate da milioni di persone in tutto il mondo. Questa tecnologia è in grado di tradurre testi, immagini e perfino conversazioni in tempo reale, abbattendo le barriere linguistiche nella comunità globale, aiutando le persone a comunicare ed estendendo l’accesso alle informazioni come mai era accaduto prima.
2015: TensorFlow rende l’IA democratica
L’introduzione di TensorFlow, un nuovo framework di machine learning open source, ha reso l’IA più accessibile, scalabile ed efficiente. Ha inoltre contribuito ad accelerare il ritmo della ricerca e dello sviluppo dell’IA a livello mondiale. TensorFlow è ora uno dei framework di machine learning più noti ed è stato usato per sviluppare una vasta gamma di applicazioni di IA, dal riconoscimento delle immagini all’elaborazione del linguaggio naturale, fino alla traduzione automatica.
2016: AlphaGo batte il campione mondiale di Go
Nell’ambito della Google DeepMind Challenge Match, oltre 200 milioni di persone hanno guardato online AlphaGo diventare il primo programma di IA a battere un campione mondiale umano di Go, un complesso gioco da tavolo che in precedenza era ritenuto fuori dalla portata dei computer. Questa vittoria leggendaria ha dimostrato il potenziale che il deep learning ha nel risolvere problemi complessi che si pensava fossero impossibili per i computer. La vittoria di AlphaGo su Lee Sedol, uno dei migliori giocatori di Go al mondo, ha innescato una conversazione globale sul futuro dell’IA e ha dimostrato che adesso i sistemi di IA possono imparare a padroneggiare giochi complessi che richiedono creatività e pensiero strategico.
2016: le TPU permettono un’implementazione dell’IA più rapida ed efficiente
Le Tensor Processing Unit, o TPU, sono chip progettati su misura inventati appositamente da Google per il machine learning e ottimizzati per TensorFlow. Sono in grado di addestrare ed eseguire modelli IA molto più velocemente rispetto ai chip tradizionali, quindi risultano ideali per applicazioni di IA su larga scala. La versione v5e, annunciata ad agosto, è la Cloud TPU più versatile, scalabile e conveniente ideata finora. La TPU v5e offre una performance di addestramento per dollaro raddoppiata e una performance di deduzione per dollaro fino a 2,5 volte maggiore per LLM e modelli IA in confronto alla Cloud TPU v4.

2017: Google Research introduce Transformer
Il documento di Google Research, “Attention Is All You Need“, ha introdotto Transformer, una nuova architettura di rete neurale che ha aiutato nella comprensione del linguaggio. Prima di Transformer, i computer non erano molto capaci di comprendere il significato di frasi lunghe poiché non riuscivano a comprendere la relazione tra parole lontane. Transformer ha migliorato significativamente questo aspetto ed è diventato il fondamento dei sistemi di IA generativa e comprensione del linguaggio più notevoli di oggi. Transformer ha rivoluzionato il significato che la traduzione, il riassunto di testi, la risposta alle domande e perfino la generazione di immagini e la programmazione di robot hanno per i computer.
2018: BERT aiuta la Ricerca a comprendere meglio le query
La ricerca di Google su Transformer ha portato all’introduzione di Bidirectional Encoder Representations from Transformers, in breve BERT, che ha aiutato la Ricerca a comprendere le query degli utenti meglio di prima. Invece di puntare a comprendere le singole parole, gli algoritmi di BERT hanno aiutato Google a capire le parole nel contesto. Ciò ha portato a un miglioramento significativo della qualità nella Ricerca e ha reso più semplice per gli utenti porre domande usando un linguaggio naturale invece di dover elencare parole chiave.

2020: AlphaFold risolve il problema del ripiegamento proteico
DeepMind ha fatto un balzo nel campo dell’IA con il suo sistema AlphaFold, che nel 2020 è stato riconosciuto come una soluzione al “problema del ripiegamento proteico”. Le proteine sono i mattoni degli esseri viventi e il modo in cui una proteina si ripiega determina la sua funzione. Gli errori di ripiegamento delle proteine possono causare malattie. Da 50 anni gli scienziati cercano di prevedere il modo in cui una proteina si ripiega allo scopo di comprendere e curare le malattie. AlphaFold fa proprio questo. Nel 2022, tramite l’AlphaFold Protein Structure Database, Google ha condiviso gratuitamente con la comunità scientifica 200 milioni di strutture proteiche di AlphaFold, che coprono quasi tutti gli organismi sul pianeta di cui è stata determinata la sequenza del genoma. Più di un milione di ricercatori ha già usato questi dati per accelerare la creazione di nuovi vaccini per la malaria a tempo di record, fare avanzare la scoperta di farmaci contro il cancro e sviluppare enzimi che mangiano la plastica.
2023: Bard agevola la collaborazione con l’IA generativa
LaMDA, un modello LLM conversazionale rilasciato da Google Research nel 2021, ha aperto la strada a numerosi sistemi di IA generativa, tra cui Bard, che hanno catturato l’immaginazione a livello mondiale. Bard, che è stato lanciato a marzo, è adesso disponibile nella maggior parte dei paesi e in oltre 40 lingue, così sempre più persone possono usarlo per aumentare la produttività, accelerare le idee e nutrire la curiosità. Scrive Google: “Abbiamo appena iniziato a scoprire tutto ciò che è possibile fare con Bard, ma alcuni usi popolari includono il brainstorming, la pianificazione di viaggi e la scrittura di contenuti creativi”.

2023: PaLM 2 fa avanzare il futuro dell’IA
A maggio Google ha varato PaLM 2, il modello LLM di prossima generazione che ha migliorato le capacità multilinguistiche, di ragionamento e di programmazione. È più capace, veloce ed efficiente dei suoi predecessori ed è già alla base di oltre 25 prodotti e funzionalità di Google, tra cui Bard, le funzionalità di IA generativa in Gmail e in Workspace e SGE, l’esperimento di integrazione profonda dell’IA generativa nella Ricerca Google. Google sta usando PaLM 2 per far avanzare la ricerca interna su aspetti quali la sanità e la cybersicurezza.
Conclude l’azienda di Mountain View: “Queste sono solo alcune delle innovazioni dell’IA di Google che sono alla base di molti dei prodotti usati quotidianamente da miliardi di persone. Con la guida dei nostri principi dell’IA verso un approccio audace e responsabile all’IA, siamo già al lavoro su Gemini, il nostro prossimo modello creato per le innovazioni future dei nostri prossimi 25 anni”.