NIKON
TOPPS

I dolori di Google con la ricerca basata sulla IA: risposte false e pericolose

Negli Stati Uniti Google ha varato la nuova ricerca potenziata dall’intelligenza artificiale: all’interno delle risposte generate dalla Search compaiono i resoconti denominati AI Overview che sono generati dalla IA e forniscono risposte sintetiche ad alcune delle domande. Il fatto è che stanno spopolando gli errori, pubblicati su social e non solo, spesso marchiani, come consigli di usare la colla per non fare scivolare il formaggio dalla pizza oppure ricostruzioni storiche esilaranti, fino a suggerimenti pericolosamente sbagliati.

google ai overview search igizmo

Naturalmente, errori concreti possono comparire in tutti chatbot LLM esistenti. Ma il potenziale danno che può essere causato dall’imprecisione dell’intelligenza artificiale viene moltiplicato quando tali errori compaiono in cima al preziosissimo spazio web della pagina dei risultati di ricerca di Google. “Gli esempi che abbiamo visto sono generalmente query molto insolite e non sono rappresentativi delle esperienze della maggior parte delle persone” – ha detto aun portavoce di Google – “La stragrande maggioranza delle panoramiche AI ​​fornisce informazioni di alta qualità, con collegamenti per approfondire il Web.”

Alcuni degli esempi più divertenti del fallimento della Panoramica AI di Google si verificano, ironicamente, quando il sistema non si rende conto che una fonte online stava cercando di essere divertente. Una risposta dell’intelligenza artificiale che suggeriva di utilizzare “1/8 di tazza di colla non tossica” per impedire al formaggio di scivolare via dalla pizza può essere fatta risalire a qualcuno che stava ovviamente cercando di trollare un thread in corso. Una risposta che consiglia “liquido lampeggiante” per un indicatore di direzione che non fa rumore può essere ricondotta allo stesso modo a un troll sui forum di consulenza Good Sam, che apparentemente AI Overview di Google considera una fonte affidabile.

Nelle normali ricerche su Google, questi post scherzosi di utenti Internet casuali probabilmente non sarebbero tra le prime risposte che qualcuno vede quando fa clic su un elenco di collegamenti web. Ma con AI Overview, questi troll sono stati integrati nel riepilogo dei dati dal suono autorevole presentato proprio nella parte superiore della pagina dei risultati. Inoltre, non c’è nulla nelle minuscole caselle “link alla fonte” sotto il riepilogo dell’intelligenza artificiale di Google che suggerisca che questi troll del forum siano altro che buone fonti di informazioni. A volte, però, dare un’occhiata alla fonte può risparmiare qualche delusione, come quando si vede una risposta che chiama la corsa con le forbici “esercizio cardio che alcuni dicono sia efficace” (che proviene da un post del 2022 di Little Old Lady Comedy).

A volte la IA Overview offre un riepilogo accurato di una fonte non scherzosa che sembra essere sbagliata. Quando si chiede quanti firmatari della Dichiarazione di Indipendenza possedessero schiavi, ad esempio, la panoramica AI di Google riassume accuratamente una pagina della biblioteca della Washington University di St. Louis affermando che un terzo “erano schiavisti personali”. Ma la risposta ignora fonti contraddittorie come un articolo del Chicago Sun-Times secondo cui la vera risposta è più vicina ai tre quarti. Altre volte, una fonte che Google ritiene autorevole è in realtà solo fan fiction. È il caso di una risposta che immaginava un remake nel 2022 di “2001: Odissea nello spazio”, diretto da Steven Spielberg e prodotto da George Lucas. Un utente web esperto probabilmente farebbe un doppio giro prima di citare “Idea Wiki” di Fandom come fonte affidabile, ma un utente distratto di AI Overview potrebbe non notare dove l’IA ha ottenuto le sue informazioni.

Uno dei tipi di errori più frustranti nelle panoramiche AI ​​di Google è quando il sistema fornisce una risposta in qualche modo corretta a una domanda leggermente diversa. La ricerca del punto più meridionale dell’Alaska continentale, ad esempio, ha fornito invece una risposta sulla parte più meridionale della catena di isole Aleutine. Un lettore attento dovrebbe probabilmente notare che un’isola non è, per definizione, parte della terraferma, ma qualcuno che si fida ciecamente dell’intelligenza artificiale di Google potrebbe non essere così attento.

Anche chiedere informazioni sugli animali coinvolti nelle squadre sportive a volte causa questo tipo di errore. Quando si sono chieste informazioni sui cani che hanno giocato nella NHL, è stata prodotta la risposta su un cane promozionale che correva in giro durante alcune attività adiacenti al gioco. Quando la stessa domanda ha riguardato i cani nella NBA, si è ottenuto una risposta simile su un cane che si limitava a sedersi a bordo campo durante una recente partita dei Lakers. Leggere attentamente queste risposte può mostrare la discrepanza tra domanda e risposta, ma concentrarsi sulla parte evidenziata da Google potrebbe dare a chi effettua la ricerca un’idea sbagliata.

Anche nel campo tecnologico si può incappare in allucinazioni da intelligenza artificiale. In una istanza, la AI Overview di Google ha detto che la Sony PlayStation e il Sega Saturn erano disponibili per l’acquisto nel 1993 (interpretando apparentemente erroneamente una pagina di Wikipedia che descrive una generazione di console che va dal 1993 al 1998). Ripetendo la domanda, la panoramica AI ha correttamente indicato che Atari Jaguar è ​​stata lanciata nel 1993, con la concorrenza di Sony e Sega lanciata successivamente.

Un portavoce di Google ha detto: “Abbiamo condotto test approfonditi prima di lanciare questa nuova esperienza e utilizzeremo questi esempi isolati mentre continuiamo a perfezionare i nostri sistemi nel complesso”. Google ha spiegato che utilizza test contraddittori per migliorare i risultati sia in termini di fattualità che di sicurezza e che la società non prevede di mostrare riepiloghi AI per determinati argomenti espliciti o pericolosi. D’alta parte questa parte di rodaggio è necessaria: nonostante abbiamo voluto proporre un elenco di risposte fantasiose e divertenti, il fatto è che Google sta operando alacremente per rendere AI Overview sempre più affidabile. E questo passaggio di errori e allucinazioni è parte integrante della formazione del modello. Nulla di cui preoccuparsi, serve solo un po’ di pazienza.

TOPPS
GAMEPEOPLE
DIFUZED
FIZZ
PALADONE
OTL
CROCKPOT
TOPPS
SUBSONIC