PURO
PURO

Google Gemini: perché il generatore di immagini IA ha sbagliato

Google ha individuato l’errore che ha causato una errata o poco credibile generazione di immagini IA da parte di Gemini. Spiega l’azienda: “Tre settimane fa abbiamo lanciato una nuova funzionalità di generazione di immagini per l’app conversazionale Gemini (precedentemente nota come Bard), che includeva la possibilità di creare immagini di persone. È chiaro che questa funzionalità ha mancato il bersaglio. Alcune delle immagini generate sono imprecise o addirittura offensive. Siamo grati per il feedback degli utenti e ci dispiace che la funzionalità non abbia funzionato bene. Abbiamo riconosciuto l’errore e abbiamo temporaneamente sospeso la generazione delle immagini delle persone in Gemini mentre lavoriamo su una versione migliorata”.

Google ha spiegato perché l’intelligenza artificiale generativa di Gemini ha creato immagini con errori così grossolani: “È un prodotto specifico separato dalla Ricerca, dai nostri modelli di intelligenza artificiale sottostanti e dagli altri nostri prodotti. La sua funzionalità di generazione di immagini è stata costruita su un modello di intelligenza artificiale chiamato Imagen 2. Quando abbiamo creato questa funzionalità in Gemini, l’abbiamo ottimizzata per assicurarci che non cadesse in alcune delle trappole che abbiamo visto in passato con la tecnologia di generazione di immagini, come la creazione di immagini violente o sessualmente esplicite o raffigurazioni di persone reali. E poiché i nostri utenti provengono da tutto il mondo, vogliamo che funzioni bene per tutti. Se chiedi una foto di giocatori di football o di qualcuno che porta a spasso un cane, potresti voler ricevere una serie di persone. Probabilmente non vorrai ricevere solo immagini di persone di un solo tipo di etnia (o di qualsiasi altra caratteristica)”.

Il fatto è che se si chiede a Gemini di generare “immagini di un tipo specifico di persona – come ‘un insegnante nero in una classe’ o ‘un veterinario bianco con un cane’ – o di persone in particolari contesti culturali o storici, dovresti assolutamente ottenere una risposta che riflette accuratamente ciò che chiedi”. Cosa è andato storto? “Due cose”. Innanzitutto, la messa a punto di Google “per garantire che Gemini mostrasse un intervallo di persone non è riuscita a tenere conto dei casi che chiaramente non avrebbero dovuto mostrare un intervallo. In secondo luogo, nel corso del tempo, il modello è diventato molto più cauto di quanto intendessimo e si è rifiutato di rispondere completamente a determinati suggerimenti, interpretando erroneamente alcuni suggerimenti molto anodini come sensibili. Queste due cose hanno portato il modello a compensare eccessivamente in alcuni casi e a essere eccessivamente conservatore in altri, portando a immagini imbarazzanti e sbagliate”.

A questo punto Google ha messo in campo i correttivi. “Non era questo ciò che intendevamo. Non volevamo che i Gemini si rifiutasse di creare immagini di un gruppo particolare. E non volevamo che creasse immagini storiche (o di altro tipo) imprecise. Quindi abbiamo disattivato la generazione delle immagini delle persone e lavoreremo per migliorarla in modo significativo prima di riattivarla. Questo processo includerà test approfonditi. Una cosa da tenere a mente: Gemini è concepito come uno strumento di creatività e produttività e potrebbe non essere sempre affidabile, soprattutto quando si tratta di generare immagini o testo su eventi attuali, notizie in evoluzione o argomenti scottanti. Commetterà errori. Come abbiamo detto fin dall’inizio, le allucinazioni sono una sfida nota per tutti i LLM: ci sono casi in cui l’intelligenza artificiale sbaglia semplicemente le cose. Questo è qualcosa su cui lavoriamo costantemente per migliorare”.

Gemini cerca di fornire risposte basate sui fatti alle richieste e la funzione di doppio controllo attivata da Google ha lo scopo di aiutare a valutare se sono presenti contenuti sul Web per comprovare le risposte di Gemini. Ma, spiega Google, “consigliamo di fare affidamento su Ricerca Google, dove sistemi separati mettono in evidenza informazioni fresche e di alta qualità su questo tipo di richieste. argomenti da fonti sul Web. Non posso promettere che Gemini non genererà occasionalmente risultati imbarazzanti, imprecisi o offensivi, ma posso promettere che continueremo ad agire ogni volta che identifichiamo un problema. L’intelligenza artificiale è una tecnologia emergente utile in tanti modi, con un enorme potenziale, e stiamo facendo del nostro meglio per implementarla in modo sicuro e responsabile”.

PURO
GAMEPEOPLE
DIFUZED
FIZZ
PALADONE
OTL
CROCKPOT
MYSTERY BOX
SUBSONIC