NIKON
TOPPS

Google risponde a GPT-4o con il nuovo Gemini, mentre OpenAI esalta l’iPhone

Chi ha visto la diretta di OpenAI nella serata italiana del 13 maggio, avrà notato una cosa emblematica verso la fine dell’evento. Dopo la spiegazione delle novità e dei potenziamenti varati con GPT-4o (di cui abbiamo parlato approfonditamente in questo articolo), è arrivato il momento delle demo e per mostrare “live” le doti di interazione vocale e visuale del nuovo modello di IA è stato usato l’iPhone 15 Pro e Pro Max. In tre seduti al tavolo hanno collegato un iPhone 15 Pro Max al display alle loro spalle e hanno iniziato a compiere operazioni che esaltassero le novità di GPT-4o. Ma usando solo ed esclusivamente i citati modelli di Apple.

Per chi vi sta scrivendo, la scelta di campo è estremamente significativa perché, in un modo che potremmo definire trasversale, avvalora le voci su un accordo imminente tra OpenAI e Apple al fine di potenziare l’intelligenza artificiale in iOS e macOS. Come se GPT-4o fosse un antipasto di quello che la società della Mela morsicata farà vedere in modo ufficiale al Wwdc 2024, la conferenza riservata agli sviluppatori. Qui di seguito lo spezzo con le demo e l’iPhone 15 Pro Max in bella vista:

Questa scelta, difficile credere che sia stato un caso che tutti i presenti alla demo sfoggiassero orgogliosi il loro iPhone 15 Pro/Pro Max, è chiaramente un messaggio e alimenta le ipotesi che proprio GPT-4o (e non i modelli precedenti) saranno l’anima della IA su iPhone e in iOS. Ora che GPT-4o può interagire con un approccio multimodale: voce, testo e fotocamera. Tanto che OpenAI ha subito evidenziato quest’ultimo elemento di forza, la capacità di riconoscere con precisione ciò che si inquadra con lo smartphone, con il seguente video:

Google risponde a GPT-4o con una demo del nuovo Gemini

Nell’arco di poche ore dal debutto di GPT-4o, Google ha pubblicato un video dimostrativo su X (ex Twitter) raccontando al mondo cosa può fare una versione prototipo della sua intelligenza artificiale Gemini. Nel video, si può vedere Gemini analizzare il feed video della telecamera in tempo reale e rispondere alle domande di un essere umano. Il modello risponde alle domande su cosa sta succedendo nel feed video e identifica il significato delle lettere scritte sullo schermo. Gemini cerca anche di continuare la conversazione ponendo domande di follow-up all’umano. Inoltre, la conversazione tra l’umano e i Gemelli appare come testo sullo schermo.

Il video è stato pubblicato a poche ore dall’inizio dell’evento dedicato agli sviluppatori, ossia Google I/O 2024 che sarà totalmente centrato sulla IA declinata in Gemini, Android, Search e piattaforme varie. A proposito di aggiornamenti, una funzionalità utile della versione web di Gemini potrebbe arrivare anche all’app Android, che consente al chatbot di leggere la risposta alle istanze non appena inizia a generarla. A proposito di app, c’è anche l’attesa che l’applicazione Gemini arrivi ufficialmente anche in altri Paesi, tra cui l’Italia.

TOPPS
GAMEPEOPLE
DIFUZED
FIZZ
PALADONE
OTL
CROCKPOT
TOPPS
SUBSONIC