nvidia computex ia igizmo
PANASONIC LUMIX

Federico Rampini sul corriere l’ha definita un’azienda “semi sconosciuta”, che vergogna per Nvidia che non solo da trent’anni porta innovazione costante nel mondo delle Gpu, del gaming, dell’intelligenza artificiale e del computing. Che vergogna per uno che si ritiene una “firma”, uno dei tanti giornalisti iscritti all’albo professionisti come chi vi scrive e non si degnerebbe mai di dare del “semi sconosciuto” senza prima avere quantomeno aperto Wikipedia. Ecco questa azienda sconosciuta solo a Rampini, lui che si ammanta di sapienza, al Computex 2023 ha spostato ulteriormente i limiti della IA semplificando la realizzazione di videogame. Il ceo di Nvidia Jensen Huang (per il quale Rampini è un emerito sconosciuto) ha offerto un assaggio di cosa potrebbe succedere quando un gioco e l’intelligenza artificiale si incontrano, con un rendering graficamente mozzafiato di un negozio di ramen cyberpunk in cui si può effettivamente parlare con il proprietario, le cui risposte sono ottenute con l’IA generativa.

Invece di fare clic sulle opzioni di dialogo, immaginate di poter tenere premuto un pulsante e poter dire semplicemente qualcosa con la vostra voce al fine di ottenere una risposta dal personaggio che incontrate nel gameplay. Nvidia lo definisce una “sbirciatina al futuro dei giochi” ed è riassunto in questo video.

Sfortunatamente, il dialogo effettivo lascia molto a desiderare ma poco conta: basta sostituire con GPT-4 e operare nel fine tuning per ottenere risposte migliori. La conversazione generata da Nvidia è questa:

Giocatore: Hey Jin, come stai?

Jin: Purtroppo non così bene.

Come mai?

Sono preoccupato per il crimine qui intorno. È peggiorato ultimamente. Il mio negozio di ramen è rimasto coinvolto nel fuoco incrociato.

Posso aiutare?

Se vuoi fare qualcosa al riguardo, ho sentito dire che il potente signore del crimine Kumon Aoki sta causando ogni tipo di caos in città. Potrebbe essere lui la radice di questa violenza.

Gli parlerò, dove posso trovarlo?

Ho sentito che frequenta i fight club sotterranei nella parte est della città. Prova lì.

Va bene, vado.

Stai attento, Kai.

Guardando un singolo video di una singola conversazione, è difficile comprendere se sia meglio l’IA di un classico approccio algoritmico ad albero di risposte. La parte impressionante della demo di Nvidia è che l’IA generativa sta reagendo al linguaggio naturale. Sarebbe interessante se Nvidia sia in grado di rilasciare la demo in modo che si possa provare, così che l’IA possa apprendere nuove informazioni e generare risultati radicalmente diversi.

La demo è stata creata da Nvidia e dal partner Convai per aiutare a promuovere gli strumenti utilizzati per crearla, in particolare una suite di middleware chiamata Nvidia ACE (Avatar Cloud Engine) per i giochi che può essere eseguita sia localmente che nel cloud. L’intera suite ACE include gli strumenti NeMo dell’azienda per l’implementazione di modelli di linguaggio di grandi dimensioni (LLM), Riva speech-to-text e text-to-speech, tra gli altri bit.

La demo utilizza più di quelli, ovviamente: è costruita in Unreal Engine 5 con uso profuso del ray-tracing ed è visivamente sbalorditiva al punto che la parte del chatbot risulta persino poco brillante. In un pre-briefing del Computex, Jason Paul, vicepresidente della piattaforma GeForce di Nvidia, ha detto che la tecnologia può scalare a più di un personaggio alla volta e teoricamente potrebbe persino far parlare gli NPC, ma ha ammesso che in realtà tutto ciò non è stato ancora testato.