NIKON
OPPO

IA: può maturare e crescere solo se conquista la fiducia delle persone

Se si crede alle promesse di Google, Microsoft e OpenAI, l’intelligenza artificiale sta rinnovando il modo in cui lavoriamo, comunichiamo e in generale utilizziamo i nostri device. I tre colossi, ma non solo loro, sono allineati nella posizione di ritenere la IA una leva evolutiva imprescindibile e che trasformerà ogni aspetto della nostra vita, come ha fatto Internet negli ultimi trent’anni. Potrebbe anche essere, il fatto è che a tutt’oggi c’è un problema di fondo: non c’è e non ci può essere totale fiducia nella IA. E chi si fida ciecamente dell’intelligenza artificiale ha due problemi da risolvere: non ha capito cosa sia la IA attuale e i relativi chatbot; non ha idea di cosa sta facendo e dicendo.

L’industria tecnologica sta attraversando un periodo di grandi marosi, se osservato con il filtro della fiducia e della tutela della privacy. Solo negli ultimi anni Meta ha dovuto affrontare lo scandalo su Cambridghe Analytica, Google ha rallentato l’introduzione della sua IA in Europa per ottemperare alle rigide restrizioni del Gdpr, OpenAI si è volontariamente “spenta” in Italia per alcune settimane dopo l’istanza del Garante privacy nostrano che ha evidenziato una inesistente protezione dei dati privati degli utenti. Ci sono tante prove che suggeriscono che le persone sono scettiche riguardo alla crescente presa dell’intelligenza artificiale nelle nostre vite. Uno studio del Pew Research indica che la preoccupazione supera l’entusiasmo quando si tratta del maggiore utilizzo dell’intelligenza artificiale per il 52% degli americani. Un rapporto della Bentley University e della società di consulenza Gallup indica che il 79% degli americani non si fida che le aziende utilizzino l’intelligenza artificiale in modo responsabile . 

Creare un business sostenibile intorno alla IA (urgente più che mai) e mantenere la fiducia significa trovare un equilibrio essenziale per aziende come Google, Microsoft, Meta e OpenAI. Il modo in cui le persone abbracciano questi nuovi strumenti di intelligenza artificiale potrebbe determinare i vincitori e i vinti del prossimo grande cambiamento nel campo dell’informatica e della connettività: la fiducia è la chiave di lettura per essere vincenti. “Tutti questi progressi potrebbero ridursi se non si riuscisse a mitigare sufficientemente i rischi e a rendere l’intelligenza artificiale affidabile per gli esseri umani”, dice Arun Chandrasekaran, analista di Gartner specializzato in intelligenza artificiale e cloud computing.

Google, Microsoft e OpenAI hanno tutti presentato sviluppi significativi nei loro sistemi di intelligenza artificiale nelle ultime due settimane, sottolineando la rapidità con cui la tecnologia si sta evolvendo. Gemini di Google è stato il protagonista della conferenza Google I/O della scorsa settimana. Gemini diventa più conversazionale con una nuova modalità chiamata Gemini Live, una versione più interattiva del suo assistente vocale per coloro che si abbonano a Gemini Advanced. Sarà anche in grado di pianificare itinerari di viaggio personalizzati per te e rispondere a domande più specifiche su ciò che stai facendo sul tuo telefono. Il modello Gemini Nano di Google può ascoltare le telefonate e monitorarle per potenziali frodi in tempo reale utilizzando l’elaborazione sul dispositivo. 

Ma Sundar Pichai, ceo di Alphabet e Google, ha mostrato come potrebbe essere la prossima generazione dei modelli IA, che saranno in grado di gestire acquisti o trovare informazioni dettagliate nelle mail, oppure gestire la documentazione necessaria per svolgere alcune attività. Esempi tutto sommati innocui ma che suggeriscono un futuro nel quale la IA sarà più virata ad azioni complesse che alla risposta di semplici domande. Il 20 maggio, poco prima della conferenza Build, Microsoft ha annunciato una nuova classe di computer basati sull’intelligenza artificiale chiamati Copilot+ Pc . Questi computer sono costruiti secondo determinate specifiche per gestire gli algoritmi di intelligenza artificiale sul dispositivo senza fare affidamento sul cloud. 

Un esempio di una nuova funzionalità possibile dei Copilot+ Pc è Recall, che crea un’istantanea del desktop del computer in modo da poter rivisitare ciò che hai fatto, se necessario. La funzionalità viene posizionata come un modo più semplice per trovare file, app e siti Web visitati di recente senza dover cercare manualmente i contenuti e l’elaborazione avviene sul dispositivo. Si può impedire la registrazione di determinate app e siti Web e Microsoft afferma che l’utente ha “sempre il controllo“.

OpenAI ha tenuto il proprio evento di lancio del prodotto il 13 maggio per presentare il suo ultimo modello di punta, GPT-4o. Tra i punti salienti c’era la voce umana di ChatGPT chiamata Sky, che molti hanno paragonato all’attrice Scarlett Johansson. OpenAI alla fine ha tirato fuori la voce di ChatGPT sulle somiglianze, dicendo che  la somiglianza non era intenzionale. In risposta, ha riferito NPR, Johansson ha espresso la sua preoccupazione e ha intrapreso un’azione legale contro OpenAI. OpenAI ha anche mostrato come il chatbot possa aiutare con problemi di matematica e di codifica e interpretare video oltre al parlato. 

Il filo conduttore di questi sviluppi è che sono più proattivi e naturali rispetto agli strumenti tecnologici che utilizziamo da anni basate su comandi e assistenti vocali. Funzionalità come Recall e il rilevamento dello spam telefonico in tempo reale di Google mirano ad anticipare le nostre esigenze, mentre la versione aggiornata di ChatGPT di OpenAI e l’assistente Gemini di Google puntano a un futuro in cui i robot IA si sentiranno più come colleghi amichevoli o acquirenti personali che come piattaforme per domande e risposte. Alla maggior parte delle persone non piace nemmeno interagire con i menu automatizzati del servizio clienti, come rileva un sondaggio di The Conversation, che ha rilevato che le persone in genere cercano di aggirare gli agenti automatizzati per parlare con un essere umano reale. I chatbot più recenti come ChatGPT e Gemini sono molto più avanzati dei menu telefonici automatizzati a cui siamo abituati. Ma questi nuovi strumenti presuppongono ancora che le persone siano disposte a fidarsi della tecnologia per portare a termine le cose per loro conto.

Mohsen Bayati, professore di operazioni, informazione e tecnologia presso la Stanford Graduate School of Business, ritiene che le persone saranno disposte ad abbracciare questi strumenti purché abbiano una sorta di voce in capitolo se non un controllo totale, per esempio approvando una transazione prima che sia finalizzata. “Sarei molto preoccupato per quelle applicazioni che perseguono la completa automazione”, ha spiegato, sostenendo chehe poter far sì che l’utente sia “l’ultimo arbitro in quel ciclo” ridurrebbe probabilmente molti problemi di affidabilità. Questo è un punto importante perché, per quanto sofisticati siano questi sistemi di intelligenza artificiale, non sono privi di difetti. Sono inclini alle allucinazioni, che possono portare a risposte inaffidabili e ci sono dubbi sul fatto che stiano fornendo informazioni in modo accurato e appropriato. 

Gemini di Google è stato messo sotto esame all’inizio di quest’anno per aver prodotto immagini storicamente imprecise. Più recentemente, i suoi nuovi riepiloghi generati dall’intelligenza artificiale che sono visualizzati sopra i risultati di ricerca, chiamati AI Overview, sono stati criticati per aver fatto emergere risposte false, come hanno sottolineato gli utenti sui social media. In un esempio particolarmente importante, la panoramica AI di Google ha suggerito di mettere la colla sulla pizza per evitare che il formaggio scivoli via. 

Uno screenshot di una risposta dalla Panoramica AI di Google
La funzionalità Google AI Overviews fornisce istantanee scritte dall’intelligenza artificiale pensate per rispondere alla tua domanda in modo rapido e colloquiale. Ma non sono sempre corretti. Schermata di Lisa Eadicicco/CNET

In una dichiarazione, un portavoce di Google ha affermato che gli esempi osservati dall’azienda sono “query generalmente molto insolite” e “non rappresentativi delle esperienze della maggior parte delle persone”. Ha aggiunto che “la stragrande maggioranza delle panoramiche AI ​​fornisce informazioni di alta qualità”. “Abbiamo condotto test approfonditi prima di lanciare questa nuova esperienza e utilizzeremo questi esempi isolati mentre continuiamo a perfezionare i nostri sistemi nel complesso”, diceva la dichiarazione. Diversi giornali e organi di stampa digitali, tra cui il New York Times, hanno intentato azioni legali contro OpenAI e il suo partner Microsoft, per aver utilizzato materiale protetto da copyright per scopi di formazione. 

OpenAI ha anche recentemente sciolto il suo team di superallineamento, come riportato da Wired e altri media, e sta invece integrando quel lavoro in altre parti dell’azienda. Il team di superallineamento, annunciato da OpenAI lo scorso anno, è stato creato per garantire che i sistemi di intelligenza artificiale super avanzati siano sviluppati in modo sicuro. Il ceo di OpenAI Sam Altman e il presidente Greg Brockman hanno pubblicato una nota su X in cui spiegano il loro approccio alla sicurezza e la strategia complessiva dell’azienda su X in risposta ai cambiamenti. “Crediamo sia nel realizzare un enorme rialzo sia nel lavorare per mitigare i gravi rischi; prendiamo molto sul serio il nostro ruolo qui e valutiamo attentamente il feedback sulle nostre azioni”, si legge nella nota. 

Anche Google e Microsoft hanno parlato apertamente dei loro sforzi in materia di sicurezza e del loro approccio alla realizzazione responsabile di prodotti di intelligenza artificiale. Google ha rafforzato i suoi principi sull’intelligenza artificiale durante la sua conferenza I/O, che includono test di sicurezza, responsabilità nei confronti delle persone, evitare di creare o rafforzare pregiudizi ingiusti ed essere socialmente utili tra gli altri. La pagina Responsible AI di Microsoft espone valori simili, come equità, inclusività, trasparenza, affidabilità e sicurezza. 

Ma spesso, le questioni sociali più ampie derivanti dai progressi tecnologici – come l’impatto dei social media sulla salute mentale, soprattutto nei giovani – diventano evidenti solo con il senno di poi. “Finché non vedremo eventi che attireranno l’attenzione del pubblico sul tipo di dati che condividiamo e su come le aziende li utilizzano, le persone presteranno attenzione”, spiega Hanan Hibshi, assistente professore presso l’Information Networking Institute della Carnegie Mellon University.

Ottenere questo risultato è fondamentale per le aziende tecnologiche, considerando che l’intelligenza artificiale viene venduta come un importante cambiamento nel personal computing. Nell’ultimo decennio, l’industria tecnologica è stata alla ricerca della prossima “killer application” o del “killer product” o anche della “killer technology”. Ma la straordinaria popolarità di ChatGPT dopo il suo rilascio alla fine del 2022 è stata un momento di svolta. Le nuove tecnologie possono richiedere del tempo per prendere piede, proprio come ha fatto lo smartwatch, ma non passò molto tempo prima che l’intelligenza artificiale generativa si facesse strada in tutto, dagli smartphone ai pc. 

Siamo pronti a riporre la nostra fiducia nell’intelligenza artificiale potrebbe essere ancora oggetto di dibattito? Non c’è una risposta ma comunque tendenzialmente non del tutto e non ancora. Il rischio è che alla fine, man mano che l’intelligenza artificiale diventa più critica per le attività quotidiane, tali preoccupazioni potrebbero passare in secondo piano rispetto ai benefici. Robert Seamans, professore alla Stern School of Business della New York University, lo paragona alla digitazione on-line dei dati della carta di credito. Anche se circa 25 anni fa le persone potevano essere riluttanti a farlo, oggi molti lo accettano come la norma e sono disposti ad accettare un certo livello di rischio. “Forse immagineremo i modi in cui la tecnologia potrebbe andare storta, o la nostra interazione con essa potrebbe andare storta. Ma penso che ancora una volta sempre più persone inizieranno a usarlo, [e] una volta che anche noi inizieremo a usarlo, penso che molto rapidamente quelle paure scompariranno”. Invece, con la IA un po’ di sana paura sarebbe sempre bene averla.

OPPO
GAMEPEOPLE
DIFUZED
FIZZ
PALADONE
OTL
CROCKPOT
TOPPS
SUBSONIC