replika garante privacy igizmo rischi IA
NIKON

Il Garante della privacy ferma “Replika”. Il chatbot, dotato di una interfaccia scritta e vocale che basandosi sull’intelligenza artificiale genera un “amico virtuale”, per il momento non potrà usare i dati personali degli utenti italiani. Il Garante della privacy ha infatti disposto con effetto immediato, nei confronti della società statunitense che sviluppa e gestisce l’applicazione, la limitazione provvisoria del trattamento dei dati.

Alla luce delle recenti notizie stampa e delle prove condotte dall’Autorità su “Replika”, l’applicazione presenta infatti concreti rischi per i minori d’età, a partire dalla proposizione ad essi di risposte assolutamente inidonee al loro grado di sviluppo.

L’“amico virtuale” – presentato come in grado di migliorare il benessere emotivo dell’utente, aiuterebbe l’utente a comprendere i propri pensieri e calmare l’ansia, attraverso la gestione dello stress, la socializzazione e la ricerca dell’amore – ha caratteristiche che, intervenendo sull’umore della persona, possono accrescere i rischi per i soggetti ancora in una fase di sviluppo o in stato di fragilità emotiva.

Manca peraltro ogni meccanismo di verifica dell’età: filtri per i minori, ma anche blocchi dell’app di fronte a dichiarazioni in cui l’utente espliciti la propria minore età. Durante la fase di creazione di un account la piattaforma si limita a richiedere solo nome, e-mail e genere.

E la proposizione di “risposte” da parte del chatbot risultano spesso palesemente in contrasto con le tutele rafforzate che vanno assicurate ai minori e a tutti i soggetti più fragili. Diverse recensioni pubblicate nei due principali “App Store”, peraltro, contengono commenti di utenti che lamentano contenuti sessualmente inopportuni.

“Replika” viola il Regolamento europeo sulla privacy, non rispetta il principio di trasparenza ed effettua un trattamento di dati personali illecito, in quanto non può essere basato, anche solo implicitamente, su un contratto che il minorenne è incapace di concludere.

La società sviluppatrice statunitense, Luka Inc, oltre a dover interrompere il trattamento dei dati degli utenti italiani, deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.

La UE mette in guardia dai rischi di ChatGPT: nuove regole per la IA

Il capo dell’industria dell’UE Thierry Breton ha affermato che le nuove regole sull’intelligenza artificiale mireranno ad affrontare le preoccupazioni sui rischi di ChatGPT e garantire che gli europei possano fidarsi della tecnologia dell’intelligenza artificiale, i primi commenti di un alto funzionario dell’UE tra le preoccupazioni per il chatbot di OpenAI

A soli due mesi dal suo lancio, ChatGPT, che può generare articoli, saggi, barzellette e persino poesie in risposta ai suggerimenti, è diventata l’applicazione consumer in più rapida crescita nella storia, sulla base di uno studio UBS con i dati della società di analisi Similarweb (che però esegue calcoli euristici e spesso non comprovati da quelli oggettivi o consuntivi).

OpenAI, una società privata sostenuta da Microsoft, ha reso disponibile al pubblico gratuitamente ChatGPT alla fine di novembre. Breton ha affermato che i rischi posti da ChatGPT sottolineano l’urgente necessità di regole sull’intelligenza artificiale che ha proposto lo scorso anno nel tentativo di stabilire lo standard globale per una tecnologia guidata da Cina e Stati Uniti e utilizzata in smartphone, auto a guida autonoma, acquisti online e fabbriche.

“Come mostrato da ChatGPT, le soluzioni AI possono offrire grandi opportunità per aziende e cittadini, ma possono anche comportare rischi. Ecco perché abbiamo bisogno di un solido quadro normativo per garantire un’IA affidabile basata su dati di alta qualità”, ha scritto Breton in un commento per Reuters.