
Il Garante della privacy italiano vuole esaminare altre piattaforme di intelligenza artificiale e assumere esperti di IA ha affermato un alto funzionario, mentre intensifica il controllo della potente tecnologia dopo che OpenAI ha temporaneamente vietato ChatGPT a marzo in seguito alle oggettive violazioni del GDPR rilevate dall’Autorità. Il Garante privacy è tra le 31 autorità nazionali per la protezione dei dati più proattive che sovrintendono al regime europeo sulla privacy dei dati noto come Regolamento generale sulla protezione dei dati (GDPR).
L’Authority italiana è stata la prima a vietare la società di chatbot AI Replika, a imporre multe al produttore di software di riconoscimento facciale Clearview AI e a limitare TikTok in Europa. A marzo, ha temporaneamente imposto vincoli a ChatGPT e OpenAI ha risposto bloccandolo subito in Italia. Il Garante ha lanciato un’indagine sulla sospetta violazione delle regole sulla privacy da parte dell’applicazione.
“Abbiamo in programma di avviare una revisione ad ampio raggio delle applicazioni di intelligenza artificiale generativa e di apprendimento automatico disponibili on-line perché vogliamo capire se questi nuovi strumenti stanno affrontando problemi legati alla protezione dei dati e alla conformità alle leggi sulla privacy. E avvieremo nuove indagini, se necessario”, ha detto Agostino Ghiglia, membro del consiglio di amministrazione del Garante.
Il successo di ChatGPT ha spinto i pesi massimi della tecnologia, da Alphabet a Meta, in attività di promozione delle proprie versioni di IA generativa. Legislatori e governi di tutto il mondo stanno discutendo nuove leggi che potrebbero richiedere anni per essere applicate.
“Stiamo cercando tre consulenti di intelligenza artificiale perché siamo consapevoli che gli strumenti di intelligenza artificiale si stanno evolvendo molto rapidamente e abbiamo bisogno di esperti con esperienza tecnologica che ci aiutino nella nostra attività di protezione dei dati”, ha affermato Ghiglia. La mossa dell’Autorità stigmatizza come i Governi si stiano affidando alle leggi esistenti per controllare una tecnologia che potrebbe sconvolgere il modo in cui operano le società e le aziende.
Il collegio del Garante, composto da quattro membri, è composto da giuristi. Ghiglia ha affermato che l’autorità ha 144 dipendenti, ben al di sotto dei suoi colleghi europei in Francia, Spagna e Gran Bretagna. La maggior parte ha un background legale, ha detto Ghiglia. Nel suo giro di vite su ChatGPT, il Garante ha utilizzato le disposizioni del GDPR, in particolare quelle che tutelano i minori e garantiscono agli individui il diritto di richiedere la cancellazione e di opporsi all’utilizzo dei propri dati personali.
Dopo che il Garante ha preso provvedimenti, il produttore di ChatGPT OpenAI ha apportato modifiche al suo chatbot per riguadagnare la conformità. “I membri del consiglio del Garante spesso vengono a conoscenza di potenziali violazioni delle leggi sulla privacy perché esploriamo semplicemente strumenti e applicazioni digitali una volta che sono disponibili”, ha affermato Ghiglia. “Abbiamo esplorato ChatGPT e ci siamo resi conto che non era conforme alle norme sulla privacy dei dati dell’UE”. Ci vorranno anni prima che la potenziale nuova legislazione che regola l’IA entri in vigore. “Ecco perché abbiamo deciso di agire rapidamente con ChatGPT”, ha concluso Ghiglia.