
La minaccia era già surreale: abbandonare l’Europa per via di una legislazione della privacy (GDPR) più restrittiva che in altri Paesi. Lo stesso motivo che tiene largo il chatbot Bard di Google. Ma il surreale ha lasciato il posto alla realtà. Così OpenAI non ha intenzione di lasciare l’Europa, ha confermato il ceo Sam Altman, annullando la minaccia fatta all’inizio di questa settimana di lasciare il Vecchio Continente se dovesse diventare troppo difficile conformarsi alle imminenti leggi sull’intelligenza artificiale.
L’UE sta lavorando a quella che potrebbe essere la prima serie di regole a livello globale per governare l’IA e mercoledì Altman ha affermato che l’attuale bozza dell’EU AI Act è “eccessivamente regolamentata”. “Siamo entusiasti di continuare a operare qui e ovviamente non abbiamo intenzione di andarcene”, ha detto Altman in un tweet venerdì.
La sua minaccia di lasciare l’Europa aveva attirato le critiche del capo dell’industria UE Thierry Breton e di numerosi altri legislatori. Altman ha trascorso la scorsa settimana attraversando l’Europa, incontrando i migliori politici in Francia, Spagna, Polonia, Germania e Gran Bretagna per discutere del futuro dell’IA e dei progressi di ChatGPT. Ha definito il suo tour una “settimana molto produttiva di conversazioni in Europa su come regolamentare al meglio l’IA”.
OpenAI è stato criticato per non aver divulgato i dati di addestramento per il suo ultimo modello di intelligenza artificiale GPT-4. La società ha citato un “panorama competitivo e implicazioni sulla sicurezza” per non aver rivelato i dettagli. Durante il dibattito sulla bozza dell’AI Act, i legislatori dell’UE hanno aggiunto nuove proposte che costringerebbero qualsiasi azienda che utilizza strumenti generativi, come ChatGPT, a divulgare materiale protetto da copyright utilizzato per addestrare i propri sistemi.
“Queste disposizioni riguardano principalmente la trasparenza, che garantisce l’affidabilità dell’IA e della società che la sta costruendo”, ha detto giovedì a Reuters Dragos Tudorache, un membro rumeno del Parlamento europeo che sta guidando la stesura delle proposte dell’UE. “Non vedo un motivo per cui un’azienda dovrebbe rifuggire dalla trasparenza”.
I parlamentari dell’UE hanno concordato la bozza dell’atto all’inizio di questo mese. Gli Stati membri, la Commissione europea e il Parlamento definiranno gli ultimi dettagli del disegno di legge entro la fine dell’anno. Il chatbot basato sull’intelligenza artificiale ChatGPT, supportato da Microsoft, ha creato nuove possibilità attorno all’intelligenza artificiale e i timori sul suo potenziale hanno provocato eccitazione e allarme e l’hanno portata in conflitto con le autorità di regolamentazione.
In reazione al tweet di Altman, l’eurodeputata olandese Kim van Sparrentak, che ha lavorato a stretto contatto sulla bozza delle regole dell’IA, ha detto a Reuters che lei e i suoi colleghi devono resistere alle pressioni delle aziende tecnologiche. “Spero che continueremo a rimanere saldi e garantiremo che queste aziende debbano seguire chiari obblighi in materia di trasparenza, sicurezza e standard. I codici di condotta volontari non sono la via europea”.
OpenAI si è scontrato per la prima volta con le autorità di regolamentazione a marzo, quando il Garante privacy, regolatore italiano dei dati, ha rilevato una serie di irregolarità oggettive che violavano il GDPR e l’azienda ha preferito sospendere immediatamente ChatGPT invece di sfruttare le tre settimane di tempo per adeguarsi alla normativa. ChatGPT è tornato online dopo che la società ha istituito nuove misure sulla privacy per gli utenti.
L’eurodeputato tedesco Sergey Lagodinsky, che ha anche lavorato alla bozza della legge sull’IA, ha dichiarato a Reuters: “Sono felice di sentire che non dobbiamo parlare il linguaggio delle minacce e degli ultimatum. Abbiamo tutti sfide comuni, ma il Parlamento europeo è un alleato per l’IA, non un nemico”.
Nei giorni scorsi, OpenAI ha dichiarato che assegnerà 10 sovvenzioni uguali da un fondo di 1 milione di dollari per esperimenti per determinare come dovrebbe essere governato il software di intelligenza artificiale e Altman ha definito tali sovvenzioni “come decidere democraticamente sul comportamento dei sistemi di intelligenza artificiale”.