Nuance Intelligenza artificiale
PALADONE

Intelligenza Artificiale: il suo sviluppo repentino, come dimostrato da app come ChatGPT, sta complicando gli sforzi dei legislatori dell’Unione Europea per concordare leggi fondamentali sulla materia così delicata, come riferito dall’agenzia Reuters. Nei palazzi di Bruxelles sta suonando più di un semplice campanella d’allarme. Il fronte che si è aperto è più ampio di quanto immaginato e ipotizzato. Il digitale, con le sue nuove declinazioni (non più solo il metaverso), richiede un’azione a tutto campo. Soprattutto che sia rapida. Ma che però – non solo in termini di tempistiche – fatica a trovare concretizzazione.

I rischi per l’Unione Europea

La Commissione dell’Unione Europea ha proposto il progetto di regole quasi due anni fa nel tentativo di proteggere i cittadini dai pericoli della tecnologia emergente, che negli ultimi mesi ha registrato un boom di investimenti e popolarità da parte dei consumatori. Una bozza che richiede l’elaborazione l’approvazione da parte del Parlamento e del Consiglio, affinché possa tradursi in legge. Nella recente riunione a Strasburgo di febbraio, tuttavia, non ha prodotto nulla di buono. Mentre l’industria si aspetta un accordo entro la fine dell’anno, si teme che la complessità e la mancanza di progressi possano ritardare la legislazione al prossimo anno. Ma qui s’innesterebbe un’altra questione: le Elezioni Europee del 2024, infatti, potrebbero vedere l’insediamento di eurodeputati con una serie di priorità completamente diversa. I legislatori stanno lavorando agli oltre 3.000 emendamenti presentati, che coprono tutto, dalla creazione di un nuovo ufficio dedicato alle tematiche dell’Intelligenza Artificiale e dunque alla definizione delle nuove regole. “I negoziati sono piuttosto complessi perché sono coinvolti molti comitati diversi”, ha affermato Brando Benifei, eurodeputato italiano.

Intelligenza Artificiale: il successo di ChatGPT

Sull’Intelligenza Artificiale, i legislatori hanno cercato di trovare un equilibrio tra l’incoraggiamento all’innovazione e la tutela dei diritti fondamentali dei cittadini. Ciò ha portato a classificare diversi strumenti di intelligenza artificiale in base al loro livello di rischio percepito: da minimo a limitato, alto e inaccettabile. Gli strumenti ad alto rischio non saranno vietati, ma richiederanno alle aziende un’elevata trasparenza nelle loro operazioni. Ma questi dibattiti hanno lasciato poco spazio per affrontare tecnologie di Intelligenza Artificiale generativa in espansione come ChatGPT (che a febbraio ha stabilito un record per la base di utenti in più rapida crescita di qualsiasi app) e Stable Diffusion. A questo si sono aggiunti gli altri grandi player che stanno intensificando le azioni su questo versante, da Alphabet a Meta.

Le Big Tech in campo

Le discussioni all’interno dell’Unione Europea hanno sollevato preoccupazioni tra le startup e le Big Tech su come le normative potrebbero influire sulla attività. La preoccupazione è di trovarsi in svantaggio competitivo rispetto ai rivali di altri continenti. Le stesse Big Tech hanno investito miliardi di dollari nella nuova tecnologia. E stanno esercitando forti pressioni per mantenere le loro innovazioni così come sono concepite. Un recente sondaggio condotto da un ente di settore ha mostrato che il 51% degli intervistati si aspetta un rallentamento delle attività di sviluppo dell’Intelligenza Artificiale a seguito della costituzione del cosiddetto AI Act. Per affrontare strumenti come ChatGPT, che hanno applicazioni apparentemente infinite, i legislatori hanno introdotto un’altra categoria. Si chiama “General Purpose AI Systems” (GPAIS), ideata per descrivere strumenti che possono essere adattati per svolgere una serie di funzioni. Non è chiaro se tutti questi saranno considerati ad alto rischio. I rappresentanti delle Big Tech si sono opposti a tali mosse, insistendo che le proprie linee guida interne sono sufficientemente solide da garantire che la tecnologia venga implementata in sicurezza. Suggeriscono inoltre che la legge dovrebbe avere una clausola di opt-in, in base alla quale le aziende possono decidere autonomamente se si applicano le norme. Daniel Ek, ceo della piattaforma di streaming audio Spotify – che ha lanciato il proprio “AI DJ”, in grado di curare playlist personalizzate – ha dichiarato a Reuters: “La tecnologia è un’arma a doppio taglio. Ci sono molte cose che dobbiamo prendere in considerazione. Il nostro team sta lavorando molto attivamente con le autorità di regolamentazione, cercando di garantire che questa tecnologia avvantaggi il maggior numero possibile e sia il più sicura possibile”. I deputati affermano che la legge sarà soggetta a revisioni periodiche, con aggiornamenti che emergeranno in ragione dello sviluppo dell’IA.