PANASONIC LUMIX

Persino Sam Altman, amministratore delegato di OpenAI, ha incentivato i senatori degli Stati Uniti affinché vengano presi provvedimenti regolamentatori per attenuare e azzerare i rischi della IA. L’udienza di Altman si è concentrata su vari aspetti, inclusa la prevenzione della disinformazione elettorale, al fine di rendere chiari e lampanti agli utenti i rischi congeniti nei contenuti generati dall’IA fino ad arrivare a chiedere provvedimenti per fermare gli utenti dall’usare l’intelligenza artificiale per perpetrare danni concreti a cose e persone.  

Altman ha anche parlato delle promesse congenite nell’intelligenza artificiale e ha dettagliato i suoi potenziali danni: “Se questa tecnologia va male, può andare molto male”, ha detto. Un avvertimento a breve termine che Altman vede quanto mai indispensabile. I sistemi di intelligenza artificiale che cercano di influenzare gli elettori in vista delle elezioni statunitensi del 2024 rappresenta “una delle mie aree di maggiore preoccupazione: la capacità generale di questi modelli di fornire disinformazione interattiva uno contro uno”, ha detto Altman, parlando a un’udienza di tre ore davanti a una sottocommissione del Senato.

Chi imporrà e farà rispettare queste e altre regole? Altman ha espresso un sostegno “entusiastico” a una nuova agenzia federale per esaminare il lavoro delle società di intelligenza artificiale (un’altra relatrice, Christina Montgomery, chief privacy and trust officer di IBM, non è d’accordo, affermando che le regole dovrebbero provenire dalle agenzie già in atto). Altman ha anche sostenuto l’idea che quell’agenzia rilasci licenze per prodotti di intelligenza artificiale conformi e sia autorizzata a ritirare una licenza se le violazioni si verificano in seguito.

Altman ha detto che vuole che gli Stati Uniti facciano da apripista, ma assicurarsi che gli impatti siano globali. Un modo in cui gli Stati Uniti potrebbero imporre standard mondiali efficaci, ha suggerito il manager, è attraverso il controllo sui microprocessori che addestrano e gestiscono i sistemi di intelligenza artificiale. Questi chip, chiamati Gpu, sono in gran parte venduti da una società statunitense: Nvidia. L’offerta è limitata e gran parte di essa è nelle mani di altre grandi società tecnologiche statunitensi.

A seconda di come viene scritta qualsiasi legislazione, sta di fatto che seguire l’esempio di Altman comporta anche correre il rischio di cementare il potere attualmente detenuto dai leader nel settore dell’IA – aziende come OpenAI, Google di Alphabet, Microsoft e Amazon – e soffocare l’innovazione delle startup, in particolare quelle collegate alla comunità di software open source. Questo potrebbe non essere l’obiettivo, ma arriverebbe in un momento propizio per l’attuale rassegna di aziende importanti che investono nella IA e per l’amplificarsi di soluzioni “open source”.

Il senatore Cory Booker, un democratico del New Jersey, ha espresso alcune delle stesse preoccupazioni, chiedendo ad Altman di mantenere “un’enorme concentrazione aziendale” nell’IA che è “davvero terrificante”. Altman ha concordato con i legislatori che qualsiasi nuova legislazione non dovrebbe finire per ostacolare le startup e gli sforzi minori. “È importante che qualsiasi nuovo approccio, qualsiasi nuova legge non impedisca all’innovazione di avvenire con aziende più piccole, modelli open source, ricercatori che stanno lavorando su scala ridotta”, ha affermato. “Questa è una parte meravigliosa di questo ecosistema e dell’America e non vogliamo rallentarla”.

Altman ha suggerito un sistema a due livelli: il modo più semplice è imporre categorie di IA in base alla potenza di calcolo utilizzata da un sistema di intelligenza artificiale, con modelli più grandi che ottengono il controllo extra. Ma Altman preferisce un modo più complesso – a suo avviso più accurato – per decidere chi ottiene una regolamentazione più severa. L’idea sarebbe quella di concentrare la regolamentazione sui programmi di intelligenza artificiale che vantano capacità specifiche e potenzialmente dannose.

Il senatore Jon Ossoff della Georgia ha delineato alcune di queste capacità “dannose” a cui Altman ha aggiungo che vanno elencati i modelli che persuadono o manipolano le convinzioni di una persona o creano nuovi agenti biologici.

Alcuni dei senatori sembravano apprezzare molto il punto di vista di Altman. Il senatore John Kennedy della Louisiana temeva che “un’ala frenetica della comunità dell’intelligenza artificiale potesse usare intenzionalmente o meno l’intelligenza artificiale per ucciderci tutti e ferirci per tutto il tempo in cui stiamo morendo”. Quando Altman ha ribadito che abbiamo bisogno di un’agenzia per regolamentare e concedere in licenza l’IA, Kennedy gli ha offerto l’incarico di gestirla, ma Altman ha rifiutato.

Mettendo da parte la questione molto significativa se sia una buona idea chiedere ai leader di un settore come regolamentare lo stesso comparto nel quale fanno business (come l’arbitro che arbitra se stesso), nell’udienza è stata chiara la necessità di un supporto bipartisan per le normative sull’IA.