NIKON
OPPO

OpenAI vuole sicurezza e affidabilità per la prossima generazione di GPT

Non è passato inosservato il fatto che OpenAI ha annunciato la formazione di un nuovo “Comitato per la sicurezza e la protezione” per supervisionare la gestione dei rischi per i suoi progetti e operazioni. Questa iniziativa è una vera dichiarazione d’intenti se innestata in un altro annuncio forse passato più in sordina, ovvero che OpenAI ha “recentemente iniziato” lo sviluppo del prossimo modello di intelligenza artificiale. Quest’ultimo sarà un ulteriore step di avvicinamento all’obiettivo finale: ottenere l’intelligenza generale artificiale (AGI). Anche se secondo alcuni esperti del settore la AGI è molto più lontana di quanto possa sembrare. Combinando le due notizie, si evince che l’azienda californiana che, in meno di due anni, ha stravolto il mondo con ChatGPT sta approntando i nuovi modelli di IA concentrandosi maggiormente su sicurezza, protezione e privacy: segno che queste piattaforme stanno davvero raggiungendo limiti in cui la credibilità e l’affidabilità devono essere totali. Lotta alle alluciazioni della IA? Anche, sì.

Stiamo aggregando informazioni per cercare di tracciare una rotta quantomeno intelligente. Perché al momento non è noto se il nuovo modello IA sarà denominato GPT-5 (attualmente la release più recente è la GPT-4o). O se, addirittura, OpenAI vorrà scegliere un nome diverso per identificare uno step evolutivo ancora maggiore rispetto al modello “4”. Nel settore dell’intelligenza artificiale, si definisce “modello di frontiera” il sistema di intelligenza artificiale progettato per ampliare i limiti delle capacità attuali. E “AGI” si riferisce a un ipotetico sistema di intelligenza artificiale con capacità di livello umano per eseguire compiti nuovi e generali oltre i suoi dati di addestramento (a differenza dell’intelligenza artificiale ristretta, che è addestrata per compiti specifici).

Il ruolo del nuovo comitato per la sicurezza e la protezione, guidato dai direttori di OpenAI Bret Taylor (presidente), Adam D’Angelo, Nicole Seligman e Sam Altman (CEO), diventa cruciale. Perché avrà il compito di formulare raccomandazioni sulla sicurezza dell’IA all’intero consiglio di amministrazione dell’azienda. In questo caso, “sicurezza” significa solo in parte il solito “non lasceremo che l’intelligenza artificiale diventi un disonesto e conquisti il ​​mondo”, ma include anche una serie più ampia di “processi e tutele” che l’azienda ha spiegato in un messaggio del 21 maggio, denominato “aggiornamento sulla sicurezza” e che riguarda l’allineamento, la protezione dei bambini, il mantenimento dell’integrità elettorale, la valutazione degli impatti sociali e l’implementazione di misure di sicurezza.

OpenAI sostiene che il primo compito del comitato sarà di valutare e sviluppare ulteriormente tali processi e garanzie. Questo compito sarà svolto nei prossimi 90 giorni. Al termine di questo periodo, il comitato condividerà le sue raccomandazioni con l’intero consiglio e OpenAI condividerà pubblicamente un aggiornamento sulle raccomandazioni adottate. OpenAI sostiene anche che numerosi esperti tecnici e politici faranno parte del comitato, tra cui Aleksander Madry (responsabile della preparazione), Lilian Weng (responsabile dei sistemi di sicurezza), John Schulman (responsabile della scienza dell’allineamento), Matt Knight (responsabile della sicurezza) e Jakub Pachocki (capo scienziato).

L’annuncio è degno di nota in alcuni modi. Per prima cosa, è una reazione alla stampa negativa arrivata dai membri del team OpenAI Superalignment Ilya Sutskever e Jan Leike che si sono dimessi due settimane fa. Quel team aveva il compito di “guidare e controllare sistemi di intelligenza artificiale molto più intelligenti di noi” e la loro partenza ha portato a critiche da parte di alcuni all’interno della comunità di intelligenza artificiale (e dello stesso Leike) secondo cui OpenAI manca di impegno nello sviluppo di sistemi altamente capaci. L’intelligenza artificiale in sicurezza. Altri critici, come Yann LeCun, scienziato capo dell’intelligenza artificiale di Meta, pensano che la società non sia neanche lontanamente vicina allo sviluppo dell’AGI, quindi la preoccupazione per la mancanza di sicurezza dell’intelligenza artificiale super-intelligente potrebbe essere eccessiva.

E poi ci sono voci persistenti secondo cui i progressi nei modelli linguistici di grandi dimensioni (LLM) si sono recentemente stabilizzati attorno a capacità simili a GPT-4. Due principali modelli concorrenti, Claude Opus di Anthropic e Gemini 1.5 Pro di Google, sono più o meno equivalenti alla famiglia GPT-4 in termini di capacità, nonostante ogni incentivo competitivo a superarla. E di recente, quando molti si aspettavano che OpenAI rilasciasse un nuovo modello di intelligenza artificiale che avrebbe chiaramente superato GPT-4 Turbo, ha invece rilasciato GPT-4o, che è più o meno equivalente in termini di capacità ma più veloce. Durante quel lancio, l’azienda ha fatto affidamento su una nuova e appariscente interfaccia conversazionale piuttosto che su un importante aggiornamento nascosto. Questi indizi indicano che OpenAI non sia nemmeno vicino a rilasciare un modello che possa superare significativamente GPT-4. Ma la società è silenziosa sui dettagli, dovremo aspettare e vedere.

OPPO
GAMEPEOPLE
DIFUZED
FIZZ
PALADONE
OTL
CROCKPOT
TOPPS
SUBSONIC