chatgpt openai garante privacy igizmo
PANASONIC LUMIX

Nell’era della digitalizzazione, l’intelligenza artificiale (IA) sta diventando una parte integrante dell’esistenza di milioni di persone e centinaia di migliaia di professionisti. I campi applicativi sono numerosi e in costante espansione, a partire dalle capacità di orientare le nostre decisioni di acquisto online, passando per la personalizzazione dei contenuti che ci vengono mostrati quando navighiamo sui nostri profili social. 

A fronte di un potere così forte e una presenza così salda, non si possono negare le criticità attuali o potenziali legate alla tecnologia IA. Secondo quanto recentemente emerso, l’intelligenza artificiale potrebbe mettere a rischio la nostra privacy e i nostri dati sensibili.

Il caso ChatGPT

OpenAI, la società americana che ha sviluppato ChatGPT, ha recentemente riscontrato dei problemi che riguardano proprio questo chatbot. Un normale utente ha infatti scoperto un bug che ha costretto questo nuovo colosso del mondo hi-tech a “staccare la spina” all’intelligenza artificiale per procedere a un intervento di manutenzione emergenziale. Il problema era piuttosto serio, infatti, poiché permetteva di leggere i titoli delle discussioni avvenute fra il chatbot e gli altri utenti.

In questa breve stringa riassuntiva, si trovano informazioni solitamente generali sul tipo di richiesta ma non si può escludere che all’interno di una o più di queste frasi, siano presenti dati sensibili e personali degli utenti durante le loro “discussioni” con l’intelligenza artificiale.

I numeri del bug di ChatGPT

Un’indagine successiva più approfondita ha rivelato che il bug potrebbe aver reso di dominio pubblico dati molto più importanti dei “semplici” titoli delle chat. Secondo OpenAI, il bug potrebbe aver rivelato i dati personali dell’1,2% degli abbonati a ChatGPT Plus, abbonamento a pagamento del costo mensile di 20 $ che dà accesso a funzionalità aggiuntive e velocizza la risposta del bot. 

Fra questi dati sarebbero inclusi il nome, cognome, indirizzo email, coordinate di pagamento, e le ultime quattro cifre del numero di una carta di credito di un altro utente attivo. Fortunatamente, i codici completi delle carte di credito usate per pagare i pagamenti non sono stati rivelati.

La soluzione di OpenAI

Viste le potenziali ramificazioni negative della questione, dal lato economico e reputazionale, OpenAI ha prontamente risolto il problema con una patch per la libreria considerata difettosa (per chi fosse interessato alla questione da un punto di vista più tecnico, si tratterebbe del libreria client open-source Redis, redis-py). 

Oltre all’intervento emergenziale, OpenAI avrebbe inoltre applicato misure aggiuntive per prevenire incidenti di cyber security nel futuro, tra cui l’aggiunta di controlli ridondanti alle query nelle librerie, l’esame programmato dei log e un più generale potenziamento del logging.

Gli altri rischi legati all’IA

Mentre OpenAI tenta di salvare il salvabile e prevenire future violazioni dei dati, emerge un altro problema legato alla sicurezza dei dati personali nell’era dell’IA: la violazione delle password. I password cracker basati sull’IA, ovvero gli strumenti ideati specificamente per rivelare in modo illecito le password e le credenziali di accesso di utenti inconsapevoli, sarebbero già in grado di decifrare la maggior parte delle password di sei caratteri o meno in modo istantaneo. 

Per offrire altri dati numerici, il 51% delle password più comuni può essere decifrato in meno di un minuto, il 65% in meno di un’ora, il 71% in meno di un giorno, e l’81% in meno di un mese. Percentuali che mettono in evidenza la necessità di una gestione più efficace delle chiavi di accesso, basata, ad esempio, su strumenti di gestione delle password.

La sicurezza delle password

In linea generale, le password più lunghe sono considerate più sicure. Secondo lo studio, le password di 12 caratteri o più sono considerate difficili da decifrare. Ancora meglio, le password con più di 18 caratteri sono considerate sicure contro strumenti come PassGAN, uno strumento di cracking delle password basato proprio su tecnologia IA.

Ma le preoccupazioni per la sicurezza dei dati non dovrebbero limitarsi esclusivamente alle password. Alcuni esperti di etica e diritto dell’IA hanno rivelato che l’intelligenza artificiale generativa, branca cui appartiene anche ChatGPT, avrebbe il potenziale di carpire e conservare dati privati e confidenziali. 

Anche se gli utenti meno esperti potrebbero pensare che i dati inseriti in un’app AI rimarranno privati, allo stato attuale non si può escludere che queste informazioni vengano utilizzate dagli sviluppatori dell’IA per migliorare i loro servizi o per altri scopi.

Come proteggersi da queste minacce

I dati raccolti in questo articolo sottolineano l’importanza di considerare attentamente quali dati decidiamo di condividere con i bot. Un utente consapevole dovrebbe sapere che, quando condivide dati di qualsiasi natura, corre il rischio di rivelare informazioni personali a una rete molto più ampia di quanto possa pensare.

Per proteggere i tuoi dati, è fondamentale utilizzare password lunghe e complesse, preferibilmente con una combinazione di lettere, numeri e simboli. Bisogna poi evitare di utilizzare la stessa password su diversi account. Corrette abitudini di igiene digitale, come il rinnovamento periodico delle password, non fanno altro che rafforzare la cyber security. Un gestore delle password può essere uno strumento utile per aiutarti a ricordare le tue credenziali.