Facebook non impara: i dipendenti hanno avuto accesso alle password
playit

Con un Tweet ufficiale, Facebook ha annunciato che sta testando una funzionalità che sprona gli utenti a condividere articoli dei quali hanno effettivamente letto il contenuto. Con un meccanismo simile a quello già implementato da Twitter, quando un utente cercherà di condividere un post con link che però non ha aperto, il social chiederà all’utente di leggerlo (pena, la perdita “di fatti chiave”) prima di condividerlo. L’utente potrà comunque scegliere di andare avanti e condividere comunque il post.

Il tweet recita: “A partire da oggi, stiamo testando un metodo per promuovere una condivisione di articoli più informata. Se condividi il link a un articolo che non hai aperto, mostreremo un prompt che ti incoraggia ad aprirlo e leggerlo, prima di condividerlo con altri”.

Il prompt a sua volta riporta: “Stai per condividere questo articolo senza averlo aperto. Condividere articoli senza leggerli significa perdere fatti chiave”. Sotto, due tasti offrono la scelta all’utente:

  • Apri l’articolo
  • Continua a coindividere.

La nuova funzionalità di Facebook muove dalla necessità di arginare il dilagare di fake news e contenuti volti alla disinformazione. Ma serve davvero questo strumento? Può avere ricadute nel mondo dell’editoria?

Facebook e Fake News, un rapporto consolidato: i dati

Ci sono almeno due eventi catalizzatori del rapporto tra Facebook e le fake news: le elezioni presidenziali americane del 2016 e la pandemia causata dal covid-19 nel 2020.

“Facebook è di gran lunga il peggior colpevole quando si tratta di diffondere notizie false. Peggio di Google. Peggio di Twitter. E peggio dei provider di webmail come AOL, Yahoo! e Gmail”, diceva Forbes a inizio 2020, citando uno studio pubblicato sulla rivista Nature: Human Behaviour.

Per la ricerca, un team di ricercatori guidato da Andrew Guess della Princeton University aveva monitorato l’uso di Internet di oltre 3000 americani prima delle elezioni presidenziali del 2016. Il team ha scoperto che Facebook è stato il sito di riferimento per fonti di notizie inaffidabili oltre il 15% delle volte. Al contrario, Facebook avrebbe indirizzato gli utenti a siti di notizie autorevoli solo il 6% delle volte.

E sebbene siano molteplici gli studi che dimostrano come un utente convinto di una posizione cambi difficilmente idea in seguito a ciò che vede e legge sui social, sembra però che chi cerca notizie false tramite Facebook e altre piattaforme di referrer pvisita quei siti come un modo per riaffermare convinzioni e opinioni già esistenti.

Con riferimento alle presidenziali del 2016, caso emblematico di un periodo a forte diffusione di fake news, tanto che è proprio qui e con la presidenza Trump conseguente che si è iniziato a porre l’accento su questa problematica, i ricercatori hanno scoperto che i sostenitori di Trump erano molto più propensi a visitare siti di notizie inaffidabili: circa il 57% dei sostenitori di Trump aveva letto almeno un articolo di fake news nel mese precedente le elezioni del 2016 rispetto a solo il 28% dei sostenitori di Clinton. Gli americani più anziani erano anche più propensi a visitare siti web di notizie inaffidabili.

Ed è importante anche quanto tali notizie riescono a catturare l’attenzione: i ricercatori hanno stimato che le persone trascorrono in media 64 secondi a consumare articoli di notizie false rispetto ai soli 42 secondi dedicati alle notizie verificate.

Spostiamo il calendario 4 anni dopo, siamo nel 2020 e il mondo è tramortito dal Covid-19, dal lockdown e dall’incertezza. Avaaz si rivolge a Facebook, complice il ruolo centrale che il digitale in generale e il social in particolare, stanno avendo nel dibattito pubblico. Ebbene, dallo studio emerge che le false notizie relative alla pandemia hanno avuto il doppio delle possibilità di essere lette in Europa che negli Stati Uniti.

Le teorie del complotto legate al Covid-19 hanno imperversato e ancora sono lontane dall’assopirsi: dal ruolo – inesistente – del 5G nella diffusione del virus, alla riaffermazione di Bill Gates e George Soros come grandi maestri satanici della crisi sanitaria, passando per il virus che non esiste e le false dichiarazioni sull’inefficacia e l’inutilità dell’uso della mascherina contro il virus, nel documento si stima che il 56% dei contenuti fake è rimasto costantemente online su Facebook nei Paesi europei di lingua non inglese. Negli USA, solo il 26% degli stessi contenuti era accessibile.

Dall’indagine è emerso anche che l’Italia è stato tra i Paesi europei più esposti alla disinformazione sul Covid-19: in questi casi, Facebook ha preso provvedimenti solo nel 31% delle volte. È andata meglio in Francia, dove Facebook è intervenuto nel 42% dei casi. La Spagna è l’unico Paese europeo che ha registrato livelli maggiori di intervento contro la disinformazione da parte del social media, con il 67% dei provvedimenti presi.

Negli Stati Uniti, in Inghilterra e in Irlanda, sono state prese misure adeguate per contrastare la disinformazione sul Covid con la rimozione del 71% dei contenuti selezionati come fake (74% nel caso degli americani).

Facebook sceglie l’intelligenza artificiale

Quello di cui vi abbiamo parlato in apertura è solo l’ultimo strumento il linea temporale messo in campo da Facebook per proteggere i propri utenti dalle false informazioni.

La situazione è ben nota al social di Mark Zuckerberg sia nel caso della pandemia che in quello delle elezioni che poi, spostando ancora avanti il calendario, si sono riproposte. Dopo 4 anni di Trump, l’attenzione sul ruolo che il social di Zuckerberg avrebbe giocato nella possibile rielezione del magnate era altissima.

Tanto che, come fatto sapere da Facebook, dal 1° marzo al giorno delle elezioni, il social ha mostrato avvisi su oltre 180 milioni di contenuti visualizzati su Facebook da persone negli Stati Uniti che sono stati smascherati da fact checker di fatti di terze parti. Gli strumenti di intelligenza artificiale di Facebook segnalano i probabili problemi per la revisione e trovano automaticamente nuovi casi di informazioni errate precedentemente identificate.

La disinformazione non è una tematica che l’intelligenza artificiale può identificare come se niente fosse. Basti pensare alla satira, a tutte le sfumature della lingua e di contesto che solo un occhio umano può individuare. Due informazioni errate potrebbero contenere la stessa affermazione ma esprimerla in modo molto diverso, riformulandola, utilizzando un’immagine diversa o cambiando il formato da grafico a testo. E poiché gli eventi cambiano rapidamente, specialmente in vista di un’elezione, un nuovo pezzo di disinformazione potrebbe concentrarsi su qualcosa che non era nemmeno nei titoli dei giornali il giorno prima.

Per applicare meglio le etichette di avvertenza su larga scala, Facebook ha dovuto sviluppare nuove tecnologie di intelligenza artificiale per abbinare quasi duplicazioni di disinformazione nota su larga scala. Facebook ha implementato SimSearchNet ++, un modello di corrispondenza delle immagini migliorato che viene addestrato utilizzando l’apprendimento autogestito per abbinare le variazioni di un’immagine con un grado molto elevato di precisione. Viene distribuito come parte del sistema di indicizzazione e corrispondenza delle immagini end-to-end, eseguito su immagini caricate su Facebook e Instagram.

SimSearchNet ++ è resistente a una più ampia varietà di manipolazioni di immagini, come ritagli, sfocature e screenshot. Ciò è particolarmente importante con una piattaforma visiva come Instagram. Per le immagini con testo, è in grado di raggruppare corrispondenze ad alta precisione utilizzando la verifica del riconoscimento ottico dei caratteri (OCR). SimSearchNet ++ è in grado di trovare veri casi di disinformazione attivando al contempo pochi falsi positivi.

Facebook

Credits: Facebook, le immagini non sono identiche ma contengono lo stesso contenuto disinformativo

Facebook ha anche introdotto nuovi sistemi di intelligenza artificiale per rilevare automaticamente nuove varianti di contenuto che i fact checker hanno già smascherato. Una volta che l’intelligenza artificiale ha individuato queste nuove varianti, Facebook può segnalarle a sua volta ai propri partner di verifica per una nuova revisione.

Facebook ha anche prodotto sistemi volti a identificare i deepfake, video che utilizzano l’intelligenza artificiale per mostrare alle persone che fanno e dicono cose che in realtà non hanno fatto o detto. Sono contenuti che possono essere difficili da individuare anche per un revisore esperto. Facebook ha dunque implementato un modello di rilevamento deepfake all’avanguardia con otto reti neurali profonde, ciascuna delle quali utilizza il backbone EfficientNet.

Per identificare nuovi video deepfake che i sistemi non hanno mai visto prima, Facebook usa una nuova tecnica di sintesi dei dati per aggiornare i modelli quasi in tempo reale. Quando viene rilevato un nuovo video deepfake, vengono generati nuovi esempi di deepfake simili da utilizzare come dati di addestramento su larga scala per il modello di rilevamento deepfake. Facebook chiama questo metodo GAN di GAN (GoG) perché genera esempi utilizzando reti generative adversarial (GAN), un’architettura di apprendimento automatico in cui due reti neurali competono tra loro per diventare più accurate. GoG consente di mettere a punto continuamente il sistema in modo che sia più robusto e generalizzato per gestire potenziali deepfake futuri.

Sì, ma la responsabilità degli utenti?

Nonostante per qualcuno i buoi siano scappati da un pezzo dalla stalla, per chi vi scrive è innegabile che Facebook stia cercando di utilizzare le tecnologie più avanzate per arginare una problematica insita nella condivisione e nell’istantaneità che sta alla base dei social. Chi vi scrive è inoltre certo di non essere l’unico ad aver sentito più volte pronunciare la frase “Su Facebook non vado più, ormai è la latrina del web”.

Certo, spesso, soprattutto in concomitanza con grandi eventi polarizzanti, è scoraggiante aprire il feed di Facebook e leggere alcuni commenti e discussioni. Basta poco per empatizzare con questo sentimento: un giro nei commenti ai post di Ansa rende palpabile il problema di una carente e lacunosa cultura digitale.

È vero, ci sono fonti di informazione che talvolta hanno giocato proprio su questa immaturità dell’utenza social: con titoli d’assalto e mezze frasi volte a incuriosire piuttosto che a sostanziare il contenuto dell’articolo, alcune fonti di informazione hanno cercato di rendere meno dolorosa la transizione al digitale cercando di monetizzare con qualunque mezzo. Pena l’impoverimento della professione e dell’informazione e un rallentamento dello sviluppo dell’intelligenza digitale dei cui effetti risentiamo ovviamente ancora oggi.

Ma siamo certi che l’utente in questo non abbia colpa? Perché se anche fosse vero che oggi Facebook è la latrina del web, Facebook è i suoi utenti e agli utenti mette a disposizione una serie di strumenti. Ciò che gli utenti fanno con questi strumenti esula dalla supervisione del social – entro ovviamente i limiti imposti dalla legge e dal buon senso.

Gli attori, del resto, sono molteplici:
– Facebook che fa mea culpa per quanto un’azienda multimiliardaria possa ammettere le proprie colpe in pubblico;
– l’industria dell’informazione che sta cercando di tararsi su livelli più alti anche adottando internamente strumenti di intelligenza artificiale al servizio del fact-checking;
– l’utente che si lamenta e punta il dito contro le prime due entità.

Eppure, se oggi Facebook è costretto a suggerire alle persone di leggerlo davvero un articolo prima di condividerlo, non potrebbe essere che è sull’immediatezza e la superficialità che si è adagiata la nuova coscienza collettiva digitale? Non potrebbe essere che è l’utente, in ultima istanza, a contribuire al diffondersi di notizie false, non verificate e fuorvianti spesso con l’unico obiettivo di confermare una teoria cui lo stesso ha già scelto di aderire senza davvero capire a cosa sta apponendo il bollino di “verità”?

Se una delle malattie del secolo è l’indifferenza all’approfondimento nonostante la mole immensa di informazioni che abbiamo a portata di clic, più che uno strumento posticcio e tardivo sarebbe forse più lungimirante leggere in questa nuova funzionalità il carattere di un primo passo – sicuramente perfezionabile – verso un’educazione digitale che è quantomai necessaria quando la realtà continua a complicarsi su più livelli e ad affidare tali livelli di complicazione anche al digitale.

Facebook sta cercando di far capire all’utente che è lui stesso il primo attore che può promuovere un cambiamento culturale nell’utilizzo dei social e nella circolazione delle notizie, al di là di ciò che promuovono le fonti di informazione con titoli non sempre centrati sul contenuto. Perché se al social sono demandati investimenti da milioni di dollari in sistemi di intelligenza artificiale e machine learning che ci aiutino ad avere informazioni il più corrette possibile, all’utente viene chiesto solo di fare una semplice operazione: leggere l’articolo che sta condividendo.