
Un gruppo di ingegneri di Facebook ha identificato un “enorme bug nella gestione del ranking” che ha colpito addirittura la metà di tutte le visualizzazioni del feed di notizie e ha causato potenziali “rischi per l’integrità” negli ultimi sei mesi, secondo un rapporto interno sull’incidente ottenuto da The Verge.
Gli ingegneri di Facebook hanno notato il problema (bug) per la prima volta lo scorso ottobre, quando un’improvvisa ondata di disinformazione ha iniziato a fluire attraverso il feed delle notizie, rileva il rapporto, che è stato condiviso all’interno dell’azienda la scorsa settimana. Invece di sopprimere i post causati dai trasgressori, ossia da chi ha continuato a fare disinformazione ripetuta e che sono stati esaminati dalla rete di utenti verificatori esterni dell’azienda, il feed di notizie ha favorito la visualizzazione dei post incriminati aumentando le visualizzazioni fino al 30% a livello globale. Incapaci di trovare la causa principale, gli ingegneri hanno visto l’impennata diminuire alcune settimane dopo e poi divampare ripetutamente fino a quando il problema del ranking non è stato risolto l’11 marzo.
Oltre ai post segnalati dai fact-checker, l’indagine interna ha rilevato che, durante il periodo del bug, i sistemi di Facebook non sono riusciti a filtrare adeguatamente la probabile nudità, la violenza e persino i media statali russi a causa delbug. Questo nonostante il fatto che social network abbia recentemente promesso di boicottare contenuti inerenti all’invasione dell’Ucraina. Il problema è stato internamente designato come SEV di livello uno, o evento del sito, un’etichetta riservata alle crisi tecniche ad alta priorità, come il blocco in corso in Russia di Facebook e Instagram.
Il portavoce di Meta Joe Osborne ha confermato che l’incidente in una dichiarazione a The Verge , sostenendo che la società “ha rilevato incongruenze nel declassamento in cinque diverse occasioni, correlate a piccoli e temporanei aumenti delle metriche interne”.
I documenti interni affermavano che il problema tecnico è stato introdotto per la prima volta nel 2019 ma non ha creato un impatto evidente fino a ottobre 2021. “Abbiamo rintracciato la causa principale in un bug del software e applicato le correzioni necessarie”, ha affermato Osborne, aggiungendo che il bug “non ha ha avuto un impatto significativo a lungo termine sulle nostre metriche” e non si applicava ai contenuti che soddisfacevano la soglia di eliminazione del sistema.
Per anni, Facebook ha propagandato il downranking come un modo per migliorare la qualità del feed di notizie e ha costantemente ampliato i tipi di contenuti su cui agisce il suo sistema automatizzato. Il downranking è stato impiegato in risposta a guerre e vicende politiche controverse, suscitando preoccupazioni per i “divieti ombra” e le richieste “subliminali” di legislazione . Nonostante la sua crescente importanza, Facebook deve ancora comprendere appieno l’impatto su ciò che le persone vedono e, come mostra questo incidente, su cosa succede quando il sistema non opera come dovrebbe o come previsto.
Nel 2018, il CEO Mark Zuckerberg ha spiegato che il declassamento combatte l’impulso che le persone hanno a impegnarsi intrinsecamente con contenuti “più sensazionalistici e provocatori”. “La nostra ricerca suggerisce che, indipendentemente da dove tracciamo i limiti per ciò che è consentito, quando un contenuto si avvicina a quella linea, le persone in media si impegneranno di più con esso, anche quando in seguito ci dicono che non gli piace il contenuto ”, ha scritto in un post su Facebook in quel momento.
Il downranking non solo sopprime ciò che Facebook chiama i contenuti “borderline” che si avvicinano alla violazione delle sue regole, ma anche i post che i suoi sistemi di intelligenza artificiale sospettano che causino una violazione delle regole ma necessitano di un’ulteriore revisione umana. La società ha pubblicato un elenco di alto livello di ciò che è stato retrocesso lo scorso settembre, ma non ha spiegato in che modo esattamente la retrocessione influisca sulla distribuzione dei contenuti interessati. I funzionari hanno fatto sapere che sperano di fare ancora più luce su come funzionano le retrocessioni, ma temono che così facendo aiuterebbe gli avversari a giocare con il sistema.
Nel frattempo, i leader di Facebook si vantano regolarmente di come i loro sistemi di intelligenza artificiale stiano migliorando ogni anno nel rilevare in modo proattivo contenuti come l’incitamento all’odio, dando maggiore importanza alla tecnologia come modo per moderare su larga scala. L’anno scorso, Facebook ha dichiarato che avrebbe iniziato a declassare tutti i contenuti politici nel feed di notizie, un’azione che è parte della spinta del ceo Mark Zuckerberg per riportare l’app di Facebook alle sue radici più leggere e di dialogo aperto, se non fosse che nel frattempo si è sviluppato il bug di cui vi diamo notizia.
Di fatto questo nuovo incidente mostra perché è necessaria una maggiore trasparenza nelle piattaforme Internet e negli algoritmi che utilizzano, secondo Sahar Massachi, un ex membro del team di integrità civica di Facebook.
“In un grande sistema complesso come questo, i bug sono inevitabili e comprensibili”, ha detto a The Verge Massachi, che ora è co-fondatore dell’Integrity Institute senza scopo di lucro . “Ma cosa succede quando una potente piattaforma social ha uno di questi errori accidentali? Come potremmo anche saperlo? Abbiamo bisogno di una vera trasparenza per costruire un sistema sostenibile di responsabilità, in modo che possiamo aiutarli a cogliere rapidamente questi problemi”.