NIKON
OPPO

“I social media devono domare gli algoritmi a tutela dei bambini”: Nel Regno Unito le proposte di Ofcom

Regno Unito: duro monito di Ofcom (l’Autorità di Regolazione sui Media) nei confronti dei social media, (a cominciare da Facebook, Instagram e TikTok), da parte di Ofcom. Dopo l’allarme lanciato ad aprile – con la pubblicazione della ricerca che segnalava una presenza sempre più marcata di minori tra i 5 e i 7 anni senza alcuna supervisione da parte dei genitori – l’Autorità di Regolazione sui Media di Sua maestà ha definito che i servizi online e social devono adottare per garantire la sicurezza dei bambini. Le aziende tecnologiche devono agire per fermare i loro algoritmi che raccomandano contenuti dannosi per i bambini e mettere in atto solidi controlli sull’età per mantenerli più sicuri, secondo i piani che sono stati dettagliati.

Social media e la tutela dei bambini

Ofcom ha identificato oltre 40 misure pratiche contenute nella bozza relativa ai Codici di Condotta per la sicurezza dei bambini, in base alle quali i più diffusi servizi online, a partire dai social media più diffusi (Facebook, Instagram e TikTok), provvedano a rispettare le norme in modo rigoroso.

Swipe up

L’Online Safety Act impone nuovi e rigorosi obblighi sui servizi a cui possono accedere i minori, compresi i popolari siti e app di social media e i motori di ricerca. Le aziende devono prima valutare il rischio che il loro servizio comporta per i bambini e poi implementare misure di sicurezza per mitigare tali rischi. Ciò include impedire ai bambini di imbattersi nei contenuti più dannosi relativi al suicidio, all’autolesionismo, ai disturbi alimentari e alla pornografia. I servizi devono anche ridurre al minimo l’esposizione dei bambini ad altri danni gravi, tra cui materiale violento, che incita all’odio o abusivo, bullismo online e contenuti che promuovono sfide pericolose.

Ofcom: le richieste alle Big Tech

La bozza di Ofcom dei Codici di Sicurezza richiede un cambiamento radicale da parte delle aziende tecnologiche e dei social media al fine di agire in modo molto più attento e responsabile, seguendo opportune e precise indicazioni quali:

1. Effettuare controlli approfonditi sull’età per impedire ai bambini di accedere a contenuti dannosi per evitare che in essi si imbattano tenendoli così al sicuro.

2. Garantire che gli algoritmi che consigliano i contenuti non operino in modo da danneggiare i bambini. I sistemi di raccomandazione, ovvero algoritmi che forniscono consigli personalizzati agli utenti, se non vengono controllati, rischiano di offrire ai bambini grandi volumi di contenuti non richiesti e pericolosi nei loro feed di notizie personalizzati o nelle pagine. L’effetto cumulativo della visione di questi contenuti dannosi può avere conseguenze devastanti. Ofcom propone di configurare i loro algoritmi per filtrare i contenuti più dannosi dai feed di questi bambini e ridurre la visibilità e l’importanza di altri contenuti dannosi. I bambini devono anche essere in grado di fornire un feedback negativo direttamente al feed dei consiglieri, in modo che possa capire meglio quali contenuti non vogliono vedere.

3. Introdurre una migliore moderazione dei contenuti dannosi per i bambini. Le prove dimostrano che i contenuti dannosi per i bambini sono disponibili su molti servizi su larga scala, il che suggerisce che gli attuali sforzi dei servizi per moderare i contenuti dannosi sono insufficienti. Secondo la bozza dei Codici di Ofcom, tutti i servizi da utente a utente devono disporre di sistemi e processi di moderazione dei contenuti che garantiscano un’azione rapida contro i contenuti dannosi per i bambini. Ci si aspetta che i motori di ricerca intraprendano azioni simili; e laddove si ritiene che un utente sia un bambino, i grandi servizi di ricerca devono implementare un’impostazione di “ricerca sicura” che non può essere disattivata e deve filtrare i contenuti più dannosi. Altre misure più ampie richiedono politiche chiare da parte dei servizi su quale tipo di contenuto è consentito, su come viene data la priorità ai contenuti per la revisione e che i team di moderazione dei contenuti dispongano di risorse e formazione adeguate.

La prossima consultazione pubblica

Ofcom lancerà un’ulteriore consultazione entro la fine dell’anno su come gli strumenti automatizzati, inclusa l’Intelligenza Artificiale, possono essere utilizzati per rilevare in modo proattivo contenuti illegali e contenuti più dannosi per i bambini, sui social media e online compresi materiale pedopornografico precedentemente non rilevato e contenuti che incoraggiano il suicidio e l’autolesionismo. Dame Melanie Dawes, amministratore delegato dell’Ofcom, ha dichiarato: “Vogliamo che i bambini possano godersi la vita online. Ma per troppo tempo le loro esperienze sono state rovinate da contenuti gravemente dannosi che non possono evitare o controllare. Molti genitori condividono sentimenti di frustrazione e preoccupazione su come proteggere i propri figli. In linea con le nuove leggi sulla sicurezza online, i Codici proposti attribuiscono fermamente alle aziende tecnologiche la responsabilità di garantire la sicurezza dei bambini. Dovranno domare algoritmi aggressivi che inseriscono contenuti dannosi per i più piccoli nei loro feed personalizzati. Servono severi controlli sull’età in modo che i bambini possano vivere un’esperienza adatta a loro. Le nostre misure forniranno un cambiamento radicale nella sicurezza online per i bambini nel Regno Unito. Una volta che saranno in vigore, non esiteremo a utilizzare tutta la nostra gamma di poteri esecutivi per chiedere conto alle piattaforme e ai social media. Questa è una promessa che facciamo ai bambini e ai genitori”.

OPPO
GAMEPEOPLE
DIFUZED
FIZZ
PALADONE
OTL
CROCKPOT
TOPPS
SUBSONIC