Aumenta la pornografia infantile su Instagram e Meta corre ai ripari

Meta, la società madre di Facebook , Instagram e WhatsApp, ha annunciato la formazione di una task force interna per contrastare la diffusione di materiale pedopornografico sui propri social network.

L’annuncio è in risposta a un’indagine congiunta del Wall Street Journal e delle università di Stanford e Massachusetts Amherst, che rivela l’operazione di reti di acquisto e vendita di pedofili su Instagram .

Il sottolinea come alcuni hashtag esplicitamente correlati ad abusi sessuali su minori e algoritmi di raccomandazione siano stati liberamente utilizzati per collegare i pedofili con i venditori di questi materiali.

Secondo la ricerca, i profili trovati da un account di prova su Instagram pubblicizzavano “menu” di contenuti di pedofilia sotto hashtag espliciti come “#pedobait”, “#pedowhore” e “#preteensex”.

Gli account pubblicati con questi hashtag pubblicizzavano la vendita e la commissione (produzione su richiesta) di vari materiali, inclusi video di automutilazione e bestialità.

Una volta che l’account di prova è stato esposto a tali post, gli algoritmi dei social di Meta hanno visualizzato e consigliato altri profili di pornografia infantile.

Il Wall Street Journal ha descritto il meccanismo:

“Seguire solo una manciata di queste raccomandazioni è stato sufficiente per inondare un account di prova con contenuti che sessualizzano i bambini”.

Oltre alle raccomandazioni, il ha rilevato che questi contenuti segnalati venivano spesso ignorati con moderazione, sotto un messaggio automatico che affermava “domanda eccessiva”.

In una nota, Meta ha informato che il team interno si occuperà delle questioni sollevate dal rapporto. “Lo sfruttamento minorile è un crimine orribile. Stiamo continuamente studiando modi per proteggerci attivamente da questo comportamento”.

La società ha annunciato che solo nel gennaio di quest’anno ha rimosso 490.000 account che violavano i suoi termini di protezione dei minori e che negli ultimi due anni ha bloccato 27 reti di pedofili, oltre a bloccare “migliaia di hashtag” sull’argomento.

Leggi anche | Nel rapporto, un alto funzionario sanitario degli Stati Uniti avverte del “profondo rischio” dei social media per i giovani

I potenziali danni dei social network a bambini e giovani sono stati evidenziati in un rapporto pubblicato dalla massima autorità sanitaria degli Stati Uniti

Sebbene l’inchiesta abbia analizzato la distribuzione di materiale pedopornografico in diversi social network, è su Instagram che la ricerca ha rilevato la situazione più critica.

Secondo il Wall Street Journal, gli investigatori di Stanford hanno trovato 128 account che offrivano materiale abusivo su , un numero che rappresenta “meno di un terzo di quello che hanno trovato su Instagram”.

In altri network, come TikTok e Snapchat, non è stata riscontrata proliferazione di questo tipo di materiale. Fonti sentite dal Wall Street Journal sottolineano che il controller di Instagram può e deve fare di più per affrontare la questione.

Per Alex Stamos, leader dello Stanford Internet Observatory ed ex capo della sicurezza di Meta, la situazione è critica:

“Un team di tre accademici con accesso limitato che trova una rete così ampia dovrebbe far scattare gli allarmi a Meta. Non vedo l’ora che la società investa nuovamente in investigatori umani”.

David Thiel, chief technology officer presso l’Osservatorio Internet di Stanford, afferma che Instagram non stava trovando un equilibrio tra la raccomandazione sui contenuti, orientata al coinvolgimento, e le funzionalità di sicurezza:

“Devi mettere in atto delle salvaguardie per qualcosa che è così orientato alla crescita per rimanere nominalmente sicuro, e Instagram non l’ha fatto”.

Leggi anche | L’algoritmo di YouTube consiglia video di pistole e sparatorie a scuola ai giocatori di sesso maschile, rileva la ricerca

La ricerca ha scoperto che l’algoritmo di YouTube mostra contenuti su pistole e sparatorie nelle scuole ai ragazzi interessati ai videogiochi

L’inchiesta sulla diffusione di materiale pedopornografico su Instagram è l’ennesimo punto della crisi d’immagine di Meta, che vive sotto esame per i danni arrecati agli utenti.

Nel 2021, l’ex manager di Instagram Frances Haugen ha reso pubblica una ricerca interna all’azienda che dimostra effetti negativi sullo stato emotivo dei giovani utenti su temi come l’immagine corporea e l’autostima.

Leggi anche | I social media influenzano l’immagine di sé del corpo? La ricerca statunitense mostra di sì

La ricerca mostra che i giovani hanno avuto un miglioramento dell’autostima del proprio corpo quando hanno ridotto l’uso dei social network

A seguito delle fughe di notizie, i rapporti hanno indicato Stati Uniti, e come paesi “prioritari” per moderare i contenuti politici, indicando un’eccessiva proliferazione di notizie false con un alto potenziale di impatto in queste democrazie.

Inoltre, nel 2022 il social network selfie è stato oggetto di multe e in , condannato a pagare 405 milioni di euro (2,1 miliardi di R$) dalla Commissione irlandese per la protezione dei dati (DPC) per aver mostrato i telefoni e le e-mail degli utenti di età compresa tra 13 e 13 anni. 17 sui conti aziendali.

Leggi anche | Niente giornalismo su Facebook? Meta minaccia di bloccare le notizie in California e Canada per non pagare i contenuti

persona che utilizza Facebook sul computer; meta minaccia di interrompere la pubblicazione di notizie in Canada e in California se verranno approvate leggi per pagare il giornalismo

Diritto d’autore riservato. Riproduzione non autorizzata dell’intero contenuto. Riproduzione del primo paragrafo autorizzata purché ci sia un collegamento all’articolo originale.

Clicca su + per scegliere altri social non elencati...