rotate-mobile
Domenica, 28 Aprile 2024
L'allarme / Stati Uniti d'America

L'algoritmo di Instagram suggerisce video sessuali ai minori

In base ai test effettuati dai giornalisti del Wall Street Journal, sul social network ci sono filmati per adulti e altri contenuti espliciti ai minorenni

Tra il post pubblicitario di una nota catena di ristorazione e l'annuncio di un'app di incontri potrebbero comparire su Instagram video per adulti e altri contenuti a carattere sessuale. È quanto scoperto dal Wall Street Journal, che ha lanciato un allarme sul funzionamento dell'algoritmo dei reels che suggerisce contenuti a sfondo sessuale o pedopornografico. 

Video per adulti a disposizione dei minori

I giornalisti del quotidiano statunitense sono arrivati a questa conclusione dopo aver effettuato un test. Hanno aperto diversi profili falsi, scegliendo di seguire solo giovani ginnaste, cheerleaders e influencer adolescenti attivi sul social di proprietà di Meta per poi notare che l'algoritmo dei reels faceva vedere vari contenuti vietati ai minori, inclusi alcuni video per adulti.

I giornalisti hanno inoltre scoperto che tra i migliaia di follower degli account aperti da minorenni ci sono numerosi uomini adulti. Anche il Canadian Centre for Child Protection ha effettuato un test simile, ottenendo gli stessi risultati. La tesi dell'inchiesta del Wall Street Journal è stata respinta da un portavoce di Meta, secondo cui la metodologia del test dei giornalisti del quotidiano statunitense non rappresenta la reale esperienza di miliardi di utenti e quello che loro vedono. Meta, alla richiesta di chiarimenti dei giornalisti del Wall Street Journal, ha rifiutato di spiegare il motivo per cui gli algoritmi suggeriscono video che mostrano bambini, sesso e pubblicità.

Un portavoce dell'azienda ha reso noto che lo scorso ottobre Meta ha introdotto nuovi strumenti di sicurezza per consentire agli inserzionisti un maggiore controllo su dove appaiono i loro annunci. Questo perché i grandi marchi aziendali possono scegliere dove mostrare le inserzioni pubblicitarie; tuttavia, sembra che il tool  non funzioni correttamente. In seguito alla scoperta del Wall Street Journal, Disney, Match Group, Bumble e Hims hanno sospeso le campagne pubblicitarie su Instagram.

Secondo il portavoce del colosso tecnologico, ogni mese il social network rimuove o riduce quattro milioni di video sospettati di violare gli standard sui contenuti sensibili. Tuttavia, l'azienda statunitense ha dichiarato di voler avviare un'indagine su quanto emerso dai test effettuati dal quotidiano. Meta infatti non sarebbe all'oscuro del problema, stando a quando dichiarato da attuali ed ex dipendenti dell'azienda. 

Facciamo chiarezza. L'algoritmo dovrebbe suggerire contenuti simili a quelli già visti dall'utente, quindi in base alla precedente attività, ma invece compaiono i video per adulti che non dovrebbero essere presenti su Instagram. Secondo il Wall Street Journal, l'obiettivo è chiaro: "creare una dipendenza" per gli utenti e suggerire anche video di utenti non seguiti, come accade già su TikTok. 

Instagram è il luogo dove si incontrano i pedofoli

Non è la prima volta che il Wall Street Journal evidenzia la proliferazione di contenuti a sfondo sessuale per adulti su Instagram. Secondo un'inchiesta dello scorso giugno realizzata dal quotidiano statunitense e dai ricercatori della Stanford University e dell'Università del Massachusetts Amherst, il social network di proprietà di Meta è il più utilizzato dalle reti di pedofili per promuovere e vendere contenuti che mostrano violenze sessuali su minori. Questo perché l'algoritmo di Instagram contribuirebbe a mettere in contatto una vasta rete di profili per far fruire contenuti pedopornografici e quindi illegali. Nonostante la moderazione, Instagram consente agli utenti di ricercare determinati hashtag, utili a mettersi in contatto con altri profili dedicati apertamente alla vendita di contenuti relativi all'abuso sessuale su minori. 

Secondo il quotidiano statunitense, una semplice ricerca di parole chiave come #pedowhore o #preteensex porta ad account che utilizzano questi termini per pubblicizzare contenuti che mostrano abusi sessuali su minori o atti sessuali compiuti tra minori e animali. È emerso poi che in molti casi i profili fanno spesso finta di essere gestiti dai bambini stessi. Anche allora, Meta era stata contattata dal quotidiano, dal momento che la promozione e la vendita di contenuti relativi all'abuso sessuale su minori è un reato federale, oltre a rappresentare una violazione delle linee guida delle piattaforme. 

La società di Mark Zuckerberg ha riconosciuto la presenza di ostacoli alla moderazione dei suddetti contenuti e ha istituito una task force interna per risolvere questo problema: l'azienda tecnologica ha quindi rimosso dalla piattaforma "migliaia di hashtag" utilizzati dai pedofili per mettersi in contatto con i venditori e con altri criminali sessuali. 

Continua a leggere su Today...

In Evidenza

Potrebbe interessarti

L'algoritmo di Instagram suggerisce video sessuali ai minori

Today è in caricamento