rotate-mobile
Venerdì, 3 Dicembre 2021
Tech

Facebook files: ecco come Mark Zuckerberg decide cosa si pubblica e cosa no

Il quotidiano inglese Guardian ha rivelato per la prima volta le regole e le linee guida segrete di Facebook. Dopo una lunga inchiesta il quotidiano britannico è entrato in possesso di un centinaio di manuali con le regole da rispettare e su come moderare argomenti come violenza, razzismo, terrorismo, odio e pornografia

Come funziona il regolamento interno di Facebook? Una domanda che spesso ci siamo posti, soprattutto pensando ai contenuti che vengono segnalati o bannati. Il Guardian ha scoperto e reso note le 'leggi' in base alle quali i moderatori del social network di Zuckerberg decidono cosa può e non può restare visibile sulla piattaforma. Un vademecum composto da oltre 100 manuali che, tra procedure interne e altre clausole, spiegano come comportarsi quando si ha a che fare con post che trattano temi 'scomodi' come la violenza, il terrorismo, la pornografia e anche il cannibalismo.

I “Facebook Files” sono stati pubblicati oggi dal quotidiano britannico ed è la prima volta che le norme interne al social network fondato da Mark Zuckerberg, che si trova al centro di critiche e pressioni internazionali in merito alla responsabilità dei suoi contenuti, diventano di dominio pubblico.“Facebook non è in grado di controllare i suoi contenuti. E’ cresciuto troppo, troppo velocemente”, ha affermato una fonte al Guardian.

Le norme vanno dal tema del “revenge porn”, cioè le immagini a tema sessuale che vengono pubblicate per “vendicarsi” di un ex partner, alle modalità di gestione degli account falsi. Ai moderatori viene indicato come agire attraverso linee guida dotate di immagini e schemi. Questi, tuttavia, devono muoversi su un filo sottile tra la necessità di cancellare contenuti violenti e quella di tutelare il diritto all’espressione.

Per esempio commenti come “qualcuno spari a Trump” devono essere cancellati, perché rappresentano una minaccia a un capo di stato. Altri come “fottiti e muori” no, perché non sono visti come concreta minaccia.
l confine è sottile. Per esempio, viene ammesso il fatto che Facebook possa mandare live tentativi di autolesionismo, perché non si vuole “censurare o punire persone in difficoltà”. I video di aborti sono ammessi, se non contengono nudità. Immagini di abusi non fisici o di bullismo tra i bambini possono restare, se non hanno intenti sadistici o celebrativi.

In uno dei documenti pubblicati dal Guardian si prende atto che “la gente usa un linguaggio violento per esprimere la frustrazione online” e “deve poterlo fare” sul sito. Insomma “non tutti i contenuti non condivisibili o sgradevoli violano i nostri standard di comunità”.

La riflessione sui contenuti dei social network, recentemente, ha raggiunto un nuovo picco, anche in seguito a eventi di cronaca che hanno acceso un faro sulla capacità dei gestori degli stessi di controllarne i contenuti. Suicidi in seguito a persecuzioni sui social, ma anche uccisioni avvenute in livestream hanno portato a puntare il dito contro queste piattaforme.

Anche i guru del settore stanno ragionando sul peso che le loro invenzioni hanno nella vita della gente e dei paesi. Per esempio, in un’intervista al New York Times, il cofondatore di Twitter Evan Williams ha fatto un’autocritica: “Senza Twitter probabilmente Trump non sarebbe diventato presidente. Mi dispiace”.

Sullo stesso argomento

In Evidenza

Potrebbe interessarti

Facebook files: ecco come Mark Zuckerberg decide cosa si pubblica e cosa no

Today è in caricamento