rotate-mobile
Mercoledì, 24 Aprile 2024
Tecnologia / Stati Uniti d'America

Il sistema innovativo della Apple che riconosce il materiale pedo-pornografico

Si parte con i dispositivi dei clienti statunitensi. Verrà scoperto chiunque lo invia o riceve dai suoi contatti

Meglio dei film di spionaggio. La Apple ha annunciato un sistema innovativo che consentirà di intercettare nell’immediato chiunque riceva materiale pedopornografico e lo invia ai suoi contatti. Lo ha annunciato l’azienda ed è un sistema che per il momento interesserà i dispositivi dei clienti statunitensi. Avverrà tutto in pochissimo tempo: prima che un'immagine venga archiviata su iCloud Photos, la tecnologia cercherà corrispondenze di CSAM (child sexual abuse material – materiale pedopornografico) già noto. Nel caso in cui sia trovata una corrispondenza, un revisore in carne e ossa valuterà e segnalerà l'utente direttamente alle forze dell'ordine.

Ovviamente l’annuncio di questa innovazione ha scatenato una raffica di commenti da parte degli utenti. C’è chi si è dichiarato a favore sostenendo che potrà in questo modo fornire un valido aiuto alla polizia nel ricercare e più velocemente bloccare il traffico di foto e video e magari anche riuscire a smantellare qualche organizzazione criminale. D’altro canto invece sono già partite le critiche e le polemiche di chi vede in questo sistema una preoccupante intromissione nei dati degli utenti. Le preoccupazioni sulla violazione della privacy si allarga fino a ricomprendere anche chi si è lanciato a ipotizzare che questa innovazione possa spingersi a scansionare i telefoni alla ricerca di contenuti diversi da quelli proibiti.

I complottisti ritengono che ben presto questo sistema possa essere utilizzato per carpire informazioni di altra natura, magari anche politici. C’è poi il rischio, già paventato dagli esperti, che la tecnologia possa fare gola anche ai governi autoritari ed essere utilizzata da questi per spiare i propri cittadini. Queste nuove versioni di Ios e IPadOs saranno rilasciate entro la fine dell'anno, la Apple ha annunciato "nuove applicazioni di crittografia per aiutare a limitare la diffusione di CSAM online, progettando interventi per la privacy degli utenti".

Il sistema non si limita solo a fornire un campanello di allarme qualora si riceva un contenuto proibito, ma compara anche le immagini ricevute con un database di foto già note di abusi sessuali su minori. Il database è stato realizzato con il contributo del Centro nazionale degli Stati Uniti per i bambini scomparsi e sfruttati (NCMEC) e di altre organizzazioni che si occupano della sicurezza dei bambini. Tecnicamente le immagini recepite vengono tradotte in "hash", ossia codici numerici che possono essere "associati" a un'immagine su un dispositivo Apple. La società assicura un "livello di precisione estremamente elevato e garantisce meno di una possibilità su un trilione all'anno di segnalare erroneamente un determinato account”. Il match tra le immagini avverrà manualmente e nel caso in cui dovesse verificarsi una corrispondenza, si procederà a disabilitare l'account dell’utente e a segnalare alle forze dell'ordine.

Fonte: BBC News →
Si parla di
Sullo stesso argomento

In Evidenza

Potrebbe interessarti

Il sistema innovativo della Apple che riconosce il materiale pedo-pornografico

Today è in caricamento