rotate-mobile
Martedì, 27 Febbraio 2024
Minacce digitali

I porno deepfake sono un terremoto che riguarda tutti

I video iperrealistici generati dai nuovi software di intelligenza artificiale a partire dalle nostre immagini cominciano a spopolare in rete. La stragrande maggioranza sono porno e le vittime sono soprattutto donne, vittime di revenge porn e sfruttamento della propria immagine per fini sessuali, ma presto potrebbero minare anche le nostre democrazie

Il suo nome è QTCinderella e di professione fa la creator digitale e l’influencer. Ma la sua diretta streaming diventata forse più virale è stata quella del gennaio scorso in cui confessava, in lacrime, che aveva visto in rete un video porno con lei come protagonista. Il piccolo particolare è che l’influencer ventinovenne non aveva mai girato un porno, né aveva diffuso alcunché on-line. Qualcuno aveva sovrapposto il suo volto a quello di un'attrice hard e, grazie ai progressi dei nuovi software di elaborazione video, l’aveva resa, suo malgrado, protagonista di immagini a luci rosse. L’influencer si è accorta di quello che era accaduto solo quando ha visto il video incriminato sul pc di un suo collega (e amico) influencer. Sono seguite le scuse dell’uomo e la confessione: aveva pagato un sito per la realizzazione di porno deepfake di QTCinderella e di molte altre influencer.

Può sembrare una vicenda curiosa, ma rischia di diventare più comune di quanto pensiamo. Celebrità come Emma Watson o Scarlett Johansson sono già vittime di video simili e le pubblicità di software per realizzare dei video deepfake sono accessibili dappertutto. Circa il 96% del materiale realizzato è porno e le vittime sono nella stragrande maggioranza dei casi donne.

Porno e deepfake: perché le vittime sono le donne 

Il termine deepfake è relativamente recente: nasce nel 2017. È una tecnica usata essenzialmente per sovrapporre immagini, audio e video. Di per sé è sempre esistita, il punto sono oggi le potenzialità dei nuovi software di intelligenza artificiale. Tramite processi di machine learning e intelligenza artificiale le nuove piattaforme, partendo da contenuti reali (immagini e audio), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce.

La differenza con il passato è che oggi sono praticamente accessibili a tutti. Come rilevato recentemente da un’inchiesta della Nbc i siti che promuovono video porno con i volti di donne non consenzienti (spesso celebrità) sono attualmente raggiungibili tramite Google e vengono pubblicizzati nelle maggiori piattaforme di contenuti porno. I creatori di questi video chiedono poco più di 5 dollari per scaricare centinaia di clip con i video deepfake di celebrità e accettano pagamenti via carta di credito o criptovalute.

I video deepfake con contenuti pornografici raddoppiano ogni anno in rete dal 2018. E molti sono utilizzati esplicitamente per offendere e creare “revenge porn” perché molte piattaforme oggi offrono la possibilità di realizzare deepfake partendo dalle immagini di chiunque. Sempre l’inchiesta della NBC rivela che sull’app Discord un creator digitale chiedeva appena 65 dollari per creare il video della “ragazza che vuoi”. Ma per accorgersi che questi strumenti sono sempre più accessibili (ed economici), come ci ricorda anche la vicenda di Qt Cinderella, è sufficiente farsi un giro in rete. Con la conseguenza che presto, in assenza di un’adeguata regolazione, potrebbero essere maneggiabili e ampiamente diffusi tra tutti gli adolescenti.

E il paradosso è che spesso non è presente nemmeno un quadro normativo capace di colpire adeguatamente i colpevoli. Del resto oggi molte piattaforme di deepfake porno sono tranquillamente raggiungibili tramite i comuni motori di ricerca.

“Ogni singolo avvocato con cui ho parlato è giunto alla conclusione che non c’è un modo con la quale potessi fare causa” ha confessato QtCinderlla. Perché il problema è che, nella frenetica evoluzione tecnologica che viviamo, non sempre i quadri normativi riescono a rimanere al passo. E le conseguenze potrebbero essere enormi anche per la vita politica.

Così il deepfake potrebbe manipolare la democrazia 

Pochi giorni fa è circolata in rete un’immagine inusuale di Papa Francesco. Il pontefice indossava un piumino alla moda, quasi da trapper, un look inusuale anche per una personalità che ha contribuito a svecchiare la Chiesa in molti aspetti.

Negli stessi giorni il Papa è stato ricoverato al Gemelli per un affaticamento respiratorio, una patologia che contrastava fortemente con l’immagine di Francesco con il piumino alla moda. Si trattava ovviamente di un falso generato con l’app Midjourney. E ancora una volta non è tanto il processo che stupisce (i foto-montaggi hanno più o meno la stessa età delle fotografie), ma la facilità con la quale si riesce ormai a manipolare immagini e creare foto iperrealistiche di singole personalità. Nel programma in questione, basato anch’esso su processi di intelligenza artificiale, si può generare un’immagine partendo da un singolo campo di testo. E se in questo caso l’esempio può fare sorridere, ci sono già precedenti che sono solo avvisaglie di quello che può aspettarci.

Questa foto mostra tutti i pericoli dell'intelligenza artificiale

Il 2 marzo del 2022, pochi giorni dopo che la Russia ha invaso l’Ucraina, sul sito Ukraine 24.1 compare un video del presidente Volodymyr Zelenskyy. È in tenuta militare e implora gli ucraini di deporre le armi e arrendersi agli aggressori. Il video diventa subito virale nei social russi  VKontakte e Telegram prima di essere ripreso dai media internazionali ed essere immediatamente smentito. Si tratta infatti di un falso realizzato da hacker russi per perturbare l’andamento del conflitto. Questo è solo uno degli esempi di come, in un mondo dove il virtuale ha assorbito il reale come profetizzato da Jean Baudrillard, questo genere di video potranno essere utilizzati in futuro. 

Legittimare guerre e rivolte, falsificare ordini impartiti, seminare confusione, dividere e demoralizzare gli eserciti in guerra, minare, il supporto popolare, polarizzare i gruppi sociali, screditare i leader e gli oppositori, far litigare potenziali alleati: è l’elenco non esaustivo stilato da uno studio della Northwestern University dei potenziali rischi che in futuro potremmo correre con la diffusione di contenuti deepfake a sfondo politico. Basti immaginare, ad esempio, l’uscita il giorno prima delle elezioni di un video fabbricato ad arte per screditare un avversario politico. Sembra uno scenario partorito dalla serie tv “Black Mirror”, ma presto potrebbe diventare parte della nostra realtà. 

Siete sicuri che questa immagine e queste parole siano reali? L'era del deep fake

In Evidenza

Potrebbe interessarti

Today è in caricamento