rotate-mobile
Giovedì, 29 Febbraio 2024

Gianluca Anoè

Giornalista

Siete sicuri che questa immagine e queste parole siano reali? L'era del deep fake

Quando le nuove tecnologie si applicano a giochi o passatempi possono trasformarsi in esperimenti potenzialmente molto rischiosi. Con l'intelligenza artificiale a fare da direttore d'orchestra. Le abilità della 'macchina' non sono solo quelle di ragionare, apprendere, pianificare, ma si spingono fino alla creatività. La tendenza forte degli ultimi anni - i primi esperimenti risalgono agli anni '10 - è quella di creare un'immagine compiuta a partire da un testo, o quella di sovrapporre immagini e video esistenti per distorcerne il significato originale. App più o meno sofisticate, in grado di dare un senso compiuto a poche parole, garantendo poi la resa visuale.

Ne è un esempio Wonder, applicazione disponibile per iPhone e smartphone Android. Software a pagamento, che offre, per l'appunto, la possibilità di creare delle immagini, con stili differenti (mitologico, cinematografico, pittura, polaroid, tra i tanti) a partire da uno 'spunto'. La resa finale è un'immagine o foto irreale, che combina la richiesta dell'umano con la comprensione di un input da parte dell'intelligenza artificiale. Siamo nel campo del deepfake? Sì. È un'app che potrebbe creare delle rappresentazioni 'dannose' per il pubblico o ingannare la nostra percezione o le nostre scelte? Allo stato attuale, no.

Ho utilizzato l'app in questione, che si configura, di fatto, come un 'gioco'. Ho insertito la chiave "Stretta di mano tra Putin e Zelensky", e quello che ne è uscito è l'immagine qui sotto. Una resa per nulla realistica e di certo molto approssimativa. Non un documento fotografico utilizzabile per diffondere una fake news. Il risultato è più simile al frame di un videogame di vent'anni fa. È piuttosto evidente.

Schermata 2022-10-18 alle 10.32.16-2

Per intenderci, siamo a dei livelli ben distanti rispetto ai deep fake emersi negli scorsi mesi, che vedevano come protagonisti il presidente russo e quello ucraino. In quel caso la tecnologia era molto più avanzata: in due video distinti, poi rimossi dai social network dove erano stati fatti circolare, Putin e Zelensky annunciavano la fine del conflitto bellico. Due video molto verosimili, in grado di ingannare la percezione degli utenti, ma con evidenti segni di contraffazione. Sta di fatto che non tutti gli occhi (e le orecchie) sono così attenti e allenati; in questo senso, l'utilizzo dell'intelligenza artificiale senza alcun criterio etico può portare a incidenti, equivoci e alla credenza popolare attorno a notizie palesemente fasulle.

'Imagen', Google fa scuola

Il vero problema sta nell'utilizzo inconsapevole, a volte, e senza criterio, più spesso, delle tecnologie più evolute, lasciate nelle mani - è il caso di dirlo - di chiunque. In questo senso fa scuola la decisione di Google di non rendere fruibile a tutti, almeno per il momento, 'Imagen'. Si tratta di un progetto, e come tale ancora in fase di test e sviluppo, in tutto e per tutto simile a quello offerto da Wonder, ma la cui resa finale è all'ennesima potenza più accurata, precisa e fotorealistica. Un modello di trasformazione del testo in immagine "con un grado di realismo senza precedenti e un profondo livello di comprensione del linguaggio", hanno commentato i vertici di Mountain View. L'applicazione è ora nelle mani di sviluppatori e pochi e fortunati 'beta tester' consapevoli dei rischi che una simile tecnologia potrebbe comportare. Il rischio concreto è che associazioni testo-immagini, infatti, possano rimandare a delle rese grafiche dannose, stereotipiche, a sfondo razziale o sessista. Per quanto tecnologia super evoluta, stiamo pur sempre parlando di una macchina pensante, non di un essere umano. Secondo Big G, in sostanza, siamo di fronte ad una evoluzione della tecnologia "non adatta per l'uso pubblico in questo momento".

FakeYou mania

In campo deepfake, si inserisce a pieno titolo 'Fakeyou', app per smartphone che mette a disposizione un campionario di voci di personaggi famosi, create artificialmente. Appaiono 'metalliche', ma da un orecchio poco allenato possono essere percepite come reali. Il meccanismo è semplice: è possibile scrivere un testo a piacimento e selezionare il personaggio che dovrà 'leggerlo'. L'output audio che ne esce può essere montato su un video in cui il protagonista sia il proprietario effettivo della voce. Il risultato che ne esce è piuttosto realistico, dal momento che il sistema è in grado di regolare il movimento delle labbra del personaggio in base a quanto si è deciso di fargli dire.

Di esempi di utilizzo improprio di app di questo genere ce ne sono a decine. Si va dal video in cui Zelensky invitava gli ucraini ad arrendersi all'invasore, a quelli in cui Tom Cruise annunciava di essere sbarcato su TikTok, o Mark Zuckerberg pronunciava delle parole (molto) poco rassicuranti sull'utilizzo dei dati personali da parte di Facebook. Ma la 'FakeYou mania' interessa anche casa nostra, dal momento che gli utenti possono o potevano utilizzare la riproduzione della voce, tra gli altri, di Silvio Berlusconi, Matteo Salvini o Giorgia Meloni (poi rimossa) per creare video fake ad hoc.

Creare un 'falso' è davvero semplice. Per provarlo, abbiamo cercato di replicare con FakeYou l'audio diffuso nei giorni scorsi da LaPresse, nel quale il presidente di Forza Italia, Silvio Berlusconi, dichiara di aver riallacciato i rapporti con il presidente russo Putin. Come è possibile sentire nel video qui sotto, la voce è effettivamente 'metallica' e trascinata, ma un orecchio poco allenato potrebbe facilmente cascarci.

L'istruttoria del Garante della Privacy

È per questo motivo che il Garante della Privacy, nei giorni scorsi, ha aperto un'istruttoria per vederci chiaro. In particolare, le preoccupazioni "si indirizzano verso i potenziali rischi che potrebbero determinarsi da un uso improprio di un dato personale, quale è appunto la voce". In questo senso, l'Autorità ha chiesto alla società che ha realizzato l'app, 'The Storyteller Company" di trasmettere con urgenza ogni possibile elemento utilie a chiarire l'iniziativa.

Le richieste del Garante della Privacy sono chiare: la società, infatti, dovrà "fornire le modalità di 'costruzione' della voce dei personaggi famosi", nonché "il tipo di dati personali trattati e le finalità del trattamento dei dati riferiti ai personaggi noti e agli utenti che utilizzano l'app". Allo stesso tempo, dovrà anche indicare dove siano ubicati i data center che archiviano i dati e "le misure tecniche ed organizzative adottate per garantire un livello di sicurezza adeguato al rischio".

Il tema è caldo, non lo si può sottovalutare, ed è un bene che l'Autorità sia intervenuta 'con il piede a martello', perché l'imitazione digitale della voce - ma più in generale anche del volto e delle movenze - rischia di avere ripercussioni negative: ora per i personaggi celebri, in futuro, chissà, per chiunque. Il deepfake è un potente mezzo che vìola la privacy e rischia di creare grossi danni alla reputazione. Un argine va messo, e in fretta, per evitare di alimentare un terreno di per sé già fertile per calunnie e maldicenze.

Si parla di

Siete sicuri che questa immagine e queste parole siano reali? L'era del deep fake

Today è in caricamento