rotate-mobile
Mercoledì, 29 Maggio 2024
Intelligenza artificiale e deepfake

Come riconoscere le immagini false generate con l'intelligenza artificiale

Se all'IA bastano 13 millisecondi per elaborare un'immagine, grazie ad alcuni accorgimenti si può distinguere il vero dal falso. Soprattutto, con l'aiuto di software (l'ultimo, in ordine di tempo, lo sta testando OpenAI) che riconoscono le foto fake

L'intelligenza artificiale rende sempre più complesso distinguere le immagini reali da quelle create, o modificate, artificialmente grazie ad applicazioni text-to-image (che permettono di generare una foto partendo da comandi testuali). Tra gli strumenti più noti ci sono Dall-e di OpenAI (società che ha sviluppato ChatGpt e Sora) e Midjourney, la piattaforma che ha creato lo scatto, divenuto virale, del Papa con indosso un piumino bianco.

Certo, l'IA non è infallibile e può originare foto con errori più o meno visibili. Qualche esempio? Volti deformati, dita delle mani errate, capelli dall'aspetto poco naturale. Nella frenesia di ogni giorno, però, non sempre si ha il tempo né la voglia di soffermarsi a "studiare" se un'immagine è stata generata con l'intelligenza artificiale. E qui vengono in aiuto una serie software gratuiti - e di facile utilizzo - per riconoscere automaticamente le foto fake.

Software anti-bufale

Lanciata nel 2016, la piattaforma open source di Hugging Face distingue, nell'arco di pochi secondi, gli elementi "umani" e "artificiali" di una foto, restituendo una percentuale all'utente. L'accuratezza? È soddisfacente, fermo restando che non è perfetta al 100 per cento. Nel 2022, invece, la startup Optic ha lanciato sul mercato AI or Not, strumento che fa uso di tecnologie avanzate per autenticare immagini, audio e video, riconoscendo con grande efficacia contenuti reali o falsi che circolano online.

E ancora, sono disponibili l'app AI-Generated Image Detector (caricata l'immagine, l'algoritmo esprime in percentuale se è autentica o generata in modo artificiale), i software Illuminarty (offre un'ampia gamma di funzionalità per riconoscere i contenuti creati con l'IA) e FotoForensics (consente sia di caricare una foto da pc sia di inserire la Url di un contenuto online). Anche Google ha sviluppato un tool - SynthId -, per individuare le immagini create artificialmente. È fruibile dagli utenti Google Cloud.

OpenAI a caccia di deepfake

Aiutare le persone a riconoscere quando un'immagine è stata generata o modificata dall'intelligenza artificiale è tra gli obiettivi di OpenAI. La società californiana fondata nel 2015 ha comunicato, in un post sul proprio blog, l'intenzione di introdurre un programma - al momento in fase di test - capace di rilevare con un tasso del 98 per cento se una grafica è passata sotto le mani di Dall-e 3 (declinazione della sua IA specializzata in immagini).

Tuttavia, questo classificatore non è così efficace nell'identificare contenuti provenienti da altri tool che generano foto - come nel caso di Midjourney -, rilevandoli solo nel 5-10 per cento dei casi. È opportuno ricordare che insieme a Microsoft, suo principale investitore, OpenAI ha lanciato Societal Resilience Fund, un'iniziativa da 2 milioni di dollari per aiutare le persone e le aziende a comprendere i rischi e i vantaggi dell'intelligenza artificiale.

In Evidenza

Potrebbe interessarti

Come riconoscere le immagini false generate con l'intelligenza artificiale

Today è in caricamento