rotate-mobile
Giovedì, 30 Maggio 2024
Cosa è vero?

L'intelligenza artificiale ha già iniziato ad ingannarci

Foto "più belle" della realtà. L'ultimo esempio queste immagini che mostrano la Luna come vista dagli algoritmi di un moderno smartphone che utilizza un software Ai: un esperimento mostra un aspetto a suo modo inquietante

La polemica non è certo nuova, ma è bastato un post social a rinverdirla. Al centro c’è l’annosa questione della veridicità degli scatti dei nostri smartphone e questa volta l’accusato è il Samsung Galaxy S23, uno dei prodotti top di gamma della multinazionale coreana. In breve: un utente ha postato su Reddit un curioso esperimento. Ha scaricato la foto della luna ad alta risoluzione da un sito web, l’ha rimpicciolita e poi sfocata con Photoshop e poi ha fotografato l’immagine ottenuta con lo smartphone. Il risultato? Il nostro satellite terrestre, pur partendo da un’immagine originale di scarsa qualità, viene ritratto con un livello di definizione incredibile dal Galaxy S23 in cui è possibile vedere, ad esempio, crateri e rilievi.

Social-5

Al di là del vero e del falso 

Il post è diventato immediatamente virale sui social, poi Samsung ha provveduto a chiarire l’equivoco con una nota: “Quando un utente scatta una foto della Luna, la tecnologia di ottimizzazione della scena basata sull'AI, riconosce la Luna come oggetto principale e scatta più fotogrammi per la composizione di più frame, dopodiché l'AI migliora i dettagli della qualità dell'immagine e dei colori. Non applica alcuna sovrapposizione di immagini alla foto”. Sì, la risposta è proprio nell’intelligenza artificiale e in una modalità chiamata “Scene Optimizer”. Parliamo di processi di machine learning basati sulle milioni di immagini disponibili del nostro satellite terrestre. Il software riesce così a ricostruire la morfologia di ciò che sta ritraendo anche partendo da una condizione non ottimale e lo fa per moltissime immagini conosciute, ad esempio per le lettere dell’alfabeto. 

Ma lo scatto è vero o è falso quindi? Probabilmente né l’uno, né l’altro. Del resto, come intuito già prima dello sviluppo delle neuroscienze da uno dei padri della semiotica come Charles Sanders Peirce, anche la nostra visione è inferenziale. Il nostro cervello elabora gli input visivi provenienti dai nostri occhi e li organizza anche sulla base della nostra esperienza. Ma che succede quando questo processo è originato da una macchina? 

Se l’A.I. si sostituisce ai nostri occhi

A occhio, la vicenda del Galaxy S23 ha solamente aperto il famoso vaso di Pandora. Infatti l’intelligenza artificiale è presente da anni in molti dei nostri smartphone e non solo. L’apripista è stata l’azienda cinese Huawei, ma in breve si sono accodati quasi tutti i produttori. In ogni fotografia scattata oggi con un telefono che fa un massiccio uso di A.I. le immagini vengono ricostruite, esattamente, come abbiamo visto per la luna nel caso di Samsung da un sistema di machine learning che ha appreso informazioni essenziali sul nostro mondo fisico e che riesce spesso a restituircelo con un livello di definizione sconosciuto anche ai nostri occhi. Si pensi, ad esempio, alla ricostruzione dei bordi degli oggetti mossi o dei soggetti in penombra. Sono funzioni che spesso utilizziamo senza accorgercene, ma che sono strutturate secondo algoritmi impensabili fino a qualche anno fa. 

Una tecnica che diventa essenziale se si pensa che le camere dei nostri smartphone, sebbene sempre più potenti e professionali, sono tuttora molto diverse dalle nostre fotocamere e dai processi ottici che le caratterizzano. Ma il software potrebbe anche creare degli scherzi. L’algoritmo di una fotocamera potrebbe ad esempio decidere di esaltare il blu del mare o il rosso dei pomodori a livello compositivo. Ancora una volta il problema è quello dell’interpretazione: le intelligenze artificiali sono costruite per restituirci quello che pensano essere “più adatto” a noi. E paradossalmente un domani il rischio è di trovarci un processo percettivo ritagliato sulle nostre preferenze o personalità, un po’ come avviene oggi per i social. Sembra fantascienza, ma la realtà ci ha insegnato che la science fiction di oggi può in breve trasformarsi nella realtà di domani. 

Così l’intelligenza artificiale migliora i nostri vecchi scatti 

E l’intelligenza artificiale non è ormai fondamentale solo nel caso delle fotocamere, ma anche nei processi di post-produzione, ovvero di modifica delle fotografie una volta realizzate. Sono sempre più diffusi software basati su modelli di A.I. utilizzati per migliorare la qualità dell’immagine che si basano sull’elaborazione dei PPI, ovvero dei pixel per pollice. La definizione della nostra immagine dipende infatti dalla quantità di “punti” (o pixel) utilizzati per rappresentarla, ma non sempre le informazioni sono ottimali. Molti di questi software aggiungono i pixel aggiuntivi mancanti studiando ed elaborando l’immagine, restituendoci così un livello di definizione sconosciuto nella versione originale. 

Programmi, presenti in rete come Deep.Ai, Let’s Enhance o Waifu2x presentano già questa funzione, insieme a molte altre, per migliorare e manipolare le proprie foto. Ma da tempo anche il software per eccellenza per il fotoritocco, come Adobe Photoshop, ha inserito diversi algoritmi di intelligenza artificiale e anche Google è della partita.  Va da sé che questi software potranno venire utilizzati anche per ricreare dettagli e particolari che spesso non avevamo nemmeno notato fotografandoli. Siete pronti a elaborare quella vecchia foto sgranata dei vostri 14 anni e scoprire i colori e i particolari di quel giorno d’estate che non riuscite più a scordare? 


 


 

Sullo stesso argomento

In Evidenza

Potrebbe interessarti

Today è in caricamento