rotate-mobile
Giovedì, 28 Marzo 2024
Tecnologia

ChatGPT: il lato oscuro dell’intelligenza artificiale

Le caratteristiche dei possibili nuovi attacchi cyber criminali generati dall’intelligenza artificiale

È sulla bocca di tutti, dopo il tanto atteso lancio a Novembre 2022: Chat GPT, acronimo di Chat Generative Pre-trained Transformer, è un chatbot basato sull’intelligenza artificiale, utilizzabile al momento gratuitamente e creato da OpenAI. Accedendo al loro sito web è possibile conversare con una “persona virtuale”, un’intelligenza artificiale programmata per rispondere a qualsiasi quesito, grazie ad un sofisticato modello di machine learning che possiede un’alta capacità di apprendimento automatico.

Quali sono, però, i rischi che questo Chatbot può comportare?

ChatGPT ha già attirato a sé molti cyber criminali, che in prima battuta hanno realizzato delle copie pressoché identiche del sito o app, scaricabili dagli store ufficiali, che installate nel cellulare del malcapitato diffondono contenuti malevoli. Il problema più grave è però un altro: attraverso domande specifiche e costruite ad arte, Chat GPT è il perfetto strumento che, nelle mani di un malintenzionato, lo aiuta a realizzare quelle che, nel mondo cyber, vengono chiamati attacchi di “spear phishing". Si tratta, infatti, di attacchi personalizzati, calibrati sulle informazioni che gli utenti, senza accorgersene, condividono sui loro account social e attraverso la navigazione quotidiana su Pc e mobile. In questo modo i cyber criminali utilizzano quindi l’AI per costruire un contenuto ingannevole, creato ad hoc per la persona a cui si rivolgono.

ChatGPT e truffe: i tre principali fattori di rischio

Ermes, eccellenza italiana di cybersicurezza nata all’interno del Politecnico di Torino, ha individuato vari fattori di rischio:

1. La truffa numero uno, quindi, è la nascita di siti di phishing che sfruttano l’hype su ChatGPT, già centinaia solo nelle ultime settimane. Riconoscerli non è facilissimo: hanno domini simili, aspetto delle pagine web pressoché identico e fanno spesso leva su integrazioni inesistenti, creando dei duplicati del servizio che rubano, così, le credenziali a tutti coloro che vi si registrano.

2. Gli attacchi di spear phishing diventano sempre più facili e scalabili con la produzione qualitativa e veloce di campagne email, sms (smishing) o ads (malware), volte a truffe economiche, furto di dati personali o credenziali.

3. La condivisione di informazioni sensibili dell’azienda, con la richiesta di contenuti, risposte ed analisi. Come avviene questo? Ad esempio dando in pasto a queste nuove tecnologie codici di programmi riservati, dati economici o nomi di clienti o partner.

Un esempio pratico: il rischio per le mail aziendali

ChatGPT risponde a qualsiasi domanda, ciò diventa particolarmente pericoloso se utilizzato come attacco alle e-mail aziendali. Scendendo nel dettaglio, gli aggressori utilizzano un modello per generare un’email ingannevole, che spinge il destinatario a fornire informazioni sensibili. Con l’aiuto di ChatGPT, infatti, gli hacker avrebbero la possibilità di personalizzare ogni comunicazione, creando potenzialmente contenuti unici per ogni e-mail generata grazie all’AI, rendendo questi attacchi più difficili da riconoscere.

Allo stesso modo, scrivere e-mail o costruire un sito di phishing può diventare più facile, senza errori di battitura che oggi sono spesso elementi fondamentali per distinguere questi attacchi da fonti legittime. 

La mia cena con ChatGpt: niente sesso, ama Putin e Mussolini

Si parla di

In Evidenza

Potrebbe interessarti

ChatGPT: il lato oscuro dell’intelligenza artificiale

Today è in caricamento