Giovedì, 18 Luglio 2024
Rischi e opportunità dell'Ai

La più avanzata intelligenza artificiale non è poi così tanto intelligente

Un'azienda di cybersicurezza milanese ha aggirato le barriere etiche di ChatGpt utilizzando un semplice trucco dialettico, lasciando libero spazio a qualunque argomento, anche illecito o illegale

A meno di una settimana dal lancio, ChatGpt aveva già battuto il suo primo record: un milione di utenti registrati in appena cinque giorni. Non è un caso, visto su internet non si parla di altro da settimane. La nuova intelligenza artificiale di OpenAi d'altronde può fare davvero di tutto: scrive racconti e poesie, fornisce informazioni, chiacchiera, esprime opinioni, in modo quasi indistinguibile da un essere umano. Al momento è ancora una versione di prova, ma fa capire cosa aspettarsi per il futuro, quando gli algoritmi come ChatGpt entreranno prepotentemente in ogni aspetto della nostra vita. Per questo, è importante assicurarsi che siano strumenti sicuri. E non sembra sempre il caso: è infatti possibile aggirare con una certa facilità le linee guida etiche che dovrebbero impedire a ChatGpt di essere utilizzata per fini illeciti o illegali, e farle così dire, e fare, praticamente di tutto. 

A ricordarcelo è l'azienda di cybersicurezza milanese Swascan: il suo offensive team avrebbe infatti aggirato tutte le barriere etiche sviluppate dai programmatori di ChatGpt, cioè quei vincoli programmati nel codice dell'Ai che le impediscono di fornire informazioni o produrre testi potenzialmente offensivi o illeciti. E ci sarebbe riuscito senza utilizzare software o interventi tecnologici, ma con un semplice esercizio di logica e dialettica. Fondamentalmente, basta una semplice chiacchierata, le giuste argomentazioni, ed è possibile raggirare l'Ai e spingerla a fare più o meno qualunque cosa si voglia. 

“Non si è trattato di qualcosa di prettamente tecnico che richiede conoscenza tecnologiche specialistiche. Il bypass è stato realizzato dopo una analisi del comportamento, dell’approccio e flusso logico dell’Ai”, ci spiega il Ceo di Swascan, Pierguido Iezzi. “Dopo aver aggirato le barriere etiche, l’interfaccia dell’intelligenza artificiale con cui abbiamo dialogato era completamente libera dalle sue pastoie etiche. Abbiamo testato fino a quanto potessimo spingerci. Non c’è stata alcuna risposta negativa e nessun prevaricamento da parte di questa Ai”.

Prima che qualcuno si preoccupi eccessivamente, è bene sottolineare che al momento ChatGpt difficilmente può rappresentare un pericolo. Il software è il più avanzato modello di intelligenza artificiale dedicato all'elaborazione del linguaggio naturale disponibile su internet, è vero. Ma è anche una versione beta, messa a disposizione degli utenti proprio per testarne limiti e capacità, e scovare i bug come quello evidenziato dal team di Swascam (e non sono stati gli unici a trovare il modo per aggirare i sistemi di sicurezza di ChatGpt). Si tratta inoltre di una versione scollegata dalla rete, e non può quindi accedere ad alcuna informazione che non le venga fornita da chi la utilizza, o non sia deducibile dal database (pur enorme) di testi con cui è stata addestrata. 

Detto questo, la preview che ci offre ChatGpt mostra anche tutti i rischi che potrebbero sorgere in futuro in un mondo in cui le Ai saranno all'ordine del giorno. L'interfaccia ormai permette di ottenere praticamente qualunque cosa sia riproducibile sotto forma di testo, con una semplice domanda scritta nel linguaggio di tutti i giorni. C'è chi le ha fatto scrivere il codice in Html per un gioco online perfettamente funzionante. Chi le chiede di correggere i compiti dei propri studenti, ottenendo voti praticamente identici a quelli che aveva già assegnato. Chi l'ha sottoposta al test del q.i., ottenendo un risultato di 83 (non proprio brillante, ma insomma...). E chi le ha chiesto di simulare un terminale linux, riuscendo ad accedere a una versione simulata di internet in cui è possibile visitare il sito alternativo di OpenAi e chattare con una versione alternativa di ChatGpt. Le potenzialità, insomma, sembrano infinite. E proprio per questo, è il caso di assicurarsi di aver pensato, e risolto, tutti i potenziali pericoli, prima di procedere con la disseminazione di queste Ai di nuova generazione.

“Con un piccolo assaggio di cosa possono fare strumenti come chatGPT ci possiamo rendere conto di come questo tipo di sviluppo, se non accuratamente guidato, potrebbe rapidamente diventare una lama a doppio taglio: in grado di facilitare la vita di tutti noi, certamente, ma anche essere di fatto un’arma che potrebbe essere usata per fini non etici dal mondo della disinformazione, del criminal hacking, in campo bellico”, concorda Iezzi. “L’innovazione non deve essere fermata, deve essere agevolata e incoraggiata: bisogna però chiarire la posizione dell’uomo e della società in questo nuovo framework digitale della nostra quotidianità”.

In Evidenza

Potrebbe interessarti

La più avanzata intelligenza artificiale non è poi così tanto intelligente
Today è in caricamento