rotate-mobile
Domenica, 28 Aprile 2024
Intelligenza artificiale

Così gli hacker usano ChatGpt per produrre fake news

Gruppi di hacktivisti collegati a enti governativi stanno impiegando l'intelligenza artificiale per i loro attacchi informatici

Microsoft e OpenAI hanno diffuso un report nel quale sottolineano come gli hacker stiano, sempre di più, utilizzando gli Llm - i modelli linguistici di grandi dimensioni alla base dei chatbot, come ChatGpt - per migliorare e velocizzare le tecniche di attacco informatico.

In particolare, la ricerca evidenzia manovre di gruppi hacker - con il supporto di Russia, Corea del Nord, Iran e Cina - volte a sfruttare strumenti di intelligenza artificiale per diffondere campagne di false comunicazioni o come supporto per le ricerche di preparazione sui bersagli da colpire. Nel frattempo, per ragioni di sicurezza Microsoft e OpenAI hanno chiuso gli account e le risorse riconducibili alle organizzazioni pericolose individuate.

Strumenti e tecniche dei cybercriminali

Gruppi simili a Strontium (noto anche come APT28, Tsar Team, Fancy Bear), legato all'intelligence militare russa e impegnato anche a sabotare la campagna elettorale di Hillary Clinton nel 2016, sono stati scoperti ad utilizzare i Llm con l'intento di comprendere protocolli per comunicazioni satellitari o individuare soluzioni di imaging radar (tecnologie di rilevamento). Sugli stessi modelli di intelligenza artificiale, gli hacker fanno leva anche per automatizzare - oppure ottimizzare - l'elaborazione di dati e la manipolazione di file.

E ancora, il team di hacker nordcoreano Thallium - già pedinato digitalmente da Microsoft, che ne ha accertato l'attività illegale - sta sfruttando i Llm per individuare vulnerabilità ed elaborare contenuti per campagne di phishing. Gruppi cinesi e iraniani affiliati allo stato userebbero invece i modelli linguistici di grandi dimensioni per la ricerca, scrittura e traduzione di linguaggi in codice di programmazione (e per affinare gli strumenti già esistenti).

Le previsioni dell'intelligence britannica

Il 24 gennaio l'intelligence del Regno Unito ha pubblicato un report sull'uso dell'intelligenza artificiale a sostegno delle attività criminali informatiche, affrontando gli stessi temi esposti nella ricerca di Microsoft e OpenAI. In particolare, il National cyber security centre del Government communications headquarters del Regno Unito prevede che entro il 2026 il ransomware diventerà il principale software dannoso alimentato dall'I.A.

Per gli esperti le cyber minacce riguarderanno sempre di più le aziende, con un rilevante incremento degli attacchi alle infrastrutture critiche dei paesi. Nel tempo, poi, è inevitabile che le barriere d'ingresso alle tecnologie andranno pian piano a ridursi, attraendo nuovi criminali informatici (inclusi individui o collettivi con ridotta esperienza e preparazione).

In Evidenza

Potrebbe interessarti

Così gli hacker usano ChatGpt per produrre fake news

Today è in caricamento