L’intelligenza artificiale e la tecnologia deepfake stanno stravolgendo il panorama delle minacce e delle contromisure informatiche: i dati attualmente in nostro possesso ci fanno pensare che continueranno a farlo anche nel 2025. I cyber criminali hanno imparato molto rapidamente a far leva su queste nuove soluzioni tecnologiche per progettare e sferrare attacchi di social engineering sempre più sofisticati e su larga scala.
L’obiettivo è sempre lo stesso: manipolare i destinatari con tecniche avanzate come il phishing, la clonazione vocale e i video deepfake, per mettere le mani su dati di valore. Questo nuovo fronte è estremamente plastico e frastagliato ma in un contesto così incerto, non c’è dubbio che servano strategie di difesa sempre più al passo coi tempi.
L’IA e il phishing: ingegneria sociale 2.0
Il phishing (https://nordvpn.com/it/blog/phishing-cose/) è da tempo uno degli strumenti preferiti dai criminali informatici: l’IA non ha fatto altro che ampliare il potenziale offensivo, al tempo stesso affinandolo dal lato qualitativo e rafforzandolo da quello quantitativo.
Grazie al machine learning, i truffatori possono analizzare enormi quantità di dati personali, per personalizzare le email di phishing e creare messaggi su misura, sempre più convincenti. Ad esempio, l’IA può imitare lo stile di scrittura, la sintassi e il tono generale di un messaggio inviato da un superiore gerarchico (prendendo ad esempio un’azienda “standard”) aumentando così la probabilità che la vittima cada nella trappola.
A questo si aggiunge anche l’aumento quantitativo: dal 2022 a oggi, abbiamo assistito a un incremento di oltre il 1.000% degli attacchi di phishing. Il quadro è indubbiamente molto preoccupante.
Il nuovo ruolo della clonazione vocale
Oltre alle email, l’IA è stata utilizzata in diverse occasioni per creare tracce vocali in grado di clonare quasi alla perfezione l’originale (amministratori delegati o altre figure di alto livello nell’organigramma). I truffatori sfruttano video e interviste disponibili online per addestrare modelli di sintesi vocale; una volta terminata questa fase di allenamento, si possono lanciare veri e propri attacchi mirati.
Per citare un caso recente, avvenuto nel 2024, un dipendente di una multinazionale con sede a Hong Kong è stato indotto a bonificare 25 milioni di dollari a un gruppo di truffatori che aveva utilizzato la tecnologia deepfake per imitare il CFO dell’azienda durante una videochiamata.
È innegabile che l’imitazione audio e video rappresenti una delle minacce più inquietanti nel campo dell’ingegneria sociale. I criminali possono creare video altamente realistici in cui far dire ciò che desiderano a figure apicali dell’azienda messa nel mirino.
Strategie di difesa e soluzioni
Per far fronte a minacce dal potenziale così devastante, bisogna adottare strategie di sicurezza proattive:
1 Verifica su più canali: per qualsiasi richiesta che preveda un trasferimento di denaro o l’invio di documenti sensibili, è sempre meglio effettuare qualche verifica in più, contattando l’interlocutore attraverso più metodi di comunicazione.
2 Formazione del personale: l’errore umano è sempre più giustificabile davanti al potere dell’intelligenza artificiale. Ma, con la giusta dose di consapevolezza e formazione tecnica, i dipendenti potranno prendere la decisione più opportuna a seconda del contesto.
3 Tecnologie di rilevamento dei Deepfake: le aziende più a rischio dovrebbero implementare strumenti di sicurezza in grado di analizzare contenuti audio e video sospetti per verificare che siano autentici.
4 Autenticazione a più fattori: le procedure interne dovrebbero prevedere almeno 2 fattori di autenticazione (e autorizzazione) per accedere a informazioni sensibili o per effettuare pagamenti di qualsiasi tipo.
Se ti interessa il tema dell’autenticazione avanzata, può valere la pena informarsi sulle procedure biometriche che usano i sensori in un contesto “challenge-response”, come nel caso del riconoscimento facciale che richiede un movimento specifico per confermare l’identità dell’utente.
Un altro approccio interessante si basa sui token hardware fisici, come le security keys. Ancora più moderna è l’autenticazione adattiva che analizza il contesto della richiesta di accesso per intervenire in tempo reale e bloccare tentativi sospetti. Ribadiamo, però, che si tratta di soluzioni da inserire in un contesto più ampio, che approcci il tema della cybersicurezza in modo olistico.