Attenzione: l'intelligenza artificiale mette a rischio la sicurezza informatica
L'intelligenza artificiale sta cambiando in modo massiccio il panorama delle minacce. Offre agli aggressori informatici nuovi modi per colpire le identità e persino per aggirare i meccanismi di autenticazione.
L'intelligenza artificiale (AI) sta influenzando la società moderna a un ritmo senza precedenti. ChatGPT e altri strumenti di AI generativa offrono molti vantaggi, ma possono anche essere sfruttati dagli aggressori per causare molti danni. I CyberArk Labs hanno ora analizzato più da vicino questo panorama di minacce in evoluzione per capire meglio cosa significano i nuovi vettori di attacco dell'IA per i programmi di sicurezza delle identità e per aiutare a sviluppare nuove strategie di difesa.
Concretamente CyberArk ha analizzato tre nuovi scenari di attacco.
Scenario AI 1: Vishing
I dipendenti sono diventati molto diffidenti nei confronti delle e-mail di phishing e sanno a cosa fare attenzione. Con il vishing, invece, ovvero il phishing vocale, questo scetticismo spesso non è presente, aprendo nuove opportunità per i cyber-attaccanti. I modelli di intelligenza artificiale text-to-speech consentono loro di utilizzare facilmente le informazioni disponibili pubblicamente, come le interviste agli amministratori delegati nei media, e di impersonare i dirigenti delle aziende. Instaurando un rapporto di fiducia con il loro obiettivo, possono ottenere l'accesso a credenziali e altre informazioni sensibili. Su larga scala, questi attacchi di vishing possono ora essere eseguiti utilizzando la generazione automatizzata in tempo reale di modelli text-to-speech. Questi deepfakes basati sull'IA sono già comuni e molto difficili da rilevare. Gli esperti di IA prevedono che i contenuti generati dall'IA finiranno per diventare indistinguibili da quelli generati dall'uomo.
Scenario AI 2: autenticazione biometrica
Il riconoscimento facciale è una comprovata opzione di autenticazione biometrica per l'accesso a dispositivi e infrastrutture. Tuttavia, può anche essere ingannato da aggressori che utilizzano l'intelligenza artificiale generativa per compromettere le identità e ottenere l'accesso a un ambiente aziendale. I modelli di IA generativa esistono da anni. Ci si può quindi chiedere: Perché ora c'è tanto clamore su questo tema? In una parola, per la scalabilità. I modelli di oggi possono essere addestrati su una scala incredibile. ChatGPT-3, ad esempio, ha 175 miliardi di parametri, più di cento volte quelli di ChatGPT-2. Questa crescita esponenziale dei parametri supporta falsificazioni realistiche, anche per quanto riguarda il riconoscimento dei volti.
Scenario AI 3: malware polimorfo
In linea di principio, l'IA generativa può essere utilizzata per scrivere tutti i tipi di codice, compreso il malware o il malware polimorfico che può aggirare le soluzioni di sicurezza. Il malware polimorfico cambia la sua implementazione pur mantenendo la sua funzionalità originale. Ad esempio, è possibile che un aggressore utilizzi ChatGPT per generare un Infostealer e modificare continuamente il codice. Se l'aggressore utilizza il malware per infettare un dispositivo endpoint e recuperare i cookie di sessione memorizzati localmente, può impersonare l'utente del dispositivo, aggirare le difese di sicurezza e accedere ai sistemi di destinazione senza essere individuato.
Conclusione
Le tre minacce alla sicurezza informatica basate sull'intelligenza artificiale dimostrano che le identità sono l'obiettivo principale degli aggressori, in quanto offrono il modo più efficace per accedere a sistemi e dati riservati. Di conseguenza, l'uso di una soluzione di sicurezza delle identità è essenziale per la prevenzione delle minacce. Questa soluzione autentica in modo sicuro le identità e le autorizza con i giusti permessi, consentendo loro di accedere alle risorse critiche in modo strutturato. Anche le tecniche di difesa "malware-agnostic" sono importanti. Ciò significa che le aziende dovrebbero adottare anche misure preventive, come l'implementazione del principio del minimo privilegio o di politiche di accesso condizionato per le risorse locali (come l'archiviazione dei cookie) e di rete (come le applicazioni web).
"Gli attacchi basati sull'AI rappresentano una minaccia per la sicurezza informatica, ma allo stesso tempo l'AI è anche un potente strumento per il rilevamento e la mitigazione delle minacce", sottolinea Lavi Lazarovitz, Vice President Cyber Research di CyberArk Labs. "L'AI sarà una componente importante in futuro per affrontare i cambiamenti nel panorama delle minacce, migliorare l'agilità e aiutare le organizzazioni a stare un passo avanti agli aggressori".