L’ultima fonte di preoccupazione risiede nelle potenziali applicazioni malevole dell’intelligenza artificiale, che può permettere agli attacchi di apprendere dalle difese in cui si imbattono e adattarsi di conseguenza, aumentando la propria pericolosità. E solo il 39% delle aziende della ricerca di Barracuda ritiene che la propria infrastruttura di sicurezza sia preparata a rispondere alle minacce automatizzate e potenziate grazie all’intelligenza artificiale.
Diventa in ogni caso fondamentale conoscere i nuovi strumenti e le tattiche di cui gli hacker possono servirsi oggi e nel prossimo futuro. Gli esperti dell’azienda hanno analizzato sei applicazioni malevole dell’AI nelle mani degli hacker.
– Creazione di e-mail fraudolente più convincenti. La principale applicazione consiste nell’imitazione di modelli comunicativi per la creazione automatizzata di messaggi più precisi, verosimili e personalizzati. Tale tecnologia favorisce un maggior livello di contestualizzazione linguistica, culturale e settoriale, rendendo l’individuazione delle e-mail fraudolente più difficile da parte delle misure di sicurezza tradizionali;
– Generazione di codice malevolo e adattivo. L’avvento di strumenti malevoli basati su AI come WormGPT e EvilGPT ha permesso ai criminali di automatizzare la ricerca delle vulnerabilità delle vittime, con un conseguente aumento potenziale degli attacchi zero-day, creando malware adattivi, costituiti da codice malevolo in grado di modificare il proprio comportamento per eludere il rilevamento;
– Costruzione di botnet più grandi per attacchi DDoS. Tali botnet potrebbero evitare sistematicamente gli strumenti CAPTCHA e i meccanismi di proof of work, oltre a evolversi per evitare gli algoritmi tradizionali che si basano su serie storiche di dati per identificare i bot;
– Produzione di deepfake. Video e audio falsi, generati a partire da contenuti reali, si stanno imponendo sempre più come potenti strumenti di impersonificazione. Le falsificazioni vocali potrebbero simulare personaggi famosi e influenti per diffondere truffe o innescare campagne di disinformazione;
– Furto di credenziali e tentativi di accesso automatizzati su larga scala. Gli strumenti di intelligenza artificiale possono aiutare a raggiungere questo obiettivo in diversi modi, creando pagine di login false che assomigliano a siti web legittimi per raggirare gli utenti, incrementando la quantità dei tentativi di credential stuffing (test di grandi volumi di combinazioni di password e nomi utente per ottenere l’accesso agli account personali);
– Manipolazione dei modelli di addestramento AI. Se la sicurezza dei dati viene violata, i sistemi basati su tali input rischiano di fornire risultati imprevedibili e pericolosi, soprattutto nel caso di supporto dei processi automatizzati (ad esempio, segnali stradali e meccanismi di controllo dei flussi).
InnovazionePA è una iniziativa Soiel International, dal 1980 punto d’informazione e incontro per chi progetta, realizza e gestisce l’innovazione.
Tra le altre iniziative editoriali di Soiel:
Soiel International Srl
Via Martiri Oscuri 3, 20125 Milano
Tel. +39 0226148855
Fax +39 02827181390
Email: info@soiel.it
CCIAA Milano REA n. 931532 Codice fiscale, Partita IVA n. 02731980153