Qualche settimana fa, un mio amico ha ricevuto un messaggio dal suo capo:
"Ciao Matt, sono in riunione con una conference call in questo momento, non posso parlare al telefono ma fammi sapere se hai ricevuto il mio messaggio. Grazie [nome del capo]".
Se non è ovvio, il testo era un phish. Ci sono alcuni indizi che lo rivelano: ci sono degli strani problemi di spaziatura, è strano firmare un testo ed è insolito che il suo capo avesse bisogno di parlare con Matt immediatamente, ma non per telefono.
Per quanto rozzo, questo phish è comunque migliore di molte truffe inviate via e-mail: il phisher conosceva il nome di Matt, il suo numero di telefono e l'azienda per cui lavora. I truffatori possono usare questi dati per creare un'esca più credibile e convincere qualcuno a cliccare su un link, scaricare un file o consegnare informazioni sensibili.
Phishing rimane una delle principali cause di violazione della sicurezza informatica.. Questo non perché gli attori delle minacce siano nostalgici delle vecchie truffe, ma perché il phishing funziona ancora.
È preoccupante che il lancio di ChatGPT e di altri bot possa rendere le esche di phishing più intelligenti, più onnipresenti e più efficaci.
Nell'ultimo mese, ChatGPT ha fatto parlare di sé: insegnanti sono preoccupati, will.i.am ha fatto riferimento a Davos, e ci sono anche consigli su come utilizzarlo per applicare la tecnologia a incontri online.
ChatGPT è un "nuovo chatbot A.I. all'avanguardia" che uno New York Times Il giornalista lo definisce "semplicemente il miglior chatbot di intelligenza artificiale mai rilasciato al pubblico". Sviluppato da OpenAI, è in grado di generare testi simili a quelli umani.
Anche se lo strumento può avere molte eccentrico Alcuni esperti di cybersicurezza sono preoccupati per ciò che ChatGPT consentirà di fare agli attori delle minacce. CyberArk ha riferito che il bot ha creato "un nuovo filone di malware polimorfo."
Altri si preoccupano di un uso più grossolano, ma comunque efficace: l'impiego di capacità di linguaggio naturale per creare esche di phishing più convincenti.
Gli autori umani e i chatbot possono combinarsi per creare esche di phishing efficaci, perché ciascuno di essi apporta punti di forza unici.
Gli scrittori umani conoscono l'ingegneria sociale e sanno come creare messaggi che siano attraenti e convincenti per i destinatari. Sono inoltre in grado di comprendere il contesto e i riferimenti culturali che renderebbero il messaggio più convincente per i destinatari.
D'altra parte, i chatbot, come i modelli linguistici, comprendono e generano il linguaggio umano, il che consente loro di imitare lo stile e il tono delle organizzazioni reali. Possono anche generare messaggi personalizzati su scala, il che aumenta le possibilità di ingannare il destinatario.
Se combinati, gli autori umani possono creare un messaggio di phishing in grado di attrarre un obiettivo, mentre i chatbot possono generarlo su scala e personalizzarlo per ogni destinatario. Questo rende il messaggio di phishing più convincente e aumenta le probabilità di successo.
Pensiamo che questa combinazione di minacce e bot possa diventare un problema reale, ma abbiamo anche alcune idee su come affrontarlo. Contattateci per saperne di più.
Tutto ciò che abbassa la barriera d'ingresso potrebbe rappresentare una minaccia significativa. Col tempo, gli attori delle minacce potrebbero insegnare ai bot a sfruttare le password o a prendere di mira le e-mail delle violazioni dei dati.
"Sebbene ChatGPT sia un servizio offline, ciò che mi preoccupa è la combinazione di accesso a Internet, automazione e AI per creare attacchi avanzati e persistenti", ha dichiarato Rob Hughes, CISO di RSA.
"Abbiamo visto quanto sia persistente attacchi di bombardamento immediato ha eroso l'attenzione degli utenti", ha continuato Hughes. "Con i chatbot, non ci sarebbe più bisogno di uno spammer per creare il messaggio. Si potrebbe scrivere uno script che dice: 'Acquisisci familiarità con i dati di Internet e continua a mandare messaggi a tizio e caio finché non clicca sul link'. Affidare l'operazione a un bot che non si ritira, non si arrende e lavora su centinaia di utenti contemporaneamente potrebbe davvero cambiare la natura degli attacchi di phishing, consentendo l'uso di strumenti di spear-phishing distribuiti facili da usare".
Chatbot, Truffe telefoniche deepfake, o botnetSe i criminali utilizzano un file audio, un'e-mail o un altro mezzo di comunicazione, il formato e lo strumento che lo sostiene non hanno molta importanza.
Ciò che conta è che stiamo sviluppando strumenti di intelligenza artificiale che potrebbero essere sul punto di sfornare nuove minacce sempre più intelligenti, più velocemente di quanto i criminali umani riescano a produrle, e di diffondere tali minacce più velocemente di quanto il personale di sicurezza informatica riesca a rispondere.
L'unico modo in cui le organizzazioni possono tenere il passo con il ritmo del cambiamento è controllare i bot usando i bot: gli stessi principi di base che permettono a un ChatGPT di scrivere barzellette o tesine sempre migliori possono anche addestrare i sistemi di sicurezza a riconoscere e rispondere a comportamenti sospetti.
Motori di rischio come RSA® Rischio AI possono utilizzare la raccolta dei dati, la corrispondenza dei dispositivi, il rilevamento delle anomalie e l'analisi comportamentale per controllare i tentativi di accesso. L'intelligenza artificiale del rischio esamina il contesto di una richiesta di accesso - chi sta chiedendo una risorsa, quando la sta facendo, quale dispositivo sta usando e altri segnali - per determinare e rispondere al rischio in tempo reale.
In definitiva, queste funzionalità aiutano i team di sicurezza a prendere decisioni di sicurezza più informate, più intelligenti e migliori.
Non sono solo gli usi dannosi dell'IA che possono rappresentare una minaccia per la cybersecurity delle organizzazioni: gli usi aziendali deliberati dell'IA, compresa l'automazione dei processi robotici (RPA), possono prendere un numero di decisioni molto più elevato e molto più velocemente di quanto un singolo essere umano possa tenere il passo.
Allo stesso modo, la tempesta perfetta di ambienti multi-cloud e di una gestione delle identità inadeguata è destinata a far crescere le falle nella sicurezza del cloud e ad esporre le organizzazioni a maggiori rischi, causando 75% di fallimenti nella sicurezza del cloud entro il 2023
Anche in questo caso, le organizzazioni hanno bisogno di soluzioni in grado di adattarsi al problema: RSA® Governance e ciclo di vita è in grado di automatizzare quasi tutto: la soluzione è in grado di inserire automaticamente gli utenti con le giuste abilitazioni, di applicare le politiche di entrata-uscita e di automatizzare il provisioning, il monitoraggio e la reportistica.
Contattateci per saperne di più sull'utilizzo dell'IA nell'IAM.
Bot sempre attivi programmati per il phishing, script RPA in esecuzione senza che nessuno li guardi, leoni, tigri e orsi: ci sarà sempre un'altra minaccia.
"I team di sicurezza informatica non possono sempre prevedere quale sarà la prossima minaccia o da dove arriverà", ha dichiarato Hughes.
"Non concentratevi sui titoli dei giornali. Concentratevi su ciò che potete controllare: educare i vostri utenti, utilizzare l'autenticazione a più fattori e orientarvi verso la fiducia zero. Sono alcuni dei modi migliori per proteggersi dalle minacce che conosciamo oggi e per rimanere protetti da quelle che arriveranno domani".
###