Da quasi 20 anni, RSA impiega l'analisi comportamentale e l'apprendimento automatico per aiutare i nostri clienti a rafforzare la fiducia nelle identità con un contesto storico e in tempo reale sui modelli di autenticazione degli utenti nei loro ambienti. Grazie a questo contesto, i sistemi di autenticazione e accesso possono prendere decisioni più intelligenti sul rischio per migliorare la sicurezza senza impattare sulla produttività o sulla comodità degli utenti finali.
In questo periodo, ho sentito ogni tipo di domanda sul funzionamento del nostro modello: cosa cerca il nostro motore di rischio? Come fa a soppesare una variabile rispetto a un'altra? Posso vedere i calcoli? Posso modificare le ponderazioni?
Mi sono sempre sembrate domande ragionevoli: i nostri clienti sono alcune delle organizzazioni più sicure del mondo. Hanno sempre dato priorità alla cybersecurity e lavorano solo con fornitori in grado di garantire la sicurezza del loro IP, dei loro dipendenti e del loro lavoro.
Consentire agli algoritmi di apprendimento automatico di avere voce in capitolo nella valutazione del rischio o nel coordinamento delle risposte ha rappresentato un cambiamento significativo 20 anni fa. Ma oggi queste domande assumono un'urgenza ancora maggiore. L'IA, o almeno quella che i dipartimenti di marketing chiamano IA, sta diventando più disponibile che mai. L'IA guida le automobili, vince concorsi d'arte, e cercando di convincere un giornalista a lasciare il suo coniuge.
È più rumoroso che mai per gli utenti umani valutare l'intelligenza artificiale. Ed è un peccato, perché ho visto risultati concreti nell'uso dell'intelligenza nell'identità per creare posizioni di sicurezza più forti. Ma arrivarci è più difficile che chiedere ChatGPT.
Ecco perché il Gartner IAM Summit della prossima settimana arriva in un momento così importante. Il ruolo dell'identità è in evoluzione, con un numero sempre maggiore di utenti, dispositivi, diritti e ambienti. Questo porta a nuovi rischi e minacce che le organizzazioni devono affrontare.
E l'intelligenza artificiale può essere una risorsa importante per aiutare le organizzazioni ad adattarsi a queste nuove sfide. Al summit di Gartner, rivelerò alcune delle numerose lezioni che RSA ha imparato in 20 anni di utilizzo dell'intelligenza del rischio per migliorare la sicurezza degli utenti.
È evidente che l'autenticazione basata sul rischio può aiutare le organizzazioni a raggiungere gli obiettivi di sicurezza e convenienza. "Basato sul rischio" non vuol dire assumere di più rischio, significa solo affrontare il rischio in modi diversi.
Se fatto correttamente, l'uso di contesto, analisi e approfondimenti per integrare le tradizionali tecniche di autenticazione e accesso può aiutare le aziende a promuovere una sicurezza più intelligente e più forte. E se lo si fa su scala, le organizzazioni potranno avvicinarsi a un'architettura a fiducia zero. Ma per ottenere un modello corretto è necessaria una vera esperienza: per quanto l'intelligenza artificiale sia cambiata negli ultimi 20 anni, la regola "garbage-in-garbage-out" è ancora valida. Le organizzazioni devono trovare fornitori che sappiano quali informazioni utilizzare nei loro modelli e che sappiano anche come interpretare i risultati.
Un'ultima considerazione: un'organizzazione può ottenere una sicurezza più forte, risultati migliori e un'intelligenza artificiale più intelligente applicando l'intelligenza all'intero universo delle identità. Al Gartner IAM Summit, spiegherò lo spettro dei rischi legati all'identità e come l'intelligenza artificiale può apprendere e proteggere le vulnerabilità nell'iscrizione, nel ciclo di vita e nella governance, oltre che nella semplice autenticazione.
###
Volete saperne di più? Se vi recate al Gartner IAM Summit, partecipate alla sessione di Dave Taku "Intelligent Identity in the AI Era" il 20 marzo alle 15:15 a Dallas 7.
Assicuratevi di visitare RSA allo stand 417 per saperne di più sulla nostra piattaforma per l'identità e per provare le soluzioni RSA.