Vai al contenuto
Settimana della privacy 2025

È stato detto che i dati sono il petrolio dell'era dell'informazione. E se questo è il caso, allora Settimana della privacy dei dati è un buon promemoria per ricordare che le vostre informazioni sono preziose. L'evento internazionale consiglia alle persone come salvaguardare i propri dati, gestire le impostazioni sulla privacy e prendere decisioni più informate su chi (e cosa) riceve tali dati.

La Settimana della privacy è anche un buon momento per le organizzazioni per considerare le loro pratiche di protezione dei dati. Con un numero sempre maggiore di soluzioni che implementano l'intelligenza artificiale e ingeriscono i dati degli utenti, il lavoro ibrido e un numero sempre maggiore di utenti, dispositivi, diritti e ambienti, i rischi per i dati delle organizzazioni sono nuovi e complessi.

In occasione della Data Privacy Week, passerò in rassegna alcuni di questi nuovi rischi. Spiegherò come i nuovi assistenti digitali e i modelli di intelligenza artificiale possono introdurre nuovi rischi per la sicurezza, perché le soluzioni di governance e amministrazione dell'identità (IGA) costituiscono la base per la protezione dei dati e suggerirò alcune best practice che le organizzazioni possono adottare per mantenere i loro dati al sicuro.

Prendete il controllo dei vostri dati

Il tema della Settimana della privacy quest'anno è “Prendi il controllo dei tuoi dati”. È un buon obiettivo da raggiungere, ma come la maggior parte delle cose è più facile a dirsi che a farsi. Ogni dispositivo, utente, account macchina e risorsa crea, trasmette ed elabora dati. Ecco perché le organizzazioni hanno bisogno di un programma IGA, che fornisca loro le capacità necessarie per:

  1. Mantenere la visibilità e il controllo su tutti i dati dell'organizzazione: Non si può controllare ciò che non si vede o non si capisce. IGA aiuta a garantire che gli account giusti abbiano accesso ai dati giusti, imponendo revisioni regolari degli accessi e consentendo ai proprietari dei dati di approvare o revocare le autorizzazioni secondo le necessità. Inoltre, fornisce agli amministratori la visibilità di ciò a cui gli utenti possono attualmente accedere.
  2. Garantire una conformità continua: Un vantaggio dell'IGA e della visibilità sui dati dell'organizzazione? Dimostrare il controllo alle autorità di regolamentazione. IGA può automatizzare i flussi di lavoro, i rapporti di audit e le certificazioni di accesso per dimostrare la conformità a GDPR, GLB, SOX, PCI-DSS, HIPAA, ARPA e altre normative chiave.
  3. Proteggere i dati sensibili: Le soluzioni IGA possono fornire al vostro team di sicurezza informazioni utili sull'accesso ai dati per identificare e ridurre gli accessi non autorizzati, contribuendo a proteggere i dati dei clienti e la proprietà intellettuale.
L'IA generativa crea nuovi rischi per la privacy dei dati

I modelli generativi di intelligenza artificiale e i Large Language Models (LLM) introducono nuovi rischi di cui le organizzazioni devono tenere conto. Le istanze di Microsoft Copilot, DeepSeek e ChatGPT si basano sugli input dell'utente per addestrare i loro modelli. In generale, ciò significa che tutto ciò che l'utente incolla in un prompt diventa parte del modello. Inoltre, se l'azienda utilizza un assistente AI, lo strumento potrebbe avere un accesso più ampio ai dati dell'organizzazione e potrebbe non disporre di salvaguardie che limitino quando, se e come utilizzare tali dati.

Questo può ovviamente introdurre rischi significativi. Basti pensare al servizio Azure Health Bot di Microsoft, che “ha consentito il movimento laterale in tutta la rete, e quindi l'accesso a dati sensibili dei pazienti”, secondo quanto riportato da TechRadar. Un rapporto dell'aprile 2024 ha rilevato che 20% delle aziende del Regno Unito “hanno esposto dati aziendali potenzialmente sensibili attraverso l'uso di IA generativa (GenAI) da parte dei dipendenti”. Rivista Infosecurity. Cisco ha stimato che un quarto delle aziende ha vietato l'IA generativa a causa di queste preoccupazioni.

Queste preoccupazioni sono fondate. I LLM hanno bisogno di un'ampia gamma di dati sui clienti per addestrare i loro modelli, e gli utenti sono stati addestrati a fidarsi della “scatola magica” delle ricerche su Google e a digitare senza timore qualsiasi cosa stiano cercando. Questo può mettere a rischio informazioni finanziarie, IP, PII o altri dati sensibili.

Non sono solo gli input degli utenti a essere rischiosi. Se un LLM viene addestrato sui dati dell'utente, terzi potrebbero essere in grado di interrogarlo per trovare informazioni che l'utente preferirebbe non fossero rese pubbliche. Allo stesso modo, c'è il rischio che l'assistente stesso possa trasmettere informazioni su qualsiasi canale di comunicazione in uscita.

Le migliori pratiche per mantenere sicuri gli LLM

Se l'organizzazione intende installare un assistente digitale, è necessario adottare alcune best practice per garantire la sicurezza dell'assistente e del team.

Innanzitutto, chiedete al vostro team di leadership di spiegare quali sono i rischi. Illustrate quali tipi di informazioni gli utenti possono inserire e quali no. In RSA, abbiamo spiegato al nostro team che possono inserire le informazioni destinate al consumo pubblico. Tutto il resto non dovrebbe far parte di una query utente.

In secondo luogo, accertarsi di attivare i controlli giusti. Non sempre si tratta delle impostazioni predefinite dell'assistente: Se configurati in modo errato, gli assistenti AI potrebbero avere accesso a tutto ciò che riguarda l'organizzazione. Assicuratevi che il vostro chatbot sappia quali informazioni può interrogare e quali può restituire. Le organizzazioni devono isolare i dati in modo appropriato, in modo che l'utente X non riceva risposte basate sui file dell'utente Y; altrimenti, si rischia che i dipendenti leggano le e-mail degli altri e accedano a informazioni non volute.

È inoltre necessario sapere a cosa può accedere il sistema, quando può accedervi e quando fornisce raccomandazioni agli utenti. Assicuratevi di applicare queste regole a tutti gli strumenti di intelligenza artificiale che avete implementato (esistono diverse versioni di Copilot di Microsoft). E questi strumenti devono rientrare in una postura di sicurezza allineata.

Infine, chiedete al vostro fornitore cosa succede con i vostri ricercatori, i dati e le risposte. Il fornitore li conserva? Se sì, per quanto tempo? Altre istanze della soluzione vengono addestrate sul vostro modello o tutto rimane privato?

L'IA giusta per la sicurezza informatica

Ho discusso soprattutto dei rischi che gli LLM e l'IA generativa comportano per le posizioni di cybersecurity delle organizzazioni. Questi modelli di IA tendono a ottenere la maggior parte dei titoli dei giornali e rappresentano alcuni dei rischi maggiori, se non altro perché sempre più utenti inseriscono richieste in ChatGPT, Copilot, ecc.

Anche la cybersecurity può trarre vantaggio dall'IA, ma il team deve utilizzare il modello giusto. In linea di massima, gli LLM e l'IA generativa non sono adatti alle operazioni di sicurezza. Sono una scatola nera che produce risultati che un operatore umano non può sempre convalidare e i loro risultati non sono sempre utili.

Questi modelli si basano su modelli non deterministici (inserisco X valori, non so cosa viene fuori). I modelli deterministici (inserisco X valori, so quale sarà il risultato e come la soluzione arriverà a quell'output) possono essere estremamente utili per la cybersecurity.

Abbiamo utilizzato RSA® Rischio AI da decenni per fornire approfondimenti in tempo reale sulle richieste di autenticazione. Risk AI è un modello di apprendimento automatico deterministico basato sul rischio che valuta l'indirizzo IP e i segnali di rete di un utente, l'analisi del comportamento, la geolocalizzazione, i segnali basati sul tempo, i segnali delle applicazioni, i segnali relativi ai dispositivi e altro ancora per valutare il rischio. Se questi segnali e comportamenti riflettono il comportamento tipico dell'utente rispetto a se stesso e al resto dell'organizzazione, allora l'utente è considerato a basso rischio e può autenticarsi con i metodi standard. Se questi comportamenti si discostano in modo significativo, il sistema automatizza una sfida di autenticazione graduale e può segnalarla al team di sicurezza.

È importante notare che RSA Risk AI non raccoglie informazioni sulle organizzazioni e non utilizza le informazioni di una determinata implementazione per addestrare le iterazioni future. Tutti i dati di Risk AI vengono sottoposti a hash e tokenizzazione. Ogni istanza di Risk AI viene distribuita per ogni cliente, organizzazione per organizzazione, e tali distribuzioni vengono messe a punto solo sui loro dati.

I vostri dati sono preziosi. Manteneteli al sicuro

Non lasciate che le best practice tecniche o i punti sull'architettura di sicurezza oscurino il punto principale: i vostri dati sono preziosi. Vale la pena che le organizzazioni investano tempo e risorse negli strumenti, nei processi e nelle procedure che possono mantenerli al sicuro.

Se avete domande su come farlo, siamo a vostra disposizione. Aiuto.

Richiedi una demo

Richiedi una demo