Ir al contenido
Oil for the information age

It’s been remarked that data is the oil of the information age. And if that’s the case, then it’s essential for organizations to recall that their information is valuable.

With more solutions deploying AI and ingesting users’ data, hybrid work, and more users, devices, entitlements, and environments than ever, there’s are new and complex risks to organizations’ data.

Let’s review some of those new risks, including how digital assistants and AI models can introduce new security risks, why identity governance and  administration (IGA) solutions form the basis for data protection, and suggest some best practices organizations can take to keep their data secure.

Tome el control de sus datos

Taking control of data is much easier said than done. Every device, user, machine account, and resource creates, transmits, and processes data. That’s why organizations need an IGA program, which provides organizations with the capabilities they need to:

  1. Mantener la visibilidad y el control de todos los datos de la organización: No se puede controlar lo que no se ve o no se entiende. IGA ayuda a garantizar que las cuentas correctas tengan acceso a los datos correctos mediante la aplicación de revisiones periódicas de acceso y facultando a los propietarios de los datos para aprobar o revocar permisos según sea necesario. También proporciona a sus administradores visibilidad sobre a qué pueden acceder los usuarios actualmente.
  2. Garantizar el cumplimiento continuo: ¿Una de las ventajas de la IGA y la visibilidad de los datos de su organización? Demostrar ese control a los reguladores. IGA puede automatizar flujos de trabajo, informes de auditoría y certificaciones de acceso para demostrar el cumplimiento de GDPR, GLB, SOX, PCI-DSS, HIPAA, ARPA y otras normativas clave.
  3. Proteger los datos sensibles: Las soluciones IGA pueden proporcionar a su equipo de seguridad información procesable sobre el acceso a los datos para identificar y mitigar el acceso no autorizado, ayudando a proteger los datos de los clientes y la propiedad intelectual.
La IA generativa crea nuevos riesgos para la privacidad de los datos

Generative AI models and Large Language Models (LLMs) introduce new risks that organizations need to account for. Instances of Microsoft Copilot, DeepSeek, Claude, and ChatGPT rely on user inputs to train their models. Broadly speaking, that means that whatever a user pastes into a prompt becomes part of the model. Moreover, if your organization uses an AI assistant, then the tool may have wider access to organizational data, and it may not have safeguards limiting when, if, or how it should use that data.

Obviamente, esto puede introducir riesgos significativos. Fíjese en el servicio Azure Health Bot de Microsoft, que "permitía el movimiento lateral por toda la red y, por tanto, el acceso a datos sensibles de los pacientes", por TechRadar. Un informe de abril de 2024 señalaba que 20% de las empresas británicas "tenían datos corporativos potencialmente sensibles expuestos a través del uso por parte de los empleados de IA generativa (GenAI)", por Revista Infosecurity. Cisco estima que una cuarta parte de las empresas han prohibido la IA generativa por estos motivos.

Estas preocupaciones están bien fundadas. Los LLM necesitan una amplia gama de datos de clientes para entrenar sus modelos, y los usuarios han sido entrenados para confiar en la "caja mágica" de las búsquedas de Google y teclear lo que buscan sin miedo. Eso puede poner en peligro información financiera, IP, PII u otros datos sensibles.

No sólo las entradas de los usuarios son arriesgadas. Si se está entrenando a un LLM con tus datos, es posible que terceros puedan consultarlo para encontrar información que preferirías que no se hiciera pública. Asimismo, existe el riesgo de que el propio asistente difunda información por cualquier canal de salida al que pueda comunicarse.

Buenas prácticas para mantener la seguridad de los LLM

Si su organización va a instalar un asistente digital, hay algunas buenas prácticas que debe adoptar para mantenerlo seguro, así como a su equipo.

En primer lugar, pida a su equipo directivo que explique cuáles son los riesgos. Explique qué tipo de información pueden introducir los usuarios y cuál no. En RSA, hemos explicado a nuestro equipo que pueden introducir información destinada al consumo público. Cualquier otra cosa no debería formar parte de una consulta de usuario.

En segundo lugar, asegúrate de activar los controles adecuados. Puede que no siempre sean los ajustes predeterminados del asistente: Si se configuran de forma incorrecta, los asistentes de IA podrían tener acceso a todo lo relacionado con la organización. Asegúrese de que su chatbot sabe qué información puede consultar y qué información puede devolver. Las organizaciones deben aislar los datos adecuadamente, de modo que el usuario X no reciba respuestas basadas en los archivos del usuario Y; de lo contrario, corre el riesgo de que sus empleados lean los correos electrónicos de los demás y accedan a información no deseada.

También necesita saber a qué puede acceder su sistema, cuándo tiene ese acceso y cuándo hace recomendaciones a los usuarios. Asegúrese de aplicar esos conjuntos de reglas en todas las herramientas de IA que haya desplegado (hay varias versiones de Copilot de Microsoft). Y esas herramientas deben encajar en una postura de seguridad alineada.

Por último, pregunte a su proveedor qué ocurre con sus buscadores, datos y respuestas. ¿Los conserva el proveedor? En caso afirmativo, ¿durante cuánto tiempo? ¿Se entrenan otras instancias de la solución con su modelo, o todo queda en privado para usted?

La IA adecuada para la ciberseguridad

En gran parte he hablado de los riesgos que los LLM y la IA generativa plantean a las posturas de ciberseguridad de las organizaciones. Estos modelos de IA suelen acaparar la mayoría de los titulares y representan algunos de los mayores riesgos, aunque solo sea porque cada vez más usuarios introducen instrucciones en ChatGPT, Copilot, etc.

La ciberseguridad también puede beneficiarse de la IA, pero su equipo debe utilizar el modelo adecuado. En términos generales, los LLM y la IA generativa no son adecuados para las operaciones de seguridad en la actualidad. Son una caja negra que produce resultados que un operador humano no siempre puede validar, y sus resultados no siempre son útiles.

Esos modelos se basan en modelos no deterministas (pongo X valores, no sé lo que sale). Los modelos deterministas (introduzco X valores, sé cuál será el resultado y cómo llegará la solución a ese resultado) pueden ser extremadamente útiles para la ciberseguridad.

Hemos estado utilizando RSA® IA de riesgo desde hace décadas para proporcionar información en tiempo real sobre las solicitudes de autenticación. Risk AI es un modelo de aprendizaje automático determinista basado en el riesgo que evalúa la dirección IP y las señales de red de un usuario, los análisis de comportamiento, la geolocalización, las señales basadas en el tiempo, las señales de aplicaciones, las señales relacionadas con dispositivos, etc. para evaluar el riesgo. Si esas señales y comportamientos reflejan el comportamiento típico del usuario en relación consigo mismo y con el resto de la organización, entonces se considera que es de bajo riesgo y puede autenticarse utilizando métodos estándar. Si esos comportamientos se desvían significativamente, el sistema automatiza un desafío de autenticación escalonado y puede señalarlo al equipo de seguridad.

Es importante destacar que RSA Risk AI no recopila información de las organizaciones y no utilizamos ninguna información de una implementación determinada para entrenar futuras iteraciones. Hacemos hash y tokenizamos todos los datos de Risk AI. Cada instancia de Risk AI se despliega para cada cliente, organización por organización, y esos despliegues se ajustan con precisión a sus datos y sólo a sus datos.

Sus datos son valiosos. Manténgalos seguros

No dejes que las mejores prácticas técnicas o los puntos sobre arquitectura de seguridad oscurezcan el punto principal: tus datos son valiosos. Merece la pena que las organizaciones inviertan tiempo y recursos en herramientas, procesos y procedimientos que los mantengan seguros.

Si tiene alguna pregunta sobre cómo hacerlo, estamos aquí para ayuda.

Solicitar una demostración

Demostración