La llegada de nuevas herramientas de inteligencia artificial generativa conducirá a un repunte de los ataques a información sensible durante el próximo año. El riesgo es acusado en aquellas herramientas de IA generativa basadas en modelos de lenguaje grande (Large Language Models, LLM).

Según un reporte reciente de la consultora PWC, más de la mitad de los CEO a nivel mundial buscarán reforzar su postura de seguridad. Su objetivo es contar con más visibilidad para identificar colaboradores que utilicen IA generativa en tareas como escribir código o hacer propuestas comerciales. A menudo, y sin saberlo, estos colaboradores dan acceso a aplicaciones no autorizadas a los almacenamientos de datos confidenciales.

«Prohibir a los empleados el uso de IA generativa es inútil», afirma Terry Ray, SVP, Data Security GTM y Field CTO en Imperva. «Hemos visto esto con otras tecnologías. La gente inevitablemente encuentra la manera de no hacer caso a estas restricciones. Al final sólo se crea un juego de riesgo interminable para los equipos de seguridad».

De acuerdo con el mismo informe de PWC, 42% de los directivos afirma que las violaciones cibernéticas de sus sistemas aumentaron en los últimos 3 años debido a amenazas internas.

Precauciones con la IA generativa

IA generativa
Foto: cortesía de Imperva.

«No es necesario que la gente tenga malas intenciones para provocar una violación de datos», continúa Ray. «La mayoría de las veces, sólo intentan ser más eficientes en su trabajo. Pero si las empresas no ven que los LLM acceden a su código backend o a sus almacenes de datos sensibles, es cuestión de tiempo que tengan un problema de ciberseguridad».

En lugar de confiar en que los empleados no utilicen herramientas no autorizadas de IA generativa, las empresas deben centrarse en proteger sus datos. Deben asegurarse de que pueden responder a preguntas clave como quién accede a ellos, qué, cómo y desde dónde.

Para ello, hay una serie de medidas que toda organización, independientemente de su tamaño, debería adoptar ante la popularización de la IA generativa:

Visibilidad: Es crucial que las organizaciones descubran y tengan visibilidad sobre cada repositorio de datos de su entorno. Así, vigilan que la información importante almacenada en bases de datos no se olvide ni se utilice indebidamente.

Clasificación: Una vez que las organizaciones han creado un inventario de cada almacén de datos, el siguiente paso es clasificar cada activo de datos. Debe hacerse según su tipo, sensibilidad y valor para la organización. Una clasificación eficaz de los datos ayuda a comprender su valor, si peligran y qué controles deben aplicarse para mitigar los riesgos.

Supervisión y análisis: Las empresas también necesitan implementar capacidades de monitoreo y análisis de datos. El objetivo es detectar amenazas como comportamientos anómalos, exfiltración de datos, escalada de privilegios o creación de cuentas sospechosas.