La proliferación de la inteligencia artificial (IA) está transformando la manera en la que funcionan las organizaciones de todas las industrias. Ahora bien, la acelerada adopción de la IA también presenta diversos riesgos, sobre todo porque no existen lineamientos completamente claros para su uso. Uno de tales riesgos es un problema potencialmente grave: la IA en la sombra, también llamada Shadow AI.

El término “en la sombra” hace referencia a otro fenómeno similar: las TIC en la sombra. Consisten en el uso de software o hardware en una red institucional sin conocimiento, aprobación o supervisión del departamento de TIC. El ejemplo común es el uso de servicios gratuitos de IA en la nube sin supervisión, justamente la Shadow AI.

Eso puede provocar que, sin querer, se introduzcan datos delicados que pongan en riesgo información de la organización. Esto es porque aplicaciones como ChatGPT se utilizan cada vez más para tareas como la edición de texto y análisis de datos.

El atractivo de la GenAI

El atractivo de las herramientas de IA generativa (GenAI) consiste en que se basan en la web, tienen versiones gratuitas y son fácilmente accesibles. Sin embargo, eso implica serios desafíos para los equipos de ciberseguridad, que no pueden supervisarlas fácilmente.

El problema se complica no se involucra al personal de TIC. Si a eso se suma que la gobernanza de tales tecnologías no siempre está bien definida ni se aplica con rigor, se abre el campo para el uso de la Shadow AI.

Los casos en los que ocurren esas situaciones son más comunes de lo que podría pensarse a primera vista. Por ejemplo, el departamento de recursos humanos puede emplear la IA para agilizar sus procesos. Si bien lo anterior no es intrínsecamente erróneo, el problema se presenta cuando recurre —generalmente sin reflexionarlo— a la Shadow AI. Sin medidas de ciberseguridad, tales acciones pueden resultar en la exposición inintencionada de datos.

Frenar la Shadow AI

Ahora bien, las organizaciones se ven continuamente presionadas a incorporar la inteligencia artificial a cada vez más procesos. Y cuanto más potentes sean las herramientas utilizadas, más datos requerirán y aumentarán los riesgos potenciales de exfiltración. Por eso es importante la gobernanza.

Y la amenaza es muy real. Un informe reciente de IBM reveló que el 20% de todas las organizaciones han sufrido exfiltraciones de datos relacionadas con la Shadow AI. Lo más preocupante es que muchos de esos datos incluían información personal confidencial y propiedad intelectual.

En el futuro la GenAI continuará transformando la manera en que funcionan todas las organizaciones. Eso implica un riesgo continuo, pero no irremontable. La Shadow AI no es problema meramente técnico, sino de capacitación y gobernanza. Capacitación para que los usuarios sepan cómo utilizar la IA de manera segura. Y gobernanza, para establecer reglas claras y mecanismos que aseguren su aplicación con rigor.