La proliferación de la inteligencia artificial (IA) está transformando la manera en la que funcionan las universidades y la educación superior. Ahora bien, la acelerada adopción de la IA también presenta diversos riesgos, sobre todo porque no existen lineamientos completamente claros para su uso. De hecho, el Estudio del Panorama de la IA, de Educause, señala que la gobernanza de la IA no es tan importante para muchas universidades; tan sólo 27% de las instituciones analizadas la consideran prioritaria. Esa falta de atención abre las puertas a un problema potencialmente grave: la IA en la sombra.

El término “en la sombra” hace referencia a otro fenómeno similar: las TIC en la sombra. Consisten en el uso de software o hardware en una red institucional sin conocimiento, aprobación o supervisión del departamento de TIC. Un ejemplo común es el uso de servicios gratuitos de almacenamiento en la nube, que no siempre cumplen con los estándares mínimos de seguridad. De manera análoga, la IA en la sombra (shadow AI) consiste en utilizar aplicaciones de inteligencia artificial sin conocimiento o supervisión.

En el caso de la IA en la sombra un estudiante o un profesor podrían emplear servicios públicos de inteligencia artificial generativa para completar sus trabajos o planear sus clases. Al hacerlo puede ocurrir que, sin querer, introduzcan datos delicados que pongan en riesgo información de la universidad. Esto es porque aplicaciones como ChatGPT se utilizan cada vez más para tareas como la edición de texto y análisis de datos.

El atractivo de la GenAI

El atractivo de las herramientas de IA generativa (GenAI) consiste en que se basan en la web, tienen versiones gratuitas y son fácilmente accesibles. Sin embargo, eso implica serios desafíos para los equipos de ciberseguridad, que no pueden supervisarlas fácilmente.

El problema se complica porque los entornos de TIC de las universidades suelen ser descentralizados y abiertos. Esto es, los departamentos y equipos de investigadores en las universidades normalmente tienen un amplio grado de discrecionalidad para elegir las herramientas tecnológicas que utilizan. Al hacerlo, no siempre involucran al personal de TIC. Si a eso se suma que la gobernanza de tales tecnologías no siempre está bien definida ni se aplica con rigor, se abre el campo para el uso de la IA en la sombra.

Los casos en los que ocurren esas situaciones son más comunes de lo que podría pensarse a primera vista. Por ejemplo, los profesores pueden utilizar la IA para elaborar sus planes de estudio o resumir investigaciones; el personal administrativo puede recurrir a chatbots para atender las solicitudes de los alumnos; el departamento de recursos humanos puede emplear la IA para agilizar sus procesos.

Nada de lo anterior es intrínsecamente erróneo: el problema se presenta cuando recurren —generalmente sin reflexionarlo— a la IA en la sombra. Sin medidas de ciberseguridad, tales acciones pueden resultar en la exposición inintencionada de datos.

Frenar la IA en la sombra

Ahora bien, las universidades se ven continuamente presionadas a incorporar la inteligencia artificial a cada vez más procesos. Y cuanto más potentes sean las herramientas utilizadas, más datos requerirán y aumentarán los riesgos potenciales de exfiltración. Por eso es importante la gobernanza.

Y la amenaza es muy real. Un informe reciente de IBM reveló que el 20% de todas las organizaciones (entre ellas, universidades) han sufrido exfiltraciones de datos relacionadas con la IA en la sombra. Lo más preocupante es que muchos de esos datos incluían información personal confidencial y propiedad intelectual.

En el futuro la GenAI continuará transformando la manera en que funcionan las universidades. Eso implica un riesgo continuo, pero no irremontable. La IA en la sombra no es problema meramente técnico, sino de capacitación y gobernanza. Capacitación para que los usuarios —estudiantes, profesores y empleados por igual— sepan cómo utilizar la IA de manera segura. Y gobernanza, para establecer reglas claras y mecanismos que aseguren su aplicación con rigor.