El surgimiento de la inteligencia artificial generativa (GenAI) ha impulsado el uso cada vez más amplio de chatbots inteligentes en las universidades. Por sus características, son muy útiles para facilitar la comunicación con todos los usuarios en cualquier momento del día. Eso, por supuesto, resulta en cargas de trabajo menos agobiantes para el personal de diversos departamentos. Sin embargo, esa tecnología no está exenta de riesgos, por lo que se debe reforzar la ciberseguridad de los chatbots.

Algunas de las prácticas de seguridad de la información habituales en las universidades —como la segmentación de datos— pueden verse superadas por un chatbot con acceso indebido a dichos datos.

Y es que configurar de manera adecuada un robot conversacional no suele ser fácil. Cualquier error en sus permisos de acceso puede tener consecuencias indeseadas. Por ende, es prioritario tener especial cuidado cuando se determinan los parámetros para la ciberseguridad de los chatbots.

Tal como ocurre con cualquier otro usuario de la red, el acceso de los chatbots a los datos debe restringirse a los esenciales para su cometido. De hecho, en aras de fortalecer la ciberseguridad de los chatbots, deben aplicarse principios de confianza cero. Es decir, no deben tener acceso a ningún repositorio de datos salvo con el permiso expreso de un administrador humano.

Privacidad y ciberseguridad de los chatbots

Cuando se trata de la se debe recordar que, como cualquier otra aplicación conectada a la Internet, son inherentemente vulnerables. Eso se acentúa si se recurre a chatbots disponibles públicamente, como ChatGPT. Los datos que recibe se utilizan para el aprendizaje automático y pueden ser contrastados con los obtenidos en cualquier rincón de la Internet. Además, dado que los procesos seguidos por la IA no son realmente claros (en los hechos, son una especie de “caja negra”), no es posible saber con exactitud cómo ni dónde terminarán almacenados los datos.

Peor aún: la GenAI no sólo almacena la información personal que le proporcionan los usuarios: puede, de hecho, compartirla inclusive con actores malintencionados. De hecho, lo que vuelve tan urgente la implementación de una buena ciberseguridad de los chatbots es porque se sabe que se les puede engañar. De hecho, se les puede forzar a revelar cualquier dato de aquellos a los que tienen acceso, incluso información interna de los sistemas universitarios.

Por ende, las universidades sólo pueden asegurar la privacidad de sus datos si crean sus propios chatbots. Es decir, no se puede garantizar la ciberseguridad de los chatbots cuando se recurre a herramientas públicas.

Desarrollar chatbots propios tiene otras ventajas para las universidades además de la seguridad. Pueden, por ejemplo, brindar respuestas específicas para la institución, sin la contaminación de datos de otras fuentes, lo cual aumenta su efectividad.