El uso de robots conversacionales (chatbots) en la atención de primer contacto es cada vez más común en la atención sanitaria. Cualquiera puede recurrir a ellos mediante dispositivos con conexión a la Internet, como teléfonos, tabletas, computadoras y hasta televisiones inteligentes. Además, cada vez más frecuentemente, los robots conversacionales suelen estar potenciados con inteligencia artificial generativa (GenAI). Eso, por supuesto, acarrea preocupaciones en torno a la seguridad de los chatbots.

Tales inquietudes no son banales. Dado que las herramientas más comunes de GenAI no suelen haberse desarrollado específicamente para la atención médica, deben configurarse con particular cuidado para garantizar la privacidad de datos que utilizan.

Algunas de las prácticas habituales de ciberseguridad —como la segmentación de datos— pueden verse superadas por un chatbot con acceso indebido a determinados datos. Y es que configurar de manera adecuada un robot conversacional no suele ser fácil. Cualquier error en sus permisos de acceso puede tener consecuencias indeseadas. Por ende, es prioritario tener especial cuidado cuando se determinan los parámetros para la seguridad de los chatbots.

Tal como ocurre con cualquier otro usuario de la red, el acceso de los chatbots a los datos debe restringirse a los esenciales para su cometido. De hecho, en aras de fortalecer la seguridad de los chatbots, deben aplicarse principios de confianza cero. Es decir, no deben tener acceso a ningún repositorio de datos salvo con el permiso expreso de un administrador humano.

Reforzar la seguridad de los chatbots

Cuando se trata de la seguridad se debe recordar que, como cualquier otra aplicación conectada a la Internet, los chatbots son inherentemente vulnerables. Eso se acentúa con aquellos disponibles públicamente, como ChatGPT. Los datos que recibe se utilizan para el aprendizaje automático y pueden ser contrastados con los obtenidos en cualquier rincón de la Internet. Además, dado que los procesos seguidos por la IA no son realmente claros (en los hechos, son una especie de “caja negra”), no es posible saber con exactitud cómo ni dónde terminarán almacenados los datos.

Peor aún: la GenAI no sólo almacena la información personal que le proporcionan los usuarios: puede, de hecho, compartirla inclusive con actores malintencionados. De hecho, lo que vuelve tan urgente la implementación de una buena seguridad de los chatbots es porque se sabe que se les puede engañar. De hecho, se les puede forzar a revelar cualquier dato de aquellos a los que tienen acceso, incluso información interna de los sistemas hospitalarios.

Ahora bien, dado que los robots conversaciones pueden ocuparse de tareas rutinarias que aligeran las cargas de trabajo para el personal sanitario, es previsible que su uso vaya en aumento. Sin embargo, conviene recordar que no están exentos de riesgos y se debe buscar siempre el refuerzo de la seguridad de los chatbots.