Se calcula que hacia 2031 la inteligencia artificial generativa (GenAI) tendrá 1,000 millones de usuarios. Y no pocos de ellos se encontrarán en el sector salud. Ahora bien, ese ritmo de adopción es mucho más acelerado que el de otras tecnologías. Por ejemplo, pasaron 23 años antes de que la Internet tuviera ese número de usuarios. En el caso de los dispositivos móviles, transcurrieron 16 años. Por supuesto, esa velocidad entraña inevitablemente el surgimiento de problemas potenciales de la GenAI.
Hoy en día, cualquier persona con una conexión a la Internet puede acceder a docenas de modelos de IA poderosos. Es fácil experimentar y desarrollar con tecnología que antes sólo estaba disponible para las organizaciones de más alto nivel. Lo mismo se pueden generar imágenes sintéticas que realizar análisis específicos de tareas.
En el caso de la atención sanitaria, por ejemplo, tiene aplicaciones en el análisis de imágenes médicas. Los desarrolladores emplean la GenAI como asistente de codificación en numerosos sectores productivos. Los profesionales de la seguridad la utilizan para detectar patrones de ataques sutiles y responder con precisión. Los analistas la usan para obtener información en tiempo real de vastas cantidades de datos.
Sin embargo, conforme se utiliza en más nichos, se multiplican los problemas potenciales de la GenAI. ¿Podrían los grupos malintencionados usarla para avanzar en sus ataques? ¿Podría la IA utilizarse para hacer daño además de bien? ¿Podría construir un malware?
Efectivamente, los grupos criminales utilizan la GenAI para montar ataques sofisticados, rápidos y a mayor escala. Los investigadores de Unit 42, de Palo Alto Networks, trabajan con organizaciones de todos los tamaños en todo el mundo. Han documentado ataques con GenAI para explotar vulnerabilidades de software y API. También han creado malware y lanzado campañas de phishing más elaboradas.
Prever los problemas potenciales de la GenAI
Unit 42 proyecta que en los próximos cinco a siete años muchas aplicaciones existentes incorporarán capacidades de procesamiento de lenguaje natural. Además, se construirán nuevas aplicaciones centradas en la IA desde el principio, sin añadirla posteriormente. Esto implica la necesidad de protegerse con sistemas de seguridad que integren la IA desde su diseño inicial.
Aunque aún no se ha determinado que por sí sola la IA sea capaz de elaborar desde cero un ataque, sí se reconoce que con su ayuda han logrado aumentar la velocidad, escala y sofisticación. Se continúa investigando su efectividad para crear, modificar y depurar malware. Aunque hoy en día esa capacidad es mayormente rudimentaria, los expertos de Unit 42 consideran que seguirá mejorando rápidamente.
Es importante reconocer que las tácticas convencionales de ciberseguridad siguen siendo relevantes para enfrentar los problemas potenciales de la GenAI. Por ende, se debe continuar con la implementación de arquitecturas de Zero Trust. También se deben mantener actualizados los sistemas de la manera más rápida y completa posible.
Por supuesto, es necesario mantenerse actualizados con las sugerencias de los expertos en ciberseguridad. Ellos determinan en las respuestas a incidentes cuáles defensas son más efectivas contra los atacantes de hoy en día y cuáles van perdiendo efectividad.
Con esto en mente, lo siguiente a considerar es el rastreo y monitoreo del uso de la IA. El objetivo es asegurarse de que los datos sensibles no queden expuestos o se filtren a través de alguna aplicación. Hoy están disponibles para ello diversas herramientas que facilitan esta inspección de contenidos en cualquier dispositivo de forma automática.
Tomar precauciones a tiempo
La buena noticia es que la IA podrá ayudar a fortalecer cualquier estrategia de defensa. Con su uso, se puede acelerar el trabajo pesado. También ayuda a automatizar procesos que pueden resultar tediosos y lentos. Por lo tanto, será muy eficiente para reducir la carga a gran escala en la protección de redes e infraestructura de seguridad.
La recomendación es iniciar de manera simple. En principio, la IA se puede implementar para la ejecución de tareas que sean repetitivas y que consuman mucho tiempo. Aunque la GenAI puede arrojar resultados inexactos o erróneos, también lo son muchos pasos realizados por humanos. Por lo tanto, será mejor que la IA haga ese trabajo de manera más ágil, siempre y cuando un humano verifique el proceso.
Hay un gran esfuerzo examinando cómo la GenAI puede ser utilizada en la programación para casos de uso legítimos. Eso puede reducir el costo y el tiempo de creación de productos y servicios. Sin embargo, dadas tales ventajas, no hay razón para pensar que los actores malintencionados no querrían aprovecharlas.
Ahora bien, atemperar los problemas potenciales de la GenAI y usarla de manera efectiva y segura requiere que todos los involucrados tengan al menos una comprensión rudimentaria de cómo funciona. Importa tanto para reconocer cómo se utiliza de manera productiva como para identificar nuevas estrategias de ciberataques.
Lo más importante ante los problemas potenciales de la GenAI es tomar estas medidas lo más temprano posible. La seguridad que se considera al final no es tan efectiva.