La adopción de la inteligencia artificial (IA) está evolucionando más rápido que otros avances tecnológicos similares. Al mundo le tomó aproximadamente 23 años hacer crecer la Internet hasta alcanzar 1,000 millones de usuarios. Con la tecnología móvil sólo tomó unos 16 años. Y a su ritmo actual, la inteligencia artificial generativa (GenAI) tendrá 1,000 millones de usuarios en unos siete años. Esa velocidad plantea una serie de riesgos emergentes de la GenAI.
Hoy en día, cualquier persona con una conexión a la Internet puede acceder a docenas de modelos de IA poderosos. Es fácil experimentar y desarrollar con tecnología que antes sólo estaba disponible para las organizaciones de más alto nivel. Lo mismo se pueden generar imágenes sintéticas que realizar análisis específicos de tareas. Al utilizarse en múltiples nichos, se multiplican los riesgos emergentes de la GenAI.
Los desarrolladores emplean la GenAI como asistente de codificación en numerosos sectores productivos. Abarcan lo mismo industrias pesadas que servicios de alta tecnología, educación y ciencia, por ejemplo. Los profesionales de la seguridad la utilizan para detectar patrones de ataques sutiles y responder con precisión. Los analistas la usan para obtener información en tiempo real de vastas cantidades de datos.
Sin embargo, con esa accesibilidad y capacidad surgen preocupaciones por los riesgos emergentes de la GenAI. ¿Podrían los grupos malintencionados usarla para avanzar en sus ataques? ¿Podría la IA utilizarse para hacer daño además de bien? ¿Podría construir un malware?
Efectivamente, los grupos criminales utilizan la GenAI para montar ataques sofisticados, rápidos y a mayor escala. Los investigadores de Unit 42, de Palo Alto Networks, trabajan con organizaciones de todos los tamaños en todo el mundo. Han documentado ataques con GenAI para explotar vulnerabilidades de software y API. También han creado malware y lanzado campañas de phishing más elaboradas.
Proteger los datos
Unit 42 proyecta que en los próximos cinco a siete años muchas aplicaciones existentes incorporarán capacidades de procesamiento de lenguaje natural. Además, se construirán nuevas aplicaciones centradas en la IA desde el principio, sin añadirla posteriormente. Esto implica la necesidad de protegerse con sistemas de seguridad que integren la IA desde su diseño inicial.
Aunque aún no se ha determinado que por sí sola la IA sea capaz de elaborar desde cero un ataque, sí se reconoce que con su ayuda han logrado aumentar la velocidad, escala y sofisticación. Se continúa investigando su efectividad para crear, modificar y depurar malware. Aunque hoy en día esa capacidad es mayormente rudimentaria, los expertos de Unit 42 consideran que seguirá mejorando rápidamente.
Es importante reconocer que las tácticas convencionales de ciberseguridad siguen siendo relevantes para enfrentar los riesgos emergentes de la GenAI. Por ende, se debe continuar con la implementación de arquitecturas de Confianza Cero. También se deben mantener actualizados los sistemas de la manera más rápida y completa posible.
Por supuesto, es necesario mantenerse actualizados con las sugerencias de los expertos en ciberseguridad. Ellos determinan en las respuestas a incidentes cuáles defensas son más efectivas contra los atacantes de hoy en día y cuáles van perdiendo efectividad.
Con esto en mente, lo siguiente a considerar es el rastreo y monitoreo del uso de la IA. El objetivo es asegurarse de que los datos sensibles no queden expuestos o se filtren a través de alguna aplicación. Hoy están disponibles para ello diversas herramientas que facilitan esta inspección de contenidos en cualquier dispositivo de forma automática.
Frenar los riesgos emergentes de la GenAI
La buena noticia es que la IA podrá ayudar a fortalecer cualquier estrategia de defensa. Con su uso, se puede acelerar el trabajo pesado. También ayuda a automatizar procesos que pueden resultar tediosos y lentos. Por lo tanto, será muy eficiente para reducir la carga a gran escala en la protección de redes e infraestructura de seguridad.
La recomendación es iniciar de manera simple. En principio, la IA se puede implementar para la ejecución de tareas que sean repetitivas y que consuman mucho tiempo. Aunque la GenAI puede arrojar resultados inexactos o erróneos, también lo son muchos pasos realizados por humanos. Por lo tanto, será mejor que la IA haga ese trabajo de manera más ágil, siempre y cuando un humano verifique el proceso.
Hay un gran esfuerzo examinando cómo la GenAI puede ser utilizada en la programación para casos de uso legítimos. Eso puede reducir el costo y el tiempo de creación de productos y servicios. Sin embargo, dadas tales ventajas, no hay razón para pensar que los actores malintencionados no querrían aprovecharlas.
Ahora bien, atemperar los riesgos emergentes de la GenAI y usarla de manera efectiva y segura requiere que todos los involucrados tengan al menos una comprensión rudimentaria de cómo funciona. Importa tanto para reconocer cómo se utiliza de manera productiva como para identificar nuevas estrategias de ciberataques.
Lo más importante ante los riesgos emergentes de la GenAI es tomar estas medidas lo más temprano posible. La seguridad que se considera al final no es tan efectiva.