La inteligencia artificial generativa (GenAI) está transformando la forma en que trabajamos, creamos y tomamos decisiones. En México, su adopción ha sido notable con el uso de herramientas como Grammarly y ChatGPT. Ambas se han convertido recientemente en parte del día a día de miles de profesionales en todos los ámbitos, como la educación superior. Sin embargo, esta revolución tecnológica también abrió la puerta a ciertos problemas de la GenAI que muchas organizaciones aún no están preparadas para afrontar.

De acuerdo con el informe The State of Generative AI 2025, elaborado por Unit 42, el equipo de inteligencia de amenazas de Palo Alto Networks, el uso de GenAI en México ha crecido exponencialmente. El país se encuentra entre los más activos de América Latina, con un promedio de más de 60 aplicaciones de GenAI por organización. Lo preocupante es que al menos el 10% de estas aplicaciones se consideran de alto riesgo. Eso puede dar paso a determinados problemas de la GenAI.

Dichos problemas surgen ya sea porque permiten la carga de archivos sensibles, carecen de un cifrado adecuado, utilizan los datos ingresados para entrenar sus modelos o no cumplen con los estándares básicos de privacidad y autenticación. Tales características aumentan significativamente la posibilidad de fuga de información, uso indebido de datos o exposición a contenido malicioso.

Falta de controles y problemas de la GenAI

Uno de los principales problemas de la GenAI es la IA en la sombra. Consiste en que los empleados utilicen herramientas de IA sin conocimientos ni aprobación del departamento de TIC. Esto puede conducir a la exposición de información confidencial, incumplimientos regulatorios y pérdida de propiedad intelectual.

Y no se trata de escenarios hipotéticos. Basta con que un empleado copie fragmentos de código en una plataforma pública para pedir ayuda o que un ejecutivo escriba una presentación estratégica con una IA sin saber que sus datos podrían ser almacenados o reutilizados por terceros.

Además, hemos comprobado que muchas de estas aplicaciones no cuentan con los controles de seguridad necesarios. Más del 70% de los asistentes de escritura evaluados eran vulnerables a las técnicas de jailbreak. Se trata de métodos que manipulan la IA para generar respuestas que normalmente se bloquearían, incluido el contenido inapropiado o riesgoso. Dado que la IA puede redactar correos electrónicos, generar contratos o incluso responder a cualquier usuario, este tipo de fallos se cuentan entre los problemas de la GenAI.

Avance acelerado

Por otro lado, los incidentes de pérdida de datos relacionados con GenAI se han duplicado con creces en lo que va de 2025. De hecho, suman 14% de los incidentes de seguridad en las plataformas SaaS. Esto incluye servicios ampliamente utilizados como el correo electrónico, el almacenamiento en la nube o las herramientas de colaboración. La falta de visibilidad sobre qué herramientas se utilizan y cómo se comparten los datos son parte de los principales problemas de la GenAI.

En México, el uso de la GenAI no se limita a los sectores tecnológicos. Industrias como la educación superior también están integrando estas herramientas en sus operaciones diarias. Desde asistentes virtuales que ayudan a programar citas hasta plataformas que generan informes financieros automatizados, la IA está presente en procesos críticos. Esto hace aún más urgente contar con políticas claras de gobernanza, controles de acceso basados en el riesgo y soluciones que permitan el monitoreo de estas tecnologías en tiempo real.

La inteligencia es una tecnología que seguirá expandiéndose porque su potencial es enorme, pero también lo son los problemas de la GenAI. Por ende, en economías como la mexicana, donde la transformación digital avanza aceleradamente, es fundamental que la seguridad no se quede atrás. Sólo entonces podremos aprovechar todo el poder de la inteligencia artificial sin comprometer nuestros activos más valiosos.