La inteligencia artificial generativa (GenAI) ha dejado de ser una novedad para convertirse en una herramienta esencial. De hecho, durante 2024 su uso experimentó un aumento de 890% con respecto al año anterior. Con ello, inevitablemente, aumentaron los riesgos de la GenAI. Durante 2025 los incidentes de pérdida de datos relacionados con ella se duplicaron sobradamente hasta alcanzar el 14% de todos los incidentes de ciberseguridad. Se concentraron en los entornos SaaS, como los servicios de correo electrónico, el almacenamiento o la colaboración en la nube.
Los datos se publicaron en el informe The State of Generative AI 2025. Fue elaborado por Unit 42 —el equipo de inteligencia de amenazas de Palo Alto Networks— con base en los datos anonimizados de más de 7,000 organizaciones a nivel mundial. Abarcó diversas industrias, entre ellas la educación.
Los riesgos de la GenAI en México provienen de la acelerada adopción de esa tecnología. Las organizaciones mexicanas utilizan en promedio más de 60 aplicaciones de este tipo. Por el volumen de transacciones destacan Grammarly (66.9%) y ChatGPT (12.1%). Sin embargo, medidas por volumen de datos, ChatGPT lidera con 37,6%, seguido por Grammarly (31.3%) y Microsoft Power Apps (15.5%).
Acciones peligrosas
«El uso de herramientas GenAI sin conocimiento del departamento de TIC, práctica conocida como “shadow AI”, representa un desafío considerable para las organizaciones», señala Daniela Menéndez, Country Manager de Palo Alto Networks México. Para combatir los crecientes riesgos de la GenAI en México, la directiva señala que «es clave establecer políticas claras de uso y mecanismos de control que permitan aprovechar sus beneficios sin comprometer la seguridad».
El uso no autorizado de las herramientas de GenAI puede parecer inofensivo. En el caso de la educación superior puede ser, por ejemplo, un estudiante que consulta un chatbot para resolver una tarea. O bien, un profesor o un empleado administrativo que redactan correos electrónicos con la ayuda de la inteligencia artificial. Tales acciones, cuando se realizan sin la supervisión y los controles adecuados, pueden potenciar los riesgos de la GenAI. Entre otras cosas pueden resultar en la exposición de información confidencial, incumplimientos regulatorios o incluso en la pérdida de propiedad intelectual.
Ahora bien, existen opciones para atajar los problemas antes de que ocurran. Palo Alto Networks, por ejemplo, desarrolló la solución AI Access Security. Con ella es posible obtener visibilidad en tiempo real de las herramientas de inteligencia artificial en uso en un momento dado. Con esa información facilita aplicar controles de acceso según el nivel de riesgo para evitar la exposición de datos confidenciales. Todo ello sin interrumpir los flujos de trabajo ni limitar la productividad de los usuarios.
Mitigar los riesgos de la GenAI
Por otra parte, los especialistas recomiendan adoptar una estrategia de seguridad integral con varias capas de protección para mitigar los riesgos de la GenAI. Esto abarca los controles de acceso condicional, que permiten restringir el uso de las aplicaciones de GenAI en función del perfil del usuario, el tipo de dispositivo o el nivel de riesgo de la herramienta. Por ejemplo, un usuario podría tener acceso limitado a ciertas plataformas de IA para evitar que servicios no autorizados procesen documentos confidenciales.
También destaca la importancia de la inspección de contenidos en tiempo real. Eso permite detectar y bloquear el uso indebido de datos sensibles —información financiera, propiedad intelectual o datos personales— antes de que se envíen a plataformas externas. Esto es especialmente relevante en entornos SaaS, donde los datos fluyen constantemente.
Además, el enfoque Zero Trust complementa esta estrategia, asumiendo que ninguna interacción es segura de forma predeterminada. Esto permite identificar y detener amenazas sofisticadas que podrían estar ocultas incluso en las respuestas generadas por IA, como enlaces maliciosos o instrucciones manipuladas.
Por último, la formación continua del personal es clave para enfrentar los riesgos de la GenAI. No basta con tener tecnología avanzada: los usuarios deben comprender los riesgos y saber cómo usar estas herramientas de manera segura y responsable.
Con la creciente digitalización en sectores como la educación, México se posiciona como un mercado estratégico para la adopción segura de GenAI. Prevenir los posibles incidentes asociados con esa tecnología es posible con una estrategia integral de ciberseguridad.