En muchas actividades productivas la inteligencia artificial generativa (GenAI) es ya una herramienta esencial. Por ello no extraña que durante 2024 su uso experimentara un aumento de 890% con respecto al año anterior. Sin embargo, a la par, aumentaron inevitablemente los riesgos de la IA generativa. Durante 2025 los incidentes de pérdida de datos relacionados con ella se duplicaron sobradamente hasta alcanzar el 14% de todos los incidentes de ciberseguridad. Se concentraron en los entornos SaaS, como los servicios de correo electrónico, el almacenamiento o la colaboración en la nube.
Los datos se publicaron en el informe The State of Generative AI 2025. Fue elaborado por Unit 42 —el equipo de inteligencia de amenazas de Palo Alto Networks— con base en los datos anonimizados de más de 7,000 organizaciones a nivel mundial. Abarcó diversas industrias, entre ellas el cuidado de la salud.
Los riesgos de la IA generativa en México provienen de la acelerada adopción de esa tecnología. Las organizaciones mexicanas utilizan en promedio más de 60 aplicaciones de este tipo. Por el volumen de transacciones destacan Grammarly (66.9%) y ChatGPT (12.1%). Sin embargo, medidas por volumen de datos, ChatGPT lidera con 37,6%, seguido por Grammarly (31.3%) y Microsoft Power Apps (15.5%).
Acciones peligrosas
«El uso de herramientas GenAI sin conocimiento del departamento de TIC, práctica conocida como “shadow AI”, representa un desafío considerable para las organizaciones», señala Daniela Menéndez, Country Manager de Palo Alto Networks México. Para combatir los crecientes riesgos de la IA generativa en México, la directiva señala que «es clave establecer políticas claras de uso y mecanismos de control que permitan aprovechar sus beneficios sin comprometer la seguridad».
El uso no autorizado de las herramientas de GenAI puede parecer inofensivo. En el caso de la atención sanitaria puede ser algo tan sencillo como un empleado que redacta un correo asistido por la IA. O bien, alguien del personal de TIC intentando automatizar tareas mediante la GenAI. Tales acciones, cuando se realizan sin la supervisión y los controles adecuados, pueden potenciar los riesgos de la IA generativa. Entre otras cosas pueden resultar en la exposición de información confidencial, incumplimientos regulatorios o incluso en la pérdida de propiedad intelectual.
Ahora bien, existen opciones para atajar los problemas antes de que ocurran. Palo Alto Networks, por ejemplo, desarrolló la solución AI Access Security. Con ella es posible obtener visibilidad en tiempo real de las herramientas de inteligencia artificial en uso en un momento dado. Con esa información facilita aplicar controles de acceso según el nivel de riesgo para evitar la exposición de datos confidenciales. Todo ello sin interrumpir los flujos de trabajo ni limitar la productividad de los usuarios.
Mitigar los riesgos de la IA generativa
Por otra parte, los especialistas recomiendan adoptar una estrategia de seguridad integral con varias capas de protección para mitigar los riesgos de la IA generativa. Esto abarca los controles de acceso condicional, que permiten restringir el uso de las aplicaciones de GenAI en función del perfil del usuario, el tipo de dispositivo o el nivel de riesgo de la herramienta. Por ejemplo, un usuario podría tener acceso limitado a ciertas plataformas de IA para evitar que servicios no autorizados procesen documentos confidenciales.
También destaca la importancia de la inspección de contenidos en tiempo real. Eso permite detectar y bloquear el uso indebido de datos sensibles —información financiera, propiedad intelectual o datos personales— antes de que se envíen a plataformas externas. Esto es especialmente relevante en entornos SaaS, donde los datos fluyen constantemente.
Además, el enfoque Zero Trust complementa esta estrategia, asumiendo que ninguna interacción es segura de forma predeterminada. Esto permite identificar y detener amenazas sofisticadas que podrían estar ocultas incluso en las respuestas generadas por IA, como enlaces maliciosos o instrucciones manipuladas.
Por último, la formación continua del personal es clave para enfrentar los riesgos de la IA generativa. No basta con tener tecnología avanzada: los usuarios deben comprender los riesgos y saber cómo usar estas herramientas de manera segura y responsable.
Con la creciente digitalización en sectores como el cuidado de la salud, México se posiciona como un mercado estratégico para la adopción segura de GenAI. Prevenir los posibles incidentes asociados con esa tecnología es posible con una estrategia integral de ciberseguridad.