La práctica para obtener información confidencial por medio de la manipulación hacia usuarios legítimos se denomina ingeniería social. El objetivo de los engaños de ingeniería social es obtener acceso o permisos para dañar a una persona o empresa. En muchas de las ocasiones, estos ataques sólo buscan dejar una puerta abierta para que los ciberdelincuentes orquesten otro tipo de agresiones.

Desde su concepción, la inteligencia artificial (IA) se ha considerado como un arma de doble filo. Así como puede facilitar la vida de las personas, también puede ser usada con fines ilícitos. Unit 42, la unidad de investigación e inteligencia de amenazas de Palo Alto Networks, registró recientemente un incremento del 910%del malware relacionado con ChatGPT. De hecho, ha llegado a observar hasta 118 ataques diarios a páginas (o sitios) web.

Los cibercriminales han comenzado a utilizar la IA para hacer que las personas revelen información importante sin darse cuenta. Estos engaños de ingeniería social han evolucionado desde mensajes de correo electrónico o phishing simples a ataques complejos. En estos, los delincuentes se hacen pasar por una persona conocida o de confianza para obtener información confidencial.

De acuerdo con datos de Unit 42, 40% de las organizaciones ha aumentado su preocupación por la ciberseguridad. Además, hay varios factores que hacen que se incremente el atractivo de los ataques. Entre otros, la situación geopolítica actual o la propia transformación digital de los negocios, que se encaminan hacia la multinube. En ella, el 80% del código que se desarrolla utiliza componentes de open source.

El peligro de los engaños de ingeniería social

engaños de ingeniería social

La inteligencia artificial es una de las principales aliadas de las tecnologías de ciberseguridad de todos los proveedores. Así lo constata un estudio de Palo Alto Networks, el cual afirma que 47% de las compañías cree que la IA permite una respuesta más rápida de los incidentes. También, el 39% estima que la detección de amenazas, la clasificación de alertas y las respuestas pueden automatizarse casi por completo en el SOC (Centro de Operaciones de Seguridad).

Sea cual sea su cometido, la IA aprende a actuar automáticamente. Necesita la máxima cantidad posible de datos de alta calidad para ser eficaz. Es gracias a la abundancia de esos datos de buena calidad que la IA llega a comprender los posibles escenarios. Cuantos más datos del mundo real adquiera, más inteligente será y más experiencia tendrá.

Claro, no basta con aprender de una sola implementación o de un solo tipo de engaños de ingeniería social u otras amenazas. Además, se necesitan soluciones capaces de aprender de todas las implementaciones, y una herramienta que aproveche la información de todos los usuarios, no de una sola organización.

Cuanto mayor sea el conjunto de entornos y usuarios, más inteligente será la IA. En este sentido, también es necesario un sistema capaz de manejar grandes volúmenes de datos de diferentes tipos.