El futuro de la inteligencia artificial (IA) y el machine learning (ML) parece ser aquel en el que las máquinas escriban código revolucionario y diagnostiquen enfermedades antes de que se produzcan, entre otras acciones. ¿El problema? Para que la IA sea realmente disruptiva los centros de datos tendrán que evolucionar y ampliar enormemente su infraestructura actual.

Las tareas de aprendizaje profundo son costosas desde el punto de vista computacional, porque exigen enormes recursos y asignaciones de TIC. A medida que la carrera de la IA generativa se acelera y más organizaciones incorporan herramientas predictivas, los profesionales de TIC se enfrentan a una ardua batalla para dar soporte a las aplicaciones de IA ávidas de potencia.

Según el último informe Nutanix Enterprise Cloud Index (ECI), la gran mayoría de los encuestados (86%) identificó la ejecución de cargas de trabajo de alto rendimiento, incluyendo análisis de datos, IA y ML, como un desafío para su actual infraestructura de TIC.

De hecho, los modelos de lenguaje grande (LLM) de nueva generación, como GPT-4 de OpenAI y PaLM 2 de Google, son hasta 100 veces más grandes que los modelos de IA anteriores. Aunque las cargas de trabajo de IA generativa suelen ejecutarse en infraestructuras de nube pública —donde los grandes hiperescaladores públicos tienen acceso a clústeres de servidores gigantes y a las últimas y mejores GPU—, el aumento de los costos de los centros de datos y la baja disponibilidad han hecho que las organizaciones busquen otras alternativas. Y eso incide en el futuro de la inteligencia artificial.

Modelos de lenguaje grande y salud

futuro de la inteligencia artificial
Ilustración: iStock.

Una opción viable para los despliegues de LLM es la multinube híbrida. A medida que más empresas adoptan nuevas tecnologías de IA y ML, las nubes privadas y de borde han ido en aumento. Para quienes buscan desplegar IA localmente, en el borde, o sobre una mezcla de nubes públicas y privadas, Nutanix GPT-in-a-Box es una opción revolucionaria. Diseñado para simplificar la ejecución de transformadores generativos preentrenados, GPT-in-a-Box ayuda a dimensionar, adquirir y configurar infraestructuras optimizadas para IA.

Los LLM perfeccionados para aplicaciones médicas de IA en contextos específicos ya están avanzando en el floreciente campo de la medicina personalizada. Esta nueva disciplina utiliza el análisis de datos para personalizar los tratamientos médicos según el perfil de cada paciente.

La realidad es que existe un desajuste enorme entre la oferta y la demanda, incluso para ejecutar algo relativamente básico. El ecosistema de TIC en general ha estado aislado de esto hasta cierto punto. Se debe a que los grandes hiperescaladores (Microsoft, Amazon y Google) se introdujeron pronto en el aprendizaje profundo. Tienen reservas de cientos de miles de GPU.

Invertir para el futuro de la inteligencia artificial

En este sentido, una encuesta realizada por McKinsey en 2023 reveló que 40% de las organizaciones esperan invertir más en IA. Citaron el marketing, el despliegue de productos, la gestión de la cadena de suministro y la fabricación entre los principales casos de uso empresarial.

En comparación con los avances de la ingeniería mecánica desde la Edad Media, las próximas generaciones de máquinas y programas informáticos impulsados por IA serán herramientas muy avanzadas que ampliarán enormemente las capacidades humanas. Una cosa es segura: el centro de datos y la nube desempeñarán un papel crucial en el avance de la IA generativa y futuro de la inteligencia artificial en general.