El big data constituye una potencial fuente de información para mejorar la toma de decisiones y facilitar que las organizaciones sean dirigidas por datos. La tendencia es común en industrias de todas las verticales, incluida la educación universitaria. Sin embargo, un informe de la consultora IDC, arroja que sólo el 24% de los datos generados en 2022 se utilizaron para análisis o alimentaron las cargas de trabajo de algoritmos de inteligencia artificial (IA) o machine learning (ML). Es decir, hay un largo trecho por recorrer en lo que se refiere al análisis eficaz de datos.
Las causas son varias:
●Los datos están ensilados en múltiples nubes y se encuentran en diferentes formatos y fuentes.
●Cubrir los requisitos de rendimiento, costo y cumplimiento no siempre es sencillo con las herramientas analíticas disponibles.
●Las soluciones basadas en la nube pública implican controles de datos limitados, costos impredecibles y el riesgo de caer en subordinación propietaria del proveedor.
●Por otra parte, las herramientas de código abierto “hágalo usted mismo” no están diseñadas para los requisitos de seguridad y TIC de las empresas.
Por supuesto, existen variadas soluciones en el mercado para lograr un análisis eficaz de datos. Una de ellas es HPE Ezmeral, de Hewlett Packard Enterprise. Integra soluciones de análisis y tejido de datos permiten mejorar la toma de decisiones y generar nuevos flujos de ingresos.
Lograr una análisis eficaz de datos
●HPE Ezmeral Data Fabric proporciona una sola vista de los datos en las instalaciones multinube y de nube híbrida. Esto incluye archivos, objetos, tablas y flujos. Facilita el acceso optimizado a múltiples fuentes y formatos de datos, lo que facilita su análisis y gobernanza. El software está disponible como SaaS; ofrece controles precisos y gestión automatizada de políticas para una mejor colocación de las cargas de trabajo de acuerdo con el desempeño, la ubicación de los datos, la soberanía, los costos y el cumplimiento.
●HPE Ezmeral Unified Analytics se enfoca en la ingeniería, ciencia y análisis eficaz de datos. Se entrega como SaaS y autoservicio. Los usuarios pueden crear canales de datos; desarrollar, implementar y monitorear los modelos, y visualizar los datos con herramientas demostradas como Apache Airflow, Apache Spark, Apache Superset, Feast, Kubeflow, MLFlow, Presto SQL y Ray. Los nuevos conectores y fuentes de datos incluyen Snowflake, MySQL, DeltaLake, Teradata y Oracle. Con el software abierto y extensible, los usuarios pueden agregar fácilmente aplicaciones, ubicaciones y fuentes a medida que sus necesidades evolucionan.
La plataforma es híbrida por diseño y puede implementarse en el borde, en los centros de datos, localmente y en ambientes de nube pública. Es decir, la estrategia de implementación puede llevarse a cabo en cualquier ubicación y minimiza los costos de ingreso y egreso de datos. Lo hace al permitir que los análisis se realicen en el lugar donde residen los datos y las capacidades informáticas.