Las compañías están obligadas a adaptarse en 2019 al nuevo modo de consumo e interacción respecto a la información
Los datos han cambiado el mundo de forma drástica. Todos los procesos, ya sean las interacciones con clientes externos como las tareas internas de los empleados, dejan un rastro de ellos a su paso. Los generados por las máquinas y los humanos crecen diez veces más rápido que los tradicionales de negocios y, en comparación con estos últimos, crecen 50 veces más.
Dado que el modo en el que consumimos e interactuamos con los datos cambia a diario, también contamos con un número considerable de innovaciones para mejorar la agilidad de las empresas y su eficacia operacional. En este entorno, resulta fundamental para las compañías entender la demanda de gestión inteligente de datos para así poder mantenerse un paso por delante y ofrecer servicios mejorados a los clientes.
Con el mercado Emea en mente, Dave Russell, vicepresidente de estrategia de producto de Veeam, ha destacado varias tendencias relevantes “que los responsables de la toma de decisiones deben conocer de cara a 2019”.
En primer lugar, aumentará el uso y aprovechamiento en entornos multi-cloud. Un informe de McKinsey & Company ha mostrado que el flujo de datos a Asia es hasta 45 veces mayor que en 2005. Los datos de regiones clave como Norteamérica y Europa han crecido de manera considerable, pasando de 5.000 a 20.000 Gbps y de 1.000 a 5.000 Gbps respectivamente, partiendo de las cifras originales de 100-500 Gbps y menos de 50 Gbps en 2005.
Con empresas que operan más allá de sus fronteras y siendo más dependientes de la tecnología que nunca, resulta prácticamente inevitable la ampliación del uso del entorno multi-cloud. IDC estima que los clientes gastarán 554.000 millones de dólares en informática en la nube y servicios relacionados en 2021, más del doble que en 2016. Los datos y aplicaciones on premises no se quedarán obsoletos, pero aumentarán los modelos de despliegue de los datos mezclando cada vez más la opción on premise (dacenter propio), software como servicio (SaaS), infraestructura como servicio (IaaS), nubes gestionadas y nubes privadas.
Con el tiempo, afirma Russell, “esperamos que una mayor parte de la carga de trabajo salga de las instalaciones. No obstante, esta transición se realizará a lo largo de varios años y creemos que es importante estar preparados hoy para hacer frente a esta nueva realidad”.
Por otra parte, la escasez de suministro de memoria flash y los precios mejorarán en 2019. De acuerdo con un informe de Gartner, se espera que vuelva a haber un ligero problema de desabastecimiento en el suministro de memoria flash a mediados de 2019 y que los precios se estabilicen en gran medida gracias al incremento de la producción de memoria en China. Un mayor suministro y una mejora en la fijación de precios supondrán que se utilizará más el despliegue flash en el ámbito de la recuperación operativa, donde normalmente se alojan los catorce días más recientes de backup y de datos de replicación.
Esta mayor capacidad flash dará como resultado un uso creciente del montaje instantáneo de imágenes de máquinas de backup (o gestión de datos de copia). Los sistemas que ofrecen la función de gestión de estos datos (CDM) podrán aportar valor más allá de la disponibilidad, además de mejores resultados comerciales. Algunos de los ejemplos prácticos de uso para aprovechar el backup y los datos de replicación son DevOps, DevSecOps y DevTest, Patch Testing, Analytics y Reporting (prueba, análisis y generación de informes de parches).
Además, el análisis predictivo se convertirá en algo generalizado y en la norma. Las previsiones indican que este mercadp alcanzará los 12.410 millones de dólares en 2022, lo que supondrá un incremento del 272 % desde 2017, con una tasa de crecimiento anual compuesto del 22,1%. En concreto, se espera que el mercado Asia-Pacífico (Apac) registre la mayor tasa de crecimiento anual compuesto durante el periodo de esta previsión.
El análisis predictivo basado en datos de telemetría, esencialmente asesoramiento y recomendaciones impulsadas por el aprendizaje automático (ML o machine learning), es una de las categorías que seguramente se convierta en algo generalizado y en la norma. Las previsiones del aprendizaje automático no son nada nuevo, pero empezaremos a ver que usa firmas y huellas dactilares, que contiene configuraciones y políticas de mejores prácticas que permitirán a las empresas obtener un mayor valor de la infraestructura que se ha implantado y de la que son responsables.
El análisis predictivo, o diagnóstico, nos ayudará a garantizar la continuidad de las operaciones, al tiempo que reduce la carga administrativa que supone mantener los sistemas optimizados. Esta función se convertirá en algo fundamental a medida que se pida a las empresas TI que gestionen un entorno cada vez más diverso, con más datos y objetivos de nivel de servicio más estrictos.
Ahora que este análisis se está convirtiendo en algo más generalizado, los contratos de nivel de servicios (SLA) y los objetivos de niveles de servicio de recuperación (SLO) aumentarán y las expectativas de niveles de servicio (SLE) serán incluso mayores. Esto significa que necesitaremos más ayuda y más inteligencia para poder ofrecer lo que esperan las empresas de nosotros.
Por otro lado, la función versátil (o generalista) se convertirá en el nuevo modelo operativo para la mayoría de las empresas TI. Si bien las dos primeras tendencias se centraban en aspectos tecnológicos, el futuro de lo digital sigue siendo analógico: la gente.
Si juntamos la escasez de talento con infraestructura nueva y al borde del colapso on premises, la nube pública + software como servicio (SaaS), nos encontraremos con que se necesitan especialistas con experiencia en una amplia serie de disciplinas, que además tienen que conocer mejor el negocio. Por ejemplo, el mercado de trabajo de la tecnología de la información (TI) en Singapur sigue registrando altos niveles de contratación.
La estandarización, organización y automatización son factores que contribuyen a su aceleración, dado que sistemas más capaces permitirán a los admistradores adoptar un punto de vista más horizontal en lugar de centrarse en una única especialización extrema. Por supuesto que la especialización seguirá siendo importante, pero a medida que TI pase a ser cada vez más fundamental en relación con los resultados comerciales, es lógico pensar que el talento TI tendrá que conocer la totalidad del negocio de la empresa para poder aportar valor en diversos ámbitos en la tecnología de la información.
Sin embargo, aunque veremos como estas tendencias plantean retos para el statu quo el año que viene, algunas cosas no van a cambiar. Siempre existen constantes en el mundo y en Veeam han identificado dos factores principales que se mantendrán como prioridades para las empresas de todo el mundo.
En primer lugar la frustración con los enfoques y soluciones de backup tradicional. Los tres proveedores principales en el sector seguirán perdiendo cuota de mercado en 2019; de hecho, el mayor lleva perdiendo cuota de mercado desde hace diez años. Las empresas están dejando de lado a los proveedores tradicionales y prefieren opciones más ágiles, disruptivas y dinámicas que les ofrezcan las funciones que necesitan para crecer en la era impulsada por los datos. Un informe de Cognizant destacó que el 82 % de los líderes de empresas en el mercado Asia-Pacífico (Apac) cree que el futuro del trabajo radica en las máquinas inteligentes.
En segundo lugar los puntos críticos de las tres c: coste, complejidad y capacidad. Siguen siendo el motivo por el que los que trabajan con data centers no están contentos con las soluciones de otros proveedores. En líneas generales, los costes son excesivos, es innecesariamente complejo y carece de capacidad suficiente, lo que afecta a la velocidad del backup, de la restauración o al montaje instantáneo a una imagen de máquina virtual. Estos tres criterios clave seguirán siendo las principales razones por las que las empresas aumenten o reemplacen del todo sus soluciones de backup.
Para finalizar, según Veeam la llegada de las primeras redes 5G crearán nuevas oportunidades para que los distribuidores y los proveedores de servicios cloud (CSPs) puedan recopilar, gestionar, almacenar y procesar el mayor volumen posible de datos. A principios de 2019 seremos testigos de la llegada al mercado de los primeros terminales de este tipo en el CES en Estados Unidos y en el MWC en Barcelona, y la 5G será adoptada rápidamente para la comunicación máquina a máquina y para la tecnología de Internet de las cosas (IoT).
La red móvil de consumo ha llegado a un punto en el que es probable que la velocidad 4G ya sea suficientemente rápida como para satisfacer las necesidades de la mayoría de los consumidores. 2019 se centrará más en la estandarización y testeo generalizado de la tecnología, en dispositivos pensados para el futuro capaces de garantizar que son compatibles con la ésta cuando esté disponible y en Europa convertida en una auténtica sociedad gigabit.
Los distribuidores y los proveedores de servicios cloud (CSPs) disfrutarán de la llegada de nuevas oportunidades de ingresos al poder aprovechar la 5G o la infraestructura necesaria para darle soporte. Procesar estos grandes volúmenes de datos en tiempo real, a una mayor velocidad, con nuevos requisitos de hardware y dispositivos, así como nuevas aplicaciones para la gestión de datos supondrán oportunidades y ayudarán a facilitar las conversaciones sobre edge computing.