El almacenamiento sigue siendo el eslabón más débil para los administradores de TI: la perspectiva de un exdirector de tecnología

Dependiendo de con quién hables, los administradores de TI se enfrentan a una serie de desafíos relacionados con su entornos de almacenamiento de datos on-premise. La mayoría, sin embargo, los reducen a estos tres conceptos básicos: Escalabilidad, Administración y Coste.

Pero como la mayoría sabe, estos problemas no son nuevos. Son un conjunto de problemas que han asomado su fea cabeza a lo largo de la evolución de los arrays de almacenamiento externo y han sobrevivido a décadas de innovación en el campo del almacenamiento de datos. Y hoy, más de 40 años después de la introducción del primer array de almacenamiento, esos problemas afectan aún a los departamentos de TI y puede que incluso hayan empeorado. A pesar de los numerosos avances de la informática y de la innovación en las redes de los centros de datos incorporados a través de la gestión de la nube, el almacenamiento, no por primera ni por última, llega tarde a la fiesta. ¿Por qué?

La escalabilidad dinámica de la infraestructura es fácil, la escalabilidad del almacenamiento no lo es. 

Si hay algo que es seguro en la era de la empresa digital, es la incertidumbre. El desarrollo de nuevos modelos comerciales y su implementación se acelera constantemente. Esto aumenta constantemente los desafíos y la presión sobre TI para reaccionar, adaptar y respaldar las líneas de negocios más rápidamente con la infraestructura del tamaño adecuado y prepararlas para el éxito.

La informática y las redes tienen un historial comprobado de poder escalar hacia arriba y hacia abajo de forma dinámica según sea necesario, pero sigue siendo una carga lograr la misma elasticidad con el almacenamiento. En esencia, la computación y las redes se utilizan como procesadores de datos efímeros, mientras que el propósito principal del almacenamiento es, bueno, almacenar datos.

Escalar o actualizar una tecnología efímera a la siguiente puede ser complicado, pero desde la estandarización de los protocolos, es bastante sencillo ya que los datos simplemente pasan a través de ellos. Alterar el almacenamiento, incluso cuando se utilizan interfaces estándar, es mucho más arriesgado. Si cometes un error al mover datos en o entre tecnologías de almacenamiento, puedes poner en peligro los datos y la supervivencia de la empresa. Sin mencionar que los movimientos de datos tardan en completarse. Esto dificulta las decisiones de infraestructura y arquitectura para y alrededor del almacenamiento, especialmente porque la mayoría de las opciones de cabinas no son baratas y la elección incorrecta puede consumir tu presupuesto de TI.

En un esfuerzo por simplificar el almacenamiento, este se ha vuelto más complejo

Para reaccionar rápidamente a las necesidades empresariales cambiantes, los arquitectos de almacenamiento buscan soluciones de complejidad mínima, además de un rendimiento y escalabilidad de la capacidad adecuados. Este noble esfuerzo provocó la adopción de tecnologías de almacenamiento scale-out y una migración desde las cabinas de almacenamiento scale-up. Los CIO ya no tienen que tomar una decisión de compra difícil para un sistema que es (con suerte 🤞) adecuado para sostener las demandas inciertas de un proyecto durante un período de 3 a 5 años, y los arquitectos se les libera de la presión de una previsión precisa.

La infraestructura de almacenamiento scale-out se utiliza para agrupar los recursos de almacenamiento en un solo ente y promete una asignación dinámica y la liberación de recursos de almacenamiento para muchos proyectos y aplicaciones. Es una solución de almacenamiento de “talla única” con un “panel único” que utiliza bloques de construcción modulares para crecer con el negocio sin sobre-aprovisionamiento ni gasto innecesario en recursos no utilizados.

Pero, desafortunadamente, lo que las empresas están construyendo muy rápidamente se convierte en una solución de almacenamiento de “no talla única” que es compleja de operar y un “único problema en el 🙊”. El problema radica en el hecho de que se necesita trabajar con cientos o miles de cargas de trabajo heterogéneas con requisitos de almacenamiento no uniformes en lugar de solo una carga de trabajo.

Los problemas simples de interoperabilidad, mantenimiento, rendimiento y protección de datos del pasado, donde había un sistema, ejecutando una aplicación, administrada por una persona a la que se podía llamar en cualquier momento, de repente se transformaron en problemas complejos que requieren coordinación entre cientos de personas. Sin mencionar que ahora hay una gran cantidad de aplicaciones sin compartir en el mercado que no funcionan bien con los sistemas de almacenamiento compartido.

Los AIOps y los análisis de los proveedores no resuelven este problema fundamental. Por ejemplo, su herramienta AIOps puede incluir en la lista negra una particular versión de firmware para su array, ya que es incompatible con un sistema operativo, pero al mismo tiempo, otro sistema operativo que usa el mismo array necesita desesperadamente una solución con esa misma versión. – una situación de punto muerto clásica en una arquitectura de almacenamiento compartido.

La simplicidad de las operaciones es importante para la mayoría de las organizaciones y, si bien la esencia de la arquitectura de scale-out es el enfoque correcto, la idea fundamental de un gran sistema de almacenamiento compartido rompe esta noción. Y en algún momento, los equipos de infraestructura buscan inevitablemente enfoques alternativos y se alejan de los arreglos tradicionales para combatir el crecimiento continuo de la diversidad de aplicaciones y los datos junto con los costos paralizantes del almacenamiento empresarial.

La Hiper-Convergencia ha despegado, pero ha dejado atrás al cliente

El almacenamiento basado en servidores scale-out como alternativa rentable al almacenamiento empresarial era el nuevo camino por seguir. Especialmente la infraestructura hiperconvergente (HCI) despegó y facilitó la administración de la infraestructura desde el primer día.

La premisa es sencilla. Tu centro de datos tiene un espacio y una potencia finitos, por lo que converger la computación y el almacenamiento en uno, permite una mayor densidad y uso de componentes básicos. Las ranuras de internas de tus servidores ya no están vacías, sino que se utilizan como almacenamiento compartido para aplicaciones en los mismos servidores, habilitadas por el almacenamiento definido por software (SDS) y por las mejoras en el ancho de banda de la red. Como resultado, se aumenta la densidad del centro de datos y se compartimenta la computación y el almacenamiento en clústeres individuales, cada uno administrado por el propietario de la aplicación.

Por mucho que la hiperconvergencia (HCI) parezca simple, la mayoría de las arquitecturas nuevas han sido diseñadas para ser simples el primer día, pero ¿qué pasa con el día 1825? Muchos de los que probaron HCI llegaron a la conclusión de que no es el santo grial que resuelve todos los desafíos de su infraestructura. Por ejemplo, el solo hecho de que los servicios de almacenamiento compartan la misma CPU que las aplicaciones desencadena una serie de limitaciones, restricciones y problemas de mantenimiento.

Aquellos que gastan su parte justa en los sistemas de almacenamiento tradicionales saben que la CPU es un recurso escaso que se quema fácilmente con servicios de datos como la deduplicación y la compresión, y que están en uso si desea que el almacenamiento flash sea económicamente viable. Pero si estos servicios están quemando los mismos núcleos de CPU sobre los que corre tu aplicación y para la que has pagado una CPU cara o (peor) si estas pagando licencias basadas en núcleos, hace que esto sea un problema. En ese caso, para ejecutar la misma carga de trabajo, los propietarios de aplicaciones deben gastar más en licencias de aplicaciones y computación que al final revierten los beneficios de un coste más bajo de pasar a un almacenamiento basado en servidor en primer lugar.

Para ser justos, esto solo pasa en cargas de trabajo virtualizadas. Pero espere, … ¿qué pasa con las cargas de trabajo bare-metal, o no virtualizadas o Cloud nativas? Fácil, no se ejecutan en HCI o solo con grandes gastos generales y, en su lugar, utilizarán los clásicos arrays de almacenamiento externo. Entonces, HCI acaba de crear otra isla en el centro de datos que requiere una atención especial.

Esto me lleva a mi último punto. Puedo pasarme todo el día explicando que ninguna de las soluciones existentes dispone de argumentos sólidos para el almacenamiento, pero claramente no se debe a la falta de intentos. Todos los proveedores de almacenamiento en el mercado trabajan continuamente para resolver problemas de infraestructura relacionados con los problemas de escalabilidad, administración y costes antes mencionados. Hemos estado en ferias comerciales, absorbiendo los últimos y mejores conjuntos de funciones e innovación. Pero luego regresamos a nuestro lugar de trabajo y descubrimos que estamos a tres años de actualizaciones para hacer uso de cualquiera de las mejoras anunciadas.

Y no es porque seamos perezosos o no queramos actualizar, es porque nunca llegamos a actualizar los cientos de sistemas individuales que tenemos. Es como pintar el puente Golden Gate: para cuando hayas terminado, tendrás que empezar de nuevo, ya que ya no estarán actualizados.

Estoy seguro de que he enumerado al menos un punto doloroso que está sufriendo en su infraestructura de TI actualmente y si desea un adelanto de cómo la arquitectura de almacenamiento definido en la nube de Nebulon vendrá al rescate, póngase en contacto con nosotros: info@nebulon.com.