En el caso del trabajo remoto contamos con tecnologías de videoconferencia, escritorios remotos, VPN, y seguridad, entre otras. El reto de TI es poder ofrecer dichas tecnologías a los usuarios con el menor trauma posible, con el objetivo de mantener la continuidad operativa del negocio y, al mismo tiempo, poder brindar soporte remoto de manera eficiente. Aquí es donde la tecnología de los escritorios remotos entra en acción. Desde la nube o desde el data center es posible desplegar la tecnología sin mayor inconveniente, pero se debe tener alta disponibilidad del servicio.
En el caso de la infraestructura del centro de datos, enfrentamos el reto de ofrecer poder de cómputo y almacenamiento acorde a los nuevos cambios, a las aplicaciones, portales, servicios de bases de datos, y también a los escritorios remotos. Todo esto, por supuesto, se debe mantener en alta disponibilidad y debe ser operado de manera remota por el departamento de TI.
Concentrémonos por un momento en la continuidad del data center: estar en momentos complicados en pandemia, con movilidad restringida, y tener la necesidad de salir corriendo en dirección a este, porque se dañó un disco duro, una tarjeta de red, o una memoria, o bien el hipervisor dejó de ver la LUN del dispositivo de almacenamiento, en un contexto donde el proveedor de hardware también “hace milagros” para el cumplimiento de garantías y reemplazo de piezas.
Este es el panorama al que hoy nos enfrentamos manteniendo arquitecturas tradicionales basadas en tres capas: cómputo, SAN y dispositivos de almacenamiento, donde cambiar y/o crecer en recursos siempre es un reto en momentos normales, solo imaginemos entonces qué pasa actualmente, en un escenario especial. Por eso, la adopción de nuevas tecnologías en el centro de datos también se ha agilizado, con la adopción de las nubes públicas o privadas.
En el caso de la digitalización acelerada, tenemos las áreas de IoT, Inteligencia Artificial, y manejo de datos, entre otras. Concentrémonos en un instante en cuánta data se está generando cada vez que nos toman la temperatura por sensores automáticos, y pantallas de reconocimiento, entre otros. Esos datos hay que almacenarlos y protegerlos, pero pueden ser tantos que brindarles servicios en el data center tradicional puede llegar a ser inviable. La data crece y crece, y puede convertirse en un “dolor de cabeza”; entonces llegamos de nuevo a la adopción de las nubes para dar respuesta a este escenario donde la alta disponibilidad de la infraestructura es clave.
¿Qué utilizar?
Combinando los casos expuestos nos encontramos con algo en común: la alta disponibilidad de los servicios, lo cual nos hace preguntarnos: ¿cómo lo hace la nube pública? Dicha infraestructura también sufre de daños en su hardware; solo piense cuántos discos duros son reemplazados en Amazon, Microsoft, y Google, entre otros, o cuando ha recibido en su correo gratuito cloud un mensaje sobre que no puede recuperar un e-mail de su buzón porque se dañó un disco. La respuesta ha sido Software Defined Data Center (Centro de Datos Definido por Software), cuya arquitectura es virtualizar todas las capas de cómputo, almacenamiento, virtualización, redes y seguridad, como un todo, teniendo la capacidad de asumir pérdidas de piezas sin parar los servicios y/o aplicaciones. ¿Qué pasa entonces con la nube privada? Muchos pueden decirnos que su data center tiene una nube privada porque han virtualizado todas las cargas, pero cuando falla un disco duro, ¿les falla el hipervisor? En realidad, no tienen una nube privada, tienen una infraestructura de virtualización de los servidores. Una nube privada es cuando utilizamos el orquestador cloud (Software Defined Data Center) en nuestro centro de datos, y esto lo logramos con la implementación de soluciones de Hiperconvergencia; tener uno o varios clústeres conformados por nodos con arquitectura basadas en N+1 o N+2, permitiendo la pérdida de hasta dos nodos simultáneamente, y que la data y aplicaciones siguan operando de manera normal.
¿Nube pública o nube privada? ¿Qué utilizar? Todas tienen sus ventajas y desventajas, pero me enfocaré en un tema en particular que son las aplicaciones legadas. Actualmente hay un gran número que no podemos llevar a cloud; su migración es prácticamente desarrollar una nueva aplicación para que pueda ser ejecutada de manera eficiente dentro de las nubes públicas con arquitectura basada en microservicios o contenedores. Este caso puede ser complejo y costoso.
En estos momentos tenemos la oportunidad de crear una nube privada que le dé alta disponibilidad a los sistemas legados y, al mismo tiempo, tenga las capacidad de crear y mantener aplicaciones basadas en contenedores, mejorar los IOPs, mantenerlas seguras y respaldadas; y escritorios remotos, entre otros servicios, y todo esto pagando por su uso o una cuota fija mensual en su data center.
En Intergrade seguimos trabajando con las mejores tecnologías de Hiperconvergencia para transformar los centros de datos convencionales a nubes privadas, mejorando constantemente las aplicaciones y servicios de nuestros clientes.