Con anuncios de grandes players como Google de ampliar su data center en Chile -el único que este gigante tiene en Sudamérica- y varios proyectos en ciernes, el mercado de data centers se mantiene dinámico y en crecimiento, en un escenario en que el cloud sigue siendo también un impulsor. Así lo aseveran los actores de este rubro: “Hay varias empresas que tienen contemplado en los próximos meses construir centros de datos en Chile. Google es una de ellas. Y hay otras que están expandiendo su oferta. Hay bastante demanda de los clientes que quieren irse a la nube”, destaca Freddy Vergara, Jefe de Productos TI de Claro.
“La decisión de Google es un hecho notorio, porque ellos invierten en soluciones de muy alta densidad. Desde el punto de vista de los fabricantes hemos notado también este dinamismo, esa mayor necesidad de prestación de servicios para los clientes finales, por el tema de la nube, que es lo que está empujando a las empresas y corporaciones a recurrir a los proveedores de data centers”, señala Nilson Parra Flores, RCDD/NTS/DCDC, CBIS & CCNA, Country Manager División Enterprise de CommScope Chile.
Hoy en el mundo digital, la gente está hiperconectada y a futuro las cosas cada vez lo estarán también más. “Hay mucho volumen de datos y ese procesamiento tiene que guardarse en algún lado. Se habla de la nube, y esta finalmente implica servidores en algún lado para procesar y almacenar, lo que genera más requerimientos. Entonces en el área de data centes vemos que nuestros nuevos clientes, así como los antiguos, necesitan crecer y expandirse”, detalla Luis Vásquez, PM de Servicios de Data Center de Entel.
Freddy Vergara, CLARO. Nilson Parra Flores, COMMSCOPE. Luis Vásquez, ENTEL. Carlos Echeverría, VERTIV. César González, MEE. Juan Eduardo Olea, TEKNICA. Luis Santana, PURE STORAGE. Felipe Escudero, ONDYNE. Ricardo Lubschik, CLK. Pablo Ayala, NEW PEOPLE GROUP.
Para Carlos Echeverría, Líder de Application Engineer de Vertiv, “lo que se ve en Chile no es lo que se ve en el resto de los países latinoamericanos, pues siendo un país pequeño -no como Brasil, Argentina o México- se observa un incremento importante, con grandes players. El negocio del Edge Computing está en pleno crecimiento y, a pesar de su situación geográfica, Chile se observa como un lugar de vanguardia a nivel latinoamericano”. A su juicio, esto tiene que ver con las condiciones del país: con una economía sana, estable a nivel político, y con otros factores relacionados con la infraestructura.
Elevando los estándares
A raíz de esta inversión creciente de grandes actores, además del avance en general del área, César González, KAM Telecomunicaciones / IT de MEE, señala que el mercado local está asimilando un nivel de estándar europeo, es decir, un nivel de eficiencia distinto al que teníamos hace algunos años. “Eso nos obliga a trabajar con tecnologías que tienen que estar reinventándose constantemente, porque las mismas empresas están apuntando a un estándar de excelencia: no solo con UPS, sino también con climas de precisión, con personal, con toda una infraestructura que, en conjunto, nos impulsa a caminar hacia los estándares que ellos manejan”, comenta.
Otro driver de crecimiento importante es también hoy Internet de las Cosas. Así lo señala el ejecutivo de CommScope: “Hasta ahora no nos ha impactado en el tema de tráfico y almacenamiento de datos, pero una vez que IoT ‘invada’ los edificios, las cosas conectadas se multiplicarán hasta por 10 veces, así como también la demanda de conectividad, y obviamente de almacenamiento y procesamiento de datos, que también residen en el data center”.
A juicio de Juan Eduardo Olea, Gerente de Ingeniería de Teknica, la arquitectura del data center ha cambiado; “estos se han ido diversificando y acercando a los usuarios, porque si bien es cierto podemos tener grandes centros de procesamiento, tenemos que llegar a los lugares donde esta data se está procesando, por ejemplo, los celulares”. El 5G, agrega, ha llevado a las empresas de telecomunicaciones a desarrollar centros de datos especiales, más pequeños y “si bien hay grandes proyectos, se viene también la construcción de este tipo de data centers”, afirma.
¿Continuidad operacional o de negocios?
Cuando se habla de data centers se piensa de inmediato en continuidad operacional, pues allí reside el “core de los negocios”. ¿Pero qué entendemos por este concepto más allá de aplicaciones o instalaciones críticas que no pueden dejar de funcionar en distintos ámbitos, como hospitales, banca, retail, etc.? Para los usuarios el tema es clave, y es que exigen tener un servicio constante en el dispositivo que más usan: su celular. Hoy, por ejemplo, para las personas es más crítico que se les quede el smartphone en la casa a que se les quede la billetera.
“En las empresas, podríamos definir la continuidad operacional como la manera de mantener el negocio, dando servicios, incluso cuando tengas fallas en los sistemas de energía o en algún componente. Pensemos en una red bancaria; si tiene algún problema, puede afectar a todo un país. Y en la medida en que proveamos soluciones más redundantes, podrán seguir operando, dando servicios”, explica Luis Santana, Southern Cone Senior Systems Engineer de Pure Storage.
Según Felipe Escudero, Gerente Comercial de Ondyne, la continuidad operacional tiene hoy tres componentes importantes: redundancia, respaldo, y certeza de la operación. “Esto último tiene que ver con que la estructura que se haya armado funcione de la forma originalmente diseñada. Y este componente tiene una condición de servicio, que es muy importante y depende de las personas. Efectivamente, la arquitectura debe estar diseñada de manera que el funcionamiento sea tolerante a la falla, así como también el mantenimiento de esa arquitectura”, indica.
Además, los proveedores coinciden en tiene mucho que ver con el impacto en el negocio de los clientes, donde termina siendo difuso quién es cliente y quién es proveedor. “Y es que cuando algo impacta, o sucede en un cliente, es muy probable que esté impactando en muchos clientes, y a uno le llega de vuelta como proveedor”, explica el ejecutivo de Entel. Una suerte de efecto dominó o cascada, donde una caída afecta a otro negocio, y este a su vez a otro. “Por eso los clientes nos exigen un 100% de disponibilidad y siempre debemos estar buscando nuevas tecnologías, mejorar la calidad, aumentar la redundancia de las plataformas, etc.”, agrega.
De los 6 mil casos analizados en 2018 en el Uptime Institute, la mitad de las caídas se debió a carriers, prestadores de servicios, etc., el efecto cascada. Interrupciones que no duraron más de 45 segundos, pero el impacto en cuanto a experiencia usuario llegó a las 8 horas. “Es decir, la recuperación de esos sistemas que corren en el data center es mucho más compleja de lo que puede ocasionar ese ‘pestañeo’ o cuántos minutos puedo garantizar con un Tier 4. Si el data center se cae, lo que importa es cuánto tiempo tardo en recuperarlo. O sea, el mejor plan es estar preparado para que se caiga el data center; eso es lo que garantiza una operación continua, no prepararme para que siga funcionando”, enfatiza Ricardo Lubschik, Gerente Comercial de CLK.
Para Pablo Ayala, Gerente de Tecnología de New People Group, la continuidad operativa se maneja por calidad y la única forma de lograrla es distribuir el riesgo. “Hoy no puedo tener mis datos en un solo data center, por ejemplo. Tengo que distribuir mis datos y mis servicios en múltiples lugares. Por eso los clientes tienen más de un proveedor ISP, más de un enlace, etc. El cliente debe tener microservicios distribuidos, y eso te da continuidad operacional y aseguramiento de la calidad”, afirma.
Una variedad de componentes claves
La continuidad no es solo del data center, sino también de los servicios. Un banco podría tener su data center arriba, pero si se corta la energía a nivel nacional, las sucursales no podrán prestar servicios al usuario. “Ese banco no tendrá continuidad operacional, tendrá los datos de sus clientes resguardados en su centro de datos, pero no podrá darle continuidad operacional de servicio”, explica el profesional de Teknica.
En este sentido, aseveran los proveedores, es clave también analizar las certificaciones que existen en este mercado. “El conocido Tier, otorgado por el Uptime Institute, no se preocupa de la construcción física del data center, porque se podría tener un data center en el segundo piso de un edificio, y en el piso tres haber una fábrica de explosivos o de fuegos artificiales que explotara, y eso no está regulado. Lo mismo si la fibra óptica pasa por un poste, donde choca un camión y nos quedamos sin fibra… No saco nada con tener el mejor de los data center Tier 4, debo preocuparme que mi servicio tenga continuidad”, agrega Juan Eduardo Olea.
Pasa mucho en el mercado que se habla de Tier, de los niveles de redundancia, pero siempre encajado dentro de la estructura del data center. “Pero qué pasa con la llegada de los carriers, con la energía, incluso con el suministro de agua. Esas son estrategias de diseño que tienen que tomarse en cuenta para la construcción, y a eso hay que sumar paralelamente la necesidad del control de los procedimientos con los cuales se maneja el comportamiento humano en el data center. Y para eso existen estándares; BICSI entrega muchas recomendaciones, lo que pasa es que no los aplicamos correctamente”, explica Nilson Parra. Por eso, agrega, es clave contar con una estrategia de diseño, que permita escalar y seguir creciendo ante los nuevos requerimientos.
De acuerdo al ejecutivo de CLK, el 75% de las caídas de los data centers se debe a errores humanos. Por lo mismo, para el profesional el tema de componentes -UPS, cables, fibra, clima, etc.-, “está muy resuelto a nivel operacional ya que la tecnología ha avanzado, y la gran diferencia en la continuidad operacional de un centro de datos está puesta en la gente, en los procesos, en la capacitación del personal, en su experiencia, y en lo que uno haga ‘puertas adentro”. Ahí está el “secreto” de la continuidad operacional.
Para el ejecutivo de Claro, más allá de la tecnología que permita a los equipos una mayor redundancia, y que igualmente pueden fallar, lo importante es apoyar los procesos, que tienen que ser escritos y practicados. “La única forma de minimizar el riesgo es que la gente tenga procesos conocidos para poder reaccionar”, indica. “Y lo otro importante es entender el negocio del cliente. No todos necesitan continuidad operativa. Hay datos que pueden operar fuera de línea por unos días. Ahí tenemos que enfocarnos nosotros, los proveedores de servicio: en esas necesidades específicas del cliente”, añade. Ese es un rol esencial del proveedor: evangelizar a los clientes, que no siempre están conscientes de la criticidad a la cual están expuestos.
En este sentido, el profesional de Vertiv advierte que lamentablemente siempre somos reactivos: “Esperamos que haya cualquier problema para ver cómo lo vamos a resolver”.
¿Cuál es el foco hoy?
Los proveedores coinciden en que hasta hace algunos años las certificaciones que se buscaban eran para diseño y construcción, pero hoy los equipos y diseños son similares, por lo que el tema de preocupación pasa por la “operación”. Y se busca este tipo de certificaciones: operativa. Ricardo Lubschik concuerda con que el mercado ha ido madurando y hoy el foco de preocupación es la operación: “El diseño y la construcción han quedado como un commodity dentro de las certificaciones, las credenciales básicas que se deben tener. Hoy los clientes te dicen ‘de qué me sirve un Ferrari si no tengo la licencia de conducir’, y en la licencia de conducir está certificada la operación. Y para certificar una operación tienes muchas metodologías y distintas categorías”, explica.
En este sentido, el mercado concuerda en que “prefiere un Tier 3 bien operado que un Tier 4 mal operado”, frases de perogrullo que se utilizan en la industria para definir el impacto de estar operando bien y que posee muchas implicancias que no tienen relación necesariamente con los componentes.
Asimismo, tras el terremoto de 2010, la normativa que rige en la construcción de edificios se ajustó a niveles de exigencia aún mayores. “A raíz de este mismo tema: la alta sismisidad del país, hemos observado clientes que están buscando territorialmente tener centros fuera de Santiago, hacia el norte o hacia el sur, a más de 500 o 1.000 kilómetros de distancia. Es decir, cómo distribuyo a nivel nacional mis servicios, y también hacia otros países. Esto ya que la continuidad operacional es uno de los componentes para mantener la continuidad de negocio del cliente, lo que no solo tiene que ver con el data center y que puede ser el efecto de un terremoto”, señala Luis Vásquez y agrega que en Chile se ha hecho una buen labor, a nivel de ingeniería estructural. Una lección aprendida al darse cuenta de que los terremotos podían ser más dañinos de lo que pensábamos y que implicó empezar a mirar hacia factores estructurales: dónde está construido el edificio, y de acuerdo a eso diseñar.
Asimismo, en el sector financiero existe una normativa que regula la provisión de servicios críticos, preocupación que debiera extenderse a otras áreas de servicio. En este sentido, el ejecutivo de CLK señala que se está instalando en el mercado el concepto de la “resiliencia híbrida”, es decir, una estrategia de data relacionada con cómo se diseña el data center y distribuye esa información rá- pidamente, y dónde poner lo crítico y lo menos crítico.
Por último, los proveedores coinciden en la relevancia también de considerar la huella de carbono al construir y diseñar un data center. Se estima que esta industria consumirá el 10% de la energía a nivel mundial, por lo que la búsqueda de la eficiencia es, sin duda, clave. Y los clientes valorizan este aspecto.