MESA DE TRABAJO

Data centers y su rol en la Transformación Digital



Dirección copiada

Destacados actores del sector discuten las tendencias actuales, desde la transición hacia soluciones híbridas y la descentralización hasta la necesidad de infraestructura más cercana al procesamiento de datos. Enfrentar el desafío ambiental, mejorar la eficiencia energética y adaptarse a nuevas normativas y estándares serán claves para el futuro de los data centers en América Latina.

Publicado el 22 jul 2024



data centers transformación digital

Se estima que para 2029, el tráfico de datos global será de 22 millones de Petabytes, un 70% del cual estará concentrado en video. Tal volumen requerirá cada vez más capacidad de procesamiento e infraestructura de data centers para soportarlo. Sobre los data centers y transformación digital, las tecnologías y tendencias que están impactando el sector, destacados proveedores conversaron en esta Mesa de Trabajo de Revista Gerencia.


Raúl Castellazzi, PURE STORAGE.

Con necesidades crecientes de almacenamiento y procesamiento de información, la demanda de centros de datos y la infraestructura asociada va in crescendo. El mercado ha ido evolucionando y “hoy observamos una transición que empezó hace más de una década hacia las soluciones cloud y cloud público y que hoy continúa. Contrario a quienes indican que todo será cloud, nuestra visión es que será más bien híbrido, y ambos mundos van a coexistir: on premise y nube. Vemos clientes aún implementar el stack completo dentro de sus data centers y eso se mantendrá”, explica Raúl Castellazzi, Channel Manager de Pure Storage. Según el ejecutivo también se observa un gran crecimiento de los service providers locales, grandes, medianos y pequeños, así como naturalmente de los grandes hyperscalers o los cloud providers.

Víctor González, ENTEL DIGITAL.

Complementa esta apreciación Víctor González, Data Center Service Unit Manager de Entel Digital, quien comenta que las consultoras ya ajustaron sus pronósticos en cuanto a la migración a la nube, porque hoy es consensuado que ninguna compañía es 100% cloud y “algunas marcas han apuntado a permitir armar estos ecosistemas digitales, tomando la infraestructura física como un comportamiento más bien cloud, y generando data centers interconectados en que un cliente, por ejemplo, que tenga operaciones en Chile y en Canadá, pueda tener locaciones on premise, pero con un comportamiento cloud conectado directamente por fibra”.

El foco es ir hacia la descentralización, ya que, según coinciden los asistentes a esta mesa, no es conveniente como estrategia que los hyperscalers tengan tantas cargas de trabajo y clientes centralizados. “Y estos últimos también buscan distribuir sus aplicaciones en múltiples clouds y tener algo on premise. Asimismo, todo el concepto de Edge Computing o data centers, que básicamente capturen información en el mismo lugar donde se genera, obliga a tener tecnología cerca”, agrega el ejecutivo de Pure Storage.

Claudio Padilla, ITELOGIC.

Y es que los clientes han ido mutando de acuerdo a la especialización que tienen. Por ejemplo, en minería se requiere procesar datos productivos, de la extracción de un mineral, su pureza, etc. “Ahora, ¿cómo esta se puede transformar y procesar localmente por temas de latencia? Hay una parte que puede estar en la nube, pero también hay otra que debe estar en el borde. Y eso es complejo desde el punto de vista de la instalación, porque no siempre los sectores son propicios para implementar un centro de datos”, detalla Claudio Padilla, Gerente General de Itelogic.

A su juicio, en esta evolución del mundo de data centers, co-location seguirá avanzando y el centro de datos corporativo cada día estará más conectado justamente a procesos ya netamente productivos de faena. Al menos eso está ocurriendo en minería. “Y el desafío de empresas de integración es tener el abanico completo, es decir, cómo lograr establecer una solución de borde que tenga todas las competencias y la alta disponibilidad que se requiere”, añade.

Richard Rebolledo, POWERTEC.

Para Richard Rebolledo, Gerente General de Powertec, “independientemente de la situación económica del país, efectivamente la tendencia va al alza; todos los procesos de hoy día están tomando conciencia de la Inteligencia Artificial y de la necesidad y valor de los datos. TI se ha integrado con OT; se obtienen datos de la planta de producción y por todos lados se captura data. Entonces, ¿hay demanda de data centers? Evidentemente sí”.

Algunos drivers

Ricardo Meneses, FURUKAWA.

Las necesidades de los usuarios y las nuevas tecnologías que están apareciendo son también drivers impulsores de este mercado. Así lo confirma Ricardo Meneses, KAM FBS Bolivia, Chile y Paraguay en Furukawa Electric Latam.

“Sin data centers, todas estas nuevas tecnologías, Inteligencia Artificial, Internet de las Cosas, etc., no avanzan correctamente, por lo que es clave invertir y crear soluciones para ayudar y apalancar el crecimiento de infraestructura necesario, porque cada vez más la latencia es uno de los puntos críticos para que la comunicación funcione correctamente”, explica.

Estamos en la era de la información y la digitalización, y las empresas cada vez más se dan cuenta de lo relevante que es la data y generan nuevos procesos para extraer más valor de esta. “Lo anterior crea la necesidad de mucha más infraestructura; y los clientes deben administrar un ciclo de vida de los datos cada vez más largo, ya sea por valor, por normativa o por necesidades específicas, lo que genera mucho requerimiento de on y off premise”, explica Raúl Castellazzi.

Asimismo, la latencia hace que irse a un cloud público empiece a ser un poco más complejo, por lo que algunas aplicaciones de misión crítica suelen ser implementadas en on premise, lo que, a su vez, explica que se mantenga el crecimiento de este sector.

Nilson Parra, COMMSCOPE.

Con la pandemia bajó notoriamente la inversión en infraestructura a nivel Enterprise, porque todo se volcó hacia la casa “y eso impulsó la necesidad de que los data centers reforzaran su capacidad para poder atender en forma remota a sus usuarios”, explica Nilson Parra, Country Manager | Infrastructure | Enterprise de Commscope Chile.

Según detalla, los hyperscalers tuvieron que aumentar su capacidad, lo que trajo consigo construcción propia, así como también multi-tenant, pero este mercado hoy día alcanza para todo: para grandes negocios, medianos y pequeños, solo que a veces es necesario reinventarse. Asimismo, destaca que llegó el momento de la automatización y la necesidad de disminuir la latencia, y para eso se requiere que el procesamiento y el almacenamiento estén lo más cerca posible de la operación, lo que impulsa el concepto de Egde, que afectará a los distintos sectores, no solo a la minería. “Por eso hay que buscar nuevas soluciones y métodos para abarcar estas soluciones, tanto desde el punto de vista de los productos como de los servicios”, asevera.

Las oportunidades en el mercado local

Carlos Leiva, CLK.

Con grandes actores regionales y globales, tanto hyperscalers como de co-location, los proveedores locales pueden verse afectados, ya que muchos de estos negocios vienen diseñados o determinados desde fuera, comenta Carlos Leiva, Gerente General de CLK, y plantea la interrogante a los demás.

Para Andrés Monjo, Key Account Manager de Schneider Electric, sin duda, las mayores inversiones son de empresas grandes de co-location que vienen a nivel regional con estándares muy definidos. Una suerte de “caja cerrada” con un diseño totalmente determinado, generalmente desde Estados Unidos o desde fuera de Chile, y que buscan estandarizar y tener economías de escala, solo con pequeñas adaptaciones a lo que son las regulaciones locales. “En este sentido, ahí se debe hacer un esfuerzo fuerte a nivel de headquarters, a nivel de diseño conceptual, para asegurar que esa solución sea aplicable a Chile, sustentable y eficiente para lo que se busca localmente”.

Andrés Monjo, SCHNEIDER ELECTRIC.

Para el ejecutivo de Itelogic, “más allá de que en ese sector no hay muchas oportunidades para integradores o empresas de ingeniería, porque ‘el paquete’ ya viene completamente listo, en el mundo de la automatización y control, en la Minería 4.0, hay una oportunidad tremenda porque hay mucha carencia de mantenimiento, trazabilidad, etc.”.

Se están impulsando, por ejemplo, proyectos de LTE privados, que generan una red de alto tráfico con poca latencia y que permite automatizar muchos procesos, dando la posibilidad de entrar con ingeniería y diseño para crear sitios remotos de alta disponibilidad.

“Además, las ingenierías que vienen de afuera hay que homologarlas, compatibilizarlas con la normativa chilena y eso demanda algunas especialidades y requiere profesionales locales”, complementa el profesional de Commscope.

En este avance en transformación digital, para el ejecutivo de Furukawa, “el aumento de antenas 5G que habrá a futuro, que después será 6G y que involucrará cada vez más velocidad (100 veces más rápido que 5G), también necesitará data centers locales, infraestructura y energía, por lo que habrá oportunidades de Edge locales, y más aún con todo este crecimiento de las nuevas tecnologías”.

El pilar energético

“Otros temas que están impactando esta industria son el regulatorio y energético: poder cubrir la demanda eléctrica en el tiempo requerido. Por esta dificultad, algunos de estos hyperscalers, de hecho, han decidido no instalar su data center en el país”, enfatiza Ricardo Meneses.

Según el profesional de Schneider Electric, los hyperscalers vienen a invertir, a proponer sus proyectos y generalmente se topan con varias dificultades en torno al acceso a la energía, hay plazos excesivos y tampoco se proyecta una facilidad para que estos se acorten o se le den herramientas al distribuidor para hacerlo; los plazos de la declaración y aprobación del estudio ambiental también son extensos.

Por eso, para el ejecutivo de CLK, al implementar un data center es clave el proceso de “due diligence”, tan importante como los procesos de ingeniería. Este no solo garantiza la viabilidad técnica y económica del proyecto, sino que también ayuda a mitigar riesgos, asegurar el cumplimiento de normativas, y planificar para el crecimiento. “Cuando no está bien realizado las consecuencias son para el inversionista. Como contraparte, si está bien realizado permite una mayor probabilidad de éxito y, de esta forma, que el inversionista no se lleve la inversión a otra parte”.

Respecto a la disponibilidad de energía, Claudio Padilla destaca que en el norte hay mucha que se pierde, energía renovable que si la complementas con sistemas de almacenamiento puede ser mucho más de alta disponibilidad.

Vicente von dem Bussche, ENACOM.

“Sin duda la energía es escasa, hay que trabajar en el tema de generación y reutilización que puede tener la misma estructura. Y esto va muy acompañado con el nivel de especialización, que en este ámbito es una inversión que es tremendamente rentable”, explica Vicente von dem Bussche, Gerente Comercial y Marketing de Enacom.

Para Nilson Parra, “los tres factores que, de alguna manera, deciden dónde se construye un data center son: el valor del metro cuadrado, el suministro de energía y las telecomunicaciones, y el energético es claramente el más complicado”.

Nuevos estándares de diseño

En este sentido, viene un cambio importante en el paradigma de diseño de los centros de datos, explica el profesional de Commscope y agrega que existe el nuevo estándar TIA-942-C, próximo a salir, que tiene cambios interesantes desde el punto de vista del criterio de lo que es un estándar de data centers. En esta línea, en Europa y en Estados Unidos ya se está proponiendo un cambio en la manera en que se plantea el estándar cuando se diseña, y más que apuntar a cómo lo hago, se centra en el resultado, la disponibilidad y cómo evalúo esto.

La sostenibilidad es otro tema importante. “Uno de los ítems que más está impactando en el diseño y construcción de data centers es el costo de implementación, desde el punto de vista de la eficiencia, es decir, encontrar energía disponible barata”, añade. Y es que, por ejemplo, en países de Europa disponer de energía del servicio público ya es imposible. Además, si se va a construir generará calor y contaminará, por lo que hay que ver la manera de retornar mejor al ambiente, y ahí está el tema del enfriamiento.

“Este aspecto será crucial en los diseños de data centers futuros, y tiene que ver con el nivel de densidad que están generando las nuevas tecnologías electrónicas: si bien un rack antiguamente consumía 4 kW, hoy en promedio las estimaciones de potencia consumida podrían llegar incluso a 300kW. Actualmente, es del de orden de 40 kW en racks de IA, pero en data centers locales todavía se mantiene en el rango entre 10~17KW a nivel hyperscala. Se habla de procesadores que permitirán una densidad que puede llegar entre los 200 kW y 800 kW por rack. Un salto donde el fuerte va a estar basado en enfriamiento líquido y el enfriamiento por aire va a pasar a ser un complemento”, afirma Nilson Parra.

Al cambiar la densidad también lo hace el tamaño de las canalizaciones, de los alimentadores y la cantidad de fibras. Por eso, es clave generar diseños de data centers pensando en tres o cuatro años más, no enfocados en las necesidades actuales.

data centers transformación digital


Proyecciones con la IA

Describiendo el escenario actual, el ejecutivo de Enacom señala que “se puso tanto foco en el cloud y en el data center macro que viene desde afuera, que se despreocupó el desarrollo en los actores locales. Hoy se están generando muchas oportunidades de volver a potenciarlo en base al requerimiento de IA, que tiene que estar basado en los datos que genera justamente el centro de datos local”. Esto, a su juicio, generará bastantes necesidades de infraestructura y de diseño en los siguientes períodos, que consideran la parte sustentable, tomando en cuenta la normativa.

“La IA es realmente disruptiva para el diseño y la concepción del data center. Y hoy, para adaptar sus aplicaciones a un centro de datos, hay un desarrollo de tecnología que todavía no existe, por lo que el desafío es saber cómo se va a llevar a la realidad, escalar y masificar en los data centers. Liquid Cooling es un prototipo, todavía no está estandarizado en el mercado, y ahí está el reto de cómo se maneja, diseña y opera”, señala el ejecutivo de Schneider Electric.

Claudio Serrano, EATON.

Para Claudio Serrano, Subgerente de Desarrollo de Negocios en Eaton, “la IA está avanzando tan rápido, que es crucial tener la capacidad local de conocimiento, y acercarnos a la academia y Estado”. Todavía estamos al debe, ya que Chile no tiene ninguna especialización o formación que sea formal y permita decir “esta persona puede diseñar o operar un data center”.

“No obstante, los actores que invierten todavía ven a Chile con mucho potencial: tiene una seguridad muy por sobre el nivel regional, como también su estabilidad política, y ven al país, en términos de las capacidades y potencialidades, como un hub tecnológico. Por lo que aún queda mucho por invertir”, agrega.

¿Ahora, cuánto durará ese liderazgo la Región? Los actores coinciden en que es probable y natural que otros países de la zona, que en algún momento estuvieron de espectadores, pasen a ser jugadores también. Por eso, concuerdan, justamente aprovechar esta ola a través de la formación de profesionales podría permitir mantener una cierta ventaja el mayor tiempo posible. Y coinciden que el contar con una infraestructura superior en conectividad al resto de Latinoamérica, permitirá que, más allá de que las nuevas tendencias requieran desplegar nueva infraestructura, una vez establecida esta, nuevamente Chile sea pionero en este mercado.

Artículos relacionados

Artículo 1 de 4