Tras una primera versión con resultados fallidos, el segundo Cyber Monday realizado en diciembre pasado exhibió mejoras, pero también desafíos que continúan, como la necesidad de probar regularmente el funcionamiento de las plataformas web para soportar consultas masivas y momentos de peak.
Ultimo lunes de noviembre de 2011, comenzaba el tan esperado Cyber Monday, la versión chilena del famoso Black Friday que se realiza en Estados Unidos después de Acción de Gracias y que inaugura la temporada de compras navideñas con atractivos descuentos en el retail. Las expectativas eran auspiciosas, pero a los pocos minutos el panorama para los usuarios locales fue desalentador: la mayoría de los sitios caídos, situación que se extendió durante gran parte del día. Y no sólo eso, muchos usuarios que lograron entrar a las páginas que participaban de la actividad no pudieron realizar los pagos. Según informó NovaRed, citando datos de la Cámara de Comercio de Santiago, más de un 64% de los usuarios finales intentó acceder a los sitios y ofertas especiales sin éxito, es decir, 6,2 millones de personas.
Un año después: último lunes de noviembre de 2012, segunda versión del Cyber Monday en Chile, y rápidamente Twitter y otras redes sociales se llenaron con reportes de los usuarios que reclamaban por sitios caídos y demoras en finalizar las solicitudes de compra. Aunque en esta oportunidad las principales quejas estuvieron asociadas a la poca cantidad de ofertas y los precios “engañosos” (sin mayores descuentos), los consumidores mantenían fresco el recuerdo de 2011 y manifestaron su molestia por las demoras en la navegación, reflejando que avanzamos pero quedaron lecciones pendientes.
La causa del colapso
A juicio de los expertos, este año sin duda hubo mejoras v/s 2011 cuando los sitios e infraestructura TI de las distintas empresas ofertantes se vieron sobrepasados exhibiendo páginas caídas durante gran parte del día. Este año los websites resistieron mejor el embate que significa un evento de este tipo en que la navegación en las redes se multiplica sustantivamente en relación a un día normal (en 2011 aumentó en más de 30 veces) y se registra una intensidad de intentos por entrar a los sitios muy superior, concentrándose fuertemente la navegación de los usuarios en el área de retail. Muchas plataformas recibieron más de 100 mil visitantes por hora, con un peak altísimo de usuarios concurrentes en los minutos posteriores a las 00.00 AM del lunes.
Enrique Lazo, PRAGMA. Jorge Rojas, NOVARED. Gabriel Ledesma, ANIDA Sergio Rademacher, SONDA
Y para una demanda de este tipo, resaltan los expertos, hay que estar preparados. Por un lado, “enfrentar esta dura prueba exigió a los equipos técnicos para responder en toda la cadena del proceso del retail, desde la venta en línea, hasta la logística de los sistemas de despacho”, explica Enrique Lazo, Gerente de Innovación de Pragma.
Por otro lado, “el desafío para las empresas oferentes es, sin duda, reforzar la capacidad de sus portales para recibir un inusual flujo de visitas en un corto período de tiempo”, comenta Jorge Rojas, Subgerente de Productos de NovaRed. A su juicio, la raíz del problema es que generalmente la capacidad de los servicios online está planificada para soportar cargas “promedios”. Sin embargo, este tipo de eventos y su rápida forma de difusión vía redes sociales y medios de comunicación, obliga a las compañías a estar listas para soportar cargas peak, las cuales serán cada día más existentes.
La causa de estos colapsos, explica Gabriel Ledesma, Gerente de Operaciones de Anida, es que la infraestructura que soporta estos servicios y las aplicaciones que se transforman en su acceso, no están en condiciones de soportar consultas masivas al mismo tiempo, “porque la arquitectura de las soluciones, no es sometida a pruebas de estrés. Es decir, antes de poner a disposición de los usuarios finales un sistema de información, no se realizan las pruebas que simulen lo más cercano a un escenario de alta concurrencia”. Con este procedimiento es posible garantizar que tanto el sistema como sus aplicaciones, tendrán disponibilidad de acceso y responderán en un determinado tiempo.
El desafío continúa
Y el trabajo no termina ahí, porque, según el ejecutivo, se requiere de una labor permanente de monitoreo en el website para medir su comportamiento, con usuarios que ingresen en tiempo real, y realizar pruebas de funcionamiento regulares, lo que permitiría llegar al tan ansiado 99,9% de disponibilidad.
De todas formas, hubo varias empresas que aprendieron la lección con la experiencia de 2011, y se prepararon con plataformas que soportaron bien la avalancha de usuarios utilizando la misma versión del sitio de e-commerce con que habitualmente atienden a los visitantes de todos los días. “Esa plataforma incorporó las buenas prácticas de la industria llevando al máximo el uso de recursos, con data centers de clase mundial, sacando provecho de las redes de distribución de contenido (CDN), con técnicas que maximizaron la eficiencia de los sitios web como CSS Sprites u otras. Había además una evaluación del máximo de usuarios concurrentes que podían ser atendidos, de modo de utilizar salas de espera para el momento del peak máximo alcanzado en los primeros minutos del evento”, explica el ejecutivo de Pragma.
Lo cierto, a su juicio, es que en Chile estamos dando pasos interesantes para sortear este tipo de eventos. Para Sergio Rademacher, Gerente Regional de Cloud Computing de Sonda, “imitar el modelo utilizado en EEUU es una buena opción para las firmas nacionales. Esto, pues varias empresas han optado por el cloud, justamente para reducir el riesgo en caso de aumentos inesperados de la demanda del negocio”. Lo anterior ya que en caso de mayor demanda, bajo un modelo de nube, simplemente se aprovisiona una mayor cantidad de infraestructura computacional en minutos, lo que es ideal para un evento como el Cyber Monday. “El servicio sólo crece cuando se requiere, por lo que no se genera capacidad ociosa en tiempos de baja convocatoria o razonables visitas concurrentes”, explica el ejecutivo. Sin duda, una forma de no volver a repetir una tercera versión con las mismas falencias y asegurar una experiencia positiva para el usuario.