“En una economía globalizada e “internetizada” en el sentido de que a la mayor presencia geográfica se suma una virtual omnipresencia temporal, la mayor parte de los sistemas de información de las empresas insertas en la red no pueden permitirse tiempos muertos, pues estar fuera del negocio conlleva significativas pérdidas económicas. Por esto, la alta disponibilidad, que implica mantener el servicio arriba las 24 horas del día y los 7 días de la semana, ha surgido como uno de los temas recurrentes en las compañías nacionales, las que han asumido la importancia vital de este tipo de soluciones. Para profundizar sobre este tema, nos reunimos con ejecutivos de los principales proveedores en esta área.”
¿Por qué alta disponibilidad?
Si a alguien le llegase a ocurrir que la información de la página web de un banco no está disponible, o peor aún, que los datos que arroja son incorrectos, probablemente, su primera reacción sería buscar otra entidad y aunque el problema puede tener diversas causas, la percepción final es que el banco no está operando.
En este mundo «internetizado» es imprescindible que las compañías que proveen servicios a través de la red mantengan sus aplicaciones corriendo las 24 horas del día y los 7 días de la semana, ya que las horas o minutos en que éstas no funcionan implican considerables pérdidas tanto en materia económica como de imagen.
Es importante distinguir las aplicaciones que son de misión crítica de aquellas que no lo son. Los costos involucrados pueden llegar a ser cuantiosos, y por ello una buena metodología de evaluación e implantación hace que muchas de estas soluciones, que a primera vista parecen impracticables por sus altos costos, se conviertan en propuestas viables e indispensables en todo tipo de organizaciones.
Para Ricardo Benavente, Gerente General de AQB, «alta disponibilidad es un concepto que va muy asociado a calidad de vida, ya que es precisamente lo que se obtiene con este tipo de sistemas. Sin embargo, existe un problema de expectativas que también influye en la percepción y niveles de requerimientos de los usuarios. Muchas veces, basta con avisar respecto de una interrupción de un servicio, para que su ausencia deje de ser percibida como un mal mayor». Pero hay casos en que estar fuera de servicio es devastador. Según relata Sergio Morales, Director Systems & Technology de Unisys, «un gerente de informática de un banco internacional nos mencionaba que una institución financiera que esté 48 horas fuera de servicio puede quebrar. Si visualizamos qué significa este tiempo y lo llevamos a costo por hora versus costo de pérdida, podemos entender qué implica invertir en disponibilidad».
Según Italo Peirano, Gerente Comercial Grandes Cuentas de IBM «sólo un plan de contingencia permite diferenciar cuál es el costo de estar fuera del sistema respecto del costo de la disponibilidad que podemos aportar. Estos planes son una parte clave de las empresas, pues permiten definir sus factores de éxito y entregar la solución más adecuada». La idea la comparte Jorge Cepeda, Gerente General de Hitachi Data Systems, quien destaca que «el diseño de un análisis de este tipo es fundamental para que nuestros clientes sepan cuál es su costo de no operación. Luego de diseñarlo, la idea es someterlo a periódicas revisiones y actualizaciones que vayan reflejando la propia dinámica de cambios de la organización».
El valor de los datos
Según Alfredo Piquer, Presidente de Optimisa, «las empresas dependen cada vez más de la infraestructura tecnológica para operar, partiendo desde el propio e-mail. Por eso el tema de la disponibilidad es creciente, ya que cada nueva tecnología complejiza las configuraciones y agrega elementos que pueden fallar, bastando sólo uno de ellos para que el servicio no esté disponible».
Jorge Cienfuegos, Solutions Manager High Performance Server de Compaq, agrega cifras que indican que «el 43% de las empresas que tienen una contingencia mayor quiebra antes de los seis meses y el 23% lo hace antes del año. Pueden fallar los servidores, las redes o cualquier cosa, pero los datos no porque significa perder el negocio».
Patricia Ugarte, Account Manager de EMC², coincide con Cienfuegos y enfatiza que «en definitiva lo único que no es recuperable son los datos, y por eso la alta disponibilidad tiene que estar ligada a una infraestructura de la información. Todo el resto se puede reemplazar, fallas en los servidores, en líneas, en la conexión; es sólo un tema de costos, pero la información es la base del negocio».
Los datos, las transacciones y todas las operaciones que maneje una empresa a través de Internet no pueden perderse, ni siquiera cuando las interrupciones del servicio son programadas. Según Piquer, «la mayoría de las veces en que las operaciones no están disponibles se debe a paros planificados, ya sea por modificaciones de software o traslado de equipos. Son situaciones que plantean un desafío para mantener los niveles de acceso y resguardar la información. Por eso la importancia de una buena arquitectura de alta disponibilidad».
La arquitectura de las soluciones
Juan Carlos Barroux, Gerente de Tecnología de Sun Microsytems, relata que «hace algunos meses vendimos a un proveedor de acceso a Internet un proyecto de expansión a un millón de casillas. El objetivo era pasar todo lo que es mail gratis desde la plataforma antigua a la nueva, sin que ninguno de los 300 mil usuarios se enterase. La migración se realizó sin un solo tropiezo. Eso es alta disponibilidad».
Una de las estrategias tecnológicas implementadas por las compañías proveedoras de soluciones son los clusters. Con ellos, se aumenta la capacidad de los sistemas y a la vez se incorporan herramientas de alta disponibilidad y tolerancia a fallas. Si un servidor se cae, otros asumen las tareas y los usuarios siguen accediendo a los datos y aplicaciones sin percibir la falla.
Sin embargo, los problemas no se presentan únicamente a nivel de hardware. Al respecto Morales cita que «estudios de consultoras internacionales indican que un 40% de las interrupciones de servicio se deben a fallas de operación y sólo un 20% a errores de maquinaria. Por eso hemos puesto énfasis en brindar soluciones en el ámbito operacional».
En opinión de Benavente, «también desde el punto de vista del software se ha podido avanzar hacia esquemas de alta disponibilidad. Como proveedores de una solución integral, aparte de las máquinas, también consideramos el software como un elemento fundamental en los sistemas».
Para lograr estos avances, Barroux enfatiza la necesidad de contar con aplicaciones que sean flexibles y simples. «Si el sistema no es fácil de manejar, lo más probable es que el operador cometa algún error o que el software tenga un bache que no pueda solucionar. Y si ante eventuales problemas en un servidor, no se pueden mover las aplicaciones entre las distintas máquinas, una solución de alta disponibilidad no sirve de nada».
Daniel Bregante, Solution Consultant de Hewlett-Packard, añade que «al hacer el diseño hay que tener mucho cuidado con los detalles dentro de la arquitectura, considerando ciertamente una visión global de alta disponibilidad. Para ello, todo el ambiente debe estar integrado y contar con la redundancia necesaria de componentes, tanto en servidores como en sistemas de almacenamiento».
Los ejecutivos coinciden en que, dentro de la arquitectura de sistemas de alta disponibilidad, entra el tema de los mainframes. Según Morales, «hoy hablamos de maquinarias con características de procesamiento de un mundo abierto y a costos mucho más racionales y donde la disponibilidad está cada vez más presente». Agrega que el aporte de su empresa al mercado es llevar las características del mainframe, en cuanto a escalabilidad, disponibilidad y administración de plataformas, a mundos abiertos como el de Microsoft o Unix. Resumiendo, Cepeda recuerda cómo los sistemas de información han pasado de ambientes centralizados a distribuidos, siendo hoy la tendencia avanzar hacia ambientes «centri-buidos».
De acuerdo a Peirano, «más allá de la discusión sobre ambientes mainframe puro, tipo mainframe o abiertos, la realidad es que los imprevistos ocurren, y por ello es fundamental contar con la metodología adecuada que permita una recuperación rápida ante un desastre». Piquer añade que «ante una contingencia no sólo hay que arreglar la causa, sino que además reparar el daño posterior, que muchas veces es un trabajo más complejo, pues hay que buscar elementos que no deberían estar o transacciones que no se almacenaron». Un ejemplo claro de este tipo de recuperación ante desastres fue el caso del edificio federal en Oklahoma, destruido por una bomba y que a los dos días, los servicios que prestaba estaban nuevamente en funcionamiento. De acuerdo a Peirano, el proceso de recuperación fue rápido gracias al diseño previo de un plan de contingencia que estableció la instalación de un site alternativo de operaciones fuera del edificio.
Una jerga confusa
A juicio de Morales, «desarrollar un proyecto de alta disponibilidad requiere de un proceso de ingeniería que delimite las necesidades del cliente e indique las metas, las etapas a seguir y los costos de implemen-tación. Tanto o más importante que las herramientas utilizadas y su puesta en marcha es el diseño de la solución. Sin embargo, en muchos casos las empresas consideran esta valiosa consultoría como una simple herramienta de pre-venta. Es importante que los empresarios reconozcan su valor y estén dispuestos a pagar por ese tipo de servicios, pues es lo que en definitiva les dará la tranquilidad de que sus sistemas responderán a sus necesidades».
Los ejecutivos también coinciden en que muchas veces el lenguaje utilizado se presta para confusión, pues lleva a los clientes a pensar que con clusters y almacenamiento paralelo tienen todo resuelto. No obstante, esto es sólo una parte de la solución integral que entregan y de las expectativas que ofrecen. De hecho, para Barroux, «en parte los propios proveedores han contribuido a este tipo de confusión, ya que por simplificar sus procesos de venta no han hecho el esfuerzo suficiente para educar al mercado».
Incorporar el tema de la alta disponibilidad en las empresas parte por analizar exhaustivamente el impacto que la continuidad operacional tiene en cada una de las etapas del negocio. Luego, es posible empezar a determinar cuántos nueves después del 99% es posible y necesario entregar.
Ricardo Benavente,
AQB.Sergio Morales,
UNISYS.Italo Peirano,IBM.Jorge Cepeda,
HITACHI.Alfredo Piquer,
OPTIMISA.Jorge Cienfuegos,
COMPAQ.Patricia Ugarte,
EMC².Juan Carlos Barroux,
SUN MICROSYSTEMS.Daniel Bregante,HP.