Los negocios exigen tener plataformas cada vez más robustas para asegurar la continuidad de su operación y eso es posible con la tecnología disponible hoy. Seguridad de la información y de las redes de comunicación, virtualización, disponibilidad de los sites y especialmente cloud computing privado o público, forman parte de la estrategia que las compañías deben diseñar para tener planes de continuidad operativa a prueba de cualquier contingencia. El mercado ofrece múltiples alternativas, para distintos tamaños de empresas, orientadas a entregar seguridad a las operaciones y continuidad a sus procesos. Acerca de éstas, conversamos con destacados participantes de esta industria, en el desayuno organizado por Revista Gerencia.
Tener una operación “non stop” requiere de una completa alineación entre los objetivos del negocio y las herramientas TI. Definirlas, implementarlas, hacer gestión sobre ellas y enfocarlas en el objetivo de garantizar una operación sin interrupciones, es el paso que las empresas deben dar para asegurar su lugar en el mercado. Los expertos coinciden en que los riesgos implícitos en las fallas operativas pueden tener graves consecuencias para las compañías. Desde pérdida de información, pasando por mala calidad del servicio entregado a los clientes, hasta daño en la imagen corporativa de las empresas. Un alto costo que ninguna quiere pagar.
Continuidad operativa en evolución
La continuidad de negocios está determinada por contratos de contingencia que dan seguridad a las compañías, y así como la tecnología, los acuerdos de servicio actualmente son muy distintos a los de hace cinco o seis años. “Uno de los cambios relevantes es -como indica Héctor Monje, ITS Sales Manager Global Technology Services de IBM- que en ellos participa además del gerente de tecnología, el de operaciones y hasta el CEO de las empresas”.
Miguel Maluje, Gerente General de SixManager, recuerda como una gran proeza que hace 10 años las empresas se preocupaban de contar con un clúster para abordar su continuidad de negocios, y una de las medidas que implementaban para recuperación de información ante desastres era guardar las cintas con el respaldo de sus datos través del tiempo. “Pero las necesidades del negocio han evolucionado y hoy piden más. Por su parte, la tecnología también ofrece niveles crecientes de capacidad de procesamiento y almacenamiento, acorde al ‘time to market’, que es cada vez más requerido”, señala.
Definitivamente, para Mario Gutiérrez, Country Manager Chile, Perú y Ecuador de NetApp, “la continuidad operativa que se requiere hoy es distinta a la de antes. Indica que en la actualidad las compañías están frente a la posibilidad de migrar a la nube, con la disyuntiva de si hacerlo sobre una cloud privada o pública”; eso mediado por el temor que aún numerosos clientes sienten respecto a que sus datos estén en un lugar lejano. A nivel de redes, señala que la virtualización abarca no sólo los servidores, sino también las redes; que se ven sometidas a exigencias nunca antes vistas: ataques de hackers o aumento inesperado de visitas, un canal Internet que se espera esté siempre disponible y comunicaciones ininterrumpidas, que permiten tener una operación diaria fluida y sin sobresaltos y que redunda en una imagen de empresa segura y confiable de cara al mercado. ¿Cómo lograr todo esto? “A través de una estrategia de continuidad operativa sólida”, afirma el ejecutivo. Hoy las empresas necesitan proteger su disponibilidad y, más aún, su eficiencia. Así lo indica Patricio Infante, Profesional del Area Comercial de APC by Schneider Electric Chile, quien explica que a estos requerimientos se suman, además, costos operativos que en algunas áreas pueden ser más bajos en el tiempo. Asegura que los clientes están centrados en hacer proyectos con retorno de inversión, por ejemplo en materia de ahorro energético. “La virtualización es una de las tendencias tecnológicas importantes que permiten ahorros de energía. Eso impacta en el ROI, porque el recurso eléctrico es escaso y aumenta de precio constantemente, por lo tanto, si un proyecto de eficiencia energética puede lograr un 10% de ahorro -algo que en la práctica hemos visto que es posible- el impacto positivo es importante”, añade.
¿Todos a la nube?
En la encrucijada por lograr una continuidad de negocios a prueba de fallas, manteniendo bajos niveles de inversión, la figura del gerente TI vuelve a tomar relevancia. A juicio de Jorge Olivares, Consultor Senior de Seguridad de la Información de Adexus, en Chile se dan dos realidades en este sentido: por una parte está la figura del gerente de informática alineado con los objetivos del negocio, especialmente en mercados como el retail y la banca; y por otra está el gerente TI centrado en mantener la operación estable con un mínimo costo. “En este caso, generalmente entiende que evolucionar hacia nuevas plataformas como cloud puede ser muy beneficioso para el negocio, pero no cuenta con el respaldo de la organización, sobre todo si ese cambio implica una inversión mayor”, explica.
Es urgente un cambio a nivel estratégico en torno a la continuidad. Hoy, como señala el ejecutivo de IBM, el futuro es cloud, aun con sus grandes obstáculos en el caso de la nube pública, como la falta de legislación respecto a la definición de los servicios. Para Fernando Abrego, Gerente de Marketing Segmento Corporativo de Microsoft, “la cloud pública efectivamente constituye un desafío a abordar en materia de seguridad y privacidad, pero muy posible de conquistar, sobre todo teniendo en cuenta los casos de éxito que ya existen en cloud pública, sobre todo post terremoto”.
A juicio del ejecutivo de NetApp, el freno de la cloud pública en Chile está en la falta de estandarización de una oferta estable y segura. Explica que mientras algunos proveedores cuentan con tecnologías que cumplen con los requerimientos de seguridad más exigentes, aun dentro de sistemas compartidos, otros no pueden garantizarla. Otra incógnita es la que expone el ejecutivo de Adexus. “En cuanto a la nube, un tema atingente a la disponibilidad ocurre cuando las empresas adhieren a migrar con ciertos servicios y aplicaciones, porque no siempre se puede lograr en forma transparente y sin inconvenientes”, indica.
En este camino, David Poniachik, Gerente General de Acsys, señala que en América Latina hay avances impensados en cloud pública. “Vemos que países como México y Panamá nos están llevando la delantera. Están adoptando cloud intensamente, a través de infraestructuras muy robustas y de altos niveles de inversión; algo que todavía no vemos en Chile”, afirma. Ante esta realidad, tímida e indecisa aún, es necesario considerar que cloud es mucho más que una alternativa; porque ya constituye una definición clara a nivel de la industria TI. “No viene, ya está”, señala Ricardo Peralta, Account Manager de Anida. De acuerdo a su opinión, “lo que probablemente permanecerá en el tiempo es la nube híbrida, debido a que las empresas más grandes migrarán a ésta sólo con una parte de sus servicios, manteniendo otro porcentaje de sus aplicaciones en una cloud privada”.
Los expertos coinciden en que hace falta más difusión respecto a cómo lograr altos niveles de continuidad operativa en cloud. Este desafío ya ha sido tomado por grandes empresas como Microsoft, a través de “Cloud Academy”, iniciativa en la que técnicos y profesionales expertos explican a los ejecutivos de las empresas -CEOs y CIOs- cómo operar en la nube con niveles de SLAs crecientes.
Tras la calidad de servicio
Junto a la continuidad operativa, asegurada en distintos niveles por proveedores expertos, otra preocupación circunda las oficinas de los encargados de TI: la calidad de servicio. Como explica Aldo Aguila, Gerente de Negocios de Optimisa, según su experiencia en mercados exigidos por estrictas regulaciones, la responsabilidad por la disponibilidad del negocio no se delega, ni siquiera cuando hay de por medio grandes contratos de calidad de servicio. “Los contratos de outsourcing y cloud funcionan, pero el responsable último de que esos servicios estén arriba sigue estando dentro de la empresa, sobre los hombros del gerente de TI: no basta con tener SLAs predeterminados e incluso multas por incumplimiento. Y es ahí justamente donde está uno de los principales desafíos del cloud: la transparencia. Las empresas deben contar con la información respecto a cómo están disponibles los servicios, porque si algún día el proveedor de servicio no puede otorgarlos, el de TI tiene que hacerse cargo”, plantea.
Sin duda éste es un tema crítico. A juicio del ejecutivo de Anida, el monitoreo es fundamental, porque el cliente siempre debe saber lo que está ocurriendo con sus sistemas. De lo contrario, se generan miedos y distancias. Señala que muchas veces las firmas contratan estos servicios y luego se dan cuenta que no tomaron los resguardos necesarios.
En este contexto la asesoría comienza a jugar un rol clave y así lo indica el ejecutivo de NetApp: “Existe la tecnología para operar con altos niveles de continuidad operativa, y para monitorear los sistemas que la sustentan. Es algo que los clientes deben pedir y que los proveedores deben entregar. La tecnología está. Es posible tener un site primario, secundario y terciario; replicar entre dos sites y tener soluciones de alta disponibilidad de recuperación en caso de desastres, pero lo más importante es que el cliente sepa que existen todas esas alternativas, que sea asesorado respecto de si realmente necesita de todo eso o requiere de respaldos menos críticos. En ese sentido, falta desarrollar el concepto de servicio”.
Según Carlos Alberto Cruz, Consultor Senior Storage Management de CA, el problema está en el gran gap que existe entre el conocimiento del cliente final y los proveedores respecto a la tecnología. “Por un parte, el mercado espera que le ofrezcamos aquellos sistemas que están en la punta, pero no siempre su ciclo de negocio tiene la madurez necesaria para implementarlos, o simplemente su operación no lo requiere. Desde el punto de vista del almacenamiento, por ejemplo, muchos clientes aún no cuentan con sistemas de protección de respaldo, por lo tanto, la tecnología necesaria no es estándar, y depende del nivel de desarrollo de cada negocio. De ahí que la asesoría es fundamental”, insiste.
Rodrigo Arancibia, Account Manager de EMC, concuerda en que los proveedores de esta industria tienen una labor que cumplir en cuanto a educar al mercado, principalmente respecto a que las tecnologías existen, y que hay distintos caminos para abordarlas. “Es importante que sepan que es posible avanzar de manera progresiva: pasar primero por una cloud privada, y luego a una pública o híbrida. Es necesario que contextualicemos, porque por ejemplo no todas las firmas entienden de virtualización -y muchas siguen trabajando con plataformas de servidores tradicionales-, en circunstancias que es el puntapié inicial para llegar a la cloud”.
Servicios críticos
El mercado de la alta disponibilidad avanza hacia niveles de servicio altos, que demandan inversiones proporcionales, casi siempre cuantiosas. “La inversión es significativa cuando se buscan niveles altos de disponibilidad, muy demandados en mercados regulados, donde los servicios críticos requieren estar siempre arriba. En este nivel, se requieren cinco “9” de disponibilidad, que garantizan un “down time” de no más de 5 minutos al año. Un gran seguro en términos de continuidad operativa”, asevera el ejecutivo de Optimisa.
La criticidad también ronda la virtualización y la cloud. A nivel mundial se mira con expectación la migración de más de 100 mil usuarios de un importante banco a la cloud pública, especialmente por los alcances que tendría de ser exitosa. Según el ejecutivo de IBM, experiencias como éstas toman ribetes globales y centra nuevamente la discusión y atención respecto a qué se puede virtualizar y qué no en una cloud pública. “Hasta ahora, existe consenso en que el nivel de criticidad de las aplicaciones determina si se montan sobre entornos privados o públicos, y la customización o complejidad técnica que hay detrás de eso. También se están abordando temas que pueden ser más estratégicos, como aplicaciones que no pueden depender de SLAs públicos, entre ellas Internet. La criticidad también se debe transparentar respecto a su costo, porque no cuesta menos, pero sí disminuye el riesgo operacional”, afirma.
A juicio del ejecutivo de SixManager, disponer de servicios críticos también depende de la estrategia de cada empresa. Es necesario que cada compañía tenga claro que todo sistema es factible de fallar, pero que lo importante es anticiparse a ello, implementando modelos de acción que protejan la operación de eventuales caídas de la plataforma TI. Constantemente se prueban nuevas tecnologías que prometen altas eficiencias, algunas menos costosas, otras más; que ostentan distintos niveles de seguridad y estandarización. El mercado las testea, revisa e implementa sólo si la aplicación no es el “core” del negocio. Después de mucho tiempo funcionando ininterrumpidamente, éstas podrían pasar a formar parte de las plataformas confiables. Esto es lo que ocurre en el desarrollo de fenómenos como la cloud pública, que hace más de dos años está siendo cuidadosamente inspeccionada por los ojos del mercado. Algunos apuestan por ella basándose en las experiencias exitosas que proliferan, mientras otros prefieren esperar, mientras siguen observando.
Héctor Monje,
IBMMiguel Maluje,
SIXMANAGERMario Gutiérrez,
NETAPPPatricio Infante,
APCJorge Olivares,
ADEXUSFernando Abrego,
MICROSOFTDavid Poniachik,
ACSYSRicardo Peralta,
ANIDAAldo Aguila,
OPTIMISACarlos Alberto Cruz,
CARodrigo Arancibia,
EMC
De acuerdo a la opinión de Hernán Calderón, Gerente de Negocios de STG Chile, lograrlo depende en gran medida del nivel de involucramiento de los proveedores de tecnología en cada área del retail. “Porque al conocer el negocio es posible proponer nuevas herramientas y perfeccionar las ya existentes”, declara, ya que muchos problemas actuales tienen una solución en las TI y otros pueden perfeccionarse significativamente al implementar los últimos avances que existen en el mundo en materia tecnológica.
Las redes sociales son uno de los próximos desafíos de los grandes retailers y de las empresas en general. Distintas investigaciones han demostrado que tienen un norme impacto en la decisión de compra de las personas y en lo que la gente opina acerca de una marca, por lo tanto, tener presencia en canales como Facebook y Twitter, se está convirtiendo cada vez más en una decisión de negocios y en parte de la estrategia comercial y de marketing de las compañías en general, y del mercado retail en particular. Pronto, adelantan los entendidos, además de sistemas móviles en la tienda, de sitios cada vez más rápidos y seguros, y de aplicaciones de compra en los teléfonos inteligentes, se verán emerger a los “community manager” como nuevos voceros del retail en la web.