En Chile y en el mundo la virtualización está rondando los nuevos proyectos de inversión en TI. Las estadísticas señalan que en nuestro país cerca del 15% de los servidores está siendo virtualizado, mientras que en las naciones desarrolladas esta cifra bordea el 20%. Esta tendencia ha estado marcada por el ahorro de costos como principal motor de desarrollo, pero los proveedores de tecnología intentan desmarcarse de este inicio, para avanzar a niveles superiores. Y es que, como aseguran, la disminución del gasto en TI es sólo una de sus ventajas. Más allá están la agilidad, flexibilidad y dinamismo que la virtualización aporta a la infraestructura tecnológica de una compañía. Para conocer de cerca el impacto de esta tecnología en los procesos de negocios de las empresas, conversamos con destacados ejecutivos del mundo de los proveedores de TI y de los clientes, en el desayuno organizado por Revista Gerencia.
El concepto virtualización está presente en el mundo de las Tecnologías de Información desde hace más de tres décadas, pero a partir del 2000 se ha vuelto significativamente más relevante. Una de las razones que lo han popularizado “es su capacidad de ‘colocar’ -como indica Nelson Abarza, Gerente de Ventas de DWS- varias máquinas (servidores) en una sola, permitiendo a las organizaciones disminuir sus costos, administrar de manera más eficiente su infraestructura de TI y flexibilizar su operación”.
Hoy, a diez años de la arremetida de la virtualización en el mercado de la tecnología, el desafío es diferente. Según explica Jaime Guzmán, Gerente de Negocios de IT Broker, “el objetivo es transportar el mundo real al virtual, pero masivamente”.
En este avance, las compañías proveedoras han adoptado distintas estrategias. Para varias de ellas la virtualización es un concepto holístico, más allá de la unificación de servidores. De acuerdo a José Francisco Ovalle, Gerente de Ventas Area Data Centers de Sun Microsystems, “la virtualización involucra el escritorio, el almacenamiento, la red y el data center”. Asimismo, en opinión de Patricio Albornoz, Gerente de Ingeniería de Cisco Chile, “hoy el foco está puesto en la seguridad, pero hay muchos otros elementos a considerar dentro de un proyecto de este tipo”.
¿Dónde están los datos?
En el mercado de la virtualización queda mucho por crecer. Claramente las grandes y medianas empresas del mundo corporativo e industrial ya han entendido la necesidad de virtualizar su plataforma de servidores, pero ése es sólo el comienzo.
El segundo paso es, a juicio de Carlos Bustos, Director de Plataforma de Servidores de Microsoft Chile, adoptar la estrategia general de migrar de un mundo físico a uno lógico toda la infraestructura tecnológica de una organización. “Y lo que es más complejo aún: darle las herramientas adecuadas a las gerencias de informática, de manera que puedan administrar una plataforma cien por ciento virtual”, afirma.
El entusiasmo del mercado ante las promesas de disminución de costos que ofrece la virtualización es alto. Y para Juan Antonio Durán, Director Comercial de ST Computación, está plenamente justificado. “Generalmente, las compañías logran ahorros reales del orden del 30%, pero para seguir adelante en el mundo de la virtualización es indispensable que las aplicaciones de negocios más importantes estén disponibles para ser virtualizadas. Si bien algunos proveedores de soluciones están avanzando en este sentido, la mayoría todavía no entrega soporte en ambientes virtuales”, asegura.
Para lograr proyectos de virtualización exitosos, es fundamental el rol del proveedor. Fabián Terán, Gerente de Producto de Misión Crítica de HP, asevera que “el punto clave en la adopción de estas nuevas tecnologías es la gente a cargo de su implementación en las empresas, y el rol que proveedor y personal TI juegan en el éxito del proceso, porque aún existe el miedo del mercado respecto de dónde están las aplicaciones y los datos”.
En el camino de la masificación de la virtualización ya hay avances importantes. A juicio de Eduardo Godoy, Gerente de Desarrollo de Negocios de Intel, vale la pena destacar acuerdos de interoperabilidad entre distintos sistemas; señales de la industria que constituyen un gran ‘espaldarazo’ al desarrollo de esta tecnología. “Claramente, para seguir avanzando, la virtualización debe apuntar a ser un apoyo real a los procesos de negocios de las empresas, y no sólo basarse en los beneficios de ahorro de costos y aumento de eficiencia operativa”, aclara.
Bajo el mando de TI
La agilidad que otorga traspasar la administración de una plataforma tecnológica desde el mundo físico a uno lógico, sin duda representa una ventaja sustancial para las compañías. Sólo en términos de performance, la virtualización permite utilizar un servidor en un 70% y 80% de capacidad, a diferencia del 15% ó 20% de rendimiento que alcanzan las máquinas administradas en forma tradicional.
En el mundo real, estas características dan la posibilidad, como explica Fabián Terán, de mejorar la capacidad de respuesta de las empresas y generar nuevos servicios de manera rápida. De una forma u otra, estas cualidades de la virtualización han permitido que las áreas de TI vuelvan a retomar el protagonismo que tenían y el control de las potencialidades de los centros de datos que administran, desde un enfoque mucho más flexible y ágil.
En opinión de Patricio Albornoz, estamos siendo testigos del poder que están tomando las áreas de Tecnologías de Información nuevamente. “Y ése es otro aporte de la virtualización en toda su gama de acepciones en el área de los data centers”, asegura.
Para Leopoldo Cárdenas, Gerente TI de la Corporación Santo Tomás, esta vuelta al control del área de tecnología, no es menos cierta ni relevante. “Claramente, la virtualización ofrece a las compañías la alternativa de reanudar la vieja historia de los mainframes, donde todo era centralizado, y eso nos da la posibilidad de volver a tomar el control. Desde el punto de vista de nuestra demanda como empresa, el requerimiento es que la oferta no sólo sea virtualización de servidores, sino también de comunicaciones, entre otras”, señala.
Definitivamente, a juicio de Cristóbal Fernández, Gerente Comercial de IT4U, la virtualización cambió el paradigma y volvió a dar el control al gobierno de TI. “Y, estratégicamente, hoy esa facultad es relevante, porque lo que necesita la gerencia general es bajar el riesgo y maximizar sus clientes, y esta tecnología posibilita disminuir el riesgo operacional y dar continuidad operacional al negocio”, enfatiza.
Los proveedores de TI hoy asumen como una más de sus tareas el centrar los objetivos de la tecnología en el apoyo al negocio. Conceptualmente, como precisa Carlos Bustos, se habla de transformar a la gerencia de informática desde un centro de costos a un activo estratégico, lo que permite avanzar desde tener una informática dinámica y desde ahí una infraestructura dinámica. “Lógicamente, dentro de ese proceso de cambio la virtualización juega un papel importante”, sostiene.
Virtualizar… ¿Para qué?
Para José Francisco Ovalle, el punto de partida del éxito de un proceso de virtualización en una compañía es que tenga un sentido claro. “No se trata de pasar de tener 30 a 4 servidores, porque a veces eso implica instalar, en esas pocas máquinas, 50 sistemas operativos, y eso claramente no es virtualizar”, detalla. Eso es sólo consolidación de servidores para conseguir ahorro de costos, lo que según Eduardo Godoy en Intel se ha denominado como ‘Virtualización 1.0’.
En cambio, añade, si la virtualización es entendida como una herramienta de apoyo a la empresa, para hacerla más ágil, dinámica y, sobre todo, flexible, es posible distribuir el recurso físico de mejor manera -lo que llaman ‘Virtualización 2.0’- que, por ejemplo, significa mover máquinas virtuales desde un servidor más rápido a uno menos potente, porque la compañía necesita apurar un proceso que de otra manera se haría muy lento. “Y ese dinamismo y flexibilidad es el real aporte de esta tendencia”, aclara.
Según el ejecutivo de Intel, el futuro de la virtualización no está sólo en la bandera de la disminución de costos, sino en la filosofía del ordenamiento, de la mayor capacidad de dinamismo de las empresas y de una mejor habilidad de respuesta frente a un mercado cambiante, que permite hacer crecer o comprimir la infraestructura tecnológica de una compañía de manera ágil.
Aun en tiempos de crisis, Cristóbal Fernández asegura que los clientes están dispuestos a invertir en nuevas tecnologías, siempre y cuando exista un proyecto con un retorno de inversión de corto plazo. Para concretar estas inversiones, Italo Villanueva, Brand Development Manager de IBM, declara que es necesario transformar los objetivos de la gerencia a la misión de las áreas informáticas. “En IBM hablamos de infraestructura dinámica, para lograr que las TI sean el apoyo al negocio, y de qué manera es posible hacerlo más rápida, flexible y dinámicamente. En este sentido, es importante entender que la virtualización debe estar al servicio del negocio”, afirma.
Nelson Abarza,
DWSJaime Guzmán,
IT BROKERJosé Francisco Ovalle,
SUN MICROSYSTEMSPatricio Albornoz,
CISCOCarlos Bustos,
MICROSOFTJuan Antonio Durán,
ST COMPUTACIONFabián Terán,
HPEduardo Godoy,
INTELLeopoldo Cárdenas,
CORPORACION SANTO TOMASCristóbal Fernández,
IT4UItalo Villanueva,
IBMBoris Lacoste,
RED HAT
Y así está ocurriendo. Según Boris Lacoste, Gerente de Ventas de Red Hat, ya hay una aproximación a la virtualización dentro de las distintas áreas de las compañías. “Este concepto, entre otros, es visto como una herramienta para llevar a cabo proyectos tecnológicos exitosos, más flexibles y más sintonizados con el negocio”, afirma.
Como señala Jaime Guzmán, desde hace tres años las principales prioridades tecnológicas de las empresas son consolidación, seguridad y virtualización. Sin duda, éste y los próximos años serán períodos de búsqueda de proyectos capaces de poner la tecnología al servicio de la concreción de los objetivos estratégicos de las organizaciones, y el ir más allá del ahorro de costos será una premisa que los proveedores de TI harán cumplir.