No cabe duda de que la virtualización ha redefinido la forma de administrar los recursos tecnológicos dentro de una empresa, permitiendo tener control sobre las herramientas disponibles, independientemente del tiempo y del lugar. Hace posible poner a disposición de todos la potencia de ciertas aplicaciones, depositando en unos pocos servidores la capacidad de procesamiento de toda una compañía. Ya no más cientos de átomos de información dispersos: el camino apunta a la centralización de los recursos informáticos, como hace dos décadas. Sobre las ventajas de esta “vuelta atrás” y su adaptación al mercado chileno, conversamos con destacados representantes de empresas proveedoras, en el desayuno organizado por Revista Gerencia.
La instalación en Chile del concepto de virtualización ha significado una transformación en la lógica de cómo se plantea el acceso a las TI dentro de una organización. Es, según Rodrigo Eterovic, Gerente General de RAEF, una especie de vuelta al pasado, al tiempo de los mainframes. “El concepto de centralización lo que hace es virtualizar la potencia del servidor, y como un segundo paso nos encontramos hoy frente a la necesidad de virtualizar también los escritorios, y de administrar, mantener, actualizar y migrar las estaciones de trabajo. Eso representa un empuje bastante fuerte y es una nueva tendencia que comienza a imponerse”, asegura.
Para Pablo Lambert, Subgerente de Innovación TI de Entel Chile, la virtualización va mucho más allá de un cambio tecnológico, porque impacta fuertemente en el aspecto cultural, especialmente cuando llega al nivel del escritorio, haciendo impostergable el capacitar y educar a los usuarios. “En este sentido, la coyuntura del terremoto ha arraigado aún más el concepto de virtualización. Ha servido para que las compañías opten por trabajar sobre infraestructuras ciento por ciento seguras; y muchas, frente a la necesidad de crecer en capacidad de procesamiento, optan por contratar servicios on demand o virtualizar”, indica.
A juicio del ejecutivo de Entel, hoy, con las herramientas disponibles, los usuarios están tendiendo a utilizar cada vez más la centralización como estrategia TI, porque minimiza las complejidades, resulta más sencillo generar ambientes virtuales, y diseñarlos y utilizarlos rápidamente, en entornos seguros.
Disponibilidad, centralización y alto rendimiento
Sin duda, como señala Nelson Abarza, Gerente de Ventas de DWS Latam en Chile, tras el terremoto se han generado importantes posibilidades para desarrollar estrategias de virtualización, principalmente porque en su momento las empresas requirieron reestablecer sus comunicaciones, dando lugar a la idea de virtualizar producto de las ventajas que ofrece en términos de máxima disponibilidad y de acceso a la información y a las aplicaciones críticas de una compañía. “La virtualización permite estar en cualquier parte y conectarse a las aplicaciones empresariales con cualquier dispositivo. Es así como grandes multinacionales, con miles de usuarios conectados, dan servicios en línea y, al mismo tiempo, tienen la posibilidad de controlar online la calidad que su compañía entrega a los clientes finales, porque el sistema de virtualización les permite guardar la información de cada estación de trabajo”, asevera.
Pero la virtualización no se ha quedado sólo dentro las compañías. También los “services providers” la están ofreciendo, permitiendo a las organizaciones escalar a ahorros mayores y tener beneficios importantes porque, de acuerdo a la opinión de Pablo Lambert, ponen a disposición de los clientes una infraestructura enterprise muy poderosa. “Los clientes ya lo están pidiendo y se entusiasman mucho con la idea de comprar un servicio de procesamiento de datos aunque no sepan dónde está, y que perfectamente puede ser on demand”, precisa.
El avance y desarrollo de la virtualización ha permitido implementarla en aplicaciones, servidores y escritorios con altos niveles de seguridad, limitando o permitiendo el acceso, dependiendo de los ambientes en que se encuentre el usuario, centralizando las aplicaciones para disminuir los costos de administración de software.
Como indica Javier Prado, Solutions Consultant de Dell, “otra tendencia importante es la preocupación por la administración de los data centers”. La industria ha abordado el tema a través de soluciones de monitoreo para plataformas virtuales, herramientas de optimización para los almacenamientos virtualizados y aplicaciones de respaldo con duplicación. Según Nicolás Zalaquett, Product & Channel Manager de Afina, “es necesario hacerse cargo de la administración de plataformas virtuales, con la tranquilidad de saber que existen múltiples alternativas para darle solución”.
Así como el mercado de la virtualización ha crecido sostenidamente, también se ha ido segmentando. De acuerdo a Jaime Avaria, Gerente General de IT Broker, existen empresas que partieron con el concepto de consolidación, buscando ahorros de espacio y energía, y ventajas como dotar de mayor estabilidad a sus servidores antiguos; pero otras compañías ya pasaron esa etapa y están analizando cómo optimizar esta plataforma en el mundo del respaldo y la contingencia y ver de qué manera se le saca provecho a esta infraestructura. “Más adelante, hay clientes que están entrando en la etapa de virtualización de escritorios; un proceso lento, pero que está creciendo cada día con mayor fuerza”, aclara.
Definitivamente el mercado está segmentado, porque mientras algunos recién están disponiéndose a conocer el concepto de virtualización; otros como bancos, telcos, algunos retailers y empresas mineras ya están pensando en cómo seguir optimizando su plataforma de virtualización.
Exito en la implementación
No existen dudas acerca de que la virtualización ofrece grandes oportunidades a las compañías, pero Roy Zderich, Gerente General de ADX Networks, es enfático en señalar la importancia que tiene el plantear en forma correcta las inversiones en estas plataformas. A su juicio, centralizar los datos de un par de computadores es una visión limitada. Al contrario, señala que “la empresa debe dar forma a un proyecto global, donde incorpore sus aplicaciones críticas -donde verdaderamente está la alta disponibilidad detrás- para lograr todos los beneficios inherentes al mundo de la virtualización”.
Para lograrlo, insiste en la importancia de plantear inversiones de largo plazo -tres años como promedio- y no comprar un poco de tecnología cada año. La idea es adquirir un paquete completo, que incluya storage y equipos para implementar un cluster, entre otros, de manera de aprovechar a cabalidad todos los beneficios que la virtualización ofrece.
Para lograr el éxito en un proyecto de este tipo, Jaime Avaria puntualiza que es fundamental que exista una voluntad y una convicción muy clara de la gerencia de tecnología de implementar una estrategia de virtualización, junto con llevar a cabo una preventa y una metodología que permita demostrar los niveles de eficiencia que se pueden alcanzar. “Dentro de este proceso la capacitación de los usuarios es clave, junto con mostrar los resultados obtenidos. Lo ideal es -al final- reunirse con la alta dirección de las empresas y decirle: así estábamos cuando empezamos y así está la empresa hoy, después de haber implementado la solución”, asegura.
A juicio de Jaime Tobar, Arquitecto de Soluciones de Red Hat, un proyecto exitoso es también aquél en que los proveedores de tecnología logran entender lo que el cliente realmente necesita, estableciendo una preventa consultiva y desarrollando una solución que se ajuste a sus requerimientos. Con la misma fuerza -explica- es importante ayudar al cliente a que explote la aplicación, para permitirle seguir creciendo en virtualización. “El objetivo es que perciba que está teniendo beneficios; muchos más que antes de hacer la inversión”, afirma.
Contra los proyectos exitosos en virtualización, Rodrigo Romo, Systems Architect de IBM, señala que atentan dos elementos claves. Por una parte, la velocidad del mercado -pues por lo general estos procesos de implementación son de largo aliento-, y por otra parte, está la cultura de dejar las cosas a “medio camino”, que además cede ante la presión de cumplir con las obligaciones del día a día. “Para derribar estos dos fantasmas, es vital apoyarse en empresas de gran experiencia y alta especialización”, expresa.
Un mundo de servicios
En opinión de los expertos, las posibilidades que ofrece la virtualización permiten a las organizaciones obtener resultados muy importantes en términos de rentabilidad. “Pero los mayores desafíos como industria están -según Luis Marín, Gerente de Desarrollo de Negocios de Intel- en el desarrollo de servicios, para ayudar a las empresas a lograr beneficios de manera más rápida y económica”.
Ejecutivos como Javier Prado, de Dell, aseguran que están yendo hacia el aprovisionamiento de servicios, que aseguren a los clientes un retorno rápido de la inversión. En esta tendencia, Miguel González, Especialista Linux Red Hat de Covenco, afirma que “los escritorios virtuales representan un nicho muy importante, porque implica la masificación de la virtualización dentro de las organizaciones”.
Definitivamente, las expectativas en los entornos de virtualización están centradas en los servicios. Es así como a juicio de Fabián Terán, Business Critical System Manager Enterprise Business de HP, actualmente los objetivos se focalizan en alcanzar ciertos niveles de servicio para determinado tipo de aplicaciones, en base a los SLAs comprometidos. A juicio del ejecutivo, “de esta manera los sistemas de virtualización se transforman en orquestadores orientados a entregar los niveles de uptimes necesarios, y en base a ellos se organizan, diseñan y estructuran”.
Rodrigo Eterovic,
RAEFPablo Lambert,
ENTELNelson Abarza,
DWSJavier Prado,
DELLNicolás Zalaquett,
AFINAJaime Avaria,
IT BROKERRoy Zderich,
ADX NETWORKSJaime Tobar,
RED HATRodrigo Romo,
IBMLuis Marín,
INTELMiguel González,
COVENCOFabián Terán,
HPFernando Cordero,
CISCO
En este escenario, Fernando Cordero, Gerente de Productos de Data Centers de Cisco, sentencia que “los sistemas son cada vez más complejos, pero que es importante que los clientes finales sepan que existen integradores capacitados para implementar estrategias de virtualización exitosas”.
Los más experimentados se atreven a vaticinar que en un futuro la virtualización va a coexistir con equipos. Es decir, la ecuación dará como resultado un mix entre servidores presentes físicamente y otros en la “nube”.
Al final de cuentas lo importante, como declara Rodrigo Eterovic, es cómo esto se conjuga y se administra, de manera de demostrarle al mercado que realmente funciona.