Es difícil pensar en el futuro de la virtualización, sobre todo si consideramos que ya tiene más de 60 años; sus orígenes se remontan a los primeros mainframes que permitían a varios usuarios operar al mismo tiempo a través de los “terminales tontos”.
Desde entonces han existido varias evoluciones; el desarrollo de aplicaciones que permitieron virtualizar en servidores de uso genérico, con arquitectura x86, incluso en equipos de escritorios. Esto generó un gran un impulso, que llegó inclusive a botar la barrera de costos de los grandes mainframes. Otro salto importante sucedió cuando Intel incluyó en sus procesadores -tanto de servidores como de escritorios- la tecnología Intel-VT, la que permitía a las máquinas virtuales operar directamente con los dispositivos físicos, eliminando el costo de pasar por el sistema operativo de base.
En la actualidad, en lo que a servidores se refiere, la virtualización no es nada desconocido. Incluso ya pasamos la etapa 1.0, ambientes de pruebas y certificación. Ahora, en la etapa 2.0 de consolidación, la tecnología permite pensar en tasas de 20:1 con los procesadores Xeon 7500, en relación a los avances de hace cinco años.
Virtualización 3.0
El futuro es, sin duda, la adopción de la virtualización 3.0. Esta admite que la gestión de las máquinas virtuales se realice on demand. Es decir, permite mover dentro de una “nube” (pública o privada) una máquina virtual para colocarla en el dispositivo físico más apropiado. Un ejemplo de ello: en el sistema contable de una empresa, durante 28 días del mes, la demanda de procesamiento es relativamente baja (ingreso de partidas, egresos, etc.) pero en los dos últimos días, con motivo del cierre contable, ésta aumenta en varios órdenes de magnitud. El modelo 3.0 de virtualización indicaría que en los primeros 28 días esta máquina vive en un servidor compartido con muchas otras máquinas virtuales, pero en esos dos días críticos es trasladada -sin apagarla- a un servidor donde se le entregan todos los recursos necesarios para ejecutar a tiempo, y de buena forma, el cierre contable.
¿Cuál es el futuro de la virtualización en los puestos de trabajo? En una primera instancia se pensó en los Thin Clients, que no son más que evoluciones “más lindas” de los mismos “terminales tontos” de hace 60 años. Este modelo funciona bien para ciertos contextos; por ejemplo, call centers; otra de sus ventajas fue la gestión y la administración centralizada; pero, ¿cómo se compatibiliza eso con el aumento significativo de equipos móviles? Un Thin Client necesita estar conectado a la red para funcionar, lo que es una limitación evidente. Además, la potencia de los nuevos procesadores de escritorio, Core i5 y Core i7, se desperdicia en esa situación.
¿Cuál sería la solución entonces? Un modelo de virtualización llamado “Desktop Virtualization”, que, explicado muy en simple, consiste en que el servidor entrega al cliente no sólo la imagen y sonido procesados centralmente, sino la configuración de una máquina virtual que corre localmente, con todas las ventajas de la gestión centralizada, pero con la autonomía y la experiencia de usuario de utilizar la CPU local para sus tareas. Además, esta tecnología permite que éste se pueda “llevar” su máquina virtual para trabajar offline.