miércoles, 3 de noviembre de 2010

Virtualización de Aplicaciones - Introducción

La virtualización es una técnica para ocultar las características físicas de los recursos de procesamiento de información, de manera que otros sistemas, aplicaciones o usuarios finales puedan interactuar con esos recursos. En los entornos de Tecnología de la Información, se ha vuelto costumbre, Virtualizar varios capas de n-Servidores sobre un Servidor Físico que sea robusto a nivel de Hardware. Dichas practicas han mejorado la adminitración, manejo y mantenimiento de los sistemas de computo de la organización.


Ayudados por una nueva generación de procesadores dual-core y avances en la computación distribuida y en paralelo, la tecnología de virtualización probablemente experimentará un crecimiento rápido. Esta tecnología adquiere diversas formas, como pueden ser el uso de máquinas virtuales para consolidación de servidores y desktops, instalación del software como servicio (SaaS) y como novedad, la virtualización de aplicaciones.

La Virtualización de Aplicaciones, es poco conocida entre los administradores de TI, una de las soluciones más avanzadas de virtualización es la tecnología Microsoft SoftGrid, con la que Microsoft pretende alcanzar una posición de liderazgo en el mercado de la virtualización.

La virtualización de aplicaciones difiere de otras modalidades de virtualización (máquinas, almacenamiento o red) en que no necesita grandes inversiones en hardware, personal o infraestructura básica. Tal y como se implementa en SoftGrid, la virtualización permite a las aplicaciones ejecutarse en el sistema operativo Windows y se convierte en servicios virtuales alojados y gestionables de forma centralizada, pero que se ejecutan localmente bajo demanda en equipos cliente conectados por alguna vía (LAN, WAN, VPN), a través de Internet o de redes inalámbricas.

La virtualización puede invertir la curva de gastos en IT

Actualmente las organizaciones de IT en todo el mundo se enfrentan a retos verdaderamente complejos y situaciones extremas que deben superar si desean mantener su competitividad en el mercado, Algunos de esos retos son:

  • Oleadas continúas de amenazas a la seguridad (y dentro de ellas, la creciente importancia que tienen las vulnerabilidades del sistema y los intentos de robo de información).
  • Los costes cada vez más elevados de las actividades propias del ciclo de vida de aplicaciones, como la distribución e implantación, las actualizaciones o el soporte.
  • Las exigencias de los clientes (internos y externos) de servicios de IT de mayor calidad y una puesta en marcha de los servicios más ágil.
  • La proliferación de máquinas (servidores y puestos de trabajo), que dan como resultado infraestructuras de datacenter y desktop enormemente complejas, masivas y difíciles de gestionar.

No solamente este crecimiento y complejidad elevan los costes generales, sino también la rígida naturaleza de los elementos de infraestructura hace que los costes tiendan a crecer –o como mucho a estabilizarse a largo plazo- independientemente de las necesidades del negocio.

Las tecnologías de virtualización pueden ayudar a superar estos retos. El atractivo de la virtualización reside en su capacidad para generar entornos informáticos dinámicos. La virtualización libera cada elemento del entorno de los sistemas de información de los demás. Gracias a esto, cada nivel del sistema puede utilizar recursos de forma genérica sin necesidad de configurarse para un sistema concreto. Además, en la medida en que cada elemento del entorno informático ya no recibe una identidad o rol específico (como puede ser un servidor que ejecuta exclusivamente datos de ingeniería), un entorno virtualizado abre la posibilidad de utilizar los recursos de IT de forma mucho más eficiente, asignando dinámicamente elementos y recursos al propósito o tarea que los necesita y cuando los necesita.

Hoy día resulta complicado imaginar un departamento de IT que –si no ha virtualizado aún los recursos asignables bajo su control- no esté pensando en ello. Los motivos para esta creciente orientación hacia la virtualización dependen de cada caso. Puede ser porque se está buscando una manera de utilizar nuevas soluciones de tecnología, por la necesidad de aumentar la capacidad del hardware, porque se exige una mejor capacidad de recuperación ante desastres y tolerancia a fallos, o por la necesidad de simplificar la administración de los sistemas y recursos. En cualquier caso, todas las organizaciones que están adoptando la virtualización tienen en común un objetivo muy sencillo: la posibilidad de ahorrar una cantidad de dinero enorme.


Ventajas de la Virtualización de Aplicaciones

Tradicionalmente, solo las aplicaciones basadas en servidor tenían consideración de “misión crítica”. Actualmente, dado que muchos profesionales y empleados dependen de aplicaciones basadas en desktop como el cliente de correo y colaboración Microsoft Office Outlook®, Microsoft Office Word o la hoja de cálculo Microsoft Office Excel® para resolver su trabajo diario, la línea divisoria entre aplicaciones de misión crítica basadas en servidor y las basadas en el puesto de trabajo queda muy difuminada. En consecuencia, asuntos como la tolerancia a fallos, la autonomía, recuperación frente a desastres, el rendimiento o la movilidad que anteriormente solamente estaban reservados a aplicaciones basadas en servidor afectan, de forma creciente, a los equipos de usuario final.


Aunque cada vez son más las empresas que adoptan sistemas n-capa basados en Web, la era del cliente pesado y las antiguas aplicaciones cliente-servidor no parece estar próxima a su fin. Para permitir cierto grado de robustez a las aplicaciones de desktop, los departamentos de IT están ahora intentando poner en marcha nuevas respuestas al viejo problema de mejorar la fiabilidad y la seguridad del puesto de trabajo.

Dos de estas respuestas son la retransmisión por la red (streaming) de aplicaciones y sesiones, el concepto base de aplicaciones ejecutadas en Terminal Server o Citrix, y de la virtualización de aplicaciones, que es lo que ofrece SoftGrid.

La retransmisión por red de una aplicación o sesión es una alternativa con un gran potencial como solución para las necesidades de gestión centralizada y recuperación frente a desastres, pero la tecnología no ayuda mucho a la hora de resolver las incompatibilidades, tanto las que se producen entre aplicaciones como las que surgen entre las aplicaciones y el sistema operativo. Los otros problemas asociados a la retransmisión de sesiones o aplicaciones son el que se genera un punto único de fallo y que pueden originar cuellos de botella sobre los recursos. 

Para solventar estos inconvenientes, las organizaciones instalan silos de servidores para evitar los conflictos entre aplicaciones y entre ellas y los sistemas operativos, y configuran múltiples servidores para garantizar la escalabilidad y para evitar la existencia de puntos únicos de fallo. No obstante, esta estrategia conduce a un incremento de la carga de trabajo del personal de IT y en consecuencia, un aumento de los costes laborales. Genera además una inflación del presupuesto de IT con gastos de capital crecientes, destinados a la compra y puesta en servicio del nuevo hardware.

La virtualización de aplicaciones con SoftGrid, por el contrario, conserva lo mejor de ambos mundos, ya que permite la gestión, el mantenimiento y almacenamiento centralizado para las aplicaciones, pero se distribuyen sobre la red y se ejecutan localmente en las máquinas cliente. Con ello no solamente se reducen los costes laborales en IT, sino que se consigue un entorno informático más flexible, que permite una mayor y más rápida respuesta de las organizaciones ante un cambio en sus necesidades o condiciones de mercado.


La virtualización de aplicaciones se distingue del concepto tradicional de aplicación en que los sistemas se configuran (generalmente a mano) para convertirse en entornos estáticos que soportan una solución única, en la que todos los componentes se tratan como productos instalados y configurados para máquinas concretas. Por ejemplo, en un entorno informático tradicional, el hardware se utiliza para usos concretos, como un servidor Web o una base de datos; el sistema operativo se socia directamente con el hardware (una máquina ejecuta Windows, otra Linux); y el almacenamiento se maneja en ubicaciones concretas. 

Por encima de todas estas capas están las aplicaciones, que se instalan para ejecutarse dentro de estos entornos concretos, de carácter estático. Esta estructura informática exige un cuidadoso proceso de testeo, puesto que todos los niveles funcionales del entorno deben poder trabajar perfectamente acoplados entre sí. El resultado es una configuración estrechamente ligada –y bloqueada en gran medida- con grandes problemas para adaptarse a los cambios que afectan a la empresa o a la introducción de  nuevas aplicaciones basadas en tecnologías diferentes.

En un sistema virtualizado, por el contrario, las aplicaciones pasan a ser servicios bajo demanda tan simples de utilizar como la luz eléctrica. Ya no se ligan a sistemas o departamentos concretos, pueden utilizarse sobre cualquier sistema, en tiempo real, basándose en un concepto de “acceso cuando es necesario”. Esta idea facilita mucho la agregación, actualización y soporte de aplicaciones y sistemas de forma dinámica, y supone la base para un entorno corporativo mucho más flexible y competitivo, donde se requiere un mínimo de
tiempo y recursos.

Como resultado de una mayor simplificación de los entornos de IT gracias al empleo de la virtualización de aplicaciones, los departamentos de IT pueden reducir de forma significativa sus costes de personal. Por ejemplo, IDC ha llegado a la conclusión de que la virtualización puede ayudar a recortar los costes laborales asociados al soporte de aplicaciones y equipos de usuario final, y además permite mejorar los niveles de servicio y la agilidad empresarial.

En próximas entregas estaremos hablando sobre los programas que permiten estas virtualizaciones de aplicaciones.

No hay comentarios: