El potencial de la dicotomía físico/lógico

El software de virtualización avanza rápidamente, y aunque todavía se considera una tecnología en proceso de adopción, la mayoría de los expertos considera que la práctica totalidad de las organizaciones estarán aplicando la virtualización en sus centros de datos antes de que acabe el próximo año.

Publicado el 19 May 2006

Efectivamente, la consultora IDC estima que a día de hoy alrededor del 75 por ciento de las empresas con plantillas de 500 o más trabajadores están desplegando servidores virtuales, y prácticamente todas ellas planean que un 45 por ciento de las máquinas que adquieran el próximo año estén virtualizadas. Al igual que sucede en el ámbito de los servidores, tanto en el del almacenamiento, así como a nivel de networking, la virtualización es una tecnología cada vez más generalizada y, de cara al futuro, todo apunta a que los entornos desktop formarán parte del conjunto de recursos virtualizados.

Los motivos que subyacen a esta explosión son numerosos, pero todos se apoyan en un principio único. La tecnología de virtualización aporta un nivel de abstracción que posibilita el desacoplamiento del hardware físico del sistema operativo que se traduce en un nivel más elevado de flexibilidad y una utilización más efectiva de los recursos. Y es que gracias a la virtualización es posible que múltiples máquinas virtuales, con sistemas operativos diferentes, corran de forma independiente en la misma máquina física; de forma que cada máquina virtual dispone de su propia dotación de hardware virtual (RAM, CPU, NIC, etc.) sobre la que se cargan las aplicaciones y el sistema operativo. Éste, por su parte, lo que aprecia es un conjunto normalizado de hardware independiente de los componentes hardware físicos reales.

Gracias a que dichas máquinas virtuales se encapsulan en archivos, pueden guardarse, copiarse y aprovisionarse en función de las cambiantes necesidades de las organizaciones; de modo que, en cuestión de pocos segundos, es posible trasladar sistemas completos (hardware virtual, BIOs, sistemas operativos y aplicaciones configuradas) desde un servidor físico a otro para su mantenimiento o consolidación.

Justamente el intento por hacer un uso más eficiente de los recursos dio nacimiento a esta tecnología, que todavía se aplica en gran medida con esa funcionalidad. Tras dar sus primeros pasos hace ya décadas en los mainframe, la virtualización recibió un impulso fundamental con la entrada en el mercado en 1998 de la compañía VMware, actualmente una subsidiaria de EMC que suma más de tres millones de usuarios de su tecnología. VMware se marcó y rápidamente ha logrado cumplir el reto de llevar la virtualización a las plataformas x86 ofreciendo una respuesta a una extendida y costosa problemática: la infrautilización de los recursos servidor.

Sin embargo, esa no es la única ventaja que se deriva de la virtualización. “Quizás más importante que el uso eficiente de los recursos, es la eliminación de la complejidad que aporta la virtualización”, subraya el responsable de Negocio de VMware para España y Portugal, Alfonso Ramírez, quien explica que “la íntima ligazón entre sistema operativo y hardware genera una tremenda rigidez que se manifiesta en una operación costosa e inflexible”. De acuerdo con Ramírez,

</em>No en vano, IDC pronostica que, en los próximos tres años, se habrá multiplicado por cuatro el coste de gestión y eso repercutirá en los departamentos de TI. <em>“Se hacen necesarias soluciones económicas que permitan una fácil integración de las complejas estructuras de TI de las empresas y es ahí donde la virtualización cuenta con una gran oportunidad de desarrollo”</em>, subraya Dominga Jorge Santísima Trinidad, directora técnica del Grupo de Sistemas y Tecnología en IBM España, Portugal, Grecia, Israel y Turquía. De acuerdo con la experta, <em>“las nuevas capacidades de virtualización permiten simplificar la representación de los recursos del sistema, describir los componentes de forma independiente del proveedor y de la plataforma, y hacerlos accesibles utilizando servicios web estándar”.

</em>En ese escenario, además de los pro-veedores de software, los fabricantes de servidores, almacenamiento y networking miran a la virtualización. De hecho, prácticamente la totalidad de los jugadores en esos ámbitos tiene una propuesta de virtualización, ya sea propia o de un tercero; y no son pocos las startups y las empresas de software libre que compiten en ese mercado. No obstante y de acuerdo con los datos que maneja IDC, actualmente el grueso de la inversión en máquinas virtualizadas es absorbida por mainframes que son los que a día de hoy están corriendo las mayores cargas de trabajo virtualizadas-, máquinas iSeries y sistemas Unix de gama alta. Pero esto no es óbice para que la virtualización esté gozando de una espectacular progresión en los servidores Windows y Linux.

Como se ha mencionado, VMware domina el mercado de las plataformas x86 y según una encuesta realizada entre las organizaciones clientes de la compañía, el 90 por ciento de éstos ya están utilizando la virtualización en entornos de producción y un 25 por ciento están estandarizando todas sus aplicaciones x86 en una infraestructura virtual.<br />Por su parte y aunque llegó un poco más tarde a esta arena en 2003 con la compra de Virtual PC para Macintosh y el entonces todavía no disponible Virtual Server de Connectix-, Microsoft es uno de los jugadores a considerar en este mercado y, de hecho, la virtualización se cuenta entre sus prioridades tecnológicas. Recientemente, el Gigante de Redmond lanzó Virtual Server R2 y trabaja en la tecnología de virtualización para la próxima versión de su sistema Windows Server, con nombre en código Longhorn, que se espera para el próximo año. La compañía presume de contar a día de hoy con 5.000 clientes de Virtual Server, con un total de 700.000 descargas del producto.

Entre los jugadores de la comunidad de código abierto, hay que destacar el posicionamiento de compañías como Novell y Red Hat, cuya visión apunta a la virtualización global de los sistemas TI empresariales; así como un jugador relativamente poco conocido, XenSource, que acaba de presentar la versión 3.0 de su tecnología Xen. Tanto Novell como Red Hat y Novell han incorporado Xen a su propuesta de virtualizacion ya <em>que “al basarse en la paravirtualización, implica un rendimiento notablemente superior al proporcionado por la virtualización total de VMware”</em>, de acuerdo con el director pre-venta de Red Hat Iberia, Juan Zamora. Otro jugador a tener en cuenta es la compañía SWsoft, cuyo producto Virtuoso, además del hardware, virtualiza el sistema operativo permitiendo que varios programas corran a la vez en zonas separadas de una única instancia Linux o Windows. Ese es también el acercamiento de Sun Micro-systems y su tecnología de contenedores incluida en Solaris 10.

Por el momento, la evaluación, la consolidación y el soporte a sistemas heredados son los tres usos fundamentales que las organizaciones hacen de la virtualización. Sin embargo, la virtualización se está demostrando muy útil en otras tareas, como las instalaciones de software; VMware ya dispone de un sitio web desde el que es posible descargar muestras de paquetes basados en máquina virtual de Oracle, IBM y otros fabricantes. Y es que el futuro pasa por los denominados centros de servicios virtualizados, en línea con las proposiciones on demand o utility computing. En ese contexto, el verdadero reto que afronta la virtualización radica en la gestión puesto que para sacar todo el provecho de la virtualización, se hace necesaria una gestión automatizada y basada en reglas, de modo que el foco de cara al futuro estará en la automatización y las herramientas de administración basadas en políticas para el despliegue y la gestión de instancias virtualizadas.

<br />

¿Qué te ha parecido este artículo?

La tua opinione è importante per noi!

C
Redacción Computing

Artículos relacionados

Artículo 1 de 3