La virtualización y renovación del equipamiento servidor mejora la eficiencia en las empresas

Conscientes de la trascendencia de realizar una ‘inversión inteligente’, la optimización en servidores, con aspectos como la virtualización, es clave a fin de ofrecer un máximo rendimiento y mínimo gasto de capital. Así quedó manifiesto en la Tertulia que COMPUTING ha organizado en colaboración con Intel.

Publicado el 02 Dic 2009

18277_73

La virtualización será, según todos los analistas, la tendencia más importante en el mercado de servidores de aquí a 2012. Permite aprovechar al máximo los sistemas al consolidar varios entornos en un mismo servidor; y esto trae ventajas como reducción de los costes, aumento de la eficacia en la gestión, fortalecimiento de la seguridad, e incremento de la flexibilidad de la infraestructura informática ante un posible desastre. Así, conscientes de la trascendencia que tiene actualmente realizar una ‘inversión inteligente’ por parte de las organizaciones, donde sobresalen aspectos concretos como es la virtualización o el cambio de equipamiento servidor, COMPUTING, en colaboración con Intel, ha organizado esta Mesa Redonda para tratar la mejora de la eficiencia en las empresas.

Bajo este marco iniciaba la Tertulia, Miguel Fajardo, director de la unidad de negocio de Servidores y Plataformas de Microsoft, quien efectivamente confirmaba que la virtualización es una tendencia de las más importantes dentro del ámbito de las TI, “porque permite dos cosas: una optimización de las inversiones en las plataformas porque se utilizan de una forma más eficiente y ofrece mayor potencia; y porque se obtiene también un ahorro de costes. Hoy en día, la virtualización se puede hacer en varios niveles, incluyendo el puesto de trabajo con las tecnologías VDI, aunque normalmente va unida a la consolidación de servidores y almacenamiento. Un elemento fundamental dentro de la virtualización es la capacidad de gestionar estos entornos virtualizados de una manera sencilla y razonable ya que se trata de un mix de entornos físicos y máquinas virtuales. Y en este sentido, la estrategia de Microsoft es ofrecer herramientas de gestión completa que permitan manejar toda la infraestructura física y virtualizada”.

Sin embargo, existen una serie de inhibidores entre las empresas españolas a la hora de emprender un proyecto de virtualización como son los costes, la complejidad de gestión, la interoperabilidad con las aplicaciones existentes… En este punto, Santiago Madruga, director general de Red Hat España y Portugal, proponía que su oferta y estrategia rompe con estas barreras. “A diferencia de Microsoft, los productos de Red Hat están desarrollados de forma distinta. Se basan en open source y en aunar esfuerzos con la industria y comunidad, incluso la propia Intel ha sido uno de los mayores contribuidores al desarrollo de Linux en el último año. Gracias al esfuerzo colaborativo de otras empresas, hemos ido madurando la tecnología rápidamente y logrado salir al mercado con una tecnología que ofrece todo lo que los clientes necesitan para funcionar con una ventaja en costes muy buena. El cliente no paga el software sino por los servicios asociados. Por tanto, el precio deja de ser una barrera o impedimento ya que estamos hablando de ahorros del 70 por ciento con respecto al software propietario. Por otro lado, nuestra plataforma se habla con sistemas de otros proveedores, rompiendo precisamente otra de las barreras, que es precisamente la interconexión entre la gestión del mundo físico y el virtual. Asimismo, el hecho de que el hypervisor esté incluido en el sistema operativo hace también que los clientes prácticamente no tengan barreras para virtualizar. Ese es nuestro trabajo, convertir la virtualización en una commodity a un coste mínimo, una facilidad de uso muy grande al estar unida al sistema operativo, y aprovechando las ventajas de los procesadores Nehalem de Intel y todo el ecosistema certificado. Ahora lo que toca es implementarlo con ayuda de empresas como Intel, Atos Origin e incluso la propia Microsoft, con los que colaboramos en acuerdos de interoperabilidad en beneficio de nuestros clientes”.

Sin embargo, EMC mantiene un punto de vista distinto al considerar que el centro de datos se está transformando debido a la virtualización, y por ello, no puede ser una commodity. “Yo creo que virtualizar servidores no es una commodity porque está produciendo en los clientes un cambio en las formas de hacer procesos como el backup, por ejemplo, o gestionar el almacenamiento. Además, virtualizar servidores es virtualizar servicios también por lo que estar tirando de información es tremendamente importante. Creo que nunca puede llegar a ser una commodity. Y el acuerdo con VMware y Cisco tiene un poco de esta visión”, aclaraba Cristina Porto, directora comercial para Banca y Seguros de EMC.

Volvía a discrepar Red Hat en este tema de la comoditización. Santiago Madruga estaba de acuerdo en el hecho de que la virtualización transforma al cliente mirando todo el ecosistema que lo hace posible, y que las empresas entienden los beneficios, pero volvía argumentar que el que la virtualización “sea una commodity es reflejo de que está madura, y que la tecnología no es el problema. Cada día es más una commodity que se diferencia por precio y disponibilidad. A pesar de ello, no todo el mundo virtualiza. Los analistas más optimistas estiman que sólo el 30 por ciento de la infraestructura está virtualizada, pero la media lo sitúa en el 15 por ciento del mercado. Antes había dos barreras: el precio, que está cayendo, y el sentirse atrapados por tecnologías propietarias que no se hablan con el resto de sistemas. Pero esto está cambiando, los clientes no se quieren atar a un único proveedor y por eso nosotros creemos en la bondad de los sistemas abiertos”.

Eficiencias energéticas.

Aparte de las ventajas que promulgan Microsoft y Red Hat de que las soluciones de virtualización sean un componente más del sistema operativo, y de la interoperabilidad, Intel destacó un dato más y era el ahorro que la virtualización genera en consumo energético. “Desde Intel, somos conscientes de la importancia de la virtualización y estamos desarrollando herramientas específicas para ello. Los servidores basados en la arquitectura Intel y equipados con la tecnología Intel VT proporcionan una infraestructura eficaz y escalable, optimizada para garantizar el desempeño y la confiabilidad, además de reducir los costes y el consumo de energía. El hardware ya es consciente de que está virtualizado lo que permite gestionar todo más rápido y eficientemente. Y ahora además somos capaces de meter más máquinas virtuales en cada servidor ahorrando, sobre todo, en consumo energético”, apuntaba Carlos Clerencia, director de Sector Público y Corporativo de Intel.

Igualmente, para VMware los mensajes claves son el ahorro de costes, que incluye la eficiencia energética, y la transformación del centro de datos. “El primer mensaje es que la virtualización produce muchos ahorros y considerables. Por ejemplo, genera un 80 por ciento de ahorro en energía, y un 60 por ciento en gastos de capital. Pero, a pesar de estas eficiencias, los clientes no virtualizan al cien por cien. Por ejemplo, cuesta virtualizar entornos de aplicaciones más críticas, en las que el cliente se está jugando mucho si falla. El punto es que hoy se puede virtualizar al cien por cien, pero hace dos años, no. Ese es el debate hoy. Antes era ‘¿qué debo virtualizar?’ y ahora la consulta es ‘¿cómo tengo que virtualizar al cien por cien?’ Los retos están en las aplicaciones críticas, bases de datos… Estamos hablando entonces de un nuevo tipo de CPD que cambia el paradigma, y abordar eso es donde está el debate con los clientes. El tema de los ahorros, en este caso, no se lo cuestionan, sino que se plantean si me fío o no al hacer un centro de datos que no tiene nada que ver con los de hace 15 años”, concretaba Alfonso Ramírez, director general de VMware España y Portugal.

Atos Origin, en cambio, difiere en su percepción de lo que a los clientes españoles les interesa de la virtualización, por su experiencia, que de acuerdo con Joaquín Gil, director de Managed Operations de la firma, da lugar a que el 50 por ciento de sus ingresos sea generado por proyectos de gestión de infraestructuras. “Lo que nosotros estamos percibiendo en proyectos de consolidación, es que ciertos conceptos políticamente comprables en el mercado como el ahorro, eficiencia energética, espacio… no funcionan igual en todas las empresas españolas. Nosotros somos muy resistentes al cambio, y las nuevas tecnologías que reinan en otros países nos llegan con retardo. Por ejemplo, en el caso del ahorro de espacio, cuando hay que pagar un coste fijo, los directores de sistemas españoles se preguntan, ¿qué me va a ahorrar la virtualización, sobre todo cuando tengo un centro de datos pequeño? En energía, sí se puede ahorrar, pero el problema es que las instituciones españolas, ya sean públicas o privadas, no tienen un control de los costes de energía; y como no es una partida gestionable tampoco le prestan atención porque no saben de qué manera les va a afectar. Luego, las inversiones tampoco son tan enormes como las que se realizan en otros países. En España, el CIO tiene una necesidad de inversión porque se lo pide el negocio; pero cuando no tiene partidas tampoco ve en la virtualización una manera de salir adelante. Suelen alegar que como yo tengo mi equipo que es un coste fijo, qué me importa que me gestione también la heterogeneidad de la infraestructura existente. La virtualización produce ahorro de costes, pero para la mayoría de los CIOs esa reducción significa una menor salida de caja de otros costes”.

El debate de la commodity.

En contraste, Atos distingue otras ventajas que las empresas españolas parecen tener en consideración como que la virtualización produce rapidez en la salida al mercado. “Una empresa necesita uno o dos servidores más, porque va a sacar por ejemplo, un nuevo servicio, y con las tecnologías de virtualización los puede tener en dos horas o en dos días. Otro aspecto clave es la seguridad. Se cae un entorno virtual y se puede cambiar en nada de tiempo; y es más, la reducción de los tiempos de parada es mucho menor. Pero, ¿cómo valora el CIO todo esto? Dependerá de si tiene aplicaciones muy antiguas o las de ahora, más basadas en Internet, con unos consumos no aplicables en el tiempo. Nuestra respuesta es ambas dos. El ROI y beneficios están más asociados a las aplicaciones antiguas, soportadas en diferentes servidores, porque al virtualizarlas es posible sacar un ROI más consensuado por todo el mundo. En cuanto a las aplicaciones web, la virtualización también ayuda porque al tener un servidor virtualizado, si el sistema se cae, se puede seguir operando. Se trata de saber cómo plasmar el beneficio de la virtualización. ¿Quién compra además este tipo de servicios? En España, la Administración, todavía no. Tiene que madurar para que el concepto de servicio y no el de coste, forme parte de la ecuación de lo que hace el departamento de informática”, añadía Joaquín Gil.

Ante tales percepciones Cristina Porto de EMC reflexionaba señalando que “la virtualización no es una moda, sino una necesidad cuando los servicios van creciendo. Si existe esa variable de crecimiento, el cliente se plantea la virtualización o implantar tecnologías novedosas. Con respecto a considerarla una commodity, para mí un commodity hablando de tecnologías puede ser un PC o un portátil porque al cliente no le hace daño quitarlos, migrarlos, actualizarlos… hablar de commodity en virtualización es arriesgado por el impacto que tiene en otras áreas. Es una cuestión de concepto porque la virtualización puede ser estándar pero también hay que pensar en el impacto”.

“Cuando nosotros hablamos de commodity nos referimos a tecnologías abiertas”, insistía Santiago Madruga de Red Hat, “donde los costes de salida son infinitamente menores y los clientes no se quedan atrapados ahí. En cuanto al modelo de pago por uso de los servicios que ofrecemos elimina la barrera de pagar por licencias, ya que el coste de las licencias de software es el principal inhibidor”. Alfonso Ramírez de VMware respondía a este debate apuntando que su compañía da el hypervisor gratis, y “si el coste de una licencia es el inhibidor, aquí el coste es cero. Pero la gente quiere otras cosas aparte de un hypervisor cuando hablamos de un centro de datos. Los costes de las licencias no son el reto sino la transformación del CPD. Además, nuestra tecnología de virtualización integra formatos estándar y puede correr en varios sistemas, y eso también tiene un coste cero. Es más costoso llevarte un entorno Windows a un entorno Linux o Unix. Con respecto a las percepciones de Atos Origin, es cierto que nosotros también nos estamos encontrando con esos escenarios. Hemos visto que los mayores proyectos de virtualización son los que, por ejemplo, un cliente tenía un problema serio de kilowatios en sus centros localizados en ciudades. En este momento, la situación es distinta. Ahora, se ha entrado en fase de reducción de costes y muchas empresas deciden no pagar el mantenimiento de software, e incluso de servidores. Por ello, deciden entrar en virtualización porque el servidor se ha roto y al no tener mantenimiento, se virtualiza. Pero, también es cierto que las organizaciones no quieren entrar en procesos en los que la realidad del mañana les empuje a algo que no quieren”.

Más allá del TCO.

Aparte de los costes existen otros factores a tener en consideración, que van más allá del TCO. Miguel Fajardo de Microsoft, en este punto, afirmaba que los clientes básicamente lo que aprecian cuando acometen una implantación es el coste que va a suponer resolver un problema de negocio en el que se verán involucradas las plataformas de TI. “El componente coste es importante pero éste no se puede mirar sólo por lo que cuesta una licencia de software, hay que valorar otros elementos como el mantenimiento del sistema, soporte técnico, los riesgos, la eficiencia energética… es decir, el famoso TCO. Hay fabricantes que venden software basado en el número de cores del procesador y ahí se paga poco al principio, pero el año que viene se produce un aumento significativo de los costes cuando se aumenta el número de cores. Otro componente que se mira es si lo que se está montando resuelve el problema. Puede ser muy barato pero igual no resuelve el problema. Es clave mirar la interoperabilidad, eficiencia, alta disponibilidad… y al final los clientes no piensan si el sistema es abierto o propietario sino que sea interoperable y que esa interoperabilidad no les cueste un ojo de la cara. Otro tema muy importante es la sencillez de uso. Los clientes quieren una infraestructura que no les cueste la vida montarlo y gestionarlo. A los clientes hay que darles las cosas lo más sencillas posible, que resuelvan su problema y tengan futuro. Que la virtualización vaya integrada en el sistema operativo es una ventaja en este caso, y es muy importante que las compañías integradoras puedan llevar este mensaje al cliente. Finalmente, en relación al modelo cloud computing, que por ejemplo Red Hat promulga, está muy de moda, y hay compañías que basan su negocio en eso. Yo creo que esas tecnologías están potenciadas gracias a la virtualización porque permiten un uso supereficiente de los recursos de hardware y software, y permite a los clientes facturar de forma razonable, pagando por uso. No sé si la virtualización es un commodity o no, pero sí sé que es una tecnología que se va a extender muchísimo porque el cliente más pequeño se verá arrastrado por las nuevas tecnologías, y los grandes clientes podrán usar la nube para crecer”.

Otro de los planteamientos puestos encima de la mesa fue el tema de la escasa renovación de servidores que está teniendo lugar, y que los clientes apenas distinguen que una actualización del hardware también genera ahorros importantes. Carlos Clerencia de Intel, así lo describía: “nos estamos encontrando con que el parque instalado de servidores es muy antiguo, y hay pocas empresas que se plantean una renovación del mismo. La mayoría de los servidores están por encima de los cuatro años y un equipo así sólo ofrece un noveno de las prestaciones que actualmente da un servidor nuevo. Esta renovación implica un ahorro importante ya que se puede cambiar nueve servidores antiguos por uno nuevo, lo que resulta en un ahorro de hasta el 90 por ciento en consumo energético. Por otro lado, el 65 por ciento del coste de un CPD se va en mantenimiento, y al afrontar un proyecto de renovación se puede recuperar la inversión en menos de un año. Tenemos herramientas que lo demuestran. En mi opinión, hablar de virtualización y no renovar los parques me parece un error. Hay que aprovechar esta transformación del CPD para instalar máquinas más eficientes. En Intel seguimos avanzando en esto. Por otro lado, la nueva arquitectura Nehalem incorporará el año que viene conceptos arquitectónicos de misión crítica en una máquina x86 tradicional, que facilitarán, entre otras cosas, la migración de máquinas propietarias a abiertas”.

Virtualización de escritorio

Finalmente, otro de los matices de la virtualización es que la justificación de los costes a la hora de virtualización un servidor difiere de la virtualización de los puestos de trabajo, otra de las tendencias, que de acuerdo, con los fabricantes, explotará el año que viene. “Con la parte de servidores es muy fácil justificar grandes ahorros de costes, pero, en el ámbito de los puestos de trabajo es un poco más complicado ante el tremendo gasto que implica gestionar todo el parque de PCs. El cliente que aborda la virtualización de los PCs es para resolver una problemática concreta. Sin embargo, la gran explosión se producirá el año que viene por motivos como Windows 7, ya que las empresas se plantean la virtualización de los puestos de trabajo cuando se trata de migraciones”, exponía Alfonso Ramírez de VMware.

Sin embargo, Intel discrepa en este tema. “Nosotros pensamos que esta tecnología no está lo suficientemente madura porque hay muchos modelos y entornos de trabajo diferentes. Windows 7 va a mejorar el entorno cliente, pero no creo que vaya a ser un impulsador de PCs virtuales. No obstante, nosotros también estamos trabajando en este entorno. Tenemos la tecnología vPro, integrada en laptops y PCs, que permite al departamento de TI una administración más sencilla de los sistemas, facilitando, por ejemplo, las migraciones de sistema operativo, mejorando la seguridad, y ofreciendo la posibilidad de entornos virtualizados y centralizados sumamente seguros”, indicaba Carlos Clerencia, finalizando la tertulia.

¿Qué te ha parecido este artículo?

La tua opinione è importante per noi!

Redacción

Artículos relacionados

Artículo 1 de 3