La virtualización es uno de los mejores mecanismos para reducir y simplificar la infraestructura de servidores, y también es una herramienta que ha venido a transformar la visión global de los centros de datos. La consolidación, la fiabilidad, la seguridad y el ahorro de costes son algunos de los principales beneficios que reporta, por lo que a día de hoy la práctica totalidad de compañías de cierta envergadura han apostado por este tipo de proyectos que permiten una reconversión hacia una arquitectura virtual. Pero todavía quedan pendientes algunas cuestiones por resolver, sobre todo lo relativo a la gestión de esa virtualización, ya que suele ser uno de los puntos donde más se atascan los usuarios, que piden a los proveedores una mayor simplificación. Esas son las principales conclusiones extraídas de un desayuno organizado por COMPUTING en colaboración con VMware, que reunió a compañías de diversos sectores para debatir sobre el presente y el futuro de una tendencia que sigue marcando las prioridades de los departamentos de Sistemas.
Para comenzar, Alfonso Ramírez, director general de VMware, desveló los resultados de un estudio llevado a cabo entre sus clientes para tener una mejor perspectiva del mercado y evaluar los posibles inhibidores de la virtualización. Además, revela que en las compañías estudiadas, normalmente hay tres fases de implantación, una primera que “suele estar prácticamente superada en España y que responde puramente al ahorro de costes”. En una segunda fase, se pretende entrar a la producción: los clientes reconocen que más allá del ahorro de costes, se necesita de una mayor agilidad y facilidad para proporcionar servicios en tiempos más reducidos. Las infraestructuras de las compañías son más fiables y robustas, por lo que pretenden llevar todas las aplicaciones en producción. El último estadio es aquel en el que la organización decide mantener entornos virtuales generalizados, teniendo en cuenta la relevancia del autoservicio. Además, Ramírez asegura que “las barreras de cada cliente son distintas, y dependen de factores como el entorno competitivo o la aversión al riesgo”.
Consolidando las infraestructuras
Con la intención de conocer en qué fase se encuentran algunas organizaciones, las firmas asistentes al desayuno explicaron algunos proyectos que se están llevando a cabo. Así, en el caso de Bankinter, Mateo Ángel Quintana, director de Sistemas, comenta que “llevamos ya un par de años muy intensos en virtualización, y hemos conseguido pasar por las tres fases. Ahora tenemos todos los procesos más maduros”. Sin embargo, también reconoce que en su entidad “lo que nos falta es tener herramientas más flexibles que permitan tener entornos virtuales más allá de los servidores x86, que son más eficientes y ocupan menos espacio en el CPD, porque detectamos que si nos planteamos migrar a otros entornos, estamos más limitados en su virtualización”. Por su parte, Antonio del Barrio, jefe del área de Tecnologías de la Información de Sescam, confiesa que la “virtualización es un mundo complejo, y en nuestro caso estamos empezando a probarlo todo, aunque este año empezaremos ya de forma más masiva. Hemos esperado porque estábamos inmersos en procesos de consolidación y maduración, y por eso nos retrasamos un poco, pero a partir de ahora comienza la fuerte apuesta por estas arquitecturas”.
En el caso de Enagás, César Corachan, responsable de Operaciones e Infraestructuras TIC, afirma que “no puede haber fallos en la disponibilidad de los sistemas, y ese fue el detonante para implantar la virtualización en sendos proyectos que previsiblemente culminarán el próximo año”. Y es que a día de hoy “nuestro data center está prácticamente colapsado por no tener un sistema adecuado de virtualización”, reconoce. Aún así, “nos falta la parte de integración y producción”, admite. Pero al margen de la disponibilidad, otro de los factores detonantes fue la necesidad de implantar políticas medioambientales. Efectivamente, “hemos tenido muy en cuenta el green data center, ya que en su día nos vimos desbordados, y la única solución posible pasaba por la virtualización. Ahí es donde VMware ha jugado un papel muy importante”. Así, en realidad en Enagás, el ahorro de costes no fue en principio un factor tan determinante, ya que, para Corachan, “el ahorro de costes energéticos sí que es tangible, pero no tengo de todo claro que el licenciamiento a medio o largo plazo suponga un ahorro real de costes”.
Para Jesús García Vaquero, director de Sistemas de Información de Adif, “nosotros empezamos con el mainframe, ya que teníamos un gobierno de informática descentralizado, con las ventajas e inconvenientes que ello supone. Además, comprar servidores es costoso, y llegamos a un punto en el que teníamos una granja de servidores repartidos por toda España, y nos dimos cuenta de que estábamos comprando permanentemente porque se quedaban cortos”, subraya, añadiendo que “solamente la virtualización podía resolver ese problema, para ayudarnos a conseguir una concentración física y una consolidación, y así empezamos a notar los beneficios a corto plazo”. Otra de las ventajas que ha reportado para Adif, es que cuenta con unos 10.000 puestos de trabajo, y algunos de ellos tenían hasta tres versiones distintas de Office, lo que ocasionaba que muchos documentos, especialmente hojas de cálculo, no fueran compatibles por sus formatos y no pudieran leerse. “Este punto también se resolvió gracias a la virtualización, y es que instalar un Office nuevo, aparte del coste de la licencia, conlleva un aparato logístico muy complejo”. Por ello, el objetivo que se marcó Jesús García, ha sido el de virtualizar los puestos de trabajo, algo que se está haciendo de manera incipiente, y a día de hoy “en nuestro CPD, los operadores que atienden el mainframe ya tienen el terminal virtualizado”.
Por su parte, Ferrovial es una compañía que lleva ya tiempo inmersa en proyectos de esta envergadura, ya que forman parte de su cultura de trabajo. Mirando al futuro, “el reto que tenemos ahora mismo va en línea de la gestión de esa virtualización, para realmente sacar partido de esta tecnología, y conseguir reducir los tiempos de despliegue de los servidores”, comenta Enrique Laso Sanz, CTO de Sistemas de Información de la compañía. A día de hoy, en Ferrovial, ya se ha procedido a virtualizar servidores y aplicaciones, y a medio o largo plazo se están planteando profundizar en la viertualización del puesto de trabajo. En palabras de Laso, “ya estamos empezando a trabajar con este modelo de thin client, pero queremos consolidarlo, porque una buena parte de nuestros usuarios se podrían ver beneficiados. La clave ya no es tanto virtualizar, sino conseguir industrializar ese proceso para que la infraestructura sea más potente y ágil”.
Finalmente, en NH Hoteles, Javier Martínez, gestor de Proyectos, comenta que “nos encontramos en la primera fase, y detectamos que, igual que en el caso de Ferrovial, tenemos que enfrentarnos también al problema de la gestión de la virtualización, porque no tenemos un gran departamento de TI en cuanto a número de personas, y no nos dedicamos a la gestión pura de infraestructuras, sino de hoteles”, explica. El modelo que se ha seguido en la compañía “está muy relacionado con el cloud computing: lo que hacemos es pedirle a un proveedor que nos dé un servidor con las ventajas de la virtualización, pero también la gestión de esa tecnología presenta algunos inconvenientes”, opina. Además se cuenta con 7.000 puestos de trabajo y una gran dispersión geográfica, por lo que de cara al año que viene “nuestro proyecto de virtualización pasará por implantar un servicio virtual en los hoteles que supondrá la virtualización de un servidor local para que esté siempre disponible. También nos planteamos virtualizar los puestos de trabajo de los hoteles, pero, aunque las ventajas para nosotros son obvias, en el caso de los usuarios finales es difícil de abordar porque no siempre se muestran favorables y a veces cuesta cambiar la mentalidad”, confirma Martínez.
   El futuro
Uno de los puntos en los que más se incidió fue en los beneficios que han encontrado las compañías gracias a la puesta en marcha de entornos virtuales, que apuntan a una mayor eficacia y flexibilidad. “Solamente usábamos un ocho por ciento del rendimiento de los servidores, y al haber introducido la virtualización, conseguimos aumentar la optimización”, comenta César Corachan de Enagás. El responsable de Operaciones e Infraestructuras TIC de la entidad añade que “además, anteriormente teníamos unos consumos muy elevados de energía en el data center, y se han reducido”. En el caso de Bankinter, las ventajas también van encaminadas en la misma línea, “es notable el ahorro derivado de la virtualización de servidores, y también redujimos la emisión de huellas de carbono, con el consecuente impacto económico, y no hemos tenido que ampliar el CPD; de hecho tenemos un tercio liberado”. Enrique Laso, de Ferrovial, añade que en su compañía se ha podido “estandarizar la tecnología, obtener una mayor rapidez de previsión de infraestructuras y habilitar nuevos entornos más rápidamente, pasando de meses a días”.
  De cara al futuro, todos tienen previsto consolidar o ampliar los proyectos relacionados con la virtualización. En el caso de Sescam, “este año queremos emprender un proyecto masivo para todos los hospitales, llevarlo a nivel corporativo para que haya una mayor unidad”, menciona Antonio del Barrio. “Por ese motivo, todavía no es prioritario virtualizar el desktop, porque seguimos en la fase de los servidores, pero no lo descartamos a medio plazo”. Mientras tanto, en NH Hoteles, “queremos cambiar a un modelo de servidores con menor soporte para garantizar una alta disponibilidad en el hotel”, menciona Javier Martínez. Igualmente, “aprovecharemos las ventajas de virtualizar el escritorio”, adelanta.
  Por su parte, en Ferrovial, “queremos continuar estandarizando la arquitectura. Y tenemos ya en marcha un ambicioso plan de consolidación de nuestra infraestructura IT; buscamos una mayor centralización y el uso de entornos abiertos. También avanzaremos en torno a la virtualización de puestos de trabajo, pero de forma segmentada; y el cloud computing es otra de nuestras prioridades”, revela Enrique Laso. Por otra parte, la posibilidad de medir y cuantificar será uno de los principales objetivos de Bankinter, ya que “estamos interesados en implantar un modelo analítico de costes, para saber exactamente qué aplicación o qué usuario está gastando qué recursos. Se trata de medir más los beneficios de forma tangible”, comenta Mateo Ángel Quintana.
En una compañía como Adif, los objetivos irán encaminados a “virtualizarlo todo, salvo aquello que no haga falta, bien porque no sea recomendable o bien que no tenga mucho sentido”, opina Jesús García. Y, a diferencia de Ferrovial, la convergencia entre el mainframe y sistemas más abiertos continuará en el seno de la compañía, puesto que es positivo para poder “aprovecharse de lo que el otro entorno carece”. Finalmente, en Enagás, el futuro pasará por “arrancar un proyecto de virtualización del desktop para nuestros proveedores externos. Y es que muchos clientes nos lo están demandando homologado, y para ello crearemos un proyecto estándar que lo posibilite, y dependiendo de cómo nos vaya, extenderemos ese desktop virtual al resto de la compañía”, vaticina Corachan.
El cloud computing privado se impone
Otra de las cuestiones relacionadas con la virtualización, es el cloud computing, una tendencia que desde hace tiempo se viene implantando en el seno de las organizaciones, ya que “no es una novedad. Nosotros lo venimos haciendo continuamente, un ejemplo actual es el servicio de navegación web que nos brindan en la nube”, apunta Javier Martínez de NH Hoteles. Así, todas las compañías presentes en la tertulia tienen en marcha procesos en la nube, aunque en su mayoría son de carácter interno, puesto que existe mucha preocupación por la seguridad y el cumplimiento de normativas y disposiciones legales. Se trata pues, no de un problema tecnológico, que de acuerdo con los participantes está ampliamente cubierto, sino más bien de otro tipo de reticencias a contar con una nube pública. “En un sector como el sanitario, donde tenemos un montón de CPDs, no se concibe que la información salga fuera de la Red, porque estamos muy condicionados por la protección de los datos de los pacientes”, explica Antonio del Barrio de Sescam, quien a su vez considera que en algún momento se tendrá que dar el salto al cloud externo, aunque “a día de hoy es inconcebible, no por una cuestión técnica, sino cultural y por confidencialidad”, opina.
De igual manera piensan Enrique Laso de Ferrovial, que añade que “el cloud privado no deja de ser una opción más para mejorar la informática interna y ser más eficaz. El verdadero salto se produce al recurrir al cloud público como servicio delegado a terceros; y será una cuestión de tiempo, ya que técnicamente las ventajas son muy claras”, o César Corachan, de Enagás, quien comenta que “es algo más que prejuicios: se trata de la legislación del país donde tengas alojados tus datos e información. Es una cuestión legal debido a las restricciones de protección de datos, que cambian dependiendo de los países. Por eso hay que saber dónde y cómo hacerlo”.
Para tranquilizar a los asistentes, Alfonso Ramírez de VMware, explicó que la visión de su compañía es que “ambos mundos pueden coexistir perfectamente porque no son disruptivos, y nosotros queremos hacerlo técnicamente posible, tanto interna como externamente, para que al final la decisión no tenga que tomarse por una posible limitación de la tecnología”.