El servicio, clave del ‘utility computing’

‘Utility computing’ proporciona reducción de costes de infraestructura y
mayor control sobre estos últimos, sin olvidar que la clave está en el
nivel de servicio.

Publicado el 26 Nov 2003

‘Utility computing’ es un modelo y, como tal, representa un modo de enfocar la gestión de las TI, y no una solución en sí misma. En un plano teórico, una infraestructura de TI que siguiera al pie de la letra el modelo, proporcionaría a los responsables de TI una flexibilidad absoluta para responder a las demandas exigidas por los procesos de negocio, y un método infalible de imputación de costes asociados al servicio ofrecido a dichos procesos de negocio. En un plano más real, la implantación de herramientas de gestión alineadas con el modelo conlleva un mayor aprovechamiento de los recursos de la infraestructura de TI, lo que implica una reducción de costes en dicha infraestructura. Por otro lado, la flexibilidad lograda por las mencionadas herramientas permite elevar los niveles de servicio mediante la posibilidad de provisionar automáticamente los recursos necesarios cuando las aplicaciones que soportan los procesos de negocio así lo requieran. Adicionalmente, el modelo proporciona un control de los costes asociados al servicio ofrecido a cada aplicación, lo que evita incertidumbres y proporciona mayor control al responsable de TI.

En esencia, ‘utility computing’ proporciona reducción de costes de infraestructura y mayor control sobre estos últimos, sin olvidar que la clave está en el nivel de servicio. Si una aplicación necesita más recursos, se toman de donde haya recursos disponibles para mantener el nivel de servicio requerido. A diferencia, por ejemplo, de un modelo Grid en el que no existe garantía de nivel de servicio, puesto que los recursos se explotan al límite, mientras que en el modelo ‘utility’ es el protagonista.

En lo que a tecnología se refiere, la automatización y virtualización son claves para el desarrollo de este modelo. Mediante la virtualización, es posible agrupar los recursos individuales, tanto de almacenamiento como de servidores, en un pool virtual de recursos que pueda ser asignado a cada aplicación en función de las necesidades, de forma transparente. La tecnología de automatización permite la asignación automática y transparente de esos recursos virtuales, complementando la tarea realizada por la capa de virtualización.

Entre las ventajas de esta nueva concepción, destacan un mayor aprovechamiento de los recursos disponibles y el hecho de que ciertas tareas se puedan ejecutar de forma automática, proporcionando un inmediato ahorro de costes y haciendo más fácil la vida al administrador de sistemas, y en particular, al director de sistemas de cualquier compañía. Además de esto, la correcta gestión de los niveles de servicio es otra de las ventajas más importantes que proporciona el modelo.

La previsión de adopción masiva, según los analistas, está en la frontera de 2006-2007. No obstante, un horizonte temporal tan lejano introduce una fuerte incertidumbre, especialmente cuando la tecnología está ya disponible; de hecho, ya es posible implementar una infraestructura siguiendo este modelo.

Gonzalo Landaluce, director general de Veritas Software Ibérica.

¿Qué te ha parecido este artículo?

La tua opinione è importante per noi!

C
Redacción Computing

Artículos relacionados

Artículo 1 de 4