Cinco predicciones de cloud computing para 2013

George Teixeira, presidente y CEO de DataCore Software, ha elaborado una lista de predicciones sobre cloud computing. 2013 será el año en el que el almacenamiento basado en software cambiará los centros de datos.

Publicado el 08 Ene 2013

35695_37

George Teixeira, presidente y CEO de DataCore Software, ha elaborado una lista con cinco predicciones sobre cloud computing para este año. Destaca el directivo que durante 2012 hemos visto los primeros pasos en la definición de las arquitecturas del software de almacenamiento, lo que está preparando el escenario del año 2013 para que se convierta en el año en el cual el almacenamiento basado en software cambiará los centros de datos.

“El cambio de hardware hacia un modelo basado en un software de virtualización, apoya las misiones cruciales de las aplicaciones del negocio que han cambiado la creación de la arquitectura de los ordenadores, redes y de los niveles de almacenamiento, pasando de ser “estáticas” a “dinámicas”. El Software define las bases de agilidad, interacción de los usuarios y la construcción de una infraestructura virtual a largo término, que se adapta a los cambios. El objetivo final es incrementar la productividad del usuario y mejorar la experiencia de la aplicación”,comenta el directivo.

Estas son las predicciones:

1. Las aplicaciones de nivel 1 se virtualizarán y el rendimiento será crucial
Los esfuerzos para virtualizar aún más el CPD continúan y veremos un aumento aún mayor de la movilización de las aplicaciones de nivel 1 (ERP, bases de datos, correo electrónico, OLTP…) hacia las plataformas de virtualización. Sin embargo, los obstáculos principales para la virtualización de aplicaciones de nivel 1 están en gran medida relacionados con el almacenamiento. Trasladar el almacenamiento intensivo de las cargas de trabajo a máquinas virtuales (VMs) puede ser de gran impacto para el rendimiento y la disponibilidad. Por tanto, el almacenamiento debe ser sobre-abastecido y de gran tamaño. Además, a medida que el negocio se consolida en las plataformas virtuales, deben gastar más para alcanzar los altos niveles de redundancia y continuidad del negocio; sin contar las preocupaciones relacionadas con el rendimiento y los cuellos de botella.

2. Las tecnologías SSD flash serán utilizadas en cualquier parte, el almacenamiento no es solo los dispositivos de disco
Otra gran tendencia relacionada con la virtualización de aplicaciones de nivel 1 es la proliferación de tecnologías basadas en SSD flash. La razón es simple, los discos de almacenamiento son dispositivos mecánicos de rotación y no tan ágiles como aquellos basados en memorias electrónicas de alta velocidad. Las memorias flash han estado a nuestro alrededor durante años, al principio eran una solución demasiado cara para su adopción. Aunque son más costosas que la rotación de los dispositivos hardware, su uso masivo en tabletas y teléfonos móviles están conduciendo su precio a la baja. Incluso así, la tecnología flash se desgasta, y un uso continuado de aplicaciones que se reescriben continuamente pueden impactar en su vida útil.

3. Más almacenamiento requiere más automatización
Hay una demanda constante e insaciable que requiere más capacidad de almacenamiento de datos, esta demanda sigue creciendo más del 50% anual. Sin embargo, la necesidad no se centra únicamente en más disco hardware para satisfacer la capacidad bruta. En su lugar, los usuarios quieren automatización, gestión automática del almacenamiento, escalabilidad, rápido aprovisionamiento, gran rendimiento, y los más altos niveles de continuidad del negocio. Una vez más, se necesita un “software inteligente” para simplificar y automatizar la gestión del almacenamiento.

4. La definición de la arquitectura del software de almacenamiento importará más que el hardware
En 2013 y adelante, las TI necesitarán incorporar el software de almacenamiento definitivamente como un elemento esencial de los centros de datos. Debido a que los usuarios de TI de las compañías actuales están acostumbrados a la rapidez y dinamismo de la sociedad actual, no pueden verse atrapados en arquitecturas rígidas de hardware por cable. La infraestructura se construye sobre tres pilares: computación, redes y almacenamiento – y en cada una de ellas, las decisiones relacionadas con el hardware serán secundarias y vendrán dictadas por el software e impulsadas por las aplicaciones. Es evidente que el gran éxito de VMware y Microsoft Hyper-V demuestra que la virtualización de servidores ofrece uno valor convincente. Del mismo modo que el almacenamiento hipervisor y la virtualización a nivel de almacenamiento, son fundamentales para desbloquear las cadenas del hardware que han sido un ancla para el almacenamiento de la próxima generación de centros de datos.

5. La definición de la arquitectura del software de almacenamiento crea la necesidad de un hipervisor de almacenamiento
El mismo pensamiento que cambió nuestros puntos de vista sobre el servidor, es necesario para redireccionar el almacenamiento; y el software inteligente es el catalizador. En resumen, el papel principal del hipervisor de almacenamiento es virtualizar los recursos de almacenamiento para lograr los mismos beneficios – agilidad, eficiencia y flexibilidad – características que ha proporcionado la tecnología del hipervisor a los procesadores y memorias. Este año, el software cogerá su asiento correcto en la mesa y empezará a transformar nuestra visión sobre el almacenamiento.

¿Qué te ha parecido este artículo?

La tua opinione è importante per noi!

C
Redacción Computing

Artículos relacionados

Artículo 1 de 4