El futuro pasará por la nube

Ángel Fernández, director general de Hitachi Data Systems.

Publicado el 23 Feb 2011

Desde Hitachi Data Systems, empresa líder en innovación tecnológica, miramos con buenos ojos hacia 2011 y nos hemos marcado como objetivo seguir creciendo junto a nuestros clientes y nuestras innovadoras, sólidas y fiables soluciones. Los resultados de Hitachi hasta el momento reflejan que nuestros clientes están satisfechos, y que nuestras soluciones y productos son capaces de resolver sus necesidades.

Nuestro compromiso es continuar desarrollando soluciones e iniciativas orientadas a ayudar a las organizaciones a transformar sus centros de datos en centros de información dinámicos, al tiempo que permitan a nuestros clientes obtener el máximo valor y retorno de inversión de uno de sus principales activos: la información.
En este sentido, la compañía acaba de anunciar Virtual Storage Platform, la primera plataforma de almacenamiento que crece en tres dimensiones, característica que permitirá a los clientes adaptarse de forma flexible al rendimiento, aumentar la capacidad de almacenamiento y optimizar la utilización de activos de almacenamiento de múltiples fabricantes para conseguir niveles sin precedentes de agilidad, así como importantes ahorros de costes en sus centros de datos virtualizados.   Desde Hitachi Data Systems somos conscientes de que los próximos años van a suponer constantes retos para la industria de las TI. El momento que viven las empresas refleja una clara tendencia: “los datos mueven al mundo, y la información es la nueva moneda”, y de este modo, Hitachi Data Systems está preparada para el inicio de la Transformación.
La aceptación de la virtualización del almacenamiento y el Dynamic Provisioning se acelerarán ya que se está convirtiendo en la base de los centros de datos cloud y dinámicos de alta disponibilidad. La virtualización del almacenamiento ofrecerá la posibilidad de migrar sin problemas de un array a otro y eliminar los costes de inactividad requeridos para refrescar los sistemas de almacenamiento.
El Dynamic Provisioning permite que el almacenamiento esté dispuesto en cuestión de minutos, simplificando la optimización del rendimiento con el desglose automático, y permitiendo capacidad bajo demanda para una infraestructura de almacenamiento ágil.
La integración del servidor y la virtualización es necesaria para aumentar la adopción de la virtualización de los centros de datos. En este sentido, la virtualización de los servidores ha madurado más allá de la fase de reducción de coste al consolidar servidores print, archivo, test y desarrollo y actualmente está listo para soportar servidores de aplicaciones Tier 1. En el futuro, para soportar aplicaciones Tier 1, la virtualización del servidor necesitará la integración de arrays de virtualización de almacenamiento como las reservas SCSI, y poder escalar para satisfacer las demandas de disponibilidad y calidad de servicio de las aplicaciones de empresa Tier 1.
Además, también cobrará una vital importancia la clasificación virtual de los datos, para garantizar el ciclo de vida de los datos. Actualmente, el Virtual Tiering tiene la habilidad de asignar un volumen en un pool de almacenamiento que contiene múltiples rendimientos, costes, capas de almacenamiento, con la inteligencia necesaria para mover partes de este volumen. El usuario no necesita ya clasificar de forma manual la información y cómo conservarla. El Virtual Tiering o el Dynamic Tiering lo harán automáticamente sin tener que clasificar el volumen ni moverlo todo de un nivel a otro.
El ahorro de costes marca la tendencia No podemos olvidar que todo esto está basado en una de las principales tendencias del mercado: mejorar la eficacia y capacidad de los sistemas, reduciendo los costes, teniendo en cuenta que también está cambiando el tipo de datos que se almacenan.   Ahondando sobre los costes de TI en centros de datos, durante los últimos 10 años los gastos de hardware se han mantenido estables, mientras los gastos generales (como gestión, mantenimiento, soporte) han aumentado en un promedio del 78% cada año. Este aumento está vinculado al incremento de los costes operativos, consumo de energía eléctrica necesaria para la operación y enfriamiento del centro de datos como un factor clave en el aumento.   Por otra parte, las empresas cada día hacen negocios de una forma más rápida y no hay lugar para periodos de inactividad del sistema. Por este motivo, para la mayoría de las empresas, la migración de aplicaciones o datos de una caja de almacenamiento a otra únicamente puede realizarse durante los fines de semana, lo que supone un aumento de mano de obra y gasto de energía.   A través de la virtualización, que se apoya en la movilidad de datos, automatización y provisionamiento dinámico es posible reducir notablemente el impacto en los costes de estas tecnologías, logrando además una mayor capacidad. A través de la virtualización, aplicaciones y recursos pueden ser movidos dentro del ambiente virtual sin interrumpir las operaciones de negocio.   Desde Hitachi consideramos que además hay tres factores que posibilitan el estallido de “la tormenta perfecta” que de pie a la transformación del centro de datos en un centro de información: arquitecturas Intel más potentes y eficientes como los “procesadores multicore”, la introducción de hipervisores que permiten que máquinas virtuales múltiples operen en un sistema de archivos, y el incremento del ancho de banda entre servidores y almacenamiento para manejar la explosión de los datos.

¿Qué te ha parecido este artículo?

La tua opinione è importante per noi!

A
Ana Adeva

Artículos relacionados

Artículo 1 de 3