Lucía Bonilla (Londres)
Hewlett Packard Enterprise ha anunciado que ha probado con éxito la Computación basada en Memoria (o Memory-Driven Computing), un concepto que utiliza la memoria, no el procesamiento, como el centro de la plataforma de computación para ganar en rendimiento y eficiencia, algo imposible hasta ahora.
Desarrollado como parte del proyecto de investigación The Machine, el prototipo de prueba de HPE representa un hito en los esfuerzos de la compañía por transformar la arquitectura sobre la que se han construido todos los ordenadores de los últimos 60 años.
Gartner predice que para el año 2020, el número de dispositivos conectados llegará a los 20.8 billones y generará un volumen de datos sin precedentes. El número de datos está creciendo a una velocidad mayor que la habilidad para procesarlos, almacenarlos, gestionarlos y protegerlos con las arquitecturas de computación existentes.
“Hemos alcanzado un hito importante con The Machine, uno de los proyectos de investigación más grandes y complejos de la historia de nuestra compañía”, dijo Antonio Neri, Vicepresidente Ejecutivo y Gerente General del Grupo Empresarial de HPE. “Con este prototipo, hemos demostrado el potencial de la computación manejada por memoria y también hemos abierto la puerta a la innovación inmediata. Nuestros clientes y la industria en su conjunto pueden esperar beneficiarse de estos avances mientras continuamos nuestra búsqueda de tecnologías que suponen un punto de inflexión”.
El prototipo de prueba, que se mostró online en octubre, muestra los bloques fundamentales de la nueva arquitectura trabajando, tal como habían sido diseñados por los investigadores de HPE y su rama de investigación, Hewlett Packard Labs.
HPE ha conseguido:
- Que los nodos de computación accedan a un grupo compartido de memoria
- Que funcione el sistema operativo (OS) Linux optimizado en un SOC (System on a Chip) customizado
- Poner en línea y operativos los enlaces de comunicación fotónica/óptica, incluido el nuevo módulo fotónico X1
- Nuevas herramientas de programación de software diseñadas para aprovechar la abundante memoria persistente.
Durante la fase de diseño del prototipo, las simulaciones predijeron que la velocidad de esta arquitectura puede mejorar la computación por múltiples órdenes de magnitud. La compañía ha utilizado nuevas herramientas de programación de software en productos existentes, mejorando la velocidad de ejecución en 8,000 veces en diferentes tipos de cargas de trabajo. HPE espera conseguir resultados similares según expanda la capacidad del prototipo con más nodos y memoria.
Además de sumar capacidad online, The Machine incrementará el foco en la computación Exascale. Exascale es un área de desarrollo de Computación de Alto Rendimiento (High Performance Computing, HPC), que tiene como objetivo crear ordenadores de varios órdenes de magnitud más poderosos que cualquier sistema en línea hoy en día. La arquitectura Memory-Driven de HPE es increíblemente escalable, desde los diminutos dispositivos IoT hasta el Exascale, lo que la convierte en el fundamento ideal para una amplia gama de cargas de trabajo de alto rendimiento, incluyendo grandes análisis de datos.
Computación y Comercialización Manejadas por Memoria
HPE está comprometido con la rápida comercialización de las tecnologías desarrolladas en la investigación de The Machine en productos nuevos y existentes. Estas tecnologías se pueden clasificar en cuatro categorías: memoria no volátil, fabric (incluyendo fotónicos), habilitación de ecosistemas y seguridad.