Fujitsu ha recibido la solicitud del National Institute of Advanced Industrial Science y Technology (AIST), para desarrollar el AI Bridging Cloud Infraestructure (ABCI), que se convertirá en el sistema de supercomputación más rápido de Japón.
En la configuración del ABCI se incluirán los últimos servidores Primergy x86 de Fujitsu. El sistema ofrecerá un rendimiento máximo teórico en operaciones de half-precision floating point (una medida critica en el campo del AI) de 550 petaflops y 37 petaflops de rendimiento de operación en double-precision floating point, una medida convencional en simulación y otros campos. Si este sistema hubiera sido valorado en la clasificación TOP500 de supercomputadoras que tuvo lugar en junio de 2017, habría logrado la primera posición en Japón y la tercera a nivel mundial.
ABCI será desplegado en el nuevo Data Center de ABCI en el campus de Kashiwa II de la Universidad de Tokyo y está programado para comenzar a operar durante el año fiscal 2018 (los años fiscales comienzan el 1 de abril).
Con el fin de acelerar la investigación de vanguardia y el desarrollo de la tecnología de IA, así como las aplicaciones prácticas en la sociedad en campos como la industria, AIST ha estado planificando la implementación ABCI como una plataforma global de innovación abierta, que permitirá un procesamiento de alta velocidad IA, mediante la combinación de algoritmos, grandes datos y poder computacional. Como una plataforma cloud para aplicaciones de IA, se espera que ABCI cree nuevas aplicaciones en una variedad de campos. Además, se prevé que el sistema promueva la utilización de tecnología de vanguardia de la IA por parte de la industria, incluida la transferencia de la última tecnología de la plataforma en la nube pública a través de un diseño abierto.
Se prevé que el sistema promueva la utilización de tecnología de vanguardia de la IA
El núcleo de ABCI será el sistema computacional de alto rendimiento que consistirá en 1.088 servidores Primergy CX2570 M4, montados en servidores multi-nodo Primergy CX400 M4. Cada servidor contará con dos Intel Xeon V100 Gold processor CPUs (con un total de 2.176 CPUs) y 4 NVIDIA Tesla V100 GPU computing cards (hasta un total de 4.352 GPUs) así como Intel SSD DC P4600 series basados en el estándar NVMe como almacenamiento local.
Además, el chasis de tamaño 2U Primergy CX400 M4 puede cada uno montar dos nodos de servidor Primergy CS2570 M4 con tarjetas de computación GPU, ofreciendo alta densidad de instalación. Asimismo, al utilizar “hot water cooling” para sus servidores, este sistema también puede lograr ahorros de energía significativos.