NOTICIAS

Akamai profundiza en IA con el lanzamiento de Cloud Inference



Dirección copiada

El nuevo servicio ofrece a las empresas la capacidad de triplicar el rendimiento, disminuir la latencia en un 60% y reducir el coste en un 86% respecto a la infraestructura de hiperescala tradicional

Publicado el 27 mar 2025



akamai

Akamai lanza Cloud Inference para Impulsar la Inteligencia Artificial a Escala Global

Akamai, empresa líder en ciberseguridad y cloud computing, ha presentado su nueva solución Akamai Cloud Inference, diseñada para acelerar la adopción de la inteligencia artificial (IA) en empresas y organizaciones. Esta plataforma tiene como objetivo resolver las limitaciones de los modelos de IA tradicionales basados en la nube, al llevar el procesamiento más cerca de los usuarios y dispositivos finales.

La propuesta de Akamai se basa en su infraestructura global, utilizando la red más distribuida del mundo para ofrecer un rendimiento optimizado y reducir la latencia en la ejecución de modelos predictivos y de grandes lenguajes (LLMs).

Acelerar el proceso de inferencia de IA

La nueva solución de Akamai está diseñada para que los ingenieros y desarrolladores puedan crear y ejecutar aplicaciones de IA y cargas de trabajo de grandes volúmenes de datos de manera más eficiente. La plataforma permite una mejora de rendimiento hasta tres veces superior y reduce la latencia hasta 2,5 veces, lo que resulta en una experiencia de usuario mucho más rápida y fluida.

Además, Akamai Cloud Inference ofrece una optimización en costes, permitiendo a las empresas ahorrar hasta un 86% en las inferencias de IA en comparación con infraestructuras tradicionales a hiperescala.

Componentes clave de Akamai Cloud Inference

Computación a escala global

Akamai Cloud Inference proporciona un abanico de opciones de computación, desde CPUs clásicas hasta poderosas GPUs y ASICs personalizadas, adaptándose a las necesidades específicas de cada desafío de IA. La plataforma también se integra con el ecosistema de Nvidia, mejorando el rendimiento de la inferencia en sus GPUs.

Gestión avanzada de datos

Gracias a su asociación con VAST Data, Akamai optimiza el acceso a datos en tiempo real para acelerar las tareas de inferencia. Esto se complementa con un almacenamiento de objetos altamente escalable y una integración con proveedores de bases de datos como Aiven y Milvus para gestionar grandes volúmenes de datos críticos en aplicaciones de IA.

Contenedorización y escalabilidad

El uso de contenedorización facilita el autoescalado y la portabilidad de las cargas de trabajo de IA entre diferentes entornos. Akamai también incluye herramientas como Kubernetes para mejorar el rendimiento y la seguridad, permitiendo una gestión eficaz de proyectos de gran escala, a la vez que optimiza el coste de las operaciones.

Computación en el edge

Una de las características más destacadas de Akamai Cloud Inference es la capacidad de ejecutar inferencias directamente desde aplicaciones sin servidor mediante WebAssembly (WASM). Esto permite a los desarrolladores ejecutar código ligero en el extremo de la red, lo que mejora la velocidad y la latencia en las aplicaciones.

Un futuro más eficiente para la IA

“A medida que los modelos de IA se expanden, acercar los datos a los usuarios y dispositivos es fundamental”, explica Francisco Arnau, vicepresidente de Akamai para España y Portugal. “La red distribuida que hemos construido durante más de dos décadas será esencial para dar respuesta a los desafíos de la IA y nos diferencia de otros proveedores de nube”, añade.

Con Akamai Cloud Inference, las empresas pueden disfrutar de una plataforma potente para la ejecución de aplicaciones de IA a escala global, gracias a los más de 4.100 puntos de presencia en 130 países y la capacidad de entregar más de un petabyte por segundo de rendimiento para tareas intensivas en datos.

Artículos relacionados

Artículo 1 de 5