Akamai Technologies ha marcado un hito importante en la evolución de la inteligencia artificial al presentar la primera implementación a escala mundial del diseño de referencia NVIDIA® AI Grid. Al integrar la infraestructura de IA de NVIDIA en la suya y aprovechar la orquestación inteligente de cargas de trabajo en toda su red, Akamai pretende llevar al sector más allá de las fábricas de IA aisladas hacia una red unificada y distribuida para la inferencia de IA.
Esto supone un paso significativo en la evolución de Akamai Inference Cloud, presentada a finales del año pasado. Akamai, la primera empresa en poner en marcha la red AI Grid, está implementando miles de GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, lo que proporciona una plataforma que permite a las empresas ejecutar IA con agentes y física, con la capacidad de respuesta de la computación local y la escala de la web global.
‘Los centros de IA se han diseñado específicamente para la formación y las cargas de trabajo de modelos de vanguardia, y la infraestructura centralizada seguirá ofreciendo los mejores resultados en términos de tokenómica para esos casos de uso’, afirma Adam Karon, director de operaciones y director general del Cloud Technology Group de Akamai. ‘Sin embargo, el vídeo en tiempo real, la IA física y las experiencias personalizadas altamente concurrentes exigen inferencia en el punto de contacto, no un viaje de ida y vuelta a un clúster centralizado. Nuestra orquestación inteligente AI Grid permite a las fábricas de IA ampliar la inferencia hacia el exterior y aprovechar la misma arquitectura distribuida que revolucionó la entrega de contenido para enrutar las cargas de trabajo de IA a través de 4.400 ubicaciones, con el coste y en el momento adecuados’.
El núcleo central de AI Grid consiste en un coordinador inteligente que actúa como intermediario en tiempo real para las solicitudes de IA. Al aplicar la experiencia de Akamai en la optimización del rendimiento de las aplicaciones a la IA, este plano de control sensible a la carga de trabajo optimiza la «tokenómica», mejorando así el coste por token, el tiempo hasta el primer token y el rendimiento.
Una de las principales características que diferencian a Akamai es su capacidad para que los clientes accedan a modelos ajustados o dispersos a través de su enorme presencia global, lo que supone una gran ventaja en términos de costes y rendimiento para la larga cola de cargas de trabajo de IA. Por ejemplo:
Desarrollada sobre NVIDIA AI Enterprise y aprovechando la arquitectura NVIDIA Blackwell y las DPU NVIDIA BlueField para redes y seguridad aceleradas por hardware, Akamai puede gestionar acuerdos de nivel de servicio (SLA) complejos entre ubicaciones edge y core.
‘Las nuevas aplicaciones nativas de IA exigen una latencia predecible y una mayor rentabilidad a escala global’, asegura Chris Penrose, vicepresidente global de Desarrollo Empresarial y Telco en NVIDIA. ‘Al poner en funcionamiento NVIDIA AI Grid, Akamai está creando el tejido conectivo para la IA generativa, agencial y física, y está trasladando la inteligencia directamente a los datos, lo que dará paso a la próxima ola de aplicaciones en tiempo real’.
Akamai ya está observando una fuerte adopción temprana de Akamai Inference Cloud en sectores que hacen un uso intensivo de los recursos informáticos y que son sensibles a la latencia:
Impulsada por la demanda empresarial, la plataforma también ha sido validada por los principales proveedores de tecnología, entre los que se incluye un contrato de servicio de cuatro años por valor de 200 millones de dólares estadounidenses para un clúster de miles de GPU en un centro de datos construido específicamente para la infraestructura de IA empresarial en el borde metropolitano.
La primera ola de infraestructura de IA se caracterizó por enormes clústeres de GPU en unas pocas ubicaciones centralizadas y optimizadas para el entrenamiento. Sin embargo, a medida que la inferencia se convierte en la carga de trabajo dominante y las empresas de todos los sectores se centran en crear agentes de IA, este modelo centralizado se enfrenta a las mismas limitaciones de escalabilidad que encontraron las generaciones anteriores de infraestructura de Internet con la distribución de medios, los juegos en línea, las transacciones financieras y las aplicaciones de microservicios complejos.
Akamai está abordando cada uno de estos retos con un enfoque fundamental: redes distribuidas, orquestación inteligente y sistemas diseñados específicamente para reunir el contenido y el contexto lo más cerca posible del punto de contacto digital. El resultado ha sido una mejora en la experiencia de los usuarios y un mayor retorno de la inversión (ROI) para las empresas que han adoptado este modelo. Akamai Inference Cloud aplica la misma arquitectura probada a las fábricas de IA, lo que permite la próxima ola de escalabilidad y crecimiento mediante la distribución de la computación densa desde el núcleo hasta el borde.
Para las empresas, esto significa poder implementar agentes de IA sensibles al contexto y adaptables en su capacidad de respuesta. Para la industria, esto representa un modelo de evolución de las fábricas de IA desde instalaciones aisladas hasta convertirse en una utilidad distribuida a nivel mundial.

