La empresa de nube y ciberseguridad Akamai Technologies dio un paso significativo hacia la era de la inferencia de IA distribuida al adquirir miles de GPUs Blackwell de Nvidia, desplegándolas en su red global para fortalecer lo que describe como una de las plataformas de inteligencia artificial más ampliamente distribuidas del mundo.
Este movimiento refleja un cambio estratégico: mientras los hiperscaladores se concentran en el entrenamiento de modelos, Akamai se enfoca en llevar la IA directamente al borde, cerca de donde se generan y consumen los datos. La compañía apunta a reducir la latencia y los costos de inferencia, ofreciendo a sus clientes aplicaciones de IA más rápidas y eficientes.
Una infraestructura descentralizada y optimizada
La implementación combina servidores Nvidia RTX PRO, GPUs RTX PRO 6000 Blackwell Server Edition y unidades de procesamiento de datos BlueField-3, desplegados en más de 4,400 ubicaciones alrededor del mundo.
Según Akamai, esta arquitectura puede reducir la latencia hasta 2.5 veces y disminuir los costos de inferencia en hasta un 86% comparado con infraestructuras tradicionales centralizadas.
La plataforma permite procesamiento de clústeres de GPU dedicados, ajuste fino de modelos de lenguaje grande con enfoque en privacidad de datos y cumplimiento regional, y entrenamiento posterior al modelo para adaptar modelos fundacionales con datos propios de los clientes.
Adam Karon, Director de Operaciones de Akamai, resumió la estrategia: “Las fábricas de IA centralizadas siguen siendo esenciales para construir modelos, pero dar vida a esos modelos a escala requiere un sistema nervioso descentralizado”.
Liderando la era de la inferencia
El anuncio se basa en la expansión de Akamai Inference Cloud, lanzada en octubre de 2025, que introdujo por primera vez la arquitectura Nvidia Blackwell en la computación en el borde de la compañía. La demanda inicial superó las expectativas, lo que llevó a la adquisición de miles de GPUs adicionales.
Según MIT Technology Review, el 56% de las organizaciones consideran la latencia como la principal barrera para el despliegue masivo de IA. Con su modelo distribuido, Akamai busca llevar la IA del laboratorio directamente a las aplicaciones del mundo real, desde logística autónoma y redes inteligentes hasta robótica quirúrgica y prevención de fraudes.
Diferenciándose frente a los gigantes de la nube
Al distribuir la capacidad de cómputo optimizada para inferencia globalmente en lugar de concentrarla en centros de datos masivos, Akamai se distingue frente a gigantes como Amazon Web Services, Microsoft Azure y Google Cloud. La estrategia permite ejecutar modelos cerca de los datos, aumentando la eficiencia y el retorno de inversión, y colocando la IA exactamente donde se necesita.
Karon lo describió de manera clara: “Estamos trasladando la IA del laboratorio a la esquina de la calle y a la cama del hospital, donde se realiza el trabajo, donde residen los datos y donde se materializa el retorno de inversión”.
