Google confirmó que adoptará múltiples generaciones de unidades centrales de procesamiento (CPU) de Intel en sus centros de datos para IA, fortaleciendo una relación que comenzó hace casi tres décadas.
El movimiento contempla el despliegue de los más recientes chips Xeon 6 para tareas de entrenamiento e inferencia de IA.
El anuncio representa un cambio importante en el mercado de hardware para IA, donde las unidades de procesamiento gráfico (GPU), especialmente las de Nvidia, han dominado.
Sin embargo, cada vez más las CPU se están volviendo esenciales a medida que los sistemas de IA aumentan en complejidad.
Amin Vahdat, director tecnológico de Google para infraestructura de IA, señaló en un comunicado que la hoja de ruta de Intel le da a la empresa “confianza de que podremos seguir satisfaciendo las crecientes demandas de rendimiento y eficiencia de nuestras cargas de trabajo”.
La alianza llega en un momento en que los líderes de la industria están replanteando cómo se construyen los sistemas de IA.
El CEO de Intel, Lip-Bu Tan, también afirmó: “Escalar la IA requiere más que aceleradores: requiere sistemas equilibrados”.
Además de las CPU, ambas compañías continúan trabajando en unidades de procesamiento de infraestructura (IPU), un chip especializado diseñado para descargar tareas de red, almacenamiento y seguridad de las CPU principales.
Desarrollado conjuntamente por primera vez en 2022, el IPU ayuda a mejorar la eficiencia en centros de datos al encargarse de operaciones en segundo plano como enrutar tráfico, cifrar datos y gestionar virtualización.
Intel fabrica sus procesadores Xeon más recientes con su avanzado proceso 18A en su planta de Arizona, como parte de una estrategia más amplia para recuperar liderazgo tecnológico.
Además de los chips de Intel, Google también ha desarrollado sus propios aceleradores de IA, conocidos como Tensor Processing Unit, y recientemente presentó una CPU basada en Arm llamada Axion.