Introduction

Intel et Google ont annoncé un partenariat pluriannuel pour les processeurs de centres de données. Ce partenariat permettra à Google d'utiliser les prochaines générations de processeurs Xeon d'Intel pour alimenter ses modèles d'intelligence artificielle et ses charges de travail générales sur sa plateforme cloud.

Contexte Technique

Les processeurs Xeon 6 d'Intel, notamment la variante Granite Rapids, seront utilisés par Google pour exécuter ses instances C4. Ces processeurs sont conçus pour offrir des performances élevées et sont optimisés pour les charges de travail d'intelligence artificielle. La technologie AMX (Accelerator Matrix) est une extension du langage machine qui accélère les calculs de multiplication-accumulation, fréquemment utilisés dans les modèles d'intelligence artificielle.

Intel propose également une autre gamme de processeurs Xeon 6 appelée Sierra Forest, qui offre une meilleure efficacité énergétique que les processeurs Granite Rapids. Les processeurs Sierra Forest sont basés sur une conception de cœur appelée E-core, qui échange une partie des performances des cœurs P-core pour une meilleure efficacité.

Analyse et Implications

Ce partenariat est une victoire nécessaire pour Intel, qui fait face à une concurrence croissante sur le marché des processeurs de serveurs. Le partenariat avec Google lui permet de maintenir sa position sur le marché et de continuer à innover dans le domaine de l'intelligence artificielle et du cloud.

Le partenariat entre Intel et Google s'étend également aux unités de traitement d'infrastructure (IPU) d'Intel, qui sont conçues pour gérer les tâches d'infrastructure telles que le chiffrement du trafic de données et la coordination du matériel de stockage. Les IPU permettent de libérer les processeurs principaux pour se concentrer sur les charges de travail des utilisateurs.

Perspective

Ce partenariat ouvre des perspectives intéressantes pour l'avenir de l'informatique en cloud et de l'intelligence artificielle. Il permettra à Google de disposer de processeurs plus performants et plus efficaces pour exécuter ses modèles d'intelligence artificielle et ses charges de travail générales, ce qui pourrait conduire à des avancées significatives dans ces domaines.