Introduction
Google Cloud a annoncé le lancement de sa huitième génération de puces IA personnalisées, ou unités de traitement de tenseurs (TPU), qui seront divisées en deux. La puce TPU 8t est conçue pour la formation de modèles, tandis que la puce TPU 8i est destinée à l'inférence.
Contexte Technique
Les nouvelles puces TPU offrent des performances impressionnantes par rapport aux générations précédentes, avec une formation de modèles IA jusqu'à 3 fois plus rapide, une amélioration de 80 % des performances par dollar et la possibilité de faire fonctionner plus d'un million de TPU ensemble dans un seul cluster. Les puces sont conçues pour fournir plus de calcul pour moins d'énergie et de coûts pour les clients.
Google utilise ces puces pour compléter les systèmes basés sur Nvidia qu'il propose dans son infrastructure, plutôt que de les remplacer. La société promet que son cloud aura accès à la dernière puce Nvidia, Vera Rubin, plus tard cette année.
Analyse et Implications
L'utilisation de ces puces par Google et d'autres fournisseurs de cloud pourrait réduire la dépendance à l'égard de Nvidia à l'avenir, à mesure que les entreprises déplacent leurs besoins en IA vers les clouds et portent leurs applications sur ces puces. Cependant, pour l'instant, il n'est pas rentable de parier contre Nvidia, qui est devenue une entreprise d'une capitalisation boursière de près de 5 000 milliards de dollars.
Perspective
Il est important de surveiller l'évolution de l'utilisation de ces puces et leur impact sur le marché. Google et Nvidia travaillent également ensemble pour améliorer les performances des systèmes basés sur Nvidia dans le cloud de Google, en particulier en développant la technologie de réseau logiciel appelée Falcon. Cela pourrait conduire à des avancées importantes dans le domaine de l'IA et du cloud computing.