Introduction
Nvidia et Google Cloud ont renforcé leur partenariat pour créer une usine d'IA complète, intégrant l'infrastructure d'hypercalculateurs d'IA de Google avec les dernières solutions de Nvidia, notamment Blackwell, les modèles ouverts et les outils d'IA physique.
Contexte Technique
Google Cloud étend son architecture d'hypercalculateurs d'IA avec de nouvelles instances alimentées par Nvidia, notamment les systèmes Grace Blackwell et l'instance A5X basée sur la plate-forme Nvidia Vera Rubin, pour les usines d'IA à grande échelle pour la formation et l'inférence.
Le réseau de données Virgo est conçu pour les réseaux de données de centre de données à grande échelle pour l'IA, servant de colonne vertébrale pour l'hypercalculateur d'IA de Google et permettant à l'instance Vera Rubin A5X de passer à 960 000 unités de traitement graphique sur plusieurs sites.
Analyse et Implications
La collaboration entre Nvidia et Google Cloud permet aux clients de bénéficier d'un chemin plus rapide et moins risqué pour passer de l'expérimentation à l'IA à la mise en œuvre à grande échelle.
La plate-forme combinée est conçue pour être prête à l'emploi et approche le statut d'utilité, éliminant ainsi la nécessité pour les clients de rassembler des unités de traitement graphique, des planificateurs et des frameworks.
Perspective
Les entreprises n'ont plus besoin de deviner quelle région ou quel type d'instance sera toujours disponible à grande échelle dans 18 mois, car Google normalise Nvidia en tant que tissu d'accélérateur par défaut, aux côtés de ses unités de traitement de tenseurs.
Nvidia a réécrit la pile de calcul en déplaçant les charges de travail de calcul lourd des unités centrales de traitement générales vers des architectures accélérées par GPU optimisées pour les charges de travail parallèles.