Introduction

Nvidia a annoncé le lancement de sa plateforme Vera Rubin, une nouvelle génération de processeurs conçus pour alimenter l'infrastructure d'intelligence artificielle (IA) de nouvelle génération. Cette plateforme vise à soutenir le passage de l'IA vers des agents autonomes capables de raisonner, d'utiliser des outils logiciels tiers et d'exécuter des charges de travail complexes au nom des humains.

Contexte Technique

La plateforme Vera Rubin est ancrée par le nouveau processeur graphique Rubin et les unités centrales Vera, ainsi que par d'autres composants tels que le commutateur NVLink 6, le SuperNIC ConnectX-9, l'unité de traitement de données BlueField-4 et le commutateur Ethernet Spectrum-6. Cette architecture vise à offrir une performance de calcul IA sans précédent, avec sept puces innovantes, cinq racks et un supercalculateur géant conçu pour alimenter toutes les phases de l'IA.

Analyse et Implications

La plateforme Vera Rubin promet de délivrer un « saut générationnel » en termes de performance de calcul IA. Elle est conçue pour soutenir les déploiements d'IA souverains et les usines d'IA complètes, avec des systèmes intégrés à l'échelle des racks et des déploiements à l'échelle des pods. Les tests ont montré que la plateforme peut former de grands modèles à l'aide d'un quart du nombre de processeurs graphiques nécessaires par rapport aux générations précédentes, et offrir une throughput d'inférence 10 fois supérieure à un coût 10 fois inférieur par jeton.

Perspective

La sortie de la plateforme Vera Rubin est attendue pour la deuxième moitié de l'année, via des partenaires d'infrastructure cloud tels qu'Amazon Web Services, Google Cloud et Microsoft, ainsi que des fabricants de matériel tels que Dell Technologies et Supermicro. Cette plateforme est susceptible de fixer de nouvelles normes pour l'infrastructure IA, en offrant des performances accrues, une efficacité énergétique améliorée et des capacités de déploiement plus flexibles pour les applications d'IA de pointe.