Introduction
Le laboratoire Thinking Machines, fondé par l'ancienne directrice technique d'OpenAI, Mira Murati, a signé un accord avec Google Cloud pour utiliser son infrastructure d'IA, y compris les systèmes alimentés par les dernières GPU Nvidia.
Contexte Technique
Cet accord, valu en milliards de dollars, permet à Thinking Machines d'accéder aux derniers systèmes d'IA de Google, basés sur les puces GB300 de Nvidia, ainsi qu'à des services d'infrastructure pour supporter la formation et le déploiement de modèles. Google cherche à intégrer ses offres de calcul d'IA avec d'autres services cloud tels que le stockage, le moteur Kubernetes et Spanner, son produit de base de données.
La concurrence est féroce dans le domaine de l'IA, avec des entreprises comme Anthropic qui signent des accords avec Google et Amazon pour sécuriser des capacités de traitement de tenseurs. Thinking Machines a déjà signé un accord avec Nvidia plus tôt cette année, mais c'est la première fois que le laboratoire s'associe à un fournisseur de services cloud.
Analyse et Implications
Cet accord reflète l'importance de la formation par renforcement, une approche d'apprentissage qui a sous-tendu les récentes avancées dans les laboratoires d'IA. La taille de l'accord avec Google Cloud souligne la complexité computationnelle de ce type de travail. L'accès aux systèmes alimentés par les puces GB300 de Nvidia offre une amélioration de 2X de la vitesse de formation et de service par rapport aux GPU de la génération précédente.
Perspective
Ce partenariat est un signe que Google cherche à s'associer tôt avec des laboratoires de pointe en pleine croissance. Thinking Machines peut utiliser plusieurs fournisseurs de services cloud, mais cet accord montre que Google est prêt à investir dans les infrastructures d'IA pour soutenir l'innovation dans ce domaine. Il faudra surveiller comment cet accord évoluera et comment il impactera le marché de l'IA dans les prochains mois.