Introduction

Red Hat Inc. mise sur l'open source pour sous-tendre l'intelligence artificielle (IA) d'entreprise, tout comme Linux et Kubernetes ont défini l'ère du cloud. Avec le lancement de Red Hat AI 3.4, l'entreprise se positionne comme la plateforme de référence pour l'inférence à grande échelle, le déploiement d'agents et l'économie des jetons.

Contexte Technique

La version 3.4 de Red Hat AI ajoute une couche de modèle en tant que service au-dessus de son moteur d'inférence vLLM et de son framework d'inférence distribuée llm-d, offrant ainsi aux équipes de plateforme un accès contrôlé aux points de terminaison de modèle sans nécessiter la gestion de l'infrastructure sous-jacente. Cette nouvelle version inclut également une fonctionnalité AgentOps qui regroupe la traçabilité, l'observabilité, la gestion des identités et les contrôles de cycle de vie dans une seule couche opérationnelle.

Analyse et Implications

La pression pour gérer les coûts des jetons et le comportement des agents s'intensifie à mesure que les entreprises passent d'une expérimentation basée sur le cloud à une production d'IA privée et sur site. Red Hat AI 3.4 vise à répondre à ce défi en offrant une économie des jetons plus efficiente et une gouvernance des agents plus robuste. Cela pourrait avoir des implications importantes pour le marché de l'IA, car les entreprises pourraient être en mesure de réduire leurs coûts et d'améliorer la sécurité de leurs systèmes d'IA.

Perspective

À l'avenir, Red Hat espère créer un écosystème d'IA riche et ouvert, similaire à celui qui a fait de Linux le système d'exploitation d'entreprise par défaut. Cela nécessitera une collaboration étroite avec la communauté open source et les entreprises pour développer des solutions d'IA plus durables et plus sécurisées. Les prochaines étapes incluront probablement l'amélioration de la fonctionnalité AgentOps et l'expansion de l'écosystème d'IA de Red Hat pour inclure davantage de partenaires et de fournisseurs de modèles.