Introduction
L'espace de l'IA pousse actuellement pour l'adoption de « Skills » comme nouvelle norme pour donner des capacités aux LLM (Large Language Models). Cependant, après une analyse approfondie, il semble que le Model Context Protocol (MCP) soit toujours le choix architectural le plus pragmatique pour donner aux LLM un accès réel aux services.
Contexte Technique
Le MCP est conçu comme une abstraction d'API, permettant aux LLM d'interagir avec des services sans avoir besoin de comprendre les détails de mise en œuvre. Cette approche offre plusieurs avantages, tels que l'utilisation à distance sans installation, les mises à jour transparentes, une authentification sécurisée et une véritable portabilité. Les MCP peuvent être utilisés pour exposer des interfaces de service contrôlées, permettant aux LLM d'accéder à des fonctionnalités spécifiques sans avoir besoin d'installer des CLI (Command Line Interface) dédiées.
Analyse et Implications
Les Skills, bien que pratiques pour l'enseignement de connaissances pures et la standardisation des flux de travail, présentent des limitations lorsqu'il s'agit d'accéder à des services externes. L'utilisation de CLI dédiées pour chaque service peut entraîner des problèmes d'UX et d'architecture, tels que la gestion des déploiements, la gestion des secrets et la fragmentation des écosystèmes. Les MCP offrent une alternative plus élégante et plus sécurisée pour l'accès aux services.
Perspective
À l'avenir, il est crucial de maintenir le MCP comme standard pour les interfaces de service, tandis que les Skills devraient se concentrer sur l'enseignement de connaissances pures et la standardisation des flux de travail. Les services devraient exposer des points de terminaison MCP pour permettre aux LLM d'accéder à leurs fonctionnalités de manière sécurisée et contrôlée. Cela nécessitera une collaboration étroite entre les fournisseurs de services et les développeurs d'IA pour créer des écosystèmes plus intégrés et plus sécurisés.