Introduction
Lorsque l'on aborde la conception d'un agent interne, une question clé se pose : faut-il privilégier les flux de travail basés sur le code ou ceux basés sur les modèles de langage (LLM) ? Cette décision est cruciale, car elle impacte directement l'efficacité et la fiabilité de l'agent. Dans cet article, nous allons explorer les deux approches et les raisons pour lesquelles il est nécessaire de supporter les deux.
Contexte Technique
Les flux de travail basés sur les LLM utilisent des modèles de langage pour automatiser les tâches, tandis que les flux de travail basés sur le code utilisent des scripts pour atteindre les mêmes objectifs. Les LLM peuvent être très puissants, mais ils peuvent également introduire des erreurs et des inefficacités. Pour résoudre ce problème, nous avons mis en place un système qui permet de basculer entre les deux approches en fonction des besoins. Notre système utilise un coordinateur qui peut être configuré pour utiliser soit un LLM, soit un script pour exécuter les tâches.
Analyse et Implications
L'analyse de nos résultats montre que les flux de travail basés sur le code offrent une plus grande déterminisme et une meilleure fiabilité que les LLM. Cependant, les LLM peuvent toujours être très utiles pour les tâches qui nécessitent une grande intelligence et une flexibilité. Nous avons constaté que les deux approches peuvent coexister et être utilisées de manière complémentaire. Les implications concrètes de cette approche sont nombreuses, notamment la possibilité de réduire les erreurs et d'améliorer l'efficacité des flux de travail.
Perspective
À l'avenir, nous devrons surveiller de près les limites et les inconnues de nos deux approches. Il est important de continuer à développer et à améliorer nos capacités en matière de flux de travail basés sur le code et les LLM. Nous devons également être conscients des risques potentiels liés à l'utilisation des LLM, tels que les erreurs et les biais. Enfin, nous devons nous assurer que nos systèmes sont scalables et flexibles pour répondre aux besoins changeants de nos utilisateurs.