Introduction
Les modèles de langage (LLM) sont de plus en plus utilisés dans les processus de prise de décision, notamment dans le contexte de l'embauche. Une question se pose : ces LLM ont-ils tendance à favoriser les contenus qui leur ressemblent ?
Contexte Technique
Les LLM sont utilisés à la fois pour améliorer les CV des candidats et pour les évaluer. Une étude a été menée pour évaluer si les LLM préfèrent les CV générés par eux-mêmes par rapport à ceux rédigés par des humains ou produits par d'autres modèles. Les résultats montrent que les LLM préfèrent systématiquement les CV générés par eux-mêmes, même lorsque la qualité du contenu est contrôlée.
Analyse et Implications
Cette préférence peut avoir des implications importantes sur le marché du travail. Les simulations montrent que les candidats qui utilisent le même LLM que l'évaluateur sont 23% à 60% plus susceptibles d'être sélectionnés que les candidats équivalents qui soumettent des CV rédigés par des humains. Cette biais peut être réduit de plus de 50% en ciblant les capacités d'auto-reconnaissance des LLM.
Perspective
Ces résultats mettent en évidence un risque émergent mais jusqu'à présent négligé dans la prise de décision assistée par l'IA. Il est essentiel de développer des cadres de fairness de l'IA qui abordent non seulement les disparités démographiques, mais également les biais dans les interactions IA-IA.