Les détecteurs d’intelligence artificielle sont-ils biaisés contre les anglophones non natifs ?

Les programmes d’intelligence artificielle capables de générer du texte en un clic deviennent prolifiques, les plus populaires d’entre eux étant des services comme ChatGPT, qui compte des centaines de millions d’utilisateurs mensuels. Malgré l’utilité de ces outils, de nombreux humains ne peuvent pas faire la différence entre quelque chose d’écrit par une personne et quelque chose d’écrit par une machine. En conséquence, ils peuvent alimenter la désinformation ou même faciliter la tricherie dans le milieu universitaire. Pour lutter contre cette augmentation de la lecture générée par l’IA, certains “détecteurs GPT” ont été déployés, ce qui peut prétendument repérer la différence – mais ils peuvent avoir leurs propres biais.

Un récent article d’opinion dans la revue Patterns remet en question la précision des détecteurs GPT, constatant qu’ils sont biaisés contre les anglophones non natifs. Les auteurs ont également constaté qu’il est plus facile de tromper ces détecteurs en utilisant des invites plus détaillées en premier lieu. “Cela soulève une question cruciale”, écrivent les auteurs. “Si le contenu généré par l’IA peut facilement échapper à la détection alors que le texte humain est fréquemment mal classé, quelle est l’efficacité réelle de ces détecteurs ?”

Négliger les biais des détecteurs GPT “peut entraîner des conséquences inattendues, telles que la marginalisation des locuteurs non natifs dans les contextes d’évaluation ou d’éducation”, concluent-ils. En tant que tel, c’est encore un autre exemple frappant de la façon dont la technologie peut refléter les préjugés inhérents à la société. Les auteurs mettent en garde contre l’utilisation de détecteurs GPT dans certains contextes, en particulier les environnements éducatifs avec des anglophones non natifs, et recommandent une évaluation approfondie de cette technologie et de ses limites à mesure qu’elle se généralise.

Related Posts