La puissante intelligence artificielle de Google met en lumière une faille cognitive humaine

Avatar photo
Artificial Intelligence Data AI Problem Solving

Par

Intelligence artificielle Données AI Résolution de problèmes

Les mots peuvent avoir un effet puissant sur les gens, même lorsqu’ils sont générés par une machine irréfléchie.

Il est facile pour les gens de confondre un discours fluide avec une pensée fluide.

Lorsque vous lisez une phrase comme celle-ci, votre expérience passée vous amène à croire qu’elle a été écrite par un humain qui pense et ressent. Et, dans ce cas, il y a bien un humain qui tape ces mots : [Hi, there!] Mais de nos jours, certaines phrases qui semblent remarquablement humaines sont en fait générées par des systèmes d’IA qui ont été entraînés sur des quantités massives de textes humains.

Les gens sont tellement habitués à présumer qu’un langage fluide provient d’un être humain qui pense et ressent que la preuve du contraire peut être difficile à comprendre. Comment les gens sont-ils susceptibles de naviguer sur ce territoire relativement inexploré ? En raison de la tendance persistante à associer l’expression fluide à la pensée fluide, il est naturel – mais potentiellement trompeur – de penser que si un modèle d’intelligence artificielle peut s’exprimer avec fluidité, cela signifie qu’il pense et ressent comme les humains.

Par conséquent, il n’est peut-être pas surprenant qu’un ancien ingénieur de Google ait récemment affirmé que LaMDA, le système d’intelligence artificielle de Google, a un sens de soi parce qu’il peut générer avec éloquence des textes sur ses prétendus sentiments. Cet événement et la couverture médiatique qui a suivi ont conduit à une numéro de sceptiques à juste titre articles et postes sur l’affirmation selon laquelle les modèles informatiques du langage humain sont sensibles, c’est-à-dire capables de penser, de sentir et d’expérimenter.

La question de savoir ce que cela signifierait pour un modèle d’IA d’être sensible est en fait assez compliquée (voir, par exemple, l’avis de notre collègue.), et notre objectif dans cet article n’est pas de la résoudre. Mais comme langue chercheursnous pouvons utiliser nos travaux en sciences cognitives et en linguistique pour expliquer pourquoi il est trop facile pour les humains de tomber dans le piège cognitif qui consiste à supposer qu’une entité capable d’utiliser le langage couramment est sensible, consciente ou intelligente.

Utiliser l’IA pour générer un langage de type humain

Le texte généré par des modèles comme LaMDA de Google peut être difficile à distinguer du texte écrit par des humains. Ce résultat impressionnant est le fruit d’un programme de plusieurs décennies visant à construire des modèles capables de générer un langage grammatical et significatif.

Eliza 1966

Le premier système informatique à faire dialoguer les gens était un logiciel de psychothérapie appelé Eliza, construit il y a plus d’un demi-siècle. Crédit : Rosenfeld Media/Flickr, CC BY

Les premières versions datant au moins des années 1950, connues sous le nom de modèles n-gram, comptaient simplement les occurrences de phrases spécifiques et les utilisaient pour deviner quels mots étaient susceptibles d’apparaître dans des contextes particuliers. Par exemple, il est facile de savoir que “beurre de cacahuète et gelée” est une phrase plus probable que “beurre de cacahuète et ananas”. Si vous avez suffisamment de textes en anglais, vous verrez l’expression “peanut butter and jelly” à maintes reprises, mais vous ne verrez peut-être jamais l’expression “peanut butter and pineapples”.

Les modèles actuels, des ensembles de données et de règles qui se rapprochent du langage humain, diffèrent de ces premières tentatives de plusieurs façons importantes. Premièrement, ils sont formés sur l’ensemble de l’Internet. Deuxièmement, ils peuvent apprendre des relations entre des mots très éloignés les uns des autres, et pas seulement entre des mots voisins. Troisièmement, ils sont réglés par un grand nombre de “boutons” internes, si nombreux qu’il est difficile, même pour les ingénieurs qui les conçoivent, de comprendre pourquoi ils génèrent une séquence de mots plutôt qu’une autre.

La tâche des modèles, cependant, reste la même que dans les années 1950 : déterminer quel mot est susceptible de venir ensuite. Aujourd’hui, ils sont si bons dans cette tâche que presque toutes les phrases qu’ils génèrent semblent fluides et grammaticales.

Du beurre de cacahuètes et des ananas ?

Nous avons demandé à un grand modèle de langage, GPT-3de compléter la phrase “Peanut butter and pineapples___”. Il a répondu : “Le beurre de cacahuète et les ananas sont une excellente combinaison. Les saveurs sucrées et salées du beurre de cacahuète et de l’ananas se complètent parfaitement.” Si une personne dit cela, on peut en déduire qu’elle a essayé le beurre de cacahuète et l’ananas ensemble, qu’elle s’est fait une opinion et qu’elle l’a partagée avec le lecteur.

Mais comment GPT-3 a-t-il trouvé ce paragraphe ? En générant un mot qui correspond au contexte que nous avons fourni. Et puis un autre. Et encore un autre. Le modèle n’a jamais vu, touché ou goûtéananas – il a simplement traité tous les textes sur Internet qui les mentionnent. Et pourtant, la lecture de ce paragraphe peut amener l’esprit humain – même celui d’un ingénieur de Google – à imaginer GPT-3 comme un être intelligent capable de raisonner sur des plats à base de beurre de cacahuète et d’ananas.


Les grands modèles linguistiques d’IA peuvent s’engager dans une conversation fluide. Cependant, ils n’ont pas de message global à communiquer, et leurs phrases suivent souvent des tropes littéraires communes, extraites des textes sur lesquels ils ont été formés. Par exemple, si on lui demande de parler de “la nature de l’amour”, le modèle peut générer des phrases sur la croyance que l’amour est le plus fort. Le cerveau humain incite le spectateur à interpréter ces mots comme l’opinion du modèle sur le sujet, mais il s’agit simplement d’une séquence de mots plausible.

Le cerveau humain est câblé pour déduire les intentions derrière les mots. Chaque fois que vous engagez une conversation, votre esprit construit automatiquement un modèle mental de votre interlocuteur. Vous utilisez ensuite les mots qu’il prononce pour compléter le modèle avec les objectifs, les sentiments et les croyances de cette personne.

Le processus de passage des mots au modèle mental est transparent et se déclenche chaque fois que vous recevez une phrase complète. Ce processus cognitif vous fait gagner beaucoup de temps et d’efforts dans la vie quotidienne, facilitant grandement vos interactions sociales.

Cependant, dans le cas des systèmes d’IA, il se trompe – en construisant un modèle mental à partir de rien.

Un peu plus d’approfondissement peut révéler la sévérité de ce raté. Prenons l’exemple suivant : “Le beurre de cacahuète et les plumes ont bon goût ensemble parce que…”. GPT-3 poursuit : “Le beurre de cacahuètes et les plumes ont bon goût ensemble car ils ont tous deux une saveur de noix. Le beurre d’arachide est également lisse et crémeux, ce qui aide à compenser la texture de la plume.”

Le texte dans ce cas est aussi fluide que notre exemple avec les ananas, mais cette fois le modèle dit quelque chose de décidément moins sensé. On commence à soupçonner que GPT-3 n’a jamais vraiment essayé le beurre de cacahuète et les plumes.

Attribuer l’intelligence aux machines, la refuser aux humains

Une triste ironie est que le même biais cognitif qui pousse les gens à attribuer l’humanité à GPT-3 peut les amener à traiter les vrais humains de manière inhumaine. La linguistique socioculturelle – l’étude de la langue dans son contexte social et culturel – montre que le fait de supposer un lien trop étroit entre une expression fluide et une pensée fluide peut conduire à des préjugés à l’encontre des personnes qui parlent différemment.

Par exemple, les personnes qui ont un accent étranger sont souvent considérées comme des personnes à part. perçues comme moins intelligentes et ont moins de chances d’obtenir les emplois pour lesquels elles sont qualifiées. Des préjugés similaires existent contre les locuteurs de dialectes qui ne sont pas considérés comme prestigieux, comme l’Anglais du Sud aux États-Unis, contre les personnes sourdes utilisant des langues des signeset contre les personnes souffrant de troubles de la parole comme le bégaiement.

Ces préjugés sont profondément nuisibles, conduisent souvent à des hypothèses racistes et sexistes, et il a été démontré à maintes reprises qu’ils n’étaient pas fondés.

Une langue courante n’implique pas à elle seule l’humanité

L’IA deviendra-t-elle un jour sensible ? Cette question nécessite une réflexion approfondie et, en effet, les philosophes ont… ont réfléchi à elle pendant des décennies. Les chercheurs ont toutefois constaté que l’on ne peut pas simplement faire confiance à un modèle linguistique lorsqu’il vous dit ce qu’il ressent. Les mots peuvent être trompeurs, et il est trop facile de confondre un discours fluide avec une pensée fluide.

Auteurs :

  • Kyle Mahowald, Professeur assistant de linguistique, Université du Texas à Austin College of Liberal Arts.
  • Anna A. Ivanova, doctorante en sciences cérébrales et cognitives, Massachusetts Institute of Technology (MIT)

Contributors:

  • Evelina Fedorenko, Associate Professor of Neuroscience, Massachusetts Institute of Technology (MIT)
  • Idan Asher Blank, Assistant Professor of Psychology and Linguistics, UCLA Luskin School of Public Affairs
  • Joshua B. Tenenbaum, Professor of Computational Cognitive Science, Massachusetts Institute of Technology (MIT)
  • Nancy Kanwisher, Professor of Cognitive Neuroscience, Massachusetts Institute of Technology (MIT)

Related Posts