L’IA modifie la compréhension de l’apprentissage des langues par les scientifiques

Avatar photo

Contrairement aux dialogues soigneusement scénarisés que l’on trouve dans la plupart des livres et des films, le langage des interactions quotidiennes a tendance à être désordonné et incomplet, plein de faux départs, d’interruptions et de personnes qui se parlent les unes aux autres. Qu’il s’agisse de conversations informelles entre amis, de chamailleries entre frères et sœurs ou de discussions formelles dans une salle de réunion, la conversation authentique est chaotique. Il semble miraculeux que quiconque puisse apprendre une langue, étant donné la nature désordonnée de l’expérience linguistique.

C’est pourquoi de nombreux spécialistes des langues – dont Noam Chomsky, l’un des fondateurs de la linguistique moderne – pensent que les apprenants ont besoin d’une sorte de colle pour maîtriser la nature indisciplinée du langage quotidien. Et cette colle, c’est la grammaire : un système de règles pour générer des phrases grammaticales.

Les enfants doivent avoir un modèle grammatical câblé dans leur cerveau pour les aider à surmonter les limites de leur expérience linguistique – c’est du moins ce que l’on pense.

Ce modèle, par exemple, pourrait contenir une “super-règle” qui dicte comment ajouter de nouveaux éléments aux phrases existantes. Il suffirait alors aux enfants d’apprendre si leur langue maternelle est une langue, comme l’anglais, où le verbe précède l’objet (comme dans “I eat sushi”), ou une langue comme le japonais, où le verbe suit l’objet (en japonais, la même phrase est structurée comme “I sushi eat”).

Mais de nouvelles idées sur l’apprentissage des langues proviennent d’une source improbable : l’intelligence artificielle. Une nouvelle race de grands modèles linguistiques d’IA peut écrire des articles de journaux, de la poésie et du code informatique et répondre honnêtement à des questions après avoir été exposée à de grandes quantités de données linguistiques. Et, plus étonnant encore, ils y parviennent tous sans l’aide de la grammaire.

Une langue grammaticale sans grammaire

Même si leur choix de mots est parfois étrange, absurde ou contient des préjugés racistes, sexistes et autres préjugés nuisibles.une chose est très claire : l’écrasante majorité des résultats de ces modèles linguistiques d’IA sont grammaticalement corrects. Pourtant, ils ne disposent d’aucun modèle ou règle de grammaire – ils se fient uniquement à l’expérience linguistique, aussi désordonnée soit-elle.

GPT-3, sans doute le plus connu de ces modèles, est un gigantesque réseau neuronal à apprentissage profond comptant 175 milliards de paramètres. Il a été entraîné à prédire le prochain mot d’une phrase en fonction de ce qui l’a précédé sur des centaines de milliards de mots provenant d’Internet, de livres et de Wikipedia. Lorsqu’il faisait une prédiction erronée, ses paramètres étaient ajustés à l’aide d’un algorithme d’apprentissage automatique.

Il est remarquable que GPT-3 puisse générer des textes crédibles en répondant à des questions telles que “Un résumé du dernier film ‘Fast and Furious’ est…” ou “Écrivez un poème dans le style d’Emily Dickinson”. De plus, le GPT-3 peut répondre à des analogies de niveau SAT, à des questions de compréhension de lecture et même résoudre des problèmes arithmétiques simples, tout cela en apprenant à prédire le mot suivant.

Comparaison entre les modèles d’IA et les cerveaux humains

La similitude avec le langage humain ne s’arrête cependant pas là. Des recherches publiées dans Nature Neuroscience ont démontré que ces réseaux artificiels d’apprentissage profond semblent utiliser les mêmes principes de calcul que le cerveau humain. Le groupe de recherche, dirigé par le neuroscientifique Uri Hasson, a d’abord comparé la capacité de GPT-2 – un “petit frère” de GPT-3 – et des humains à prédire le mot suivant dans une histoire tirée du podcast “This American Life” : les humains et l’IA ont prédit exactement le même mot dans près de 50 % des cas.

Les chercheurs ont enregistré l’activité cérébrale des volontaires pendant qu’ils écoutaient l’histoire. La meilleure explication des schémas d’activation qu’ils ont observés est que le cerveau des personnes – comme le GPT-2 – ne se contentait pas d’utiliser le ou les deux mots précédents pour faire des prédictions, mais s’appuyait sur le contexte accumulé de jusqu’à 100 mots précédents. Dans l’ensemble, les auteurs concluent : “Notre découverte de signaux neuronaux prédictifs spontanés lorsque les participants écoutent un discours naturel suggère que la prédiction active pourrait sous-tendre l’apprentissage des langues par les humains tout au long de leur vie.”

Une préoccupation possible est que ces nouveaux modèles linguistiques d’IA reçoivent beaucoup d’informations : GPT-3 a été entraîné sur une expérience linguistique équivalente à 20 000 années humaines. Mais une étude préliminaire qui n’a pas encore été examinée par des pairs a révélé que GPT-2 peut toujours modéliser les prédictions du mot suivant et les activations cérébrales humaines, même lorsqu’il a été entraîné sur seulement 100 millions de mots. Cela correspond bien à la quantité d’informations linguistiques qu’un enfant moyen peut entendre au cours des dix premières années de sa vie.

Nous ne suggérons pas que GPT-3 ou GPT-2 apprennent le langage exactement comme le font les enfants. En effet, ces modèles d’IA ne semblent pas comprendre grand-chose, voire rien du tout, de ce qu’ils disent, alors que la compréhension est un élément essentiel de l’apprentissage.fondamentale de l’utilisation du langage humain. Néanmoins, ces modèles prouvent qu’un apprenant – même s’il est siliconé – peut apprendre une langue suffisamment bien à partir d’une simple exposition pour produire des phrases grammaticales parfaitement correctes, et ce d’une manière qui ressemble au traitement du cerveau humain.

Repenser l’apprentissage des langues

Pendant des années, de nombreux linguistes ont cru que l’apprentissage d’une langue était impossible sans un modèle de grammaire intégré. Les nouveaux modèles d’IA prouvent le contraire. Ils démontrent que la capacité à produire un langage grammatical peut être apprise à partir de la seule expérience linguistique. De même, nous suggérons que les enfants n’ont pas besoin d’une grammaire innée pour apprendre le langage.

“Les enfants doivent être vus, pas entendus” dit le vieil adage, mais les derniers modèles de langage de l’IA suggèrent que rien ne pourrait être plus éloigné de la vérité. Au contraire, les enfants doivent être engagés dans le va-et-vient de la conversation autant que possible pour les aider à développer leurs compétences linguistiques. L’expérience linguistique – et non la grammaire – est la clé pour devenir un utilisateur compétent de la langue.

Morten H. Christiansen, professeur de psychologie, Université Cornell et Pablo Contreras Kallens, étudiant en doctorat de psychologie, Université de Cornell

Related Posts