Un nouveau système d’apprentissage automatique confère aux robots des compétences sociales

Avatar photo
Un nouveau système d'apprentissage automatique confère aux robots des compétences sociales

Travail d'équipe de robots industriels

Un nouveau système d’apprentissage automatique aide les robots à comprendre et à effectuer certaines interactions sociales.

Les robots peuvent livrer de la nourriture sur un campus universitaire et frapper un trou d’un coup sur un terrain de golf, mais même le robot le plus sophistiqué ne peut pas effectuer les interactions sociales de base qui sont essentielles à la vie humaine quotidienne.

AVEC les chercheurs ont maintenant intégré certaines interactions sociales dans un cadre pour la robotique, permettant aux machines de comprendre ce que signifie s’entraider ou s’entraver, et d’apprendre à exécuter ces comportements sociaux par elles-mêmes. Dans un environnement simulé, un robot surveille son compagnon, devine quelle tâche il veut accomplir, puis aide ou entrave cet autre robot en fonction de ses propres objectifs.

Les chercheurs ont également montré que leur modèle crée des interactions sociales réalistes et prévisibles. Lorsqu’ils ont montré des vidéos de ces robots simulés interagissant les uns avec les autres aux humains, les téléspectateurs humains étaient pour la plupart d’accord avec le modèle sur le type de comportement social qui se produisait.

Cadre d'interaction sociale pour la robotique

Les chercheurs du MIT ont intégré les interactions sociales dans un cadre pour la robotique, permettant aux machines simulées de comprendre ce que signifie s’entraider ou s’entraver, et d’apprendre à exécuter ces comportements sociaux par elles-mêmes. Crédit : MIT

Permettre aux robots de faire preuve de compétences sociales pourrait conduire à des interactions homme-robot plus fluides et plus positives. Par exemple, un robot dans une résidence-services pourrait utiliser ces capacités pour aider à créer un environnement plus attentionné pour les personnes âgées. Le nouveau modèle pourrait également permettre aux scientifiques de mesurer quantitativement les interactions sociales, ce qui pourrait aider les psychologues à étudier l’autisme ou à analyser les effets des antidépresseurs.

« Les robots vivront bien assez tôt dans notre monde, et ils ont vraiment besoin d’apprendre à communiquer avec nous en termes humains. Ils doivent comprendre quand il est temps pour eux d’aider et quand il est temps pour eux de voir ce qu’ils peuvent faire pour empêcher que quelque chose ne se produise. Il s’agit d’un travail très précoce et nous effleurons à peine la surface, mais j’ai l’impression que c’est la première tentative très sérieuse pour comprendre ce que signifie pour les humains et les machines d’interagir socialement », a déclaré Boris Katz, chercheur principal et directeur de l’InfoLab. Groupe du Laboratoire d’informatique et d’intelligence artificielle du MIT (CSAIL) et membre du Center for Brains, Minds, and Machines (CBMM).

Rejoindre Katz sur le papier sont co-auteur principal Ravi Tejwani, assistant de recherche au CSAIL; co-auteur principal Yen-Ling Kuo, doctorant CSAIL ; Tianmin Shu, post-doctorant au Département des sciences du cerveau et de la cognition ; et l’auteur principal Andrei Barbu, chercheur scientifique au CSAIL et au CBMM. La recherche sera présentée à la Conférence sur l’apprentissage robotique en novembre.

Une simulation sociale

Pour étudier les interactions sociales, les chercheurs ont créé un environnement simulé dans lequel les robots poursuivent des objectifs physiques et sociaux en se déplaçant autour d’une grille à deux dimensions.

Un objectif physique est lié à l’environnement. Par exemple, l’objectif physique d’un robot peut être de naviguer vers un arbre à un certain point de la grille. Un objectif social consiste à deviner ce qu’un autre robot essaie de faire, puis à agir en fonction de cette estimation, comme aider un autre robot à arroser l’arbre.

Les chercheurs utilisent leur modèle pour spécifier les objectifs physiques d’un robot, ses objectifs sociaux et l’importance qu’il doit accorder à l’un par rapport à l’autre. Le robot est récompensé pour les actions qu’il entreprend qui le rapprochent de ses objectifs. Si un robot essaie d’aider son compagnon, il ajuste sa récompense pour qu’elle corresponde à celle de l’autre robot ; s’il essaie d’entraver, il ajuste sa récompense pour être le contraire. Le planificateur, un algorithme qui décide des actions que le robot doit entreprendre, utilise cette récompense constamment mise à jour pour guider le robot dans la réalisation d’un mélange d’objectifs physiques et sociaux.

« Nous avons ouvert un nouveau cadre mathématique pour la façon dont vous modélisez l’interaction sociale entre deux agents. Si vous êtes un robot et que vous voulez vous rendre à l’emplacement X, que je suis un autre robot et que je vois que vous essayez d’aller à l’emplacement X, je peux coopérer en vous aidant à vous rendre plus rapidement à l’emplacement X. Cela pourrait signifier rapprocher X de vous, trouver un autre X meilleur ou prendre toute mesure que vous deviez prendre à X. Notre formulation permet au plan de découvrir le « comment » ; nous spécifions le « quoi » en termes de ce que les interactions sociales signifient mathématiquement », explique Tejwani.

Mélanger les objectifs physiques et sociaux d’un robot est important pour créer des interactions réalistes, car les humains qui s’entraident ont des limites quant à la distance qu’ils peuvent parcourir. Par exemple, une personne rationnelle ne donnerait probablement pas son portefeuille à un étranger, dit Barbu.

Les chercheurs ont utilisé ce cadre mathématique pour définir trois types de robots. Un robot de niveau 0 n’a que des objectifs physiques et ne peut pas raisonner socialement. Un robot de niveau 1 a des objectifs physiques et sociaux, mais suppose que tous les autres robots n’ont que des objectifs physiques. Les robots de niveau 1 peuvent prendre des mesures en fonction des objectifs physiques d’autres robots, comme aider et gêner. Un robot de niveau 2 suppose que les autres robots ont des objectifs sociaux et physiques ; ces robots peuvent prendre des mesures plus sophistiquées comme se joindre pour aider ensemble.

Évaluation du modèle

Pour voir comment leur modèle se compare aux perspectives humaines sur les interactions sociales, ils ont créé 98 scénarios différents avec des robots aux niveaux 0, 1 et 2. Douze humains ont regardé 196 clips vidéo des robots en interaction, puis ont été invités à estimer les objectifs de ces robots.

Dans la plupart des cas, leur modèle était en accord avec ce que les humains pensaient des interactions sociales qui se produisaient dans chaque cadre.

«Nous avons cet intérêt à long terme, à la fois pour construire des modèles informatiques pour les robots, mais aussi pour approfondir les aspects humains de cela. Nous voulons découvrir quelles fonctionnalités de ces vidéos les humains utilisent pour comprendre les interactions sociales. Pouvons-nous faire un test objectif de votre capacité à reconnaître les interactions sociales ? Il existe peut-être un moyen d’apprendre aux gens à reconnaître ces interactions sociales et à améliorer leurs capacités. Nous en sommes loin, mais le simple fait de pouvoir mesurer efficacement les interactions sociales est un grand pas en avant », déclare Barbu.

Vers plus de sophistication

Les chercheurs travaillent au développement d’un système avec des agents 3D dans un environnement qui permet beaucoup plus de types d’interactions, comme la manipulation d’objets ménagers. Ils prévoient également de modifier leur modèle pour inclure des environnements où les actions peuvent échouer.

Les chercheurs souhaitent également incorporer un planificateur de robot basé sur un réseau neuronal dans le modèle, qui apprend de l’expérience et fonctionne plus rapidement. Enfin, ils espèrent mener une expérience pour collecter des données sur les fonctionnalités utilisées par les humains pour déterminer si deux robots s’engagent dans une interaction sociale.

“J’espère que nous aurons une référence qui permettra à tous les chercheurs de travailler sur ces interactions sociales et d’inspirer les types de progrès scientifiques et techniques que nous avons vus dans d’autres domaines tels que la reconnaissance d’objets et d’actions”, a déclaré Barbu.

“Je pense que c’est une belle application du raisonnement structuré à un défi complexe mais urgent”, déclare Tomer Ullman, professeur adjoint au département de psychologie de l’Université Harvard et chef du laboratoire de calcul, de cognition et de développement, qui n’était pas impliqué dans cette recherche. « Même les jeunes nourrissons semblent comprendre les interactions sociales comme aider et entraver, mais nous n’avons pas encore de machines capables d’effectuer ce raisonnement avec une flexibilité comparable à celle d’un être humain. Je crois que des modèles comme ceux proposés dans ce travail, qui font réfléchir les agents aux récompenses des autres et planifient socialement la meilleure façon de les contrecarrer ou de les soutenir, sont un bon pas dans la bonne direction.

Référence : « Interactions sociales en tant que MDP récursifs » par Ravi Tejwani, Yen-Ling Kuo, Tianmin Shu, Boris Katz et Andrei Barbu.
PDF

Cette recherche a été soutenue par le Center for Brains, Minds, and Machines; la Fondation nationale des sciences ; l’Initiative des systèmes qui apprennent du MIT CSAIL ; le MIT-IBM Watson AI Lab ; les DARPA Programme d’intelligence sociale artificielle pour des équipes performantes ; le laboratoire de recherche de l’US Air Force ; l’accélérateur d’intelligence artificielle de l’US Air Force ; et le Bureau de la recherche navale.

Related Posts