Fonctionne bien avec les robots ? La façon dont les robots/IA et les humains interagissent

Avatar photo
Human Robot Interaction Cooperation

Coopération d'interaction homme-robot

La faute à HAL 9000, aux interruptions gaies constantes de Clippy ou à tout système de navigation conduisant les chauffeurs-livreurs vers des destinations sans issue. Dans l’espace de travail, les humains et les robots ne s’entendent pas toujours.

Mais comme de plus en plus de systèmes d’intelligence artificielle et de robots aident les travailleurs humains, il est essentiel de renforcer la confiance entre eux pour faire le travail. Un professeur de l’Université de Géorgie cherche à combler ce fossé avec l’aide de l’armée américaine.

Aaron Schecter, professeur adjoint au département des systèmes d’information de gestion du Terry College, a reçu deux subventions – d’une valeur de près de 2 millions de dollars – de l’armée américaine pour étudier l’interaction entre les équipes humaines et robotiques. Alors que l’IA à la maison peut aider à commander des courses, l’IA sur le champ de bataille offre un ensemble de circonstances beaucoup plus risquées – la cohésion et la confiance d’équipe peuvent être une question de vie ou de mort.

« Mes recherches portent moins sur la conception et les éléments du fonctionnement du robot ; c’est plus le côté psychologique. Quand sommes-nous susceptibles de faire confiance à quelque chose ? Quels sont les mécanismes qui induisent la confiance ? Comment les faire coopérer ? Si le robot se trompe, pouvez-vous le pardonner ? » – Aaron Schecter

“Sur le terrain pour l’armée, ils veulent avoir un robot ou une IA non contrôlé par un humain qui exécute une fonction qui déchargera une partie du fardeau des humains”, a déclaré Schecter. “Il y a évidemment un désir que les gens ne réagissent pas mal à cela.”

Alors que les visions de robots militaires peuvent plonger dans le territoire de “Terminator”, Schecter a expliqué que la plupart des robots et des systèmes en développement sont destinés à transférer de lourdes charges ou à fournir un repérage avancé – une plate-forme de marche transportant des munitions et de l’eau, afin que les soldats ne soient pas chargés de 80 livres de équipement.

“Ou imaginez un drone qui n’est pas télécommandé”, a-t-il déclaré. “Il vole au-dessus de vous comme un oiseau de compagnie, surveille devant vous et fournit des commentaires vocaux du type” Je recommande de prendre cette route. “”

Mais ces robots ne sont dignes de confiance que s’ils ne se font pas tirer dessus ou ne les mettent pas en danger.

“Nous ne voulons pas que les gens détestent le robot, lui en veulent ou l’ignorent”, a déclaré Schecter. «Vous devez être prêt à lui faire confiance dans des situations de vie ou de mort pour qu’ils soient efficaces. Alors, comment faire en sorte que les gens fassent confiance aux robots ? Comment amener les gens à faire confiance à l’IA ? »

Rick Watson, professeur Regents et chaire distinguée J. Rex Fuqua pour la stratégie Internet, est le co-auteur de Schecter sur certaines recherches d’équipes d’IA. Il pense qu’étudier comment les machines et les humains travaillent ensemble sera plus important à mesure que l’IA se développera plus complètement.

Comprendre les limites

“Je pense que nous allons voir beaucoup de nouvelles applications pour l’IA, et nous devrons savoir quand cela fonctionnera bien”, a déclaré Watson. «Nous pouvons éviter les situations où cela représente un danger pour l’homme ou où il devient difficile de justifier une décision car nous ne savons pas comment un système d’IA l’a suggéré là où c’est une boîte noire. Nous devons comprendre ses limites.

Comprendre quand les systèmes d’IA et les robots fonctionnent bien a conduit Schecter à prendre ce qu’il sait sur les équipes humaines et à l’appliquer à la dynamique d’équipe homme-robot.

« Mes recherches portent moins sur la conception et les éléments du fonctionnement du robot ; c’est plus le côté psychologique de celui-ci », a déclaré Schecter. « Quand sommes-nous susceptibles de faire confiance à quelque chose ? Quels sont les mécanismes qui induisent la confiance ? Comment les faire coopérer ? Si le robot se trompe, pouvez-vous le pardonner ? »

Schecter a d’abord recueilli des informations sur le moment où les gens sont plus susceptibles de suivre les conseils d’un robot. Ensuite, dans un ensemble de projets financés par l’Army Research Office, il a analysé comment les humains prenaient les conseils des machines et les comparait aux conseils d’autres personnes.

S’appuyer sur des algorithmes

Dans un projet, l’équipe de Schecter a présenté aux sujets de test une tâche de planification, comme tracer l’itinéraire le plus court entre deux points sur une carte. Il a découvert que les gens étaient plus susceptibles de faire confiance aux conseils d’un algorithme qu’à ceux d’un autre humain. Dans un autre, son équipe a trouvé des preuves que les humains pouvaient s’appuyer sur des algorithmes pour d’autres tâches, comme l’association de mots ou le brainstorming.

« Nous examinons comment un algorithme ou une IA peut influencer la prise de décision d’un humain », a-t-il déclaré. « Nous testons un tas de différents types de tâches et découvrons quand les gens se fient le plus aux algorithmes. … Nous n’avons rien trouvé de trop surprenant. Lorsque les gens font quelque chose de plus analytique, ils font davantage confiance à un ordinateur. Fait intéressant, ce modèle pourrait s’étendre à d’autres activités.

Dans une autre étude axée sur la façon dont les robots et les humains interagissent, l’équipe de Schecter a présenté plus de 300 sujets à VERO, un faux assistant d’IA prenant la forme d’un ressort anthropomorphe. « Si vous vous souvenez de Clippy (robot d’aide animé Microsoft), c’est comme Clippy sous stéroïdes », dit-il.

Au cours des expériences sur Zoom, des équipes de trois personnes ont effectué des tâches de consolidation d’équipe telles que trouver le nombre maximal d’utilisations pour un trombone ou répertorier les éléments nécessaires à la survie sur une île déserte. Puis VERO s’est présenté.

A la recherche d’une bonne collaboration

“C’est cet avatar flottant de haut en bas – il avait des bobines qui ressemblaient à un ressort et s’étiraient et se contractaient quand il voulait parler”, a déclaré Schecter. « Cela dit : « Bonjour, je m’appelle VERO. Je peux vous aider avec une variété de choses différentes. J’ai des capacités naturelles de traitement de la voix.’”

Mais c’était un assistant de recherche avec un modulateur vocal actionnant VERO. Parfois, VERO proposait des suggestions utiles, comme différentes utilisations du trombone ; d’autres fois, il jouait le rôle de modérateur, intervenant avec un « beau travail, les gars ! » ou encourager des coéquipiers plus sobres à apporter des idées.

“Les gens détestaient vraiment cette condition”, a déclaré Schecter, notant que moins de 10% des participants ont compris la ruse. “Ils étaient comme, ‘Stupid VERO!’ Ils étaient si méchants avec ça.

Le but de Schecter n’était pas seulement de tourmenter les sujets. Les chercheurs ont enregistré chaque conversation, expression faciale, geste et réponse à l’enquête sur l’expérience pour rechercher “des modèles qui nous disent comment faire une bonne collaboration”, a-t-il déclaré.

Un premier article sur les équipes humaines et humaines d’IA a été publié dans Nature’s Rapports scientifiques en avril, mais Schecter en a plusieurs autres à l’étude et en préparation pour l’année à venir.

Référence : « Les humains comptent davantage sur les algorithmes que sur l’influence sociale car une tâche devient plus difficile » par Eric Bogert, Aaron Schecter et Richard T. Watson, 13 avril 2021, Rapports scientifiques.
DOI : 10.1038 / s41598-021-87480-9

Related Posts