Les chercheurs constatent que la confiance du public dans l’IA varie fortement en fonction de l’application.
Poussés par la proéminence croissante de l’intelligence artificielle (IA) dans la société, des chercheurs de l’Université de Tokyo ont étudié les attitudes du public envers l’éthique de l’IA. Leurs résultats quantifient la façon dont différentes données démographiques et scénarios éthiques affectent ces attitudes. Dans le cadre de cette étude, l’équipe a mis au point une métrique visuelle octogonale, analogue à un système de notation, qui pourrait être utile aux chercheurs en IA qui souhaitent savoir comment leur travail peut être perçu par le public.
Nombreux sont ceux qui pensent que le développement rapide de la technologie dépasse souvent celui des structures sociales qui la guident et la régulent implicitement, comme la loi ou l’éthique. L’IA, en particulier, en est un exemple, car elle est devenue omniprésente dans la vie quotidienne de tant de personnes, apparemment du jour au lendemain. Cette prolifération, associée à la complexité relative de l’IA par rapport à des technologies plus familières, peut susciter la peur et la méfiance à l’égard de cet élément clé de la vie moderne. Il serait utile de savoir qui se méfie de l’IA et de quelle manière pour les développeurs et les régulateurs de la technologie de l’IA, mais ce genre de questions n’est pas facile à quantifier.
Des chercheurs de l’Université de Tokyo, dirigés par le professeur Hiromi Yokoyama de l’Institut Kavli pour la physique et les mathématiques de l’univers, ont entrepris de quantifier les attitudes du public à l’égard des questions éthiques liées à l’IA. L’équipe a cherché à répondre à deux questions en particulier, par l’analyse d’enquêtes : comment les attitudes changent-elles en fonction du scénario présenté à un répondant, et comment la démographie du répondant lui-même change-t-elle les attitudes ?
L’éthique ne peut pas vraiment être quantifiée, donc pour mesurer les attitudes envers l’éthique de l’IA, l’équipe a utilisé huit thèmes communs à de nombreuses applications de l’IA qui soulèvent des questions éthiques : la vie privée, la responsabilité, la sûreté et la sécurité, la transparence et l’explicabilité, l’équité et la non-discrimination, le contrôle humain de la technologie, la responsabilité professionnelle et la promotion des valeurs humaines. Ces mesures, que le groupe a baptisées “mesures octogonales”, ont été inspirées par un article publié en 2020 par Jessica Fjeld, chercheuse à l’université de Harvard, et son équipe.
Les répondants à l’enquête ont reçu une série de quatre scénarios à juger en fonction de ces huit critères. Chaque scénario portait sur une application différente de l’IA. Il s’agissait de : L’art généré par l’IA, l’IA de service à la clientèle, les armes autonomes et la prédiction de crimes.
Les personnes interrogées ont également fourni aux chercheurs des informations les concernant, telles que leur âge, leur sexe, leur profession et leur niveau d’éducation, ainsi qu’une mesure de leur niveau d’intérêt pour la science et la technologie au moyen d’une série de questions supplémentaires. Ces informations étaient essentielles pour que les chercheurs puissent voir quelles caractéristiques des personnes correspondraient à certaines attitudes.
“Des études antérieures ont montré que le risque est perçu plus négativement par les femmes, les personnes âgées et celles qui ont plus de connaissances en la matière. Je m’attendais à voir quelque chose de différent dans cette enquête étant donné la banalisation de l’IA, mais étonnamment, nous avons vu des tendances similaires ici”, a déclaré Yokoyama. “Quelque chose que nous avons vu qui était attendu, cependant, c’est la façon dont les différents scénarios ont été perçus, l’idée d’armes d’IA étant accueillie avec beaucoup plus de scepticisme que les trois autres scénarios.”
L’équipe espère que les résultats pourraient conduire à la création d’une sorte d’échelle universelle pour mesurer et comparer les questions éthiques autour de l’IA. Cette enquête était limitée au Japon, mais l’équipe a déjà commencé à recueillir des données dans plusieurs autres pays.
“Avec une échelle universelle, les chercheurs, les développeurs et les régulateurs pourraient mieux mesurer l’acceptation d’applications ou d’impacts spécifiques de l’IA et agir en conséquence”, a déclaré le professeur adjoint Tilman Hartwig. “Une chose que j’ai découverte en développant les scénarios et le questionnaire est que de nombreux sujets au sein de l’IA nécessitent des explications importantes, plus que nous ne le pensions. Cela montre qu’il y a un énorme fossé entre la perception et la réalité en matière d’IA.”
Référence : “Octagon measurement : public attitudes toward AI ethics” par Yuko Ikkataia, Tilman Hartwig, Naohiro Takanashi et Hiromi M Yokoyama, 10 janvier 2022, International Journal of Human-Computer Interaction.