Les chercheurs s’interrogent : L’application de la civilité étouffe-t-elle le débat en ligne ?

In sondage après sondage, les Américains se disent profondément préoccupés par la montée de l’incivilité en ligne. Et des recherches approfondies sur les médias sociaux ont porté sur la manière de contrer l’incivilité en ligne. Mais avec Civic Signals, un projet de la National Conference on Citizenship et du Center for Media Engagement, les chercheurs ont adopté une approche différente : En partant de zéro, ils se sont demandé à quoi ressemblerait un espace numérique sain et florissant.

Ils ont rapidement réalisé qu’il ne serait pas toujours civilisé.

Le projet Civic Signals, qui a débuté il y a environ quatre ans, a d’abord consisté à effectuer une analyse documentaire approfondie et à mener des entretiens avec des experts aux États-Unis et dans quatre autres pays afin d’identifier les valeurs – ou “signaux” – que les gens souhaitent voir reflétées dans la conception des espaces en ligne. L’équipe a ensuite organisé des groupes de discussion et interrogé plus de 22 000 personnes dans 20 pays qui utilisaient fréquemment des plateformes sociales, de recherche et de messagerie. Gina Masullo, professeur à l’école de journalisme et des médias de l’université du Texas à Austin, a apporté au groupe son expertise en matière de recherche sur les incivilités. Mais “assez tôt dans le processus”, dit-elle, l’équipe a conclu que si l’un des objectifs était de soutenir un discours politique productif, la civilité seule était insuffisante.

“Ce n’est pas vraiment que nous préconisons l’incivilité”, a déclaré Masullo. “Mais si vous allez avoir des discussions passionnées sur la politique, ce que nous voulons dans une démocratie, je dirais que les gens ne vont pas toujours en parler parfaitement.” Dans son livre “Nasty Talk : Online Incivility and Public Debate”, elle souligne que le discours “parfait” peut être tellement aseptisé que nous finissons par ne rien dire.

Personne ne prétend que les entreprises de médias sociaux ne devraient pas combattre les formes de discours les plus nuisibles – menaces violentes, harcèlement ciblé, racisme, incitation à la violence. Mais les programmes d’intelligence artificielle que les entreprises utilisent pour le filtrage, formés à partir de notions de civilité floues et sans doute naïves, passent à côté de certaines des pires formes de haine. Par exemple, des recherches menées par Libby Hemphill, professeur à l’école d’information et à l’institut de recherche sociale de l’université du Michigan, ont montré comment les suprémacistes blancs échappent à la modération en revêtant un manteau de politesse superficielle.

“Nous devons comprendre plus que la simple civilité pour comprendre la propagation de la haine”, a-t-elle déclaré.

Même si les plateformes s’améliorent au jeu de la taupe de la haine, si l’objectif n’est pas seulement de faire des profits, mais aussi de créer un espace numérique pour un discours productif, elles devront réorganiser la façon dont les algorithmes donnent la priorité au contenu. Les recherches suggèrent que les entreprises encouragent les publications qui suscitent une forte émotion, en particulier la colère et l’indignation, car, comme un accident sur l’autoroute, elles attirent l’attention et, surtout, plus de regards sur les publicités payantes. Les personnes avides d’engagement ont augmenté leur jeu en conséquence, créant la toxicité qui inquiète tant les utilisateurs des médias sociaux.

Selon le projet Civic Signals, ce que les gens veulent vraiment, c’est un espace numérique où ils se sentent bienvenus, connectés, informés et habilités à agir sur les questions qui les concernent. Dans un monde de médias sociaux optimisés pour les clics, ces expériences positives se produisent presque en dépit de la conception de l’environnement, a déclaré Masullo. “Évidemment, il n’y a rien de mal à faire de l’argent pour les plateformes”, a-t-elle déclaré. “Mais peut-être que vous pouvez faire les deux, comme vous pourriez aussi faire de l’argent mais aussi bien ne pas détruire la démocratie.”

As toxique comme politique Il y a un peu plus de dix ans, de nombreux spécialistes des sciences sociales espéraient qu’en permettant aux dirigeants politiques et aux citoyens de se parler directement, les plateformes de médias sociaux naissantes amélioreraient une relation ternie par la méfiance. Ce caractère direct, dit Yannis Theocharis, professeur de gouvernance numérique à l’Université technique de Munich, “était quelque chose qui rendait les gens optimistes, comme moi, et qui leur faisait penser que c’était exactement ce qui allait rafraîchir notre compréhension de la démocratie et de la participation démocratique.”

Alors, que s’est-il passé ?

Les médias sociaux ont rapproché les politiciens et leurs électeurs dans une certaine mesure, a déclaré Theocharis, mais ils ont également donné la parole à des personnes en marge dont l’intention est de se défouler ou d’attaquer. La nature humaine étant ce qu’elle est, nous avons tendance à graviter vers le sensationnel. “Les personnes les plus bruyantes ont généralement tendance à attirer l’attention sur les médias sociaux”, a déclaré M. Theocharis. Ses recherches suggèrent que les gens réagissent plus positivement aux informations lorsqu’elles sont un peu désagréables, surtout si elles rejoignent leurs opinions politiques.

Et les politiciens ont appris à connaître les règles du jeu. Depuis 2009, les tweets des membres du Congrès américain sont de plus en plus incivils.selon une étude réalisée en avril qui a utilisé l’intelligence artificielle pour analyser 1,3 million de messages. Les résultats ont également révélé une raison plausible à cela : La méchanceté paie. Les tweets les plus grossiers et les plus irrespectueux recueillent huit fois plus de likes et dix fois plus de retweets que les tweets civils.

Dans l’ensemble, les utilisateurs des médias sociaux n’approuvent pas les messages incivils, ont constaté les chercheurs, mais les transmettent pour le plaisir. Jonathan Haidt, psychologue social à la Stern School of Business de l’université de New York, a noté que le simple choix de conception, il y a une dizaine d’années, des fonctions “J’aime” et “Partager” a changé la façon dont les gens s’échangent des informations. “Les plateformes nouvellement modifiées étaient presque parfaitement conçues pour faire ressortir nos personnalités les plus moralisatrices et les moins réfléchies”, a-t-il écrit en mai dernier dans The Atlantic. “Le volume de l’indignation a été choquant”.

Une solution à l’incivilité croissante est de gérer les plateformes comme une classe de CM2 et de forcer tout le monde à être gentil. Mais faire respecter la civilité sur la place publique numérique est une course de dupes, affirment Masullo et ses collègues de Civic Signals dans un commentaire publié dans la revue Social Media + Society en 2019. Pour commencer, l’incivilité s’avère être vraiment difficile à définir. Les spécialistes des sciences sociales utilisent des programmes d’intelligence artificielle standardisés formés par des humains pour classer les discours comme incivils en fonction de facteurs tels que les blasphèmes, les discours haineux, les ALL CAPS, les injures ou l’humiliation. Mais ces outils ne sont pas assez nuancés pour modérer le discours dans le monde réel.

Le blasphème est le moyen le plus facile de définir l’incivilité parce que vous pouvez simplement créer une recherche pour certains mots, a déclaré Masullo. Mais seul un petit pourcentage du langage potentiellement incivil contient des blasphèmes, et, a-t-elle ajouté, “un discours sexiste, homophobe ou raciste est bien pire que de lâcher une bombe F ici et là.”

De plus, les conversations animées ne sont pas nécessairement mauvaises, a déclaré Mme Masullo. “Dans une démocratie, vous voulez que les gens discutent des choses”, a-t-elle dit. “Parfois, ils vont plonger dans, peut-être, une certaine incivilité et vous ne voulez pas refroidir un débat robuste au risque de l’aseptiser.” Enfin, a-t-elle ajouté, lorsque l’on se concentre sur la civilité comme objectif final, cela tend à privilégier ceux qui ont le pouvoir de définir ce qui est “approprié”.

De plus, on peut dire que la police de la civilité ne fonctionne pas particulièrement bien. Les recherches menées par Hemphill en tant que Belfer Fellow pour l’Anti-Defamation League montrent que les algorithmes de modération passent à côté de certaines des pires formes de haine. Les discours haineux ne représentant qu’une petite partie de l’immense quantité de langage en ligne, les systèmes d’apprentissage automatique formés à partir de grands échantillons de discours généraux ne les reconnaissent généralement pas. Pour contourner ce problème, Mme Hemphill et son équipe ont entraîné des algorithmes sur des messages du site d’extrême droite Stormfront, en les comparant à des messages d’extrême droite sur Twitter et à un recueil de discussions sur Reddit.

Dans son rapport Very Fine People, Mme Hemphill détaille les résultats montrant que les plateformes négligent fréquemment les discussions sur les théories de conspiration sur le génocide blanc et les griefs malveillants contre les Juifs et les personnes de couleur. Les tenants de la suprématie blanche échappent à la modération en évitant les injures ou les attaques directes, mais utilisent un discours distinctif pour signaler leur identité aux autres d’une manière qui est évidente pour les humains, voire pour les algorithmes. Ils centrent leur blancheur en ajoutant “blanc” à de nombreux termes tels que “pouvoir” et déshumanisent les groupes raciaux et ethniques en utilisant des noms pluriels tels que Noirs, Juifs et gays.

Un audit de Facebook sur les droits civils publié en 2020 a conclu que l’entreprise ne fait pas assez pour supprimer la haine organisée. Et en octobre dernier, Frances Haughen, ancienne chef de produit de Facebook, a témoigné devant une commission du Sénat américain que l’entreprise attrape 3 à 5 % du contenu haineux.

Mais Meta, la société mère de Facebook et Instagram, n’est pas d’accord. Dans un courriel, Irma Palmer, porte-parole de Meta, a écrit : “Rien qu’au dernier trimestre, la prévalence des discours haineux était de 0,02 % sur Facebook, en baisse par rapport à 0,06-0,05 %, soit 6 à 5 vues de discours haineux pour 10 000 vues de contenu par rapport au même trimestre de l’année précédente.” Malgré tout, écrit-elle, Meta sait qu’elle fera des erreurs et continue donc à investir dans le perfectionnement de ses politiques, de leur application et des outils qu’elle met à la disposition des utilisateurs. L’entreprise teste des stratégies telles que l’octroi aux administrateurs des groupes Facebook d’une plus grande latitude pour tenir compte du contexte lorsqu’ils décident de ce qui est autorisé ou non dans leur espace.

Aautre solution au problème de la haine et du harcèlement en ligne est la réglementation. Comme je l’ai expliqué dans une chronique précédente, une poignée d’entreprises géantes à but lucratif contrôlent le monde numérique. Dans une tribune publiée dans le Los Angeles Times au sujet des efforts déployés par Elon Musk, PDG de Tesla et personne la plus riche du monde, pour acheter Twitter, Safiya Noble, professeur d’études sur le genre à l’université de Californie du Sud, a déclaré : ” Je ne suis pas d’accord.Rashad Robinson, président de l’organisation pour la justice raciale Color of Change, a souligné qu’un petit nombre de personnes contrôlent les entreprises technologiques qui affectent un nombre incalculable de vies et notre démocratie.

“Le problème n’est pas seulement que les riches ont une influence sur la place publique, c’est qu’ils peuvent dominer et contrôler une place entièrement privatisée – ils l’ont créée, ils la possèdent, ils la façonnent en fonction de la façon dont ils peuvent en tirer profit”, ont écrit Noble et Robinson. Ils plaident en faveur de réglementations comme celles des industries de la télévision et des télécommunications qui établissent des cadres pour l’équité et la responsabilité des dommages.

En l’absence de lois plus strictes, les entreprises de médias sociaux pourraient faire beaucoup plus pour créer un espace permettant aux gens de dire ce qu’ils pensent sans que cela ne dégénère en harcèlement et en haine.

Dans le rapport Very Fine People, Mme Hemphill recommande plusieurs mesures que les entreprises pourraient prendre pour réduire les discours haineux sur leurs plateformes. Premièrement, elles pourraient appliquer les règles existantes de manière cohérente et transparente. Une grande partie de la communauté des droits civils a critiqué Facebook pour ne pas avoir appliqué les politiques contre les discours de haine, en particulier les contenus visant les Afro-Américains, les Juifs et les Musulmans

Les entreprises de médias sociaux peuvent subir un choc économique et même être confrontées à des défis juridiques lorsqu’elles ne permettent pas aux extrémistes d’extrême droite de s’exprimer, reconnaît Mme Hemphill. La loi HB 20 de l’État du Texas aurait rendu presque impossible pour les sociétés de médias sociaux d’interdire les contenus toxiques et la désinformation. Mais la Cour suprême des États-Unis a récemment mis cette loi en suspens, le temps que les actions en justice contre cette législation fassent leur chemin devant les tribunaux. Si la loi texane est annulée, les plates-formes pourraient défendre avec plus de force leurs propres droits à la modération du discours.

Dans le sillage de la décision de la Cour suprême dans l’affaire Citizens United, qui a élargi les droits des entreprises à la liberté d’expression en vertu du premier amendement, les entreprises technologiques “peuvent rappeler aux gens qu’ils ont le droit de faire ce qu’ils veulent sur leurs plateformes”, a déclaré Hemphill. “Une fois qu’elles ont fait cela, elles peuvent commencer à donner la priorité à des mesures de santé sociale au lieu de seulement des globes oculaires.”

Comme Hemphill, de nombreux spécialistes des sciences sociales plaident pour que les plateformes créent un espace plus sain en ajustant les algorithmes pour désactiver les contenus potentiellement incivils. Les entreprises disposent déjà d’outils pour le faire, a déclaré Theocharis. Elles peuvent bloquer le partage d’un message identifié comme incivil ou le déclasser dans le flux des utilisateurs afin que moins de personnes le voient et le partagent. Ou, comme Twitter l’a tenté, ils peuvent inciter les utilisateurs à repenser à la publication d’un message blessant. L’équipe de Theocharis cherche à savoir si de telles interventions permettent de réduire les incivilités.

L’équipe de Civic Signals recommande aux entreprises de se concentrer sur l’optimisation des flux en fonction de la valeur du contenu pour les utilisateurs et pas seulement des clics. Si les entreprises modifiaient leurs algorithmes pour donner la priorité aux messages dits “connecteurs”, c’est-à-dire aux messages qui présentent un argument, même en utilisant un langage fort, sans attaquer directement d’autres personnes, les messages incivils seraient moins vus et, par conséquent, moins partagés et finiraient par disparaître, a déclaré M. Masullo.

En ce qui concerne le profit, M. Masullo a souligné que les gens sont mécontents de l’environnement actuel des médias sociaux. Si vous nettoyiez un parc public rempli d’ordures en décomposition et de crottes de chien, dit-elle, plus de gens l’utiliseraient.

Related Posts