Meta fait marche arrière pour retirer les fausses informations sur Covid des plateformes

Avatar photo

Meta a fait un pas mardi vers l’abandon de sa politique de suppression des informations erronées sur Covid de ses plateformes.

La société, qui possède Facebook et Instagram, demande à son conseil de surveillance un avis consultatif sur la question de savoir si les mesures prises pour écraser les fausses informations dangereuses sur Covid-19 doivent être maintenues ou modifiées.

Dans une publication en ligne, le président de Meta pour les affaires mondiales, Nick Clegg, a expliqué que les politiques de l’entreprise en matière d’informations nuisibles ont été élargies au début de la pandémie en 2020 pour supprimer des catégories entières de fausses allégations à l’échelle mondiale. Avant cette date, le contenu était retiré des plateformes de Meta uniquement s’il contribuait à un risque de dommage physique imminent.

“En conséquence, écrit Clegg, Meta a supprimé les fausses informations de type Covid-19 à une échelle sans précédent. Au niveau mondial, plus de 25 millions de contenus ont été supprimés depuis le début de la pandémie. “

Cependant, Meta suggère qu’il est peut-être temps de changer sa politique de désinformation sur le Covid.

“Nous demandons un avis consultatif au Conseil de surveillance pour savoir si les mesures actuelles de Meta pour traiter la désinformation sur Covid-19 dans le cadre de notre politique de désinformation préjudiciable à la santé continuent d’être appropriées, ou si nous devrions traiter cette désinformation par d’autres moyens, comme l’étiquetage ou la rétrogradation, soit directement, soit par le biais de notre programme de vérification des faits par une tierce partie”, a noté Clegg.

Fading Emergency

Les politiques de désinformation de Meta’s Covid ont été adoptées pendant un état d’urgence qui exigeait des mesures drastiques, a expliqué Will Duffield, un analyste politique de l’Institut Cato, un groupe de réflexion de Washington, D.C. dont le vice-président, John Samples, fait partie de l’Oversight Board. “Aujourd’hui, trois ans plus tard, le sentiment d’urgence s’est estompé”, a-t-il déclaré à TechNewsWorld.

“Il y a beaucoup plus d’informations sur la santé qui circulent”, a-t-il ajouté. “Si les gens croient des choses ridicules sur les vaccins ou l’efficacité de certains remèdes, c’est davantage de leur faute maintenant et moins le résultat d’un environnement d’informations confuses où les gens ne savent pas encore ce qui est vrai.”

“C’était une étape sans précédent de confier la politique aux organisations mondiales de la santé et aux autorités sanitaires locales”, a-t-il ajouté. “À un moment donné, il a fallu récupérer une partie de ces fonds. On ne peut pas avoir un état d’urgence qui dure éternellement, donc c’est une tentative de commencer à dénouer le processus.”

Répercussions mondiales

Le processus de dénouement commence-t-il trop tôt ?

“Dans le monde développé, les vaccinations sont presque universelles. Par conséquent, si le nombre de cas reste élevé, le nombre de maladies graves et de décès est assez faible”, note Dan Kennedy, professeur de journalisme à la Northeastern University de Boston.

“Mais dans le reste du monde, où il y a des pays où Facebook est plus important qu’aux États-Unis, l’urgence est loin d’être terminée”, a-t-il déclaré à TechNewsWorld.

“Si de nombreux pays prennent des mesures pour revenir à une vie plus normale, cela ne signifie pas que la pandémie est terminée”, a ajouté Beth Hoffman, chercheuse postdoctorale au département des sciences du comportement et de la santé communautaire de l’école de santé publique de l’Université de Pittsburgh.

“La suppression de la politique actuelle risque de nuire particulièrement aux régions du monde où les taux de vaccination sont plus faibles et où les ressources sont moins importantes pour répondre à une augmentation des cas ou à de nouvelles variantes”, a-t-elle déclaré à TechNewsWorld.

Clegg a reconnu les ramifications mondiales de tout changement de politique que Meta pourrait faire. “Il est important que toute politique mise en œuvre par Meta soit adaptée à l’ensemble des circonstances dans lesquelles se trouvent les pays”, a-t-il écrit.

Une ligne dans le sable

Meta veut tracer une ligne dans le sable, a maintenu Karen Kovacs North, directrice du programme Annenberg sur les communautés en ligne à l’Université de Californie du Sud. “Leur point de vue est qu’il n’y a pas de danger physique imminent de la même manière qu’il y en avait au début de la pandémie”, a-t-elle déclaré à TechNewsWorld.

“Ils ne veulent pas créer un précédent en prenant des mesures strictes s’il n’y a pas de danger physique imminent”, a-t-elle ajouté.

Clegg a noté dans son message que Meta est fondamentalement engagé dans la liberté d’expression et croit que ses applications sont un moyen important pour les gens de faire entendre leur voix.

“Mais résoudre les tensions inhérentes entre la liberté d’expression et la sécurité n’est pas facile, surtout lorsqu’on est confronté à des défis sans précédent et qui évoluent rapidement, comme ce fut le cas pour la pandémie “, a-t-il poursuivi.

“C’est pourquoi nousde demander l’avis du Conseil de surveillance dans cette affaire”, a-t-il écrit. “Ses conseils nous aideront également à répondre aux futures urgences de santé publique.”

Meta dit vouloir équilibrer la liberté d’expression et la diffusion de fausses informations, il est donc logique qu’elle revoie sa politique Covid, a affirmé Mike Horning, professeur associé de journalisme multimédia à l’Université Virginia Tech.

“Bien qu’ils semblent rester préoccupés par la désinformation, il est également bon de voir qu’ils se soucient de la façon dont la politique pourrait avoir un impact sur la liberté d’expression”, a-t-il déclaré à TechNewsWorld.

La suppression de contenu suscite des réactions négatives

Le fait de retirer les fausses informations de Covid pourrait améliorer l’image de Meta auprès de certains de ses utilisateurs, a noté Horning. “La politique de suppression peut être efficace pour ralentir la propagation de la désinformation, mais elle peut aussi créer de nouveaux problèmes “, a-t-il déclaré.

“Lorsque des personnes voient leurs posts supprimés, les personnes plus conspirationnistes y voient la confirmation que Meta essaie de supprimer certaines informations”, a-t-il poursuivi. “Ainsi, si le retrait du contenu peut limiter le nombre de personnes qui voient des informations erronées, cela conduit également certains à considérer l’entreprise comme injuste ou partiale.”

L’efficacité du retrait des fausses informations sur Covid pourrait également être en train de dépasser sa date d’expiration. “Une étude a révélé que lorsque les contrôles de désinformation de Covid ont été mis en œuvre pour la première fois, la distribution de fausses informations a été réduite de 30%”, a déclaré Duffield.

“Au fil du temps, les colporteurs de désinformation se sont mis à parler d’autres théories du complot ou ont trouvé des moyens codés de parler de Covid et du scepticisme de Covid”, a-t-il poursuivi. “Donc au départ, cela a eu un impact, mais cet impact s’est estompé avec le temps”.

North a noté que certaines méthodes de contrôle de la désinformation peuvent sembler faibles mais peuvent être plus efficaces que la suppression du contenu. “Le retrait du contenu peut ressembler au jeu de la taupe. Le contenu est supprimé alors les gens essaient de le poster d’une manière différente pour tromper l’algorithme”, a-t-elle expliqué.

“Lorsque vous le désindexez ou réduisez son exposition, poursuit-elle, il est beaucoup plus difficile pour un posteur de savoir combien d’exposition il reçoit, ce qui peut être très efficace.”

Profiter de la désinformation

Alors que Meta déclare que les motifs les plus nobles pour changer sa politique de désinformation Covid, il pourrait y avoir des préoccupations de fond qui influencent le mouvement, aussi.

“La modération du contenu est un fardeau pour ces entreprises”, a observé Vincent Raynauld, professeur adjoint au département des études de communication de l’Emerson College à Boston.

“Chaque fois que vous retirez du contenu de votre plateforme, il y a un coût associé à cela”, a-t-il déclaré à TechNewsWorld. “Lorsque vous laissez le contenu en place, vous êtes susceptible d’obtenir plus de création de contenu et d’engagement avec ce contenu.”

“Il y a beaucoup d’études qui montrent que la désinformation a tendance à générer beaucoup d’engagement, et pour ces entreprises, l’engagement des utilisateurs est de l’argent”, a-t-il dit.

Related Posts