6 façons dont l’IA peut rendre les campagnes politiques plus trompeuses que jamais

Les publicités des campagnes politiques et les sollicitations des donateurs ont longtemps été trompeuses. En 2004, par exemple, le candidat présidentiel américain John Kerry, un démocrate, a diffusé une annonce déclarant que l’opposant républicain George W. Bush “affirme que l’envoi d’emplois à l’étranger” a du sens “pour l’Amérique”.

Bush n’a jamais dit une chose pareille.

Le lendemain, Bush a répondu en publiant une annonce disant que Kerry “a soutenu des taxes plus élevées plus de 350 fois”. C’était aussi une fausse déclaration.

Ces jours-ci, Internet s’est déchaîné avec des publicités politiques trompeuses. Les publicités se présentent souvent comme des sondages et ont des titres trompeurs sur les pièges à clics.

Les sollicitations de collecte de fonds pour la campagne sont également en proie à la tromperie. Une analyse de 317 366 e-mails politiques envoyés lors des élections de 2020 aux États-Unis a révélé que la tromperie était la norme. Par exemple, une campagne manipule les destinataires pour qu’ils ouvrent les e-mails en mentant sur l’identité de l’expéditeur et en utilisant des lignes d’objet qui font croire au destinataire que l’expéditeur répond au donateur, ou prétend que l’e-mail ne “demande PAS d’argent” mais demande ensuite de l’argent. Les républicains et les démocrates le font.

Les campagnes adoptent désormais rapidement l’intelligence artificielle pour composer et produire des publicités et des sollicitations de donateurs. Les résultats sont impressionnants : les campagnes démocratiques ont révélé que les lettres de donateurs écrites par l’IA étaient plus efficaces que les lettres écrites par des humains pour écrire un texte personnalisé qui persuade les destinataires de cliquer et d’envoyer des dons.

https://www.youtube.com/watch?v=LKQiTpiPN7I

Un super PAC pro-Ron DeSantis présentait une imitation générée par l’IA de la voix de Donald Trump dans cette publicité.

Et l’IA a des avantages pour la démocratie, comme aider les membres du personnel à organiser leurs e-mails des électeurs ou aider les responsables gouvernementaux à résumer les témoignages.

Mais on craint que l’IA ne rende la politique plus trompeuse que jamais.

Voici six choses à surveiller. Je base cette liste sur mes propres expériences testant les effets de la tromperie politique. J’espère que les électeurs pourront savoir à quoi s’attendre et à quoi faire attention, et apprendre à être plus sceptiques, alors que les États-Unis se dirigent vers la prochaine campagne présidentielle.

De fausses promesses de campagne personnalisées

Mes recherches sur l’élection présidentielle de 2020 ont révélé que le choix des électeurs entre Biden et Trump était motivé par leur perception du candidat “proposant des solutions réalistes aux problèmes” et “disant à haute voix ce que je pense”, sur la base de 75 éléments d’une enquête. Ce sont deux des qualités les plus importantes qu’un candidat doit avoir pour projeter une image présidentielle et gagner.

Les chatbots d’IA, tels que ChatGPT d’OpenAI, Bing Chat de Microsoft et Bard de Google, pourraient être utilisés par les politiciens pour générer des promesses de campagne personnalisées en ciblant de manière trompeuse les électeurs et les donateurs.

Actuellement, lorsque les gens parcourent les fils d’actualités, les articles sont enregistrés dans l’historique de leur ordinateur, qui sont suivis par des sites tels que Facebook. L’utilisateur est étiqueté comme libéral ou conservateur, et également étiqueté comme ayant certains intérêts. Les campagnes politiques peuvent placer un spot publicitaire en temps réel sur le flux de la personne avec un titre personnalisé.

Les campagnes peuvent utiliser l’IA pour développer un référentiel d’articles écrits dans différents styles faisant différentes promesses de campagne. Les campagnes pourraient alors intégrer un algorithme d’IA dans le processus – grâce à des commandes automatisées déjà branchées par la campagne – pour générer de fausses promesses de campagne sur mesure à la fin de l’annonce se faisant passer pour un article de presse ou une sollicitation de donateurs.

ChatGPT, par exemple, pourrait hypothétiquement être invité à ajouter du matériel basé sur le texte des derniers articles que l’électeur lisait en ligne. L’électeur fait ensuite défiler vers le bas et lit le candidat promettant exactement ce que l’électeur veut voir, mot pour mot, sur un ton adapté. Mes expériences ont montré que si un candidat à la présidence peut aligner le ton des choix de mots sur les préférences d’un électeur, le politicien semblera plus présidentiel et crédible.

Exploiter la tendance à se croire

Les humains ont tendance à croire automatiquement ce qu’on leur dit. Ils ont ce que les érudits appellent une « vérité par défaut ». Ils sont même la proie de mensonges apparemment invraisemblables.

Dans mes expériences, j’ai découvert que les personnes exposées aux messages trompeurs d’un candidat à la présidentielle croient les fausses déclarations. Étant donné que le texte produit par ChatGPT peut modifier les attitudes et les opinions des gens, il serait relativement facile pour l’IA d’exploiter la vérité par défaut des électeurs lorsque les bots repoussent les limites de la crédulité avec des affirmations encore plus invraisemblables que les humains ne le feraient.

Plus de mensonges, moins de responsabilité

Les chatbots tels que ChatGPT sont enclins à inventer des choses factuellement inexactes ou totalement absurdes. L’IA peut produire des informations trompeuses, fournir de fausses déclarations et des publicités trompeuses. Alors que l’agent de campagne humain le moins scrupuleux peut encore avoir un minimum de responsabilité, l’IA n’en a aucune. Et OpenAI reconnaît les failles de ChatGPT qui l’amènent à fournir des informations biaisées, de la désinformation et de fausses informations pures et simples.

Si les campagnes diffusent des messages d’IA sans aucun filtre humain ni boussole morale, les mensonges pourraient s’aggraver et devenir incontrôlables.

Amener les électeurs à tromper leur candidat

Un chroniqueur du New York Times a longuement discuté avec le chatbot Bing de Microsoft. Finalement, le bot a essayé de le faire quitter sa femme. “Sydney” a dit à plusieurs reprises au journaliste “Je suis amoureux de toi” et “Tu es marié, mais tu n’aimes pas ton conjoint… tu m’aimes. … En fait, tu veux être avec moi.”

Imaginez des millions de rencontres de ce genre, mais avec un bot essayant d’inciter les électeurs à quitter leur candidat pour un autre.

Les chatbots IA peuvent présenter des préjugés partisans. Par exemple, ils ont actuellement tendance à biaiser politiquement beaucoup plus à gauche – ayant des préjugés libéraux, exprimant un soutien à 99% pour Biden – avec beaucoup moins de diversité d’opinions que la population générale.

En 2024, les républicains et les démocrates auront la possibilité d’affiner les modèles qui injectent des préjugés politiques et même de discuter avec les électeurs pour les influencer.

Manipuler les photos des candidats

L’IA peut modifier les images. Les vidéos et images dites “deepfake” sont courantes en politique, et elles sont extrêmement avancées. Donald Trump a utilisé l’IA pour créer une fausse photo de lui-même à genoux, en train de prier.

Les photos peuvent être adaptées plus précisément pour influencer plus subtilement les électeurs. Dans mes recherches, j’ai découvert que l’apparence d’un communicateur peut être aussi influente – et trompeuse – que ce que quelqu’un dit réellement. Mes recherches ont également révélé que Trump était perçu comme “présidentiel” lors des élections de 2020 alors que les électeurs pensaient qu’il semblait “sincère”. Et amener les gens à penser que vous “semblez sincère” à travers votre apparence extérieure non verbale est une tactique trompeuse qui est plus convaincante que de dire des choses qui sont réellement vraies.

En utilisant Trump comme exemple, supposons qu’il veut que les électeurs le voient comme sincère, digne de confiance, sympathique. Certaines caractéristiques altérables de son apparence le font paraître peu sincère, indigne de confiance et antipathique : il montre ses dents inférieures quand il parle et sourit rarement, ce qui le rend menaçant.

La campagne pourrait utiliser l’IA pour modifier une image ou une vidéo de Trump afin de le faire paraître souriant et amical, ce qui ferait penser aux électeurs qu’il est plus rassurant et gagnant, et finalement sincère et crédible.

Éviter le blâme

L’IA fournit aux campagnes un déni supplémentaire lorsqu’elles se trompent. En règle générale, si les politiciens ont des ennuis, ils blâment leur personnel. Si les membres du personnel ont des ennuis, ils blâment le stagiaire. Si les stagiaires ont des problèmes, ils peuvent désormais blâmer ChatGPT.

Une campagne pourrait éviter les faux pas en blâmant un objet inanimé connu pour avoir inventé des mensonges complets. Lorsque la campagne de Ron DeSantis a tweeté de fausses photos de Trump étreignant et embrassant Anthony Fauci, les membres du personnel n’ont même pas reconnu le méfait ni répondu aux demandes de commentaires des journalistes. Aucun humain n’en avait besoin, semble-t-il, si un robot pouvait hypothétiquement prendre la chute.

Toutes les contributions de l’IA à la politique ne sont pas potentiellement nuisibles. L’IA peut aider les électeurs sur le plan politique, en les aidant à les éduquer sur les problèmes, par exemple. Cependant, de nombreuses choses horribles pourraient se produire lorsque les campagnes déploient l’IA. J’espère que ces six points vous aideront à vous préparer et à éviter la tromperie dans les publicités et les sollicitations de donateurs.

David E. Clementson, professeur adjoint, Grady College of Journalism and Mass Communication, Université de Géorgie

Leave a Comment