Désinformation politique

Bien qu’il soit important de remettre en question les nouvelles politiques, particulièrement en période électorale, il est essentiel d’être en mesure de reconnaître et de rejeter la désinformation : la diffusion délibérée de renseignements faux ou trompeurs. Le contenu de la désinformation politique est vaste, allant des histoires qui pourraient être crédibles (comme l’appui d’un politicien provenant d’une source inhabituelle) aux histoires qui sont totalement incroyables (comme accuser un candidat d’être impliqué dans un réseau d’exploitation d’enfants basé dans le sous-sol d’une pizzeria). Les entités qui transmettent la désinformation peuvent inclure des gouvernements, des militants politiques et même des éditeurs à but lucratif (dont certains gèrent plusieurs canaux de désinformation pour divers segments du spectre politique)[1].

Bien qu’il y ait un débat sur la façon dont la désinformation politique atteint la majorité des électeurs[2], la capacité des réseaux sociaux et des moteurs de recherche d’afficher des publicités ciblées signifie qu’il est davantage probable qu’elles atteignent des personnes qui y seront sensibles. Lorsque des agents de la désinformation utilisent ce système pour mener une propagande, les répercussions néfastes sur l’intérêt public, la culture politique et l’intégrité de la démocratie sont considérables et fort différentes de celles entraînées par les autres types de publicité[3]. Une analyse des menaces de la désinformation en ligne contre la démocratie canadienne laisse entendre que les agents de la désinformation pourraient utiliser les médias sociaux pour propager des mensonges et faire de la propagande de masse à un faible coût ou se faire passer pour des fournisseurs d’information légitimes, en brouillant la distinction entre la vraie information et la désinformation[4].

La désinformation peut avoir une incidence sur les résultats d’une élection de quatre façons.

  1. Joindre un public vulnérable au message. La publicité ciblée fonctionne encore mieux pour les messages politiques que les messages commerciaux traditionnels en raison de l’impact de nos croyances sur nos pensées. Les partis politiques et les agents de la désinformation peuvent se servir des profils de données générés par les réseaux sociaux, les moteurs de recherche et les courtiers en publicités pour veiller à ce que leurs messages se rendent autant à un public gagné d’avance qu’à un public « semblable », c’est-à-dire qu’ils se ressemblent tellement qu’ils sont susceptibles de partager les mêmes croyances : « Plus les responsables de la désinformation en savent sur leurs publics cibles, plus ils sont en mesure de les trouver, de les manipuler et de les décevoir[5]. » Même si ces publicités payées sont susceptibles de joindre peu de gens, leur contenu fortement idéologique peut en inciter plusieurs à les partager, ce qui, par conséquent, incite les algorithmes des réseaux sociaux à publier ces histoires dans les fils de nouvelles de leurs amis. Même les histoires les plus loufoques peuvent bénéficier de ce processus puisque les adeptes d’une théorie du complot sont susceptibles d’en croire plusieurs autres. Trouver des électeurs adeptes d’au moins une de ces théories constitue donc une étape cruciale à la propagation d’une nouvelle[6].
  2. Dynamiser ou éliminer les électeurs. Même si la désinformation politique ne réussira pas à convaincre une personne ayant un point de vue opposé, elle peut avoir un impact puissant sur sa décision d’aller voter ou non. Alors que les publicités suggérant des messages extrémistes étaient autrefois perçues comme hasardeuses puisqu’elles risquaient d’aliéner certains électeurs aux points de vue plus modérés, les publicités ciblées rendent possible l’envoi de messages extrémistes aux adeptes les plus fidèles, ou, surtout, l’envoi de messages à la clientèle électorale de son concurrent, pour la décourager d’aller voter. (Par exemple, alors que des publicités dépeignant Hilary Clinton comme une traîtresse ont été présentées aux partisans de Donald Trump, les partisans d’Hilary Clinton ont vu des publicités la montrant en train de qualifier certains Afro‑Américains de « super-prédateurs » afin de les dissuader de voter pour elle[7].) Ces « sombres publicités » ne sont visibles qu’à l’acheteur de publicités, aux destinataires et aux réseaux sociaux, empêchant le concurrent, ou les organismes gouvernementaux responsables de l’encadrement des élections, d’en effectuer un suivi ou d’y répondre [8].En outre, puisque ces publicités sont partagées entre les partisans, elles peuvent influencer les opinions de toute une communauté. Le processus est marqué par un effet d’escalade alors que les membres partagent avidement des messages de plus en plus extrémistes afin d’obtenir des appuis et des mentions « J’aime » et de se faire valoir. Un parfait exemple de ce phénomène se traduit par le partage d’images d’aliments en ligne, où la combinaison parfaite des algorithmes des réseaux sociaux et des besoins d’attention et de prestige des humains ont amené certaines personnes à publier des photos de hamburgers géants ou de pizzas garnies de tacos : « La façon la plus efficace d’aller au‑delà de son réseau social immédiat et d’atteindre la masse s’est avérée l’utilisation de messages extrémistes[9]. »
  3. Établir le programme lors des nouvelles de dernière heure. Les nouvelles ont été décrites comme « les premières ébauches de l’histoire[10] », mais elles sont de plus en plus les versions définitives : lorsqu’une nouvelle fausse ou inexacte est largement répandue, les gens sont plus susceptibles d’y croire plutôt que de croire en une nouvelle plus récente, même si cette dernière s’avère une rétractation de la source initiale[11]. Les agents de la désinformation ont recours à différentes techniques pour diffuser leur version des faits en premier, dont un bon nombre comprennent la manipulation des algorithmes des moteurs de recherche et des réseaux sociaux. Ces techniques comprennent la propagation, par des comptes automatisés, d’actualités (particulièrement un mot-clic partagé, pour qu’il atteigne un niveau « tendance »)[12] et la publication multiple, sur un forum comme Reddit, d’une adresse Web dans le but d’accroître sa présence dans les moteurs de recherche[13]. Atteindre la tête du palmarès dans les moteurs de recherche constitue un objectif particulièrement important puisque bon nombre d’utilisateurs croient à tort que les moteurs de recherche sont des arbitres neutres et fiables[14]. Par conséquent, les cinq résultats en tête du palmarès, tout sujet confondu, obtiennent 75 % des clics[15]. Par exemple, les résultats de recherche à la suite de la tuerie de Las Vegas étaient principalement liés à des théories du complot[16], et un gazouillis d’un article trafiqué de BuzzFeed et disséminé par le blogue Gateway Pundit, qui semblait réclamer que toutes les armes à feu appartenant à des Blancs soient confisquées avait également beaucoup circulé à la suite de la fusillade dans une école de Parkland, en Floride[17]. Même si de telles histoires sont habituellement démystifiées (et souvent rétractées), certaines preuves suggèrent que, dans certaines conditions, cette démystification peut avoir l’effet inverse[18]. En outre, cette nouvelle peut avoir été répandue à grande échelle sur les réseaux sociaux avant qu’elle ne soit démystifiée ou rétractée[19]. Comme l’affirme le professeur Brendan Nyhan de Dartmouth College : « La désinformation se propage rapidement avant qu’elle ne soit déclassée par les algorithmes[20] ». Consulter les premiers résultats de recherche, surtout lorsque l’on recherche des termes appariés à des opinions politiques extrémistes, peut plonger un utilisateur dans un abysse vers un univers de théories du complot, comme ce qu’il semble être arrivé à Dylann Roof, qui a assassiné neuf personnes dans une église de la Caroline du Sud après avoir cherché les termes « crimes perpétrés par des Noirs contre les Blancs »[21].
  4. « Contaminer » l’information légitime. Comme mentionné précédemment, les sources de nouvelles légitimes peuvent être influencées par des partis pris, les leurs ou leur perception des partis pris de leur public, et accorder trop de crédibilité à une histoire plausible, mais non confirmée. Par exemple, lors de la campagne électorale américaine de 2016, une vidéo sur YouTube qui suggérait que Mme Clinton éprouvait des problèmes de santé qu’elle ne voulait pas divulguer a amené la création du mot-clic tendance #hillaryshealth (la santé de Hillary) sur Twitter. Les journalistes ont donc accordé à cette nouvelle une grande importance, même si aucune information supplémentaire n’avait été diffusée[22]. Ce phénomène offre un véhicule à un petit nombre d’exploitants hautement engagés et raisonnablement astucieux, qu’ils soient pigistes ou appuyés par l’État, pour avoir un effet largement disproportionné sur le débat public, particulièrement lors d’élections, alors les médias sont constamment à la recherche de contenu nouveau et intéressant. Des effets néfastes peuvent même se faire sentir lorsque la désinformation propagée n’est pas tout à fait fausse. Comme l’explique Gilan Lotan dans son étude sur les réseaux sociaux pendant le conflit Israël-Gaza : « Ni l’un ni l’autre n’avait tort en soi. Chacune des parties avait plutôt posément concocté son histoire, omettant un contexte et des détails importants. Et lorsque ces histoires se répètent quotidiennement, elles affectent systématiquement et profondément la perception de la réalité[23] ».

 


[1] Marwick, Alice et Rebecca Lewis. « Media Manipulation and Disinformation Online », Data & Society, 15 mai 2017.
[2] Nyhan, Brendan. « Fake News and Bots May be Worrisome, but Their Political Power is Overblown », New York Times, 13 février 2018.
[3] Ghosh, Dipayan et Ben Scott. « #DigitalDeceit: The Technologies Behind Precision Propaganda on the Internet ». New America, janvier 2018.
[4] Centre de la sécurité des télécommunications. « Cybermenaces contre le processus démocratique du Canada », 16 juin 2017.
[5] Ghosh, Dipayan, et Ben Scott. #DigitalDeceit: The Technologies Behind Precision Propaganda on the Internet, New America, janvier 2018. [traduction]
[6] Dorfman, Matt. Why Rational People Buy Into Conspiracy Theories, New York Times, 21 mai 2013. [traduction]
[7] Green, Joshua, et Sasha Issenberg. Inside the Trump Bunker, With Days to Go, Bloomberg, 27 octobre 2016. [traduction]
[8] Madrigal, Alexis. What Facebook Did to American Democracy, The Atlantic, 12 octobre 2017. [traduction]
[9] Kozinets, Robert. How social media fires peoples passions and builds extremist divisions, The Conversation, 13 novembre 2017. [traduction]
[10] Fitch, George. The Educational Value of ‘News’, The State, décembre 1905. [traduction]
[11] Lewandowsky, Stephan, Stritzke, Werner G.K., Oberauer, Klaus, MORALES, Michael. Memory for Fact, Fiction, and Misinformation: The Iraq War 2003, Psychological Science, Vol 16, No 3, 1er mars 2005. [traduction]
[12] Lotan, Gilad. Fake News Is Not the Only Problem, Data & Society: Points, 22 novembre 2016. [traduction]
[13] Coleman, Kimberly. This is how Redditors Manipulated Google’s Image Search Engine, Edgy Labs, 9 décembre 2016. [traduction]
[14] Daniels, Jessie. Searching for Dr King Teens Race and Cloaked Websites, 19 août 2009. [traduction]
[15] Lee, Jessica. No. 1 Position in Google Gets 33% of Search Traffic [Study], Search Engine Watch, 20 juin 2013. [traduction]
[16] Les moteurs de recherche et les médias sociaux étaient contaminés de piège à clics et de propagande à la suite de la tuerie de Las Vegas.
[17] Funke, Daniel. Imposter tweets made it even harder for a reporter to cover Florida school shooting, Poynter.org, 15 février 2018. [traduction]
[18] Fazio, Lisa. Unbelievable news? Read it again and you might think it’s true, The Conversation, 5 décembre 2016. [traduction]
[19] Tech giants sorry for false news about Las Vegas gunman, BBC News, 3 octobre 2017. [traduction]
[20] Carey, Benedit. How Fiction Becomes Fact on Social Media, The New York Times, 20 octobre 2017. [traduction]
[21] Pasquale, Frank. From Holocaust Denial To Hitler Admiration: Google’s Algorithm Is Dangerous, Huffington Post, 26 février 2017. [traduction]
[22] Lotan, Gilad. Fake News Is Not the Only Problem, Data & Society: Points, 22 novembre 2016. [traduction]
[23] Ibid. [traduction]