La désinformation à propos de la santé et des sciences
Le négationnisme
Contrairement à un grand nombre d’informations faisant l’objet de discussions en ligne, comme la politique ou les avantages relatifs des différentes franchises de science-fiction, il existe dans la plupart des domaines scientifiques un consensus portant sur ce qui est généralement considéré comme étant appuyé par les données probantes actuelles. En résultat, une grande partie de la désinformation sur la santé et les sciences vise à nier l’existence du consensus ou à créer l’impression que le sujet fait plus l’objet d’un débat qu’en réalité. (L’inverse, soit le faux consensus, a été abordé dans la section précédente; celui-ci utilise en grande partie les mêmes outils persuasifs que le négationnisme.) L’objectif du négationnisme est de réduire la confiance des gens dans le consensus scientifique et de les rendre complaisants à l’égard des risques liés à des enjeux comme la non-vaccination contre des maladies évitables ou l’absence d’action pour réduire et atténuer le changement climatique[1]. Cette démarche a connu un succès inquiétant : selon les Centers for Disease Control and Prevention des États-Unis, les taux de vaccination systémique des enfants étaient à leur plus bas niveau depuis 10 ans en 2023[2].
La désinformation négationniste comporte quatre éléments : [3]
La théorie du complot. L’une des raisons pour lesquelles le négationnisme peut être persuasif est qu’il a le même attrait que la théorie du complot, selon laquelle les personnes ayant du pouvoir vous mentent. Quelques raisons historiques valides expliquent qu’on soit sceptique des groupes décrits comme des traîtres par les récits négationnistes : certains docteurs sont corrompus par de puissantes industries[4], des gouvernements réalisent des expériences médicales sur les gens sans leur consentement[5] et les compagnies pharmaceutiques poussent la vente de leurs produits sans égard pour quoi que ce soit d’autre que leurs propres profits[6]. Mais les négationnistes renversent l’histoire en décrivant les scientifiques comme des traîtres et en dépeignant les sociétés – comme celles qui profitent du fait de nier le consensus sur les changements climatiques – comme leurs victimes. Aussi, dans tous les cas, ce sont des journalistes, des lanceurs d’alerte ou des historiens qui les ont découvertes, et non des théoriciens du complot[7]. La plupart des théories du complot médical sont également invraisemblablement répandues : il faudrait que presque tous les gouvernements de la planète, ainsi que de nombreuses organisations internationales, soient « dans le coup » pour qu’elles soient vraies.
Choisir uniquement ce qui convient. Les négationnistes savent que peu d’entre nous sont qualifiés pour juger la preuve scientifique et que, si nous en avons l’occasion, nous choisirons de croire des données qui appuient notre vision du monde. Ils tirent avantage de ceci en saisissant tout contraire ou preuve équivoque et en le présentant comme un défi pour le consensus scientifique : par exemple, les compagnies de tabac ont subventionné des recherches ayant révélé des liens véritables entre le cancer du poumon et divers facteurs, mais elles ont fait la promotion de ces résultats comme des preuves allant à l’encontre du lien beaucoup plus fort existant entre le cancer du poumon et le tabagisme. Une autre méthode consiste à représenter le débat concernant les détails d’un phénomène – comme la discussion en cours sur la façon dont les changements climatiques auront le plus grand impact et ce, à quelle vitesse – comme un débat sur le consensus global[8].
La dualité des normes. La recherche financée par les compagnies de tabac est également un bon exemple de la tactique négationniste qui consiste à soumettre les preuves appuyant le consensus scientifique à une norme plus élevée que les preuves qui les remettent en question. Cette tactique est souvent observée dans le négationnisme anti-vaccination, lorsqu’un petit nombre d’études comportant un lien entre la vaccination et des maladies comme l’autisme sont traitées comme si elles avaient le même poids que les nombreuses études qui ne montrent aucun lien.
La cible en mouvement représente une technique connexe : les affirmations réfutées sont immédiatement remplacées par des affirmations légèrement différentes. Par exemple, lorsque le thimérosal a été retiré des vaccins, les personnes qui prétendaient qu’il existait un lien entre la vaccination et l’autisme ont commencé à affirmer que l’aluminium en était plutôt responsable[9].
Les experts en domestication. Une autre façon par laquelle les négationnistes donnent l’impression que le consensus est moins établi est en amplifiant les voix des scientifiques qui le remettent en question. S'il n’est pas possible de trouver d’expert sur le terrain, toute personne détentrice d’un doctorat fera l’affaire[10] : par exemple, le docteur David Group, chiropraticien et naturopathe, donne son opinion sur des sujets tels que la vaccination, le fluorure et la schizophrénie[11].
Une grande partie du négationniste d’aujourd’hui provient d’individus ou de petits groupes qui publient en ligne, en plus des « marchands de doutes », c’est-à-dire des sociétés ou d’autres organisations qui visent à jeter le doute sur des questions comme l’impact des combustibles fossiles sur le changement climatique et le lien entre le tabagisme et le cancer[12], et des organismes de contrefaçon qui sont financés par des sociétés ou autres intérêts puissants mais qui prétendent être des organismes de base[13]. Mais le négationnisme peut aussi trouver sa place dans des organes d’information légitimes de différentes façons : lorsqu'un personnage public, comme un politicien, l’approuve; lorsque des journalistes acceptent sans réserve les arguments négationnistes à l’égard du poids du consensus sur un sujet qui fait l’objet d’un débat; lorsque des propriétaires d’organes d’information ou des éditeurs font délibérément la promotion du négationnisme à des fins idéologiques ou commerciales. Bien que ce dernier exemple soit certainement le moins fréquent, il se produit tout de même : Jonathan Kay, ancien éditeur de commentaires pour le National Post, a indiqué que même si le journal offrait une couverture médiatique responsable sur les changements climatiques pendant la période où il y a travaillé, dans les éditoriaux « lorsqu’on parle de réchauffement de la planète, tous les paris sont ouverts… C’est simple, cette niche est trop populaire pour y renoncer[14]. »
La poudre de perlimpinpin
La poudre de perlimpinpin est de la désinformation à propos de la santé et des sciences dont le but est de vous faire acheter quelque chose tout de suite. Les sites Web, les vidéos et les comptes de réseaux sociaux qui vendent des suppléments, des livres et des remèdes miracles abondent et peuvent être à la fois très lucratifs et très dangereux : un traitement fréquemment vendu est la « solution minérale miracle » faite de javellisant, que les parents sont tenus de faire boire à leur enfant ou de donner comme un lavement[15], alors que bon nombre de vidéos sur TikTok font la promotion de « remèdes » dangereux pour soigner l’autisme[16]. Les algorithmes peuvent promouvoir l’huile de serpent, en relevant les problèmes de santé et les préoccupations des gens sur la base de leurs opinions, de leurs recherches et de leurs achats, puis en proposant des contenus « connexes » qui ne sont ni sûrs ni efficaces : « une fois que ces tendances s’emparent du fil d’actualités d’une personne, il peut être difficile de s’en débarrasser[17] ».
Une tactique fréquente de la poudre de perlimpinpin est de faire cadeau de produits, puis gagner de l’argent grâce aux consultations : par exemple, Jillian Mai Thi Epperly, dont les milliers de suiveurs sur Facebook croient qu’un régime à base de sa recette de choux fermentés leur permettra d’éliminer les « parasites » qui, selon elle, causent toutes les maladies, facture des conseils téléphoniques à soixante-dix dollars l’heure[18]. De même, le site Web Goop de Gwyneth Paltrow présente une entrevue avec une naturopathe qui prétend que « vous avez sans doute un parasite », qu’elle recommande de traiter avec un bain au lait – le tout accompagné d’une publicité pour une bouteille à soixante-dix dollars de « protéine de lait + aliment intestinal[19] ».
La U.S. Food and Drug Administration dresse la liste de six caractéristiques courantes en ce qui concerne les produits ou services de poudre de perlimpinpin[20] :
Les panacées : La plupart des médicaments traitent une gamme très spécifique de symptômes ou de maladies. Tout ce qui prétend guérir ou traiter plusieurs maladies risque d’être de la poudre de perlimpinpin. (Le remède peut être sous-entendu plutôt que dit très clairement, car les revendeurs de poudre de perlimpinpin les plus sophistiqués font attention de ne pas faire des affirmations médicales spécifiques afin d’éviter les problèmes juridiques.)
Les remèdes miracles : De même, des affirmations selon lesquelles un traitement est une « nouvelle découverte » ou une « percée scientifique » sont des signes avertisseurs : non seulement de tels traitements sont-ils extrêmement rares dans l’histoire, mais ces remèdes miracles feraient certainement l’objet d’une publication dans une revue scientifique, pas sur un site Web ou dans un publi-reportage.
Les théories du complot : Celles-ci peuvent porter sur une accusation assez étroite selon laquelle « ils » essaient de dissimuler un remède miracle, comme elles peuvent être des récits sombres sur les conspirations du gouvernement pour nous empoisonner de toxines que seuls les suppléments des revendeurs de poudre de perlimpinpin peuvent guérir[21]. Leur efficacité est due au fait qu’il est arrivé par le passé que l’industrie ou le gouvernement empoisonne la population[22] ou permette leur empoisonnement par l’inaction[23]. Elles peuvent être particulièrement efficaces pour les personnes qui ont eu de mauvaises expériences dans le système de santé[24].
Les témoignages personnels : Si un médicament est efficace, de solides données probantes devraient le démontrer. Un baratin fondé uniquement sur les récits personnels des patients est presque certainement de la poudre de perlimpinpin.
Les solutions rapides : Un baratin qui met l’accent sur la rapidité du traitement devrait vous rendre circonspect.
« 100 % naturel » : Le mot « naturel » n’a pas de signification scientifique. De nombreuses substances trouvées dans la nature sont toxiques et de nombreuses substances synthétiques sont sécuritaires lorsqu’elles sont utilisées tel que prescrit. De même, un grand nombre des médicaments produits synthétiquement que nous utilisons aujourd’hui, comme l’aspirine, dérivaient à l’origine de sources « naturelles ». Il faut aussi se méfier du mot « quantique », utilisé de manière irresponsable pour vendre n’importe quoi, que ce soit des livres de développement personnel[25] ou des exerciseurs[26].
Le négationnisme et l’huile de serpent ont une chose en commun : la méfiance à l’égard des autorités scientifiques et médicales[27]. Il n’est pas rare que la désinformation en matière de santé ou de science relève des deux catégories. For Par exemple, Alex Jones, l’animateur de radio qui promeut des théories du complot sur la vaccination et les changements climatiques[28], fait son argent en vendant des suppléments[29] qui sont sensés guérir toutes les maladies qui font peur aux auditeurs de Jones lorsque ceux-ci écoutent ses émissions. Il est préférable de considérer les théories du complot comme un outil de marketing pour ses véritables produits : InstaHard, BodEase, Diet Force et toutes sortes d’huiles, de teintures et de suppléments[30].
Comme le montre cet exemple, l’huile de serpent comporte souvent un élément idéologique : à l’instar des attitudes anti-vaccination, des produits comme le lait cru qui étaient apolitiques ou associés à la gauche politique dans le passé sont maintenant souvent vendus aux gens de droite comme un moyen de s’opposer à l’autorité du gouvernement[31]. De plus en plus, le « bien-être » anti-scientifique et les messages d’extrême droite vont de pair[32].
« Il est incroyable de constater à quel point ces théories du complot sont interreliées. Une fois que vous êtes impliqué dans l’une des catégories de désinformation, la probabilité pour vous de croire aux autres est extrêmement amplifiée[33]. » – Rachel Moran, Center for an Informed Public
Aussi, la motivation commerciale n’est pas toujours immédiatement évidente : par exemple, Andrew Wakefield, qui a proposé le supposé lien entre le vaccin ROR et l’autisme, a demandé un brevet pour un vaccin qui aurait pu remplacer le vaccin ROR, ce qui signifiait qu'il était prêt à faire de l’argent si le vaccin était déclaré dangereux, mais cela était peu connu lors de la première publication de son article.
[1] Dubé, E., Bettinger, J. A., Fisher, W. A., Naus, M., Mahmud, S. M., & Hilderman, T. (2016). Improving Vaccination Rates: Vaccine acceptance, hesitancy and refusal in Canada: Challenges and potential approaches. Canada communicable disease report, 42(12), 246.
[2] Maxmen, A. (2024) How fringe anti-science views infiltrated mainstream politics, and what it means in 2024. MedicalXpress
[3] Diethelm, P., & Mckee, M. (2008). Denialism: What is it and how should scientists respond? The European Journal of Public Health,19(1), 2-4. doi:10.1093/eurpub/ckn139
[4] UC Davis Health, & Department of Public Affairs and Marketing. (n.d.). Big tobacco and science: Uncovering the truth. Retrieved March 26, 2018, from https://web.archive.org/web/20180716032837/ucdmc.ucdavis.edu/welcome/features/20071114_cardio-tobacco/
[5] Centers for Disease Control and Prevention. (n.d.). The Tuskegee Timeline. Retrieved March 26, 2018, from https://www.cdc.gov/tuskegee/about/timeline.html
[6] Keefe, P. R. (2017). The Family That Built an Empire of Pain. The New Yorker. n
[7] Butter, M. (2020). The nature of conspiracy theories. John Wiley & Sons.
[8] Kaiser, D., & Wasserman, L. (2016). The Rockefeller Family Fund vs. Exxon. The New York Review of Books.
[9] Medsafe Pharmacovigilance Team. (2016) Risk Communication. New Zealand Medicines and Medical Devices Safety Authority.
[10] Ellis E.G. (2017) To Make Your Conspiracy Theory Legit, Just Find an ‘Expert.’ Wired.
[11] Merlan, A. (2017). Alex Jones and His Pill-Pushing Chiropractor Are Here to Save Your Colon From the Globalists. Jezebel.
[12] Bergstrom, C. (2022) To Fight Misinformation, We Need to Teach That Science Is Dynamic. Scientific American.
[13] Yoshida, K. S., & UTC. (2011). Astroturfing works, and it's a major challenge to climate change. Ars Technica.
[14] Kay, J. (2017). How Climate Change Denial Set the Stage for Fake News. The Walrus.
[15] Chivers, T. (2017). How The Parents Of Autistic Children Are Being Targeted By Misinformation Online. Buzzfeed.
[16] Diego Aragon-Guevara et al, The Reach and Accuracy of Information on Autism on TikTok, Journal of Autism and Developmental Disorders (2023). DOI: 10.1007/s10803-023-06084-6
[17] Ohlheiser, A.W. (2024) How discredited health claims find a second life on TikTok. Vox. [traduction]
[18] Subbaraman, N. (2018. Here’s How A Cabbage Juice "Cult" With 58,000 Followers Set Off A Facebook War. Buzzfeed.
[19] You Probably Have a Parasite-Here's What to Do About It. (2017). Goop.
[20] Consumer Updates - 6 Tip-offs to Rip-offs: Don't Fall for Health Fraud Scams. (n.d.). Retrieved March 26, 2018, from https://www.fda.gov/ForConsumers/ConsumerUpdates/ucm341344.htm
[21] Davis, S. (2016). How Alex Jones Uses Fear of the Government to Sell Diet Supplements. MotherBoard.
[22] Blum, D. (2013). Looney Gas and Lead Poisoning: A Short, Sad History. Wired.
[23] Rosen, M. (2016). Leads Health Effects Can Last a Lifetime: Tainted Water for Kids in Flint Could Mean Problems in Adulthood. Science News.
[24] Christou-Ergos, M., Leask, J., & Wiley, K. E. (2022). How the experience of medical trauma shapes Australian non-vaccinating parents' vaccine refusal for their children: A qualitative exploration. SSM-Qualitative Research in Health, 2, 100143.
[25] Ehrenreich, B. (2010). Bright-sided: How the relentless promotion of positive thinking has undermined America. Detroit: Gale, Cengage Learning.
[26] Szeto, E. (2018). 'This is snake oil': Scientists don't buy balance-boosting clips featured on Dragons' Den. CBC News.
[27] Pickup, M., Stecuła, D., & Van der Linden, C. (2022). Who shares conspiracy theories and other misinformation about Covid-19 online: Survey evidence from five Countries. Journal of Quantitative Description: Digital Media, 2.
[28] Blakeslee, N. (2010). Alex Jones Is About To Explode. Texas Monthly.
[29] Brown, S. (n.d.). Alex Jones's Infowars Media Empire Is Built to Sell Snake-Oil Diet Supplements. New York Magazine.
[30] Manjoo, F. (2022) Alex Jones and the Wellness Conspiracy Industrial Complex. The New York Times.
[31] Novicoff, M. (2024) How Raw Milk Went from a Whole Foods Staple to a Conservative Signal. Politico.
[32] Butler, K. (2022) How Wellness Influencers Became Cheerleaders for Putin’s War. Mother Jones.
[33] Butler, K. (2022) How Wellness Influencers Became Cheerleaders for Putin’s War. Mother Jones.