Réfutation efficace

Les médias sociaux faisant de nous tous des diffuseurs, nous avons une responsabilité non seulement d’éviter de partager des fausses informations, mais aussi d’intervenir lorsque des membres de notre réseau le font.

Toutefois, il peut être délicat de le faire. Le simple fait de signaler qu’une information est fausse est non seulement peu efficace, mais peut avoir l’effet inverse et amener les gens à y croire encore plus[1]. Il est plus efficace de fournir des informations qui créent une « histoire » nouvelle et plus convaincante. Les fausses informations que vous corrigez devraient être mentionnées aussi brièvement que possible et seulement après avoir formulé un contre-argument[2] : si vous devez précisément réfuter de fausses informations, formulez essentiellement les raisons pour lesquelles elles ne peuvent pas être vraies[3]. Cependant, il est préférable de donner un petit nombre de points qui racontent une histoire cohérente plutôt qu’une longue liste de faits[4]. Aussi, il est utile de reconnaître et d’encourager le scepticisme relativement au sujet, y compris en soulignant les raisons pour lesquelles des gens pourraient vouloir mal vous informer à ce sujet. Toutefois, même lorsque toutes ces mesures sont prises, les chercheurs préviennent que la persistance ultime de la désinformation dépend de la façon dont elle est initialement perçue, et une réfutation détaillée pourrait ne pas toujours fonctionner comme prévu[5].

Cela peut se révéler particulièrement vrai lorsque des enjeux politisés ou polarisés font l’objet d’une discussion, lesquels enjeux sont souvent perçus davantage comme un indice de loyauté envers un groupe qu’une opinion raisonnée. Dans la mesure du possible, tentez d’aborder ces questions de façon à éviter un cadre idéologique ou à vous appuyer sur les valeurs et les opinions de l’autre personne. Par exemple, les conservateurs ont tendance à accepter davantage l’idée lorsqu’elle présentée comme une « compensation carbone », évitant le mot politiquement sensible « taxe »[6], alors que les Américains avaient des attitudes très différentes à l’égard de l’Affordable Care Act (loi sur les soins abordables) selon que la personne qui les interrogeait utilisait ou non le terme « Obamacare »[7]. Si vous citez des experts, tentez de trouver ceux que l’autre personne considérera comme des autorités, ce qui lui montrera que vous respectez son opinion du monde et lui donnera une « excuse » pour envisager votre argument[8]. Il est aussi utile de présenter les choses de façon positive. Par exemple, plutôt que de dire que le lait cru est dangereux, il serait plus efficace de souligner que la pasteurisation a permis aux enfants des zones urbaines de boire du lait de façon sécuritaire, ainsi que de faire en sorte de reconnaître que les émotions qui sous-tendent leurs opinions sont valides, reconnaissant, par exemple, que les personnes qui sont contre la vaccination sont motivées par leur amour pour leurs enfants[9]. En commençant par des déclarations positives (p. ex. « Je vois bien que vous êtes une personne bienveillante et dévouée. ») concernant la personne à qui vous parlez, vous pouvez les encourager à être plus ouverts à envisager la question de façon objective[10].

Comment savoir s’il vaut la peine d’argumenter avec quelqu’un?

Bien entendu, il faut assumer que la personne avec qui vous parlez argumente de bonne foi. Malheureusement, les médias sociaux (surtout les réseaux  publics par défaut comme Twitter) font en sorte qu’il est facile pour les gens de participer à des arguments dans lesquels ils n’ont aucun véritable intérêt (les trolls d’Internet disent que c’est « pour s’amuser »[11]) ou ils ne cherchent qu’à embêter ou gaspiller l’énergie des personnes de l’autre côté de l’écran. Voici quelques conseils pour déterminer s’il vaut la peine d’argumenter avec une personne.

S’agit-il d’un robot? De nombreux comptes de réseaux sociaux sont en fait des robots, c’est-à-dire des programmes automatisés conçus pour accomplir des tâches répétitives. Certains de ces robots font un travail inestimable, comme partager des renseignements sur la circulation, mais certains sont créés pour accroître la désinformation ou favoriser les conflits. En général, la publication d’un grand nombre de messages par jour (surtout les messages identiques), la publication presque exclusive du contenu d’autres personnes, et un faible chevauchement entre les comptes qu’ils suivent et ceux qui les suivent démontrent que ces comptes pourraient être des robots[12]. (Vous pouvez utiliser l’outil Botometer pour déterminer si un compte Twitter est un robot.)

La personne a-t-elle mauvaise réputation? Il s’agit de la version moderne du « garçon qui criait au loup » : qu’il s’agisse d’une personne avec qui vous avez eu des embrouilles auparavant ou simplement d’un troll bien connu, certaines personnes ont perdu le droit d’être prises au sérieux.

La personne semble-t-elle résolue à vous faire perdre votre temps? Cette tactique, parfois appelée « sealioning » en anglais, est souvent utilisée par les trolls pour faire dérailler les conversations ou simplement épuiser les personnes avec lesquelles ils argumentent[13]. Si une personne vous demande à maintes reprises de définir ou d’expliquer des idées de base, c’est peut-être un signe qu’elle essaye tout simplement de maintenir l’argumentation.

La personne est-elle susceptible de vous écouter? Votre responsabilité est accrue lorsque vient le temps de corriger de fausses informations qui proviennent d’amis et de membres de votre famille puisque vous aurez l’air d’approuver leur attitude sur les réseaux où vous publiez si vous ne le faites pas. Même les relations moins solides peuvent aider à déterminer si un message sera entendu ou pas : une expérience faite à l’aide de robots (comptes automatisés) pour répondre aux commentaires racistes sur Twitter a permis de découvrir que les appels à l’empathie (p. ex. « Hé, mon ami, rappelle-toi que tu blesses de vraies personnes lorsque tu les harcèles en utilisant ce type de langage. ») étaient plus efficaces si le compte automatisé affichait une photo de profil d’une personne blanche[14].

La personne adopte-t-elle une attitude négative uniquement? Une personne qui ne fait qu’argumenter contre une question, sans soulever aucun argument positif, démontre qu’elle n’est pas disposée à envisager l’autre côté d’une question. Comme mentionné précédemment, cette tactique a été lancée par l’industrie du tabac et vise à soulever le doute quant aux effets sur la santé des produits de cette industrie. Malheureusement, la couverture médiatique de la question a pris une tournure de « controverse » : l’industrie a correctement perçu qu’aucun journaliste ne serait jamais congédié pour avoir donné un poids égal aux deux côtés d’une question, même si cet équilibre n’était pas justifié par les faits[15]. Un exemple plus moderne : les personnes qui sont contre la vaccination, lesquelles soutiennent que les vaccins individuels ne sont pas sécuritaires et qui remettent maintenant en question de plus en plus l’efficacité globale des vaccins, sans toutefois fournir une autre explication pour la disparition de maladies comme la polio[16].

Le public est-il indécis? Parfois, il vaut la peine d’argumenter non pas pour convaincre l’autre personne, mais convaincre les autres qui regardent, ou simplement pour montrer que ce qu’ils disent pourrait susciter des interrogations. Dans les médias, c’est ce que l’on appelle parfois la « zone de controverse légitime », c’est-à-dire la zone parfois étroite entre les idées qui sont universellement acceptées et celles qui sont vues comme indignes d’une discussion. (Un concept relatif appelé « fenêtre de discours » représente la gamme de positions qu’un politicien peut appuyer tout en continuant d’être susceptible d’être élu.) Toutefois, cette zone n’est pas stable : elle peut « bouger » considérablement et parfois rapidement, et les militants et les groupes d’intérêts consacrent beaucoup d’argent et d’efforts à la transformer, que ce soit sur des sujets comme les soins de santé ou encore le contrôle des armes à feu.

Cette idée est encore plus importante lorsque nous tenons compte de l’influence réduite des médias de masse et de la capacité des réseaux sociaux de nous laisser nous associer surtout avec des personnes aux vues similaires, permettant ainsi à différents groupes et espaces de percevoir des zones très différentes de la controverse légitime[17]. Il faut se rappeler que les utilisateurs des réseaux sociaux sont les grands responsables du ton et des valeurs de ces espaces, et c’est la voix des personnes se situant dans le décile supérieur qui en sont responsables[18].

Il faut aussi se rappeler que les gens qui sont fermement engagés à l’égard de certaines questions changent rarement d’avis. Ainsi, pour que votre réfutation soit efficace, elle doit cibler des personnes qui n’ont pas encore pris position[19]. Bien qu’il soit difficile de faire changer les gens d’avis, il ne faut pas oublier que les opinions de l’ensemble de la société ont changé, grâce à des efforts patients (et parfois impatients), sur des questions aussi fondamentales que le mariage des membres de la communauté LGBTQ, le plein droit des femmes et l’immoralité de l’esclavage, souvent en encadrant la question de façon à ce que la nouvelle opinion reflète davantage les valeurs fondamentales des gens[20].

Il faut savoir qu’il est rare que les gens changent ouvertement d’avis, surtout sur des questions qui soulèvent les passions, lorsqu’ils sont sous pression ou devant un public : la réflexion morale se produit le plus souvent quelque temps après qu’une personne ait été forcée de voir un enjeu sous un nouveau jour[21].

 


[1] Nyhan, B., et Reifler, J. (2010). When Corrections Fail: The Persistence of Political Misperceptions. Political Behavior, 32(2), 303-330. doi:10.1007/s11109-010-9112-2.
[2] Chan, M.S., Jones, C.R., Jamieson, K.H., et Albarracín, D. (2017). Debunking: A Meta-Analysis of the Psychological Efficacy of Messages Countering Misinformation. Psychological Science, 28(11), 1531-1546. doi:10.1177/0956797617714579.
[3] Chokshi, N. (18 septembre 2017). How to Fight ‘Fake News’ (Warning: It Isn’t Easy)The New York Times. Consulté le 9 avril 2018 sur le site https://www.nytimes.com/2017/09/18/business/media/fight-fake-news.html.
[4] Cook, J., Lewandowsky, S. (2011), The Debunking Handbook. St. Lucia, Australia: University of Queensland. 5 novembre. ISBN 978-0-646-56812-6. [http://sks.to/debunk].
[5] Chan, M.S., Jones, C.R., Jamieson, K.H., et Albarracín, D. (2017). Debunking: A Meta-Analysis of the Psychological Efficacy of Messages Countering Misinformation. Psychological Science, 28(11), 1531-1546. doi:10.1177/0956797617714579.
[6] Cook, J., Lewandowsky, S. (2011), The Debunking Handbook. St. Lucia, Australia: University of Queensland. 5 novembre. ISBN 978-0-646-56812-6. [http://sks.to/debunk].
[7] Dropp, K., et Nyhan, B. (7 février 2017). One-Third Don't Know Obamacare and Affordable Care Act Are the Same. Consulté le 9 avril 2018 sur le site https://www.nytimes.com/2017/02/07/upshot/one-third-dont-know-obamacare-and-affordable-care-act-are-the-same.html.
[8] Mooney, C. (Mai/juin 2011). The Science of Why We Don't Believe Science. Mother Jones.
[9] Don't give up on the fact-resistant: Tips to break the grip of misinformation. (7 septembre 2017). Consulté le 5 avril 2018 sur le site https://www.americanpressinstitute.org/fact-checking-project/should-we-give-up-on-facts/.
[10] Cook, J., Lewandowsky, S. (2011), The Debunking Handbook. St. Lucia, Australia: University of Queensland. 5 novembre. ISBN 978-0-646-56812-6. [http://sks.to/debunk].
[11] Norton, Q. (3 juin 2017). Anonymous 101: Introduction to the Lulz. Consulté le 9 avril 2018 sur le site https://www.wired.com/2011/11/anonymous-101/.
[12] Varol, O., Ferrara, E., Davis, C.A., Menczer, F., et Flamini, A. (2017). Online Human-Bot Interactions: Detection, Estimation, and Characterization. Proceedings of the Eleventh International AAAI Conference on Web and Social Media.
[13] Johnson, A. (2017). The Multiple Harms of Sea Lions. Harmful Speech Online, 13.
[14] Vince, G. (2 avril 2018). Why Good People Turn Bad Online. Consulté le 5 avril 2018 sur le site https://mosaicscience.com/story/why-good-people-turn-bad-online-science-trolls-abuse/.
[15] Hiltzik, M. (9 mars 2014). Cultural production of ignorance provides rich field for study. Los Angeles Times. Consulté le 5 avril 2018 sur le site http://articles.latimes.com/2014/mar/09/business/la-fi-hiltzik-20140307.
[16] Moran, M.B., Lucas, M., Everhart, K., Morgan, A., et Prickett, E. (2016). What makes anti-vaccine websites persuasive? A content analysis of techniques used by anti-vaccine websites to engender anti-vaccine sentiment. Journal of Communication in Healthcare, 9(3), 151-163. doi:10.1080/17538068.2016.1235531.
[17] Zuckerman, E. (2017). Mistrust, Efficacy and the New Civics: Understanding the Deep Roots of the Crisis of Faith in Journalism. (rapport) The Knight Foundation.
[18] Xie, J., Sreenivasan, S., Korniss, G., Zhang, W., Lim, C., et Szymanski, B. Social consensus through the influence of committed minorities. Physical Review E, 2011; 84 (1) DOI: 10.1103/PhysRevE.84.011130.
[19] Don't give up on the fact-resistant: Tips to break the grip of misinformation. (7 septembre 2017). Consulté le 5 avril 2018 sur le site https://www.americanpressinstitute.org/fact-checking-project/should-we-give-up-on-facts/.
[20] Haidt, J. (sans date). The Emotional Dog and Its Rational Tail: A Social Intuitionist Approach to Moral Judgment. Reasoning, 1024-1052. doi:10.1017/cbo9780511814273.055.
[21] Ibid.