Prenez conscience de vos propres préjugés
Une nouvelle croyance naît souvent d’un moment de confusion ou de dissonance cognitive, provoqué par une question, la prise de conscience d'un manque de connaissances, un événement préoccupant, etc. S'ensuit une période de doute, qui aboutit à un moment de révélation ou d'éclaircissement qui rétablit la cohérence de la pensée[1]. Cela ne se produit généralement pas de manière instantanée, sauf dans des situations exceptionnelles. Ce processus n'est pas instantané, sauf cas exceptionnels. Nous avons plutôt tendance à intégrer les nouvelles informations à nos convictions existantes, jusqu'à atteindre un point de bascule où il devient impossible d'ignorer l'accumulation de preuves contraires[2].
Un facteur courant de cette confusion est le changement des recommandations d'experts, comme pendant la pandémie de COVID-19, lorsque les recommandations de santé publique sont passées de « ne portez pas de masque », à « portez des masques en tissu ou chirurgicaux », puis à « portez des masques N-95 ». Ce genre de changement peut déstabiliser et rendre les gens plus sensibles à la désinformation ou à leurs propres biais, à moins que les raisons du changement de consensus ne soient bien communiquées[3].
Les théoriciens du complot et les propagateurs de désinformation s'approprient également souvent le langage de la littératie numérique, se qualifiant eux-mêmes de « penseurs critiques » et exhortant les autres à « faire leurs propres recherches ». Pourtant, les études montrent que les personnes ayant reçu une véritable formation à l'esprit critique ou à l'éducation aux médias sont 26 % moins susceptibles d'adhérer aux théories du complot. En revanche, ceux qui se proclament « penseurs critiques » sans avoir reçu cette formation formelle 63 % plus susceptibles d'y adhérer[4].
Biais cognitifs
Ce qui se passe entre ces deux étapes dépend largement de notre capacité et de notre volonté à exercer une pensée critique. Bien qu'une telle réflexion puisse mener à une vision plus précise, les informations qui provoquent de l'inconfort ou de l'anxiété – autrement dit, la dissonance cognitive – peuvent aussi souvent conduire à la désinformation[5]. Cela est particulièrement vrai lorsque ces nouvelles informations entrent en conflit avec l'une de nos croyances fondamentales sur le monde. Ces croyances, ou biais, peuvent se résumer ainsi[6] :
- Mon expérience est une référence raisonnable. Nous voyons naturellement le monde à travers notre propre prisme. Si nous n’en sommes pas conscients, nous risquons de penser que les autres en savent plus sur nous ou nous accordent plus d’attention qu’ils ne le font en réalité. Nous supposons aussi souvent que les autres nous ressemblent plus que ce n’est le cas. De plus, nous avons tendance à croire que ce qui est fréquent ou agréable pour nous l'est aussi pour les autres, et que la plupart des gens pensent et croient comme nous.
- J'évalue correctement le monde. Nous avons aussi tendance à nous considérer comme plus objectifs et logiques que les autres. Par conséquent, nous jugeons souvent les informations qui remettent en question nos croyances comme moins importantes ou fiables que celles qui les confortent. De la même façon, nous recherchons souvent des informations qui justifient des décisions que nous avons déjà prises[7].
- Je suis une bonne personne (et les gens comme moi aussi). Nous préférons nous considérer comme des personnes bonnes, compétentes et intelligentes, et cela s'étend aux personnes qui nous ressemblent ou appartiennent à notre groupe. En revanche, nous sommes enclins à percevoir négativement les personnes qui ne nous ressemblent pas ou qui ne font pas partie de notre groupe. Des preuves qui contredisent cette perception peuvent être dérangeantes et provoquer de la dissonance cognitive[8]. Puisque cela s'applique autant au groupe qu'à l'individu, c’est une source majeure de polarisation, nous poussant à juger les choses comme vraies ou fausses, bonnes ou mauvaises, dangereuses ou sûres, selon notre appartenance à un groupe. Cela explique aussi des choses comme l’effet des médias hostiles, où chaque camp d'un débat estime que la couverture médiatique est biaisée contre lui[9].
Lorsque ces croyances sont remises en question, nous avons tendance à faire preuve de biais de confirmation, c'est-à-dire à ne rechercher ou accepter que les informations qui évitent la dissonance cognitive en renforçant nos croyances préexistantes.
Bien que nous ne puissions jamais complètement nous débarrasser de ces biais, nous pouvons atténuer leur impact en encourageant :
- La priorité à l'exactitude plutôt qu’à d’autres objectifs comme la protection de notre identité;
- L'ouverture d'esprit face à la diversité des idées;
- La responsabilité de fournir des preuves et des arguments solides[10]; et
- La tolérance à l'ambiguïté et à l'échec.
Nous devons faire preuve d'ouverture d'esprit et de responsabilité pour évaluer les arguments et éviter de tomber dans le piège du « simple questionnement ». Il faut définir clairement l'ouverture d'esprit comme la capacité à envisager que nous puissions avoir tort, ou que nous ayons inconsciemment ignoré ou minimisé des faits ou des perspectives qui remettent en question nos croyances. Accepter l’ambiguïté nous permet de prendre plus de temps avant de nous ancrer dans une conviction – ce qui nous rend par la suite moins réceptifs à de nouvelles informations[11]. De la même manière, considérer l’échec comme une étape itérative et nécessaire dans la quête de la vérité est un élément fondamental de la méthode scientifique et de la pensée critique[12].
Cette attitude, l'humilité intellectuelle, est associée non seulement à une meilleure réflexion, mais aussi à une réduction de la polarisation[13] et à une plus grande capacité à enquêter sur la désinformation politique[14].
Les principaux aspects de l'humilité intellectuelle sont les suivants :
- L’ouverture d'esprit : être prêt à revoir nos croyances face à de nouvelles preuves;
- La curiosité : rechercher activement de nouvelles informations, même si elles peuvent remettre en question nos convictions;
- L’objectivité : être conscient des limites et des failles de notre propre raisonnement;
- La capacité d'apprentissage : être prêt à reconnaître que d’autres puissent être plus compétents ou experts que nous[15], afin d’éviter le piège du « faire ses propres recherches », souvent associé à une perte de confiance dans les institutions scientifiques et à une plus grande crédulité face à la désinformation[16].
L'humilité intellectuelle peut être mesurée par l'accord avec des affirmations telles que « Il est important de pouvoir changer d'avis sur une question lorsque des preuves scientifiques de qualité suggèrent que je pourrais avoir tort » et « Il est important d'être ouvert aux nouvelles affirmations sur la nature du monde, même celles avec lesquelles je suis en désaccord ».
Cette dernière approche est particulièrement efficace pour favoriser l'humilité intellectuelle lorsqu'elle vise à dissiper l'illusion de profondeur explicative. Cela fait référence à notre tendance à penser que nous comprenons mieux les choses que ce n'est réellement le cas (ce qui est un sous-type du biais cognitif de « J'évalue correctement le monde »).
Les raccourcis mentaux
Si les biais cognitifs influencent souvent nos croyances, ils ne sont pas les seuls à nous pousser à croire à la désinformation. Les heuristiques sont des techniques qui allègent notre charge cognitive – c'est-à-dire l'effort mental que nous devons fournir – en étant rapides et en économisant notre énergie et notre attention. Certains de ces « raccourcis mentaux », comme les proverbes, sont appris de manière explicite, mais nous en développons beaucoup d'autres au fil du temps, souvent sans même nous en rendre compte.
Les raccourcis mentaux semblent avoir émergé au début de l'évolution humaine, lorsque, pour survivre, il valait mieux prendre une liane pour un serpent plutôt qu’un serpent pour une liane[17]. Aujourd'hui, nous sommes tout aussi enclins à les utiliser dans notre « environnement médiatique saturé » [18].
Pour comprendre l'utilité de ces raccourcis mentaux, souvenons-nous de l'apprentissage d'une activité complexe et risquée, comme conduire une voiture ou faire du vélo. Au début, la charge cognitive était très élevée, car nous devions réfléchir consciemment à chaque aspect de ce que nous faisions. Il en résultait un niveau élevé de stress et probablement un bon nombre d'erreurs. Avec la pratique, certaines actions sont devenues automatiques, réduisant notre charge cognitive et, par conséquent, notre stress. Nous avons également appris ou développé des heuristiques : par exemple, plutôt que de regarder le compteur de vitesse, ce qui n'est ni rapide (il faut déplacer notre regard) ni économe (il faut lire un affichage numérique), la plupart des gens évaluent leur vitesse en observant la rapidité avec laquelle les objets sur le bord de la route défilent dans leur vision périphérique[19].
Plutôt que de décourager l’usage de ces raccourcis, il est préférable de promouvoir de meilleurs raccourcis – ou d’apprendre à mieux utiliser ceux qui existent déjà – qui soient tout aussi rapides et efficaces. Voici quelques exemples de raccourcis mentaux courants qui risquent de se retourner contre nous :
L’esthétique : évaluer une source en se basant sur son apparence ou d'autres signes de crédibilité (comme une adresse Web en « .org »). Autrefois, cela signifiait préférer des sites à l’allure professionnelle. Aujourd'hui, les jeunes ont tendance à privilégier les sources sans publicités évidentes, qu'ils associent à des sites « qui se concentrent sur l'information plutôt que sur le profit[20] ». De même, selon une étude de 2024, la plupart des étudiants utilisent encore l'extension de l'adresse Web (comme le « .org ») comme indicateur principal de fiabilité[21].
La disponibilité : s'appuyer sur ce qui nous vient le plus facilement à l'esprit. Cela peut être trompeur, car ce qui est le plus disponible dans notre esprit est souvent ce qui s'est passé récemment ou ce qui est resté gravé en raison de son caractère marquant ou dramatique. Cela peut aussi nous amener à voir des schémas là où il n'y en a pas : par exemple, si on tire trois cœurs d'un jeu de cartes, on peut conclure hâtivement à un motif plutôt que de le considérer comme faisant partie d'une séquence aléatoire plus large. Comme nous survalorisons notre propre expérience, ce raccourci peut aussi nous conduire à supposer que ce qui est vrai pour nous l'est pour tout le monde.
La facilité : choisir une source en fonction de sa facilité d'accès ou de compréhension. Cela se traduit souvent par une approche du « suffisamment bon » (par exemple, obtenir juste assez d'informations pour étayer un argument), faire une recherche sans creuser davantage les résultats, ou préférer le contenu vidéo au contenu écrit[22].
L’opinion publique : s'appuyer sur « l'opinion publique » pour valider ou rejeter une information – par exemple, en vérifiant si des commentaires sous une publication contredisent ce qui est dit[23].
Le scepticisme naïf : traiter toutes les sources comme peu fiables pour éviter d'être dupé. Bien que le doute soit essentiel à la pensée critique, si nous ne reconnaissons pas que certaines sources sont plus fiables que d'autres, nous nous replierons simplement sur nos croyances existantes. Les propagateurs de désinformation peuvent en profiter en prétendant qu'il y a moins de consensus sur un sujet qu'il n'y en a réellement. Cette stratégie est souvent qualifiée de « stratégie de l'industrie du tabac », utilisée pendant des années pour faire croire au public qu'il y avait encore un doute sur le lien entre le tabagisme et le cancer[24].
La saillance : se concentrer sur ce qui semble le plus pertinent ou important à un moment donné. Soyez attentif aux informations qui provoquent de vives émotions comme la colère ou la peur, ou qui vous confortent dans vos opinions[25].
La délégation de la pensée : plutôt que de puiser dans de multiples sources, il peut être plus facile de trouver une ou quelques personnes vers qui se tourner pour « filtrer l'information et clarifier les points de vue[26] ».
Même lorsque nous faisons un effort conscient pour raisonner, rien ne garantit que cela nous mènera à un bon résultat. La pensée critique ne consiste donc pas seulement à privilégier la raison sur l'intuition, mais à raisonner correctement. Comme le dit Susan Gelman, « les tendances cognitives qui nous rendent si intelligents et sophistiqués peuvent aussi être sources de distorsion et de biais[27] ».
Trois questions pour exercer la pensée critique
Pour vérifier si vous réfléchissez de manière critique, posez-vous ces trois questions[28] :
- Qu’est-ce que je pense ou crois déjà à ce sujet?
Nous prêtons attention aux informations qui confirment ce que nous croyons déjà. Ce n’est pas forcément un mal : en science, en médecine et dans d’autres domaines, les experts se basent sur l’ensemble des preuves disponibles pour arriver à un consensus qui est le plus probable.
Il est important de connaître le consensus sur un sujet avant d'évaluer de nouvelles informations. Attention toutefois à ne pas accepter une information uniquement parce qu’elle renforce vos croyances, ou à la rejeter parce qu’elle les contredit[29]. - Pourquoi ai-je envie de croire ou de ne pas croire cette information?
Il est bon d'être sceptique. Cependant, nous sommes parfois moins sceptiques envers les choses que nous voulons croire vraies - et plus sceptiques envers celles que nous ne voulons pas croire[30] - au point d'ignorer des avertissements clairs, comme les vérifications de faits qui signalent qu’une information est fausse ou peu fiable[31]. L’appartenance à un groupe ou à une idéologie (le biais partisan) rend aussi les gens moins réceptifs aux sources d’information qui pourraient remettre en cause leurs idées[32].
L’important, ce n’est pas de faire confiance ou de se méfier par défaut, mais de prendre le temps de se concentrer sur la vérité. Avant de décider de croire quelque chose, demandez-vous si vous penseriez de la même façon si vous ne vouliez pas que ce soit vrai. Et assurez-vous de vérifier tout aussi rigoureusement les choses que vous voulez croire! - Qu'est-ce qui me ferait changer d'avis?
« Pour enquêter correctement, vous devez vous permettre d’avoir tort. » — Jordan Wildon
Imaginez que vous assemblez un puzzle. Les théoriciens du complot pensent déjà savoir à quoi il va ressembler. Ils ne gardent que les pièces qui confirment leur idée et rejettent celles qui pourraient la contredire.
C’est pourquoi la partie la plus importante de l’esprit critique est d’être prêt à changer d’avis en fonction de nouvelles informations.
Avant de vérifier quelque chose, décidez de ce qui vous convaincrait que l’information est vraie ou pas :
Et si un vérificateur de faits de confiance confirmait ou démentait cette information?
Et si vous appreniez que la source est un média crédible, ou au contraire, connu pour diffuser de la désinformation? (N’oubliez pas qu’il est essentiel de retrouver la source originale d’une information pour la vérifier correctement. Consultez FAUX que ça cesse pour en savoir comment faire.
[1] Van de Cruys, S., Bervoets, J., Gadsby, S., Gijbels, D., & Poels, K. (2023). Insight in the conspiracist’s mind.
[2] McRaney, D. (2022) How Minds Change. Penguin Random House.
[3] Warzel, C. (2022) “The Bad Ideas Our Brains Can’t Shake.” The Atlantic
[4] Reboot Foundation. (2022) Science Fictions: Low Science Knowledge and Poor Critical Thinking are Linked to Conspiracy Beliefs.
[5] Booth, E., Lee, J., Rizoiu, M. A., & Farid, H. (2024). Conspiracy, misinformation, radicalisation: understanding the online pathway to indoctrination and opportunities for intervention. Journal of Sociology, 14407833241231756.
[6] Oeberst, A., & Imhoff, R. (2023). Toward parsimony in bias research: A proposed common framework of belief-consistent information processing for a set of biases. Perspectives on Psychological Science, 18(6), 1464-1487.
[7] Stone, C., Mattingley, J. B., & Rangelov, D. (2022). On second thoughts: changes of mind in decision-making. Trends in cognitive sciences, 26(5), 419-431.
[8] Oeberst, A., & Imhoff, R. (2023). Toward parsimony in bias research: A proposed common framework of belief-consistent information processing for a set of biases. Perspectives on Psychological Science, 18(6), 1464-1487.
[9] Perloff, R. M. (2018). A three-decade retrospective on the hostile media effect. In Advances in Foundational Mass Communication Theories (pp. 196-224). Routledge.
[10] Duke, A. (2018). Thinking in bets: Making smarter decisions when you don't have all the facts. Penguin.
[11] De Neys, W. (2023). Advancing theorizing about fast-and-slow thinking. Behavioral and Brain Sciences, 46, e111.
[12] Reboot Foundation. (n.d.) How to Teach Critical Thinking.
[13] Knöchelmann, L., & Cohrs, J. C. (2024). Effects of intellectual humility in the context of affective polarization: Approaching and avoiding others in controversial political discussions. Journal of Personality and Social Psychology.
[14] Koetke, J., Schumann, K., Porter, T., & Smilo-Morgan, I. (2023). Fallibility salience increases intellectual humility: Implications for people’s willingness to investigate political misinformation. Personality and Social Psychology Bulletin, 49(5), 806-820.
[15] Tongeren, D. (2024) The Curious Joy of Being Wrong. The Conversation
[16] Chinn, S., & Hasell, A. (2023). Support for “doing your own research” is associated with COVID-19 misperceptions and scientific mistrust. Harvard Kennedy School Misinformation Review.
[17] Wilke A. et Mata R. (2012) Cognitive Bias. In : V.S. Ramachandran (ed.) The Encyclopedia of Human Behavior, vol. 1, pp. 531-535. Academic Press.
[18] Young, D. G. (2023). Wrong : How media, politics, and identity drive our appetite for misinformation. JHU Press.
[19] Denton, G. G. (1980). The influence of visual pattern on perceived speed. Perception, 9(4), 393-402.
[20] Hassoun, A., Beacock, I., Consolvo, S., Goldberg, B., Kelley, P. G., & Russell, D. M. (2023, April). Practicing Information Sensibility: How Gen Z Engages with Online Information. In Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems (pp. 1-17).
[21] Besharat-Mann, R. (2024). Can I trust this information? Using adolescent narratives to uncover online information seeking processes. Journal of Media Literacy Education, 16(1), 1-18.
[22] Hassoun, A., Beacock, I., Consolvo, S., Goldberg, B., Kelley, P. G., & Russell, D. M. (2023, April). Practicing Information Sensibility: How Gen Z Engages with Online Information. In Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems (pp. 1-17).
[23] Hassoun, A., Beacock, I., Consolvo, S., Goldberg, B., Kelley, P. G., & Russell, D. M. (2023, April). Practicing Information Sensibility: How Gen Z Engages with Online Information. In Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems (pp. 1-17).
[24] Oreskes, N., & Conway, E. M. (2010). Defeating the merchants of doubt. Nature, 465(7299), 686-687.
[25] Szewach, P., Reifler, J., & Oscarsson, H. (2022). Is resistance futile? Citizen knowledge, motivated reasoning, and fact-checking. Knowledge Resistance in High-Choice Information Environments, 166.
[26] Hassoun, A., Beacock, I., Consolvo, S., Goldberg, B., Kelley, P. G., & Russell, D. M. (2023, April). Practicing Information Sensibility: How Gen Z Engages with Online Information. In Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems (pp. 1-17).
[27] Gelman, S. A. (2023). Looking beyond the obvious. American Psychologist, 78(5), 667.
[28] Sadek, D., & Carvin A. (2024) "How to consume information in times of conflict," Digital Forensic Research Lab (DFRLab), 18 mars 2024, https://dfrlab.org/2024/03/18/how-to-consume-information-in-times-of-conflict
[29] Warzel, C. (2024) Evidence Maximalism Is How the Internet Argues Now. The Atlantic.
[30] Li, J. (2023). Not all skepticism is “healthy” skepticism: Theorizing accuracy-and identity-motivated skepticism toward social media misinformation. new media & society, 14614448231179941.
[31] Li, J. (2023). Not all skepticism is “healthy” skepticism: Theorizing accuracy-and identity-motivated skepticism toward social media misinformation. New Media & Society, 14614448231179941.
[32] Chopra, F., Haaland, I., & Roth, C. (2024). The demand for news: Accuracy concerns versus belief confirmation motives. The Economic Journal, ueae019.