Les bases de la vérification des informations - Aperçu
Le paysage de la désinformation
L'ère du numérique nous confronte à des problèmes sans précédent en ce qui concerne la recherche d'information et la vérification des faits. Si notre problème initial portait sur l'obtention d'information, notre grande difficulté d'aujourd'hui consiste à filtrer ce qui est nécessaire de ce qui ne l'est pas. En fait, il est maintenant si facile de créer et diffuser de l'information que nous ne pouvons plus supposer que les sources ont quoi que ce soit à perdre lorsqu'elles communiquent des contenus faux ou trompeurs. Essentiellement, de nos jours nous devons tous être bibliothécaires, chercheurs et vérificateurs de faits pour nous-mêmes.
« Dire aux gens d'être sceptiques n'est qu'un point de départ. La vraie question est de savoir comment décider à qui faire confiance. Si nous ne pouvons pas nous fier au contenu lui-même, la fiabilité de la source devient alors essentielle[2].
Nous pouvons identifier trois types de fausses informations, auxquelles nous sommes vulnérables de différentes façons[3] :
- Les mensonges, où l'affirmation et les preuves qui la soutiennent sont fausses. Nous sommes plus susceptibles d'y croire si nos biais cognitifs ou identitaires y adhèrent.
- Les fausses vérités, où des fausses preuves sont utilisées pour soutenir une affirmation qui, en surface, semble vraie. Cela peut mener à la rationalisation, où le but du raisonnement est de conforter notre première impression. Cela arrive parce que nous délibérons d'une manière qui ne permet pas de corriger les erreurs[4]. Il n'est donc pas surprenant que nous acceptions plus facilement ces informations si elles renforcent notre identité partisane. Même quand on apprend que les preuves sont fausses, elles nous paraissent souvent plus acceptables que d'autres formes de désinformation[5]. (C’est d’ailleurs pourquoi les gens croient souvent aux articles de presse satiriques et affirment qu’ils sont « vrais ».)
- Les demi-vérités, où des preuves réelles sont utilisées pour étayer une fausse affirmation. Ces formes de désinformation sont les plus difficiles à identifier car elles s'appuient souvent sur des arguments logiques construits sur des faits, à première vue, corrects, mais qui sont en réalité trompeurs ou déformés — par exemple, en utilisant des statistiques sorties de leur contexte ou incomplètes.
Quelle est l'ampleur du problème de la désinformation?
En 2024, environ un tiers des Canadiens (32 %) ont déclaré avoir régulièrement vu des informations concernant des événements récents ou actuels qu'ils soupçonnaient être fausses, au moins plusieurs fois par semaine. Parmi eux, près de la moitié (17 %) ont découvert, après coup, que certaines des informations qu'ils croyaient vraies étaient en fait fausses. Ces statistiques sont restées relativement stables au cours des cinq dernières années[6].
Les informations fausses et trompeuses peuvent avoir des conséquences graves, surtout lorsqu'elles sont massivement diffusées, qu’elles touchent des sujets sensibles comme la santé ou la politique, ou qu'elles atteignent des personnes déjà enclines à les croire[7].
Alors que les Canadiens considèrent la désinformation comme l'une des plus grandes menaces pour leur santé et leur mode de vie[8], et que près de la moitié d'entre eux affirment qu'il est de plus en plus difficile de distinguer les vraies des fausses informations[9], seule une personne sur cinq applique les principes d'une « bonne hygiène de l'information », ce qui inclut remettre en question les opinions contraires aux siennes, consulter régulièrement diverses sources d'informations et vérifier la véracité d'un contenu avant de le partager[10]. Les jeunes, en particulier, se tournent massivement vers les réseaux sociaux pour s'informer et s'appuient souvent sur des indices peu fiables, comme les commentaires d'autres utilisateurs, pour décider s'ils doivent croire ce qu'ils lisent ou voient[11]. Les jeunes Canadiens craignent que « l'abondance de fausses informations et de désinformations ne prenne le dessus sur leur accès limité à des informations de qualité, gratuites et fiables [...] [et] ne les conduise à l'apathie ou à un plus grand enracinement idéologique »[12].
La désinformation peut également être très engageante : une étude de 2024 a révélé que si seulement 2 % des liens partagés par des personnalités canadiennes influentes ont généré 18 % de l'engagement total (mentions « j’aime », partages, commentaires, etc.)[13], cette tendance s'explique en partie par des algorithmes qui privilégient les contenus suscitant de fortes réactions, afin de maintenir l'attention des utilisateurs[14].
Les contenus créés à l'aide de l'IA générative, notamment les agents conversationnels, les articles d'actualité et les sites Web fabriqués de toutes pièces[15], les publications trompeuses sur les réseaux sociaux, les appels vocaux truqués et les hypertrucages, représentent une avancée majeure dans le paysage de la désinformation[16]. En effet, ces technologies peuvent produire du texte, des images, du son ou de la vidéo en réponse aux requêtes des utilisateurs, permettant ainsi de créer en masse des contenus médiatiques personnalisés, et ce, sans frais[17]. Cela a conduit à une prolifération de contenus de mauvaise qualité, notamment sur des plateformes comme Facebook, qui sont désormais inondées de ces contenus générés par l'IA[18].
Des études ont démontré que les fausses informations générées par l'IA[19], ainsi que les contenus dits « cyborgs » – créés par l'IA puis retravaillés par des humains– peuvent être particulièrement convaincants[20]. Malheureusement, « l'IA générative devenant de plus en plus performante, l'époque où il était possible de déceler des indices révélateurs pour identifier un faux est presque révolue »[21].
Un nombre croissant de personnes se tournent vers des agents conversationnels d'IA pour obtenir des informations et répondre à des questions[22], et des moteurs de recherche comme Google intègrent désormais des « aperçus IA » dans leurs résultats. Bien que ces outils ne soient pas intentionnellement trompeurs comme les hypertrucages, ils restent sujets à des erreurs, notamment à des « hallucinations » algorithmiques[23]. Certaines de ces erreurs proviennent de l'incapacité de l'IA à reconnaître la satire, tandis que d'autres sont influencées par des théories du complot omniprésentes sur internet.
En 2024, deux Canadiens sur dix ont affirmé avoir été confrontés à un hypertrucage au cours de l'année écoulée[24]. Même si les Canadiens sont généralement sceptiques à l'égard des contenus générés par l'IA[25], ce scepticisme pourrait également les pousser à remettre en question des contenus réels[26], ce qui permettrait à des acteurs malveillants de tirer parti du « dividende du menteur », une stratégie consistant à faire passer tout contenu compromettant ou que l’on refuse de croire pour un hypertrucage.
Beaucoup de gens, lorsqu'ils pensent à l'IA, imaginent qu'elle va tromper les gens en leur faisant croire des choses fausses. Mais en réalité, elle offre plutôt aux gens une excuse pour ne pas croire à ce qui est vrai. Ils peuvent simplement dire : « Oh, c'est une image générée par l'IA. Aujourd'hui, l'IA peut créer n'importe quoi : des vidéos, des audios, ou même recréer entièrement une scène de guerre. » Les gens s'en serviront comme prétexte... Et si leur esprit critique est constamment en alerte, ils finiront par douter de tout. Eliot Higgins, fondateur de l'organisation de vérification des faits Bellingcat[27].
Pourquoi les gens croient-ils à la désinformation?
Nous sommes plus enclins à accepter la mésinformation lorsqu'elle confirme nos croyances et renforce notre identité. Par exemple, la propagande nazie a eu plus d'impact dans les régions d'Allemagne où l'antisémitisme était historiquement fort, tandis que son influence a été moindre là où il était historiquement faible[28]. De la même manière, les personnes ayant déjà des opinions sexistes sont plus susceptibles d'adhérer aux théories du complot sur le féminisme[29].
Il est important de noter que notre perception n'est pas uniquement influencée par ce que nous voyons directement. Les croyances de « second ordre » – c'est-à-dire ce que nous pensons que les autres croient – influencent également fortement nos opinions et ce que nous sommes prêts à exprimer[30]. Dans un contexte médiatique, cela peut se manifester par une ignorance pluraliste, où nous pensons à tort que peu de gens partagent nos opinions, alors que c'est loin d'être le cas[31]. Ce phénomène est particulièrement amplifié en ligne : lorsque nous voyons plusieurs fois la même affirmation – même si elle provient d'une seule source partagée par plusieurs personnes – nous sommes plus enclins à y croire, ce qui s'explique par un biais connu sous le nom d'effet de vérité illusoire[32].
Enseigner l’authentification
On peut décomposer la pensée critique en plusieurs aspects :
- La motivation d'être précis;
- Des compétences spécifiques telles que le raisonnement, la résolution de problèmes et la prise de décision;
- Et la métacognition, soit la capacité de réfléchir sur sa propre façon de penser[33].
Ces trois aspects sont interconnectés et se renforcent mutuellement, mais cette distinction nous aide à mieux appréhender les différentes méthodes pour enseigner la pensée critique.
Il existe également un certain nombre de stratégies pour nous rendre plus résistants à la désinformation :
- La vérification des faits par des experts;
- La mise en œuvre de mécanismes incitatifs comme les « incitatifs comportementaux » de précision;
- L'inoculation contre les fausses affirmations et les techniques de désinformation, telles que les arguments fallacieux;
- Le renforcement de la gestion de l'identité, par le biais de techniques comme la prise de recul;
- L'amélioration de nos compétences en matière de réflexion, tant de manière générale que spécifiquement pour l'information en ligne[34].
Les recherches menées par HabiloMédias montrent que la recherche et l’authentification sont figurent au premier rang des compétences numériques que les élèves souhaitent acquérir[35]. D'autres études révèlent que ces derniers souhaitent acquérir ces compétences dès que possible[36]. Les personnes bénéficiant d'une solide éducation aux médias numériques sont plus aptes à reconnaître la mésinformation[37]. Cependant, tous les programmes ne se valent pas : certains améliorent la capacité à identifier des informations fiables sans pour autant aider à repérer les fausses informations[38], et vice-versa. Malheureusement, de nombreux élèves se fient à des stratégies d'apprentissage peu efficaces, voire contre-productives, comme éviter l'utilisation de Wikipédia ou donner plus d’importance aux sites dont l’adresse finit par « .org » [39].
Sensibiliser les gens à la désinformation semble les rendre plus enclins à essayer de vérifier ce qu'ils voient en ligne[40], mais la sensibilisation n'est qu'une première étape. Comprendre la persuasion émotionnelle[41], la pensée critique, les industries de l'information et des médias, et savoir comment rechercher et vérifier les informations sont des compétences essentielles à maîtriser si nous voulons obtenir des informations pertinentes et fiables[42]. La Finlande, reconnue à l'international pour sa lutte contre la désinformation et la mésinformation, intègre ces compétences à un cadre plus large d'éducation aux médias numériques, qui fait partie intégrante de son programme scolaire[43].
Plutôt que de se concentrer uniquement sur la vérification ou la réfutation, les programmes les plus efficaces enseignent aux participants le discernement nécessaire pour faire la différence entre les deux[44] (par exemple, en incluant à la fois des exemples vrais et faux)[45] et encouragent à trouver des réponses « suffisamment bonnes » plutôt que de chercher une vérité absolue[46].
Ces programmes devraient également inclure des exercices pratiques, permettant d'appliquer immédiatement les connaissances et compétences acquises[47]. Enfin, il est crucial que ces initiatives renforcent la confiance des participants dans leur capacité à discerner les contenus fiables des trompeurs, plutôt que de les rendre plus méfiants[48]. Les adolescents, en particulier, répondent bien aux programmes qui les forment à devenir une ressource pour les membres de leur famille moins à l'aise avec les médias[49].
[1] (2022) Climate Change Remains Top Global Threat Across 19-Country Survey. Pew Research Center.
[2] Kapoor, S., & Narayanan A. (2023) How to Prepare for the Deluge of Generative AI on Social Media. Knight First Amendment Institute. https://knightcolumbia.org/content/how-to-prepare-for-the-deluge-of-generative-ai-on-social-media
[3] Langdon, J. A., Helgason, B. A., Qiu, J. et Effron, D. A. (2024). "It's not literally true, but you get the gist :" how nuanced understandings of truth encourage people to condone and spread misinformation. Current Opinion in Psychology, 101788.
[4] Pennycook, G. (2023). A framework for understanding reasoning errors: From fake news to climate change and beyond. In Advances in experimental social psychology (Vol. 67, pp. 131-208). Academic Press.
[5] Langdon, J. A., Helgason, B. A., Qiu, J., & Effron, D. A. (2024). “It’s not literally true, but you get the gist:” how nuanced understandings of truth encourage people to condone and spread misinformation. Current Opinion in Psychology, 101788.
[6] Lockhart, A., Laghaei, M & Andrey S. (2024) Sondage sur les préjudices en ligne au Canada 2024. The Dais.
[7] Tay, L.Q., Lewandowsky, S., Hurlstone, M.J. et al. Thinking clearly about misinformation. Commun Psychol 2, 4 (2024). https://doi.org/10.1038/s44271-023-00054-5
[8] McCarten, J. (2022) Bogus information, online climate change top Canadian fears in latest Pew survey. Associated Press
[9] Statistique Canada. (2023) Préoccupations concernant la désinformation en ligne. Le Quotidien.
[10] Heer., T., Heath C., Girling K., Bugg E. (2021) Misinformation in Canada: Research and Policy Options. Evidence for Democracy.
[11] Hassoun, A., Beacock, I., Consolvo, S., Goldberg, B., Kelley, P. G., & Russell, D. M. (2023, April). Practicing Information Sensibility: How Gen Z Engages with Online Information. In Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems (pp. 1-17).
[12] Assemblée canadienne jeunesse sur les droits numériques et la sécurité. (2023) “Canadian Youth Assembly on Digital Rights and Safety: Recommendations to promote the safety, well-being and flourishing of Canadian youth online.” Montréal, Centre pour les médias, la technologie et la démocratie.
[13] (2024) Écosystème canadien de l’information – Rapport de situation. Réseau canadien de recherche sur les médias numériques.
[14] Milli, S., Belli, L., & Hardt, M. (2021, March). From optimizing engagement to measuring value. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 714-722).
[15] Knibbs, K. (2025) How a Small Iowa Newspapers Website Became an AI Generated Clickbait Factory. Wired.
[16] Papadopoulos, S., Papadopoulou, O., Alaphilippe, A. & Giglietto F. (2024) Generative AI and Disinformation Report. Information Technologies Institute.
[17] Woodbury, R. (2024) Armes de production massive. Digital Native.
[18] DiResta, R. et Goldstein, J. A. (2024). How Spammers and Scammers Leverage AI-Generated Images on Facebook for Audience Growth. arXiv preprint arXiv:2403.12838.
[19] Spitale, G., Biller-Andorno, N., & Germani, F. (2023). AI model GPT-3 (dis) informs us better than humans. Science Advances, 9(26), eadh1850.
[20] Goldstein, J. A., Chao, J., Grossman, S., Stamos, A., & Tomz, M. (2024). How persuasive is AI-generated propaganda?. PNAS nexus, 3(2), page034.
[21] Hern, A. (2024) 'Time is running out' : can a future of undetectable deepfakes be avoided ? The Guardian.
[22] Barhsay, J. (2024) Teens are looking to AI for information and answers, two surveys show. The Hechinger Report
[23] Angwin, J., Nelson A. & Palta R. (2024) Seeking Reliable Election Information? Don’t Trust AI. Proof News.
[24] The Strategic Counsel. (2024) Trends in Internet Use and Attitudes: Findings from a Survey of Canadian Internet Users. CIRA.
[25] O'Neill, N. (2023) When it comes to AI search results, Canadians are skeptical : survey. CTV News.
[26] Ternovski, J., Kalla, J. et Aronow, P. (2022). The negative consequences of informing voters about deepfakes : evidence from two survey experiments. Journal of Online Trust and Safety, 1(2).
[27] Cité dans Subramanian, S. (2024) How to Lead an Army of Digital Sleuths in the Age of AI. Wired.
[28] Adena, M., Enikolopov, R., Petrova, M., Santarosa, V. et Zhuravskaya, E. (2015). Radio and the Rise of the Nazis in Prewar Germany. The Quarterly Journal of Economics, 130(4), 1885-1939.
[29] Jolley, D., Mari, S., Schrader, T. et Cookson, D. (2024). Sexism and feminist conspiracy beliefs : hostile sexism moderates the link between feminist conspiracy beliefs and rape myth acceptance. Violence against women, 10778012241234892.
[30] Mildenberger, M. et Tingley, D. (2019). Beliefs about climate beliefs : the importance of second-order opinions for climate politics. British Journal of Political Science, 49(4), 1279-1307.
[31] Mildenberger, M. et Tingley, D. (2019). Beliefs about climate beliefs : the importance of second-order opinions for climate politics. British Journal of Political Science, 49(4), 1279-1307.
[32] Udry, J., & Barber, S. J. (2023). The illusory truth effect: A review of how repetition increases belief in misinformation. Current Opinion in Psychology, 101736.
[33] Saiz, C., & Rivas, S. F. (2011). Evaluation of the ARDESOS programs: An initiative to improve critical thinking skills. Journal of the Scholarship of Teaching and Learning, 34-51
[34] Ziemer, C. T., & Rothmund, T. (2024). Psychological underpinnings of misinformation countermeasures: A systematic scoping review. Journal of Media Psychology: Theories, Methods, and Applications.
[35] HabiloMédias. (2023). « Jeunes Canadiens dans un monde branché, phase IV : Éducation aux médias numériques et cybercitoyenneté » HabiloMédias. Ottawa.
[36] Besharat-Mann, R. (2024). Can I trust this information? Using adolescent narratives to uncover online information seeking processes. Journal of Media Literacy Education, 16(1), 1-18.
[37] Steinfeld, N. (2023). How Do Users Examine Online Messages to Determine If They Are Credible? An Eye-Tracking Study of Digital Literacy, Visual Attention to Metadata, and Success in Misinformation Identification. Social Media+ Society, 9(3), 20563051231196871.
[38] Hoes, E. (2024). The Effect of a Real-World, Long-Term Media Literacy Intervention: A Difference-in-Differences Approach.
[39] Besharat-Mann, R. (2024). Can I trust this information? Using adolescent narratives to uncover online information seeking processes. Journal of Media Literacy Education, 16(1), 1-18.
[40] Statistique Canada. (2023) Préoccupations concernant la désinformation en ligne. Le Quotidien.
[41] Scheibenzuber, C. (2023). Media literacy education against fake news (Doctoral dissertation, lmu).
[42] Edwards, L., Stoilova, M., Anstead, N., Fry, A., El-Halaby, G., & Smith, M. (2021). Rapid evidence assessment on online misinformation and media literacy: Final report for OFCOM.
[43] Benke, E., & Spring M. (2022) US midterm elections: Does Finland have the answer to fake news? BBC News.
[44] Guay, B., Berinsky, A. J., Pennycook, G. et Rand, D. (2023). How to think about whether misinformation interventions work. Nature Human Behaviour, 7(8), 1231-1233.
[45] Altay, S., De Angelis, A., & Hoes, E. (2023). Beyond Skepticism: Framing Media Literacy Tips to Promote Reliable Information
[46] Hassoun, A., Beacock, I., Consolvo, S., Goldberg, B., Kelley, P. G., & Russell, D. M. (2023, April). Practicing Information Sensibility: How Gen Z Engages with Online Information. In Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems (pp. 1-17).
[47] Capewell, G., Maertens, R., Remshard, M., van der Linden, S., Compton, J., Lewandowsky, S. et Roozenbeek, J. (2023). Misinformation interventions decay rapidly without an immediate posttest. Journal of Applied Social Psychology.
[48] Bateman, J., & Jackson D. (2024) Countering Disinformation Effectively : An Evidence-Based Policy Guide. Fondation Carnegie pour la paix internationale.
[49] Orosz, G., Faragó, L., Paskuj, B., Rakovics, Z., Sam-Mine, D., Audemard, G., ... & Krekó, P. (2024). Softly empowering a prosocial expert in the family : lasting effects of a counter-misinformation intervention in an informational autocracy. Scientific Reports, 14(1), 11763.