Propagande haineuse et liberté d'expression

La frontière est souvent mince entre liberté d’expression et propos haineux. D’ailleurs, la définition de ce qui est acceptable ou non d’exprimer et de diffuser varie d’un pays, d’une plateforme et d’une communauté à l’autre. Sur Internet, la ligne est encore plus mince, et un commentaire haineux affiché légalement dans un pays peut être considéré illégal dans des pays où les critères sont plus rigoureux.

La haine dans un environnement de liberté d’expression

Plusieurs soutiennent que la meilleure réponse au discours haineux n’est pas la criminalisation, mais un autre discours. Cette approche est souvent appelée « contre-discours », une stratégie examinée dans la section Interventions et solutions. Il existe toutefois des preuves que le fait de permettre tous les discours peut créer un obstacle à la liberté d’expression puisque les victimes de harcèlement commencent à se censurer plutôt que de s’engager dans un contre-discours. [1] En outre, il n’est possible de réfuter que les discours dont nous avons connaissance, ce qui signifie que, même s’il peut être efficace dans les espaces en ligne entièrement publics, il n’aura que peu d’impact sur l’utilisation des plateformes numériques par les groupes haineux pour s’organiser, ou sur l’utilisation de messages ciblés pour radicaliser des membres potentiels[2].

La liberté d’expression : une vision du monde

Bien que la liberté d’expression soit garantie par la Charte canadienne des droits et libertés, il existe des lois qui régissent précisément les discours haineux(lesquelles sont examinées dans la section Propagande haineuse et législation canadienne). Un sondage récent mené pour l’Association d’études canadiennes a dévoilé qu’une grande majorité de Canadiens (73 %) s’entendent pour dire que les gouvernements devraient intervenir pour limiter les discours haineux en ligne, et que 60 % d’entre eux ne perçoivent pas cette intervention comme une réduction déraisonnable de la liberté d’expression[3]. De même, 70 % des Canadiens qui ont participé à la consultation du Conseil de la radiodiffusion et des télécommunications canadiennes sur la chaîne câblée américaine Fox News étaient favorables à son interdiction sur les ondes canadiennes en raison de son historique de diffusion de contenus transphobes et homophobes[4].

Selon les recherches d’HabiloMédias, les jeunes Canadiens se soucient encore moins des risques de porter atteinte à la liberté d’expression sous prétexte de réduire le contenu haineux : environ 1 jeune sur 4 (28 %) juge qu’il est plus important de préserver le droit à la liberté d’expression que de se prononcer contre les préjudices fortuits[5].

Puisqu’un si grand nombre de plateformes en ligne sont hébergées aux États-Unis, et que les voix américaines dominent la majorité des conversations en anglais sur les plateformes en ligne, il est également important de noter que l’approche américaine a traditionnellement été quelque peu différente.

Alors que la Charte canadienne des droits et libertés et la Déclaration des droits des États-Unis renferment toutes deux des dispositions garantissant la liberté d’expression, les législateurs et les tribunaux américains ont généralement déterminé que les discours haineux deviennent illégaux seulement s’ils mènent à certaines formes de préjudices physiques directs, comme la diffamation ou la provocation d’une émeute[6].

Dans sa synthèse des réponses aux discours haineux, l’UNESCO suggère que notre conception du problème devrait dépasser les limites des définitions juridiques, car « [l]’accent mis sur le potentiel d’un acte de langage de conduire à la violence et de causer du tort […] [peut] conduire à une vision étroite se cantonnant à des considérations d’ordre public ». Il serait préférable de considérer la question comme étant « le respect de la dignité humaine, donnant aux victimes des actes de langage le pouvoir d’exiger le respect et d’être défendues, les plaçant elles, plutôt que l’État ou un autre acteur, au centre des solutions concrètes[7] ».

La liberté d’expression en affaires

Le fait que la plupart des discours en ligne ne se produisent pas dans un véritable espace public, mais plutôt sur une plateforme détenue et exploitée par une société, plus comme un centre commercial qu’une place publique, complique davantage la situation.

D’un point de vue historique, les différents types de technologies des communications ont été soumis à différentes normes lorsqu’il a été question de réglementer les formes d’expression. La plupart des gens conviennent qu’il est logique que les entreprises de médias biunivoques, comme une entreprise de téléphonie ou un service postal, ne devraient pas être tenues responsables du contenu qui est communiqué au moyen de leurs services, tandis que les entreprises de médias multivoques, comme les journaux et les chaînes de télévision, ont traditionnellement été tenues responsables du contenu qu’elles communiquent. Les technologies réseautées, comme les sites Web et les médias sociaux, se trouvent dans une zone grise puisqu’elles comptent plusieurs « diffuseurs »», qui peuvent toutefois toucher un vaste public. En raison de cette ambiguïté, l’organisme Ethical Journalism Network suggère que le contenu potentiellement haineux ne soit pas jugé simplement en fonction du contenu, mais selon cinq facteurs.

  1. Le contenu est-il susceptible d’inciter à la haine ou à la violence envers autrui?
  2. Qui publie ou partage le contenu?
    • L’auteur du message est-il susceptible d’influencer son public?
    • Comment sa position ou ses antécédents influencent-ils la façon dont les destinataires comprennent les motivations sous-jacentes de son message?
    • Le fait de lui répondre aura-t-il pour effet de réduire ou d’augmenter la portée de son message?
  3. Quelle est la portée du contenu?
    • S’agit-il d’un comportement récurrent?
  4. Le contenu est-il communiqué dans le but de causer du tort à autrui?
    • Comment le contenu sert-il l’auteur ou ses intérêts?
  5. La cible du contenu est-elle un groupe vulnérable?[8]

Bien que de nombreuses plateformes en ligne projettent l’image d’espaces publics, les jeunes s’accordent pour dire que les limites entre le droit à la liberté d’expression et le besoin de limiter la haine sont différentes dans ces types de lieux : plus des deux tiers (68 %) des étudiants universitaires américains pensent que les plateformes des médias sociaux devraient prendre des mesures contre les discours haineux[9].

Modération et déplateformage (sociomuselage)

Presque toutes les plateformes pratiquent une forme ou une autre de modération des contenus, et la plupart d’entre elles prévoient des dispositions visant à interdire ou à limiter les discours haineux. Dans la pratique, cette façon de faire se traduit généralement par une ou plusieurs des cinq catégories de mesure suivantes :

  1. régulation de contenu : suppression ou déplacement de contenu ou ajout d’un avertissement ou d’une réfutation;
  2. régulation de compte : résiliation, suspension ou rétrogradation des comptes d’utilisateurs;
  3. réduction de la visibilité : désindexation ou blocage de contenu;
  4. mesure monétaire : empêcher la monétisation du contenu ou imposer des amendes aux utilisateurs;
  5. autres : éducation des utilisateurs et autres mesures n’entrant pas dans les autres catégories[10].

La modération est loin d’être un problème simple, mais elle peut être mieux perçue du point de vue du compromis : entre les systèmes centralisés qui donnent aux modérateurs le pouvoir de prendre des décisions et les modèles distribués qui s’appuient sur les utilisateurs pour filtrer leurs propres expériences, par exemple, ou entre les systèmes transparents qui sont perçus comme plus clairs et légitimes et les systèmes opaques dont les mauvais joueurs ont plus de difficulté à tirer parti[11]. Ces mêmes mauvais acteurs s’efforcent continuellement de trouver des moyens de contourner les outils de modération, par exemple en griffonnant sur des images interdites ou en réalisant un composite de plusieurs images, ce qui permet de modifier le « hachage » du fichier et donc d’éviter que les algorithmes de modération le détectent[12].

La question se corse toutefois : le harcèlement et les déclarations haineuses manifestes causent certainement du tort, mais le contenu haineux qui est déguisé en ironie, humour et désinformation peut causer encore plus de dommages. Ainsi masqué, il est plus susceptible d’influencer les gens qui n’ont pas encore formé leur opinion, surtout ceux qui, comme les jeunes, ne possèdent pas l’expérience et les connaissances nécessaires qui leur permettent de comprendre pourquoi ces opinions sont si nocives.

Le déplateformage consiste à bannir une communauté entière ou à bloquer la discussion d’un sujet ou d’un message particulier. Bien qu’il existe certaines données probantes indiquant que ces communautés tendent à se regrouper dans des espaces plus cléments, où l’absence de voix modératrices peut les amener à se radicaliser encore davantage[13], les preuves suggèrent que le déplateformage d’organisations haineuses réduit la diffusion et l’engagement de contenus haineux dans l’ensemble[14]. Le déplateformage d’une seule personne ou d’un petit nombre de « superpropagateurs » de haine peut également avoir un impact significatif : la suppression du compte Twitter du président américain Donald Trump en janvier 2021 a entraîné une réduction de 25 % de la nocivité des gazouillis envoyés par les utilisateurs qui le suivaient sur la plateforme[15].

En outre, le niveau de nocivité de chaque utilisateur n’est pas constant lorsqu’il passe d’une plateforme à l’autre et d’un espace à l’autre : la recherche suggère plutôt que la plupart des utilisateurs adaptent leur comportement aux normes de chaque communauté à laquelle ils participent[16]. Il est donc particulièrement important de donner aux jeunes les moyens de participer à l’élaboration de ces normes.

La liberté d’expression dans la salle de classe

Comme les médias numériques, la salle de classe est un terrain intermédiaire qui rend impossible une approche absolutiste de la liberté d’expression. Comme l’écrit Richard Weissbourd, codirecteur du projet Making Caring Common et maître de conférences à la Harvard Graduate School of Education, dans la salle de classe, « deux droits fondamentaux individuels et démocratiques s’entrechoquent. D’un côté, on trouve le droit à la liberté d’expression, mais de l’autre, le droit de vivre sans faire l’objet de discrimination. Est-il sage d’obtenir des points de vue divers sur l’immigration lorsqu’une personne pourrait suggérer la déportation des enfants immigrants alors que des enfants immigrants sont présents dans la classe?[17] »

Kevin Kumashiro, ancien doyen de l’École d’éducation de l’Université de San Francisco, souligne que nos approches de la liberté d’expression en classe reposent souvent sur bon nombre d’idées qui peuvent causer du tort à certains étudiants, ou les réduire au silence. Parmi elles se trouvent les notions que dans une démocratie, il est nécessaire que tous les points de vue soient entendus, que ne pas pouvoir exprimer librement des opinions haineuses soit une forme de préjudice, et que l’objectif du dialogue en classe soit de demander aux participants de « mettre toutes les cartes sur table ». Cependant, il précise que, tout comme dans d’autres espaces semi-publics, un enseignant qui autorise les discours haineux peut réduire au silence les étudiants que ces discours ciblent[18].

Le guide Conversations difficiles en classe de HabiloMédias recommande de prendre les mesures suivantes pour favoriser des discussions ouvertes et sûres en classe :

  • n’allez pas trop vite;
  • favorisez une discussion ouverte, mais établissez une limite entre la discussion en classe et le discours politique;
  • établissez des règles claires et cohérentes, idéalement en collaboration avec les élèves;
  • précisez quelles questions vous considérez comme « résolues » avant d’entamer la discussion (les questions résolues sont celles qui ont été prouvées de manière concluante ou qui sont acceptées par la société comme étant résolues, comme « La loi devrait-elle accorder les mêmes droits à tous et à toutes? » Les questions actives sont celles qui font encore l’objet de débats, comme « De quelle façon devrions‑nous résoudre les conflits entre les droits des différents groupes et personnes? »);
  • répondez immédiatement aux commentaires problématiques, mais ne les laissez pas faire dérailler la conversation : demandez des précisions, remettez en question les attitudes erronées et les sources trompeuses, et tentez de rediriger vers une question active.

(Ces mesures sont abordées plus en détail dans le guide.)


[1] Lenhart, A., Ybarra, M., Zickhur, K., & Price-Feeney, M. (2016). Online Harassment, Digital Abuse, and Cyberstalking in America (Rep.). New York, NY: Data & Society. doi:https://www.datasociety.net/pubs/oh/Online_Harassment_2016.pdf

[2] Tufekci, Z. (2018) It’s the (Democracy-Poisoning) Golden Age of Free Speech. Wired. https://www.wired.com/story/free-speech-issue-tech-turmoil-new-censorship/

[3] Scott, M. (27 janvier 2019). Most Canadians have seen hate speech on social media: SurveyMontreal Gazette. Consulté le 24 avril 2019 sur le site https://montrealgazette.com/news/local-news/hate-speech-targets-muslims.

[4] Karadeglija, A. (2023) " Ban Fox News from TV, CRTC hears as thousands of Canadians write to regulator.” The National Post.

[5] Brisson-Boivin, K. (2019). « Les jeunes Canadiens en ligne : repoussant la haine ». HabiloMédias. Ottawa.

[6] McLachlin, B. (2004) Protecting Constitutional Rights: A Comparative View of the United States and Canada. Supreme Court of Canada. https://www.scc-csc.ca/judges-juges/spe-dis/bm-2004-04-05-eng.aspx

[7] Gagliardone, I., Gal, D., Alves, T., et Martinez, G. (2015). Countering Online Hate Speech (rapport). Paris : UNESCO. [traduction]

[8] Hate Speech: A 5 point test for Journalists – Infographics. (sans date). Consulté sur le site https://ethicaljournalismnetwork.org/resources/infographics.

[9] Knight Foundation (12 mars 2018). 8 ways college student views on free speech are evolving. Consulté sur le site https://medium.com/informed-and-engaged/8-ways-college-student-views-on-free-speech-are-evolving-963334babe40.

[10] Goldman, E. (2021). Content moderation remedies. Mich. Tech. L. Rev., 28, 1.

[11] Jiang, J. A., Nie, P., Brubaker, J. R., & Fiesler, C. (2023). A trade-off-centered framework of content moderation. ACM Transactions on Computer-Human Interaction, 30(1), 1-34.

[12] McDonald, B. (2022) Extremists are Seeping Back into the Mainstream: Algorithmic Detection and Evasion Tactics on Social Media Platforms. GNET.

[13] Horta Ribeiro, M., Jhaver, S., Zannettou, S., Blackburn, J., Stringhini, G., De Cristofaro, E., & West, R. (2021). Do platform migrations compromise content moderation? evidence from r/the_donald and r/incels. Proceedings of the ACM on Human-Computer Interaction, 5(CSCW2), 1-24.

[14] Thomas, D. R., & Wahedi, L. A. (2023). Disrupting hate: The effect of deplatforming hate organizations on their online audience. Proceedings of the National Academy of Sciences, 120(24), e2214080120.

[15] Müller, K., & Schwarz, C. (2022). The Effects of Online Content Moderation: Evidence from President Trump's Account Deletion. Available at SSRN 4296306. (Trump’s deletion was reversed in 2023, but as of this writing he has not yet resumed using his account.)

[16] Rajadesingan, A., Resnick, P., & Budak, C. (2020, May). Quick, community-specific learning: How distinctive toxicity norms are maintained in political subreddits. In Proceedings of the International AAAI Conference on Web and Social Media (Vol. 14, pp. 557-568).

[17] Challenge Ideas, Not People [Fichier vidéo] (28 février 2017). Consulté le 17 avril 2019 sur le site https://www.youtube.com/watch?v=tY3MHPXsV7o. [traduction]

[18] « How Hate Speech Complicates Our Understanding of Bullying » [Webinaire] (24 juillet 2018). International Bullying Prevention Association.