Propagande haineuse en ligne - Interventions et solutions dans la salle de classe

Il existe deux principales stratégies pour lutter contre la propagande haineuse en ligne et les cultures de haine dans la salle de classe : enseigner aux jeunes à les reconnaître et les déconstruire, puis leur donner les moyens d’intervenir par la réplique[1].

Éducation à la littératie média numérique

Bon nombre d’écoles et de ménages se fient aux logiciels filtres pour protéger les jeunes contre l’exposition au contenu haineux, mais ces programmes ne constituent pas une solution complète : la propagande haineuse prend souvent des formes subtiles, comme des sites déguisés, qui échappent aux filtres[2]. Il est nécessaire d’enseigner aux jeunes à réfléchir de manière critique aux médias qu’ils consultent afin de les préparer à reconnaître à la fois la propagande haineuse manifeste et déguisée. De plus, le fait de dévoiler les techniques que les groupes haineux utilisent pour présenter leurs arguments, et les éléments communs de leurs idéologies, peut aider les jeunes à reconnaître les « signaux d’alerte » qui indiquent qu’une source essaie de les manipuler ou de leur fournir des renseignements biaisés.

Les jeunes doivent comprendre qu’il n’existe pas de gardiens sur Internet et apprendre à distinguer le contenu biaisé et préjudiciable des renseignements qui sont justes et exacts. De nombreux auteurs[3]estiment que le perfectionnement des compétences en littératie média numérique est un élément essentiel de toute approche complète pour lutte contre la propagande haineuse en ligne. Ces compétences permettent aux jeunes de déconstruire de façon critique des images produites par les médias haineux et leur donnent un moyen efficace de comprendre diverses perspectives. Elles permettent ainsi de réduire le racisme, le sexisme et l’homophobie. Les enseignants peuvent également s’appuyer sur la littératie des médias numériques pour apprendre aux étudiants « comment la droite alternative tire profit d’un intérêt constant pour les manchettes et moissonne la couverture médiatique générale à la recherche de mèmes, de théories du complot et de campagnes de faux renseignements[4]».

Une autre des compétences essentielles en littératie numérique pour combattre la propagande haineuse est la capacité de vérifier les sources[5]. Les groupes haineux investissent des efforts considérables pour donner une image légitime à leurs sites. Ils y ajoutent plusieurs des indices que les jeunes utilisent pour déterminer la crédibilité[6]  : une adresse Web qui se termine par « .org », des citations et des références d’autres sources (même si ces dernières sont déformées, utilisées de manière erronée, inventées, ou simplement empruntées à d’autres groupes haineux), des déclarations d’expertise, et une apparence attrayante et professionnelle.

Les étudiants doivent également apprendre que les algorithmes qui produisent des résultats de recherche, des « sujets d’actualité » et des recommandations sur les vidéos à visionner ne sélectionnent pas toujours les résultats en fonction de leur exactitude ou de leur fiabilité. Les groupes haineux ou conspirationnistes essaient souvent de manipuler ces algorithmes, de diverses façons, à leur avantage. Bien que certaines plateformes aient pris des mesures pour améliorer les résultats, elles le font habituellement en réponse à des incidents isolés, et ne modifient pas les algorithmes pour déclasser le contenu haineux. Les jeunes doivent aussi apprendre à ne pas accorder trop d’attention aux classements des moteurs de recherche. Ils doivent vérifier l’URL et l’extrait de chaque résultat de recherche avant de cliquer sur le lien, et doivent eux-mêmes chercher des vidéos, plutôt que de simplement laisser jouer la « prochaine vidéo » présélectionnée.

Alors que les plateformes rendent de plus en plus difficile la manipulation d’algorithmes, les groupes haineux se sont tournés vers l’exploitation des « vides de données », c’est-à-dire « des termes de recherche pour lesquels les données pertinentes disponibles sont limitées, inexistantes ou hautement problématiques ». Pour tirer profit de ces vides, les groupes haineux « encouragent les utilisateurs à effectuer des recherches sur un sujet pour lequel les manipulateurs motivés savent qu’un seul point de vue ressortira dans les résultats[7] ».

Pour faire face à cette situation, il faut enseigner aux étudiants à effectuer des recherches sur des sujets généraux plutôt que d’utiliser une phrase ou une expression précise qu’ils ont découverte. Par exemple, plutôt que de chercher au moyen d’une affirmation particulière concernant l’immigration (qui produira certainement des résultats en provenance de sources qui soutiennent cette affirmation), le fait d’utiliser une expression générale, comme « statistiques sur l’immigration », produira certainement de meilleurs résultats.

Il est également important de revérifier les sources d’information avant de s’y fier : une recherche effectuée sur le site haineux déguisé National Policy Institute, par exemple, mène à un article de Wikipédia, qui définit le site comme « un groupe de réflexion blanc suprémaciste » qui « fait pression en faveur des suprémacistes blancs et de la droite alternative ». Nous devons aussi enseigner aux étudiants la vérité sur des sujets que les groupes haineux tentent de remettre en question, comme l’Holocauste ou l’histoire de l’esclavage, pour ainsi éliminer les vides de données que les groupes haineux peuvent exploiter en proposant aux jeunes de « se renseigner et former leurs propres opinions ».

Pour plus de renseignements sur ces outils d’éducation aux médias numériques, consultez la ressource FAUX que ça cesse.

Une autre compétence générale importante en matière d’éducation aux médias consiste à reconnaître les arguments de mauvaise foi ou malhonnêtes. Ils apparaissent souvent dans des endroits comme des sites haineux déguisés ou des sources d’information légitime qui, sans le savoir, répètent ou amplifient des contenus haineux. Ils peuvent être très convaincants puisqu’ils ne reposent pas sur de fausses informations, mais sur la sélection ou la présentation d’informations de manière trompeuse.

Les arguments de mauvaise foi se divisent en trois grandes catégories. La première est celle des arguments malhonnêtes concernant les faits, par exemple en ne présentant que les faits qui soutiennent un argument donné et en omettant ceux qui ne le soutiennent pas. La deuxième catégorie est celle des arguments malhonnêtes sur l’enjeu abordé, suggérant par exemple qu’un enjeu faisant l’objet d’un consensus entre experts fait encore l’objet d’un débat. Et il y a ceux qui présentent faussement la véritable position de l’auteur ou son intérêt pour l’enjeu. (La leçon Réflexion sur la haine de HabiloMédias explore ces idées plus en détail.)

En plus de compétences générales en matière d’éducation aux médias numériques, il est également important d’enseigner spécifiquement ce que l’on appelle l’éducation aux médias liée à l’extrémisme[8]. Par exemple, nous devons faire comprendre aux jeunes que certaines personnes sur Internet tentent de les manipuler. Il faut également s’assurer de mettre au courant les étudiants au sujet des sites haineux déguisés que ces groupes utilisent pour répandre leur message, puis de les aider à reconnaître les techniques que ces groupes utilisent, une approche qui s’est avérée efficace pour rendre les gens moins susceptibles de croire des arguments fondés sur la haine et les amener à douter de la crédibilité des groupes haineux[9].

Comme l’affirme Jennifer Rich, directrice générale de l’organisme Education for Genocide Watch, « les enseignants doivent aider les étudiants à savoir reconnaître les sources crédibles et ne pas tomber dans les pièges des sites de la droite alternative qui ne présentent que de la propagande. Pour réussir à combattre la noirceur dans le monde et sur le Web, les enseignants doivent avoir les connaissances et le courage d’aborder le sujet avec les étudiants[10]  ».

Cependant, la plupart des contenus haineux que les jeunes rencontrent n’essayent pas d’avancer des arguments rationnels, quels qu’ils soient. Ils prennent la forme de propagande : mèmes, parodies en vidéo, slogans et insinuations qui résistent à l’analyse critique, mais qui provoquent une réaction émotionnelle puissante. Bien sûr, la propagande n’est pas uniquement de la propagande haineuse, et elle n’est pas nécessairement mauvaise, mais parce qu’elle tente de nous persuader par l’émotion plutôt que par des arguments rationnels, nous devons apprendre à la reconnaître et à comprendre comment elle fonctionne.

Pendant les discussions sur le contenu haineux, et comme pour tout type de faux renseignements, il est important de ne pas amplifier le message. Une façon efficace d’y parvenir est de présenter l’information en l’accompagnant d’une « réfutation préalable », laquelle comporte trois éléments : un avertissement selon lequel vous êtes susceptible de rencontrer des affirmations qui tentent de vous tromper ou de vous induire en erreur (cet avertissement est essentiel pour éviter que l’affirmation ne prenne de l’ampleur lorsqu’elle est présentée), l’expression de l’affirmation, et une réfutation montrant que l’affirmation est fausse. Par exemple, pour réfuter préalablement des affirmations trompeuses concernant des « esclaves irlandais » (qui sont souvent utilisées pour minimiser l’ampleur et la gravité de l’esclavage des Noirs dans l’histoire)[11], un enseignant pourrait utiliser la formule suivante :

  • Avertissement : « Certaines personnes ont propagé un mythe sur les Irlandais au début des temps de l’Amérique. »
  • Affirmation :« Elles prétendent qu’ils ont été réduits à l’esclavage de la même manière que les Noirs l’ont été. »
  • Réfutation : « Mais contrairement aux esclaves noirs, les serviteurs à contrat étaient libres après leur mandat et leurs enfants étaient libres même s’ils étaient nés pendant la durée du contrat. »

Aider les jeunes à reconnaître les indicateurs de contenu haineux, plus particulièrement, les messages qui « altérisent » ou déshumanisent certains groupes, peut également les rendre moins susceptibles de les croire[12]. Des études ont démontré que les gens sont moins susceptibles de déshumaniser les autres groupes lorsqu’ils réalisent qu’il est impossible de voir leur propre groupe de manière monolithique[13]. L’altérisation et la déshumanisation sont des facteurs importants du processus de radicalisation, car c’est seulement lorsque les gens adoptent une vision monolithique « eux contre nous » que la violence politique peut être justifiée. Bien que le contenu haineux ciblant les niveaux inférieurs de la pyramide de radicalisation obscurcisse souvent ces éléments, le fait de les enseigner aux étudiants peut les aider à les reconnaître, même lorsque le discours est formulé d’une façon qui semble acceptable.

Lorsque les élèves comprennent à la fois la propagande et les idéologies de la haine, ils sont prêts à reconnaître la propagande identitaire, laquelle vise à essentialiser les différences entre le groupe d’appartenance et les groupes extérieurs, à rejeter les groupes extérieurs, et à soutenir la légitimité de la position du groupe d’appartenance[14].

Pour des ressources sur l’éducation aux médias liée à l’extrémisme pour la classe, consultez la série de leçons Faire face à la haine sur Internet de HabiloMédias.

Lutter contre la propagande haineuse en ligne

En plus d’enseigner aux jeunes à reconnaître la propagande haineuse en ligne, il est important de leur donner des moyens de la combattre. Cet aspect est essentiel, car la façon dont nous répondons à la haine ou aux préjudices influence fortement nos perceptions de ce qui est normal et acceptable en société. Cet effet se ressent davantage en ligne, où les voix les plus fortes sont souvent prises pour la majorité[15]. Par conséquent, lorsque les gens ne luttent pas contre la haine et les préjudices en ligne, ils renforcent l’idée que les sentiments haineux ou les préjugés font partie des normes sociales de la communauté. « La plupart d’entre nous sommes d’accord pour freiner le discours haineux, mais nous y sommes tellement exposés que nous ne savons pas comment réagir », affirme Jack Jedwab, président de l’Association d’études canadiennes. Il en résulte que « les gens deviennent de plus en plus indifférents face à ces situations, car l’inaction les rend banales. Nous devenons désensibilisés[16]. »

Même les recherches de HabiloMédias soutiennent cette affirmation : 6 jeunes Canadiens sur 10 affirment qu’ils seraient plus susceptibles de s’opposer à la propagande haineuse en ligne s’ils avaient vu quelqu’un d’autre le faire auparavant[17] .

Il est important de ne pas simplement encourager les jeunes à combattre la haine, mais de leur montrer comment le faire de façon sécuritaire et efficace : la moitié des jeunes Canadiens affirment qu’ils ne disent rien parce qu’ils ne savent pas quoi dire ou faire[18]. Des recherches ont dévoilé que ces mesures rendent les jeunes plus susceptibles de s’opposer aux préjudices, mais aussi que les étudiants bien préparés encouragent leurs amis et leurs pairs à intervenir à leur tour[19].

Des experts sur la façon de lutter contre la haine ont proposé des mesures qui sont les plus susceptibles d’aider sans faire de tort :

  1. soyez un bon témoin et consignez l’incident, dans l’éventualité où vous ou d’autres personnes voudriez le dénoncer;
  2. devenez un allié des personnes visées par les discours haineux. Comme pour la cyberintimidation, faire savoir aux gens que vous êtes de leur côté peut considérablement réduire les répercussions de la haine;
  3. exprimez-vous sans aggraver la situation[20].

Se prononcer contre la haine, parfois appelé contre-discours, est l’une des interventions les plus efficaces, mais aussi les plus risquées. Selon le Dangerous Speech Project, certains types de contre-discours sont plus susceptibles d’être efficaces que d’autres et réussiront soit à changer le comportement d’une personne, soit à transmettre le message que la haine ne fait pas partie des normes sociales de la communauté, ou produira les deux effets[21].

  • Indiquer à l’auteur du préjudice que ce qu’il dit cause du tort : Dans un environnement virtuel, on oublie parfois que les actions ont des conséquences. Il serait donc sage de rappeler à ceux qui s’engagent dans un discours haineux ou stéréotypé, aussi léger soit-il, qu’ils causent du tort, même s’ils ne font que « plaisanter ». Selon les recherches de HabiloMédias, un des facteurs qui encourageraient le plus les jeunes à intervenir lorsqu’ils sont témoins de préjudices en ligne serait de savoir qu’une personne qu’ils connaissent en a été victime[22].
  • Détourner la conversation : Il ne s’agit pas d’une solution à long terme, mais elle peut permettre de désamorcer une situation de haine qui s’aggrave.
  • Faire appel aux identités ou aux valeurs communes : Selon les recherches, les gens sont plus susceptibles d’accepter le contre-discours s’ils estiment qu’ils partagent des caractéristiques importantes de leur identité avec la personne qui s’adresse à eux.
  • Utiliser l’humour : Bien qu’il soit important de ne pas prendre les discours haineux à la légère, l’humour absurde peut réduire la crédibilité d’un groupe qui veut paraître puissant et dangereux et constitue un argument encore plus convaincant auprès des autres membres de la communauté.

Le Dangerous Speech Project souligne que ces stratégies sont moins susceptibles de faire changer d’avis quelqu’un qui est déjà fortement engagé dans la propagande haineuse, mais même dans ces cas, elles réussissent à communiquer aux observateurs moins engagés que la haine ne constitue pas la norme[23]. Il s’agit d’un fait crucial puisque selon les recherches de HabiloMédias, les jeunes sont plus susceptibles d’intervenir s’ils sont convaincus que leurs amis et d’autres utilisateurs sont du même avis qu’eux[24]. Il est également important de se rappeler que l’objectif du contre-discours n’est souvent pas de persuader la personne à laquelle vous répondez, mais votre public commun[25].

D’autres recherches ont cerné les pratiques exemplaires suivantes en matière de contre-discours :

  • ne pas utiliser d’insultes, de tropes ou de langage haineux;
  • se concentrer sur des arguments logiques;
  • demander à la personne de fournir des preuves de ses affirmations;
  • dire à la personne que vous signalerez les comportements menaçants ou harcelants à la police ou à la plateforme où ils se produisent;
  • encourager les autres à s’engager dans un contre-discours[26].

(Pour des pratiques exemplaires sur la façon de réagir à la désinformation et aux fausses informations, consultez le programme Vérifiez avant de partager de HabiloMédias.)

Le rapport mentionne également quelques stratégies qui ont peu de chances de bien fonctionner et qui peuvent même aggraver la situation :

  • les insultes, lesquelles peuvent aggraver une situation et encourager l’auteur du préjudice à maintenir encore plus fermement sa position de départ, mais aussi décourager les autres membres de la communauté à se prononcer;
  • la réfutation. Comme pour les autres formes de faux renseignements, il ne suffit pas de simplement faire remarquer que quelqu’un présente des faits erronés : il faut remplacer ces faits par une vérité plus convaincante. Il est également important de comprendre que la propagande haineuse en ligne repose souvent sur des idées conspirationnistes, et dans ces cas, tout argument contraire sera perçu strictement comme une preuve supplémentaire que « les méchants » veulent étouffer la vérité[24]. Cependant, sur un forum public, une personne peut choisir de réfuter des arguments haineux ne serait-ce que pour qu’ils ne demeurent pas irréfutés;
  • le harcèlement et les menaces, qui, en plus d’être moralement inacceptables, sont susceptibles de générer de la sympathie pour la victime.

Dénoncer la propagande haineuse

Un autre moyen de lutter contre la propagande haineuse consiste à la dénoncer au service ou au site qui héberge le contenu. Le politologue P.W. Singer prône une approche axée sur la « santé publique » face à la propagande haineuse en ligne, c’est-à-dire « créer des pare-feu contre les faux renseignements et les vagues d’attaques qui visent les clients » et « déplateformer les grands harceleurs reconnus[27]  ».

« Lorsque vous rencontrez des groupes qui, selon vous, enfreignent les politiques de la plateforme ou adoptent un comportement toxique, il est très utile de les dénoncer », affirme Kat Lo, chercheuse sur les communautés virtuelles[28]. Evan Balgord, directeur général de l’organisme Canadian Anti-Hate Network, souligne que le signalement fait par un utilisateur peut ajouter un important contexte qu’un algorithme ou un modérateur rémunéré pourrait ne pas reconnaître, comme des blagues d’initiés ou encore des mots ou des énoncés codés[29] .

Les jeunes ne doivent toutefois pas présumer que leur dénonciation est passée inaperçue s’ils ne reçoivent aucune réponse. Zahra Billoo, directrice générale de la région de la baie de San Francisco pour l’organisme Council on American-Islamic Relations, suggère ce qui suit : « Si la plateforme n’intervient pas concrètement, vous pouvez dénoncer à plusieurs reprises. Si un utilisateur fait l’objet de plusieurs dénonciations, ou si plusieurs utilisateurs en dénoncent un seul, l’opinion publique peut motiver une plateforme à intervenir, si un seul signalement ne suffit pas. Cette idée s’applique surtout aux entreprises qui répondent à leur clientèle[30] . »

Le militantisme des consommateurs peut être un autre moyen efficace de combattre la propagande haineuse en ligne. Presque toutes les grandes plateformes virtuelles comptent sur la publicité pour générer des revenus. D’ailleurs, la pression exercée sur les annonceurs, ainsi que la pression qu’ils exercent ensuite sur les plateformes, a réussi, notamment, à faire expulser le conspirationniste Alex Jones de toutes les grandes plateformes[31], réduisant ainsi considérablement sa capacité de se faire entendre du grand public[32]. Les jeunes doivent être sensibilisés au pouvoir qu’ils détiennent en tant que consommateurs et aussi savoir qu’ils peuvent souvent entraîner un réel changement, s’ils sont témoins de contenu haineux sur une plateforme en ligne, en déposant une plainte auprès des entreprises qui affichent leurs publicités sur ces sites.

Il existe également des mesures que les plateformes peuvent prendre pour faciliter la tâche aux utilisateurs qui souhaitent dénoncer la propagande haineuse. Selon les recherches de HabiloMédias, les jeunes sont plus susceptibles de se prononcer contre les préjudices en ligne dans les cas suivants :

  • si le site ou l’application qu’ils utilisent disposent d’outils clairs et conviviaux pour dénoncer des incidents;
  • si les règles sont claires à propos de ce qui est acceptable et inacceptable;
  • s’ils savent que le site Web ou l’application a déjà puni des utilisateurs pour avoir adopté un comportement inacceptable;
  • s’ils pensent que la plupart des autres utilisateurs seront du même avis qu’eux;
  • s’ils peuvent dénoncer de façon anonyme[33].

La propagande haineuse en classe

Devorah Heitner, créatrice du site Raising Digital Natives, soutient que nous avons la responsabilité d’aborder la propagande haineuse en classe. « Lorsque des images et des vidéos qui présentent des comportements discriminatoires ou un discours haineux circulent dans une communauté, les jeunes ont besoin d’un accompagnement proactif et de soutien de la part des éducateurs. Ces conversations sont effectivement difficiles. Je presse toutefois les éducateurs à ouvrir la discussion[34]. »

Les étudiants adopteront souvent une attitude défensive ou essaieront de détourner la conversation s’ils se sentent accusés de racisme ou d’autres formes de propagande haineuse : ils peuvent prétendre que la propagande haineuse n’est plus un problème, qu’elle est isolée au sein d’espaces précis ou de groupes ouvertement haineux. Pour cette raison, il est important que les enseignants acceptent de s’engager dans des dialogues sur des sujets difficiles et de créer un environnement où aucun étudiant ne se sent blâmé, traité avec condescendance ou inférieur[35]. De plus, le fait de discuter de ces sujets en classe peut permettre aux étudiants de constater que la majorité de leurs pairs ne soutiennent pas les opinions haineuses ou stéréotypées qui semblent normalisées dans les espaces virtuels.

Aussi, les enseignants devraient essayer de cerner les messages haineux qui peuvent être démystifiés dans leurs cours, comme le mythe des esclaves irlandais évoqué précédemment ou des mythes similaires sur le Moyen Âge (pour les cours d’histoire), le « racisme scientifique » (pour les cours de sciences ou de biologie), ou les façons dont les statistiques peuvent être utilisées à mauvais escient et manipulées pour promouvoir la peur d’autres groupes (pour les cours de mathématiques).

Avertissements sur le contenu et gestion des contenus potentiellement préjudiciables

Les enseignants qui souhaitent aborder le sujet des contenus haineux en classe peuvent, à juste titre, s’inquiéter de l’impact émotionnel qu’ils peuvent avoir sur leurs élèves. Bien que l’état actuel des connaissances suggère que les avertissements sur le contenu n’apportent aucun bénéfice en soi et qu’ils peuvent renforcer les préjudices[36] ou mener à des expériences légèrement plus négatives s’ils sont utilisés isolément[37], certaines études, ainsi que des recherches menées dans des domaines connexes, comme la modération de contenu et la recherche sur l’extrémisme, ont cerné des moyens par lesquels les avertissements sur le contenu sont susceptibles d’apporter un bénéfice positif.

  • Il ne suffit pas d’avertir ou d’alerter les participants. Il faut leur proposer du matériel et des activités de remplacement qui ne contiennent pas le contenu potentiellement préjudiciable. Ces options doivent être clairement disponibles et il doit être clair que les participants ne seront pas pénalisés de quelque manière que ce soit pour les avoir choisies[38].
  • Les participants doivent également être autorisés à quitter l’activité à tout moment, se voir proposer des ressources de soutien en matière de santé mentale et être encouragés à les consulter en cas de détresse. Ces ressources doivent être fournies à la fois sous forme de documents imprimés et électroniques, dans la mesure du possible[39].
  • Les avertissements sur le contenu doivent être spécifiques et décrire le contenu potentiellement préjudiciable aussi clairement que possible sans inclure de contenu préjudiciable[40]. Ils doivent être fournis suffisamment longtemps d’avance pour que les participants puissent prendre une décision éclairée[41].
  • S’il n’est pas possible ou préférable de permettre aux participants de s’abstenir (p. ex. si le matériel est obligatoire dans le cadre du programme scolaire), il ne faut alors pas fournir d’avertissement sur le contenu[42], mais plutôt suivre les autres pratiques exemplaires ci-dessous[43].

Que vous autorisiez ou non les élèves à se retirer d’une activité, si vous présentez du matériel que les élèves peuvent trouver émotionnellement préjudiciable (soit dans le cadre d’une leçon sur la haine en ligne ou des sujets connexes comme les stéréotypes dans les médias, soit parce que vous utilisez du matériel de cours qui contient ce type de contenu), vous pouvez suivre certaines pratiques exemplaires.

  • Avant de présenter du matériel potentiellement préjudiciable, les animateurs devraient établir les normes et les valeurs dans le cadre desquelles la discussion sur le contenu aura lieu. Dans la mesure du possible, ces normes et valeurs doivent être négociées lors d’une discussion avec le groupe[44]. (Le guide Conversations difficiles en classe offre des conseils sur la manière de procéder.)
  • Lorsque le contenu présenté peut être préjudiciable à certains élèves, mais qu’il est également considéré comme important sur le plan artistique ou culturel, ou que certains ou la plupart des participants peuvent le considérer comme positif dans l’ensemble, reconnaissez la tension entre ces éléments et exprimez votre respect pour les goûts et les opinions des participants, en précisant qu’il est possible d’apprécier une œuvre qui présente des aspects problématiques sans s’excuser pour ces éléments. Mettez de l’avant les réactions personnelles des participants face à l’œuvre[45]. (Consultez la leçon Interpeller ou dénoncer? de HabiloMédias pour une exploration plus complète de cette idée.)
  • Lorsqu’un contenu susceptible d’être préjudiciable (comme le contenu haineux) est présenté, il doit l’être de façon visuellement distinctive des autres contenus, par exemple au moyen d’un filigrane ou d’une couleur de texte particulière. La reproduction d’un contenu potentiellement préjudiciable doit se limiter aux parties les plus brèves et les plus pertinentes[46]. Le matériel visuel potentiellement préjudiciable doit faire l’objet d’un traitement graphique qui en réduit l’impact, par exemple en le présentant en surimpression ou en nuances de gris[47]. Le matériel écrit potentiellement préjudiciable, comme les insultes, doit être brouillé ou marqué d’un astérisque[48].
  • Il est nécessaire de dénoncer clairement le contenu potentiellement préjudiciable. Toute affirmation incluse dans le contenu potentiellement préjudiciable doit être explicitement signalée comme fausse et réfutée dès que possible[49].
  • Prenez des nouvelles des participants tout au long de la séance et envisagez d’interrompre l’activité pour leur donner l’occasion de réfléchir, de décompresser ou de prendre soin d’eux[50]. Envisagez de diviser l’activité ou la leçon (p. ex. en prévoyant d’autres activités entre les différentes parties).
  • Les enseignants devraient procéder à un bilan à la fin de l’activité[51]. Le bilan doit permettre aux participants de tourner la page, les aider à faire face à l’intensité émotionnelle de l’activité et leur rappeler les ressources de soutien disponibles[52].

Ressources

Les enseignants peuvent se préparer à ces conversations délicates en consultant le guide Conversations difficiles en classe ainsi que l’article L’éducation aux médias peut-elle avoir l’effet contraire? de HabiloMédias

Autres ressources


[1] Gagliardone, I., Gal, D., Alves, T., et Martinez, G. (2015). Combattre les discours de haine sur Internet (rapport). Paris : UNESCO.

[2] Cole, S. (18 octobre 2018). The iPhone’s New Parental Controls Block Searches for Sex Ed, Allow Violence and Racism. Consulté sur le site https://motherboard.vice.com/en_us/article/8xj3bx/new-iphone-parental-controls-block-searches-for-sex-education.

[3] Daniels, J. (2008). Race, Civil Rights, and Hate Speech in the Digital EraLearning Race and Ethnicity: Youth and Digital Media (p. 129-154). Cambridge, MA : MIT Press.; RCMP-GRC. (2011). Les jeunes en ligne et à risque Internet : un outil de radicalisation. Ottawa : Programme des enquêtes relatives à la sécurité nationale la RCMP-GRC.

[4] Collins, C. (2017). « What is the ‘Alt-Right’? ». Teaching Tolerance 1.57.

[5] Hussain, G., et Saltman, E.M. Jihad Trending: A Comprehensive Analysis of Online Extremism and How to Counter It (London : Quilliam Foundation, 2014).

[6] Flanagin, Andrew J., Metzger, M. et coll. (2010). Kids and Credibility: An Empirical Examination of Youth, Digital Media use and Information Credibility. MIT Press. https://direct.mit.edu/books/oa-monograph/3184/Kids-and-CredibilityAn-Empirical-Examination-of.

[7] Golebiewski, M., et Boyd, D. (2018). Data Voids: Where Missing Data Can Easily Be Exploited (rapport). Data & Society.

[8] Nienierza, A., Reinemann, C., Fawzi, N., Riesmeyer, C., & Neumann, K. (2021). Too dark to see? Explaining adolescents’ contact with online extremism and their ability to recognize it. Information, Communication & Society, 24(9), 1229-1246.

[9] Braddock, K. (21 août 2018). The efficacy of communicative inoculation as counter-radicalization: Experimental evidence. Discours présenté lors de la VOX-Pol Conference, à Amsterdam.

[10] Rich, J. (23 janvier 2019). Schools must equip students to navigate alt-right websites that push fake news. Consulté sur le site https://theconversation.com/schools-must-equip-students-to-navigate-alt-right-websites-that-push-fake-news-97166.

[11] Hogan, L. (2016). Two years of the ‘Irish slaves’ myth: Racism, reductionism and the tradition of diminishing the transatlantic slave trade. Open Democracy.

[12] Hussain, G., & Saltman E.M. (2014) Jihad Trending: A Comprehensive Analysis of Online Extremism and How to Counter It (Rep.) London: Quilliam Foundation.

[13] Resnick, B. (7 mars 2017). The dark psychology of dehumanization, explained. Consulté sur le site https://www.vox.com/science-and-health/2017/3/7/14456154/dehumanization-psychology-explained.

[14] Reddi, M., Kuo, R., et Kreiss, D. (2021). « Identity propaganda: Racial narratives and disinformation ». New Media & Society, 14614448211029293.

[15] Lerman, K., Yan, X., & Wu, X. (2016). The "Majority Illusion" in Social Networks. Plos One, 11(2). doi:10.1371/journal.pone.0147617

[16] Scott, M. (27 janvier 2019). Most Canadians have seen hate speech on social media: SurveyMontreal Gazette. Consulté sur le site https://montrealgazette.com/news/local-news/hate-speech-targets-muslims.

[17] Brisson-Boivin, K. (2019). « Les jeunes Canadiens en ligne : repoussant la haine ». HabiloMédias. Ottawa.

[18] Brisson-Boivin, K. (2019). « Les jeunes Canadiens en ligne : repoussant la haine ». HabiloMédias. Ottawa.

[19] Paluck, E. L. (2011). Peer pressure against prejudice: A high school field experiment examining social network change. Journal of Experimental Social Psychology, 47(2), 350-358. doi:10.1016/j.jesp.2010.11.017

[20] Ablow, G. (12 décembre 2016). Talking Back to Hate Speech, Explained. Consulté sur le site https://billmoyers.com/story/talking-back-hate-speech-explained/.

[21] Benesch, S., Ruths, D., Dillon, K.P., Saleem, H.M., et Wright, L. (2016). Considerations For Successful Counterspeech (rapport). Dangerous Speech Project.

[22] Brisson-Boivin, K. (2019). « Les jeunes Canadiens en ligne : repoussant la haine ». HabiloMédias. Ottawa.

[23] Benesch, S., Ruths, D., Dillon, K.P., Saleem, H.M., et Wright, L. (2016). Considerations For Successful Counterspeech (rapport). Dangerous Speech Project.

[24] Brisson-Boivin, K. (2019). « Les jeunes Canadiens en ligne : repoussant la haine ». HabiloMédias. Ottawa.

[25] Buerger, C. (2021). Counterspeech: A literature review. Available at SSRN 4066882.

[26] Williams, M. (2019). Hatred behind the screens: A report on the rise of online hate speech.

[27] Amend, A. (2018, February 10). Silicon Valley's Year in Hate. Retrieved from https://www.splcenter.org/fighting-hate/intelligence-report/2018/silicon-valleys-year-hate.

[28] Chen, R. (23 janvier 2019). Social Media Is Broken, But You Should Still Report Hate. Consulté sur le site https://motherboard.vice.com/en_us/article/d3mzqx/social-media-is-broken-but-you-should-still-report-hate.

[29] Chen, R. (23 janvier 2019). Social Media Is Broken, But You Should Still Report Hate. Consulté sur le site https://motherboard.vice.com/en_us/article/d3mzqx/social-media-is-broken-but-you-should-still-report-hate.

[30] Fishbein, R. (17 janvier 2019). How to Identify and Report Hate Speech on Social Media. Consulté sur le site https://lifehacker.com/how-to-identify-and-report-hate-speech-on-social-media-1831018803.

[31] Linton, C. (4 mars 2018). Advertisers ask YouTube to pull ads from Alex Jones› channels. Consulté sur le site https://www.cbsnews.com/news/youtube-alex-jones-info-wars-channels-advertisers/.

[32] Nicas, J. (4 septembre 2018). Alex Jones Said Bans Would Strengthen Him. He Was WrongThe New York Times. Consulté sur le site https://www.nytimes.com/2018/09/04/technology/alex-jones-infowars-bans-traffic.html.

[33] Brisson-Boivin, K. (2019). « Les jeunes Canadiens en ligne : repoussant la haine ». HabiloMédias. Ottawa.

[34] Berkowicz, J., et Myers, A. (2 décembre 2016). Responding to Hate Speech and Bullying in the Digital Age. Consulté sur le site http://blogs.edweek.org/edweek/leadership_360/2016/12/responding_to_hate_speech_and_bullying_in_the_digital_age.html.

[35] Johnson, J. R., Rich, M., & Cargile, A. C. (2008). “Why Are You Shoving This Stuff Down Our Throats?”: Preparing Intercultural Educators to Challenge Performances of White Racism. Journal of International and Intercultural Communication, 1(2), 113-135. doi:10.1080/17513050801891952

[36] Bridgland, V. M., & Takarangi, M. K. (2021). Danger! Negative memories ahead: The effect of warnings on reactions to and recall of negative memories. Memory, 29(3), 319-329.

[37] Bridgland, V., Jones, P. J., & Bellet, B. W. (2022). A meta-analysis of the effects of trigger warnings, content warnings, and content notes.

[38] Dickman-Burnett, V. L., & Geaman, M. (2019). Untangling the trigger-warning debate. Journal of thought, 53(3/4), 35-52.

[39] Vanner, C., & Almanssori, S. (2021). ‘The whole truth’: student perspectives on how Canadian teachers should teach about gender-based violence. Pedagogy, Culture & Society, 1-20.

[40] Dickman-Burnett, V. L., & Geaman, M. (2019). Untangling the trigger-warning debate. Journal of thought, 53(3/4), 35-52.

[41] Derczynski, L., Kirk, H. R., Birhane, A., & Vidgen, B. (2022). Handling and presenting harmful text. arXiv preprint arXiv:2204.14256.

[42] Bridgland, V., Jones, P. J., & Bellet, B. W. (2022). A meta-analysis of the effects of trigger warnings, content warnings, and content notes.

[43] Derczynski, L., Kirk, H. R., Birhane, A., & Vidgen, B. (2022). Handling and presenting harmful text. arXiv preprint arXiv:2204.14256.

[44] Dickman-Burnett, V. L., & Geaman, M. (2019). Untangling the trigger-warning debate. Journal of thought, 53(3/4), 35-52.

[45] Hartford, K. L. (2016). Beyond the trigger warning: Teaching operas that depict sexual violence. Journal of Music History Pedagogy, 7(1), 19-34.

[46] Derczynski, L., Kirk, H. R., Birhane, A., & Vidgen, B. (2022). Handling and presenting harmful text. arXiv preprint arXiv:2204.14256.

[47] Karunakaran, S., & Ramakrishan, R. (2019, October). Testing stylistic interventions to reduce emotional impact of content moderation workers. In Proceedings of the AAAI Conference on Human Computation and Crowdsourcing (Vol. 7, pp. 50-58).

[48] Derczynski, L., Kirk, H. R., Birhane, A., & Vidgen, B. (2022). Handling and presenting harmful text. arXiv preprint arXiv:2204.14256.

[49] Derczynski, L., Kirk, H. R., Birhane, A., & Vidgen, B. (2022). Handling and presenting harmful text. arXiv preprint arXiv:2204.14256.

[50] Dickman-Burnett, V. L., & Geaman, M. (2019). Untangling the trigger-warning debate. Journal of thought, 53(3/4), 35-52.

[51] Derczynski, L., Kirk, H. R., Birhane, A., & Vidgen, B. (2022). Handling and presenting harmful text. arXiv preprint arXiv:2204.14256.

[52] Dickman-Burnett, V. L., & Geaman, M. (2019). Untangling the trigger-warning debate. Journal of thought, 53(3/4), 35-52.