Comprendre la propagande haineuse sur Internet

Internet est devenu le moyen de communication par excellence dans le monde entier, et cette envergure internationale sans précédent, combinée à la difficulté de localiser la provenance des communications, a fait d’Internet l’outil idéal pour permettre aux extrémistes de présenter de vieilles haines sous un jour nouveau, de lever des fonds et de recruter des membres. À mesure qu’Internet s’est développé et a évolué, les groupes et les mouvements motivés par la haine se sont adaptés à cette nouvelle réalité. Ils ont créé des sites Web, des forums et des profils dans les réseaux sociaux et ont exercé leurs activités notamment sur les sites de jeux en ligne et en allant jusqu’à créer des versions parallèles de plateformes comme Twitter, YouTube et GoFundMe.[1]

Cultures de haine

En plus des groupes et des mouvements haineux organisés, de nombreux espaces virtuels développent des « cultures de la haine », c’est-à-dire des communautés au sein desquelles le racisme, la misogynie et d’autres préjugés sont normalisés. De nombreux environnements virtuels, particulièrement ceux qui sont populaires auprès des garçons adolescents, présentent des niveaux de référence relativement élevés en matière de racisme, de sexisme et d’homophobie. Des sites comme 4chan et certaines parties de Reddit se font une vertu d’être offensants, tandis que des calomnies sexistes, racistes et homophobes sont monnaie courante dans les jeux en ligne[2]. L’étude de HabiloMédias a révélé que les jeunes sont témoins de propos préjugés sur toutes les plateformes qu’ils fréquentent régulièrement[3] . Même s’ils n’y prennent pas toujours part, ils ne peuvent pas s’empêcher d’être influencés par les valeurs des communautés dont ils font partie. En raison de la nature réseautée des médias numériques, elles sont toutes liées. Cela signifie que les plus petites d’entre elles, surtout les communautés fermées comme 4chan (au sein de laquelle les jeunes se radicalisent plus rapidement qu’ailleurs), peuvent avoir une influence importante sur les communautés plus nombreuses et plus ouvertes.[4]

Idéologies de la haine

Bien qu’il existe différents mouvements haineux en ligne, la plupart d’entre eux partagent des idéologies de haine. Il est essentiel d’apprendre à reconnaître ces idéologies pour reconnaître les propos haineux.

La perception voulant que tous les membres d’un groupe victime de haine aient une « nature » négative et immuable qui fait d’eux une menace et justifie toute mesure prise à leur encontre en constitue l’élément le plus fondamental. Ce sentiment est véhiculé par six idées distinctes : l’altérisation et la déshumanisation, l’appel au passé glorieux du groupe d’appartenance, la revendication du statut de victime par le groupe d’appartenance, la peur des ennemis secrets, l’idée d’un conflit inévitable avec un groupe externe, et la justification de l’usage de la violence à son encontre.

Le terme « idéologie » ne doit pas être interprété comme signifiant que ces groupes ou mouvements ont adopté une philosophie ou une vision du monde qui est cohérente. En fait, les chercheurs ont cerné une tendance à ce que l’on appelle l’extrémisme « à la carte », c’est-à-dire que les gens choisissent les éléments qui les attirent dans différents mouvements sans se soucier de la cohérence[5].

L’altérisation

L’idéologie la plus fondamentale de la haine est l’altérisation et la déshumanisation. Cependant, l’« autre » ne représente pas le groupe réel tel qu’il existe dans la réalité, mais une fiction créée pour consolider l’identité du groupe haineux et justifier son existence et ses actions. Pour ce faire, l’« autre » doit être dépeint comme étant à la fois inférieur, afin d’établir la supériorité du groupe haineux, et menaçant, afin d’établir la nécessité d’agir contre lui[6]. Lorsque les gens transfèrent leurs peurs et leur haine sur l’« autre », le groupe ciblé devient, à leurs yeux, moins qu’humain. En niant l’humanité des victimes, il est beaucoup plus facile de justifier les actes de violence et de dégradation[7] : par exemple, la croyance largement répandue chez les suprémacistes blancs selon laquelle les Noirs ressentent en fait moins de douleur que les autres[8]. Cependant, la méta-déshumanisation, c’est‑à-dire le sentiment que quelqu’un d’autre considère votre groupe comme inhumain, est encore plus puissante[9].

Il a été démontré que la propagande déshumanisante n’a que peu d’impact direct sur l’opinion des gens (bien que la situation puisse être différente pour les personnes qui sont exposées de manière répétée ou importante), mais elle change l’opinion des gens sur ce que les autres pensent. Précisément parce qu’il s’agit d’une opinion extrême et odieuse, convaincre les gens qu’elle est largement répandue peut être un outil puissant pour la normalisation et la radicalisation.[10]

Victimisation

Bien que l’« autre » soit dépeint comme intrinsèquement inférieur, le fait de se prétendre soi-même victime, et de rejeter l’idée que l’autre est une victime, est au cœur des idéologies de la haine[11]. Dans le cas des groupes haineux, il s’agit généralement de revendications fausses ou disproportionnées du statut de victime, par exemple en affirmant que les hommes, les Blancs ou les chrétiens sont davantage victimes de discrimination que les groupes historiquement marginalisés. Les personnes qui se trouvent habituellement au sommet sont plus susceptibles de considérer que les gains des autres groupes se font à leurs dépens[12]. Les gens s’identifieront plus étroitement à un groupe si celui-ci semble isolé ou menacé de l’extérieur, de sorte que les membres du groupe qui sont emprisonnés, perdent leur emploi ou sont tués lors d’un conflit avec la police sont traités comment des martyrs.

Passé glorieux

Un autre élément essentiel de l’idéologie de la haine est la notion selon laquelle le groupe est déchu de son passé glorieux[13]. Généralement, cette chute est présentée comme étant la faute de l’« autre » ou des membres du groupe qui ont été dupés ou subvertis par l’« autre ». Par conséquent, ce n’est qu’en vainquant et en détruisant l’« autre » que ce passé glorieux peut être de nouveau reconquis. Parfois, ce passé glorieux et la victimisation sont associés pour former un « traumatisme choisi », une tragédie passée, réelle ou imaginaire, qui est utilisée pour montrer la nécessité d’être vigilant, expliquer un conflit intergroupe ou justifier la revendication du statut de victime d’un groupe dominant[14].

Ennemis secrets

L'un des indicateurs les plus clairs qu'un argument se base sur la haine est la démonstration d'un ou plusieurs groupes comme mêlés à des complots contre le groupe. Parfois, on présente le groupe ciblé comme se faisant manipuler par un autre groupe encore plus menaçant (afin d'expliquer comment il peut être à la fois inférieur ET dangereux). Dans certains cas, l'ennemi secret peut être un groupe qui n'existe pas, tel que dans cas des complots, des sociétés secrètes ou même les extra-terrestres[15].

Conflit inévitable

Un autre signe d’un argument découlant de la haine provient de l’idée voulant que les groupes ne puissent pas coexister, que le conflit est inévitable[16]. C’est peut-être le message le plus préjudiciable : si vous pensez que vous êtes engagé dans une lutte existentielle, que votre existence est en jeu, alors n’importe quelle tactique ou action peut être justifiée[17]. Cette menace n’a pas besoin d’être physique. En fait, les recherches ont montré que la peur des menaces symboliques, qui mettent en danger l’identité, constitue un meilleur indicateur de la haine que les menaces physiques[18].

Justification de la violence

La dernière idéologie de la haine est donc la justification de la violence[19]. Parfois, elle affirme ouvertement que la violence est nécessaire et justifiée. Plus souvent, elle le laisse entendre en utilisant l’une des autres images telles que la victimisation ou le conflit inévitable[20].

Formes de propagande haineuse en ligne

Les endroits où les jeunes rencontrent du contenu haineux en ligne peuvent être divisés en quatre catégories : les plateformes grand public, marginales et créneaux, ainsi que le contenu haineux déguisé[21].

Tout comme les adolescents ont souvent un compte Instagram public et un compte « finsta » [compte privé Instagram] réservé à leurs amis, les groupes et les mouvements haineux publient souvent des contenus différents dans ces espaces, ce qui leur permet de cibler des personnes à différents niveaux de la pyramide de la radicalisation.

Les plateformes grand public sont celles que la plupart d’entre nous connaissent et utilisent le plus souvent, comme Instagram, YouTube et Wikipédia. Il y a généralement peu de contenus haineux sur ces plateformes et elles s’efforcent habituellement de les supprimer. Cependant, compte tenu de la grande quantité de contenus publiés par les utilisateurs, tous les contenus haineux ne peuvent pas être retirés rapidement. En outre, même si les contenus haineux ne représentent qu’une infime partie du contenu, les plateformes les plus petites étant beaucoup plus grandes que les plateformes marginales, elles peuvent atteindre davantage de personnes.

La plupart des contenus haineux des plateformes grand public ne sont pas explicitement haineux, à la fois pour éviter d’enfreindre les conditions d’utilisation et parce que leur objectif est d’élargir la base de sympathisants et de commencer à radicaliser les sympathisants pour en faire des membres, ce qui permet aux groupes haineux de « blanchir » leur contenu puisqu’un lien vers un site haineux a la même apparence, pour un utilisateur occasionnel, qu’un lien vers une source légitime de nouvelles ou d’information. Pour la même raison, les contenus haineux grand public adoptent souvent l’apparence de sites grand public comme Instagram[22] et TikTok[23].

Les plateformes marginales ne sont pas seulement plus petites que les plateformes grand public. Certaines ont été créées précisément pour accueillir des personnes ou des contenus qui ne sont pas les bienvenus sur les sites grand public. D’autres ont commencé par essayer de concurrencer les sites grand public et trouvé un marché pour les opinions et les contenus extrêmes. Même si les plus importantes d’entre elles ne représentent qu’une fraction de la taille des sites grand public, certaines ont connu un succès considérable : une analyse réalisée par le Southern Poverty Law Center a révélé que 5 des 12 plateformes marginales à l’étude se classaient parmi la tranche de 10 % des domaines Internet les plus importants aux États-Unis et qu’une d’elles se classait parmi la tranche des 5 % les plus importants[24].

Ces sites n’imposent généralement que très peu de limites quant au contenu autorisé. Par conséquent, les contenus haineux représentent une proportion beaucoup plus importante du contenu total que sur les plateformes grand public, mais leur public potentiel est beaucoup plus restreint­. Presque toutes les personnes qui visitent l’une de ces plateformes sont déjà favorables aux messages haineux, de sorte que le contenu a tendance à être plus extrême que celui qui figure sur les sites grand public, dans le but de transformer les sympathisants en membres ou les membres en militants.

Les plateformes créneaux ont été créées spécifiquement par des groupes haineux pour partager des ressources, établir des contacts et planifier des actions. C’est là qu’apparaissent les contenus les plus extrêmes : le mécanisme de radicalisation au sein des groupes aux vues similaires signifie que les militants qui fréquentent ces plateformes ressentent un besoin constant de se surpasser les uns les autres. Elles peuvent également servir d’incubateur pour des contenus qui sont ensuite diffusés sur des sites marginaux et grand public.

Certains de ces sites ont évolué pour imiter des sites commerciaux populaires de diverses manières, bon nombre offrant du matériel audiovisuel et des forums de discussion, et d’autres présentant des mises en page professionnelles, les graphiques et les textes imitant des sites populaires comme BuzzFeed et atteignant des publics pouvant aller jusqu’à 4 millions de pages vues par mois[25]. Certains sites à créneaux sont toutefois délibérément de basse fidélité. Bien que leur public soit relativement petit, leur manque de sophistication est un atout pour ceux qui s’identifient déjà aux mouvements haineux. C’est de là que proviennent la plupart des mèmes haineux et des théories du complot qui se répandent sur Internet, créés et constamment remixés par les utilisateurs[26].

De nombreux groupes haineux exploitent également des sites haineux déguisés[27]. Les sites haineux qui s’affichent comme tels font activement la promotion de la haine envers d’autres groupes tout en diffusant de la propagande raciste ou en proposant des communautés haineuses en ligne. En revanche, les sites haineux déguisés perpétuent intentionnellement la haine au moyen de messages implicites et trompeurs, se faisant passer pour des sources d’opinion ou d’information légitimes portant des noms d’apparence neutre qui comportent souvent des mots comme « centre » ou « institut »[28]. Le but de ces sites est de prendre contact avec des jeunes avant qu’ils aient les connaissances ou la conscience critique nécessaires pour les reconnaître pour ce qu’ils sont. Une étude a montré que plus de 60 % des élèves des niveaux intermédiaire et secondaire s’en sont servis comme sources de documentation pour leurs travaux scolaires[29], soit avant qu’ils aient la capacité de les évaluer de façon critique.

Beaucoup d’entre eux tentent de dissimuler leurs intentions racistes derrière un message plus modéré visant à « éduquer » ou à « débattre ».Cette constatation vaut non seulement pour les sites qui se font passer pour des sources d’information destinées au grand public, mais également pour les sites ouvertement haineux qui affirment diffuser « la véritable histoire ». Les sites ouvertement haineux attaquent le système d’éducation traditionnel et demandent à leurs partisans d’enseigner la « vraie » vérité à leurs amis ainsi qu’aux membres de leur famille et de leur communauté.

Le « racisme raisonnable » est un phénomène analogue[30] dont l’idéologie est véhiculée par des sites haineux présentant leur contenu comme une provocation ou un débat politique. Au lieu de diffuser des expressions carrément haineuses, ils se fondent sur une fausse logique pseudo‑scientifique.

Toutefois, la nature réseautée des technologies numériques signifie que ces différentes plateformes ne sont pas vraiment distinctes : elles font toutes parties de ce que certains chercheurs ont décrit comme un « multivers de la haine », où des sites grand public et à créneaux sont séparés par un simple lien ou clic. Comme le décrit une analyse, « ce multivers agit comme un entonnoir qui peut aspirer les membres d’un groupe grand public sur une plateforme qui investit d’importantes ressources dans la modération vers des plateformes moins modérées comme 4Chan ou Telegram, simplement en suivant les liens qui leur sont proposés[31] ». Cette idée renforce également les connexions entre les différentes parties du « multivers », en fournissant de multiples points d’entrée qui peuvent sembler moins extrêmes, mais qui mènent à un groupe soudé de sources extrémistes, et crée des liens entre les différentes formes de haine, comme la haine à l’encontre des membres de la communauté 2SLGBTQ et l’antisémitisme[32].

Les liens avec le multivers peuvent également mener à une radicalisation réciproque entre différentes communautés, dont celles qui ne représentaient pas nécessairement des groupes haineux à l’origine. Par exemple, au cours de la dernière décennie, les croyances anti-vaccination sont devenues beaucoup plus répandues dans les groupes d’extrême droite et de suprématie blanche[33], tandis que, parallèlement, les communautés anti-vaccination, même celles qui ne se considèrent pas comme politiques ou idéologiques[34], ont adopté de plus en plus d’attitudes d’extrême droite. Des sujets anodins comme la santé et la forme physique peuvent mener à ces communautés qui, en plus d’être dangereuses en elles-mêmes, sont désormais des vecteurs de contenus haineux.

Vidéos

En plus d’être la plateforme en ligne la plus populaire auprès des jeunes Canadiens, YouTube est aussi celle vers laquelle les jeunes sont le plus susceptibles de se tourner lorsqu’ils veulent apprendre quelque chose [35]. Il n’est donc pas étonnant que YouTube soit aussi l’un des sites où les jeunes sont susceptibles d’être exposés à du contenu haineux. Une étude a révélé qu’une personne sur six qui se dit fasciste a déclaré avoir commencé à se radicaliser après avoir vu des vidéos sur YouTube[36] .

Comme c’est le cas pour les sites de propagande haineuse déguisés, bon nombre de ces vidéos adoptent une approche éducative et courtisent les visiteurs en promettant de leur révéler des faits « dissimulés » par les autorités. Toutefois, plutôt que de servir de sources pour les travaux scolaires, ces vidéos sont « vite regardés, faciles à partager et à diffuser[37] ».

Les groupes et les personnes motivés par la haine ne font pas que diffuser leur message sur YouTube. Au contraire, ils utilisent cette plateforme pour lever des fonds grâce à des fonctionnalités comme « Super Chat », qui incitent les visiteurs à donner de l’argent pour soutenir les personnalités marquantes d’Internet qu’ils préfèrent[38] .

Réseaux sociaux

Les réseaux sociaux en ligne encouragent l’interaction de groupe et renforcent les liens entre les membres des groupes. Ces réseaux sociaux ont permis à un plus grand nombre de personnes d’exprimer leurs points de vue, mais certaines plateformes, dont Facebook et Twitter, sont utilisées pour rejoindre et recruter des membres au moyen de pages partisanes, de fils de syndication ou de groupes haineux. À mesure que les jeunes s’abonnent à de nouveaux réseaux sociaux, comme Instagram, Snapchat et TikTok, les propos préjugés[39] et les contenus ouvertement haineux[40] les suivent aussi. Les réseaux sociaux permettent également aux groupes haineux de « passer inaperçus » tout en diffusant leur contenu. Aux yeux du visiteur occasionnel, un lien partagé sur Facebook ou Twitter qui mène à un site haineux ressemble à un lien qui mène vers une source de nouvelles ou d’information légitime.

Bien qu’un grand nombre de jeunes déclarent rencontrer des préjudices en ligne surtout sur les grands réseaux sociaux publics comme Facebook et Twitter[41]], les sites spécialisés comme 4chan jouent un rôle important en exposant les jeunes à des contenus haineux plus radicaux. De nombreux membres de groupes haineux ont d’ailleurs reconnu qu’ils se sont radicalisés en fréquentant ces réseaux[42] . En outre, les groupes haineux ont réagi aux efforts plus agressifs déployés par les réseaux sociaux traditionnels en vue de les éliminer, en créant leurs propres plateformes. Si aucune de ces mesures n’a donné les résultats escomptés, il n’en reste pas moins qu’elles offrent un espace propice à la réalisation des phases les plus extrêmes de la radicalisation[43] .

La capacité des médias sociaux d’aider les jeunes intéressés par la propagande haineuse à trouver des amis et des mentors est essentielle au développement du sentiment d’identité collective, dont le rôle est capital dans le processus de radicalisation. Pour les groupes haineux, le plus grand avantage des médias sociaux n’est pas qu’ils leur permettent de rejoindre les jeunes, mais qu’ils permettent aux jeunes de diffuser eux-mêmes du matériel haineux en partageant et en aimant du contenu, en recommandant des vidéos à des amis et en exprimant des points de vue stéréotypés au sein des communautés virtuelles qu’ils fréquentent.

Mèmes

D’après Wikipédia, un mème Internet est une activité, un concept, une accroche ou un extrait de média qui se répand d’une personne à l’autre par le moyen d’Internet, souvent dans un but humoristique[44]. Les mèmes apparaissent dans presque tous les espaces en ligne, et sont particulièrement populaires dans les réseaux sociaux dont le but premier est de partager des images, comme Snapchat et Instagram.

Les mouvements de haine ont adopté les mèmes avec empressement pour plusieurs raisons. Gianluca Stringhini, un professeur de l’Université de Boston qui étudie les mèmes, les décrit comme des « armes de la guerre de l’information [45]» parce qu’ils constituent une forme de blague d’initiés et qu’ils peuvent être utilisés pour envoyer différents messages à des visiteurs qui se trouvent à différents stades du processus de radicalisation.

En plus de permettre aux groupes haineux d’enrober leur message d’humour et d’ironie, les mèmes servent également à diffuser et à remettre à la mode des images stéréotypées qui servent à la fois à confirmer les préjugés des visiteurs et à leur donner (ainsi qu’à la personne qui partage le mème) la satisfaction d’être « audacieux[46] ».

De par leur nature, les mèmes se propagent rapidement. Bien que la plupart d’entre eux soient plutôt inoffensifs, les groupes d’extrême droite ont réussi à les intégrer aux plateformes grand public[47] . En fait, les études menées sur les mèmes montrent qu’ils proviennent presque tous de deux forums en ligne dominés par du contenu haineux[48] .

Algorithmes de recherche et de recommandation

Les jeunes peuvent également être exposés à du contenu haineux sous l’effet des algorithmes de recherche et de recommandation qui sous-tendent la majorité des sites Internet. Les groupes haineux mettent à profit les « vides de données », c’est-à-dire les situations où il y a peu ou pas de contenu en ligne à propos d’un terme de recherche en particulier. Par exemple, lorsqu’un événement majeur se produit, ils s’empressent de diffuser des vidéos conspirationnistes à ce sujet, avant que les organes de presse légitimes puissent le couvrir. Ils inventent aussi des mots ou des expressions qui, lorsqu’ils font l’objet d’une recherche, mènent à leur contenu[49]. Cet effet peut être amplifié lorsque des organes de presse légitimes qui couvrent les incidents motivés par la haine attirent l’attention du public sur des termes qui amèneront « tout jeune homme désillusionné à ouvrir une boîte de Pandore, simplement en cherchant ce terme sur Google[50]».

Bien que les groupes haineux déploient beaucoup d’efforts pour manipuler ces algorithmes, il est également prouvé que les algorithmes eux-mêmes privilégient un contenu de plus en plus extrémiste « dans une boucle de rétroaction qui, d’un lien à l’autre, dirige de nouveaux publics vers des idées toxiques[51] ». Les algorithmes de recommandation, tels que ceux utilisés par les réseaux sociaux et les sites de vidéos pour suggérer (ou, dans certains cas, imposer) le contenu que les utilisateurs devraient regarder, sont conçus pour promouvoir du contenu qui gardera les utilisateurs motivés. Délibérément ou par hasard, ces algorithmes ont souvent conclu que « l’indignation égale l’attention [52] ».

Ces algorithmes ont une grande influence, car, selon YouTube, 70 % des visiteurs acceptent les sites suggérés par les algorithmes,[53] alors que près de 95 % des vues sur TikTok proviennent, sur le plan algorithmique, de la page « Pour toi »[54]. Ils peuvent également jouer un rôle important en exposant les jeunes à un contenu de plus en plus radical. Un ancien extrémiste a déclaré ceci : « Je suis convaincu que YouTube a joué un rôle dans mon changement d’orientation vers la droite parce que les recommandations que j’ai reçues m’ont amené à découvrir d’autres contenus qui étaient très à droite du centre, et la situation a empiré de plus en plus avec le temps, m’amenant à découvrir des contenus toujours plus condamnables[55] . »

Dilogie

En raison de la nature réseautée des médias numériques, les groupes haineux peuvent aussi publier du contenu extrémiste conçu pour stimuler ceux qui ont déjà été radicalisés, en plus de contenu conçu pour les faire paraître raisonnables aux yeux des publics plus généraux. C’est ce que l’on appelle la dilogie, ou le contre-discours. Ainsi, une personne qui se trouve déjà au sommet de la pyramide a l’impression d’avoir une connaissance spéciale que les autres n’ont pas, comme s’il participait à une « blague d’initiés », tandis que les personnes des niveaux inférieurs de la pyramide ne sont pas rebutées par les messages haineux manifestes.

Cependant, les dilogies ne servent pas uniquement à camoufler les propos haineux. Elles sont elles-mêmes des outils de radicalisation : chercher ou visualiser du contenu qui les utilise ou interagir dans ce contexte, grâce à la structure des groupes haineux et à la logique algorithmique d’Internet, qui priorise les contenus qui attirent l’attention et suscitent des sentiments forts, vous attire vers les niveaux supérieurs de la pyramide.

Pour la même raison, les arguments sont souvent présentés sous la forme d’interprétations pseudo-scientifiques et erronées de concepts appartenant à des domaines comme la neurologie, la génétique et la psychologie, dans le but de conférer un caractère raisonnable aux préjugés. Par exemple, un facteur souvent mentionné par les mouvements racistes est le soi-disant « réalisme racial », qui reprend certaines positions scientifiques dépassées et dénaturées pour justifier le racisme[56] , tandis que d’autres affirment être guidés par la communauté athée virtuelle, dont les groupes qui la composent affichent des tendances allant d’un antiféminisme prononcé à une misogynie radicale[57] .

Ironiquement, les groupes haineux suscitent l’intérêt des gens ordinaires en teintant leurs arguments de scepticisme et en laissant entendre qu’ils révèlent au public la « vraie » vérité dissimulée par les médias grand public[58] . De même, certains groupes se présentent comme des partisans neutres du « débat » portant sur des questions qui ne sont plus mises en doute, comme la véracité de l’Holocauste.

Ironie

L’origine de la haine moderne dans la culture des trolls explique en partie pourquoi les groupes haineux modernes dissimulent leur message sous l’humour ou l’ironie[59] , sans pour autant diminuer l’influence de leur message. En fait, des études ont montré que les plaisanteries stéréotypées ont un effet important sur le genre de comportement considéré comme acceptable dans une communauté[60]. Il n’en demeure pas moins que l’humour et l’ironie facilitent l’intégration de leur message dans le courant de pensée dominant.

Par ailleurs, comme l’écrit Alice Marwick : « L’ironie joue un rôle stratégique en permettant aux gens de nier leur attachement à des idées d’extrême droite, tout en y adhérant[61]. » Le guide de style du site haineux à créneaux l’indique clairement : « Les gens non endoctrinés ne devraient pas être capables de déterminer si nous plaisantons ou non, mais c’est de toute évidence un stratagème[62] . »

L’ironie peut également faire en sorte que les jeunes qui en sont aux premières étapes de la radicalisation renient leur attachement à cette communauté. Bon nombre de jeunes qui se sont radicalisés sur 4chan racontent avoir été initialement attirés sur ses forums extrémistes par le plaisir « ironique » d’utiliser des mèmes racistes, surtout lorsque ces derniers se sont multipliés après la réélection de Barack Obama[63] en 2012.

Enfin, l’ironie est un moyen de plus d’adapter le message en fonction de la disposition de la cible à le recevoir : « La dissimulation d’une idéologie par l’humour donne au recruteur la possibilité de se retrancher derrière cette tactique chaque fois qu’il a un peu trop forcé la note au goût de la cible. Il lui suffit alors de prendre un ton plus détendu et de ne pas insister, en disant qu’il ne faisait que plaisanter, puis de reprendre l’endoctrinement un peu plus tard, lorsque la cible aura abaissé sa garde[64]. » Comme l’indique le guide de style d’un site: « L’objectif est de répéter continuellement les mêmes idées, encore et encore. Le visiteur est d’abord attiré par la curiosité ou l’humour irrévérencieux, puis il s’éveille progressivement à la réalité à force de lire constamment les mêmes idées[65] . »

Selon Keegan Hankes, analyste du renseignement au Southern Poverty Law Center, l’ironie et la culture des trolls comptent pour beaucoup dans le succès qu’ont connu les mouvements de haine plus récemment : « Pendant les années où je les ai suivis, j’ai pu observer que les tenants de l’extrême droite réussissent beaucoup mieux que les groupes de nationalisme blanc à impliquer les jeunes[66]. » Comme le faisait observer un participant à un forum de suprématistes blancs : « Si nous parvenons à les faire rire, nous pouvons les amener à passer dans notre camp[67] . »


[1] Gais, H., & Squire, M. (2023) Alt-tech sites continue to provide safe haven for hard right extremists. Southern Poverty Law Center.

[2] Kuznekoff, J. H., et Rose, L. M. (2012). Communication in multiplayer gaming: Examining player responses to gender cues. New Media & Society, 15(4), 541-556. doi:10.1177/1461444812458271

[3] Brisson-Boivin, K. (2019). « Les jeunes Canadiens en ligne : repoussant la haine ». HabiloMédias. Ottawa.

[4] Johnson, N. F., Leahy, R., Restrepo, N. J., Velasquez, N., Zheng, M., Manrique, P., ... et Wuchty, S. (2019). Hidden resilience and adaptive dynamics of the global online hate ecology. Nature, 573(7773), 261-265.

[5] St-Amant, M., Jones, D., King, M., et McCoy J. (2022). Hate, Extremism and Terrorism In Alberta, Canada, and Beyond: The Shift from 2019 to 2022. Organization for the Prevention of Violence.

[6] McCauley, C., et Moskalenko, S. « Mechanisms of Political Radicalization: Pathways Toward Terrorism ». Terrorism and Political Violence, 20:3 (2008), 415-433.

[7] Karim, K.H. (2003). Islamic Peril: Media and Global Violence (éd. actualisée). Montréal : Black Rose Books.

[8] Kteily, N.S., et Landry, A.P. (2022). Dehumanization: trends, insights, and challenges. Trends in cognitive sciences.

[9] Landry, A. P., Ihm, E., & Schooler, J. W. (2022). Hated but still human: Metadehumanization leads to greater hostility than metaprejudice. Group Processes & Intergroup Relations, 25(2), 315-334.

[10] Luft, A. (2019). « Dehumanization and the normalization of violence: It’s not what you think ». Social Science Research Council: Items, 21.

[11] Ma, C. (2021) YouTube Celebrities and the Rhetoric of White Supremacy. Items. https://items.ssrc.org/extremism-online/mainstreaming-resentment-youtube-celebrities-and-the-rhetoric-of-white-supremacy/

[12] Payne, K. (2019). « The Truth About Anti-White Discrimination ». Scientific American.

[13] Futrelle, D. (2019) Hate lies and video games: Six ways Gamergate poisoned gaming and ruined the online world for the rest of us. We Hunted the Mammoth. https://www.wehuntedthemammoth.com/2019/08/24/hate-lies-and-video-games-six-ways-gamergate-poisoned-gaming-and-ruined-the-online-world-for-the-rest-of-us/

[14] Volkan, V. D. (2008). Massive Traumas at the Hand of ‘Others’: Large Group Identity Issues, Transgenerational Transmissions,‘Chosen Traumas’ and their Consequences. Retrieved on May, 5, 2013.

[15] Brack, C. E. (2015). The Conspiracist Style in American Extremism: An Education-Based Approach for Combating Conspiracism (Doctoral dissertation, Master’s Thesis. National Defense University. https://doi.org/10.5281/zenodo. 1211408).

[16] Volkan, V. D. (2005). Large-group identity, large-group regression and massive violence. International Newsletter of the Group-Analytic Society, 30, 8-32.

[17] Jigsaw. (2022) The Conspiracy Theories Issue. The Current. https://jigsaw.google.com/the-current/conspiracy-theories/

[18] Martínez, C.A., van Prooijen, J.W., et Van Lange, P.A. (2022). « A threat-based hate model: How symbolic and realistic threats underlie hate and aggression ». Journal of Experimental Social Psychology, 103, 104393.

[19] Brack, C. E. (2015). The Conspiracist Style in American Extremism: An Education-Based Approach for Combating Conspiracism (Doctoral dissertation, Master’s Thesis. National Defense University. https://doi.org/10.5281/zenodo. 1211408).

[20] Scrivens, R. (2022). « Examining Online Indicators of Extremism among Violent and Non-Violent Right-Wing Extremists ». Terrorism and Political Violence, 1-21.

[21] Williams,H.J., et autres (2021). The Online Extremist Ecosystem. Consulté à l’adresse https://apps.dtic.mil/sti/pdfs/AD1154178.pdf.

[22] Tiffany, K. (2020). « The Women Making Conspiracy Theories Beautiful ». The Atlantic.

[23] Woodrow, H. (2022). « "He’s Talking About The People In Power": Ye West And Other Pop Culture Conspiracy Theories ». Antihate.ca.

[24] Gais, H., & Squire, M. (2023) Alt-tech sites continue to provide safe haven for hard-right extremists. Southern Poverty Law Center.

[25] Beirich, H. (20 février 2019). The Year in Hate: Rage Against Change. Consulté le 25 avril 2019 sur le site https://www.splcenter.org/fighting-hate/intelligence-report/2019/year-hate-rage-against-change

[26] Zannettou, S., Caulfield, T., Blackburn, J., De Cristofaro, E., Sirivianos, M., Stringhini, G., & Suarez-Tangil, G. (2018, October). On the origins of memes by means of fringe web communities. In Proceedings of the internet measurement conference 2018 (pp. 188-202).

[27] Daniels, J. (2008). Race, Civil Rights, and Hate Speech in the Digital Era. Learning Race and Ethnicity: Youth and Digital Media (p. 129-154). Cambridge, MA : MIT Press.; McNamee, Pena et Peterson (2010).

[28] The Groups (29 janvier 2010). Consulté à l’adresse https://www.splcenter.org/fighting-hate/intelligence-report/2015/groups.

[29] Rich, J. (23 janvier 2019). « Schools must equip students to navigate alt-right websites that push fake news ». Consulté à l’adresse https://theconversation.com/schools-must-equip-students-to-navigate-alt-right-websites-that-push-fake-news-97166.

[30] Meddaugh, P. M. (2009). Hate Speech or “Reasonable Racism?” The Other in Stormfront. Journal of Mass Media Ethics, 24(4), 251-268.

[31] Velásquez, N., Leahy, R., Restrepo, N. J., Lupu, Y., Sear, R., Gabriel, N., ... & Johnson, N. F. (2020). Hate multiverse spreads malicious COVID-19 content online beyond individual platform control. arXiv preprint arXiv:2004.00673. [traduction]

[32] Logan, N. (2023) How antisemitic tropes are being used to target the LGBTQ community. CBC News.

[33] Walter, D., Ophir, Y., Lokmanoglu, A. D., & Pruden, M. L. (2022). Vaccine discourse in white nationalist online communication: A mixed-methods computational approach. Social Science & Medicine, 298, 114859.

[34] Smith, R et al. (2020). Under the Surface: Covid-19 vaccine narratives, misinformation and data deficits on social media. First Draft.

[35] Beyond Millennials: The Next Generation of Learners (Rep.). (2018). Pearson.

[36] From Memes to Infowars: How 75 Fascist Activists Were «Red-Pilled». (11 octobre 2018). Consulté le 25 avril 2019 sur le site https://www.bellingcat.com/news/americas/2018/10/11/memes-infowars-75-fascist-activists-red-pilled/

[37] Deo. (2017, November 23). How White Nationalism Courts Internet Nerd Culture. Retrieved from https://medium.com/@DeoTasDevil/how-white-nationalism-courts-internet-nerd-culture-b4ebad07863d

[38] Warzel, C. (2019, March 19). We're Asking the Wrong Questions of YouTube and Facebook After New Zealand. The New York Times. Retrieved April 25, 2019, from https://www.nytimes.com/2019/03/19/opinion/facebook-youtube-new-zealand.html

[39] Brisson-Boivin, K. (2019). « Les jeunes Canadiens en ligne : repoussant la haine ». HabiloMédias. Ottawa.

[40] Cox, J. (18 décembre 2018). TikTok Has a Nazi Problem. Consulté le 25 avril 2019 sur le site https://motherboard.vice.com/en_us/article/yw74gy/tiktok-neo-nazis-white-supremacy.

[41] Brisson-Boivin, K. (2019). « Les jeunes Canadiens en ligne : repoussant la haine ». HabiloMédias. Ottawa.

[42] From Memes to Infowars: How 75 Fascist Activists Were «Red-Pilled». (11 octobre 2018). Consulté le 25 avril 2019 sur le site https://www.bellingcat.com/news/americas/2018/10/11/memes-infowars-75-fascist-activists-red-pilled/.

[43] Beirich, H. (20 février 2019). The Year in Hate: Rage Against Change. Consulté le 25 avril 2019 sur le site https://www.splcenter.org/fighting-hate/intelligence-report/2019/year-hate-rage-against-change.

[44] Mème Internet. (13 mai 2019). Consulté sur le site https://fr.wikipedia.org/wiki/M%C3%A8me_Internet.

[45] Mencimer, S. (2 avril 2019). “The Left Can’t Meme”: How Right-Wing Groups Are Training the Next Generation of Social Media WarriorsMother Jones.

[46] Marsi, F. (26 mars 2019). How the far right is weaponising irony to spread anti-Muslim hatred. Consulté le 25 avril 2019 sur le site https://www.thenational.ae/world/europe/how-the-far-right-is-weaponising-irony-to-spread-anti-muslim-hatred-1.841430.

[47] Mencimer, S. (2 avril 2019). “The Left Can’t Meme”: How Right-Wing Groups Are Training the Next Generation of Social Media WarriorsMother Jones.

[48] The Arxiv (11 juin 2018). This is where internet memes come from. Consulté sur le site https://www.technologyreview.com/s/611332/this-is-where-internet-memes-come-from/.

[49] Golebiewski, M., et Boyd, D. (2018). Data Voids: Where Missing Data Can Easily Be Exploited (rapport). Data & Society.

[50] Breland, A. (15 mars 2019). How the Suspected New Zealand Gunman Weaponized the InternetMother Jones.

[51] Éditorial (24 novembre 2018). The New Radicalization of the InternetThe New York Times. Consulté le 25 avril 2019.

[52] Bergen, M. (2 avril 2019). YouTube Executives Ignored Warnings, Letting Toxic Videos Run Rampant. Consulté le 25 avril 2019 sur le site https://www.bloomberg.com/news/features/2019-04-02/youtube-executives-ignored-warnings-letting-toxic-videos-run-rampant.

[53] Solsman, J.E. (10 janvier 2018). YouTube’s AI is the puppet master over most of what you watch. Consulté le 25 avril 2019 sur le site https://www.cnet.com/news/youtube-ces-2018-neal-mohan/.

[54] Nishijima, I. (2021). TikTok’s secret money maker is actually its algorithms. Medium. Retrieved from: https://medium.com/headlineasia/tiktoks-biggest-money-maker-is-actually-an-algorithm-879c5518db53

[55] Weill, K. (17 décembre 2018). How YouTube Built a Radicalization Machine for the Far-Right. Consulté sur le site https://www.thedailybeast.com/how-youtube-pulled-these-men-down-a-vortex-of-far-right-hate?ref=home.

[56] McInnes, Molyneux, and 4chan: Investigating pathways to the alt-right. (19 avril 2018). Consulté le 26 avril 2019 sur le site https://www.splcenter.org/20180419/mcinnes-molyneux-and-4chan-investigating-pathways-alt-right.

[57] Weill, K. (17 décembre 2018). How YouTube Built a Radicalization Machine for the Far-Right. Consulté sur le site https://www.thedailybeast.com/how-youtube-pulled-these-men-down-a-vortex-of-far-right-hate?ref=home.

[58] McInnes, Molyneux, and 4chan: Investigating pathways to the alt-right. (19 avril 2018). Consulté le 26 avril 2019 sur le site https://www.splcenter.org/20180419/mcinnes-molyneux-and-4chan-investigating-pathways-alt-right.

[59] Marwick, A., & Lewis, R. (2017) Media Manipulation and Disinformation Online. Data & Society.

[60] Ford, T. E., & Ferguson, M. A. (2004). Social consequences of disparagement humor: A prejudiced norm theory. Personality and Social Psychology Review, 8, 79-94.

[61] Wilson, J. (23 mars 2017). Hiding in plain sight: How the ‹alt-right› is weaponizing irony to spread fascismThe Guardian. Consulté sur le site https://www.theguardian.com/technology/2017/may/23/alt-right-online-humor-as-a-weapon-facism.

[62] Feinberg, A., & Feinberg, A. (14 décembre 2017). This Is The Daily Stormer’s Playbook. Consulté sur le site https://www.huffingtonpost.ca/entry/daily-stormer-nazi-style-guide_n_5a2ece19e4b0ce3b344492f2.

[63] McInnes, Molyneux, and 4chan: Investigating pathways to the alt-right. (19 avril 2018). Consulté le 26 avril 2019 sur le site https://www.splcenter.org/20180419/mcinnes-molyneux-and-4chan-investigating-pathways-alt-right.

[64] Deo (23 novembre 2017). How White Nationalism Courts Internet Nerd Culture. Consulté sur le site https://medium.com/@DeoTasDevil/how-white-nationalism-courts-internet-nerd-culture-b4ebad07863d.

[65] Pink, A. (13 décembre 2017). Leaked ‹Playbook› Shows How The Daily Stormer Makes Anti-Semitism Cool. Consulté sur le site https://forward.com/fast-forward/390000/leaked-playbook-shows-how-the-daily-stormer-makes-anti-semitism-cool/.

[66] Collins, C. « What is the ‘Alt-Right’? ». Teaching Tolerance 1.57 (2017).

[67] McInnes, Molyneux, and 4chan: Investigating pathways to the alt-right. (19 avril 2018). Consulté le 26 avril 2019 sur le site https://www.splcenter.org/20180419/mcinnes-molyneux-and-4chan-investigating-pathways-alt-right.