Comprendre la propagande haineuse sur Internet

Internet est devenu le moyen de communication par excellence dans le monde entier, et cette envergure internationale sans précédent, combinée à la difficulté de localiser la provenance des communications, a fait d’Internet l’outil idéal pour permettre aux extrémistes de présenter de vieilles haines sous un jour nouveau, de lever des fonds et de recruter des membres. À mesure qu’Internet s’est développé et a évolué, les groupes et les mouvements motivés par la haine se sont adaptés à cette nouvelle réalité. Ils ont créé des sites Web, des forums et des profils dans les réseaux sociaux et ont exercé leurs activités notamment sur les sites de jeux en ligne et en allant jusqu’à créer des versions parallèles de plateformes comme Twitter et Wikipédia.

Cultures de haine

En plus des groupes et des mouvements haineux organisés, de nombreux espaces virtuels développent des « cultures de la haine », c’est-à-dire des communautés au sein desquelles le racisme, la misogynie et d’autres préjugés sont normalisés. De nombreux environnements virtuels, particulièrement ceux qui sont populaires auprès des garçons adolescents, présentent des niveaux de référence relativement élevés en matière de racisme, de sexisme et d’homophobie. Des sites comme 4chan et certaines parties de Reddit se font une vertu d’être offensants, tandis que des calomnies sexistes, racistes et homophobes sont monnaie courante dans les jeux en ligne[1]. L’étude de HabiloMédias a révélé que les jeunes sont témoins de propos préjugés sur toutes les plateformes qu’ils fréquentent régulièrement[2]. Même s’ils n’y prennent pas toujours part, ils ne peuvent pas s’empêcher d’être influencés par les valeurs des communautés dont ils font partie. En raison de la nature réseautée des médias numériques, elles sont toutes liées. Cela signifie que les plus petites d’entre elles, surtout les communautés fermées comme 4chan (au sein de laquelle les jeunes se radicalisent plus rapidement qu’ailleurs), peuvent avoir une influence importante sur les communautés plus nombreuses et plus ouvertes, soit en « trollant »[3] ou simplement en y participant.

Formes de propagande haineuse en ligne

Sites Web

Sur Internet, la propagande haineuse est surtout véhiculée sur des sites tenus par des groupes haineux. En fait, les groupes haineux ont été parmi les premiers à l’adopter, transposant en bloc leurs contenus, d’abord dans des forums de discussion, puis sur des pages Web[4]. Bien que la publication Web soit beaucoup plus économique et commode que la publication imprimée, les coûts et les exigences techniques nécessaires pour créer des sites ont fait en sorte que seuls les plus grands groupes avaient une présence en ligne dans les débuts d’Internet. Aujourd’hui, étant donné la facilité d’accès aux plateformes de blogues et la simplicité des logiciels de publication Web, les sites de propagande haineuse sont très nombreux. Ces sites ont évolué en imitant de différentes manières les sites Web commerciaux populaires : bon nombre d’entre eux offrent du matériel audiovisuel et des forums de discussion, la configuration de certains sites haineux est de qualité professionnelle, contenant des éléments graphiques et des textes qui imitent des sites populaires comme BuzzFeed[5], et ils rejoignent un vaste public (jusqu’à quatre millions de pages vues par mois[6]).

De nombreux groupes haineux exploitent également des sites haineux déguisés[7]. Les sites haineux qui s’affichent comme tels font activement la promotion de la haine envers d’autres groupes tout en diffusant de la propagande raciste ou en proposant des communautés haineuses en ligne. En revanche, les sites haineux déguisés perpétuent intentionnellement la haine au moyen de messages implicites et trompeurs. Ils se font passer pour des sources d’opinion ou d’information légitimes portant des noms d’apparence neutres comme le National Policy Institute. Ce dernier se présente comme un « groupe de réflexion », mais le Southern Poverty Law Center l’a identifié comme un groupe militant pour la suprématie blanche[8]. Le but de ces sites est de prendre contact avec des jeunes avant qu’ils aient les connaissances ou la conscience critique nécessaire pour les reconnaître pour ce qu’ils sont. Une étude a montré que plus de 60 % des élèves des niveaux intermédiaire et secondaire s’en sont servis comme sources de documentation pour leurs travaux scolaires[9], soit avant qu’ils aient la capacité d’évaluer de façon critique les sites déguisés[10].

À première vue, les sites Web déguisés semblent bien documentés, professionnels et fondés sur les valeurs fondamentales  telles la « vérité » et la « liberté d’expression ». Beaucoup d’entre eux tentent de dissimuler leurs intentions racistes derrière un message plus modéré visant à « éduquer » ou à « débattre ». Cette constatation vaut non seulement pour les sites qui se font passer pour des sources d’information destinées au grand public, mais également pour les sites ouvertement haineux qui affirment diffuser « la véritable histoire ». De nombreux sites ouvertement haineux attaquent le système d’éducation traditionnel et demandent à leurs partisans d’enseigner la « vraie » vérité à leurs amis ainsi qu’aux membres de leur famille et de leur communauté.

Le « racisme raisonnable » est un phénomène analogue[11] dont l’idéologie est véhiculée par des sites haineux présentant leur contenu comme une provocation ou un débat politique. Au lieu de diffuser des expressions carrément haineuses, ils se fondent sur une fausse logique pseudo‑scientifique. Selon des études, alors que les images et les messages stéréotypés sur les sites haineux exercent une influence plus immédiate sur les visiteurs,  ces effets ne durent pas longtemps, sauf dans le cas des personnes qui sont d’emblée réceptives aux messages extrémistes ou haineux. Toutefois, les messages haineux plus implicites, comme ceux qui figurent sur les sites haineux déguisés, ont un pouvoir de persuasion plus durable[12].

Musique

Beaucoup d’adolescents se tournent vers les genres musicaux et les sous-cultures pour définir leur identité, et les producteurs de musique haineuse exploitent cette tendance. Bien que le rock haineux ne soit plus la vache à lait qu’il a déjà été pour les grands groupes haineux[13], et que Spotify et iTunes aient retiré la plupart des chansons de rock haineux de leurs plateformes, ce genre de musique est encore répandu Il se trouve non seulement sur les sites haineux, mais également sur des sites de partage de fichiers et de grandes plateformes comme YouTube[14].

Vidéos

En plus d’être la plateforme en ligne la plus populaire auprès des jeunes Canadiens, YouTube est aussi celle vers laquelle les jeunes sont le plus susceptibles de se tourner lorsqu’ils veulent apprendre quelque chose[15]. Il n’est donc pas étonnant que YouTube soit aussi l’un des sites où les jeunes sont susceptibles d’être exposés à du contenu haineux. Une étude a révélé qu’une personne sur six qui se dit fasciste a déclaré avoir commencé à se radicaliser après avoir vu des vidéos sur YouTube[16].

Comme c’est le cas pour les sites de propagande haineuse déguisés, bon nombre de ces vidéos adoptent une approche éducative et courtisent les visiteurs en promettant de leur révéler des faits « dissimulés » par les autorités. Toutefois, plutôt que de servir de sources pour les travaux scolaires, ces vidéos sont « vite regardés, faciles à partager et à diffuser[17] ».

Les groupes et les personnes motivés par la haine ne font pas que diffuser leur message sur YouTube. Au contraire, ils utilisent cette plateforme pour lever des fonds grâce à des fonctionnalités comme « Super Chat », qui incitent les visiteurs à donner de l’argent pour soutenir les personnalités marquantes d’Internet qu’ils préfèrent[18].

Jeux

Les groupes haineux font également un effort pour attirer les jeunes en offrant des jeux vidéo, bien que les jeux offerts aient tendance à être rudimentaires et moins efficaces que la musique. Il est en effet plus facile de créer de la musique punk ou heavy metal amateur que de produire un jeu vidéo de qualité. La plupart sont des jeux tellement simples qu’ils offrent peu d’intérêt à être joués plus d’une fois. Il est difficile d’imaginer que les jeunes pourraient jouer longtemps à ces jeux, mais l’attrait qu’ils exercent pourrait être dû à leur caractère purement choquant.

La culture du jeu s’est toutefois avérée être un terreau fertile pour les mouvements de haine. Par le truchement de sites Web où les jeux vidéo sont analysés, tels certains sous-forums de Reddit, et de sites de vidéos comme YouTube et Twitch, où les joueurs jouent pour un public mondial, les groupes haineux promeuvent le racisme, l’homophobie et la misogynie, lesquels sont déjà présents au sein de nombreuses communautés de joueurs[19].

Réseaux sociaux

Les réseaux sociaux en ligne encouragent l’interaction de groupe et renforcent les liens entre les membres des groupes. Ces réseaux sociaux ont permis à un plus grand nombre de personnes d’exprimer leurs points de vue, mais certaines plateformes, dont Facebook et Twitter, sont utilisées pour rejoindre et recruter des membres au moyen de pages partisanes, de fils de syndication ou de groupes haineux. À mesure que les jeunes s’abonnent à de nouveaux réseaux sociaux, comme Instagram, Snapchat et TikTok, les propos préjugés[20] et les contenus ouvertement haineux[21] les suivent aussi. Les réseaux sociaux permettent également aux groupes haineux de « passer inaperçus » tout en diffusant leur contenu. Aux yeux du visiteur occasionnel, un lien partagé sur Facebook ou Twitter qui mène  à un site haineux ressemble à un lien qui mène vers une source de nouvelles ou d’information légitime. Bien qu’un grand nombre de jeunes déclarent rencontrer des préjudices en ligne surtout sur les grands réseaux sociaux publics comme Facebook et Twitter[22], les sites spécialisés comme 4chan jouent un rôle important en exposant les jeunes à des contenus haineux plus radicaux. De nombreux membres de groupes haineux ont d’ailleurs reconnu qu’ils se sont radicalisés en fréquentant ces réseaux[23]. En outre, les groupes haineux ont réagi aux efforts plus agressifs déployés par les réseaux sociaux traditionnels en vue de les éliminer, en créant leurs propres plateformes. Si aucune de ces mesures n’a donné les résultats escomptés, il n’en reste pas moins qu’elles offrent un espace propice à la réalisation des phases les plus extrêmes de la radicalisation[24].

La capacité des médias sociaux d’aider les jeunes intéressés par la propagande haineuse à trouver des amis et des mentors est essentielle au développement du sentiment d’identité collective, dont le rôle est capital dans le processus de radicalisation. Pour les groupes haineux, le plus grand avantage des médias sociaux n’est pas qu’ils leur permettent de rejoindre les jeunes, mais qu’ils permettent aux jeunes de diffuser eux-mêmes du matériel haineux en partageant et en aimant du contenu, en recommandant des vidéos à des amis et en exprimant des points de vue stéréotypés au sein des communautés virtuelles qu’ils fréquentent.

Mèmes

D’après Wikipédia, un mème Internet est une activité, un concept, une accroche ou un extrait de média qui se répand d’une personne à l’autre par le moyen d’Internet, souvent dans un but humoristique[25]. Les mèmes apparaissent dans presque tous les espaces en ligne, et sont particulièrement populaires dans les réseaux sociaux dont le but premier est de partager des images, comme Snapchat et Instagram.

Les mouvements de haine ont adopté les mèmes avec empressement pour plusieurs raisons. Gianluca Stringhini, un professeur de l’Université de Boston qui étudie les mèmes, les décrit comme des « armes de la guerre de l'information [26] » parce qu’ils constituent une forme de blague d’initiés et qu’ils peuvent être utilisés pour envoyer différents messages à des visiteurs qui se trouvent à différents stades du processus de radicalisation.

En plus de permettre aux groupes haineux d’enrober leur message d’humour et d’ironie, les mèmes servent également à diffuser et à remettre à la mode des images stéréotypées qui servent à la fois à confirmer les préjugés des visiteurs et à leur donner (ainsi qu’à la personne qui partage le mème) la satisfaction d’être « audacieux[27] ».

De par leur nature, les mèmes se propagent rapidement. Bien que la plupart d’entre eux soient plutôt inoffensifs, les groupes d’extrême droite ont réussi à les intégrer aux plateformes grand public[28]. En fait, les études menées sur les mèmes montrent qu’ils proviennent presque tous de deux forums en ligne dominés par du contenu haineux[29].

Algorithmes de recherche et de recommandation

Les jeunes peuvent également être exposés à du contenu haineux sous l’effet des algorithmes de recherche et de recommandation qui sous-tendent la majorité des sites Internet. Les groupes haineux se donnent beaucoup de mal pour falsifier ces algorithmes. Par exemple, un site antisémite est apparu pendant de nombreuses années en tête des résultats quand le mot « Juif » faisait l’objet d’une recherche sur Google puisque ce mot était abondamment utilisé sur ce site et d’autres sites liés à cette page. Les groupes haineux mettent également à profit les « vides de données », c’est-à-dire les situations où il y a peu ou pas de contenu en ligne à propos d’un terme de recherche en particulier. Par exemple, lorsqu’un événement majeur se produit, ils s’empressent de diffuser des vidéos conspirationnistes à ce sujet, avant que les organes de presse légitimes puissent le couvrir. Ils inventent aussi des mots ou des expressions qui, lorsqu’ils font l’objet d’une recherche, mènent à leur contenu[30]. Cet effet peut être amplifié lorsque des organes de presse légitimes qui couvrent les incidents motivés par la haine attirent l’attention du public sur des termes qui amèneront « tout jeune homme désillusionné à ouvrir une boîte de Pandore, simplement en cherchant ce terme sur Google[31] ».

Bien que les groupes haineux déploient beaucoup d’efforts pour manipuler ces algorithmes, il est également prouvé que les algorithmes eux-mêmes privilégient un contenu de plus en plus extrémiste « dans une boucle de rétroaction qui, d’un lien à l’autre, dirige de nouveaux publics vers des idées toxiques[32] ». Les algorithmes de recommandation, tels que ceux utilisés par les réseaux sociaux et les sites de vidéos pour suggérer (ou, dans certains cas, imposer) le contenu que les utilisateurs devraient regarder, sont conçus pour promouvoir du contenu qui gardera les utilisateurs motivés. Délibérément ou par hasard, ces algorithmes ont souvent conclu que « l’indignation égale l’attention ”[33] ».

Ces algorithmes ont une grande influence, car, selon YouTube, 70 % des visiteurs acceptent les sites suggérés par les algorithmes[34]. Ils peuvent également jouer un rôle important en exposant les jeunes à un contenu de plus en plus radical. Un ancien extrémiste a déclaré ceci : « Je suis convaincu que YouTube a joué un rôle dans mon changement d’orientation vers la droite parce que les recommandations que j’ai reçues m’ont amené à découvrir d’autres contenus qui étaient très à droite du centre, et la situation a empiré de plus en plus avec le temps, m’amenant à découvrir des contenus toujours plus condamnables[35]. »

Nouvelles plateformes

Les mouvements de propagande haineuse se déplacent constamment vers de nouvelles plateformes, non seulement parce que les plateformes existantes prennent parfois des mesures pour limiter leur présence, mais encore parce qu’ils suivent les jeunes à mesure que ces derniers adoptent de nouveaux réseaux sociaux et applications. Par exemple, des groupes extrémistes islamiques, qui ont été retirés de façon musclée des grandes plateformes comme Facebook et YouTube, sont passés à des applications de clavardage telles que RocketChat et Discord[36], une application de messagerie axée sur les jeux vidéo qui est populaire auprès des groupes d’extrême droite[37]. Ces groupes ont de plus adopté des outils multiplateformes tels que Disqus, lequel fournit l’architecture des sections de commentaires pour plus de 500 000 sites Web[38]. La portée de ce réseau de commentaires, qui va de petits blogues à des sources d’information destinées au grand public, comme le magazine The Atlantic, en passant par des sites partisans comme Breitbart, permet aux mouvements haineux de s’organiser facilement en petites communautés et de diffuser par la suite leur message dans de plus grandes communautés. Comme le fait observer E.J. Gibney, un chercheur qui suit les contenus haineux sur Disqus : « Quand les pires sections d’Internet décident de s’intégrer un peu plus dans le courant dominant, elles se tournent vers Disqus[39]. »

Passage de la frange extrémiste au courant dominant

Le but de tout mouvement de haine est de démarginaliser ses opinions et ses idées, c’est-à-dire de les faire passer de la frange extrémiste de la société au courant dominant. La nature réseautée de la technologie numérique facilite cette démarginalisation, d’abord parce que tout le monde est maintenant en mesure de publier du contenu et de le diffuser partout, et aussi parce que ce réseau de contacts facilite grandement le déplacement des idées, des opinions et du contenu entre les diverses plateformes et communautés. (Par exemple, un mème créé sur un forum de Reddit a été répété sur le site Fox News quatre jours plus tard[40].)

Les principaux médias, lesquels rejoignent encore les publics les plus nombreux (et, en particulier, le plus grand nombre d’électeurs dans la plupart des pays), jouent un rôle essentiel dans ce processus, surtout lorsqu’ils considèrent qu’un sujet discuté dans les médias sociaux constitue la preuve qu’il vaut la peine d’être mentionné dans les nouvelles. Comme l’a expliqué Farhad Manjoo, chroniqueur en technologies : « Les points de vue extrémistes, qui auparavant n’auraient jamais eu leur place dans le débat national, sont maintenant introduits par ce genre de mécanisme d’entrée. D’abord publiés sur des blogues, ils sont repris par les chaînes de nouvelles sur le câble, puis se retrouvent au cœur d’un débat national[41]. »

De même, les médias traditionnels peuvent jouer un rôle en exposant leurs publics à des termes qui, lorsqu’ils font l’objet d’une recherche, dirigent leurs visiteurs vers des contenus extrémistes. Parfois, les gens pensent bien faire. Par exemple, Anderson Cooper, présentateur à CNN, a interrogé David Hogg, survivant de la tuerie survenue à l’école de Parkland et aujourd’hui militant pour le contrôle des armes à feu, à propos des rumeurs selon lesquelles il aurait été un « acteur de crise » payé pour prendre part à un faux attentat. Comme il fallait s’y attendre, la plupart des recherches faites sur l’expression « acteur de crise » ont mené à des contenus qui appuyaient la théorie conspirationniste[42]. Il arrive aussi, cependant, que les messages de haine se propagent entre les médias qui se chevauchent sur le continuum idéologique, par exemple lorsque les idées passent des forums prônant la suprématie blanche aux personnalités d’extrême droite qui communiquent leur message sur Twitter et YouTube, aux commentateurs qui expriment des opinions conservatrices à la télévision et, enfin, aux bulletins de nouvelles télévisés destinés au grand public[43].

En raison de la nature réseautée des médias numériques, les groupes haineux peuvent aussi publier du contenu extrémiste conçu pour stimuler ceux qui ont déjà été radicalisés, en plus de contenu conçu pour les faire paraître raisonnables aux yeux des publics plus généraux. Même le site Web du Daily Stormer, qui vise un lectorat déjà ouvert à l’humour raciste et sexiste, s’efforce par tous les moyens de paraître légitime.

En expliquant pourquoi un écrivain devrait citer en bloc des articles destinés au grand public, le guide de style fait observer qu’il s’agit d’un moyen pour les auteurs de se donner l’air de rigueur et d’irréprochabilité propre aux grands médias.

Ils s’efforcent également de ne pas déplaire aux lecteurs qui commenceraient à peine à s’intéresser à la doctrine de la suprématie blanche. Ici encore, cette tendance se manifeste dans un effort concerté pour combiner des propos venimeux à des banalités[44].

Pour la même raison, les arguments sont souvent présentés sous la forme d’interprétations pseudo-scientifiques et erronées de concepts appartenant à des domaines comme la neurologie, la génétique et la psychologie, dans le but de conférer un caractère raisonnable aux préjugés. Par exemple, un facteur souvent mentionné par les mouvements racistes est le soi-disant « réalisme racial », qui reprend certaines positions scientifiques dépassées et dénaturées pour justifier le racisme[45], tandis que d’autres affirment être guidés par la communauté athée virtuelle, dont les groupes qui la composent affichent des tendances allant d’un antiféminisme prononcé à une misogynie radicale[46].

Ironiquement, les groupes haineux suscitent l’intérêt des gens ordinaires en teintant leurs arguments de scepticisme et en laissant entendre qu’ils révèlent au public la « vraie » vérité dissimulée par les médias grand public[47]. De même, certains groupes se présentent comme des partisans neutres du « débat » portant sur des questions qui ne sont plus mises en doute, comme la véracité de l’Holocauste.

C’est pour cette raison que des experts préconisent une stratégie de santé publique pour contrer la propagande haineuse afin qu’elle soit plus difficile à diffuser entre les réseaux et de cibler les « grands semeurs de haine », car « un petit nombre de personnes a une influence énorme[48] ». Cependant, la plupart des groupes haineux sont passés maîtres dans l’art d’éviter les filtres, remplaçant les insultes bien connues par des acronymes ou des blagues d’initiés. Ils remplacent, par exemple, des insultes racistes et antisémites[49] par des mots comme « Google » et « Skype », que les plateformes ne peuvent pas bloquer. Cette approche, ou, de façon similaire, les campagnes pour s’approprier des concepts comme boire du lait ou faire le geste « OK » pour en faire des symboles de haine, permet non seulement aux groupes de contourner les algorithmes conçus pour les bloquer, mais elle procure aussi aux jeunes le plaisir de « troller » les autres (provoquer les gens pour avoir le plaisir de les voir réagir)[50].

Ironie

L’origine de la haine moderne dans la culture des trolls explique en partie pourquoi les groupes haineux modernes dissimulent leur message sous l’humour ou l’ironie[51], sans pour autant diminuer l’influence de leur message. En fait, des études ont montré que les plaisanteries stéréotypées ont un effet important sur le genre de comportement considéré comme acceptable dans une communauté[52]. Il n’en demeure pas moins que l’humour et l’ironie facilitent l’intégration de leur message dans le courant de pensée dominant.

Par ailleurs, comme l’écrit Alice Marwick : « L’ironie joue un rôle stratégique en permettant aux gens de nier leur attachement à des idées d’extrême droite, tout en y adhérant[53]. » Le guide de style du Daily Stormer l’indique clairement : « Les gens non endoctrinés ne devraient pas être capables de déterminer si nous plaisantons ou non, mais c’est de toute évidence un stratagème[54]. »

L’ironie peut également faire en sorte que les jeunes qui en sont aux premières étapes de la radicalisation renient leur attachement à cette communauté. Bon nombre de jeunes qui se sont radicalisés sur 4chan racontent avoir été initialement attirés sur ses forums extrémistes par le plaisir « ironique » d’utiliser des mèmes racistes, surtout lorsque ces derniers se sont multipliés après la réélection de Barack Obama[55] en 2012.

Enfin, l’ironie est un moyen de plus d’adapter le message en fonction de la disposition de la cible à le recevoir : « La dissimulation d’une idéologie par l’humour donne au recruteur la possibilité de se retrancher derrière cette tactique chaque fois qu’il a un peu trop forcé la note au goût de la cible. Il lui suffit alors de prendre un ton plus détendu et de ne pas insister, en disant qu’il ne faisait que plaisanter, puis de reprendre l’endoctrinement un peu plus tard, lorsque la cible aura abaissé sa garde[56]. » Comme l’indique le guide de style du Daily Stormer : « L’objectif est de répéter continuellement les mêmes idées, encore et encore. Le visiteur est d’abord attiré par la curiosité ou l’humour irrévérencieux, puis il s’éveille progressivement à la réalité à force de lire constamment les mêmes idées[57]. »

Selon Keegan Hankes, analyste du renseignement au Southern Poverty Law Center, l’ironie et la culture des trolls comptent pour beaucoup dans le succès qu’ont connu les mouvements de haine plus récemment : « Pendant les années où je les ai suivis, j’ai pu observer que les tenants de l’extrême droite réussissent beaucoup mieux que les groupes de nationalisme blanc à impliquer les jeunes[58]. » Comme le faisait observer un participant à un forum de suprématistes blancs : « Si nous parvenons à les faire rire, nous pouvons les amener à passer dans notre camp[59]. »

 

[1] Kuznekoff, J.H., et Rose, L.M. (2012). Communication in multiplayer gaming: Examining player responses to gender cues. New Media & Society, 15(4), 541-556. doi:10.1177/1461444812458271.
[2] Brisson-Boivin, K. (2019). « Les jeunes Canadiens en ligne : repoussant la haine ». HabiloMédias. Ottawa.
[3] Tynes et coll. Online Racial Discrimination and Psychological Adjustment Among Adolescents. Journal of Adolescent Health, 2008; 43 (6): 565.
[4] Farber, B.M. (1997). From marches to modems: A report on organized hate in Metropolitan Toronto. Toronto : METRO, Access and Equity Centre.
[5] Hankes, K. (9 février 2017). Eye of the Stormer. Consulté le 25 avril 2019 sur le site https://www.splcenter.org/fighting-hate/intelligence-report/2017/eye-stormer.
[6] Beirich, H. (20 février 2019). The Year in Hate: Rage Against Change. Consulté le 25 avril 2019 sur le site https://www.splcenter.org/fighting-hate/intelligence-report/2019/year-hate-rage-against-change.
[7] Daniels, J. (2008). Race, Civil Rights, and Hate Speech in the Digital Era. Learning Race and Ethnicity: Youth and Digital Media (pp. 129-154). Cambridge, MA : MIT Press.; McNamee, Pena & Peterson (2010).
[8] The Groups. (29 janvier 2010). Consulté sur le site https://www.splcenter.org/fighting-hate/intelligence-report/2015/groups.
[9] Lewis, B. (2018). Alternative Influence: Broadcasting the Reactionary Right on YouTube (rapport). Data & Society.
[10] Daniels, J. (2008). Race, Civil Rights, and Hate Speech in the Digital Era. Learning Race and Ethnicity: Youth and Digital Media (p. 129-154). Cambridge, MA : MIT Press.; McNamee, Pena & Peterson (2010).
[11] Meddaugh, P.M. (2009). Hate Speech or “Reasonable Racism?” The Other in Stormfront. Journal of Mass Media Ethics, 24(4), 251-268.
[12] Amon, K. (2010). Grooming for Terror: the Internet and Young People. Psychiatry, Psychology & Law, 17(3), 424-437; Chhabra, C. (2010). Mining YouTube to Discover Extremist Videos, Users and Hidden Communities. Information Retrieval Technology, 6458, 13-24; Lee, E., et Leets, L. (2002). Persuasive Storytelling by Hate Groups Online – Examining Its Effects on Adolescents. American Behavioural Scientist, 45(6), 927-957.
[13] Kim, T.K. (2006). White Noise. Intelligence Report, 121.
[14] Hogan, M., et Hogan, M. (17 août 2017). Is White Power Music Finally Getting Booted from the Internet? Consulté sur le site https://pitchfork.com/thepitch/is-white-power-music-finally-getting-booted-from-the-internet/.
[15] Beyond Millennials: The Next Generation of Learners (rapport). (2018). Pearson.
[16] From Memes to Infowars: How 75 Fascist Activists Were "Red-Pilled". (11 octobre 2018). Consulté le 25 avril 2019 sur le site https://www.bellingcat.com/news/americas/2018/10/11/memes-infowars-75-fascist-activists-red-pilled/.
[17] Deo (23 novembre 2017). How White Nationalism Courts Internet Nerd Culture. Consulté sur le site https://medium.com/@DeoTasDevil/how-white-nationalism-courts-internet-nerd-culture-b4ebad07863d.
[18] Warzel, C. (19 mars 2019). We're Asking the Wrong Questions of YouTube and Facebook After New Zealand. The New York Times. Consulté le 25 avril 2019 sur le site https://www.nytimes.com/2019/03/19/opinion/facebook-youtube-new-zealand.html.
[19] Weill, K. (17 décembre 2018). How YouTube Built a Radicalization Machine for the Far-Right. Consulté sur le site https://www.thedailybeast.com/how-youtube-pulled-these-men-down-a-vortex-of-far-right-hate?ref=home.
[20] Brisson-Boivin, K. (2019). « Les jeunes Canadiens en ligne: repoussant la haine  ». HabiloMédias. Ottawa.
[21] Cox, J. (18 décembre 2018). TikTok Has a Nazi Problem. Consulté le 25 avril 2019 sur le site https://motherboard.vice.com/en_us/article/yw74gy/tiktok-neo-nazis-white-supremacy.
[22] Brisson-Boivin, K. (2019). « Les jeunes Canadiens en ligne : repoussant la haine ». HabiloMédias. Ottawa.
[23] From Memes to Infowars: How 75 Fascist Activists Were "Red-Pilled". (11 octobre 2018). Consulté le 25 avril 2019 sur le site https://www.bellingcat.com/news/americas/2018/10/11/memes-infowars-75-fascist-activists-red-pilled/.
[24] Beirich, H. (20 février 2019). The Year in Hate: Rage Against Change. Consulté le 25 avril 2019 sur le site https://www.splcenter.org/fighting-hate/intelligence-report/2019/year-hate-rage-against-change.
[25] Mème Internet. (13 mai 2019). Consulté sur le site https://fr.wikipedia.org/wiki/M%C3%A8me_Internet.
[26] Mencimer, S. (2 avril 2019). “The Left Can’t Meme”: How Right-Wing Groups Are Training the Next Generation of Social Media Warriors. Mother Jones.
[27] Marsi, F. (26 mars 2019). How the far right is weaponising irony to spread anti-Muslim hatred. Consulté le 25 avril 2019 sur le site https://www.thenational.ae/world/europe/how-the-far-right-is-weaponising-irony-to-spread-anti-muslim-hatred-1.841430.
[28] Mencimer, S. (2 avril 2019). “The Left Can’t Meme”: How Right-Wing Groups Are Training the Next Generation of Social Media Warriors. Mother Jones.
[29] The Arxiv (11 juin 2018). This is where internet memes come from. Consulté sur le site https://www.technologyreview.com/s/611332/this-is-where-internet-memes-come-from/.
[30] Golebiewski, M., et Boyd, D. (2018). Data Voids: Where Missing Data Can Easily Be Exploited (rapport). Data & Society.
[31] Breland, A. (15 mars 2019). How the Suspected New Zealand Gunman Weaponized the Internet. Mother Jones.
[32] Éditorial (24 novembre 2018). The New Radicalization of the Internet. The New York Times. Consulté le 25 avril 2019.
[33] Bergen, M. (2 avril 2019). YouTube Executives Ignored Warnings, Letting Toxic Videos Run Rampant. Consulté le 25 avril 2019 sur le site https://www.bloomberg.com/news/features/2019-04-02/youtube-executives-ignored-warnings-letting-toxic-videos-run-rampant.
[34] Solsman, J.E. (10 janvier 2018). YouTube's AI is the puppet master over most of what you watch. Consulté le 25 avril 2019 sur le site https://www.cnet.com/news/youtube-ces-2018-neal-mohan/.
[35] Weill, K. (17 décembre 2018). How YouTube Built a Radicalization Machine for the Far-Right. Consulté sur le site https://www.thedailybeast.com/how-youtube-pulled-these-men-down-a-vortex-of-far-right-hate?ref=home.
[36] Katz, R. (6 février 2019). A Growing Frontier for Terrorist Groups: Unsuspecting Chat Apps. Consulté le 26 avril 2019 sur le site https://www.wired.com/story/terrorist-groups-prey-on-unsuspecting-chat-apps/.
[37] Garfield, B. (22 mars 2019). The Secret Chats of the Alt-Right. On the Media. Consulté le 26 avril 2019 sur le site https://www.wnycstudios.org/story/secret-chats-alt-right-unicorn-riot.
[38] Disqus Market Share and Competitor Report. (26 avril 2019). Consulté sur le site https://www.datanyze.com/market-share/comment-systems/disqus.
[39] Warzel, C. (5 juin 2018). How The Alt-Right Manipulates The Internet's Biggest Commenting Platform. Consulté sur le site https://www.buzzfeednews.com/article/charliewarzel/how-the-alt-right-manipulates-disqus-comment-threads.
[40] Collins, K., et Roose, K. (4 novembre 2018). Tracing a Meme From the Internet’s Fringe to a Republican Slogan. The New York Times. Consulté le 26 avril 2019 sur le site https://www.nytimes.com/interactive/2018/11/04/technology/jobs-not-mobs.html.
[41] Does the Internet Help or Hurt Democracy [Épisode de série télévisée]. (1er juin 2010). Dans News Hour. PBS.
[42] Boyd, D. (24 avril 2019). The Fragmentation of Truth. Consulté le 26 avril 2019 sur le site https://points.datasociety.net/the-fragmentation-of-truth-3c766ebb74cf.
[43] Daniels, J. (9 avril 2019). UN Keynote Speech: Racism in Modern Information and Communication Technologies. Présentation lors de la 10e séance du Comité spécial sur l’élaboration de normes complémentaires à la Convention internationale sur l’élimination de toutes les formes de discrimination raciale. Genève.
[44] Feinberg, A., et Feinberg, A. (14 décembre 2017). This Is The Daily Stormer's Playbook. Consulté sur le site https://www.huffingtonpost.ca/entry/daily-stormer-nazi-style-guide_n_5a2ece19e4b0ce3b344492f2.
[45] McInnes, Molyneux, and 4chan: Investigating pathways to the alt-right. (19 avril 2018). Consulté le 26 avril 2019 sur le site https://www.splcenter.org/20180419/mcinnes-molyneux-and-4chan-investigating-pathways-alt-right.
[46] Weill, K. (17 décembre 2018). How YouTube Built a Radicalization Machine for the Far-Right. Consulté sur le site https://www.thedailybeast.com/how-youtube-pulled-these-men-down-a-vortex-of-far-right-hate?ref=home.
[47] McInnes, Molyneux, and 4chan: Investigating pathways to the alt-right. (19 avril 2018). Consulté le 26 avril 2019 sur le site https://www.splcenter.org/20180419/mcinnes-molyneux-and-4chan-investigating-pathways-alt-right.
[48] Amend, A. (10 février 2018). Silicon Valley's Year in Hate. Consulté le 26 avril 2019 sur le site https://www.splcenter.org/fighting-hate/intelligence-report/2018/silicon-valleys-year-hate.
[49] Meaker, M. (28 février 2019). 'Hate Is Way More Interesting Than That': Why Algorithms Can't Stop Toxic Speech Online. Consulté sur le site https://psmag.com/ideas/neo-nazi-hate-speech-foiling-algorithms.
[50] New Hate and Old: The Changing Face of American White Supremacy (rapport). (2018). Anti-Defamation League Center on Extremism. https://www.adl.org/new-hate-and-old.
[51] Marwick, A., et Lewis, R. (2017). Media Manipulation and Disinformation Online. Data & Society.
[52] Ford, T.E., et Ferguson, M.A. (2004). Social consequences of disparagement humor: A prejudiced norm theory. Personality and Social Psychology Review, 8, 79-94.
[53] Wilson, J. (23 mars 2017). Hiding in plain sight: How the 'alt-right' is weaponizing irony to spread fascism. The Guardian. Consulté sur le site https://www.theguardian.com/technology/2017/may/23/alt-right-online-humor-as-a-weapon-facism.
[54] Feinberg, A., & Feinberg, A. (14 décembre 2017). This Is The Daily Stormer's Playbook. Consulté sur le site https://www.huffingtonpost.ca/entry/daily-stormer-nazi-style-guide_n_5a2ece19e4b0ce3b344492f2
[55] McInnes, Molyneux, and 4chan: Investigating pathways to the alt-right. (19 avril 2018). Consulté le 26 avril 2019 sur le site https://www.splcenter.org/20180419/mcinnes-molyneux-and-4chan-investigating-pathways-alt-right.
[56] Deo (23 novembre 2017). How White Nationalism Courts Internet Nerd Culture. Consulté sur le site https://medium.com/@DeoTasDevil/how-white-nationalism-courts-internet-nerd-culture-b4ebad07863d.
[57] Pink, A. (13 décembre 2017). Leaked 'Playbook' Shows How The Daily Stormer Makes Anti-Semitism Cool. Consulté sur le site https://forward.com/fast-forward/390000/leaked-playbook-shows-how-the-daily-stormer-makes-anti-semitism-cool/.
[58] Collins, C. « What is the ‘Alt-Right’? ». Teaching Tolerance 1.57 (2017).
[59] McInnes, Molyneux, and 4chan: Investigating pathways to the alt-right. (19 avril 2018). Consulté le 26 avril 2019 sur le site https://www.splcenter.org/20180419/mcinnes-molyneux-and-4chan-investigating-pathways-alt-right.