Les effets de la propagande haineuse sur Internet
Tort
Le premier tort possible est sans doute le plus clair, tout comme la cyberintimidation : le tort causé peut s’avérer invisible aux yeux de ses auteurs. En réalité, une quantité considérable de cas de cyberintimidation sont motivés par la haine. Par exemple, les jeunes de la communauté LGBT sont deux fois plus susceptibles de rapporter avoir subi de la cyberintimidation que leurs pairs hétérosexuels[1], alors que les jeunes femmes sont deux fois plus susceptibles d’être victimes de harcèlement sexuel en ligne que les jeunes hommes[2]. Les jeunes qui subissent la haine en ligne sont plus susceptibles d’éprouver des troubles anxieux ou dépressifs[3]. Ces personnes peuvent également être victimes de harcèlement et de violence hors ligne[4]. L’une des formes de haine ciblée les plus fréquentes est le « doxxing », qui consiste à divulguer sur Internet des renseignements personnels ou l’adresse résidentielle d’une personne afin de les harceler[5]. Par conséquent, les membres de groupes plus vulnérables hésitent à s’exprimer librement en ligne[6] ou se retirent complètement des espaces virtuels[7], ce qui a un impact non seulement sur eux, mais aussi sur toutes les communautés virtuelles qu’ils fréquentent.
Radicalisation
Le second impact possible de la haine en ligne est la radicalisation. Ce terme renvoie au processus par lequel certaines personnes sont amenées à croire que les actes de violence envers autrui ou soi-même sont justifiés s’ils servent à défendre « leur groupe ». Le degré de radicalisation peut varier d’un membre à un autre dans un groupe. À vrai dire, dans un même groupe haineux, seul un petit nombre de personnes se radicalisent au point de militer pour la cause ou de poser des gestes de violence.
Pour mieux visualiser le processus de radicalisation, nous pourrions considérer le groupe ou le mouvement comme une pyramide[8]. (Même si plusieurs ont récemment critiqué ce modèle de radicalisation, amenant les auteurs de l’ouvrage initial à proposer un modèle à deux pyramides qui sépare la radicalisation des opinions et celle des actions[9], il demeure un excellent modèle pour la vulgarisation des groupes radicalisés.)
La base de la pyramide est composée de sympathisants qui soutiennent le groupe et partagent les mêmes idéaux, mais qui ne participent pas activement aux activités. Ils forment habituellement la plus grande partie du groupe, mais sont souvent les moins engagés.
Au prochain niveau se situent les membres, ceux qui s’identifient fortement aux valeurs du groupe et qui participent quotidiennement aux activités.
Les militants forment la pointe de la pyramide. Ce sont des membres qui adhèrent entièrement aux idées et aux valeurs véhiculées par le groupe et qui sont susceptibles de l’amener à adopter des positions radicales ou à poser des gestes extrêmes. Les militants les plus radicaux sont ceux qui posent des gestes violents ou criminels. Même s’il est difficile de déterminer comment chaque personne est portée à se radicaliser, il y a eu, au Canada seulement, au moins trois tueries motivées par la haine dont les auteurs avaient été partiellement radicalisés sur le Web[10].
Le processus de radicalisation a traditionnellement été perçu comme la façon dont les personnes se déplacent vers le haut de la pyramide afin de s’intégrer profondément au groupe et deviennent plus susceptibles de soutenir ou de poser des gestes extrêmes. Or, les médias numériques, par leur nature réseautée, permettent aux groupes haineux de cibler simultanément tous les niveaux de la pyramide, aussi différents soient-ils, « exposant ainsi plus facilement les spectateurs à du contenu progressivement extrémiste[11] ». Un expert a d’ailleurs décrit Internet comme étant un « convoyeur » à la radicalisation[12]. Sur les forums de discussion extrémistes, « faire avaler la pilule rouge aux autres (les radicaliser) est un thème constant de discussion ». On tente d’harmoniser le message à la réceptivité des victimes[13].
Processus de radicalisation
Dans leur article Mechanisms of Political Radicalization[14], Clark McCauley et Sophia Moskalenko définissent 12 façons de radicaliser une personne ou un groupe de personnes. « La plupart des mécanismes recensés sont associés à de fortes expériences émotives, notamment la colère, la honte, la culpabilité, l’humiliation, la peur, l’amour et la haine[15] ». Dans la plupart des cas de radicalisation, plus d’un mécanisme est enclenché.
Parmi ces mécanismes, cinq revêtent une importance particulière lorsque l’on étudie la haine en ligne.
- La pente glissante – Il est rare qu’une personne se radicalise à la suite d’un geste ou d’un événement unique. Il s’agit plutôt de la combinaison de plusieurs petites étapes. La recherche indique que les humains possèdent une étonnante capacité à justifier leurs actions, même des actions qu’ils jugeraient normalement répréhensibles. (Par exemple lorsqu’une personne oublie de laisser un pourboire au restaurant, elle pourrait, de façon rétroactive, critiquer le service de manière à justifier son oubli.) Ce phénomène peut entraîner la modification de nos valeurs morales : lorsque nous déterminons qu’une action antérieurement jugée répréhensible est en fait vertueuse, des gestes extrêmes peuvent s’ensuivre. Cet effet est particulièrement puissant en ligne, où les conséquences sont moins apparentes : la pente peut s’avérer très glissante entre la lecture et la création de contenu haineux.
- Le pouvoir de l’amour – Les effets sociaux et émotifs liés à l’appartenance à un groupe peuvent s’avérer tout aussi puissants que la cause ou l’idéologie adoptée par le groupe. La recherche indique que les membres de groupes haineux comme les skinheads peuvent agir à titre de mentors ou de « grands frères » pour les jeunes vulnérables, offrant une oreille attentive, une explication à leurs problèmes ainsi qu’une façon d’agir. Les communautés et les espaces virtuels que fréquentent les groupes haineux proposent bon nombre de caractéristiques semblables aux espaces sociaux grand public, c’est-à-dire des forums de discussion, des mentions « j’aime » et des « votes positifs », ainsi que des occasions d’accumuler des privilèges spéciaux et du capital social[16], mais les groupes haineux peuvent satisfaire les besoins émotionnels plus profonds de membres qui se sentent « méprisés, que ce soit dans leur vie personnelle ou dans la société en général[17] ». Comme le modérateur de l’un des plus importants groupes misogynes sur Reddit l’affirme : « La manosphère est fondamentalement devenue un père de substitution pour m’enseigner les leçons de vie que je n’ai jamais apprises[18]. »
Pour créer un tel réseau de soutien, les groupes haineux ont recours à de nombreuses techniques qui visent à la solidarité du groupe. Des appels à la protection du groupe, particulièrement les membres les plus vulnérables du groupe, sont utiles pour favoriser le soutien et radicaliser les partisans. Une autre façon de satisfaire les besoins émotionnels est de renforcer la confiance en soi des membres en acclamant les extrémistes du groupe en tant que héros (fréquemment, ceux qui ont posé des gestes violents ou même des meurtres au nom de la cause)[19], offrant ainsi la possibilité aux membres un peu moins engagés de s’imaginer dans un tel rôle, à la défense de leur groupe.
- Radicalisation des groupes qui partagent la même vision – Tous les groupes sont assujettis au phénomène selon lequel l’opinion d’un membre moyen du groupe gagnera en extrémisme au fil du temps. Ce phénomène peut s’expliquer par une certaine pression de se conformer, et ce, même si son opinion initiale est très différente de la majorité. Ainsi, les personnes en désaccord avec la majorité sont plus susceptibles de changer d’opinion, alors que celles qui sont déjà en accord ont tendance à la conserver ou à adopter des points de vue plus extrémistes. Un exemple pertinent est le groupe antiguerre américain Weather Underground, qui, au courant des années 1970, est passé de la manifestation politique au terrorisme en raison d’une certaine forme de compétition au sein du groupe pour savoir quel membre était « le plus radical ». Cet effet s’est intensifié davantage par ce que l’on a appelé l’« illusion de la majorité » dans les espaces virtuels.
« Les personnes entretenant des liens sociaux ont tendance à se ressembler, donnant lieu à l’effet "d’exposition sélective" qui amène les personnes à surestimer la prévalence de leurs caractéristiques au sein de la population, créant ainsi l’illusion que cet attribut est bien plus fréquent qu’il ne l’est en réalité. Au sein d’un réseau social, cette illusion peut amener les gens à tirer des conclusions erronées quant à la fréquence d’un comportement, les amenant ainsi à normaliser un comportement alors qu’il est généralement rare[20]. »
Le symbolisme est une méthode fréquemment utilisée pour resserrer les rangs. Les groupes peuvent encourager les membres à se distinguer par l’entremise de symboles haineux traditionnels (dans des forums de discussion sérieux ou exclusifs, ou « ironiquement » dans des espaces publics), à l’aide des phrases ou des mots codés dont la signification haineuse est évidente pour les membres, mais imperceptible pour les autres, ou en s’appropriant des symboles dominants, notamment la croix celtique, les runes païennes et même le signe de la main « OK ». Ils deviennent donc des emblèmes de la suprématie. La Ligue anti-diffamation (Anti-Defamation League) affirme que les symboles haineux représentent beaucoup plus que de simples signes : « Ces symboles visent à instaurer un climat de peur et d’insécurité. Ils donnent à ces personnages haineux un sentiment de puissance et d’appartenance, une façon rapide de reconnaître les pairs qui partagent la même idéologie[21]. »
- La radicalisation par l’isolement ou la menace – Des personnes s’identifieront plus facilement à un groupe si ce dernier semble isolé ou sous une menace externe. Comme l’indique un réalisateur ayant interviewé différents types d’extrémistes : « Ces mouvements sont enracinés dans le sentiment de victimisation, réel ou imaginaire[22]. » Par exemple, alors que l’homme blanc forme manifestement le groupe le plus privilégié de la société :
« L’extrême droite mise sur une aversion généralisée de la "rectitude politique" chez les jeunes hommes qui se sentent marginalisés par la culture dominante. Ces derniers voient leur capital social et économique disparaître à vue d’œil. Ces hommes désillusionnés constituent des cibles de radicalisation parfaites, car ce rejet de la rectitude politique peut facilement mener à la misogynie, à la xénophobie ou à l’islamophobie[23]. »
Cette vision du monde, selon laquelle les membres d’un groupe sont dressés contre l’ennemi, sans possibilité de compromis, « est particulièrement alléchante pour les personnes habituées à la dualité morale "noir ou blanc" si présente dans les jeux vidéo, c’est-à-dire les ennemis sinistres d’un côté et le joueur vertueux de l’autre[24] », mais elle sert tout de même à justifier la haine et la violence en tant que forme d’autodéfense. Comme l’indique Adam Klein, professeur à l’Université Pace ayant étudié l’extrémisme à l’échelle des registres et des réseaux sociaux, « la haine en ligne ressemble plutôt à la peur, et non au sectarisme explicite ». Ces appels à la peur « créent une illusion de menace imminente qui anime les radicalisés et fait réagir les membres enclins à la violence[25] ».
- Altérisation et déshumanisation
L’une des techniques de radicalisation les plus puissantes consiste à dépeindre les groupes ennemis comme étant inhumains. Cela rend explicite la limite entre les groupes inclus et exclus. Par exemple, lors de la Seconde Guerre mondiale, le peuple japonais avait été fortement caricaturé dans la propagande américaine, toujours stéréotypé, souvent menaçant et parfois monstrueux. Par conséquent, près de la moitié des soldats américains étaient en faveur de l’extermination de la nation japonaise au terme de la guerre. À vrai dire, les militaires qui n’avaient pas été témoins de combats semblaient plus favorables à l’extermination, ce qui suggère que c’était l’exposition à la propagande qui avait suscité ce comportement et non le contact avec l’ennemi[26]. Le psychologue Nick Haslam affirme que « la déshumanisation n’a pas seulement lieu en temps de guerre. Nous en sommes témoins, ici, maintenant. Et chaque jour, de bonnes personnes, qui ne se considèrent pas comme des fanatiques ayant des préjugés, tombent pourtant dans le panneau[27]. »
Or, « l’autre » ne renvoie pas toujours à un groupe véritable, tel qu’il existe en réalité (certains des groupes cités en tant qu’ennemis, notamment les guerriers de la justice sociale ou les antifascistes, ne constituent pas de véritables organisations), mais ils sont nés de la fiction afin de solidifier l’identité du groupe haineux et de justifier son existence et ses actions. Le responsable d’un site Web de suprématie blanche a affirmé « qu’il devrait y avoir un programme délibéré de déshumanisation de l’ennemi, au point où les membres se réjouiraient de sa mort[28] ».
Pour atteindre cet objectif, « l’autre » doit être dépeint comme étant inférieur afin de marquer la supériorité du groupe haineux, ainsi que menaçant, afin de justifier la prise de mesures à son encontre[29]. Pour cette raison, les groupes haineux dépeignent « l’autre » de façon à miser sur la différence, le rendant étrange, parfois même inhumain, ce qui passe souvent par la caricature ou les stéréotypes, les injures ou l’idéologie. Dans certains cas, des groupes haineux sont prêts à affirmer que « l’autre » est carrément inhumain. La déshumanisation est l’un des mécanismes de base de la radicalisation. Elle est essentielle à la promotion du message ultime du groupe haineux, c’est-à-dire que l’anéantissement d’un groupe particulier est justifié.
Radicalisation chez les jeunes
Les jeunes sont particulièrement vulnérables aux mécanismes cités précédemment puisqu’ils sont justement à la recherche de groupes ou de causes à soutenir, qui les aideront dans leur quête d’identité. La recherche d’identité est une étape naturelle de l’adolescence, mais à l’extrême, elle peut constituer une occasion en or pour les semeurs de haine. L’anomie est le terme employé pour décrire l’état d’esprit selon lequel les valeurs familiales, sociales ou culturelles semblent sans valeur. Les jeunes souffrant d’anomie chercheront un groupe ou une cause qui leur donnera des valeurs, une identité ou une famille de substitution[30]. L’une des causes fréquentes de l’anomie est le changement des conditions sociales qui donne l’impression que son identité est attaquée. Un bon exemple de ce phénomène est la controverse du Gamergate, où les jeunes joueurs masculins de jeux vidéo ont senti leur identité de joueur menacée par le nombre accru de jeunes femmes adeptes du jeu (qui ne sont pas considérées comme de « vrais joueurs »), par la diversification des types de jeux et la critique sexiste tant dans l’industrie des jeux vidéo que dans les jeux eux-mêmes. Comme l’a indiqué Ralph Koster, un développeur de jeux chevronné : « le sentiment d’être marginalisé par le reste de la société, et le sentiment de triomphe découlant de la reconnaissance : les joueurs avaient le monopole depuis longtemps[31]. »
Ce phénomène explique également pourquoi les problèmes économiques ne conduisent pas nécessairement les jeunes vers la radicalisation : une étude a permis de constater « qu’il ne s’agit pas du piètre statut socioéconomique qui mène à la susceptibilité, mais plutôt un sens de dépossession relative, combinée à des sentiments d’exclusion politique ou sociale[32]. »
Milieux hostiles
Au-delà de la radicalisation des personnes, la nature réseautée et connectée des communautés virtuelles permet également aux groupes haineux d’élargir la base de leur pyramide afin d’y exprimer des propos haineux, tant moqueurs que sérieux, et de les faire paraître plus acceptables. Le but n’est pas seulement de créer un plus grand bassin d’éventuelles recrues, mais d’établir un milieu virtuel progressivement plus hostile pour ses victimes. Alors que les deux niveaux supérieurs sont les plus visibles et les plus inquiétants :
« La strate inférieure est tout aussi responsable de la rancœur, du pessimisme, de la mésinformation et désinformation qui obstruent les espaces virtuels, causant ainsi beaucoup de dégâts. Cette strate inférieure comprend la publication de blagues mesquines relativement à une nouvelle, à une tragédie ou à une controverse en cours de développement; le partage ironique de gazouillis liés à un canular ou à d’autres renseignements trompeurs pour les condamner, se moquer des personnes concernées ou marquer sa supériorité relativement aux personnes qui prennent ces renseignements au sérieux; faire des blagues d’initiés ambivalentes en prétextant que vos amis connaissent le fond de votre pensée (et pour les personnes de race blanche en particulier, que vos amis sauront que vous n’êtes pas véritablement racistes); identiqueter des personnes dans des blagues, des critiques ou des moqueries collectives, pour s’assurer que la cible de la discussion est au courant de ce qui se passe; et surtout, s’interposer dans des discussions sans connaissance de cause.
Tout comme dans la nature, cette strate inférieure omniprésente soutient les strates supérieures, y compris les animaux les plus dangereux de la chaîne alimentaire. De façon directe et indirecte, les lions se nourrissent des insectes[33]. »
[1] Hinduja, S., et Patchin, J.W. (2011). Cyberbullying Research Summary: Bullying, Cyberbullying and Sexual Orientation. Cyberbullying Research Centre.
[2] Duggan, M. (2017). Online Harassment 2017 (rapport). Pew Research Center.
[3] Tynes, B.M., Giang, M.T., Williams, D.R., et Thompson, G.N. (2008). Online Racial Discrimination and Psychological Adjustment Among Adolescents. Journal of Adolescent Health, 43(6), 565-569. doi:10.1016/j.jadohealth.2008.08.021.
[4] Carson, E. (27 novembre 2017). This lawsuit could shut Internet nazis down. Consulté sur le site https://www.cnet.com/news/taking-trolls-to-court-lawsuit-targets-daily-stormer-internet-nazis/.
[5] Online Harassment: Extremists Ramp Up Trolling, Doxxing Efforts. (sans date). Consulté sur le site https://www.adl.org/blog/online-harassment-extremists-ramp-up-trolling-doxxing-efforts.
[6] Lenhart, A., Ybarra, M., Zickhur, K., et Price-Feeney, M. (2016). Online Harassment, Digital Abuse, and Cyberstalking in America (rapport). New York, NY : Data & Society. https://www.datasociety.net/pubs/oh/Online_Harassment_2016.pdf.
[7] Resnick, B. (7 mars 2017). The dark psychology of dehumanization, explained. Consulté sur le site https://www.vox.com/science-and-health/2017/3/7/14456154/dehumanization-psychology-explained.
[8] Mccauley, C., et Moskalenko, S. (2008). Mechanisms of Political Radicalization: Pathways Toward Terrorism. Terrorism and Political Violence, 20(3), 415-433. doi:10.1080/09546550802073367.
[9] Mccauley, C., et Moskalenko, S. (2017). Understanding political radicalization: The two-pyramids model. American Psychologist, 72(3), 205-216. doi:10.1037/amp0000062.
[10] Carranco, S., et Milton, J. (2019, April 27). Canada’s new far right: A trove of private chat room messages reveals an extremist subculture. The Globe and Mail. Consulté sur le site https://www.theglobeandmail.com/canada/article-canadas-new-far-right-a-trove-of-private-chat-room-messages-reveals/.
[11] Lewis, B. (2018). Alternative Influence: Broadcasting the Reactionary Right on YouTube (rapport). Data & Society. [traduction]
[12] Bergin, A. Countering Online Radicalisation in Australia. Australian Strategic Policy Institute Forum, 2009.
[13] From Memes to Infowars: How 75 Fascist Activists Were "Red-Pilled". (11 octobre 2018). Consulté le 25 avril 2019 sur le site https://www.bellingcat.com/news/americas/2018/10/11/memes-infowars-75-fascist-activists-red-pilled/. [traduction]
[14] Mccauley, C., et Moskalenko, S. (2008). Mechanisms of Political Radicalization: Pathways Toward Terrorism. Terrorism and Political Violence, 20(3), 415-433. doi:10.1080/09546550802073367.
[15] Mccauley, C., et Moskalenko, S. (2017). Understanding political radicalization: The two-pyramids model. American Psychologist, 72(3), 205-216. doi:10.1037/amp0000062. [traduction]
[16] Glaser, A. (20 août 2017). Nazis and White Supremacists Are No Longer Welcome on the Internet. So They’re Building Their Own. Consulté sur le site https://slate.com/technology/2017/08/the-alt-right-wants-to-build-its-own-internet.html.
[17] Illing, S. (17 mars 2019). This filmmaker spent months interviewing neo-Nazis and jihadists. Here’s what she learned. Consulté sur le site https://www.vox.com/world/2019/1/14/18151799/extremism-white-supremacy-jihadism-deeyah-khan. [traduction]
[18] Marche, S. (14 avril 2016). Swallowing the Red Pill: A journey to the heart of modern misogyny. The Guardian. Consulté sur le site https://www.theguardian.com/technology/2016/apr/14/the-red-pill-reddit-modern-misogyny-manosphere-men. [traduction]
[19] After New Zealand Shooting, Far-right, Racists Claim Victimhood, Hail Killer as Hero. (15 mars 2019). Consulté le 25 avril 2019 sur le site https://www.splcenter.org/hatewatch/2019/03/15/after-new-zealand-shooting-far-right-racists-claim-victimhood-hail-killer-hero.
[20] Lerman, K., Yan, X., et Wu, X. (2016). The "Majority Illusion" in Social Networks. Plos One, 11(2). doi:10.1371/journal.pone.0147617. [traduction]
[21] Anti-Defamation League. (2001). Poisoning the Web – Internet as a Hate Tool. ADL: Fighting Anti-Semitism, Bigotry and Extremism. Consulté le 20 juillet 2011 sur le site http://www.adl.org/poisoning_web/net_hate_tool.asp. [traduction]
[22] Illing, S. (17 mars 2019). This filmmaker spent months interviewing neo-Nazis and jihadists. Here’s what she learned. Consulté sur le site https://www.vox.com/world/2019/1/14/18151799/extremism-white-supremacy-jihadism-deeyah-khan. [traduction]
[23] Marwick, A., et Lewis, B. (18 mai 2017). The Online Radicalization We’re Not Talking About. Consulté sur le site http://nymag.com/intelligencer/2017/05/the-online-radicalization-were-not-talking-about.html. [traduction]
[24] Deo (23 novembre 2017). How White Nationalism Courts Internet Nerd Culture. Consulté sur le site https://medium.com/@DeoTasDevil/how-white-nationalism-courts-internet-nerd-culture-b4ebad07863d. [traduction]
[25] Klein, A.G. (20 novembre 2018). Fear, more than hate, feeds online bigotry and real-world violence. Consulté le 25 avril 2019 sur le site https://theconversation.com/fear-more-than-hate-feeds-online-bigotry-and-real-world-violence-106988. [traduction]
[26] Mccauley, C., et Moskalenko, S. (2008) Mechanisms of Political Radicalization: Pathways Toward Terrorism. Terrorism and Political Violence, 20(3), 415-433.
[27] Resnick, B. (7 mars 2017). The dark psychology of dehumanization, explained. Consulté sur le site https://www.vox.com/science-and-health/2017/3/7/14456154/dehumanization-psychology-explained. [traduction]
[28] Feinberg, A. (14 décembre 2017). This Is The Daily Stormer’s Playbook. Consulté sur le site https://www.huffingtonpost.ca/entry/daily-stormer-nazi-style-guide_n_5a2ece19e4b0ce3b344492f2. [traduction]
[29] Meddaugh, P.M. (2009). Hate Speech or “Reasonable Racism?” The Other in Stormfront. Journal of Mass Media Ethics, 24(4), 251-268.
[30] Amon, K. (2010). Grooming for Terror: the Internet and Young People. Psychiatry, Psychology& Law, 17(3), 424-437.
[31] Wingfield, Nick. « Feminist critics of video games facing threats in ‘Gamer Gate’ Campaign ». The New York Times, 15 octobre 2014. [traduction]
[32] Norman, J. M., et Mikhael, D. (28 août 2017). Youth radicalization is on the rise. Here’s what we know about why. The Washington Post. Consulté le 1er septembre 2017 sur le site https://www.washingtonpost.com/news/monkey-cage/wp/2017/08/25/youth-radicalization-is-on-the-rise-heres-what-we-knowabout-why/?utm_term=.39a485789d43. [traduction]
[33] Milner, R.M., et Phillips, W. (20 novembre 2018). The Internet Doesn’t Need Civility, It Needs Ethics. Consulté sur le site https://motherboard.vice.com/en_us/article/pa5gxn/the-internet-doesnt-need-civility-it-needs-ethics. [traduction]