Averti aux algorithmes : Les jeunes Canadiens discutent l’intelligence artificielle et la confidentialité

HabiloMédias a facilité des groupes de discussion avec des jeunes de 13 à 17 ans afin de mieux saisir comment les jeunes Canadiens comprennent les relations entre l’intelligence artificielle (IA), les algorithmes, la confidentialité et la protection des données. Les participants ont joué à un prototype de jeu conçu par l’équipe d’éducation d’HabiloMédias, et l’expérience d’apprentissage structurée a permis aux jeunes d’avoir une discussion approfondie après chacune des trois phases du jeu. Ces conversations ont révélé que si les jeunes comprennent et apprécient les avantages des algorithmes de recommandation, ils sont troublés par la collecte de données algorithmiques et les pratiques de partage de données. Cette recherche est un appel à la conception de nouveaux outils et ressources sur la littératie algorithmique offrant aux jeunes les connaissances dont ils ont besoin pour se protéger et protéger leurs renseignements dans les espaces numériques.

Pour plus d’informations :

Principales conclusions et recommandations

Ce projet de recherche, financé par le Commissariat à la protection de la vie privée du Canada, a permis aux jeunes d’en apprendre davantage sur l’IA et les algorithmes ainsi que sur leurs répercussions sur les droits à la vie privée. Il a également permis à HabiloMédias de concevoir un jeu éducatif adapté aux jeunes pour aider à les sensibiliser à la collecte de données et aux pratiques de partage et à en développer une compréhension significative. Cette recherche est importante, car une connaissance insuffisante de l’IA et des algorithmes contribue à l’exclusion des espaces en ligne, à la discrimination facilitée par la technologie, à l’exposition à des contenus préjudiciables et à divers risques pour la vie privée.

Les algorithmes parmi nous

  • Les participants ont souligné ce qu’ils considèrent être une tension préoccupante : si leurs appareils connectés peuvent leur offrir le monde à portée de main, les algorithmes restreignent souvent le type de contenu qu’ils voient. Les jeunes sont préoccupés par la saturation du contenu (le fait de voir tout le temps la même chose) qui contribue à un effet de faux consensus social. De plus, les jeunes sont conscients des impacts des algorithmes sur leurs environnements en ligne et sont souvent frustrés par leur impuissance à changer cette architecture algorithmique.      On finit par en avoir assez de voir le même contenu; c’est comme si l’algorithme était en mode : « Oh, tu aimes ça? Tiens, voilà toutes les informations sur le sujet! » (Conor, 15 ans)
  • Les jeunes ont démontré une familiarité avec les spirales de recommandation, les décrivant de la manière suivante : « défilement automatique », « ennui », « puits sans fond » et « voleurs d’attention ». Ils sont conscients que la présélection algorithmique les pousse vers des utilisations plus passives d’Internet et sont agacés par des stratégies d’optimisation spécifiques comme le contenu piège à clic. Les jeunes n’aiment pas être « dupés », « arnaqués » ou « manipulés » par les plateformes en ligne ou les créateurs de contenu.      
  • Les participants étaient sceptiques quant à la capacité d’un algorithme à leur présenter des informations précises, en particulier lors de la recherche d’informations pour un projet scolaire, car les algorithmes de recommandation conseillent un excès d’informations tendances plutôt que des informations fiables ou dignes de confiance.     Je ne pense pas que ce soit juste, parce que nous ne leur avons pas donné la permission [aux plateformes] de prendre nos données, mais ce sont généralement elles [les plateformes] qui en bénéficient. (Rayleigh, 13 ans)

Dans l’optique de l’algorithme

  • Les jeunes sont parfaitement conscients de la valeur de leurs données personnelles pour les entreprises en ligne, surtout que tout « se résume à la publicité » (Nathaniel, 16 ans). Alors que la plupart des participants avaient peu de réserves sur l’utilisation de leurs renseignements personnels par des algorithmes leur recommandant des contenus de divertissement et de loisirs pertinents, ils étaient préoccupés par les stratégies de surveillance « effrayantes » et « invasives » des entreprises.      
  • Les jeunes n’aimaient pas l’idée que leurs renseignements en ligne soient « regroupés » dans des catégories de données, rassemblées pour former les algorithmes et l’apprentissage automatique, et ce, à leur insu et, plus important encore, sans leur consentement.      
  • Les participants se sont positionnés contre le courtage d’information, estimant que c’était « minable », « injuste » « mal » et « contraire à l’éthique ». Les jeunes ont commenté les potentielles implications sociales et politiques du courtage d’information, en particulier puisque les utilisateurs ne sont presque jamais au courant de ces processus. Ils ont clairement indiqué que vendre leurs données à leur insu et sans leur consentement valable constitue une « violation de leur vie privée » (Erin, 17 ans).      

Les liens (algorithmiques) qui nous lient

  • De nombreux jeunes ne connaissaient pas l’existence des données mandataires et ne savaient pas que des facteurs comme la race, le genre, l’orientation sexuelle ou l’état de santé pouvaient être déduits d’autres données et utilisés pour créer des profils de données plus complets mobilisés par les entreprises en ligne. Après avoir découvert ces processus d’apprentissage automatique, les participants les ont décrits comme « un peu bizarres », « effrayants », « étranges », « décevants » et même « diaboliques ».  

I didn’t realize how much the [platform] could connect all of that just with machine learning and AI. (Andrew, 15)

  • De nombreux participants étaient familiers avec le concept de biais dans la technologie numérique, les algorithmes et l’IA. Les jeunes étaient conscients de la façon dont les données biaisées se traduisent par « de mauvaises réponses [ou] de mauvais renseignements » (Sahil, 15 ans) et que cela peut avoir des répercussions à la fois sur les entreprises en ligne et sur les utilisateurs. Certains ont même averti les plateformes de « faire attention » à ne pas s’appuyer sur des stéréotypes ou des généralisations.

Il faut y faire attention… Stéréotyper selon le genre ou la race et montrer certaines publicités en pensant simplement qu’ils vont aimer ça parce qu’ils sont blancs ou autre, c’est risqué. (Charlotte, 16 ans)

  • Pour décrire ces hypothèses algorithmiques troublantes, les participants ont utilisé des termes tels que « bouleversant », « dangereux », « terrible » et « malheureux ». Ils ont mis en doute l’équité de ces pratiques et se sont inquiétés des personnes déjà exposées au risque de racisme, de marginalisation ou de discrimination.    
    Je suppose qu’il y a des endroits où les gens font déjà face à beaucoup de discrimination et [avoir] un ordinateur qui le fait aussi, c’est assez dur. (Hailey, 16 ans)  
  • Enfin, les participants ont reconnu que les algorithmes, ou les systèmes algorithmiques, ne devraient pas être livrés à eux-mêmes et ont appelé les développeurs et les plateformes à ne pas trop se fier à cette technologie et à être plus conscients des conséquences de son utilisation.  
        L’algorithme n’est pas humain. Il n’a pas d’émotions, ne comprend pas les notions de bien et de mal. Il ne comprend que ce qu’on lui donne. (Sahil, 15 ans)

Recommandations

Les recommandations tirées de ce projet de recherche qualitative rappellent le besoin, évoqué par les jeunes, de plus de sensibilisation, de transparence, de protection, de contrôle et d’engagement.

SENSIBILISATION

  • Les jeunes ont exprimé l’envie et le besoin d’avoir accès à des outils et à des ressources de littératie algorithmique plus fiables, afin qu’ils puissent mieux comprendre le fonctionnement des algorithmes et l’impact de l’intelligence artificielle et de l’apprentissage automatique sur leur vie. Nous recommandons la création de nouveaux programmes de littératie algorithmique adaptés aux besoins uniques des enfants et des jeunes afin d’encourager la réflexion critique des jeunes Canadiens, les sensibiliser à leurs droits à la vie privée et leur donner les moyens de prendre le contrôle de leurs renseignements personnels.   
       Oui, j’aimerais vraiment que nous puissions comprendre davantage ce qui se passe, parce que la technologie a quand même une emprise sur nos vies, mais on n’en sait rien. (Nicole, 14 ans)

TRANSPARENCE

  • Les jeunes veulent en savoir plus sur la manière dont leurs données personnelles sont collectées, stockées et négociées, et ils ont appelé à plus de transparence de la part des entreprises en ligne. Nous recommandons d’améliorer la transparence algorithmique grâce à une collecte de données claire et accessible et à des politiques de confidentialité.     

PROTECTION

  • Les jeunes veulent plus de protection en ligne, en particulier lorsque les plateformes partagent ou vendent leur profil de données. Ils veulent réduire les futures conséquences involontaires de l’IA et des pratiques de partage de données. Nous recommandons aux entreprises en ligne et aux décideurs politiques d’envisager des politiques d’effacement des données. 

CONTRÔLE

  • Les jeunes ont demandé plus de fonctions de signalement pour pouvoir prévenir les plateformes lorsqu’ils remarquent un contenu préjudiciable ou discriminatoire et les en tenir responsables. Ils ont également demandé plus de contrôle sur leurs données et veulent décider quand partager leurs renseignements personnels. Nous recommandons les processus et solutions de consentement valable identifiés par les jeunes lors de précédentes recherches d’HabiloMédias.

    Je crois qu'il est primordial pour les internautes d’avoir le choix de savoir pourquoi ils voient certains types de publicité. L'utilisateur a donc plus de liberté ou plus de contrôle sur ce qu'il voit sur ses pages. (Ethan, 17 ans)

ENGAGEMENT

  • Les participants ont apprécié avoir le temps, l’espace et l’opportunité de parler plus intentionnellement de l’IA, des algorithmes et des problèmes de confidentialité numérique qui impactent directement leur vie quotidienne. Nous recommandons aux futurs projets de recherche de continuer à renforcer nos connaissances sur les niveaux de littératie algorithmique et de s’engager auprès des enfants et des jeunes d’une manière qui les positionne en spécialistes.      

Cette recherche a été rendue possible grâce aux contributions financières du programme des contributions du Commissariat à la protection de la vie privée du Canada.