Une nouvelle recherche canadienne montre que les jeunes réfléchissent de manière critique aux impacts de l’intelligence artificielle

6 avril 2021

OTTAWA – Un nouveau rapport d’HabiloMédias, le centre canadien à but non lucratif de littératie numérique, appelle à la création de nouveaux outils et ressources de littératie algorithmique offrant aux jeunes les connaissances dont ils ont besoin pour se protéger et protéger leurs renseignements en ligne.

Averti aux algorithmes : Les jeunes Canadiens discutent l’intelligence artificielle et la confidentialité, financé par le Commissariat à la protection de la vie privée du Canada, est un projet qui a permis aux jeunes d’en apprendre plus sur l’IA et les algorithmes et leurs répercussions sur les droits à la vie privée.

HabiloMédias a facilité des groupes de discussion avec des jeunes de 13 à 17 ans afin de mieux saisir comment les jeunes Canadiens comprennent les relations entre l’intelligence artificielle (IA), les algorithmes, la confidentialité et la protection des données. Les participants ont joué à un prototype de jeu conçu par l’équipe d’éducation d’HabiloMédias, pour aider à les sensibiliser à la collecte de données et aux pratiques de partage et à en développer une compréhension significative. Ces conversations ont révélé que si les jeunes comprennent et apprécient les avantages des algorithmes de recommandation, ils sont troublés par la collecte de données algorithmiques et les pratiques de partage de données.

« Nous avons constaté que les jeunes n’aimaient pas l’idée que leurs renseignements en ligne soient “regroupés” dans des catégories de données, rassemblées pour former des algorithmes et l’apprentissage automatique à leur insu et, plus important encore, sans leur consentement » a déclaré la Dre Kara Brisson-Boivin, directrice de la recherche pour HabiloMédias.

Cette recherche renforce l’importance d’avoir des conversations continues avec tous les jeunes Canadiens au sujet de la protection de la vie privée en ligne. Les plateformes, les éducateurs et les décideurs ont tous un rôle à jouer dans la reconnaissance de ce que les jeunes ont à dire sur les algorithmes et la confidentialité en ligne et la réponse à apporter.

Principales conclusions du rapport :

  • Les jeunes sont conscients des impacts des algorithmes sur leurs environnements en ligne. Ils sont particulièrement conscients que la présélection algorithmique les pousse vers des utilisations plus passives d’Internet et ils sont souvent frustrés par leur impuissance à changer cette architecture algorithmique.  
  • Notre conversation avec les jeunes a mis en avant le fait qu’ils n’aiment pas être « dupés », « arnaqués » ou « manipulés » par les plateformes en ligne ou les créateurs de contenu.      
  • Si la plupart des participants avaient peu de réserves sur l’utilisation de leurs renseignements personnels par des algorithmes leur recommandant des contenus de divertissement et de loisirs pertinents, ils étaient préoccupés par les stratégies de surveillance « effrayantes » et « invasives » des entreprises.      
  • Les jeunes ont clairement indiqué que vendre leurs données à leur insu et sans leur consentement valable constitue une « violation de leur vie privée ».
  • Les jeunes ont remis en question l’équité de l’hypothèse algorithmique fondée sur des données comme la race, le genre, l’orientation sexuelle ou l’état de santé et se sont inquiétés des personnes déjà exposées au risque de racisme, de marginalisation ou de discrimination. Les jeunes Canadiens veulent que les développeurs et les plateformes ne se fient pas trop à cette technologie et soient plus conscients des conséquences de son utilisation.      

Principales recommandations du rapport :

  • Sensibilisation : Nouveaux programmes de littératie algorithmique adaptés aux besoins uniques des enfants et des jeunes pour encourager la réflexion critique des jeunes Canadiens, les sensibiliser à leurs droits à la vie privée et leur donner les moyens de prendre le contrôle de leurs renseignements personnels.
  • Transparence : Améliorer la transparence algorithmique par le biais de politiques de collecte de données et de confidentialité claires et accessibles.
  • Protection : Que les entreprises en ligne et décideurs politiques envisagent des politiques d’effacement des données.
  • Contrôle : Processus de consentement continus et plus valables. Prendre en compte les solutions identifiées par les jeunes lors de précédentes recherches d’HabiloMédias : options de dégroupage, consentement ligne par ligne et avis juste-à-temps, entre autres.
  • Engagement : Que les futurs projets de recherche continuent de développer nos connaissances des niveaux de littératie algorithmique et positionnent les jeunes en spécialistes.

« Cette recherche est importante, car une connaissance insuffisante de l’IA et des algorithmes contribue à l’exclusion des espaces en ligne, à la discrimination facilitée par la technologie, à l’exposition à des contenus préjudiciables et à divers risques pour la vie privée » a déclaré Samantha McAleese, associée de recherche et d’évaluation pour HabiloMédias.

Pour plus d’informations, voir le rapport, les principales conclusions et recommandations et le blogue de recherche.

Marc Ladouceur est disponibles pour discuter du rapport et de ses conclusions avec les médias.

 

Pour planifier une entrevue, veuillez communiquer avec Nina Lewis, gestionnaire du marketing et des communications : nlewis@mediasmarts.ca

Joignez-vous à la conversation :

Twitter : @HabiloMedias | Facebook : @HabiloMedias
Instagram : @habilomedias | YouTube : MediaSmarts

          -30-

HabiloMédias est un organisme canadien sans but lucratif qui œuvre pour l’éducation aux médias et la littératie numérique. Il a pour objectif de veiller à ce que les enfants, les adolescents et les adultes de confiance développent une pensée critique qui leur permette d’utiliser les médias à titre de citoyens numériques actifs et éclairés. https://habilomedias.ca/