Comprendre l’IA et aider les jeunes à en tirer le meilleur parti 

Par Melissa Racine, spécialiste en éducation aux médias, et Tricia Grant, directrice du marketing et des communications 

Partout où nous nous tournons, nous entendons parler de l’intelligence artificielle (IA). Nous savons déjà que l’IA nous entoure : des algorithmes nous suggèrent ce que nous devons regarder et des outils tels que ChatGPT et Midjourney sont utilisés pour générer le contenu que nous voyons.  

Mais combien d’entre nous comprennent réellement ce que sont les algorithmes? Si vous êtes parent, tuteur ou enseignant, êtes-vous prêt à enseigner aux jeunes comment utiliser l’IA de manière responsable?  

Qu’entendons-nous lorsque nous parlons d’IA à un niveau élémentaire, et quel est le rapport avec l’éducation aux médias numériques? 

Commençons par définir quelques termes clés :  

Image
Une image montrant des lignes de code informatique.

Algorithmes : En langage informatique, les algorithmes sont des séries d’instructions utilisées pour indiquer aux ordinateurs, applications ou sites Web les étapes à suivre pour accomplir une tâche. Les algorithmes d’apprentissage automatique, y compris ceux qui alimentent les outils d’intelligence artificielle, ne sont pas conçus par des programmeurs, mais « formés » à partir de données, ce qui leur permet de trouver des modèles et de développer leurs propres stratégies pour atteindre l’objectif pour lequel ils ont été conçus. Les algorithmes de recommandation qui déterminent les suggestions de films et de séries à regarder sur Netflix, les résultats des recherches générés par Google et les filtres qui décident de ce que vous voyez sur vos médias sociaux sont des exemples d’algorithmes d’apprentissage automatique. 

IA : Les algorithmes d’apprentissage automatique basculent vers l’intelligence artificielle (IA) lorsque leur complexité ou leur créativité leur permet d’accomplir des tâches considérées jusqu’alors comme exclusivement humaines et qu’ils sont capables d’apprendre et de prendre des décisions basées sur les données de manière autonome. 

IA générative : L’IA générative est un type d’IA qui permet à un ordinateur de créer son propre contenu, tel que du texte ou des images, sur la base de modèles qu’il a appris. Par exemple, ChatGPT peut générer des réponses à des entrées de texte, imitant ainsi une conversation, tandis que des créateurs d’images comme Midjourney ou Dall-E peuvent générer des images. D’autres modèles d’IA générative actuellement disponibles ou en cours de développement peuvent créer des voix à consonance humaine ou des vidéos réalistes. 

Il est impératif de comprendre le fonctionnement de ces technologies d’IA pour savoir comment les utiliser de manière responsable et aider les enfants à les utiliser correctement. Une fois qu’on sait comment fonctionne l’IA, on peut également reconnaître les biais et les limitations qui peuvent exister et on est mieux outillés pour naviguer dans les espaces numériques avec conscience et esprit critique. 

Si l’IA peut être utile, il est essentiel de l’utiliser de manière responsable. Comme tout outil, elle peut être utilisée à des fins positives ou négatives. En tant que parent ou enseignant, il est important de guider les enfants dans une utilisation sûre et éthique de l’IA, en veillant à ce qu’ils en comprennent les avantages et les risques potentiels. 
 

Quels sont les éléments de base à connaître sur le fonctionnement des algorithmes? 

Comme mentionné plus haut, les algorithmes sont les instructions de programmation qui guident les opérations d’un ordinateur ou d’un programme. Ainsi, les algorithmes d’IA sont des programmes qui permettent à un ordinateur d’apprendre à partir de données et d’effectuer des tâches de manière autonome. 

Il existe de nombreux types d’algorithmes d’IA. Certains algorithmes sont formés sur des données et apprennent ce qu’il faut chercher (apprentissage supervisé), et la technologie utilise ces données pour faire des prédictions. Les prévisions de trafic de Google Maps en sont un exemple puisque Google utilise à la fois des données historiques et en temps réel pour prédire le temps que vous mettrez pour aller du point A au point B. La reconnaissance faciale ou la correction automatique sont d’autres exemples courants de l’apprentissage supervisé. 

D’autres algorithmes reçoivent des données sans qu’on leur apprenne quoi chercher (apprentissage non supervisé). Ces algorithmes sont programmés pour identifier des modèles ou des associations au sein des données brutes et faire des prédictions basées sur ces modèles. Un exemple d’apprentissage non supervisé dans les algorithmes d’IA est les suggestions de films/émissions de Netflix — les données brutes sont votre historique de visionnage (ainsi que l’historique de visionnage des personnes que Netflix considère similaires à vous) et l’algorithme d’IA fait des recommandations basées sur des modèles de visionnage identifiés. Un autre exemple est la publicité ciblée, qui décide quelles annonces vous montrer en fonction de ce que la plateforme pense savoir sur vous. 

Un autre type d’algorithme d’IA est l’apprentissage par renforcement, où l’algorithme fait une action et s’adapte (apprend) en fonction de la réponse de l’environnement. Le régulateur de vitesse adaptatif en est un exemple : la voiture exécute une action (accélérer), reçoit des données de l’environnement (un objet gêne sa trajectoire, par exemple) et s’adapte en fonction de ce retour d’information (ralentit). 

Les algorithmes d’IA reposent sur l’entrée de données. C’est pourquoi tant d’entreprises veulent obtenir vos données : plus elles en savent sur vous et sur la façon dont vos données se comparent à celles des autres, plus leurs algorithmes sont précis et plus elles peuvent facturer pour la publicité ou les abonnements. 

En raison de la relation entre les algorithmes d’IA et les humains qui les créent, les algorithmes d’IA peuvent apprendre et amplifier les biais inhérents et systémiques existant dans la société. Les biais peuvent se trouver dans les données d’entraînement, l’algorithme lui-même et les prédictions qu’il fait. Un exemple de ces biais peut être observé dans les outils de police prédictive. Certains de ces outils utilisent des données historiques d’arrestations et de crimes, reflétant le racisme systémique de notre système judiciaire (article canadien). D’autres outils utilisent la reconnaissance faciale; cependant, les études montrent que si la reconnaissance faciale identifie très précisément les hommes blancs, elle a une grande marge d’erreur pour les personnes de couleur, et en particulier les femmes noires (article canadien). L’IA générative peut être encore plus biaisée car elle est souvent entraînée sur des ensembles de données qui sont déjà plus biaisés que la réalité, comme les banques d’images libres de droits. 

Comment aider les enfants à utiliser les outils d’IA générative de manière responsable? Et qu’en est-il du plagiat?  

Voici quelques moyens d’aider les enfants à utiliser les outils d’IA de manière responsable : 

  • Enseignez aux enfants les bases du fonctionnement des programmes d’IA générative. Apprendre les bases de l’IA avec un adulte de confiance permet aux enfants d’explorer le fonctionnement de l’IA générative en toute sécurité et de manière responsable.  
  • Parlez des préoccupations éthiques liées à l’IA générative, notamment les biais, le plagiat (le vol de données d’artistes pour la génération d’images par l’IA, par exemple), les hypertrucages, et les violations de la confidentialité des données. Par exemple, vous pouvez discuter de ce que serait une utilisation éthique de l’IA générative à l’école. Est-il éthique de demander à ChatGPT de critiquer votre essai, mais pas de le rédiger? Pourriez-vous utiliser Dall-E pour créer des images pour une présentation scolaire si vous n’êtes pas évalué sur la qualité artistique? 
  • Encouragez une perspective critique de l’IA générative, qui donne aux enfants les outils nécessaires pour d’interagir de manière critique avec les programmes et les médias qui peuvent avoir été générés celle-ci. (Assurez-vous que les enfants comprennent comment l’IA, et l’IA générative en particulier, peut produire des résultats biaisés). Cela leur permet de prendre des décisions éclairées concernant les programmes qu’ils utilisent et les données qu’ils partagent. 
  • Établissez des règles d’utilisation de l’IA générative dans votre foyer, comme vous le feriez avec d’autres applications : temps d’utilisation limité, discussion sur les types de contenus génératifs qu’ils peuvent utiliser, utilisation sous surveillance, etc., et discutez des conséquences en cas d’utilisation abusive. 
  • Veillez à ce que les enfants utilisent des outils adaptés à leur âge et abordez avec eux les préoccupations relatives à la protection de la vie privée liées aux agents conversationnels, comme celui que Snapchat utilise
  • Restez informé de toute modification apportée aux programmes.  
  • Les nouveaux outils d’intelligence artificielle tels que ChatGPT soulèvent de nouvelles questions concernant le plagiat, mais la plupart des méthodes de lutte contre le plagiat restent les mêmes qu’à l’époque où les élèves se contentaient de copier/coller des documents existants sur internet. Pour plus d’informations, consultez notre article répondre au plagiat. 

 
Il est aujourd’hui plus facile que jamais de créer de fausses images et vidéos. Comment pouvons-nous distinguer le vrai du faux en ligne, et comment pouvons-nous aider nos enfants à apprendre à le faire? 

C’est l’occasion idéale de rappeler aux enfants que les images et vidéos qui suscitent de fortes émotions doivent être remises en question. Il y a actuellement une publicité du CST/Gouvernement du Canada qui dit : « Si du contenu en ligne vous fait sourciller, vous devez vous questionner. » 

De nombreux conseils trouvables sur internet recommandent de repérer des incohérences évidentes comme la synchronisation des mouvements de la bouche avec les mots, l’absence de dents, des parties du corps étranges (yeux croisés, doigts supplémentaires), etc., mais à mesure que les hypertrucages s’améliorent, ces signes révélateurs deviennent de moins en moins fréquents. En outre, rechercher des incohérences peut vous conduire à identifier des hypertrucages inexistants : certaines personnes ont vraiment six doigts à chaque main! 

Comme avec toute information dont la véracité peut être incertaine, il est toujours conseillé de suivre ces quatre étapes pour vérifier l’exactitude des informations avant de les croire et surtout avant de les partager. Il se peut que vous n’ayez à faire qu’une seule de ces étapes! 

Voici quelques petits conseils :  

  • Pour les images, essayez de faire une recherche inversée pour savoir si elles ont été partagées par une source fiable. TinEye vous permet de trier les images par date ou par ordre de modification, ce qui vous permet de savoir si une ancienne image est réutilisée dans un autre contexte. 
  • Vérifiez que la source est crédible (consultez sa page Wikipédia pour vous assurer qu’elle a une bonne réputation et qu’elle dispose d’un processus pour garantir l’exactitude et corriger les erreurs). 
  • Utilisez un site ou un moteur de vérification des faits — HabiloMédias a créé une recherche personnalisée qui vous permet de consulter tous les vérificateurs de faits pour une information en un seul endroit.  

Quels sont certains avantages des outils d’IA et comment pouvons-nous les utiliser à leur plein potentiel? 

Il est naturel de se montrer sceptique envers l’IA, comme pour toute nouvelle technologie, mais les outils d’IA offrent certains avantages : 

  • Ils peuvent favoriser la créativité et l’innovation et donner aux jeunes l’occasion de créer — que ce soit avec des images, des récits, des films ou de la musique. 
  • Ils peuvent contribuer à un apprentissage authentique et avoir des applications dans la vie réelle. Ils peuvent aider à la réalisation de projets qui nécessitent de nombreuses répétitions, en particulier dans le domaine des STIM. 
  • Ils peuvent contribuer à l’apprentissage collaboratif. Le processus itératif inhérent à l’IA générative peut encourager la pensée critique et la résolution de problèmes. 
  • Ils encouragent l’apprentissage et la curiosité d’une manière accessible (sans avoir à trier les résultats de Google). La vérification des informations générées est nécessaire, mais cela peut néanmoins constituer un excellent point de départ pour acquérir des connaissances de base.  
  • Ils peuvent nous faciliter la vie grâce à des fonctions tels que la synthèse vocale, la détection d’objets ou de personnes (pour la prise de photos), la reconnaissance faciale (pour les applications photo des téléphones), les recommandations personnalisées (applications musicales, de diffusion en continu), la traduction linguistique et les assistants virtuels (Alexa, Siri). 
  • Ils peuvent être un outil pour le remue-méninges
  • Ils peuvent constituer des ressources utiles pour les apprenants dont la langue maternelle n’est ni l’anglais ni le français. 
  • Ils sont accessibles aux personnes ayant des besoins divers. 

Dans le meilleur des cas, lorsqu’utilisés à leur plein potentiel, ces outils peuvent offrir aux enfants un espace sûr pour explorer! Les parents et les tuteurs devraient s’asseoir avec eux pour explorer ensemble et les enseignants peuvent rechercher de nouvelles façons d’intégrer les outils d’apprentissage de l’IA en classe. 

Enseigner aux enfants les outils de l’IA — leur fonctionnement, l’éthique et l’utilisation responsable — et les encourager à explorer et à se familiariser avec les outils de l’IA permet aux jeunes d’élargir leurs connaissances et de créer de nouvelles choses, tout en leur donnant les moyens d’éviter d’être manipulés par l’IA. 

Outils et informations de HabiloMédias relatifs à l’IA :