Qu’est-ce que l’intelligence artificielle?

L’intelligence artificielle est une façon d’utiliser des algorithmes informatiques pour accomplir des tâches qui demandent peu ou pas d’intervention humaine.

Un algorithme est essentiellement une série d’étapes ou d’instructions permettant d’accomplir une tâche. Les algorithmes d’IA ne sont pas programmés, mais entraînés, ce qui signifie qu’ils apprennent à partir d’un ensemble de données qui leur est fourni, par exemple une collection de millions d’images ou de textes écrits. Ils relèvent des tendances ou des liens dans l’ensemble de données et s’en servent pour résoudre le problème pour lequel ils ont été entraînés.

« Vous n’avez pas besoin de produire une liste précise d’instructions et de les communiquer. Il suffit de donner à la machine des données, un objectif et une rétroaction lorsqu’elle est sur la bonne voie, puis de la laisser trouver le meilleur moyen d’atteindre cet objectif. » – Hannah Fry, Hello World

Bon nombre d’outils et de plateformes utilisent plusieurs algorithmes à des fins différentes au cours de ce qui semble être une seule interaction pour l’utilisateur ou le consommateur. Par exemple, supposons qu’un utilisateur saisisse la requête « golf » dans Google. Dans ce cas, le moteur de recherche classera probablement la recherche (en devinant si l’utilisateur cherche des informations sur le sport « golf » ou un « golfe » , par exemple) en partie en associant l’utilisateur à ses recherches passées et à d’autres données que Google possède à son sujet (p. ex. les sites Web de sports lors de l’utilisation du navigateur Chrome, les courriels sur l'organisation de parties de golf envoyés par le biais de Gmail).

Les algorithmes d’IA sont beaucoup plus puissants et flexibles que les algorithmes écrits par des humains, mais ils sont également plus difficiles à analyser et à comprendre. Même si nous savons quelles données sont utilisées dans l’algorithme et que nous pouvons voir ce qu’il produit, nous ne pouvons pas facilement déterminer le processus entre les deux. C’est pourquoi l’IA est parfois qualifiée de « boîte noire ». Comme les plus perfectionnés peuvent évoluer et s’adapter au fil du temps, même les personnes qui les créent et les exploitent peuvent ne pas savoir exactement comment ils fonctionnent.

Même si l’IA n’est pas programmée de manière traditionnelle, les humains restent indispensables au processus d’apprentissage. Ils fournissent des commentaires en évaluant la qualité des réponses, en légendant ou en annotant des éléments de l’ensemble de données, ou en faisant des tests pour s’assurer que l’IA ne produit pas de contenu graphique, violent ou inapproprié[1]. L’IA « semble si humaine parce qu’elle a été formée par une IA qui imitait des humains qui évaluaient une IA qui imitait des humains qui prétendaient être une meilleure version d’une IA formée à l’écriture humaine[2] ».

Même si nous savons quelles données sont utilisées dans l’algorithme et pouvons voir ce qu’il produit, le système ou le processus algorithmique lui-même « refuse d’être connu » en raison de la valeur de son opacité[3]. Ce mystère complique la compréhension complète des impacts des systèmes algorithmiques. Nous savons que les algorithmes d’apprentissage machine apprennent à partir de données comportementales (ce que nous faisons en ligne), de données contextuelles (nos interactions en ligne les plus récentes) et de données de profil (qui nous sommes ou prétendons être en ligne).

Les conséquences involontaires ou imprévues des algorithmes, y compris les biais, demeurent une préoccupation générale[4],[5],[6]. Les biais algorithmiques sont présents sur toutes les plateformes et s’introduisent dans les systèmes algorithmiques et d’IA en raison des inégalités sociales, culturelles et institutionnelles préexistantes qui influencent les décisions relatives à la manière dont les données sont recueillies, sélectionnées, codées ou utilisées pour entraîner les algorithmes.

Les enfants et les jeunes interagissent quotidiennement avec des algorithmes et l’IA. L’IA est intégrée dans les jouets, les jeux vidéo, les assistants à commande vocale, les applications d’apprentissage et les logiciels éducatifs. « Les algorithmes fournissent aux enfants des recommandations sur les vidéos à regarder, les actualités à lire, la musique à écouter et les personnes avec lesquelles se lier d’amitié[7]. » Outre ces interactions directes, les enfants et les jeunes peuvent être indirectement affectés par les systèmes d’IA puisque cette technologie est de plus en plus intégrée aux systèmes décisionnels enchâssés dans les pratiques de santé, les résultats scolaires, les allocations et les demandes de logement[8],[9]. Cependant, peu de travaux se sont intéressés à la manière dont les jeunes interagissent avec l’IA et sont susceptibles d’être affectés par cette technologie[10], et les recherches suggèrent que nous en savons encore moins sur les conséquences à long terme ou futures des algorithmes, en particulier sur les enfants et les jeunes[11].

La culture algorithmique ne désigne pas seulement « strictement la capacité de lire et d’écrire du code », mais signifie également « être conscient de la présence des algorithmes et du rôle croissant qu’ils jouent, tant pour le meilleur que pour le pire[12] ». La constitution d’un « vocabulaire fondamental » permettant aux jeunes de comprendre et de façonner les algorithmes[13] leur donne les moyens « d’exercer leur esprit critique dans leur manière d’interagir en ligne et de devenir des utilisateurs et des créateurs proactifs et créatifs plutôt que des consommateurs passifs[14] ». Les jeunes « grandissant dans un monde submergé par l’IA », nous avons besoin d’outils, de ressources et de programmes plus solides en matière de culture algorithmique pour les aider à devenir des « consommateurs plus critiques », à garder le contrôle de leurs renseignements personnels, et à « les motiver à contribuer à façonner l’avenir » de cette technologie[15].

Compte tenu de l’impact actuel et futur de l’IA sur la vie des jeunes au Canada, « il est essentiel que les jeunes aient une compréhension de base de ce qu’est l’IA et des impacts de ces technologies en matière d’éthique, de société, de vie privée et de sécurité[16] ».


[1] Hao, K., et Seetharaman D. (2023). Cleaning Up ChatGPT Takes Heavy Toll on Human Workers. The Wall Street Journal.

[2] Dzieza, J. (2023). AI Is A Lot of Work. New York Mag. Consulté à l’adresse https://nymag.com/intelligencer/article/ai-artificial-intelligence-humans-technology-business-factory.html.

[3] Gillespie, T., MacPhee, C., et Reddeb, J. (2020). Panel on AI & Algorithms. Assemblée générale annuelle sur le projet eQuality. En ligne. Consulté à l’adresse http://www.equalityproject.ca/resources/ai-algorithms/.

[4] Dignum, V., Pigmans, K., Vosloo, S., et Penagos, M. (2020). Policy Guidance on AI for Children. UNICEF, Office of Global Insight and Policy. Fonds des Nations Unies pour l’enfance. Consulté à l’adresse http://www.unicef.org/innocenti/media/1341/file/UNICEF-Global-Insight-policy-guidance-AI-children-2.0-2021.pdf.

[5] O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Broadway Books.

[6] Noble, S. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. New York University Press.

[7] Dignum, V., Pigmans, K., Vosloo, S., et Penagos, M. (2020). Policy Guidance on AI for Children. UNICEF, Office of Global Insight and Policy. Fonds des Nations Unies pour l’enfance. Consulté à l’adresse http://www.unicef.org/innocenti/media/1341/file/UNICEF-Global-Insight-policy-guidance-AI-children-2.0-2021.pdf.

[8] Dignum, V., Pigmans, K., Vosloo, S., et Penagos, M. (2020). Policy Guidance on AI for Children. UNICEF, Office of Global Insight and Policy. Fonds des Nations Unies pour l’enfance. Consulté à l’adresse http://www.unicef.org/innocenti/media/1341/file/UNICEF-Global-Insight-policy-guidance-AI-children-2.0-2021.pdf.

[9] Dans le contexte canadien, la technologie de l’IA est principalement utilisée dans le domaine de l’application de la loi (police prédictive et surveillance des médias sociaux). L’utilisation des systèmes d’IA dans le secteur des services sociaux n’a pas encore été confirmée.

[10] Hasse, A., Cortesi, S., Lombana-Bermudez, A., et Gasser, U. (2019). Youth and Artificial Intelligence: Where We Stand. Youth and Media, Berkman Klein Center for Internet & Society. Consulté à l’adresse https://cyber.harvard.edu/publication/2019/youth-and-artificial-intelligence/where-we-stand.

[11] Dignum, V., Pigmans, K., Vosloo, S., et Penagos, M. (2020). Policy Guidance on AI for Children. UNICEF, Office of Global Insight and Policy. Fonds des Nations Unies pour l’enfance. Consulté à l’adresse http://www.unicef.org/innocenti/media/1341/file/UNICEF-Global-Insight-policy-guidance-AI-children-2.0-2021.pdf.

[12] Oldridge, M. (2017). « Algorithmic Literacy ». Medium. Consulté à l’adresse https://matthewoldridge.medium.com/algorithmic-literacy-1d9b5f087142.

[13] Waters, J. (2020). Le Guide canadien de la pensée computationnelle et de la programmation : Une introduction à la littératie algorithmique par Kids Code Jeunesse. Kids Code Jeunesse. Consulté à l’adresse https://algorithmliteracy.org/data/resources/fr/KCJ_Guide_pensee_computationnelle_FR.pdf.

[14] Kids Code Jeunesse et Commission canadienne pour l’UNESCO. (2021). Décode les algorithmes et les données. Consulté à l’adresse https://algorithmliteracy.org/fr/.

[15] Hao, K. (2019). Kids Are Surrounded by AI. They Should Know How It Works. Consulté à l’adresse https://medium.com/mit-technology-review/kids-are-surrounded-by-ai-they-should-know-how-it-works-ae15756f1085.

[16] Hasse, A., Cortesi, S., Lombana-Bermudez, A., et Gasser, U. (2019). Youth and Artificial Intelligence: Where We Stand. Youth and Media, Berkman Klein Center for Internet & Society. Consulté à l’adresse https://cyber.harvard.edu/publication/2019/youth-and-artificial-intelligence/where-we-stand.