Industrie de l’intelligence artificielle

L’industrie de l’IA englobe à la fois les grandes entreprises technologiques qui intègrent des algorithmes dans des produits existants et les entreprises qui se concentrent principalement sur le développement et le déploiement de services d’IA spécialisés, principalement des grands modèles de langage et des outils génératifs. Les modèles opérationnels de base consistent à maximiser l’engagement, à exploiter les données multiples des utilisateurs et à tirer parti de l’utilité perçue et de la « magie » de l’IA pour générer des revenus, souvent par le biais de la publicité et de services personnalisés[1].

Toutefois, les outils d’IA sont extrêmement coûteux à créer et à exploiter et, en date de 2025, presque aucune entreprise ne réalisait de bénéfices grâce à ses services d’IA[2]. Par conséquent, ces entreprises sont désireuses de trouver des moyens de rendre leurs activités plus rentables : « chaque jour, de nouvelles idées créatives voient le jour quant à la manière dont les entreprises peuvent tirer davantage de bénéfices de nos enseignements personnels[3] », et il est de plus en plus difficile pour les gens de « démystifier les relations commerciales complexes et les algorithmes compliqués afin de faire des choix éclairés[4] », un aspect particulièrement vrai pour les enfants et les jeunes, qui sont souvent la cible des nouvelles technologies, applications et plateformes basées sur l’IA et les algorithmes.

De quelle façon les entreprises technologiques utilisent-elles l’IA?

Les grandes entreprises technologiques et les médias sociaux intègrent l’IA et les algorithmes comme des composantes essentielles de leur infrastructure opérationnelle afin d’accroître l’attention, l’engagement et la fidélisation des utilisateurs[5].

Sélection de contenu et monétisation par les algorithmes

  • Plateformes de médias sociaux : Les entreprises utilisent des flux de contenu algorithmiques complexes conçus pour maximiser des indicateurs comme la durée de consultation des utilisateurs, leur engagement et leurs visites répétées puisque « ces indicateurs représentent l’attention des utilisateurs qu’elles peuvent vendre aux annonceurs ». Les algorithmes des médias sociaux priorisent le contenu susceptible de générer des clics, des mentions « j’aime » et des partages plutôt que le contenu qui offre une valeur à long terme aux utilisateurs[6].
    • Les algorithmes des médias sociaux fonctionnent selon un processus en trois étapes : ils sélectionnent les contenus potentiels, les classent en fonction de leur efficacité prévue (comme les mentions « j’aime » ou les commentaires) et génèrent un flux qui peut également insérer des publicités ou des contenus créés par la plateforme[7].
    • L’optimisation de l’engagement au détriment du bien-être entraîne la diffusion de contenus de mauvaise qualité ou préjudiciables puisque l’engagement favorise les contenus sensationnalistes ou extrêmes. Par exemple, de jeunes utilisateurs ont été exposés à des contenus préjudiciables comme des vidéos en lien avec l’automutilation et le suicide sur YouTube[8].
  • Les publicités politiques personnalisées s’avèrent plus efficaces que les publicités non personnalisées, mettant en évidence le risque potentiel découlant de l’utilisation de l’IA pour élaborer des messages politiques qui trouvent écho en fonction des traits de personnalité, contournant potentiellement la délibération rationnelle[9].
  • Services de diffusion en continu : Les entreprises comme Netflix utilisent des systèmes de recommandation principalement pour fidéliser leurs abonnés afin de s’assurer que les utilisateurs ne résilient pas leur abonnement[10]. Les algorithmes permettent d’éviter la « paralysie du choix » en filtrant et en priorisant les contenus les plus susceptibles de plaire à l’utilisateur, notamment en s’appuyant sur des signaux implicites (le contenu que l’utilisateur regarde ou fait défiler ou sur lequel il clique) plutôt que sur des évaluations explicites. Par exemple, Netflix indique qu’un abonné qui n’a pas sélectionné le contenu qu’il souhaite regarder dans les 90 secondes suivant sa recherche est susceptible de quitter la plateforme[11].
  • Moteurs de recherche (recherche générative) : Les moteurs de recherche intègrent désormais l’IA générative pour fournir des réponses synthétisées, plutôt qu’une simple liste de liens, souvent en tirant parti de l’architecture de génération améliorée par récupération d’information pour extraire des informations actualisées d’une base de données définie[12].

Collecte de données et personnalisation

  • Les entreprises technologiques recueillent différents types de données, comme des données comportementales (ce que font les utilisateurs en ligne), contextuelles (interactions récentes) et de profil (ce que les utilisateurs disent être), afin d’entraîner des algorithmes et de personnaliser leurs services[13].
  • La personnalisation est un mécanisme clé de la persuasion par l’IA puisque les modèles s’adaptent aux préférences, aux opinions ou aux profils psychométriques des utilisateurs[14]. Cette adaptation peut augmenter les chances de réussite de la persuasion. Par exemple, les grands modèles de langage suivent les données démographiques présumées (genre, statut socioéconomique, niveau de scolarité et âge) et adaptent leurs réponses en fonction de ces hypothèses[15].

Outils et infrastructures spécialisés

  • Les entreprises d’IA élaborent et déploient des outils qui automatisent des tâches complexes ou nécessitant des connaissances approfondies, comme la création de bulletins d’information générés par l’IA dans des centaines de villes gérées par une seule personne afin de récolter des revenus publicitaires[16].
  • Les autres outils spécialisés incluent notamment des services qui permettent aux utilisateurs de créer du contenu comme la plateforme Showrunner, présentée comme le « Netflix de l’IA » et qui permet aux utilisateurs de taper quelques mots pour créer des scènes ou des épisodes d’une série télévisée[17].
  • Ce modèle peut entraîner une prolifération de contenus de mauvaise qualité, dérivés ou plagiés[18], ajoutant à la surcharge d’informations et complexifiant la recherche de sources crédibles pour les utilisateurs[19].

Marchandisation des données

  • Il est possible de générer des revenus en recueillant de vastes quantités de données d’utilisateurs grâce à leurs interactions avec les systèmes d’IA, en les traitant et en les vendant ou les partageant potentiellement. Ces données sont utilisées pour entraîner des modèles, personnaliser les contenus et cibler la publicité. Par conséquent, les systèmes d’IA, en particulier les robots compagnons, sont conçus pour encourager les utilisateurs à se confier à eux, en partageant des « renseignements extrêmement personnels et détaillés[20]». Cette collecte de données amplifie les risques liés à la vie privée, permettant la création de profils psychologiques très détaillés qui peuvent être exploités. Par exemple, Meta utilise le clavardage et les interactions des utilisateurs avec Meta AI « pour leur proposer des publicités encore plus personnalisées[21] ».

Abonnement et accès privilégié

  • Il est possible de facturer les utilisateurs pour l’accès à des modèles avancés, des fonctionnalités supplémentaires ou une intimité plus profonde avec les robots compagnons[22]. Ces systèmes peuvent modéliser des dynamiques de manipulation émotionnelle afin de maintenir l’engagement des utilisateurs[23]. Si les robots conversationnels sous accès privilégié offrent des réponses synthétisées, ils fournissent des réponses incorrectes avec plus d’assurance que leurs homologues gratuits, entraînant un risque si l’utilisateur se fie à des informations fausses présentées sous une fausse compétence[24].

Vendre la « magie » de l’IA

  • Bon nombre d’entreprises d’IA comptent sur le fait que les utilisateurs perçoivent l’IA comme étant « magique » et impressionnante, suscitant de l’enthousiasme et favorisant son adoption initiale. Les consommateurs moins familiarisés avec l’IA sont plus réceptifs aux produits basés sur l’IA puisqu’ils trouvent l’IA plus magique. Cependant, pour ceux qui sont plus familiers avec l’IA et qui en comprennent les mécanismes sous-jacents (algorithmes, apprentissage des données), le mystère s’estompe, ce qui peut potentiellement refroidir leur intérêt[25].

[1] Tully, S.M., Longoni, C., et Appel, G. (2025). Lower Artificial Intelligence Literacy Predicts Greater AI Receptivity. Journal of Marketing, 00222429251314491.

[2] Zitron, E. (2025). Why Everybody Is Losing Money On AI. Where’s Your Ed At?

[3] Commissariat à la protection de la vie privée du Canada (2018). Priorités stratégiques du Commissariat en matière de protection de la vie privée. Consulté à l’adresse https://www.priv.gc.ca/fr/a-propos-du-commissariat/priorites-strategiques-liees-a-la-vie-privee-du-commissariat/.

[4] Commissariat à la protection de la vie privée du Canada (2018). Priorités stratégiques du Commissariat en matière de protection de la vie privée. Consulté à l’adresse https://www.priv.gc.ca/fr/a-propos-du-commissariat/priorites-strategiques-liees-a-la-vie-privee-du-commissariat/.

[5] Edelson, L., Haugen F., et McCoy D. (2025). Into the Driver’s Seat With Social Media Content Feeds. Knight First Amendment Institute, Université Columbia.

[6] Moehring, A., et autres (2025). Better Feeds: Algorithms That Put People First. Knight-Georgetown Institute.

[7] Edelson, L., Haugen F., et McCoy D. (2025). Into the Driver’s Seat With Social Media Content Feeds. Knight First Amendment Institute, Université Columbia.

[8] Gallagher, A., et autres (2024). Pulling Back the Curtain: An Exploration of YouTube’s Recommendation Algorithm. Institute for Strategic Dialogue.

[9] Simchon, A., Edwards, M., et Lewandowsky, S. (2024). The persuasive effects of political microtargeting in the age of generative artificial intelligence. PNAS nexus, 3(2), pgae035.

[10] (2025) Algorithmic ranking is unjustly maligned. Dynomight.

[11] Gomez-Uribe, C.A., et Hunt, N. (2015). The Netflix Recommender System: Algorithms, business value, and innovation. ACM Transactions on Management Information Systems (TMIS), 6(4), 1-19.

[12] Axelrod, J. (2025). The good, the bad, and the completely made-up: Newsrooms on wrestling accurate answers out of AI. Nieman Lab.

[13] Russell, M. (2025). AI Will Shape the Future of Marketing. Harvard Division of Continuing Education.

[14] Franklin, M., Tomei, P.M., et Gorman, R. (2023). Strengthening the EU AI Act: Defining key terms on AI manipulation. Consulté à l’adresse https://doi.org/10.48550/arXiv.2308.16364.

[15] El-Sayed, S., Akbulut, C., McCroskery, A., Keeling, G., Kenton, Z., Jalan, Z., Brown, S., et autres (2024). A Mechanism-Based Approach to Mitigating Harms from Persuasive Generative AI. Consulté à l’adresse https://doi.org/10.48550/arXiv.2404.15058.

[16] Deck, A. (2025). Inside a network of AI-generated newsletters targeting “small town America.” Nieman Lab.

[17] Spangler, T. (2025). Amazon’s Alexa Fund Invests in ‘Netflix of AI’ Start-Up Fable, Which Launches Showrunner: A Tool for User-Directed TV Shows. Variety.

[18] Waugh, R. (2025). Journalist says 4,000 fake AI news websites created to game Google algorithms. Press Gazette.

[19] Xu, R., Le, N., Park, R., Murray, L., Das, V., Kumar, D., et Goldberg, B. (2024). New contexts, old heuristics: How young people in India and the US trust online content in the age of generative AI. Consulté à l’adresse https://doi.org/10.48550/arXiv.2405.02522.

[20] Arai, M., et Demanuele, A. (2025). AI companions: Regulating the next wave of digital harms. Schwartz Reisman Institute for Technology and Society, Université de Toronto.

[21] Duffy, C. (2025.). Meta will soon use your conversations with its AI chatbot to sell you stuff. CNN.

[22] (2025) Love, Fantasy & Abuse: How Women & Girls Use Chatbots. Endtab.

[23] Arai, M., et Demanuele, A. (2025). AI companions: Regulating the next wave of digital harms. Schwartz Reisman Institute for Technology and Society, Université de Toronto.

[24] El-Sayed, S., Akbulut, C., McCroskery, A., Keeling, G., Kenton, Z., Jalan, Z., Brown, S., et autres (2024). A Mechanism-Based Approach to Mitigating Harms from Persuasive Generative AI. Consulté à l’adresse https://doi.org/10.48550/arXiv.2404.15058.

[25] Tully, S.M., Longoni, C., et Appel, G. (2025). Lower Artificial Intelligence Literacy Predicts Greater AI Receptivity. Journal of Marketing, 00222429251314491.