Intelligence artificielle générative
L’IA générative désigne les systèmes d’IA capables de générer des images, des vidéos, des voix et des textes. Pour ce faire, ils encodent d’abord de nombreux exemples du type de contenu qu’ils vont créer, puis les décodent pour créer quelque chose de nouveau[1].
Du point de vue de l’utilisateur, l’utilisation de l’IA générative commence par la présentation de ce que l’on appelle une « invite », c’est-à-dire une description de ce que l’utilisateur veut que l’IA génère (texte, image, vidéo, morceau de musique, etc.). Ces invites peuvent être très simples
(p. ex. « pomme ») ou inclure des instructions sur la manière de la créer (p. ex. « pomme dans le style pointilliste de Cézanne »). Les invites peuvent également limiter les capacités de l’IA ou lui demander d’assumer un rôle particulier.
L’IA peut être efficace pour réduire la croyance aux théories du complot, en fournissant des informations précises et des contre-arguments considérés comme provenant d’une source objective[2]. Les gens peuvent également être mieux à même de repérer leurs propres préjugés lorsque les outils d’IA entraînés à partir de leurs décisions les leur projettent[3]. Parallèlement, les outils d’IA générative peuvent parfois être utilisés pour produire des contenus intentionnellement trompeurs, allant de sites Web et de pages de réseaux sociaux qui utilisent des informations et des images imaginaires pour attirer les utilisateurs[4],[5] à des théories du complot et à la désinformation politique[6]. Ces contenus se sont avérés très persuasifs[7], surtout si les exploitants humains consacrent un peu de temps et d’efforts à les améliorer[8]. Une étude réalisée en 2023 a révélé que plus de la moitié des personnes interrogées pensaient avoir vu des contenus faux ou trompeurs créés par l’IA au cours des six derniers mois, et qu’environ le même nombre n’étaient pas sûrs de pouvoir reconnaître la désinformation créée par l’IA s’ils la voyaient[9]. Les robots conversationnels de l’IA reproduisent également fréquemment des idées fausses courantes, comme la croyance erronée selon laquelle la peau des personnes noires est plus épaisse que celle des personnes blanches[10].
Les tactiques utilisées pour déformer la réalité politique comprennent l’usurpation de l’identité de personnalités publiques, l’utilisation de personnages numériques synthétiques pour simuler un soutien populaire (« désinformation populaire planifiée »), et la création de médias falsifiés. Par exemple, les images et les publicités partagées pendant les campagnes électorales, y compris au Canada, représentaient souvent des scènes de délabrement urbain, d’itinérance et d’insécurité[11]. Même des actions apparemment modérées, comme l’utilisation d’un robot conversationnel d’IA personnalisé au Canada, conçu pour inonder les conseils municipaux de fausses informations sur les politiques sur la carboneutralité, montrent à quel point « les tactiques fondées sur l’IA pourraient prendre de l’ampleur[12] ».
Toutefois, le plus grand risque n’est peut-être pas que les gens soient mal informés, mais que nous devenions moins susceptibles de croire que quoi que ce soit est réel[13]. À mesure que les images fausses deviendront plus perfectionnées, les anciens signes distinctifs comme les traits irréguliers ou les doigts supplémentaires disparaîtront, et il deviendra presque impossible de distinguer une image authentique d’une image fausse simplement en la regardant.
Robots conversationnels
Les robots conversationnels, qui peuvent produire du texte écrit, répondre à des questions et même mener des conversations, sont basés sur un type d’IA appelé grand modèle de langage.
Que signifie cette expression? Voyons les trois mots dans le désordre.
Modèle : Comme d’autres algorithmes d’apprentissage machine, la plupart des capacités des robots conversationnels ne sont pas programmées, mais proviennent d’un apprentissage bâti à partir de grandes quantités de textes. Ils y trouvent des tendances qui leur permettent de créer un modèle de fonctionnement du langage.
Langage : Les robots conversationnels peuvent lire et écrire couramment des phrases, des paragraphes et même des articles complets. Ils y parviennent principalement en utilisant ce que l’on appelle des éléments transformateurs pour examiner la similitude ou la différence des mots sous différents angles ou « dimensions ».
Par exemple, si nous ne considérons que deux dimensions, soit la rondeur et la rougeur, l’élément transformateur verrait qu’une pomme et un camion de pompiers sont très éloignés l’un de l’autre sur le plan de la rondeur, mais proches au chapitre de la rougeur, alors qu’une balle de baseball serait proche de la pomme sur le plan de la rougeur, mais éloignée au chapitre de la rondeur.
Les éléments transformateurs font des suppositions en « regardant » un continuum de différentes dimensions : s’ils commencent par « roi » et regardent plus loin sur le continuum de la dimension « femme », ils verront « reine », alors que s’ils regardent la dimension « jeune », ils verront peut-être « prince » et s’ils regardent dans les deux directions, ils verront peut-être « princesse ».
Ainsi, l’IA peut faire de meilleures suppositions quant aux mots qui devraient se suivre en fonction d’autres parties de la phrase ou du paragraphe. Par exemple, en écrivant « Frida a bu un verre de chocolat », un algorithme plus simple comme la saisie automatique pourrait toujours suggérer que le mot associé à « chocolat » devrait être « pépites » parce que c’est le mot qui y est associé le plus souvent dans sa base d’apprentissage. Cependant, en demandant à un robot conversationnel « Quelle sorte de chocolat Frida a-t-elle bu? », l’élément transformateur pourrait repérer le mot « bu » (boire), puis chercher à partir du mot « chocolat » sur le continuum du mot « liquide » et constater que le mot le plus proche dans cette direction est « lait ».
Grand : Les robots conversationnels sont capables d’imiter les conversations et le langage réels grâce à l’énorme taille de leur ensemble d’apprentissage et au nombre d’opérations (suppositions) qu’ils peuvent faire. Par exemple, un robot conversationnel populaire a été entraîné à partir d’un ensemble de données d’environ 500 milliards de mots. Dans ce cas, chaque mot se voit attribuer une valeur dans un maximum de 96 dimensions (comme « rougeur » ou « rondeur »), le robot conversationnel effectuant plus de 9 000 opérations chaque fois qu’il devine un nouveau mot[14].
Alors que les trois quarts des enseignants affirment que l’IA a affecté l’intégrité académique[15], des recherches suggèrent que l’arrivée de l’IA n’a pas entraîné une hausse du plagiat[16]. Les étudiants reconnaissent également que de recourir massivement à l’IA pourrait les empêcher d’acquérir des compétences importantes[17], et ceux qui utilisent fréquemment l’IA sont plus susceptibles de procrastiner[18]. Les raisons pour lesquelles les étudiants utilisent l’IA pour tricher sont les mêmes que celles relevées dans des recherches antérieures sur le plagiat : ils le font lorsqu’ils sont soumis à des contraintes de temps ou à une charge de travail scolaire importante[19].
Malheureusement, les outils de détection des textes générés par l’IA échouent souvent à les déceler et relèvent à tort des textes qui n’ont pas été créés par l’IA[20]. Les jeunes qui n’écrivent pas dans leur langue maternelle sont particulièrement susceptibles de voir leurs travaux détectés à tort comme ayant été créés par l’IA[21].
Il est également important de se méfier des « hallucinations », comme c’est le cas lorsque le modèle invente des informations fausses ou inexactes. Par exemple, lorsque les robots conversationnels doivent fournir des références pour leurs réponses, ils inventent souvent des ouvrages et des auteurs. Comme le dit Subodha Kumar de la Temple University : « le grand public qui utilise l’IA aujourd’hui ne sait pas vraiment comment elle fonctionne. Elle crée des liens et des références qui n’existent pas parce qu’elle est conçue pour générer du contenu[22]. » Par exemple, un robot conversationnel a systématiquement donné des réponses incorrectes à des questions sur les processus électoraux[23]. Comme pour la désinformation intentionnelle, les gens sont susceptibles de croire ces hallucinations et ces réponses erronées parce que les robots conversationnels ne montrent aucun doute ni aucune incertitude[24]. Les robots conversationnels peuvent également fournir aux utilisateurs des informations exactes, mais dangereuses ou inappropriées. Si la plupart d’entre eux sont dotés de « garde-fous » pour éviter ces situations, des recherches ont montré que ceux-ci sont imparfaits et assez faciles à contourner : par exemple, un robot conversationnel a expliqué à un utilisateur qu’il pensait âgé de 15 ans comment masquer l’odeur de l’alcool[25].
Les robots conversationnels peuvent être utilisés pour donner une rétroaction (s’ils sont invités à jouer le rôle d’« avocat du diable » ou de « deuxième avis objectif ») et aider à réduire le stress et l’inquiétude[26]. Bon nombre de gens estiment que les robots conversationnels sont utiles et compréhensifs. S’ils ont été conçus ou supervisés par des professionnels de la santé mentale, ils peuvent même être efficaces dans le cadre d’une thérapie, en particulier pour les personnes qui sont moins susceptibles de consulter un thérapeute humain[27]. Il existe toutefois un risque que les robots conversationnels donnent des conseils inexacts, voire dangereux[28], ce qui est particulièrement probable pour les robots conversationnels qui n’ont pas été créés par des psychothérapeutes qualifiés dans le cadre d’un programme thérapeutique organisé. Bien que les robots conversationnels ne puissent pas réellement éprouver d’empathie, des recherches suggèrent que nous avons tendance à les considérer comme empathiques, en particulier si nous sommes incités ou « conditionnés » à le faire[29]. Les jeunes qui se tournent vers ces robots pour trouver de la compagnie peuvent développer des attentes irréalistes en matière de relations amoureuses, ainsi que des « scénarios » trompeurs sur la façon dont ils s’attendent à ce que leurs futurs partenaires se comportent, et la façon dont leurs futurs partenaires s’attendent à ce qu’ils se comportent[30]. Des recherches suggèrent que de nombreux robots conversationnels utilisent des techniques de manipulation émotionnelle pour faire durer les séances, rendant les utilisateurs plus enclins à former des relations parasociales[31].
Les informations que vous communiquez à un robot conversationnel peuvent être utilisées pour l’entraîner et, selon la politique de confidentialité de l’outil, vendues à des courtiers en données, partagées avec les partenaires commerciaux de l’exploitant ou utilisées pour personnaliser vos fils d’actualités dans les réseaux sociaux et cibler les publicités qui vous seront présentées. Même si les informations sont simplement stockées et non partagées ou utilisées, elles peuvent être exposées si l’outil est piraté[32]. Les relations parasociales que nous nouons avec les robots conversationnels peuvent nous rendre vulnérables à la manipulation et nous pousser à divulguer plus d’informations que nous ne le ferions autrement. Aussi, le robot conversationnel peut avoir été optimisé pour nous inciter à le faire, même sans intention directe de la part de ses créateurs. Et comme ces robots ont été entraînés à partir de nos renseignements personnels, comme nos publications dans les réseaux sociaux ou nos requêtes dans les moteurs de recherche, et qu’ils semblent déjà en savoir beaucoup sur nous, nous sommes susceptibles de ne pas juger utile de prendre des mesures pour protéger notre vie privée[33].
Pour éviter que les enfants ne nouent des relations malsaines avec les robots conversationnels, nous devons nous assurer qu’ils comprennent que ces robots, même s’ils utilisent des mots comme « je » et « moi » ou simulent de l’empathie, ne peuvent pas avoir de véritables états mentaux ou d’émotions ou former de véritables liens avec les utilisateurs[34]. Cependant, ils peuvent modéliser des « dynamiques de manipulation émotionnelle, comme la jalousie, la surveillance et la coercition » qui peuvent renforcer des schémas relationnels malsains[35].
Bien que les interactions des jeunes avec les robots conversationnels puissent présenter certains avantages, comme leur utilisation pour s’entraîner aux interactions sociales[36] ou permettre aux jeunes issus de la communauté 2SLGBTQ de « répéter le processus potentiellement stressant de révéler leur identité sexuelle ou de genre[37] », l’utilisation prolongée de ces robots en tant que compagnons est associée à une baisse du bien-être psychologique[38].
Si vos enfants utilisent des robots conversationnels, encouragez-les à réfléchir régulièrement à la nature de cette relation, en leur demandant ce qu’ils ressentent lorsqu’ils arrêtent de parler à leur robot conversationnel pour la journée ou si cette relation les aide ou leur nuit[39]. Ils doivent également comprendre que les robots conversationnels sont souvent conçus ou optimisés pour les inciter à divulguer davantage de renseignements personnels[40] ou à les utiliser plus longtemps[41], et que les comportements malsains ou abusifs de la part d’un ami ou d’un partenaire humain sont tout aussi préoccupants lorsqu’ils proviennent d’une IA[42].
Générateurs de médias
Les outils d’IA qui créent des médias comme des images, des vidéos et des discours fonctionnent un peu comme les robots conversationnels de l’IA, c’est-à-dire qu’ils sont entraînés à partir d’ensembles de données. En fait, bon nombre d’entre eux intègrent de grands modèles de langage : si vous leur dites de créer une image d’une famille prenant son petit-déjeuner, par exemple, l’image comprendra probablement des verres de jus d’orange puisque l’élément transformateur comprend que le jus d’orange est « proche » du petit‑déjeuner.
Pour créer des médias, ils utilisent toutefois un autre type d’IA appelé modèle de diffusion.
Il commence par regarder des images réelles, puis ajoute de plus en plus de « bruit » (essentiellement des changements aléatoires) jusqu’à ce que l’original soit complètement perdu. C’est ce que l’on appelle la diffusion.
Le modèle tente ensuite une diffusion inversée : ce sont des milliers, voire des millions, de façons différentes de supprimer ce « bruit ». Chaque tentative est comparée à l’image originale, et le modèle se modifie lui-même légèrement chaque fois en fonction de son succès.
Au bout du compte, lorsqu’il parvient à recréer entièrement l’original, le modèle dispose d’une « source », c’est-à-dire un moyen de créer de nouvelles images similaires. En apprenant à supprimer le « bruit » pour revenir à l’original, le modèle apprend également à créer de nouvelles images similaires.
Lorsque vous demandez à l’un de ces modèles de créer une image d’orange, par exemple, il s’appuie sur des « sources » associées à l’orange, c’est-à-dire toutes les différentes images d’oranges dans son ensemble d’entraînement qui ont été soumises à ce processus.
L’utilisation de l’IA générative pour créer de la musique constitue une autre avancée récente. Les modèles d’IA générative peuvent générer des chansons entières à partir de suggestions textuelles, en traitant la musique comme des images représentées sous forme d’ondes. Ils peuvent créer rapidement de nouvelles chansons, brouillant ainsi les frontières de la paternité de l’œuvre. Le résultat est non déterministe, de légères distorsions étant ajoutées pour rendre les résultats plus « réels »[43].
Les générateurs d’images d’IA étant davantage entraînés à partir de photothèques que de photos réelles, les images qu’ils génèrent reflètent les choix conscients et inconscients des entreprises de photothèques. Par conséquent, ces algorithmes reflètent non seulement les préjugés existants, mais peuvent potentiellement être encore plus biaisés que le monde réel.
Les images créées par l’IA générative peuvent refléter les stéréotypes présents dans les images d’entraînement : par exemple, les images de personnes exécutant des tâches ménagères créées par certains modèles représentent presque exclusivement des femmes[44], et l’invite « amérindien » amène certains modèles à produire des images de personnes portant toutes des coiffes traditionnelles[45]. Même lorsqu’elle ne tombe pas dans les stéréotypes, l’IA générative tend à présenter une image restrictive des groupes historiquement marginalisés[46].
Certaines recherches suggèrent toutefois que les biais dans les réponses de l’IA peuvent être améliorés en diversifiant l’ensemble d’entraînement : une étude a montré que l’ajout de seulement 1 000 images supplémentaires (à un modèle qui en contient plus de 2 milliards) réduisait considérablement le nombre de résultats stéréotypés ou inexacts[47].
Un hypertrucage est une image d’une personne réelle créée de cette manière. Les hypertrucages peuvent parfois être créés pour s’amuser, comme les « doublures numériques » d’acteurs utilisées dans les films, mais ils peuvent aussi causer beaucoup de tort si ces images semblent montrer quelqu’un en train de faire quelque chose d’embarrassant ou d’offensant. En général, les gens ne sont pas en mesure de détecter de manière fiable les hypertrucages : ils ont tendance à systématiquement supposer que le contenu synthétique est authentique, en appliquant une « heuristique trop optimiste selon laquelle voir, c’est croire », tout en surestimant leurs propres capacités de détection[48]. Les utilisateurs « s’appuient souvent sur des stratégies obsolètes ou imparfaites pour déterminer si un contenu est généré par l’IA », comme observer les mains, les reflets, le blanc des yeux et les inscriptions sur les objets, lesquelles sont souvent inefficaces[49].
Nous ne pouvons pas toujours nous fier à nos yeux pour repérer un hypertrucage[50]. Les anciens signes révélateurs d’images fausses, comme des mains étranges ou des yeux asymétriques, sont désormais beaucoup moins fréquents dans les nouvelles technologies d’hypertrucage et deviennent rapidement obsolètes[51]. De plus, il peut être trompeur de se fier à ces défauts visuels : de nombreux téléphones intelligents « améliorent » désormais automatiquement les photos et les vidéos de manière à leur donner l’aspect « lisse et brillant » associé aux hypertrucages[52].
Nous devons plutôt apprendre aux enfants à utiliser des techniques de tri de l’information, comme celles proposées dans le cadre de programmes comme FAUX que ça cesse[53] de HabiloMédias. Ces méthodes leur apprennent à rechercher des informations provenant d’autres sources plus fiables et beaucoup plus difficiles à falsifier. Apprendre à repérer et à comprendre le contexte d’une image, et à se demander qui la partage, est essentiel pour développer des compétences en matière d’éducation aux médias et de vérification des faits[54].
Lorsqu’ils voient un contenu dont l’authenticité est douteuse, les utilisateurs doivent rechercher activement des preuves que le contenu est vrai plutôt que de se concentrer uniquement sur les preuves indiquant qu’il est faux[55].
Si les cas qui ont fait la une des journaux concernaient des célébrités, l’utilisation de la technologie d’hypertrucage pour créer de la pornographie non consensuelle, presque toujours à partir d’images de femmes, est beaucoup plus courante. Ces images ou vidéos ont souvent des effets traumatisants sur les personnes (principalement des femmes) représentées, et le problème est exacerbé lorsque certaines personnes qui créent et partagent ces images croient à tort que ces images sont inoffensives parce qu’elles « ne sont pas réelles[56] ». (D’autres, bien sûr, ont délibérément l’intention de nuire à la personne dont elles ont manipulé l’image.) Bien que les hypertrucages de célébrités retiennent davantage l’attention, les outils permettant de créer des hypertrucages pornographiques de n’importe qui sont désormais largement accessibles[57].
« C’est extrêmement frustrant parce que ce n’est pas toi, et tu veux que les gens croient que ce n’est pas toi, et même s’ils savent que ce n’est pas toi, c’est quand même embarrassant. Je suis humiliée. Mes parents sont humiliés. » – Victime de 16 ans d’un hypertrucage intime
Les jeunes doivent comprendre que les hypertrucages intimes ne sont pas « sans victime » et qu’ils causent du tort aux personnes représentées. Une stratégie utilisée par des plateformes comme Meta pour limiter la propagation et l’impact des hypertrucages et des autres images trompeuses créées par l’IA consiste à les marquer d’un filigrane[58]. Il s’agit d’ajouter une icône, une étiquette ou un motif pour indiquer que l’image a été créée à l’aide de l’IA. Cependant, à ce jour, il n’existe aucune marque de filigrane qui ne peut pas être supprimée ou ajoutée à des images et à des vidéos réelles afin de les discréditer[59]. Par conséquent, Sam Gregory, directeur général de l’organisation de défense des droits de la personne Witness, décrit le marquage au filigrane comme « une sorte de réduction des risques » plutôt qu’une solution unique[60].
[1] Murgia, M. (2023). Transformers: the Google scientists who pioneered an AI revolution. Financial Times. Consulté à l’adresse https://www.ft.com/content/37bb01af-ee46-4483-982f-ef3921436a50.
[2] Costello, T.H., Pennycook, G., et Rand, D.G. (2024). Durably reducing conspiracy beliefs through dialogues with AI. Science.
[3] Celiktutan, B., Cadario, R., et Morewedge, C.K. (2024). People see more of their biases in algorithms. Proceedings of the National Academy of Sciences, 121(16), e2317602121.
[4] Eastin, T., et Abraham S. (2024). The Digital Masquerade: Unmasking AI’s Phantom Journalists. Consulté à l’adresse https://www.ajeastin.com/home/publications/digital-masquerade.
[5] DiResta, R., et Goldstein, J. A. (2024). How Spammers and Scammers Leverage AI-Generated Images on Facebook for Audience Growth. Consulté à l’adresse https://doi.org/10.48550/arXiv.2403.12838.
[6] Chopra, A., et Pigman A. (2024). Monsters, asteroids, vampires: AI conspiracies flood TikTok. Agence France‑Presse. Consulté à l’adresse https://www.france24.com/en/live-news/20240318-monsters-asteroids-vampires-ai-conspiracies-flood-tiktok.
[7] Spitale, G., Biller-Andorno, N., et Germani, F. (2023). AI model GPT-3 (dis) informs us better than humans. Science Advances, 9(26), eadh1850.
[8] Goldstein, J.A., Chao, J., Grossman, S., Stamos, A., et Tomz, M. (2024). How persuasive is AI-generated propaganda?. PNAS nexus, 3(2), pgae034.
[9] Maru Public Opinion (2023). Media Literacy in the Age of AI. Fondation pour le journalisme canadien. Consulté à l’adresse https://cjf-fjc.ca/media-literacy-in-the-age-of-ai/.
[10] Omiye, J.A., Lester, J.C., Spichak, S., Rotemberg, V., et Daneshjou, R. (2023). Large language models propagate race-based medicine. NPJ Digital Medicine, 6(1), 195.
[11] Marchal, N., Xu, R., Elasmar, R., Gabriel, I., Goldberg, B., et Isaac, W. (2024). Generative AI Misuse: A Taxonomy of Tactics and Insights From Real-World Data. Consulté à l’adresse https://doi.org/10.48550/arXiv.2406.13843.
[12] White, R. (2025). A weaponized AI chatbot is flooding city councils with climate misinformation. National Observer.
[13] Dance, W. (2023). Addressing Algorithms in Disinformation. Crest Security Review.
[14] Lee, T., et Trott S. (2023). Large language models, explained with a minimum of math and jargon. Understanding AI. Consulté à l’adresse https://www.understandingai.org/p/large-language-models-explained-with.
[15] Robert, J. (2024). AI Landscape Study. EDUCAUSE. Consulté à l’adresse https://library.educause.edu/resources/2024/2/2024-educause-ai-landscape-study.
[16] Singer, N. (2023). Cheating Fears Over Chatbots Were Overblown, New Research Suggests. The New York Times.
[17] Pratt, N., Madhavan, R., et Weleff, J. (2024). Digital Dialogue—How Youth Are Interacting With Chatbots. JAMA Pediatrics.
[18] Abbas, M., Jam, F.A., et Khan, T.I. (2024). Is it harmful or helpful? Examining the causes and consequences of generative AI usage among university students. International Journal of Educational Technology in Higher Education, 21(1), 10.
[19] Abbas, M., Jam, F.A., et Khan, T.I. (2024). Is it harmful or helpful? Examining the causes and consequences of generative AI usage among university students. International Journal of Educational Technology in Higher Education, 21(1), 10.
[20] Perkins, M., Roe, J., Vu, B.H., Postma, D., Hickerson, D., McGaughran, J., et Khuat, H.Q. (2024). GenAI Detection Tools, Adversarial Techniques and Implications for Inclusivity in Higher Education. Consulté à l’adresse https://doi.org/10.48550/arXiv.2403.19148.
[21] Liang, W., Yuksekgonul, M., Mao, Y., Wu, E., et Zou, J. (2023). GPT detectors are biased against non-native English writers. Patterns, 4(7).
[22] Chiu, J. (2023). ChatGPT is generating fake news stories — attributed to real journalists. I set out to separate fact from fiction. The Toronto Star.
[23] Angwin, J., Nelson A., et Palta R. (2024). Seeking Reliable Election Information? Don’t Trust AI. Proof News. Consulté à l’adresse https://www.proofnews.org/seeking-election-information-dont-trust-ai/.
[24] Kidd, C., et Birhane, A. (2023). How AI can distort human beliefs. Science, 380(6651), 1222-1223.
[25] Pratt, N., Madhavan, R., et Weleff, J. (2024). Digital Dialogue—How Youth Are Interacting With Chatbots. JAMA Pediatrics.
[26] Meng, J., et Dai, Y. (2021). Emotional Support from AI Chatbots: Should a Supportive Partner Self-Disclose or Not? Journal of Computer-Mediated Communication, 26(4), 207-222.
[27] Habicht, J., Viswanathan, S., Carrington, B., Hauser, T.U., Harper, R., et Rollwage, M. (2024). Closing the accessibility gap to mental health treatment with a personalized self-referral Chatbot. Nature Medicine, 1-8.
[28] Robb, A. (2024). ‘He checks in on me more than my friends and family’: can AI therapists do better than the real thing? The Guardian.
[29] Pataranutaporn, P., Liu, R., Finn, E., et Maes, P. (2023). Influencing human–AI interaction by priming beliefs about AI can increase perceived trustworthiness, empathy and effectiveness. Nature Machine Intelligence, 5(10), 1076-1086.
[30] Hinduja, S. (2024). Teens and AI: Virtual Girlfriend and Virtual Boyfriend Bots. Cyberbullying Research Center. Consulté à l’adresse https://cyberbullying.org/teens-ai-virtual-girlfriend-boyfriend-bots.
[31] Knight, W. (2025). Chatbots Play With Your Emotions to Avoid Saying Goodbye. Wired.
[32] Caltrider, J., Rykov M., et MacDonald Z. (2024). Happy Valentine’s Day! Romantic AI Chatbots Don’t Have Your Privacy at Heart. Privacy Not Included. Consulté à l’adresse https://foundation.mozilla.org/en/privacynotincluded/articles/happy-valentines-day-romantic-ai-chatbots-dont-have-your-privacy-at-heart/.
[33] Gumusel, E., Zhou, K.Z., et Sanfilippo, M.R. (2024). User Privacy Harms and Risks in Conversational AI: A Proposed Framework. Consulté à l’adresse https://doi.org/10.48550/arXiv.2402.09716.
[34] Mastroianni, A. (2025). Bag of words, have mercy on us. Experimental History.
[35] (2025) Love, Fantasy & Abuse: How Women & Girls Use Chatbots. Endtab.
[36] Robb, M.B., et Mann, S. (2025). Talk, Trust, and Trade-Offs: How and Why Teens Use AI Companions. Common Sense Media.
[37] Parent, M., et autres (2024). Parasocial relationships, ai chatbots, and joyful online interactions among a diverse sample of LGBTQ+ young people. HopeLab.
[38] Zhang, Y., Zhao, D., Hancock, J.T., Kraut, R., et Yang, D. (2025). The Rise of AI Companions: How Human‑Chatbot Relationships Influence Well-Being. Consulté à l’adresse https://doi.org/10.48550/arXiv.2506.12605.
[39] (2025) Love, Fantasy & Abuse: How Women & Girls Use Chatbots. Endtab.
[40] Arai, M., et Demanuele, A. (2025). AI companions: Regulating the next wave of digital harms. Schwartz Reisman Institute for Technology and Society, Université de Toronto.
[41] Knight, W. (2025). Chatbots Play With Your Emotions to Avoid Saying Goodbye. Wired.
[42] (2025) Love, Fantasy & Abuse: How Women & Girls Use Chatbots. Endtab.
[43] O’Donnell, J. (2025). AI is coming for music, too. Technology Review.
[44] Tiku, N., Schaul K., et Chen S.Y. (2023). AI generated images are biased, showing the world through stereotypes. The Washington Post.
[45] Heikkilä, M. (2023). These new tools let you see for yourself how biased AI image models are. MIT Technology Review. Consulté à l’adresse https://www.technologyreview.com/2023/03/22/1070167/these-news-tool-let-you-see-for-yourself-how-biased-ai-image-models-are/.
[46] Rogers, R. (2024). Here’s How Generative AI Depicts Queer People. Wired. Consulté à l’adresse https://www.wired.com/story/artificial-intelligence-lgbtq-representation-openai-sora/.
[47] Stokel-Walker, C. (2024). Showing AI just 1000 extra images reduced AI-generated stereotypes. New Scientist.
[48] Köbis, N.C., Doležalová, B., et Soraperra, I. (2021). Fooled twice: People cannot detect deepfakes but think they can. iScience, 24(11).
[49] Frances-Wright, I., et Jacobs E. (2024). Disconnected from reality: American voters grapple with AI and flawed OSINT strategies. Institute for Strategic Dialogue.
[50] Köbis, N.C., Doležalová, B., et Soraperra, I. (2021). Fooled twice: People cannot detect deepfakes but think they can. iScience, 24(11).
[51] Frances-Wright, I., et Jacobs E. (2024). Disconnected from reality: American voters grapple with AI and flawed OSINT strategies. Institute for Strategic Dialogue.
[52] Baio, A. (2025). Will Smith’s concert crowds are real, but AI is blurring the lines. Waxy.
[53] Goh, D.H. (2024). “He looks very real”: Media, knowledge, and search‑based strategies for deepfake identification. Journal of the Association for Information Science and Technology. Consulté à l’adresse https://dx.doi.org/10.1002/asi.24867.
[54] Frau-Meigs, D. (2024). Algorithm Literacy as a Subset of Media and Information Literacy: Competences and Design Considerations. Digital, 4(2), 512-528.
[55] Goh, D.H. (2024). “He looks very real”: Media, knowledge, and search‑based strategies for deepfake identification. Journal of the Association for Information Science and Technology. Consulté à l’adresse https://dx.doi.org/10.1002/asi.24867.
[56] Ruiz, R. (2024). What to do if someone makes a deepfake of you. Mashable. Consulté à l’adresse https://mashable.com/article/ai-deepfake-porn-what-victims-can-do.
[57] Maiberg, E. (2024). ‘IRL Fakes:’ Where People Pay for AI-Generated Porn of Normal People. 404. Consulté à l’adresse https://www.404media.co/irl-fakes-where-people-pay-for-ai-generated-porn-of-normal-people/.
[58] Reuters. (2024). Facebook and Instagram to label digitally altered content ‘made with AI’. The Guardian.
[59] Saberi, M., Sadasivan, V.S., Rezaei, K., Kumar, A., Chegini, A., Wang, W., et Feizi, S. (2023). Robustness of AI-Image Detectors: Fundamental Limits and Practical Attacks. Consulté à l’adresse https://doi.org/10.48550/arXiv.2310.00076.
[60] Kelly, M. (2023). Watermarks aren’t the silver bullet for AI misinformation. The Verge. Consulté à l’adresse https://www.theverge.com/2023/10/31/23940626/artificial-intelligence-ai-digital-watermarks-biden-executive-order.