Par Stéphanie Gauttier & Sylvie Blanco - Grenoble École de Management (GEM)
Les trucages réalisés grâce aux intelligences artificielles déforment notre vision de la réalité, affectant nos comportements de consommateurs et de citoyens.
Deepfake grossier de Donald Trump arrêté par les forces de police.
À Hongkong, un employé a transféré 25 millions de dollars en pensant suivre des ordres des directeurs de son entreprise avec qui il avait eu un appel en visioconférence. En réalité, il n'avait jamais eu le moindre humain face à lui.
Ces images sont des deepfakes, c'est-à-dire des contenus ultraréalistes mais qui ne représentent pas la réalité, voire l'altèrent, et qui peuvent donc déformer notre vision du monde.
Un des premiers deepfake populaire. Non, le pape n'a jamais porté en public cette doudoune blanche. Image Wikimedia
Aujourd'hui, voir n'est plus croire: les images, vidéos et autres contenus fabriqués peuvent être indiscernables des contenus authentiques. Ce phénomène pose de sérieux défis pour la société.
Manipuler les consommateurs: des canons de beauté à l'hégémonie culturelle
Les images de mannequins utilisées dans les campagnes publicitaires de certaines grandes marques sont générées par des systèmes d'intelligence artificielle. Elles véhiculent une certaine idée de la beauté et des normes esthétiques souvent inatteignables dans le monde réel.
Au-delà d'une esthétique qui pourrait simplement caractériser les contenus générés et modifiés par intelligence artificielle, les mannequins et influenceurs articifiels créés par hypertrucages cherchent à s'insérer dans le monde réel comme s'ils étaient des humains. Incognito Influencer, un influenceur virtuel hypertruqué, est apparu sur les images de toutes les fashion weeks en 2023 alors que personne ne l'y a rencontré. Aitana Lopez, mannequin hypertruqué, possède ses propres réseaux sociaux.
Dans ces cas-ci, il ne s'agit pas de générer ponctuellement une image "lisse" pour vendre un produit, mais de mettre en scène une personnalité virtuelle pour qu'elle influence les humains dans le monde physique.
Il n'y a pas de limite à ce que l'on peut faire faire à ces agents hypertruqués, puisqu'ils n'existent pas. En ce sens, les hypertrucages peuvent véhiculer des modèles de vie quotidienne irréalistes, qui peuvent accentuer le mal-être de ceux qui chercheraient les mêmes modes de vie.
En cela, la recherche en marketing considère que les hypertrucages sont différents des mécanismes de publicité traditionnels. Les images hypertruquées peuvent être tellement inspirantes que les individus peuvent y croire directement sans chercher à trop les comprendre. Plus les hypertrucages sont riches (par exemple en véhiculant de l'information au-delà d'une simple photographie mais par l'intermédiaire d'un contenu vidéo), plus les consommateurs sont enclins à vouloir acheter les produits liés.
Pour autant, cela ne signifie pas que les marques ne doivent pas y mettre des limites: les consommateurs qui n'ont pas détecté l'hypertrucage mais apprennent qu'ils ont été trompés ont ensuite moins envie d'acheter des produits de cette marque.
Enfin, les outils d'intelligence artificielle utilisés pour générer les hypertrucages reflètent et amplifient les biais de nos sociétés. Par exemple, il y a huit ans, une IA invitée à juger un concours de beauté a discriminé les personnes à la peau noire.
Aujourd'hui encore, le moteur de recherche Bing montre presque exclusivement des bébés caucasiens aux yeux bleus lorsqu'on recherche des images de "beautiful babies". Ceci laisse supposer que les influenceurs virtuels hypertruqués puissent présenter uniquement certaines ethnies et visions de la beauté comme "inspirantes" esthétiquement et socialement.
Les hypertrucages peuvent ébranler la vie politique
Les hommes et femmes politiques peuvent faire l'objet de parodies modernes grâce aux hypertrucages. En 2023, Clad 3815 a fait intervenir sur sa chaîne Twitch les leaders politiques français pour une session interactive sous forme d'hypertrucage, à visée divertissante.
Toutefois, le contenu généré par IA, s'il n'est pas annoncé comme tel, peut être manipulateur, puisqu'il laisse à penser qu'il montre la réalité quand ce n'est pas le cas.
Par exemple, pour le Nouvel An 2024, un membre du parti présidentiel français a diffusé un hypertrucage sur X représentant Marine Le Pen souhaitant la bonne année en russe, sans indiquer qu'il s'agissait d'un montage, ce qui peut affecter la vision que l'on a de Marine Le Pen, et, ou, sembler divertissant eu égard aux débats sur la position de son parti politique vis-à-vis de la Russie.
Mais nous ne sommes pas tous égaux face à ces manipulations. Par exemple, les individus les plus intéressés par la politique seront mieux à même de détecter ces hypertrucages que d'autres, ce qui pourrait s'expliquer par leur connaissance générale des informations politiques, leur compétence développée à les analyser, et leur exposition accrue à ce type de contenu.
L'intelligence artificielle générative: vers des usages responsables
Si l'on est optimiste, on peut penser que l'intelligence artificielle générative permet de créer des contenus éducatifs, comme des vidéos de personnages historiques racontant l'histoire de manière captivante ou de reconstituer des événements historiques.
Elle peut également permettre l'émergence de nouveaux services. Certains explorent l'idée de l'utiliser pour accompagner des personnes dans le deuil. La différence entre un hypertrucage et une simple utilisation de l'intelligence artificielle générative est faite en fonction de l'objectif de la génération du contenu: l'hypertrucage est lié à l'idée de tromper et de manipuler. Si des usages responsables de l'intelligence artificielle générative sont possibles, il est important de les promouvoir, et d'encadrer les déviances possibles.
Dans ce sens, la réflexion sur l'encadrement des hypertrucages a été soulevée dès 2019 à l'Assemblée nationale française, et les parties prenantes se responsabilisent: les images générées par IA sur Google sont tatouées depuis 2023, une technique que la firme a appliquée en 2024 à ses contenus vidéos, notamment ceux créés sur Gemini et via ses chatbots. En 2023, Twitch a annoncé l'interdiction de la diffusion de deepfakes à caractère pornographique. En 2024, la Californie s'est dotée d'une loi contre la génération d'hypertrucages dans le cadre des élections.
Cet article fait suite à la publication du livre blanc "IA générative et hypertrucages" pour la région Auvergne Rhône Alpes. Le livre blanc a été coordonné par P. Wieczorek et S. Blanco. Il a reçu les contributions de L. Bisognin, S. Blanco T. Fournel, D. Gal-Regniez, S. Gauttier, S. Guicherd, A. Habrard, E. Heidsieck, E. Jouseau, S. Miguet, I. Tkachenko, K. Wang, et P. Wieczorek.