Diverses photos montrant des personnalités politiques ont été partagées sur les plateformes de médias sociaux récemment, créant ainsi de la perplexité et une inquiétude quant à la diffusion de fausses nouvelles.
Emmanuel Macron assis sur des tonnes de déchets devant la Tour Eiffel, ou en costume et gilet orange ramassant des ordures lors d’une grève d’éboueurs contre la réforme des retraites, ou encore avec des CRS au milieu des gaz lacrymogènes ou interpellé par les forces de l’ordre… Ces images ont été partagées de nombreuses fois sur les réseaux sociaux. Bien qu’elles soient plus amusantes qu’autre chose en raison de leur absurdité, elles posent des questions sur le réalisme de plus en plus avancé de ces images générées par l’intelligence artificielle (IA) et le risque qu’elles représentent en matière de désinformation.
Ces images sont toutes le fruit de Midjourney, une IA perfectionnée par un laboratoire indépendant américain et lancée initialement en juillet 2022 pour créer des œuvres d’art numériques. Elle fonctionne de la manière suivante : un internaute se connecte sur la plateforme de Midjourney via le réseau social Discord et demande à l’IA de créer une fausse image en lui donnant des indications, par exemple « Emmanuel Macron assis sur un tas de poubelles à Paris ». L’IA puise alors les éléments de détail parmi les milliards d’images authentiques disponibles sur Internet pour réunir ceux qui correspondent à la demande et créer une fausse image.
Des fausses images mettant en scène Barack Obama et Angela Merkel à la plage ou le pape François dans une grosse doudoune blanche circulent également, mais ce sont les fausses images de Donald Trump encerclé par des policiers et se faisant interpeller qui ont vraiment créé la controverse. Eliot Higgins, fondateur de Bellingcat, une ONG spécialisée dans l’investigation en ligne, a demandé ces images à Midjourney et les a publiées sur Twitter avec le message : « Faire des images de Trump en train de se faire arrêter en attendant son arrestation ».
Ces images ont été partagées en masse sur les réseaux sociaux et ont généré des millions de vues. Au fil des partages, leur origine s’est perdue et certaines personnes ont cru qu’il s’agissait de véritables photos d’arrestation de Donald Trump. Ce qui a commencé comme une plaisanterie est vite devenue une source de désinformation.
Pour l’instant, il est encore possible de détecter des incohérences dans les images créées par une IA comme Midjourney en observant les détails et les arrière-plans, par exemple des ombres manquantes, des objets flous ou des lignes incurvées. Cependant, Annalisa Verdoliva, professeure à l’université Frédéric-II de Naples, met en garde contre le fait que ces indices visuels risquent de disparaître au fur et à mesure que les IA s’améliorent, ce qui rendra la lutte contre la désinformation de plus en plus difficile.
Outre les enjeux liés à la désinformation, ces IA soulèvent également des questions sur la définition d’une œuvre d’art. En effet, plusieurs fausses images créées par Midjourney ont remporté des prix ou concours artistiques, créant la polémique lorsque leur origine a été révélée. Par ailleurs, l’utilisation d’images créées par Midjourney par des médias pour illustrer des articles sans rémunérer un illustrateur ou un photographe a également suscité des critiques.
Les progrès réalisés par des IA comme Midjourney montrent à quel point il est essentiel de rester vigilant quant à l’authenticité des images en ligne pour lutter contre la désinformation et les tentatives de manipulation.