L’IA et les deepfakes politiques : une menace pour les élections


Les « deepfakes » créés par l’intelligence artificielle (IA) qui imitent des personnalités politiques et des célébrités sont beaucoup plus répandus que les cyberattaques assistées par l’IA, selon une étude révolutionnaire réalisée par la division DeepMind de Google. Cette étude marque la première tentative de DeepMind de quantifier les utilisations malveillantes les plus courantes de la technologie de pointe de l’IA.

L’analyse a révélé que l’élaboration de photos, de vidéos et de sons réalistes mais falsifiés de statistiques publiques est presque deux fois plus fréquente que la deuxième utilisation abusive de l’IA générative : la création de fausses informations à l’aide de ressources textuelles telles que les robots de conversation pour diffuser des informations erronées sur l’internet. L’objectif principal de ceux qui utilisent abusivement les outils d’IA générative est d’influencer l’opinion publique, une tendance qui représente 27 % des cas examinés. Cette localisation amplifie les questions relatives à l’impact que les « deepfakes » pourraient avoir sur les élections à l’échelle mondiale.

Ces dernières semaines, des deepfakes du Premier ministre britannique Rishi Sunak et d’autres leaders mondiaux ont été diffusés sur des systèmes tels que TikTok, X (anciennement Twitter) et Instagram. Ces incidents ont suscité des inquiétudes quant à l’influence qu’ils pourraient avoir sur les électeurs, en particulier à l’approche des élections générales en Grande-Bretagne. Malgré les efforts déployés par les plateformes de médias sociaux pour étiqueter ou supprimer ce type de contenu, on craint que le public ne reconnaisse pas ces « deepfakes » comme étant faux, ce qui pourrait influencer l’opinion des électeurs.

Ardi Janjeva, chercheur associé à l’Alan Turing Institute, a souligné la conclusion importante de l’étude selon laquelle les contenus générés par l’IA qui contaminent des informations librement accessibles pourraient « fausser notre compréhension collective de la réalité sociopolitique ». M. Janjeva a fait remarquer que même si l’impact immédiat des « deepfakes » sur le comportement électoral est incertain, agence seo Lille les risques à long terme pour la démocratie sont considérables.

Cette étude de DeepMind, dirigée par Sir Demis Hassabis, s’inscrit dans le cadre d’un travail d’évaluation des risques associés aux ressources génératives de l’IA, qui ont été rapidement développées et diffusées par de grandes entreprises technologiques à la recherche de profits. Alors que des outils tels que ChatGPT d’OpenAI et Gemini de Google sont de plus en plus répandus, les entreprises d’IA surveillent de plus en plus la diffusion de fausses informations ainsi que d’autres articles nuisibles ou contraires à l’éthique créés par leurs technologies.

En mai, OpenAI a publié une étude indiquant que des entités associées à la Russie, à l’Extrême-Orient, à l’Iran et à Israël ont utilisé ses outils pour produire et diffuser de la désinformation. Nahema Marchal, auteur principal de l’étude de DeepMind, a déclaré : « Il y a eu beaucoup d’inquiétudes compréhensibles concernant les cyberattaques vraiment sophistiquées facilitées par ces outils puissants. En revanche, ce que nous devrions voir, ce sont des utilisations abusives assez courantes de la GenAI [y compris les deepfakes qui] pourraient peut-être passer un peu plus inaperçues ».

Les chercheurs des moteurs de recherche DeepMind et Jigsaw ont examiné environ 200 incidents d’utilisation abusive de l’IA entre janvier 2023 et mars 2024. Ces incidents provenaient des plateformes de réseaux sociaux X et Reddit, ainsi que de blogs sur l’internet et d’articles de presse. L’évaluation a montré que la plupart des cas d’utilisation abusive impliquaient des outils facilement accessibles, nécessitant une expertise technologique minimale, permettant ainsi à une plus grande variété de mauvais acteurs célèbres d’utiliser l’IA générative.

Le deuxième motif le plus fréquent d’utilisation abusive de l’IA est le gain économique. Il s’agissait notamment de fournir des services permettant de générer des « deepfakes », de produire des représentations nues de personnes réelles ou d’utiliser l’IA pour produire de gros volumes de contenu, notamment de faux articles de presse.

Les conclusions de l’enquête de DeepMind auront une incidence sur la manière dont l’organisation améliore ses évaluations des modèles d’IA en matière de sécurité. On espère que cette étude influencera également la manière dont la concurrence et d’autres parties prenantes perçoivent et abordent les inconvénients liés à l’IA générative.

Alors que la technologie de l’IA continue d’évoluer, il est essentiel de comprendre et d’atténuer ses utilisations malveillantes. La recherche de DeepMind éclaire le paysage actuel de l’utilisation abusive de l’IA, soulignant la nécessité de prendre des mesures énergiques pour protéger l’opinion publique et les procédures démocratiques des effets potentiellement considérables des deepfakes et de la désinformation créés par l’IA.