Deepfakes politiques : la menace principale de l’IA malveillante

Les « deepfakes » produits par l’intelligence artificielle (IA) qui imitent les personnalités politiques et les superstars sont beaucoup plus répandus que les cyberattaques assistées par l’IA, d’après une étude révolutionnaire de la division DeepMind de Google. Cette étude marque la première tentative de DeepMind de quantifier les utilisations malveillantes les plus courantes de la technologie de pointe de l’IA.

L’étude a révélé que l’élaboration d’images, de vidéos et de sons réalistes mais faux de numéros publics est presque deux fois plus fréquente que l’utilisation abusive suivante de l’IA générative : la création de fausses informations à l’aide de ressources textuelles telles que les robots de conversation pour diffuser des informations erronées sur l’internet. L’objectif principal de ceux qui utilisent abusivement les outils d’IA générative est d’influencer l’opinion publique, une tendance qui représente 27 % des cas évalués. Cette découverte amplifie les questions relatives à la manière dont les « deepfakes » pourraient affecter les élections dans le monde entier.

Ces dernières semaines, des deepfakes du Premier ministre britannique Rishi Sunak et d’autres dirigeants internationaux ont circulé sur des plateformes telles que TikTok, X (anciennement Twitter) et Instagram. Ces incidents ont suscité des inquiétudes quant à l’influence potentielle sur les électeurs, en particulier à l’approche des élections législatives en Grande-Bretagne. Malgré les efforts déployés par les systèmes de médias sociaux pour marquer ou éliminer ces articles, on craint que le public ne reconnaisse pas ces « deepfakes » comme étant faux, ce qui pourrait influencer l’opinion des électeurs.

Ardi Janjeva, chercheur associé à l’Alan Turing Institute, a souligné l’importance des conclusions de l’étude selon lesquelles les contenus générés par l’IA qui contaminent les informations librement accessibles pourraient « fausser notre compréhension collective de la vérité sociopolitique ». M. Janjeva a fait remarquer que même si l’impact immédiat des « deepfakes » sur le comportement électoral n’est pas certain, les risques à long terme pour la démocratie sont considérables.

Les recherches menées par DeepMind, sous la direction de Sir Demis Hassabis, s’inscrivent dans le cadre d’un effort visant à évaluer les risques associés aux ressources génératives de l’IA, qui ont été rapidement développées et diffusées par les grandes entreprises technologiques à la recherche de revenus. À mesure que des équipements tels que ChatGPT d’OpenAI et Gemini de Google se répandent, SEO Agence les entreprises d’IA surveillent de plus en plus la diffusion de fausses informations ainsi que d’autres articles nuisibles ou contraires à l’éthique créés par leurs technologies.

En mai, OpenAI a publié une étude indiquant que des entités associées à la Russie, à la Chine, à l’Iran et à Israël avaient utilisé ses outils pour créer et diffuser de la désinformation. Nahema Marchal, auteur principal de l’étude de DeepMind, a déclaré : « Les cyberattaques très sophistiquées facilitées par ces outils ont suscité beaucoup d’inquiétudes compréhensibles. En revanche, ce que nous avons vu, ce sont des utilisations abusives assez courantes de la GenAI [comme les deepfakes] qui pourraient passer un peu plus inaperçues.

Les experts de Yahoo DeepMind et de Jigsaw ont examiné environ 200 incidents d’utilisation abusive de l’IA entre janvier 2023 et mars 2024. Ces incidents provenaient des plateformes de médias sociaux By et Reddit, ainsi que de blogs et de documents médiatiques sur internet. L’analyse a montré que la plupart des cas d’utilisation abusive impliquaient des outils facilement accessibles, nécessitant une expertise spécialisée minimale, permettant ainsi à une plus grande variété de mauvais acteurs célèbres d’exploiter l’IA générative.

Le deuxième motif le plus fréquent d’utilisation abusive de l’IA est le gain monétaire. Il s’agissait notamment de fournir des services pour créer des « deepfakes », de créer des représentations nues de personnes réelles ou d’utiliser l’IA pour produire de gros volumes de contenu, comme de faux articles d’information.

Les résultats de la recherche de DeepMind influenceront la manière dont l’entreprise améliore ses évaluations pour vérifier la sécurité des modèles d’IA. On espère que cette enquête influencera également la manière dont les rivaux et les autres parties prenantes perçoivent et traitent les inconvénients associés à l’IA générative.

Alors que la technologie de l’IA continue d’évoluer, il est essentiel de comprendre et d’atténuer ses utilisations néfastes. Les recherches de DeepMind éclairent le paysage actuel de l’utilisation abusive de l’IA et soulignent la nécessité de prendre des mesures énergiques pour protéger l’opinion publique et les procédures démocratiques contre les effets potentiellement considérables des deepfakes et de la désinformation générés par l’IA.