L’IA utilisée pour créer des deepfakes politiques plutôt que pour des cyberattaques

Les « deepfakes » produits par l’intelligence artificielle (IA) qui imitent les personnalités politiques et les superstars sont beaucoup plus répandus que les cyberattaques assistées par l’IA, selon une étude révolutionnaire réalisée par la division DeepMind de Google. Cette étude constitue la première tentative de DeepMind de quantifier les utilisations malveillantes les plus courantes de la technologie de pointe de l’IA.

L’étude a révélé que l’élaboration de photos, de vidéos et de sons réalistes mais falsifiés de statistiques publiques est presque deux fois plus fréquente que l’utilisation abusive suivante de l’IA générative : la création de fausses informations à l’aide d’outils textuels tels que les chatbots pour diffuser des informations erronées sur le web. L’objectif premier de ceux qui utilisent abusivement les outils d’IA générative est toujours d’influencer l’opinion publique, une tendance qui représente 27 % des cas évalués. Cette localisation amplifie les inquiétudes quant à l’impact que pourraient avoir les deepfakes sur les élections dans le monde.

Au cours des dernières semaines, des deepfakes du Premier ministre britannique Rishi Sunak et d’autres dirigeants mondiaux ont circulé sur des programmes tels que TikTok, X (anciennement Twitter) et Instagram. Ces incidents ont suscité des inquiétudes quant à l’influence possible sur les électeurs, en particulier à l’approche des élections législatives au Royaume-Uni. Malgré les efforts déployés par les plateformes de médias sociaux pour étiqueter ou supprimer ces articles, on craint que le public ne reconnaisse pas ces « deepfakes » comme étant faux, agence SEO ce qui pourrait influencer l’opinion des électeurs.

Ardi Janjeva, chercheur associé à l’Alan Turing Institute, a présenté les conclusions importantes de l’étude selon lesquelles les articles générés par l’IA et contaminant des informations librement accessibles pourraient « fausser notre compréhension collective de la réalité sociopolitique ». M. Janjeva a fait remarquer que même si l’impact immédiat des « deepfakes » sur le comportement électoral est incertain, les risques à long terme pour la démocratie sont considérables.

Cette recherche menée par DeepMind, sous la direction de Sir Demis Hassabis, s’inscrit dans le cadre d’un travail acharné visant à évaluer les risques associés aux outils d’IA générative, qui ont été rapidement mis au point et diffusés par les grandes entreprises technologiques à la recherche de revenus. Alors que des ressources telles que ChatGPT d’OpenAI et Gemini de Google sont de plus en plus répandues, les entreprises d’IA surveillent progressivement la diffusion de fausses informations et d’autres contenus nuisibles ou contraires à l’éthique créés par leurs technologies.

En mai, OpenAI a publié une étude indiquant que des entités associées à la Russie, à l’Asie, à l’Iran et à Israël avaient utilisé ses outils pour produire et diffuser de la désinformation. Nahema Marchal, auteur principal de l’étude de DeepMind, a déclaré : « Il y a eu beaucoup d’inquiétudes compréhensibles concernant des cyberattaques vraiment sophistiquées facilitées par ces outils. En revanche, ce que nous avons vu, ce sont des utilisations abusives assez courantes de la GenAI [comme les deepfakes] qui pourraient passer un peu plus inaperçues ».

Des experts de Google DeepMind et de Jigsaw ont analysé environ 200 incidents d’utilisation abusive de l’IA entre janvier 2023 et mars 2024. Ces situations provenaient des plateformes de médias sociaux By et Reddit, ainsi que de blogs en ligne et de revues de presse. L’évaluation a montré que la plupart des cas d’utilisation abusive impliquaient des outils facilement accessibles, nécessitant une expertise spécialisée minimale, permettant ainsi à une plus grande sélection de mauvais acteurs célèbres d’exploiter l’IA générative.

Le deuxième motif le plus courant d’utilisation abusive de l’IA était le gain économique. Il s’agissait notamment de fournir des services pour créer des « deepfakes », de créer des représentations nues de personnes réelles ou d’utiliser l’IA pour produire d’énormes volumes de contenu, comme de faux articles d’information.

Les résultats de la recherche de DeepMind auront une incidence sur la manière dont l’organisation améliore ses évaluations pour vérifier la sécurité de base des versions de l’IA. Il est à espérer que cette étude déterminera également la manière dont les concurrents et les autres parties prenantes perçoivent et abordent les inconvénients associés à l’IA générative.

La technologie de l’IA évoluant constamment, il est essentiel de comprendre et d’atténuer ses utilisations néfastes. L’étude de DeepMind éclaire le paysage actuel de l’utilisation abusive de l’IA, soulignant la nécessité de prendre des mesures énergiques pour protéger l’opinion publique et les processus démocratiques contre les impacts potentiellement considérables des deepfakes et de la désinformation produits par l’IA.