Vous vous souvenez de la vidéo en mars 2022 montrant le président Volodimir Zelensky en train d’annoncer la reddition de l’Ukraine1 dans la guerre face à la Russie ? Cette vidéo est devenue virale et pourtant elle était entièrement fausse. Il s’agissait d’un deepfake.
Les deepfakes fascinent autant qu’ils inquiètent. Grâce à l’intelligence artificielle, il est aujourd’hui possible de créer des vidéos ultra-réalistes dans lesquelles une personne semble dire ou faire quelque chose qu’elle n’a jamais dit ou fait. Mais comment cela fonctionne-t-il ? Quelles sont les implications ? Et surtout, peut-on encore faire confiance à ce que l’on voit ? On fait le point.
Qu’est-ce qu’un deepfake ?
Le terme deepfake est formé à partir des mots deep learning (apprentissage profond) et fake (faux). Il désigne des contenus truqués, vidéo, audio ou photo générés par des algorithmes d’intelligence artificielle capables d’imiter ou de remplacer de manière réaliste un visage, une voix ou un corps. Ces technologies reposent principalement sur des réseaux neuronaux profonds, en particulier les réseaux antagonistes génératifs (GANs Generative Adversarial Networks), largement utilisés pour la génération d’images et de vidéos. D’autres architectures peuvent être mobilisées selon les cas d’usage, comme les autoencodeurs (notamment dans les premiers deepfakes faciaux), ou encore les modèles de diffusion, plus récents.
Parmi les cas les plus célèbres, on retrouve une vidéo où Barack Obama insulte Donald Trump, diffusée par BuzzFeed à des fins pédagogiques. Autre exemple devenu viral : le faux Tom Cruise de TikTok, créé par l’expert en effets spéciaux Chris Umé. Il a utilisé le visage d’un imitateur, Miles Fisher, pour générer une série de vidéos hyperréalistes. Plus près de nous, l’émission française Hôtel du Temps (France 3) utilise la même technologie pour faire « revivre » à l’écran des personnalités décédées. Le deepfake peut être une vidéo, mais également un audio. Parmi les exemples marquants, on se souvient notamment d’un deepfake où Emmanuel Macron fait la promotion d’une cryptomonnaie frauduleuse.
Dernièrement c’est le célèbre basketteur Lebron James qui a été la victime de Deepfakes le montrant enceint mais également sans abri. Le joueur a d’ailleurs tenu à porter plainte contre la plateforme qui a permis la réalisation de ce montage trompeur.
Comment ça fonctionne concrètement ?
Les deepfakes sont générés à l’aide de deux réseaux de neurones artificiels entraînés conjointement. Le premier est un générateur, qui produit des images ou vidéos synthétiques à partir d’un vecteur de bruit aléatoire, et le second, un discriminateur, qui apprend à distinguer ces contenus générés des exemples authentiques. À chaque itération, les performances du discriminateur sont utilisées pour calculer une fonction de perte, permettant d’ajuster les paramètres du générateur. Ce processus d’entraînement progressif améliore la qualité du contenu généré, jusqu’à le rendre visuellement crédible.
L’ensemble forme un réseau antagoniste génératif (GAN, Generative Adversarial Network). Ce modèle repose sur l’apprentissage profond pour extraire automatiquement les caractéristiques visuelles complexes d’un visage humain (expressions, postures, mouvements labiaux, etc.). Une fois entraîné, il est capable de générer des vidéos truquées où le visage, la gestuelle et même la voix peuvent reproduire fidèlement ceux d’une autre personne, au point de devenir indiscernables à l’œil non averti.
Peut-on détecter un deepfake ?
Face à la montée des deepfakes, la recherche s’active pour développer des outils de détection basés sur l’IA. En 2019, Facebook faisant partie des avant-gardistes sur la lutte contre les deepfakes avec la création d’un filtre permettant d’identifier un deepfake même en direct. En 2020, Microsoft a présenté Video Authenticator, un prototype capable d’attribuer un score de confiance à chaque image ou vidéo, indiquant la probabilité d’une manipulation. Pour les vidéos, l’analyse s’effectue image par image, à l’aide de modèles entraînés sur des bases comme FaceForensics++. Bien qu’intéressant, l’outil n’a jamais été diffusé au grand public ni évalué dans des compétitions majeures comme le DFDC. Il reflète toutefois les efforts croissants pour contrer la désinformation visuelle.
Des initiatives comme le Deepfake Detection Challenge, lancé par Facebook, ou des bases de données comme FaceForensics++, aident les chercheurs à entraîner des outils capables de repérer les signes discrets d’une vidéo truquée. Ces systèmes cherchent par exemple des défauts dans les mouvements du visage, la lumière ou les pixels. Mais ils ne sont pas infaillibles, quand la vidéo est floue, très compressée ou de mauvaise qualité, il devient beaucoup plus difficile de détecter une manipulation. Cette difficulté, Hans Farid expert en forensique à l’université américaine de Berkeley en a fait l’expérience :
« Il y a neuf mois, j’étais plutôt doué. Il me suffisait de regarder quelque chose pour savoir presque immédiatement […] Aujourd’hui, je dirais que c’est beaucoup plus difficile », expliquait-il à l’université de Berkeley en septembre 2024.
Aujourd’hui de plus en plus de plateformes se positionnent dans la lutte contre les deepfakes, en proposant des logiciels pour tenter de les identifier. On peut citer notamment Adobe, Microsoft ou encore Intel Fake Checker.
Des initiatives comme la rubrique CheckNews du journal Libération participent à la lutte contre la désinformation amplifiée par l’intelligence artificielle et les deepfakes. Cette cellule de fact-checking, composée de journalistes, vérifie au quotidien les affirmations qui circulent dans les médias et sur les réseaux sociaux, y compris celles signalées par les lecteurs. D’autres rédactions ont mis en place des dispositifs similaires, comme Les Décodeurs du Monde ou Vrai ou Fake de Franceinfo.
Enfin dernier rempart à se penchant sur l’épineuse question des Deepfakes, l’intelligence artificielle. X (ex Twitter) a lancé le 1er juillet un programme expérimental permettant à Grok de laisser ses propres commentaires sous chaque tweet. Une initiative qui rappelle les notes de communautés que pouvaient laisser les utilisateurs sous un tweet pour affirmer ou infirmer un fait. Cette fonctionnalité a d’ailleurs perdu de son influence, depuis l’arrivée de Grok. ChatGPT devrait faire la même chose sur son site web.
Une technologie de plus en plus répandue
Longtemps réservée à quelques experts bien équipés, la création de deepfakes s’est aujourd’hui largement démocratisée. Des logiciels comme DeepFaceLab ou Faceswap sont disponibles en open source, et des applications mobiles comme Reface, Zao ou FaceApp permettent de réaliser en quelques secondes des effets de changement de visage ou de vieillissement très réalistes. Certains outils vont plus loin, en générant des mouvements du visage ou des expressions synchronisées à une simple piste audio.
Pour autant, fabriquer un deepfake réellement convaincant reste un exercice exigeant. Il faut du temps, une carte graphique puissante et de nombreuses données (photos, vidéos, enregistrements vocaux). Les contenus générés trop rapidement présentent souvent des défauts visibles : clignements d’yeux irréguliers, ombres incohérentes, expressions rigides ou artefacts numériques.
D’après un sondage IFOP publié en mars 2024, 69 % des Français déclarent savoir ce qu’est un deepfake. En revanche, seulement 33 % des personnes sondées estiment être capables de repérer une image ou une vidéo générée par l’intelligence artificielle.
Quels sont les risques concrets ?
Les dérives liées aux deepfakes sont déjà bien concrètes. Cette technologie peut servir à fabriquer de fausses déclarations de personnalités publiques, alimenter des campagnes de désinformation ou diffuser de fausses vidéos à but politique ou idéologique. Elle est également utilisée dans la création de contenus pornographiques truqués, en collant le visage de célébrités ou de particuliers sur le corps d’acteurs, sans leur consentement. Une pratique illégale dans plusieurs pays, dont la France.
Plus inquiétant encore, les deepfakes vocaux permettent d’imiter une voix avec un tel réalisme qu’ils ont déjà servi à des escroqueries sophistiquées. En 2021, une entreprise à Hong Kong a ainsi été victime d’une fraude de 35 millions de dollars. L’arnaqueur avait utilisé une voix synthétique pour se faire passer pour un dirigeant et autoriser un transfert bancaire. Danielle Keats Citron professeure en faculté de droit à l’université de Boston et Robert Chesney doyen de la faculté de droit de l’université du Texas se sont penchées sur les répercussions que peuvent avoir les deepfake.
« La technologie Deepfake présente des caractéristiques qui permettent une diffusion rapide et généralisée, la mettant ainsi à la portée d’acteurs sophistiqués comme de novices. […] Les Deepfakes vont exacerber la dégradation de la vérité », analysent- les deux spécialistes du droit.
Quelle régulation face aux deepfakes ?
La législation peine encore à encadrer spécifiquement les deepfakes, même si plusieurs textes permettent de sanctionner certains usages abusifs. En France, l’usurpation d’identité, la diffamation, ou la publication de contenus portant atteinte à l’honneur ou à la vie privée peuvent déjà être poursuivies. Mais il n’existe pas encore de cadre spécifique concernant la création ou la diffusion de deepfakes.
En parallèle, des initiatives indépendantes ou soutenues par des acteurs comme Google via le Google News Initiative tentent de renforcer l’écosystème de la vérification en ligne. Mais ces efforts restent souvent marginaux face à la vitesse de diffusion et à la sophistication croissante des contenus manipulés.
En Europe, l’Union européenne s’empare depuis plusieurs années de la question de la régulation de l’intelligence artificielle et de la désinformation en ligne. Dès 2018, elle a lancé un code de bonnes pratiques sur la désinformation, mis à jour en 2022. Ce cadre encourage les grandes plateformes numériques à adopter des engagements volontaires pour limiter la propagation de contenus trompeurs. Parmi les mesures phares figurent :
- la réduction de la portée ou la suppression des comptes automatisés ou malveillants,
- la transparence sur les publicités politiques,
- le signalement des contenus manipulés,
- une coopération renforcée avec les vérificateurs de faits,
- et la création de bibliothèques publicitaires pour mieux encadrer les campagnes sponsorisées.
La lutte contre les deepfakes figure désormais parmi les priorités du futur AI Act, le règlement européen sur l’intelligence artificielle. Ce texte prévoit notamment l’obligation d’étiquetage clair pour les contenus générés ou modifiés par l’IA (comme les deepfakes), une collaboration structurée avec les principaux acteurs du fact-checking en Europe (AFP Factuel, Les Décodeurs, CheckNews…), ainsi que le soutien à l’éducation aux médias dès l’école, afin de renforcer l’esprit critique face aux contenus numériques. En France et en Europe malgré la grande vigilance de mise les deepfakes restent autorisés tandis qu’aux Etats-Unis, cinq États ont déjà interdit l’utilisation et la publication de deepfakes comme l’explique Bloomberg Law.
Peut-on encore croire ce que l’on voit ?
À l’heure où l’intelligence artificielle permet de falsifier une vidéo avec un réalisme troublant, une question fondamentale se pose : peut-on encore se fier à ce que l’on voit ? Les deepfakes participent à un phénomène plus global, visant à créer la confusion et le trouble dans les esprits. Une manipulation face à laquelle personne n’est à l’abris.
Ces contenus truqués générés par IA, deviennent accessibles à tous. Pourtant, créer une vidéo vraiment convaincante reste complexe et demande des compétences techniques. Les risques sont bien réels : manipulation de l’opinion, usurpation d’identité, arnaques, atteintes à la vie privée. La détection progresse, grâce à des outils spécialisés, mais elle reste en retard face à l’évolution rapide des techniques. Le cadre légal, lui aussi, peine à suivre et appelle des réponses concertées à l’échelle internationale. Et vous que pensez vous des deepfakes ? Donnez-nous votre avis dans les commentaires.
- source : leparisien.fr ↩︎
Certains liens de cet article peuvent être affiliés.