Deepfake : définition, dangers et comment le reconnaître
De 500 000 fichiers en 2023 à 8 millions en 2025 : la croissance des deepfakes sur internet est tout simplement vertigineuse. Le 27 avril 2026, la Banque de France a même dû lancer une alerte officielle après la diffusion de fausses vidéos du gouverneur François Villeroy de Galhau. Ces contenus générés par intelligence artificielle ne relèvent plus de la science-fiction : ils sont devenus une arme cybercriminelle qui a déjà coûté 863 millions d'euros aux entreprises en 2025. Mais qu'est-ce qu'un deepfake exactement, comment fonctionne-t-il et comment le reconnaître avant de se faire piéger ? Voici ce que vous devez savoir.
Qu'est-ce qu'un deepfake ?
Un deepfake est un contenu — vidéo, image ou audio — généré ou modifié par intelligence artificielle pour faire dire ou faire faire à quelqu'un quelque chose qu'il n'a jamais dit ou fait. Le résultat est suffisamment réaliste pour tromper un œil non averti.
D'où vient le mot ?
Le terme « deepfake » est une contraction de « deep learning » (apprentissage profond, une branche de l'IA) et de « fake » (faux). Il est apparu en 2017 sur le forum Reddit, où un utilisateur du même pseudonyme partageait des vidéos truquées de célébrités. Depuis, le mot s'est imposé comme l'équivalent d'« hypertrucage » dans la presse francophone.
Comment ça fonctionne ?
Sous le capot, deux familles d'algorithmes dominent :
- Les réseaux antagonistes génératifs (GAN) : deux IA s'affrontent. La première génère un faux contenu, la seconde tente de le détecter. À chaque round, le générateur apprend à mieux tromper le détecteur. Au bout de millions d'itérations, le résultat devient quasi indistinguable du réel.
- Les autoencodeurs variationnels : ils apprennent à compresser un visage ou une voix dans une représentation mathématique, puis à le reconstituer dans un autre contexte (autre éclairage, autre expression, autres mots).
Concrètement, pour produire un deepfake d'une personne, il suffit aujourd'hui de quelques secondes d'audio et quelques photos. Des outils grand public proposent même la conversion en temps réel pendant un appel vidéo.
Les 3 grandes familles de deepfakes
Deepfake vidéo
Le format le plus connu. L'IA superpose le visage d'une cible sur une vidéo source, en synchronisant les expressions, le regard et les lèvres. C'est ce qui a été utilisé contre la Banque de France : de fausses interviews du gouverneur ont été diffusées sur les réseaux sociaux pour orienter les épargnants vers des sites frauduleux.
Deepfake audio (clonage vocal)
Le voice cloning ou clonage vocal est aujourd'hui la menace qui progresse le plus vite. Trois secondes de voix peuvent suffire à reproduire le timbre d'une personne. C'est l'arme privilégiée des arnaques au faux président, où un faux dirigeant appelle son comptable pour ordonner un virement urgent.
D'après une étude récente, 37 % des professionnels de la fraude ont déjà rencontré un cas de deepfake vocal. C'est désormais le premier canal d'arnaque par IA.
Deepfake image (visages synthétiques)
Les visages 100 % synthétiques générés par des modèles comme StyleGAN servent à créer de faux profils sur les réseaux sociaux ou de faux justificatifs d'identité. Ils alimentent les fraudes à l'identité synthétique, particulièrement utilisées pour ouvrir des comptes bancaires fictifs.
Pourquoi les deepfakes explosent en 2026
La démocratisation des modèles d'IA
Il y a cinq ans, produire un deepfake convaincant exigeait une carte graphique haut de gamme et plusieurs jours de calcul. En 2026, n'importe qui peut générer une vidéo synthétique en quelques minutes via une application mobile ou un service en ligne, parfois gratuitement.
Un coût de production en chute libre
Là où une fraude au président traditionnelle nécessitait du repérage, du social engineering et un phoning d'acteur, un deepfake vocal s'achète aujourd'hui pour quelques dizaines d'euros sur le dark web. Le retour sur investissement pour les cybercriminels est massif.
Une menace qui pèse 863 millions d'euros
Selon les chiffres consolidés en mars 2026, les attaques exploitant un deepfake ont coûté plus de 863 millions d'euros aux organisations en 2025. Et ce chiffre ne couvre que les pertes déclarées : la réalité est probablement très supérieure, car les victimes (entreprises et particuliers) communiquent rarement.
Les arnaques au deepfake les plus courantes
L'arnaque au dirigeant (CEO fraud)
Un comptable reçoit un appel vidéo de son PDG. Visage, voix, ton : tout est conforme. Le « PDG » lui demande un virement urgent vers un compte étranger, prétexte une acquisition confidentielle. Le comptable s'exécute. Plusieurs entreprises françaises ont déjà perdu plusieurs millions d'euros sur ce schéma en 2024-2025.
L'usurpation de figures d'autorité
C'est la mécanique de l'arnaque ciblée par la Banque de France et l'ACPR le 27 avril 2026. Les fraudeurs ont diffusé des deepfakes du gouverneur François Villeroy de Galhau et de la sous-gouverneure Emmanuelle Assouan recommandant de prétendus produits financiers. Cible privilégiée : les épargnants de plus de 50 ans, plus crédules face aux contenus diffusés sur les réseaux sociaux.
Le faux proche en détresse
Variante particulièrement cynique : un parent reçoit un appel de son enfant en pleurs, avec sa voix exacte, prétendant être en danger et avoir besoin d'argent immédiatement. Le clonage vocal a transformé cette arnaque ancienne en piège quasi infaillible.
La fraude à l'identité synthétique
Un visage généré par IA + de fausses informations cohérentes = un compte bancaire ouvert, une carte de crédit obtenue, un crédit décaissé. 46 % des professionnels de la lutte anti-fraude ont rencontré ce type d'attaque.
Comment reconnaître un deepfake
Mauvaise nouvelle : les indices visuels classiques (yeux fixes, contours du visage flous, scintillement) disparaissent. Les modèles 2026 produisent des visages stables, cohérents, sans les défauts qui trahissaient les premiers deepfakes. Mais quelques pistes restent utiles.
Les indices visuels qui restent (mais s'effacent)
- Peau trop lisse ou répétitive : la peau réelle a des irrégularités, des pores, des micro-rougeurs
- Microexpressions désynchronisées : sourcils, joues, paupières ont des temporisations légèrement faussées
- Éclairage incohérent entre le visage et le décor
- Cheveux et bijoux : encore mal gérés par les modèles, souvent flous ou instables
- Reflets dans les yeux qui ne correspondent pas à l'environnement
Les indices audio
- Cadence trop régulière sans hésitations naturelles
- Souffle absent entre les phrases
- Bruit de fond inexistant ou répétitif
- Tonalités émotionnelles plates : la voix synthétique peine encore à transmettre des émotions complexes
Les indices contextuels (les plus fiables)
C'est ici qu'il faut concentrer votre vigilance. Méfiez-vous systématiquement dès que vous repérez :
- Une demande urgente ou inhabituelle
- Un changement de canal (« appelle-moi sur ce numéro », « envoie sur cette adresse »)
- Une information confidentielle demandée hors procédure
- Une promesse trop belle : rendement garanti, héritage inattendu, opportunité « exclusive »
- Une émotion forte sollicitée (peur, urgence, opportunisme)
Les outils de détection grand public
Plusieurs services permettent aujourd'hui de tester un contenu suspect :
- Intel FakeCatcher : analyse les micro-variations de flux sanguin sur le visage
- Sensity AI et Reality Defender : détection multi-modale vidéo + audio (orientés professionnels)
- Modulate.ai : spécialisé dans la voix synthétique
Aucun n'est parfait : la course entre génération et détection reste serrée.
Comment se protéger au quotidien
Le mot de passe verbal en famille
Convenez en famille d'un mot de passe oral connu de tous, à exiger en cas d'appel suspect. Aucune IA ne pourra le fournir. Cette parade simple bloque la majorité des arnaques au faux proche.
Le réflexe « double canal »
Toute demande sensible reçue par un canal (appel, SMS, mail) doit être confirmée sur un autre canal que vous initiez vous-même : rappeler la personne sur un numéro connu, vérifier sur le site officiel, croiser avec une source indépendante. Ne réutilisez jamais un numéro fourni dans le message suspect.
Vérifier la source officielle
Pour les institutions, allez directement sur le site officiel plutôt que de cliquer sur un lien reçu. Si le gouverneur de la Banque de France recommande un produit financier sur Instagram, c'est forcément faux : la BdF ne fait pas de promotion de produits financiers.
Limiter l'exposition de votre voix et de votre image
Plus vous publiez de vidéos longues, plus vous fournissez de la matière première aux IA génératives. Pour les profils exposés (chefs d'entreprise, élus, célébrités), c'est un véritable risque qu'il faut intégrer dans la communication.
Le cadre légal en France
La loi SREN et le délit de deepfake
La loi visant à sécuriser et réguler l'espace numérique (SREN) de 2024 a créé un délit spécifique : la diffusion d'un deepfake non consenti, notamment à caractère sexuel, est passible d'un à deux ans de prison et 45 000 à 60 000 euros d'amende. Le RGPD complète ce dispositif sur le volet image et données biométriques.
Que faire si vous êtes victime ?
Si vous découvrez un deepfake vous mettant en scène :
- Conservez les preuves (captures, URL, dates) sans interagir avec le contenu
- Signalez la plateforme via son outil de modération
- Déposez plainte au commissariat ou à la gendarmerie
- Signalez sur internet-signalement.gouv.fr
- Contactez cybermalveillance.gouv.fr pour un accompagnement
Si l'arnaque a abouti à une perte financière, prévenez immédiatement votre banque et déposez plainte avant d'engager une demande de remboursement.
En résumé
Le deepfake n'est plus un gadget de laboratoire : c'est une menace cyber industrialisée qui touche désormais aussi bien les grands groupes (CEO fraud) que les particuliers (fausses voix de proches, arnaques aux figures d'autorité). En 2026, les indices visuels classiques ne suffisent plus à les détecter. La meilleure défense reste comportementale : double canal de vérification, mot de passe verbal, méfiance face à toute urgence inhabituelle.
L'alerte de la Banque de France du 27 avril 2026 le rappelle : aucune institution sérieuse ne vous recommandera un produit financier via une vidéo postée sur les réseaux sociaux. Si l'offre paraît trop belle, elle ne l'est jamais.
Pour aller plus loin
- 🔗 Plan cyber de l'État — la réponse politique aux menaces IA