Deepfake : Christiane Taubira et les élus ultramarins, nouvelles cibles des escrocs au Bitcoin
France-Antilles Téléchargez l'application France-Guyane Installer

La radio 100% Caraïbes

Deepfake : Christiane Taubira et les élus ultramarins, nouvelles cibles des escrocs au Bitcoin

Rédaction Web - Christophe VERGER
Christiane Taubira et d'autres personnalités politiques des Outre-mer ont été victimes d'usurpation d'identité en utilisant des Deepfake.
Christiane Taubira et d'autres personnalités politiques des Outre-mer ont été victimes d'usurpation d'identité en utilisant des Deepfake. • KARINE SAINT-LOUIS-AUGUSTIN

Une vidéo frauduleuse, créée par intelligence artificielle, montre l'ancienne garde des Sceaux Christiane Taubira promouvant un investissement en cryptomonnaie. Une plainte est en cours de préparation. 

Une vidéo récemment diffusée sur internet a de quoi surprendre : on y voit Christiane Taubira, ancienne ministre de la Justice, vanter avec conviction les mérites d'une plateforme de placement en Bitcoin et promettre des gains mirobolants. Problème : l'ex-ministre n'a jamais tenu ces propos. Son image et sa voix ont été piratées grâce à une technologie de deepfake (hypertrucage), servie par l'intelligence artificielle, pour alimenter une campagne de publicité mensongère. Son avocate a confirmé qu'une plainte était en cours de préparation pour faire cesser cette utilisation frauduleuse de son image.

Christiane Taubira n'est malheureusement pas un cas isolé, et les élus ultramarins semblent particulièrement visés. Gabriel Serville, actuel président de la Collectivité Territoriale de Guyane et ancien député, ainsi que Victorin Lurel, ancien ministre des Outre-mer et ex-président de la Région Guadeloupe, ont déjà été instrumentalisés de la même manière. Leurs images, extraites de discours publics ou de simples photos, ont été recyclées pour apparaître dans de fausses publicités en ligne promouvant des plateformes d'investissement douteuses. Ce modus operandi systématique montre une cible privilégiée : des personnalités connues et crédibles, dont la notoriété est détournée pour abuser la confiance des internautes.

L'IA générative, un outil redoutable au service de l'arnaque

Le mécanisme est toujours le même et terriblement efficace. Il suffit aux escrocs de récupérer une intervention publique, un discours ou une simple photographie. En quelques clics, des logiciels d'IA générative sophistiqués sont capables de simuler avec réalisme les mouvements labiaux, de recréer une voix synthétique presque parfaite et de transformer une prise de parole authentique en un faux plaidoyer financier. Les messages promettent souvent des rendements extraordinaires, jusqu'à 5 500 euros par mois, pour convaincre les victimes potentielles d'investir leur argent sur des plateformes qui ne sont que des coquilles vides.

Ce phénomène n'est pas anecdotique, il est massif et en croissance exponentielle. Selon les données de Chainabuse, la plateforme open-source de signalement des fraudes de TRM Labs, les signalements d'escroqueries basées sur l'IA générative (genAI) ont augmenté de 456 % entre mai 2024 et avril 2025 par rapport à l'année précédente. Les deepfake sont le type d'escroquerie le plus souvent signalé, dominé par les arnaques aux cryptomonnaies. La technique a évolué : après avoir simplement détourné de vraies interviews, les escrocs utilisent désormais des deepfakes en direct de célébrités comme Elon Musk ou Brad Garlinghouse (PDG de Ripple) pour promouvoir directement leurs sites frauduleux. L'analyse de TRM Labs sur une adresse crypto liée à une seule escroquerie deepfake révèle que les arnaqueurs ont reçu au moins 5 millions de dollars entre mars 2024 et janvier 2025.

Les signalements d'escroqueries basées sur l'IA générative ont augmenté de 456% entre mai 2024 et avril 2025 par rapport à l'année précédente.
Les signalements d'escroqueries basées sur l'IA générative ont augmenté de 456% entre mai 2024 et avril 2025 par rapport à l'année précédente. • Shutterstock - Copyright (c)

Comment se protéger face à la menace des deepfake ?

Face à cette menace d'une sophistication inédite, la prévention et la vigilance sont les premières armes. Les experts en cybersécurité rappellent les bonnes pratiques : 

- Vérifier la source : un contenu spectaculaire ou une promesse de gain trop belle doit immédiatement susciter le doute.

- Recouper l'information : la déclaration attribuée à une personnalité est-elle reprise par des médias traditionnels et officiels ?

- Signaler systématiquement : toute vidéo ou publicité suspecte doit être signalée aux plateformes (YouTube, Facebook, etc.) pour demander son retrait.

D'un point de vue juridique, en cas d'usurpation, la personne concernée peut déposer plainte pour atteinte à l'image, diffamation ou escroquerie. Elle peut également solliciter en urgence un juge pour ordonner le retrait des contenus. Alors que les deepfakes en direct rendent la détection de plus en plus difficile, la sensibilisation du public et le renforcement du cadre juridique constituent les deux piliers indispensables pour lutter contre ce fléau numérique.

Édition spéciale :
Rétro 2025

Revivez toute l'actualité marquante de la Martinique

Voir la boutique

Suivez l'info en temps réel
sur l'appli France-Guyane!

Télécharger