Bitget App
Trade smarter
Acheter des cryptosMarchésTradingFuturesBotsEarnCopy
Ne vous fiez pas à vos yeux : comment les deepfakes sontdefiArnaques liées aux cryptomonnaies

Ne vous fiez pas à vos yeux : comment les deepfakes sontdefiArnaques liées aux cryptomonnaies

MPOSTMPOST2025/07/08 05:55
Par:MPOST

En bref Les escroqueries deepfake basées sur l'IA générative ont augmenté de 456 % entre 2024 et 2025, alimentant une fraude sophistiquée aux cryptomonnaies qui exploite la confiance avec des textes, des vidéos et des voix presque parfaits, rendant la détection et la prévention de plus en plus critiques.

Selon la plateforme Chainabuse de TRM Labs, les incidents impliquant des outils d'intelligence artificielle générative (genAI) ont augmenté de un chiffre stupéfiant de 456 % entre mai 2024 et avril 2025 , par rapport à l'année précédente, qui avait déjà enregistré une hausse de 78 % entre 2022 et 23. Ces statistiques témoignent d'un changement radical dans la manière dont les acteurs malveillants exploitent les technologies de pointe pour commettre des fraudes.

Les outils GenAI permettent désormais de créer des textes, des images, des fichiers audio et même des vidéos en direct quasi parfaits. Les escrocs exploitent cette capacité à grande échelle, produisant des contenus aussi variés que des deepfakes de soutien à des célébrités ou des appels d'hameçonnage générés par l'IA. Dans cet article, nous nous penchons sur les principales tendances, méthodes et cas concrets qui façonnent l'inquiétante interaction entre les deepfakes IA et la fraude aux cryptomonnaies.

Les deepfakes représentaient 40 % des escroqueries liées aux cryptomonnaies en 2024

En 2024, La technologie deepfake était responsable de 40 % de toutes les fraudes cryptographiques de grande valeur , selon un rapport Bitget co-écrit avec Slowmist et Elliptic. La même année, le secteur des cryptomonnaies a vu 4.6 milliards de dollars disparaître à cause d'escroqueries, soit une augmentation de 24 % par rapport à l'année précédente.

Le rapport de Bitget décrit ce nouveau paysage comme un environnement où « les escroqueries exploitent la confiance et la psychologie autant que la technologie ». Les résultats suggèrent que l'ingénierie sociale, la tromperie par l'IA et les faux projets ont collectivement propulsé la fraude aux cryptomonnaies dans une ère entièrement nouvelle.

L'Elon Musk

Une tactique récurrente de deepfake consistait à se faire passer pour des personnalités de premier plan, comme Elon Musk. Les escrocs utilisaient des vidéos réalistes d'Elon Musk pour promouvoir des investissements frauduleux ou de faux cadeaux. Ces visuels étaient suffisamment convaincants pour tromper les investisseurs chevronnés comme les utilisateurs réguliers.

Les deepfakes peuvent être utilisés pour contourner les protocoles de connaissance du client (KYC), usurper l'identité de dirigeants dans des projets frauduleux et manipuler des réunions Zoom. Certains escrocs se font passer pour des journalistes ou des cadres pour attirer leurs victimes dans des appels vidéo et obtenir des informations sensibles comme des mots de passe ou des clés de chiffrement.

Vieilles arnaques, nouveaux visages

Si l'arnaque deepfake d'Elon Musk a commencé à se faire connaître en 2022, son évolution témoigne d'une tendance plus large : l'IA rend désormais les fraudes courantes plus difficiles à repérer. Même les responsables gouvernementaux l'ont remarqué. En mars 2025, les États-Unis ont adopté la loi bipartite Take It Down Act pour protéger les victimes de la pornographie deepfake – une étape importante dans la politique en matière d'IA, même si les deepfakes utilisés dans les escroqueries restent largement non réglementés.

La prévalence des deepfakes IA dépasse largement les frontières américaines. En octobre 2024, les autorités de Hong Kong ont démantelé une arnaque sentimentale utilisant des deepfakes qui incitait les victimes à investir dans des cryptomonnaies frauduleuses. Des avatars générés par l'IA créaient de faux liens affectifs avec leurs victimes avant de les attirer vers des opportunités d'investissement à haut risque.

Les réseaux sociaux inondés de fausses recommandations

L'IA favorise également une montée en puissance de la désinformation sur les réseaux sociaux. Des bots dotés de la technologie genAI inondent les timelines de fausses recommandations de produits et de récits coordonnés autour de jetons spécifiques. Ces bots, conçus pour ressembler à de vraies personnes ou à des influenceurs, créent un sentiment de crédibilité et d'urgence, poussant les utilisateurs peu méfiants à escroquer des jetons ou à recourir à des systèmes de « pump-and-dump ».

L'essor des arnaques au service client basées sur l'IA ajoute une couche supplémentaire. Des chatbots IA sophistiqués se font désormais passer pour des agents de support de plateformes d'échange ou de portefeuilles cryptographiques légitimes. Leurs conversations sont étrangement humaines, incitant les utilisateurs à divulguer des informations sensibles comme leurs clés privées ou leurs identifiants de connexion.

En mai 2025, l'acteur Jamie Lee Curtis a publiquement critiqué le PDG de Meta, Mark Zuckerberg Après avoir découvert une fausse publicité à son effigie utilisée pour promouvoir un produit non autorisé, cet incident a mis en évidence la facilité avec laquelle l'IA peut exploiter la confiance du public et manipuler les réputations.

Le PDG de Bitget, Gracy Chen, l'a bien résumé : « La plus grande menace pour la crypto aujourd'hui n'est pas la volatilité, c'est la tromperie. »

Deuxième et troisième plus dangereux : l'ingénierie sociale et les escroqueries à la Ponzi

Alors que les deepfakes occupaient la première place dans la liste des menaces de Bitget, l'ingénierie sociale et les systèmes de Ponzi numériques n'étaient pas loin derrière.

L'ingénierie sociale, décrite comme « basique mais très efficace », repose sur la manipulation psychologique. Une arnaque courante, celle du boucher de porc, consiste à nouer des relations, souvent romantiques, pour instaurer la confiance avant de voler des fonds.

Parallèlement, les escroqueries Ponzi traditionnelles ont connu une « évolution numérique ». Elles sont désormais masquées par des concepts à la mode tels que DeFi, NFTs et GameFi. On promet aux victimes des rendements lucratifs grâce à des plateformes d’extraction de liquidités ou de jalonnement, mais ces configurations restent fondamentalement inchangées : « de l’argent neuf comble les anciens trous ».

Certaines pyramides de Ponzi ont même gamifié leurs plateformes, créant des interfaces utilisateur attrayantes et utilisant des deepfakes pour imiter les recommandations de célébrités. Les applications de messagerie et les diffusions en direct sont utilisées pour propager ces escroqueries, incitant les participants à recruter de nouvelles victimes – une tactique que Bitget appelle « fission sociale ».

« Ne vous fiez pas à vos yeux »

Le rapport de Bitget a mis en lumière ce changement inquiétant : il y a cinq ans, la prévention de la fraude consistait à éviter les liens suspects. Aujourd'hui, le conseil est : « Ne vous fiez pas à vos propres yeux. »

Les outils d’IA deviennent extraordinairement puissants et, par conséquent, la distinction entre le vrai et le faux s’amenuise. defiIl s’agit d’un défi évident pour les consommateurs et les régulateurs, qui sont désormais confrontés à un adversaire capable de fabriquer des identités et des histoires complètes dans un laps de temps incroyablement court et avec un degré de précision élevé.

Malgré ces difficultés, Chen de Bitget reste optimiste. Elle souligne que le secteur des cryptomonnaies n'est pas impuissant : « Nous constatons un travail important en matière de détection des deepfakes, et le secteur collabore plus que jamais pour partager des informations et sensibiliser. »

Comment repérer les arnaques cryptographiques alimentées par l'IA

Contrairement aux escroqueries passées qui étaient souvent featured Les fraudes basées sur l'IA, même les plus complexes, sont soignées, personnalisées et généralement exemptes de fautes de frappe ou de liens brisés. Identifier ces escroqueries nécessitera une approche plus sophistiquée :

  • Correspondance des tons:Les messages produits par l’IA peuvent désormais reproduire le langage, le ton et la cadence des influenceurs ou des dirigeants réels, les rendant presque impossibles à distinguer des véritables communications.
  • La vidéo raconte:Dans les vidéos deepfake, recherchez de petites incohérences comme une mauvaise synchronisation labiale ou des clignements d'yeux anormaux, en particulier lors de mouvements rapides.
  • Signaux audio:Méfiez-vous des deepfakes vocaux qui présentent des pauses étranges ou des décalages de ton, car ils peuvent trahir leur caractère artificiel.
  • Vérification croiséeComme pour toute recommandation financière, ne la prenez pas au pied de la lettre. Validez-la auprès de sources vérifiées, comme les profils officiels sur les réseaux sociaux ou les sites web de la personne ou de la marque.

Comment rester en sécurité dans un environnement de menaces piloté par l'IA

Survivre dans ce nouveau monde exige plus que du scepticisme : cela exige une vigilance active et des pratiques de sécurité à plusieurs niveaux :

  • LETTRE D’INFORMATIONSSachez ce que font les escrocs et comment les outils d'IA peuvent être manipulés. La sensibilisation reste la meilleure protection initiale.
  • Vérifiez tout:Quel que soit le type de conseils ou de recommandations financières non sollicités, méfiez-vous. Vérifiez tout auprès de la véritable source.
  • Utiliser les outils de détection: Utilisez des technologies de détection de deepfakes capables de signaler les contenus audio ou vidéo manipulés. Recherchez les anomalies dans les schémas de parole ou les expressions faciales.
  • Sécurisez votre portefeuille:Utilisez la 2FA et ne partagez pas vos clés ou vos identifiants, même avec ce qui est prétendument le « support client ».
  • Exploitez les outils de la blockchainLes entreprises de sécurité développent des plateformes assistées par IA qui surveillent les tendances en matière d'escroquerie dans les transactions blockchain. L'utilisation de paramètres frauduleux permet d'identifier une escroquerie avant qu'elle ne se réalise.
0

Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.

PoolX : Bloquez vos actifs pour gagner de nouveaux tokens
Jusqu'à 12% d'APR. Gagnez plus d'airdrops en bloquant davantage.
Bloquez maintenant !

Vous pourriez également aimer