Bitget App
Trading Inteligente
Comprar criptoMercadosTradingFuturosBotsEarnCopy
No confíes en tus ojos: cómo se revelan los deepfakesdefiEstafas de criptomonedas

No confíes en tus ojos: cómo se revelan los deepfakesdefiEstafas de criptomonedas

MPOSTMPOST2025/07/08 05:50
Por:MPOST

En Resumen Las estafas deepfake impulsadas por IA generativa aumentaron un 456 % entre 2024 y 2025, lo que alimenta un fraude de criptomonedas sofisticado que explota la confianza con textos, videos y voces falsos casi perfectos, lo que hace que la detección y la prevención sean cada vez más críticas.

Según la plataforma Chainabuse de TRM Labs, los incidentes que involucran herramientas de inteligencia artificial generativa (genAI) aumentaron un un asombroso 456% entre mayo de 2024 y abril de 2025 , en comparación con el año anterior, que ya había experimentado un aumento del 78 % entre 2022 y 23. Estas estadísticas indican un cambio drástico en la forma en que los delincuentes explotan la tecnología de vanguardia para cometer fraudes.

Las herramientas GenAI ahora pueden crear texto, imágenes, audio e incluso vídeos en directo casi perfectos. Los estafadores están aprovechando esta capacidad a gran escala, produciendo desde deepfakes de celebridades hasta llamadas de phishing generadas por IA. En este artículo, analizamos las principales tendencias, métodos y casos reales que configuran la alarmante intersección de los deepfakes con IA y el fraude de criptomonedas.

Los deepfakes representaron el 40% de las estafas de criptomonedas en 2024

En 2024, La tecnología deepfake fue responsable del 40% de todos los fraudes de criptomonedas de alto valor Según un informe de Bitget, coescrito con Slowmist y Elliptic. Ese mismo año, la industria de las criptomonedas perdió 4.6 millones de dólares debido a estafas, un aumento del 24 % con respecto al año anterior.

El informe de Bitget describió este nuevo panorama como uno en el que «las estafas explotan la confianza y la psicología tanto como la tecnología». Los hallazgos sugieren que la ingeniería social, el engaño con IA y los proyectos falsos han llevado el fraude de criptomonedas a una era completamente nueva.

Elon Musk

Una táctica recurrente de deepfake consistía en suplantar la identidad de figuras de alto perfil, como Elon Musk. Los estafadores utilizaban vídeos realistas de Musk para promocionar inversiones fraudulentas o falsos regalos. Estas imágenes eran lo suficientemente convincentes como para engañar tanto a inversores experimentados como a usuarios habituales.

Los deepfakes pueden usarse para evadir los protocolos de conocimiento del cliente (KYC), suplantar la identidad de líderes en proyectos fraudulentos y manipular reuniones de Zoom. Algunos estafadores se hacen pasar por periodistas o ejecutivos para atraer a sus víctimas a videollamadas y obtener información confidencial como contraseñas o claves criptográficas.

Viejas estafas, caras nuevas

Si bien la estafa de los deepfakes de Elon Musk cobró notoriedad en 2022, su evolución es indicativa de una tendencia más amplia: la IA dificulta la detección de fraudes conocidos. Incluso figuras gubernamentales se han dado cuenta. En marzo de 2025, EE. UU. aprobó la ley bipartidista Take It Down Act para proteger a las víctimas de pornografía deepfake, un hito en la política de IA, aunque los deepfakes utilizados en estafas siguen estando en gran medida sin regular.

La prevalencia de los deepfakes generados por IA trasciende con creces las fronteras estadounidenses. En octubre de 2024, las autoridades de Hong Kong desmantelaron una estafa romántica basada en deepfakes que había engañado a las víctimas para que invirtieran en criptomonedas fraudulentas. Avatares generados por IA crearon vínculos emocionales falsos con las víctimas antes de atraerlas a oportunidades de inversión de alto riesgo.

Las redes sociales se inundan de recomendaciones falsas

La IA también está propiciando un aumento de la desinformación en las plataformas sociales. Bots equipados con tecnología genAI inundan las cronologías con recomendaciones falsas de productos y narrativas coordinadas en torno a tokens específicos. Estos bots, diseñados para simular personas reales o influencers, generan una sensación de credibilidad y urgencia, incitando a usuarios desprevenidos a usar tokens fraudulentos o a participar en esquemas de bombeo y descarga.

El auge de las estafas de atención al cliente basadas en IA añade un nuevo factor. Los sofisticados chatbots de IA se hacen pasar por agentes de soporte de plataformas de intercambio o monederos de criptomonedas legítimos. Sus conversaciones son inquietantemente humanas y engañan a los usuarios para que proporcionen información confidencial como claves privadas o credenciales de inicio de sesión.

En mayo de 2025, el actor Jamie Lee Curtis criticó públicamente al CEO de Meta, Mark Zuckerberg Tras descubrir un anuncio deepfake con su imagen, utilizado para promocionar un producto no autorizado, el incidente puso de relieve la facilidad con la que la IA puede explotar la confianza pública y manipular la reputación.

El director ejecutivo de Bitget, Gracy Chen, lo resumió acertadamente: “La mayor amenaza para las criptomonedas hoy en día no es la volatilidad, sino el engaño”.

El segundo y tercer tipo de estafas más peligrosas: la ingeniería social y las estafas Ponzi

Si bien los deepfakes ocuparon el primer lugar en la lista de amenazas de Bitget, la ingeniería social y los esquemas Ponzi digitales no se quedaron atrás.

La ingeniería social, descrita como "de baja tecnología pero muy efectiva", se basa en la manipulación psicológica. Una estafa común, la del carnicero de cerdos, consiste en que los estafadores forjan relaciones —a menudo románticas— para generar confianza antes de robar fondos.

Mientras tanto, las estafas Ponzi tradicionales han experimentado una "evolución digital". Ahora están camufladas en conceptos de moda como DeFi, NFTs y GameFiA las víctimas se les prometen retornos lucrativos mediante plataformas de minería de liquidez o staking, pero estas configuraciones son fundamentalmente las mismas: "dinero nuevo llena viejos huecos".

Algunos esquemas Ponzi incluso han gamificado sus plataformas, creando interfaces de usuario atractivas y utilizando deepfakes para simular el apoyo de famosos. Se utilizan aplicaciones de mensajería y transmisiones en vivo para propagar estas estafas, animando a los participantes a reclutar nuevas víctimas, una táctica que Bitget denomina «fisión social».

“No confíes en tus ojos”

El informe de Bitget captó el inquietante cambio: hace cinco años, la prevención del fraude consistía en evitar enlaces sospechosos. Hoy, el consejo es: «No confíes en tus propios ojos».

Las herramientas de IA se están volviendo extraordinariamente poderosas y, como resultado, la distinción entre lo real y lo falso es cada vez menor. defiEste es un claro desafío para los consumidores y los reguladores, quienes ahora se enfrentan a un oponente capaz de fabricar identidades e historias completas en un período de tiempo increíblemente corto y con un alto grado de precisión.

A pesar de estos desafíos, Chen de Bitget se mantiene optimista. Enfatizó que el sector de las criptomonedas no está indefenso: «Estamos viendo mucho trabajo en la detección de deepfakes, y la industria está colaborando más que nunca para compartir información y difundir la información».

Cómo detectar estafas de criptomonedas impulsadas por IA

A diferencia de las estafas del pasado que a menudo featured Errores ortográficos o gramaticales. El fraude impulsado por IA es refinado, personalizado y, en su mayoría, libre de errores tipográficos o enlaces rotos. Reconocer estas estafas requerirá un enfoque más sofisticado:

  • Coincidencia de tonosLos mensajes producidos por IA ahora pueden replicar el lenguaje, el tono y la cadencia de personas influyentes o ejecutivos reales, lo que los hace casi indistinguibles de las comunicaciones reales.
  • El video lo cuentaEn los videos deepfake, busque pequeñas inconsistencias como una mala sincronización de labios o parpadeos poco naturales, especialmente durante movimientos rápidos.
  • Señales de audio:Tenga cuidado con los deepfakes de voz que tienen pausas extrañas o desajustes tonales, ya que pueden delatar su artificialidad.
  • Verificación cruzadaAl igual que con todas las recomendaciones financieras, no las tome al pie de la letra. Valídelas mediante fuentes verificadas, como los perfiles oficiales en redes sociales o los sitios web de la persona o marca.

Cómo mantenerse seguro en un panorama de amenazas impulsado por la IA

Sobrevivir en este nuevo mundo requiere algo más que escepticismo: exige vigilancia activa y prácticas de seguridad en capas:

  • Manténgase InformadoConozca qué hacen los estafadores y cómo se pueden manipular las herramientas de IA. La concientización sigue siendo la mejor protección inicial.
  • Verificar todoIndependientemente de los consejos o recomendaciones financieras no solicitados, desconfíe. Verifique todo con la fuente confiable.
  • Utilice herramientas de detección: Emplee tecnologías de detección de deepfakes que puedan identificar audio o video manipulado. Busque errores en los patrones de habla o expresiones faciales.
  • Asegure su billetera:Utilice 2FA y no comparta claves ni inicios de sesión, ni siquiera con lo que supuestamente es "atención al cliente".
  • Aproveche las herramientas de blockchainLas empresas de seguridad están desarrollando plataformas asistidas por IA que monitorean las tendencias de estafas en las transacciones de blockchain. El uso de parámetros fraudulentos permite identificar una posible estafa antes de que tenga éxito.
0

Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.

PoolX: Bloquea y gana nuevos tokens.
APR de hasta 12%. Gana más airdrop bloqueando más.
¡Bloquea ahora!

También te puede gustar