Bitget App
Торгуйте разумнее
Купить криптоРынкиТорговляФьючерсыБотыEarnКопитрейдинг
Не верьте своим глазам: как появляются дипфейкиdefining Крипто Мошенничество

Не верьте своим глазам: как появляются дипфейкиdefining Крипто Мошенничество

MPOSTMPOST2025/07/08 05:45
Автор:MPOST

Коротко Число случаев мошенничества с использованием искусственного интеллекта с использованием глубоких фейков выросло на 456% с 2024 по 2025 год, что подстегнуло изощренное мошенничество с криптовалютами, которое эксплуатирует доверие с помощью почти идеальных поддельных текстов, видео и голосов, что делает обнаружение и предотвращение все более важными.

По данным платформы Chainabuse компании TRM Labs, количество инцидентов с использованием инструментов генеративного искусственного интеллекта (genAI) возросло на ошеломляющие 456% в период с мая 2024 года по апрель 2025 года , по сравнению с предыдущим годом, который уже показал скачок на 78% с 2022 по 23 год. Эти статистические данные указывают на резкий сдвиг в том, как злоумышленники используют передовые технологии для совершения мошенничества.

Инструменты GenAI теперь могут создавать почти идеальный человеческий текст, визуальные эффекты, аудио и даже живое видео. Мошенники используют эту возможность в больших масштабах, производя все: от фейковых одобрений знаменитостей до фишинговых звонков, сгенерированных ИИ. В этой статье мы рассмотрим основные тенденции, методы и реальные случаи, формирующие тревожное пересечение ИИ-глубоких подделок и мошенничества с криптовалютами.

На долю Deepfakes пришлось 40% криптомошенничеств в 2024 году

В 2024 году Технология deepfake стала причиной 40% всех крупных мошенничеств с криптовалютой , согласно отчету Bitget, написанному совместно с Slowmist и Elliptic. В том же году криптоиндустрия потеряла 4.6 млрд долларов из-за мошенничества — на 24% больше, чем в предыдущем году.

В отчете Bitget этот новый ландшафт описывается как тот, где «мошенничество эксплуатирует доверие и психологию в той же степени, что и технологии». Результаты показывают, что социальная инженерия, обман с использованием искусственного интеллекта и поддельные прикрытия проектов в совокупности вывели криптомошенничество на совершенно новый уровень.

Илон Маск

Одна из повторяющихся тактик deepfake включала подражание известным деятелям, таким как Илон Маск. Мошенники использовали реалистичные видео Маска, чтобы продвигать мошеннические инвестиции или фальшивые раздачи. Эти визуальные эффекты были достаточно убедительны, чтобы обмануть как опытных инвесторов, так и обычных пользователей.

Deepfakes можно использовать для обхода протоколов «знай своего клиента» (KYC), выдачи себя за руководство в мошеннических проектах и ​​манипулирования встречами Zoom. Некоторые мошенники выдают себя за журналистов или руководителей, чтобы заманить жертв на видеозвонки и получить конфиденциальную информацию, такую ​​как пароли или криптоключи.

Старые аферы, новые лица

Хотя мошенничество с дипфейками Илона Маска впервые получило известность в 2022 году, его эволюция свидетельствует о более широкой тенденции: теперь ИИ затрудняет обнаружение привычных мошенничеств. Даже правительственные деятели обратили на это внимание. В марте 2025 года США приняли двухпартийный Закон Take It Down Act для защиты жертв дипфейковой порнографии — важная веха в политике в отношении ИИ, хотя дипфейки, используемые в мошенничестве, по-прежнему в значительной степени не регулируются.

Распространенность ИИ-дипфейков простирается далеко за пределы американских границ. В октябре 2024 года власти Гонконга пресекли аферу с использованием дипфейков, которая заставляла жертв инвестировать в мошеннические криптосхемы. Созданные ИИ-аватары создавали фальшивые эмоциональные связи с жертвами, прежде чем заманивать их в высокорисковые «инвестиционные» возможности.

Социальные сети переполнены фейковыми рекомендациями

ИИ также способствует всплеску дезинформации на социальных платформах. Боты, вооруженные технологией genAI, наводняют ленты новостей фейковыми рекомендациями продуктов и скоординированными нарративами вокруг определенных токенов. Эти боты, созданные так, чтобы звучать как реальные люди или влиятельные лица, создают ощущение достоверности и срочности, подталкивая ничего не подозревающих пользователей к мошенническим токенам или схемам pump-and-dump.

Рост числа мошеннических схем поддержки клиентов с использованием искусственного интеллекта добавляет еще один уровень. Сложные чат-боты на основе искусственного интеллекта теперь выдают себя за агентов поддержки законных криптовалютных бирж или кошельков. Их разговоры пугающе человечны, они обманывают пользователей, заставляя их сообщать конфиденциальные данные, такие как закрытые ключи или учетные данные для входа.

В мае 2025 года актер Джейми Ли Кертис публично раскритиковала генерального директора Meta Марка Цукерберга после обнаружения фейковой рекламы с ее изображением, которая использовалась для продвижения несанкционированного продукта. Инцидент подчеркнул, насколько легко ИИ может эксплуатировать общественное доверие и манипулировать репутацией.

Генеральный директор Bitget Грейси Чен удачно подытожила: «Сегодня самая большая угроза криптовалютам — это не волатильность, а обман».

Второе и третье по опасности: социальная инженерия и мошеннические пирамиды

Хотя дипфейки заняли первое место в списке угроз Bitget, социальная инженерия и цифровые финансовые пирамиды не сильно отстают от них.

Социальная инженерия, описываемая как «низкотехнологичная, но высокоэффективная», основана на психологической манипуляции. Одна из распространенных афер, схема «свиной мясник», предполагает, что мошенники формируют отношения — часто романтические — чтобы построить доверие, прежде чем украсть средства.

Тем временем традиционные мошеннические схемы Понци претерпели «цифровую эволюцию». Теперь они маскируются под модные концепции, такие как DeFi, NFTs и GameFi. Жертвам обещают прибыльные доходы за счет майнинга ликвидности или платформ для ставок, но эти схемы в корне не изменились: «новые деньги заполняют старые дыры».

Некоторые схемы Понци даже геймифицировали свои платформы, создавая привлекательные пользовательские интерфейсы и используя deepfakes для имитации одобрения знаменитостей. Приложения для обмена сообщениями и прямые трансляции используются для распространения этих мошенничеств, побуждая участников вербовать новых жертв — тактику, которую Bitget называет «социальным расколом».

«Не верь своим глазам»

Отчет Bitget зафиксировал тревожный сдвиг: пять лет назад предотвращение мошенничества означало избегание подозрительных ссылок. Сегодня совет звучит так: «не верьте своим глазам».

Инструменты ИИ становятся необычайно мощными, и в результате различие между реальностью и подделкой становится все менее заметным. defined. Это явный вызов для потребителей и регулирующих органов, которые теперь сталкиваются с противником, способным фальсифицировать полные идентификационные данные и истории за непостижимо короткий период времени с высокой степенью точности.

Несмотря на эти проблемы, Чэнь из Bitget сохраняет оптимизм. Она подчеркнула, что криптопространство не беспомощно: «Мы видим, что ведется большая работа по обнаружению deepfake, и отрасль сотрудничает больше, чем когда-либо, чтобы делиться разведданными и распространять осведомленность».

Как распознать криптомошенничество с использованием искусственного интеллекта

В отличие от прошлых мошенничеств, которые часто featured орфографические или грамматические ошибки, мошенничество с использованием ИИ отточено, персонализировано и в основном не содержит опечаток или неработающих ссылок. Распознавание этих мошенничеств потребует более сложного подхода:

  • Согласование тонов: Сообщения, созданные с помощью ИИ, теперь могут воспроизводить язык, тон и ритм реальных влиятельных лиц или руководителей, что делает их практически неотличимыми от настоящих сообщений.
  • Видео рассказывает: В видео с дипфейком обращайте внимание на небольшие несоответствия, такие как плохая синхронизация губ или неестественное моргание, особенно во время быстрого движения.
  • Аудио подсказки: Будьте осторожны с подделками голоса, которые содержат странные паузы или тональные несоответствия, так как они могут выдать их искусственность.
  • Перекрестная проверка: Как и в случае со всеми финансовыми рекомендациями, не принимайте их за чистую монету. Подтверждайте их с помощью проверенных источников, таких как официальные профили в социальных сетях или веб-сайты человека или бренда.

Как оставаться в безопасности в условиях угроз, создаваемых искусственным интеллектом

Чтобы выжить в этом новом мире, требуется больше, чем просто скептицизм — для этого необходимы активная бдительность и многоуровневые меры безопасности:

  • В курсе: Знайте, что делают мошенники и как можно манипулировать инструментами ИИ. Осведомленность по-прежнему остается лучшей первоначальной защитой.
  • Проверить все: Независимо от непрошеных финансовых советов или одобрений, будьте подозрительны. Проверяйте все через настоящий источник.
  • Используйте инструменты обнаружения: Используйте технологии обнаружения deepfake, которые могут пометить поддельные аудио или видео. Ищите сбои в речевых моделях или выражениях лица.
  • Защитите свой кошелек: Используйте 2FA и не передавайте ключи или логины даже так называемой «службе поддержки клиентов».
  • Используйте инструменты блокчейна: Компании по безопасности разрабатывают платформы с поддержкой ИИ, которые отслеживают тенденции мошенничества в транзакциях блокчейна. Использование мошеннических параметров позволяет потенциально идентифицировать мошенничество до того, как оно увенчается успехом.
0

Дисклеймер: содержание этой статьи отражает исключительно мнение автора и не представляет платформу в каком-либо качестве. Данная статья не должна являться ориентиром при принятии инвестиционных решений.

PoolX: вносите активы и получайте новые токены.
APR до 12%. Аирдропы новых токенов.
Внести!