ИИ-дипфейки – самая большая угроза для пользователей криптовалют: отчет Bitget
В новом отчете эксперты предупреждают: мошенники все активнее используют ШИ-дипфейки и социальную инженерию для атак на пользователей криптовалют.

Мошенничество в мире криптовалют выходит на новый уровень: злоумышленники всё чаще используют технологии искусственного интеллекта, в частности дипфейки, для обмана пользователей. Об этом говорится в новом совместном отчёте компаний Bitget, SlowMist и Elliptic, опубликованном 10 июня.
По словам аналитиков, всё больше афер строится не столько на технических уязвимостях, сколько на манипуляции человеческой психологией. Социальная инженерия — главное оружие новой волны преступников.
Дипфейки — в эпицентре финансовых махинаций
В 2024 году около 40% крупных случаев мошенничества с криптовалютой были связаны с использованием дипфейков — поддельных видео или аудио с имитацией публичных личностей. В частности, мошенники создают фальшивые ролики с участием Илона Маска и других известных фигур, чтобы придать сомнительным проектам вид легитимности.
Такие видео используют не только для рекламы мошеннических платформ, но и для обхода систем верификации (KYC) или заманивания жертв в фишинговые Zoom-звонки.
Работа — ловушка для разработчиков
Отдельную угрозу представляют фейковые вакансии для IT-специалистов. Мошенники, выдавая себя за рекрутеров, предлагают задание, якобы необходимое для тестового проекта. На деле это троянская программа, которая даёт злоумышленникам полный контроль над компьютером жертвы.
Как защититься от ИИ-афер
Эксперты SlowMist рекомендуют пользователям придерживаться нескольких простых правил:
- не доверять рекламным постам в соцсетях, обещающим быстрый заработок, трейдинг-ботов или сверхвысокую доходность от стейкинга;
- проверять достоверность видео с публичными фигурами исключительно через официальные источники;
- избегать переходов по подозрительным ссылкам в групповых чатах и комментариях;
- использовать инструменты вроде ScamSniffer для блокировки фишинговых сайтов и MistTrack — для проверки подозрительных криптокошельков.
«В мире, где ИИ может имитировать кого угодно, безопасность начинается с критического мышления и завершается коллективной защитой», — подытоживают авторы отчёта.
Ваша реакция?






