Мошенники становятся все более изощренными в выманивании денег у доверчивых граждан. Они уже добрались до нейросетей и с помощью искусственного интеллекта генерируют голосовые сообщения. Как не попасться на их уловки, объясняет первый заместитель начальника Берестовицкого РОВД Олег Лозовицкий:
— В последнее время наблюдает рост попыток мошенничества с помощью так называемых дипфейков — аудио и видео, обработанных с помощью нейросетей. С этой технологией мошенники подделывают голоса и изображения реальных людей, после чего звонят их друзьям, коллегам и подчиненным. Цель одна — выманить у потенциальной жертвы деньги.
Сначала преступники получают доступ к аккаунту, затем начинают писать потенциальным жертвам из числа списка контактов его владельца с просьбой перевести деньги. Историю о необходимости помощи преступники подкрепляют голосовым сообщением якобы от лица владельца аккаунта. Для аудиосообщения используются нарезки из его реальных старых голосовых сообщений, сгенерированных с помощью искусственного интеллекта. Аудиосообщение дублируется в личную переписку и во все чаты, где состоит хозяин украденного аккаунта. Затем направляется фото банковской карты с его именем и фамилией. Схема опасна тем, что мошенники используют несколько факторов идентификации жертвы — аккаунт, голос и банковскую карту. Ну а как не помочь другу или родственнику, тем более, если слышишь знакомый голос? Чтобы не потерять деньги, необходимо перепроверить, действительно ли владелец аккаунта обращается с подобной просьбой. Выход один: позвонить по видео и убедиться, тот ли человек попросит в долг.
Кстати, подделать ваш голос могут и с помощью голосовых, которые вы отправляете в общие чаты, тем более, записав его во время телефонного разговора. Поэтому прерывайте телефонный разговор при первом же подозрении на то, что с вами на связи мошенник, не нужно с ним разговаривать даже в шутку.
Подготовила Ирина МИКЛАШ