МВД предупредило о схемах мошенничества с использованием нейросетей

В одной из своих последних сводок происшествий МВД России сообщило, что сотрудниками полиции Курской области на интернет-ресурсах был обнаружен видеоролик, якобы озвученный голосом руководителя одного из подразделений региональной полиции. Сюжет, о котором говорится в сообщении МВД России, был о том, что в Курске задержан военнослужащий, пытавшийся привезти в регион большую партию наркотиков, пишет «Российская газета».


— Данная информация является недостоверной. Голос на видео сгенерирован искусственным путем, а используемое видео взято из другого сюжета, ранее опубликованного УМВД по Курской области.

Просим граждан внимательно относиться к информации из соцсетей и проверять ее. Комментарии должностных лиц УМВД России по Курской области размещаются на официальных ведомственных интернет-ресурсах, — сообщило гражданам полицейское ведомство.

Такого рода мошенничество с подделкой изображения и голоса ничего не подозревающего человека только начинает набирать обороты в нашей стране и исключительно опасно по своим последствиям. Дело в том, что уровень изготовленного изображения и сгенерированный искусственным интеллектом голос распознать еще не могут не только рядовые граждане, но и специалисты, которые уже забили тревогу.

Примером того, как легко с помощью искусственного интеллекта получается обманывать людей, может служить преступление, произошедшее на днях на Алтае. Там мошенники подделали голос и видео жительницы Барнаула. И таким образом смогли украсть солидные деньги ее знакомых.

Поддельные сообщения от мошенников получили десятки контактов этой гражданки. Зовут ее Марина Василенко. В посланиях друзьям и просто знакомым был ее голос, хотя сама девушка ничего никому не отправляла.

Первые же пять человек из списка ее контактов оперативно откликнулись на просьбу и на неизвестную карту отправили больше 100 тысяч рублей.

Схема их действий такова: мошенники взломали телеграм-аккаунт Марины. Нашли в диалогах видео и голосовые сообщения. С помощью искусственного интеллекта создали новые, но уже с нужным им текстом. Давние друзья и родственники ничего заподозрили. Ведь услышали не только знакомый голос, но еще и получили видеосообщение от девушки. Гражданка уже написала заявление в полицию. В Алтайском крае это был первый зарегистрированный случай мошенничества с использованием нейросетей. Но в полиции уверены — случай далеко не последний. По словам экспертов, подделать чужой голос можно было и раньше, как и создать дипфейк, то есть видео с чужим лицом. Но пару лет назад на это требовалось несколько дней. А вот сейчас на создание подобного «говорящего» изображения уходит не больше минуты.

Полицейские предупреждают граждан: если человек получил видео и знакомый ему голос попросил срочно дать взаймы деньги, лучше не торопиться и «не верить глазам своим». Стражи порядка советуют: прежде чем что-то предпринимать, надо обязательно перезвонить тому человеку, кто просит о помощи.

В МВД специалисты даже подсчитали, что только в этом году жители Алтайского края от действий мошенников в сфере информационных технологий уже потеряли больше одного миллиарда рублей. А сколько таких ситуаций по стране? Таких подсчетов еще нет, но уже понятно, что цифра будет очень большая.

Телефонные мошенники получают доступ к аккаунту, затем начинают писать потенциальным жертвам из числа списка контактов его владельца сообщения с просьбой перевести им деньги, а главное — сделать это как можно быстрее.

Для большей убедительности добавляется голосовое сообщение якобы от владельца аккаунта. Для аудиосообщения используются нарезки из его реальных старых голосовых сообщений. Такое аудиосообщение идет во все чаты, где состоит хозяин аккаунта.

Эта схема для нашей страны пока новая, а вот в других странах ее уже «опробовали». Но способа противостоять ей и там пока не придумали.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *