Один из первых в России судов по делу о дипфейке выиграл режиссер, директор Agenda Media Алексей Парфун. Он увидел рекламу платформы Roistat, где был использован сделанный его компанией дипфейк-ролик с Киану Ривзом, пишет «Российская газета».
Попытка разобраться натолкнулась на ответ о том, что продукция нейросетей авторским правом не регулируется. Однако суд расставил точки над «i». Точнее, над правом пользоваться искусственным интеллектом (ИИ): «Доводы ответчика отклоняются судом, поскольку технология deepfake — это дополнительный инструмент обработки (технического монтажа) видеоматериалов, а не способ их создания». И приговорил интеллектуальных браконьеров к штрафу в 500 тыс. рублей.
Дипфейк ищет «героя»
Почему до судов не доходят уже тысячи дел, когда телефонные мошенники, подделывая голоса родных, звонят жертвам и выманивают у них деньги, а то и принуждают брать кредиты? Еще вчера сценарий мошенничества был голосовым: «Мама, я сбил человека, нужно 5 тыс. евро». Сегодня технологии нейросети изощреннее. Есть случаи, когда с помощью видеодипфейков завистники пытались уволить с работы конкурента. Или бывший муж подставил лицо бывшей жены в порноролик и вымогал у нее деньги. Дипфейки эволюционировали настолько, что стать их «героем» проще, чем кажется.
— Уровень создания дипфейков таков, что идет социальное профилирование жертв, — говорит координатор Центра безопасного интернета Урван Парфентьев. — Или создание профиля личности, на которую направлена атака. Данные кибермошенниками берутся из соцсетей, персональных данных или из украденных документов — банковских, медкарт или водительских удостоверений. Так создается реалистичный профиль жертвы — с интересами, слабостями, чертами характера, который и используется для манипулирования.
Глаза и зубы спасут
Пока самые распространенные примеры видеошантажа — дипфейк-порно, а голосовые — вымогательство денег — остаются без исков в суд от пострадавших. Хотя в первом случае «режиссеров» легко осудить за изготовление и оборот порнографических материалов, во втором — сложнее, но реально — за мошенничество и вымогательство. Причины, по которым не обращаются за помощью пострадавшие, как считают эксперты «Лаборатории Касперского» и РОЦИТ, схожие — стыд, страх и ловушка цифрового следа.
Поэтому первое, что рекомендуют эксперты, — нигде не оставлять свои персональные данные, особенно в соцсетях. Ведь чем меньше материалов, тем сложнее создать дипфейк. А цифровая подделка низкого качества сразу бросится в глаза. По данным «Лаборатории Касперского», самыми уязвимыми в дипфейках остаются глаза и зубы. Бликов в глазах или нет, или они тусклые. А зубы или плохо прорисованы, или выглядят как белая пустота.
Отсюда второй совет — не паниковать. Паникер поддается на провокацию и начинает оправдываться в чатах, форумах и соцсетях в том, чего он не совершал. Но поздно: хайп, сотворенный и своими руками, оборачивается вирусным распространением дипфейка. Поэтому третий совет экспертизы неумолим. Он комплексный. Сначала надо заняться собственной цифровой гигиеной — собрать все доступные доказательства (фото, видео, документы, показания свидетелей) того, что на видео изображен кто-то другой. Потом обращаться в службу поддержки платформы, разместившей дипфейк, параллельно на горячую линию НКО, которые помогают со сбором доказательств, например, в Центр безопасного интернета, «Лабораторию Касперского» или РОЦИТ. Потом — с иском в суд. При этом администрация ресурсов при посредничестве НКО удалит ролики и заблокирует аккаунты пользователей, с которых они были опубликованы. Юристы помогут с составлением иска о защите чести и достоинства.
«Товарищ майор», вы товарищ?
То есть способы защиты от цифрового шантажа есть. Но чтобы ими воспользоваться, нужны цифровая грамотность и понимание того, что создание дипфейка не является незаконным деянием. Эта технология успешно служит науке и культуре. Другое дело, если плагиат, шантаж или вымогательство подпадают под уголовные преступления, тогда стоит сразу обращаться в полицию. Или, например, если частные фото или видео оказались в Сети без персонального согласия и эти материалы ранее не были опубликованы, это считается нарушением неприкосновенности частной жизни, что преследуется законом.
Стыд, страх и ловушка цифрового следа лишают воли пострадавших от дипфейков
— Думаю, общество все же придет к дипфейковым ограничениям, — считает Урван Парфентьев. — Другое дело, что они не будут работать односторонне — только через законодательство. Все же в эпоху цифры без информационной грамотности и гигиены не обойтись. Все данные надо проверять, личными данными не сорить, а инструментами правовой цифровой защиты — уметь пользоваться.
Как пример, эксперты приводят долгожданного помощника — разработанную в России нейросеть «Товарищ майор». Она умеет исследовать сообщества в мессенджере и определять администраторов, владельцев пабликов, включая нелегалов и создателей самопальных дипфейков. Но мало того, что она пока не внедрена в практику и проходит тестирование, так ее еще надо осилить пользователю. Уметь пользоваться нейросетью «Товарищ майор» — это примерно то же самое, что уметь пользоваться законом. Так, в российском праве уже есть нормы преследования создателей дипфейков — статья 159 УК («Мошенничество») и статья 152 ГК («Защита чести, достоинства и деловой репутации»). К ним примыкает закон о защите персональных данных. Вот только судебной практики нет. Боятся люди.
Справка «РГ»
Что такое дипфейк
Дипфейк (англ. deepfake от deep learning — «глубинное обучение», fake — «подделка») — наукоемкая методика синтеза изображения или голоса, основанная на искусственном интеллекте (ИИ). Есть аудио- (голосовой) дипфейк, есть видеодипфейк. Используется в науке, кинематографе, рекламе, в музейном, мультипликационном пространстве и иных сферах.