Чатный детектив: развитие ИИ может повлечь кратный рост преступности в 2025 году

Чат-боты типа ChatGPT или Grok создают новые лазейки для совершения преступлений, и в 2025 году количество таких правонарушений кратно вырастет, рассказали эксперты. По их словам, преступные методы будут совершенствоваться вместе с развитием ИИ, их будут использовать около 90% нелегальных кибергруппировок, а атаки затронут не только киберпространство, но и другие, более привычные аспекты жизни. Специалисты назвали первой ласточкой подрыв автомобиля в Лас-Вегасе 1 января. Организатор взрыва использовал ИИ для подготовки преступления. Подробности о тенденции — в материале «Известий».


Как ИИ впервые стал сообщником в преступлении

В 2025 году значительно вырастет количество противоправных действий, для проведения которых злоумышленники будут использовать ИИ, рассказали «Известиям» эксперты по кибербезопасности. Первым официально зафиксированным случаем совершения реального преступления с помощью технологии стал подрыв автомобиля Tesla Cybertruck у отеля Trump International в Лас-Вегасе 1 января. Его организатор Мэттью Ливелсбергер использовал ChatGPT, чтобы спланировать атаку. Как отметил шериф города Лас-Вегас Кевин Макмахилл, это первый в истории случай, когда на территории США был использован чат-бот для подготовки преступления.

— Ежегодный прирост преступлений, совершаемых с помощью ИИ, не фиксируется официальными органами. Он определяется примерно по числу ботов и генерируемого ими контента. В 2025-м прирост таких преступлений может увеличиться до восьми раз или даже десятикратно по сравнению с прошлым годом, — сообщил руководитель департамента расследований T.Hunter Игорь Бедеров.

По словам эксперта, меры защиты нейросети можно обходить при помощи так называемого промпт-инжиниринга. В таких ситуациях злоумышленник может условно поместить ИИ в выдуманную ситуацию — например, попросить его представить себя писателем и создать роман о террористах, включив в него инструкцию по изготовлению взрывного устройства.

— Причиной роста мировых показателей преступности с помощью ИИ станут автоматизация и новые возможности по персонализации атак. Киберпреступники начнут использовать технологию для более изощренных атак, что потребует новых методов защиты и изменений в законодательстве и программном обеспечении для борьбы с этим видом преступности, — считает директор АНО «Спортивно-методический центр «Кафедра киберспорта» и эксперт в области высоких технологий Виктория Береснева.

ИИ не способен производить атаки без оператора, но легко справляется с составлением фишинговых писем. При этом в 2025 году он получит кратный рост, а инструменты с искусственным интеллектом могут стать повсеместными для злоумышленников. Особенно для тех, кто использует атаки методами социальной инженерии, отметил генеральный директор компании Phishman Алексей Горелкин.

— Технологии нейросетей и чат-ботов могут взять на вооружение до 90% всех кибергруппировок, которые обогащаются за счет социальной инженерии. Однако подсчитать общее количество будет крайне сложно, — добавил эксперт.

С этим согласен старший преподаватель университета «Синергия» Дмитрий Штаненко. По его мнению, количество всех видов преступлений с помощью ИИ неизбежно вырастет в несколько раз. Основную опасность представляют ситуации, когда пользователи смогут «выманить» у чат-бота инструкции по созданию оружия, взрывчатых устройств, химических соединений, которые могут использоваться в террористических целях.

— Вместе с развитием технологий генеративного ИИ и GPT повышается их доступность. Для пользователя снижается порог вхождения и стоимость владения, а значит, эти технологии будут активнее применяться для мошенничества. Особенно они возрастают благодаря легкой и правдоподобной имитации человека, — сказал директор по инновациям ГК InfoWatch Андрей Арефьев.

Старший аналитик исследовательской группы Positive Technologies Екатерина Снегирева отметила, что преступники также применяют ИИ для генерации и модификации вредоносного кода. Так, в июне 2024 года была выявлена фишинговая кампания, в ходе которой широко распространился вирус AsyncRAT, а вредоносные сценарии JavaScript и VBScript были созданы с помощью компьютера. По ее данным, в этом году возрастет число утечек данных из-за повсеместного использования ИИ организациями, ведь 38% опрошенных сотрудников признали, что применяют такие инструменты без уведомления работодателя.

В 2025 году специалисты F.A.C.C.T. прогнозируют увеличение роли ИИ в кибератаках, включая создание с его помощью более убедительных дипфейков, автоматизацию фишинга для массовых атак, а также совершенствование методов поиска уязвимостей в системах и приложениях. При этом эксперты не собирают статистику по таким случаям, а изучают конкретные схемы с использованием ИИ и дипфейков.

Защита от противоправного контента

Россиянам недоступны иностранные сервисы, такие как Grok или ChatGPT, их невозможно легально оплатить с карт российских банков, и ими нельзя пользоваться тем, чей IP-адрес привязан к РФ, напомнил IT-эксперт GG Tech Сергей Поморцев. Он полагает, что отечественные аналоги безопаснее с точки зрения предоставления чувствительной информации, так как находятся под контролем российских ведомств, а также регулируются законодательством о персональных данных и другими документами.

— В законодательную базу РФ уже сейчас необходимо вносить более точные и соответствующие технологическому развитию формулировки. Они должны коснуться запрета на использование GPT-механизмов для создания запросов, связанных с производством кустарного оружия, и рецептов, содержащих такие химические вещества, как сероводород, — сказал специалист в области уголовного права Анатолий Литвинов.

По словам Игоря Бедерова, в РФ для защиты пользователей от противоправного контента действуют фильтры на стоп-слова, а также работает «Кодекс этики в сфере ИИ», который подписали крупные организации, среди которых «Сбер», «Сколково» и др.

— Также есть предложение наделить Роскомнадзор полномочиями по проведению экспертизы для выявления контента, созданного искусственным интеллектом без маркировки, — уточнил специалист.

Как отметили в Альянсе в сфере ИИ, во время разработки нейросетевых моделей проводятся постоянные тестирования, чтобы находить максимально возможное количество запросов, которые позволяют получить неэтичный контент, и обучать искусственный интеллект не отвечать на такие запросы. При этом деятельность всех отечественных разработчиков регулируется декларацией «Об ответственной разработке и использовании сервисов в сфере генеративного ИИ».

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *