На темной стороне: хакеры научились использовать ИИ для вымогательства

Хакеры научились использовать искусственный интеллект (ИИ) для вымогательства. Как уточняют эксперты, в Сети уже найдена первая программа-вымогатель на базе нейросетей, а в скором времени подобные вирусы могут стать более распространенным и опасным оружием киберпреступников. Подробности о том, как хакеры научились использовать ИИ для вымогательства, чем это опасно и как противостоять подобным угрозам, читайте в материале «Известий».


Как хакеры вымогают с помощью ИИ?

Искусственный интеллект в качестве инструмента для вымогательства интересен киберпреступникам по нескольким причинам, говорит в беседе с «Известиями» начальник отдела по информационной безопасности компании «Код Безопасности» Алексей Коробченко.

— Алгоритмы, с одной стороны, позволяют автоматизировать процессы, включая анализ и выбор целевых файлов, и сделать атаки более эффективными и персонализированными. А с другой — помогают обойти системы безопасности, адаптируясь к особенностям защиты и затрудняя обнаружение вредоносного ПО, — рассказывает специалист.

Неудивительно, что первая программа-вымогатель уже появилась и была обнаружена. О ней в конце августа заявили исследователи международной компании ESET, специализирующейся на разработке антивирусных программ и решений для компьютерной безопасности.

Вирус, названный PromptLock, пока не был зафиксирован в реальных атаках, однако специалисты ESET уверены, что их открытие демонстрирует, как использование общедоступных ИИ-инструментов может усилить обычные программы-вымогатели и другие киберугрозы.

Чем опасны вирусы-вымогатели на основе ИИ?

Идея применять нейросети для создания вредоносного ПО не нова — злоумышленники предпринимали такие попытки и раньше, говорит в беседе с «Известиями» ведущий эксперт Kaspersky GReAT Татьяна Шишкова. В частности, в конце 2024 года появилась программа-шифровальщик FunkSec, при помощи которой были атакованы организации из госсектора, а также из сфер IT, финансов и образования в Европе и Азии.

— Этот шифровальщик создавали с помощью генеративного ИИ. Судя по техническому анализу, многие фрагменты кода были написаны не вручную, а автоматически, — рассказывает специалист.

PromptLock примечателен тем, что в него внедрили ИИ-модель с открытым исходным кодом для локального запуска, поясняет Татьяна Шишкова. То есть нейросеть генерирует вредоносный код не на стороне злоумышленников, а локально — на зараженном устройстве. При этом на данный момент PromptLock не является полностью функциональным, а о его жертвах ничего не известно.

Иными словами, это либо вирус на стадии разработки, либо концепт.

— PromptLock использует модель GPT-OSS-20b через API Ollama для создания Lua-скриптов, совместимых с Windows, Linux и MacOS, — дополняет директор по ИИ «Группы Астра» Станислав Ежов.

Программа сканирует файловую систему, анализирует содержимое и на основе предопределенных промптов принимает автономные решения о шифровании или краже данных.

— Ключевое отличие от предыдущих угроз — способность к динамической генерации кода, что делает каждую атаку уникальной и затрудняет создание сигнатур для обнаружения, — отмечает эксперт. — Еще одно нестандартное решение — использование алгоритма SPECK для шифрования данных.

Каковы перспективы сетевого вымогательства при помощи ИИ?

Появление таких вирусов стало возможным благодаря росту доступности языковых моделей, в том числе Open Source, говорит руководитель BI.ZONE Threat Intelligence Олег Скулкин. Сказались и обходные методы формирования промптов, которые позволяют получать вредоносный код даже от ИИ с ограничениями.

— Благодаря нейросетям снижается так называемый порог входа: всё больше потенциальных злоумышленников смогут создавать шифровальщики. А еще злоумышленники активно практикуют обход встроенных ограничений ИИ — для этого они используют косвенные инструкции, маскируя настоящие цели промптов, — отмечает Олег Скулкин.

В будущем использование нейросетей в онлайн-вымогательстве, скорее всего, получит широкое распространение, считает Al-консультант, специалист Аналитического центра кибербезопасности компании «Газинформсервис» Татьяна Буторина. Один из возможных сценариев — отладка «экспериментального» варианта PromptLock, его техническое усовершенствование и доработка.

— Затем этот вирус-вымогатель могут вывести на рынок как услугу, в том числе для технически некомпетентных лиц, что расширит круг киберпреступников, — предупреждает специалист.

Внедрение ИИ во вредоносный код станет логичным шагом в развитии киберпреступности и обеспечит автоматический поиск уязвимостей, обход защитных систем и адаптацию под инфраструктуру жертв, дополняет эксперт по кибербезопасности Angara Security Никита Новиков.

— Такие вирусы-вымогатели могут оказаться гораздо опаснее классических и со временем занять заметное место на теневом рынке киберуслуг, — резюмирует эксперт.

Как защититься от вымогательства c использованием нейросетей?

Для борьбы с ИИ-вымогателями рекомендуется комплексный подход, говорит Алексей Коробченко. Во-первых, регулярно обновлять операционную систему и приложения, а во-вторых, использовать антивирусные и антишпионские программы.

— Кроме того, важно создать резервные копии значимых данных на отдельном носителе или в «облаке», чтобы при кибератаке восстановить информацию без уплаты выкупа, — советует собеседник «Известий».

Компаниям необходимо проводить обучение сотрудников по кибербезопасности, включая распознавание фишинговых писем, и внедрять многофакторную аутентификацию для защиты систем.

Активный мониторинг Сети на предмет подозрительной активности позволит оперативно реагировать на инциденты.

Как отмечает Алексей Коробченко, одним из действенных методов против ИИ-вымогательства является так называемая гранулярная выдача прав локальному софту, работающему с нейросетями. Суть в том, что установленное ПО должно иметь минимальные привилегии на уровне операционной системы и доступа к файлам.

— Важно понимать, что, хотя ИИ может написать вредоносный код, самостоятельно атаку он не проведет. Пока можно говорить об ИИ как о вспомогательном инструменте на разных этапах атаки, — дополняет Олег Скулкин. В случае с PromptLock злоумышленники использовали локальную GPT-модель и сгенерировали код по заданному промпту во вредоносной программе, пояснил эксперт.

На глобальном уровне противостоять ИИ-угрозам позволит совместная работа разработчиков нейросетей, ИБ-компаний и регулирующих органов, а также обмен информацией о новых типах атак и инструментах, заключает собеседник «Известий».

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *