Хакеры научились использовать искусственный интеллект (ИИ) для вымогательства. Как уточняют эксперты, в Сети уже найдена первая программа-вымогатель на базе нейросетей, а в скором времени подобные вирусы могут стать более распространенным и опасным оружием киберпреступников. Подробности о том, как хакеры научились использовать ИИ для вымогательства, чем это опасно и как противостоять подобным угрозам, читайте в материале «Известий».
Как хакеры вымогают с помощью ИИ?
Искусственный интеллект в качестве инструмента для вымогательства интересен киберпреступникам по нескольким причинам, говорит в беседе с «Известиями» начальник отдела по информационной безопасности компании «Код Безопасности» Алексей Коробченко.
— Алгоритмы, с одной стороны, позволяют автоматизировать процессы, включая анализ и выбор целевых файлов, и сделать атаки более эффективными и персонализированными. А с другой — помогают обойти системы безопасности, адаптируясь к особенностям защиты и затрудняя обнаружение вредоносного ПО, — рассказывает специалист.
Неудивительно, что первая программа-вымогатель уже появилась и была обнаружена. О ней в конце августа заявили исследователи международной компании ESET, специализирующейся на разработке антивирусных программ и решений для компьютерной безопасности.
Вирус, названный PromptLock, пока не был зафиксирован в реальных атаках, однако специалисты ESET уверены, что их открытие демонстрирует, как использование общедоступных ИИ-инструментов может усилить обычные программы-вымогатели и другие киберугрозы.
Чем опасны вирусы-вымогатели на основе ИИ?
Идея применять нейросети для создания вредоносного ПО не нова — злоумышленники предпринимали такие попытки и раньше, говорит в беседе с «Известиями» ведущий эксперт Kaspersky GReAT Татьяна Шишкова. В частности, в конце 2024 года появилась программа-шифровальщик FunkSec, при помощи которой были атакованы организации из госсектора, а также из сфер IT, финансов и образования в Европе и Азии.
— Этот шифровальщик создавали с помощью генеративного ИИ. Судя по техническому анализу, многие фрагменты кода были написаны не вручную, а автоматически, — рассказывает специалист.
PromptLock примечателен тем, что в него внедрили ИИ-модель с открытым исходным кодом для локального запуска, поясняет Татьяна Шишкова. То есть нейросеть генерирует вредоносный код не на стороне злоумышленников, а локально — на зараженном устройстве. При этом на данный момент PromptLock не является полностью функциональным, а о его жертвах ничего не известно.
Иными словами, это либо вирус на стадии разработки, либо концепт.
— PromptLock использует модель GPT-OSS-20b через API Ollama для создания Lua-скриптов, совместимых с Windows, Linux и MacOS, — дополняет директор по ИИ «Группы Астра» Станислав Ежов.
Программа сканирует файловую систему, анализирует содержимое и на основе предопределенных промптов принимает автономные решения о шифровании или краже данных.
— Ключевое отличие от предыдущих угроз — способность к динамической генерации кода, что делает каждую атаку уникальной и затрудняет создание сигнатур для обнаружения, — отмечает эксперт. — Еще одно нестандартное решение — использование алгоритма SPECK для шифрования данных.
Каковы перспективы сетевого вымогательства при помощи ИИ?
Появление таких вирусов стало возможным благодаря росту доступности языковых моделей, в том числе Open Source, говорит руководитель BI.ZONE Threat Intelligence Олег Скулкин. Сказались и обходные методы формирования промптов, которые позволяют получать вредоносный код даже от ИИ с ограничениями.
— Благодаря нейросетям снижается так называемый порог входа: всё больше потенциальных злоумышленников смогут создавать шифровальщики. А еще злоумышленники активно практикуют обход встроенных ограничений ИИ — для этого они используют косвенные инструкции, маскируя настоящие цели промптов, — отмечает Олег Скулкин.
В будущем использование нейросетей в онлайн-вымогательстве, скорее всего, получит широкое распространение, считает Al-консультант, специалист Аналитического центра кибербезопасности компании «Газинформсервис» Татьяна Буторина. Один из возможных сценариев — отладка «экспериментального» варианта PromptLock, его техническое усовершенствование и доработка.
— Затем этот вирус-вымогатель могут вывести на рынок как услугу, в том числе для технически некомпетентных лиц, что расширит круг киберпреступников, — предупреждает специалист.
Внедрение ИИ во вредоносный код станет логичным шагом в развитии киберпреступности и обеспечит автоматический поиск уязвимостей, обход защитных систем и адаптацию под инфраструктуру жертв, дополняет эксперт по кибербезопасности Angara Security Никита Новиков.
— Такие вирусы-вымогатели могут оказаться гораздо опаснее классических и со временем занять заметное место на теневом рынке киберуслуг, — резюмирует эксперт.
Как защититься от вымогательства c использованием нейросетей?
Для борьбы с ИИ-вымогателями рекомендуется комплексный подход, говорит Алексей Коробченко. Во-первых, регулярно обновлять операционную систему и приложения, а во-вторых, использовать антивирусные и антишпионские программы.
— Кроме того, важно создать резервные копии значимых данных на отдельном носителе или в «облаке», чтобы при кибератаке восстановить информацию без уплаты выкупа, — советует собеседник «Известий».
Компаниям необходимо проводить обучение сотрудников по кибербезопасности, включая распознавание фишинговых писем, и внедрять многофакторную аутентификацию для защиты систем.
Активный мониторинг Сети на предмет подозрительной активности позволит оперативно реагировать на инциденты.
Как отмечает Алексей Коробченко, одним из действенных методов против ИИ-вымогательства является так называемая гранулярная выдача прав локальному софту, работающему с нейросетями. Суть в том, что установленное ПО должно иметь минимальные привилегии на уровне операционной системы и доступа к файлам.
— Важно понимать, что, хотя ИИ может написать вредоносный код, самостоятельно атаку он не проведет. Пока можно говорить об ИИ как о вспомогательном инструменте на разных этапах атаки, — дополняет Олег Скулкин. В случае с PromptLock злоумышленники использовали локальную GPT-модель и сгенерировали код по заданному промпту во вредоносной программе, пояснил эксперт.
На глобальном уровне противостоять ИИ-угрозам позволит совместная работа разработчиков нейросетей, ИБ-компаний и регулирующих органов, а также обмен информацией о новых типах атак и инструментах, заключает собеседник «Известий».