Конфиденциальность записей обеспечивается компаниями-разработчиками голосовых ассистентов. Но если на устройство пользователя попадет вредоносное программное обеспечение, то нельзя исключать, что оно сможет вести запись и отправлять ее на сторонние серверы «хакеров», рассказал агентству «Прайм» консультант Центра информационной безопасности компании «Инфосистемы Джет» Александр Рогозин.
«В результате это может привести к тому, что злоумышленникам удастся получить любую информацию, начиная с каких-либо паролей и заканчивая содержимым переговоров на деловых встречах. Все зависит от пользователя и злоумышленника», — рассуждает эксперт.
Он отмечает, что любое устройство с микрофоном априори может записывать окружающие звуки, будь то телефон или умная колонка. Как правило, на них установлен голосовой ассистент, который ведет запись речи и отправляет её на сервер для распознавания. При распознавании голосовых запросов или команд запись может сохраняться на сервере и использоваться, например, для контекстной рекламы.
«По такому принципу работают и отечественная «Алиса», и зарубежный «Google Ассистент». Так как к голосовому помощнику можно обратиться по ключевым словам, он может прослушивать окружение в режиме ожидания. В итоге можно обнаружить у себя рекламу чего-то еще до реального поиска, просто обсудив это рядом с умным устройством», — объясняет эксперт.
Первым отличительным признаком взлома может быть повышенный расход интернет-трафика. Если устройство или смартфон начали гораздо чаще обращаться к интернету при видимом бездействии, то это первый звонок. Постоянная запись и отправка трафика в сеть ускоряет расход аккумулятора, что тоже должно насторожить, рассказал Рогозин.
«Частое обновление устройств позволяет устранять в их программном обеспечении уязвимости, которые хакеры используют для взлома. Но помимо обновления самого умного устройства стоит помнить, что если оно подключено к смартфону, то необходимо обновлять и его прошивку, а также не стоит устанавливать на него сомнительные приложения, которые могут оказаться вирусами», — заключает он.
Боты, роботы, андроиды — все формы искусственного интеллекта (ИИ) творят наукоемкую революцию, которая меняет жизнь и человека. Однако ИИ таит в себе риски не меньшие, чем несет коронавирус или ядерная угроза. И пока не поздно, это внедрение надо упорядочить. Как? Разбиралась «Российская газета».
Знакомая установила на айфон «Алису». Этот день ей запомнился тем, что пополз полугодовалый сын. Муж смотрел, а жена пошутила: «Не успеем оглянуться, женить будем». Через полчаса ее айфон завалила реклама свадебных салонов. Другой знакомый поссорился с женой. Она на домашнем компьютере просматривала женское белье в интернет-магазине, и служебный «комп» мужа теперь регулярно выдает порции женских трусиков под дружный «ржач» коллег.
— Это первые «хакерские атаки» ИИ на внутренний мир человека, — считает директор-координатор центра «Природоподобные технологии» НИЦ «Курчатовский институт» Вячеслав Дёмин. — Пока человек переживает их как вирусный контент, не всегда понимая, что его атакуют, в общем-то, неумело. ИИ тоже еще часто не понимает, что делает. Это информационные технологии. Они действуют на основе математических нейронных сетей. Но науке уже ясно, что нужно двигаться в сторону импульсных нейронных сетей — биотехнологий. Вот они могут стать как прорывом, так и головной болью.
Правда, Дёмин на вопрос: если так примитивен ИИ, что же он на любой запрос — поиск книг, билетов на самолет, обуви или одежды выдает не запросы человека, а предпочтения поисковиков? — с пониманием кивает головой. Исследования НИЦ «Курчатовский институт» (Россия) и Массачусетского технологического института (США) показывают, что инфотех через поисковики дает искаженное представление о предмете. И дело не в том, что, если кто-то ищет кроссовки, ему система выдает варианты подороже, а потом заваливает контентной рекламой. Дело в системе анализа: при поиске машины анализируют предпочтения, моделируют психологический строй выбора личности и предлагают, на их взгляд, подходящее. Но если информационные технологии выбор делают на основе математического анализа, то импульсы нейронных сетей или биотех более «искушены». Они замеряют мозг. Сегодня происходит сплетение инфотеха и биотеха, что рождает более совершенный ИИ.
Когда разовьются биотехнологии, хакерские атаки ИИ на внутренний мир человека станут и прорывом, и головной болью
Пример такого соединения — социальное рейтингование в мегаполисах Китая. На уровне инфотеха определяется, что человек читает, занимается ли спортом, переходит ли на красный свет дорогу, его круг общения, путешествует и занимается ли самообразованием, и все это в совокупности повышает или понижает его социальный статус. Параллельно работает биотех — биометрический замер пульса, давления, эмоций. Однако хитрость в том, что если замеряют десятки миллионов людей, то ИИ умеет создавать шаблоны — реакций, эмоций, переживаний по… частоте сердечных сокращений, движению зрачков и даже по рефлексам — выделению слюны или движению языка. Так ИИ на основе алгоритмов обрабатывает личность как схему на инфо- и биоуровне. Из схемы-колбы можно изъять как отрицательные качества, так и создать внутри нее среду для развития «нужных».
Первым о неоднозначности этого явления, способного менять природу человека, заговорил профессор Еврейского университета в Иерусалиме Юваль Ной Харари. Он утверждает, что уже есть экспериментальные лекарства, размягчающие «плохие» качества по модели антибиотика. Есть и более эффективное воздействие на мозг — немедикаментозное. То самое, когда ИИ предлагает выбрать уже не кроссовки или женское белье, а модель поведения — на какой цвет светофора перейти дорогу, какую профессию выбрать, за кого проголосовать. Харари убежден, что не важно, кто будет распоряжаться результатом работы по передаче эмоций при помощи языка тела — робот или человек. Важно, что, используя хакерские технологии, этот «гуру» получит доступ к закрытой информации. Проще говоря, «хакнет» чужой мозг и душу. Анализ ученого совпадает с прогнозами Еврокомиссии парламента ЕС: через десятилетия искусственный мозг превзойдет человеческий. Если к этому не подготовиться , интеллектуальное превосходство машин усложнит задачу контроля людей над ними и они выйдут из под него.
— Машины не могут бросить вызов человеку и стать орудием войн, — спорит директор Microsoft Россия Владислав Шершульский. — Военная наука перестала быть драйвером прогресса, а центром принятия решений остается человек. Вот его «взломать» может другой человек. А роботы если чем-то и угрожают, так это подменить человека на скучной, грязной и опасной работе. А пока отношения с ИИ похожи на отношения с домашними животными, но скоро станут отношениями с разумными существами.
Шершульский признает, что логика развития ИИ ведет к тому, что машины станут «киборгами с сердцем». И тогда, права Еврокомиссия, встанут технические и правовые вопросы — рабочие места для роботов и людей, вопросы разделения ответственности за нанесенный вред или распределение выгод между машинами и людьми.
— Не надо смешивать технологическую автономию с социальной, — говорит Алексей Южаков, глава компании Promobot (Пермь), поставляющей роботов в 27 стран мира. — Управление кофеваркой не сказывается на полномочиях местных органов власти. Проблема ИИ не в атаке извне, а в слабостях, которыми могут пользоваться люди, имеющие к технологии доступ, как это было с атомными станциями в Чернобыле или на Фукусиме.
Как признают оба эксперта, проблемы оотношений людей и машин связаны с такими понятиями, как человеческое достоинство, охрана частной жизни и физическая безопасность человека, если машины начнут сбоить или их взломают хакеры. Но как человек, продлевая свой век и меняя отслужившие органы — руку, желудок или даже часть мозга на искусственные, будет чуть-чуть «киборгом с сердцем», так и машина, как прогнозируют ученые, научившись распознавать и передавать чувства, станет «киборгом с сердцем». Поэтому Европарламент, разрабатывая закон об ИИ, решает философскую задачу — следует ли наделять будущих роботов статусом «электронной личности»? Пока законопроект сказал: «Да». Но оговорил условие — машины обязаны иметь устройство, которое отключит все их функции. И оставил за собой право принятия закона до 2030 года.
Используя хакерские технологии, «гуру» искусственного интеллекта получит доступ к закрытой информации. Проще говоря, «хакнет» чужой мозг и душу
Экспериментальный правовой режим для ИИ готовится и в России. Он дает шанс развивать технологии, которые пока не регулируются законом, в «научных заповедниках».
— Это «цифровая песочница» или детский сад для социализации роботов, — говорит Вячеслав Дёмин. — Он нужен, ведь наука не до конца понимает, как происходит донастройка нейросетевых алгоритмов. Еще есть методы их обмана, ИИ делает ошибки. Допустим, человек надевает футболку с принтом тропического леса, а алгоритм распознает его как пальму. Или если поставить определенные комбинации точек на лицо человека, то ИИ не определит человека. Тут опасность ИИ в том, что он влияет на принятие решений, — на поведение «беспилотника», где ошибки в распознавании образов могут стать смертельными.
Тем не менее все три эксперта убеждены в том, что страхи людей по поводу того, что роботы хакнут человека, зависят от самого человека. Ученые признают, что есть вещи, которые не имеют корректного решения — изобретения атомного оружия никто не хотел, но оно есть, как и мирный атом, дающий свет и тепло. Так и анализ ситуации и принятие решений постепенно переходят на уровень ИИ. Это означает, что как атом, так и ИИ с точки зрения доктрины взаимного уничтожения ничего не меняют. Они меняют психологию личности. Если человек увидит в ИИ «окно возможностей» и научится им управлять как атомом, он останется человеком.