Хакеры души. Почему нельзя болтать лишнее рядом с “умными” приборами и зачем нужен закон о роботах

Конфиденциальность записей обеспечивается компаниями-разработчиками голосовых ассистентов. Но если на устройство пользователя попадет вредоносное программное обеспечение, то нельзя исключать, что оно сможет вести запись и отправлять ее на сторонние серверы “хакеров”, рассказал агентству “Прайм” консультант Центра информационной безопасности компании “Инфосистемы Джет” Александр Рогозин.


“В результате это может привести к тому, что злоумышленникам удастся получить любую информацию, начиная с каких-либо паролей и заканчивая содержимым переговоров на деловых встречах. Все зависит от пользователя и злоумышленника”, — рассуждает эксперт.

Он отмечает, что любое устройство с микрофоном априори может записывать окружающие звуки, будь то телефон или умная колонка. Как правило, на них установлен голосовой ассистент, который ведет запись речи и отправляет её на сервер для распознавания. При распознавании голосовых запросов или команд запись может сохраняться на сервере и использоваться, например, для контекстной рекламы.

“По такому принципу работают и отечественная “Алиса”, и зарубежный “Google Ассистент”. Так как к голосовому помощнику можно обратиться по ключевым словам, он может прослушивать окружение в режиме ожидания. В итоге можно обнаружить у себя рекламу чего-то еще до реального поиска, просто обсудив это рядом с умным устройством”, — объясняет эксперт.

Первым отличительным признаком взлома может быть повышенный расход интернет-трафика. Если устройство или смартфон начали гораздо чаще обращаться к интернету при видимом бездействии, то это первый звонок. Постоянная запись и отправка трафика в сеть ускоряет расход аккумулятора, что тоже должно насторожить, рассказал Рогозин.

“Частое обновление устройств позволяет устранять в их программном обеспечении уязвимости, которые хакеры используют для взлома. Но помимо обновления самого умного устройства стоит помнить, что если оно подключено к смартфону, то необходимо обновлять и его прошивку, а также не стоит устанавливать на него сомнительные приложения, которые могут оказаться вирусами”, — заключает он.

Боты, роботы, андроиды – все формы искусственного интеллекта (ИИ) творят наукоемкую революцию, которая меняет жизнь и человека. Однако ИИ таит в себе риски не меньшие, чем несет коронавирус или ядерная угроза. И пока не поздно, это внедрение надо упорядочить. Как? Разбиралась “Российская газета”.

Знакомая установила на айфон “Алису”. Этот день ей запомнился тем, что пополз полугодовалый сын. Муж смотрел, а жена пошутила: “Не успеем оглянуться, женить будем”. Через полчаса ее айфон завалила реклама свадебных салонов. Другой знакомый поссорился с женой. Она на домашнем компьютере просматривала женское белье в интернет-магазине, и служебный “комп” мужа теперь регулярно выдает порции женских трусиков под дружный “ржач” коллег.

– Это первые “хакерские атаки” ИИ на внутренний мир человека, – считает директор-координатор центра “Природоподобные технологии” НИЦ “Курчатовский институт” Вячеслав Дёмин. – Пока человек переживает их как вирусный контент, не всегда понимая, что его атакуют, в общем-то, неумело. ИИ тоже еще часто не понимает, что делает. Это информационные технологии. Они действуют на основе математических нейронных сетей. Но науке уже ясно, что нужно двигаться в сторону импульсных нейронных сетей – биотехнологий. Вот они могут стать как прорывом, так и головной болью.

Правда, Дёмин на вопрос: если так примитивен ИИ, что же он на любой запрос – поиск книг, билетов на самолет, обуви или одежды выдает не запросы человека, а предпочтения поисковиков? – с пониманием кивает головой. Исследования НИЦ “Курчатовский институт” (Россия) и Массачусетского технологического института (США) показывают, что инфотех через поисковики дает искаженное представление о предмете. И дело не в том, что, если кто-то ищет кроссовки, ему система выдает варианты подороже, а потом заваливает контентной рекламой. Дело в системе анализа: при поиске машины анализируют предпочтения, моделируют психологический строй выбора личности и предлагают, на их взгляд, подходящее. Но если информационные технологии выбор делают на основе математического анализа, то импульсы нейронных сетей или биотех более “искушены”. Они замеряют мозг. Сегодня происходит сплетение инфотеха и биотеха, что рождает более совершенный ИИ.

Когда разовьются биотехнологии, хакерские атаки ИИ на внутренний мир человека станут и прорывом, и головной болью

Пример такого соединения – социальное рейтингование в мегаполисах Китая. На уровне инфотеха определяется, что человек читает, занимается ли спортом, переходит ли на красный свет дорогу, его круг общения, путешествует и занимается ли самообразованием, и все это в совокупности повышает или понижает его социальный статус. Параллельно работает биотех – биометрический замер пульса, давления, эмоций. Однако хитрость в том, что если замеряют десятки миллионов людей, то ИИ умеет создавать шаблоны – реакций, эмоций, переживаний по… частоте сердечных сокращений, движению зрачков и даже по рефлексам – выделению слюны или движению языка. Так ИИ на основе алгоритмов обрабатывает личность как схему на инфо- и биоуровне. Из схемы-колбы можно изъять как отрицательные качества, так и создать внутри нее среду для развития “нужных”.

Первым о неоднозначности этого явления, способного менять природу человека, заговорил профессор Еврейского университета в Иерусалиме Юваль Ной Харари. Он утверждает, что уже есть экспериментальные лекарства, размягчающие “плохие” качества по модели антибиотика. Есть и более эффективное воздействие на мозг – немедикаментозное. То самое, когда ИИ предлагает выбрать уже не кроссовки или женское белье, а модель поведения – на какой цвет светофора перейти дорогу, какую профессию выбрать, за кого проголосовать. Харари убежден, что не важно, кто будет распоряжаться результатом работы по передаче эмоций при помощи языка тела – робот или человек. Важно, что, используя хакерские технологии, этот “гуру” получит доступ к закрытой информации. Проще говоря, “хакнет” чужой мозг и душу. Анализ ученого совпадает с прогнозами Еврокомиссии парламента ЕС: через десятилетия искусственный мозг превзойдет человеческий. Если к этому не подготовиться , интеллектуальное превосходство машин усложнит задачу контроля людей над ними и они выйдут из под него.

– Машины не могут бросить вызов человеку и стать орудием войн, – спорит директор Microsoft Россия Владислав Шершульский. – Военная наука перестала быть драйвером прогресса, а центром принятия решений остается человек. Вот его “взломать” может другой человек. А роботы если чем-то и угрожают, так это подменить человека на скучной, грязной и опасной работе. А пока отношения с ИИ похожи на отношения с домашними животными, но скоро станут отношениями с разумными существами.

Шершульский признает, что логика развития ИИ ведет к тому, что машины станут “киборгами с сердцем”. И тогда, права Еврокомиссия, встанут технические и правовые вопросы – рабочие места для роботов и людей, вопросы разделения ответственности за нанесенный вред или распределение выгод между машинами и людьми.

– Не надо смешивать технологическую автономию с социальной, – говорит Алексей Южаков, глава компании Promobot (Пермь), поставляющей роботов в 27 стран мира. – Управление кофеваркой не сказывается на полномочиях местных органов власти. Проблема ИИ не в атаке извне, а в слабостях, которыми могут пользоваться люди, имеющие к технологии доступ, как это было с атомными станциями в Чернобыле или на Фукусиме.

Как признают оба эксперта, проблемы оотношений людей и машин связаны с такими понятиями, как человеческое достоинство, охрана частной жизни и физическая безопасность человека, если машины начнут сбоить или их взломают хакеры. Но как человек, продлевая свой век и меняя отслужившие органы – руку, желудок или даже часть мозга на искусственные, будет чуть-чуть “киборгом с сердцем”, так и машина, как прогнозируют ученые, научившись распознавать и передавать чувства, станет “киборгом с сердцем”. Поэтому Европарламент, разрабатывая закон об ИИ, решает философскую задачу – следует ли наделять будущих роботов статусом “электронной личности”? Пока законопроект сказал: “Да”. Но оговорил условие – машины обязаны иметь устройство, которое отключит все их функции. И оставил за собой право принятия закона до 2030 года.

Используя хакерские технологии, “гуру” искусственного интеллекта получит доступ к закрытой информации. Проще говоря, “хакнет” чужой мозг и душу

Экспериментальный правовой режим для ИИ готовится и в России. Он дает шанс развивать технологии, которые пока не регулируются законом, в “научных заповедниках”.

– Это “цифровая песочница” или детский сад для социализации роботов, – говорит Вячеслав Дёмин. – Он нужен, ведь наука не до конца понимает, как происходит донастройка нейросетевых алгоритмов. Еще есть методы их обмана, ИИ делает ошибки. Допустим, человек надевает футболку с принтом тропического леса, а алгоритм распознает его как пальму. Или если поставить определенные комбинации точек на лицо человека, то ИИ не определит человека. Тут опасность ИИ в том, что он влияет на принятие решений, – на поведение “беспилотника”, где ошибки в распознавании образов могут стать смертельными.

Тем не менее все три эксперта убеждены в том, что страхи людей по поводу того, что роботы хакнут человека, зависят от самого человека. Ученые признают, что есть вещи, которые не имеют корректного решения – изобретения атомного оружия никто не хотел, но оно есть, как и мирный атом, дающий свет и тепло. Так и анализ ситуации и принятие решений постепенно переходят на уровень ИИ. Это означает, что как атом, так и ИИ с точки зрения доктрины взаимного уничтожения ничего не меняют. Они меняют психологию личности. Если человек увидит в ИИ “окно возможностей” и научится им управлять как атомом, он останется человеком.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *