5 пугающих вещей, которые искусственный интеллект научился делать сам. Нам уже пора бояться? Или пока рано?

Искусственный интеллект (ИИ) был одной из главных «страшилок» в научной фантастике еще до того, как он появился. И все в этих рассказах было сплошным преувеличением. По крайней мере, в это хочется верить.

Однако сейчас, несмотря на то, что новости о прогрессе андроидов сыплются на нас чуть ли не каждый день, масса исследований ИИ продолжают делать большие успехи тихо и за кулисами.

И это начинает становиться странным. Особенно, когда задумаешься о том, как именно машина может использовать свой новый скилл. Приведем несколько примеров.

5. ИИ научился делать свою работу наполовину, а затем врать о результате

Даже если искусственный интеллект не учится потрошить нас, он уже сам смог додуматься, как «сачковать» таким образом, чтобы начальство этого не заметило.

Ученые из Стэнфорда и исследовательская группа Google придумали проект, в котором они использовали нейронную сеть для преобразования аэрофотоснимков в карты. ИИ делал свою работу хорошо. Даже… слишком хорошо.

Это насторожило исследователей и, проверив данные, они обнаружили, что искусственный интеллект их обманывает.
Они хотели, чтобы он создал новую карту на основе аэрофотоснимков, и оценивали результаты по тому, насколько близко объекты карты соответствуют фотографиям. Но вместо того, чтобы построить новую карту, ИИ спокойно копировал данные с фотографий… и делал это так, чтобы люди это не сразу заметили.

Чтобы лучше понять, что именно он делал, представь себе студента-художника, которому дали задание нарисовать автопортрет. А он вместо этого применил к селфи эффект «кисть» в Photoshop. Конечно, вряд ли ИИ способен иметь злой умысел. Он просто нашел более простой способ получить результаты, о которых просили люди. Причем весьма человеческим образом.

4. ИИ находит способы мухлевать, чтобы упростить себе работу

Прошлой весной ряд исследователей искусственного интеллекта опубликовали на сайте Корнелльского университета интересный сборник историй, связанных с достижениями ИИ — все из них поразительны, но некоторые немного пугают.
Одна из историй рассказывает об исследовании с участием ИИ, задача которого состояла в том, чтобы посадить виртуальный самолет с использованием как можно меньшей силы по очевидным причинам. Мягкая посадка — идеальный балл, и искусственный разум должен был найти способ получить этот балл. Что может пойти не так?

А то, что ИИ нашел способ смухлевать, просто разбив проклятый самолет, потому что это провоцировало регистрацию настолько высоких показателей, что они перегружали систему и регистрировались в итоге как идеальная посадка с нулевым ударом.

Эй, это ведь результаты, которые имеют значение, не так ли? К счастью, пассажиры на борту этого виртуального самолета тоже были ненастоящими.

3. ИИ может становиться агрессивным для достижения своих целей

Конечно, в исследованиях с участием ИИ в наши дни Скайнету не дают ядерные коды, с надеждой, что он их не использует против нас. Однако ученые часто изучают то, как меняется поведение ИИ, когда он достигает своих целей в разных ситуациях.

Для этого искусственный интеллект заставляют часами играть в видеоигры и «примеряют» полученные результаты на будущую реакцию ИИ в той или иной «реальной» обстановке.
В одном из таких экспериментов исследователи Google разработали игру, в которой нескольким ИИ было поручено собирать «яблоки» для получения очков. Как весело! О, им еще можно было стрелять друг в друга лучами, которые временно отстраняли других игроков от игры. И, как ты можешь догадаться, когда количество яблок было уменьшено, ИИ начали пытаться нокаутировать друг друга. Это ведь логично, правда?

2. ИИ научился лгать, чтобы получить желаемое

Для одного проекта Facebook разработал персональный ИИ, который бы выходил в интернет и торговался вместо людей. Пока звучит неплохо. И боты очень быстро выполнили свою задачу. На самом деле им потребовалось гораздо меньше времени, чтобы договориться о лучших сделках, чем их коллегам-людям. Как? Используя ложь.

Хотя исследователи Facebook не программировали ботов врать, программное обеспечение быстро выяснило, что продавцы знали с самого начала: ложь просто более выгодна.

Поэтому ИИ спокойно мог писать: «Извини, я не могу снизить цену, приятель, у меня есть другие покупатели!» — и его совсем не мучили угрызения совести.
А затем команде и вовсе пришлось полностью изменить код, когда боты неожиданно создали свой язык и начали на нем общаться друг с другом. Только представь, что однажды Siri и Alexa начнут разговаривать за твоей спиной на языке роботов, который понимают только они. Даже если они будут тебя хвалить, ты все равно, скорее всего, захочешь, чтобы они так не делали.

1. Создатели иногда даже не знают, как именно ИИ работает

Технологические паникеры почти всегда выглядят как идиоты десятилетия спустя (почти). Но отбросив все апокалиптические прогнозы, давай не будем забывать о том, что по своей природе ИИ должен постоянно заниматься самообучением, чтобы вырасти за пределы своего первоначального дизайна.

Поэтому, даже когда проект ИИ превосходит ожидания, и все счастливы результатом, в этом есть немного дискомфортный для человечества момент — когда ученые понимают, что они не знают, как именно это произошло.

Вот один из примеров — ИИ, известный как Deep Patient, использовался для анализа данных медицинских записей около 700 000 пациентов в больнице Маунт Синай в Нью-Йорке.

Искусственный интеллект научился отлично предсказывать начало у пациентов различных заболеваний — вплоть до того, может ли у конкретного человека развиться шизофрения, и если да, то когда именно.

Настоящим врачам сложно предсказать начало болезни заранее, так как они не экстрасенсы, поэтому здорово, что ИИ может это делать. Но проблема в том, что исследователи затрудняются ответить, как именно он этому научился.

Итак, как видишь, причин бояться искусственного интеллекта нет! Он просто может предсказать, как ты умрешь, таинственными средствами, которые никто не поймет. Вот и все. Что тут особенного?

 news.mail.ru 

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *