В РФ разработали комплекс досмотра, оценивающий степень опасности людей для окружающих

Специалист по искусственному интеллекту объяснил MSK1.RU, что здесь не так.


В России разработана система, способная выявлять в общественных местах потенциальных преступников по их активности в соцсетях. Об этом заявил в интервью ТАСС генеральный директор АО «Радиотехнический институт имени академика А. Л. Минца» Юрий Аношко.

По его словам, система позволяет создать профайл человека и оценить степень его угрозы для общества по совокупности характерных признаков, в том числе исходя из его активности в Сети. Определенное количество комплексов под названием «Досмотр», как утверждает Аношко, уже заказаны российскими силовыми структурами.

Об устройстве такой системы и о том, в чем ее слабости, мы поговорили с Алексеем Цессарским — генеральным директором компании IVA Cognitive, экспертом в сфере искусственного интеллекта.

— Алгоритм работы системы «Досмотр» схож с привычной нам функцией поиска по лицам, давно доступной в ряде соцсетей, — объяснил MSK1.RU Алексей. — Например, когда соцсеть предлагает вам отметить друзей на фото, их лица программа распознает благодаря фотографиям, которые они разместили на своих страницах. Так же и здесь: программа проиндексировала некоторое количество аккаунтов в соцсетях и извлекла из фото биометрию (запечатлела лицо, которое она теперь сможет узнать где угодно, в том числе на видео с камер наблюдения. — Прим. ред.).

«Что вызывает беспокойство, так это достоверность полученных данных: при таком количестве анализируемой информации неизбежно будут погрешности»

Алексей Цессарский, эксперт в сфере искусственного интеллекта

По результатам индексации создается единая база, к которой подключается другая программа, цель которой — анализировать уже сам контент, который в своих аккаунтах размещают пользователи. Она просматривает подписки, репосты, фотографии, поисковые запросы, анализирует их и делает вывод, опасен ли тот или иной человек для общества.

— Думаю, у них есть какая-то статистическая база, — рассказал Цессарский. — Например, с информацией, что люди опасные интересуются конкретными темами: оружием, наркотиками, черным рынком, возможно, криптовалютой. Если человек в своем личном аккаунте часто обращается к этим темам, нейросеть может счесть его опасным.

После интеграции такой программы в системы охраны общественных мест, пристальному досмотру будут подвергаться те, на кого она укажет. Например, среди посетителей вокзала нейросеть, распознающая лица, будет выделять отдельных людей, сверяться с базой и сигнализировать охране о подозрительных личностях.

— Сам поиск может быть практически мгновенным: если бюджет позволяет, мощное оборудование будет выполнять такую операцию за доли секунды. Что вызывает беспокойство, так это достоверность полученных данных: при таком количестве анализируемой информации неизбежно будут погрешности, вызывающие ложные срабатывания нейросети, — сообщил MSK1.RU эксперт.

«Как в сказке про Петю и волков, программа может постоянно сигнализировать о ложной опасности, что повышает вероятность пропустить опасность реальную»

Алексей Цессарский, эксперт в сфере искусственного интеллекта

— Например, оружием может интересоваться не потенциальный убийца, а заядлый охотник или коллекционер раритетных винтовок. А если подавляющее большинство указанных программой людей будут обычными мирными гражданами, сами сотрудники охранных служб к нововведению будут относиться несерьезно. К тому же, может получиться так, что пока охрана пристально досматривает гражданского по ложному сигналу системы, мимо проходит реальный преступник.

На вопрос, есть ли вероятность, что технология имеет потенциал усовершенствоваться в будущем и стать точнее, Алексей Цессарский не смог ответить с уверенностью:

— Конечно, правильная настройка системы может снизить количество ложных срабатываний. Например, если программа, работающая на вокзале в Москве, будет автоматически анализировать только профили москвичей, информационного шума станет меньше. Но вместе с тем появится вероятность, что преступника из другого города, приехавшего в Москву, нейросеть не распознает. В этом главная проблема — сложно найти баланс между совокупной себестоимостью такой амбициозной программы и ее практической эффективностью.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *