MWC2018: почему AI-помощники отучат нас принимать решения

Первый день я решил посвятить секциям про искусственный интеллект (AI).
Основная тема, о которой все говорят и уже вовсю используют, — AI-помощники и
динамические AI-приложения на смартфонах. То, что помощники везде, — уже не
новость, а данность. Они есть у врачей, поваров, космонавтов, экскаваторщиков,
учителей, а какие-то профессии даже заменили полностью. И их будет все больше и
больше благодаря огромному количеству данных и развитию персональных
рекомендаций. Но возникает вопрос — что дальше? Об этом Роб Хай, вице-президент
IBM, Клара Неппель (IEE), Аурелия Полс (OX3 Analytics SL) и профессор Оксфорда
Пола Боддингтон говорили на секции AI Everywhere: Ethics and Responsibility
(«АI везде: этика и ответственность»).

В своем выступлении Роб Хай поднял такую тему: как построить лучшее будущее
для всех нас и при этом не испортить/не разрушить его, подсадив на безусловно
верные советы от AI. Помните фильм «Приключения Электроника»? Кто из нас не
мечтал о своей копии, которая будет ходить за тебя в школу, делать уроки, а ты
в это время — кататься на мопеде. Безусловно, никто из нас не любит принимать
решения, потому что за них нужно нести ответственность.

MWC2018: почему AI-помощники отучат нас принимать решения

Мы видим это и на своем опыте. В нашем биддере Marilyn есть больше сотни
вариантов настроек, но все любят и просят пресеты, а лучше просто кнопку
«сделайте хорошо». Но что хорошо для одного — не всегда хорошо для другого.
Алгоритмы для советников пишут разработчики, в большинстве случаев исходя из
рациональности, но все мы знаем, что рациональное — не всегда верное. Когда ты
самостоятельно принимаешь решение и вводишь настройки, то несешь
ответственность за последствия. Когда решение принимается на основе
рекомендации, большинство из нас снимают с себя ответственность. Но именно
ответственность делает нас разумными людьми.

В качестве примера Пола Боддингтон привела эксперимент психолога Милгрэма,
описанный в книге «Подчинение авторитету: экспериментальное исследование». На
основе эксперимента
(подробнее можно прочесть здесь) Милгрэм выдвинул теорию
субъективности, согласно которой суть подчинения заключается в том, что человек
приходит к рассмотрению себя как инструмента для исполнения желаний другого
человека и более не считает себя ответственным за свои действия. Как только
происходит критический сдвиг сознания, за ним следуют все основные признаки
подчинения. Для того, чтобы произошел сдвиг, нужно безусловное доверие. На
слайде приведены примеры доверия общества разным индустриям. Как видите, у
IT-индустрии самый высокий процент доверия.

MWC2018: почему AI-помощники отучат нас принимать решения

Повсеместное проникновение AI-помощников в нашу жизнь со временем может
привести к тому, что общество разучится брать на себя ответственность, а
следовательно — и управлять собой.

Казалось бы, эту проблему можно решить, если дать обществу возможность
вносить корректировки в обучающий алгоритм. Но все мы помним
пример с
виртуальным помощником
от Microsoft, которого затроллили в Twitter и
превратили в нациста, почитателя Гитлера. А ведь изначально предполагалось, что
чат-бот будет говорить с другими пользователями «как девочка-подросток». Или
был еще курьезный случай с голосовым помощником Amazon Echo, неправильно
разобравшим слова маленького мальчика и вместо детских песен включившим трек
под названием Porn Detected.

Все это вроде бы скучные вещи, больше напоминающие сюжет фантастического
фильма, но если посмотреть на серьезные планы больших компаний по интеграции
AI-помощников в нашу жизнь, то понимаешь, что описанное выше — уже реальность.
Вопрос только в скорости передачи данных, но и он решится с приходом 5G.

Как следствие, сейчас ведутся разговоры о повсеместном регулировании и
контроле. В ЕС есть
Общий регламент по защите данных (GDPR), который должен
вступить в силу 25 мая 2018 года. И к нему уже хотят ввести не только понятие
Data agent, но и Algorithm agent, отвечающее за решения, принятые его
алгоритмом. С одной стороны, звучит позитивно, но с другой — может сказаться на
развитии AI-отрасли. В свою очередь государство получит возможность
регулировать рекомендации, что звучит уже не очень хорошо. Участники секции
также пришли к выводу, что при создании продуктов с AI метрика успеха должна
складываться не только из наиболее рационального решения с точки зрения
математики, но и исходя из того, как на решение подобной задачи смотрит
общество.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *