Сделать ИИ членом команды | Большие Идеи

? Тренды
Статья, опубликованная в журнале «Гарвард Бизнес Ревью Россия»

Сделать ИИ
членом команды

Почему алгоритмы должны работать на людей, а не вместо них

Авторы: Борис Бабик , Дэниел Чэнь , Теодорос Эвгениу , Анн-Лор Файяр

Сделать ИИ членом команды
Jean-Baptiste Perrot

читайте также

Путевые заметки: берлинский душ и принятие перемен

Ицхак Адизес

Как команде строиться

Марина Иванющенкова

Куда катится мир

Денис Песков

Не выйти в тираж

Елена Евграфова

Большинство респондентов опроса, проведенного институтом занятости в 2018 году среди 3 тыс. менеджеров из восьми промышленно развитых стран, считают искусственный интеллект ценным драйвером эффективности. И это неудивительно: искусственный интеллект дает существенный выигрыш в скорости, точности и единообразии выполнения заданий (машины никогда не устают), и потому профессионалы на него полагаются. В частности, в медицине ИИ применяют для диагностики и выбора метода лечения.

Однако те же самые респонденты, да и не только они, опасаются, что технологии сделают их работу ненужной. Газета Guardian недавно писала, что страх быть замещенным машиной испытывают более 6 млн работающих британцев. О таких опасениях говорят также ученые и управленцы, которых мы слушаем на конференциях и семинарах. Достижения ИИ действительно можно рассматривать как угрозу: если компьютер эффективнее сотрудников, то зачем они нужны?

Распространенность подобных страхов означает, что организации, ищущие способы повысить ­эффективность за счет интеллектуальных систем, должны быть особо внимательны к людям, которым предстоит с ними работать. Эндрю Уилсон, до января 2020 года занимавший пост директора Accenture по ИТ, утверждает: «Чем больше организация фокусируется на том, как ИИ поможет людям, а люди в свою очередь помогут ИИ, тем больше выгод она приобретет в результате внедрения». Accenture обнаружила: компании, четко заявляющие, что ИИ — средство, а не цель, по большинству критериев качества управления — скорости, масштабируемости и эффективности принятия решений — далеко опережают прочие.

ИДЕЯ КОРОТКО

Проблема
Многие компании с трудом внедряют ИИ и не получают от него ожидаемого выигрыша в эффективности.
Причина
Топ-менеджеры зачастую не дают себе труда объяснить, что ИИ призван повысить производительность сотрудников, а не занять их место.
Как все исправить
Отнеситесь к внедрению ИИ как к вводу нового сотрудника в курс дела, разделив процесс на четыре фазы: ассистент — наблюдатель — наставник — коллега.

Другими словами, искусственный интеллект, подобно новичку в коллективе, должен правильно себя поставить. Разумный работодатель обучает новобранцев, давая им несложные задачи и помогая набраться опыта в не слишком ответственных ситуациях, а также закрепляет его за наставником, к которому можно обратиться за поддержкой и советом. Это позволяет подготовить сотрудника, не мешая остальным работать над более серьезными заданиями. Накопив опыт и продемонстрировав свои умения, новичок становится для наставника своего рода проводником идей, которому можно поручать все более значимые решения. Со временем он вырастает из подмастерья в мастера и начинает делиться навыками и наработками с другими.

Мы уверены, что то же самое верно и для искусственного интеллекта. Ниже мы, опираясь на исследования, в том числе наши собственные, и опыт консультирования по внедрению информационных и ИИ-систем, а также изучения инноваций и рабочих практик в организациях, предложим четырехэтапный подход к внедрению ИИ. Он позволяет предприятиям поддерживать доверие сотрудников (ключевое условие для принятия нового) и продвигаться к созданию распределенной когнитивной системы человеческого и искусственного интеллекта, непрерывно улучшающей тот и другой. Многие организации экспериментировали с этапом 1, некоторые успели перейти к этапам 2 и 3. Этап 4 пока что, скорее всего, лишь попытка заглянуть в будущее — однако уже технически осуществимая. Она принесет дополнительные выгоды компаниям, все глубже погружающимся в ИИ.

Этап 1

АССИСТЕНТ

Первая фаза «трудоустройства» искусственного интеллекта аналогична процессу обучения подмастерья. Новый сотрудник должен постичь ряд базовых правил и взять на себя простые, но затратные по времени задачи (например, заполнение онлайн-форм или аннотирование документов), чтобы остальные могли сосредоточиться на более значимых. Стажер учится, наблюдая, выполняя задания и задавая вопросы.

Типичное задание для ИИ как ассистента — сортировка данных. Примером могут служить системы рекомендаций, используемые компаниями с середины 1990-х годов для помощи клиентам в фильтрации тысяч товаров и поиска наиболее подходящих. Среди лидеров в данной технологии стоит назвать Amazon и Netflix.

Сортировка сегодня требуется во множестве ситуаций. Скажем, когда портфельный менеджер выбирает акции для инвестиций, он не в состоянии сам перелопатить всю доступную — и продолжающую поступать — информацию о них. Упростить задачу может программное обеспечение, моментально фильтрующее акции по заданным критериям. Но технологии понимания естественного языка идут дальше: они выявляют актуальные для конкретных компаний новости и даже способны оценить общее настроение рынка в отношении грядущего корпоративного события, отраженного в аналитических отчетах. Основанная в 2002 году лондонская инвестфирма Marble Bar Asset Management (MBAM) одной из первых начала применять эти технологии. Она разработала собственную информационно-аналитическую платформу RAID для помощи портфельным менеджерам в изучении массивов данных о корпоративных событиях, новостях и динамике цен акций.

Другая задача ИИ как ассистента — создание моделей поведения человека. Всякий, кто пользовался Google, помнит: как только вы начинаете вбивать в поисковик запрос, на экране появляются варианты продолжения. Таким же образом ускоряет процесс общения предиктивный ввод текста на смартфоне. Моделирование, связанное с так называемой интеллектуальной самозагрузкой, разработано более 30 лет назад. Его легко применить к принятию решений. ИИ использует его для указания на наиболее вероятный (учитывая предыдущие) выбор, который предлагается заваленному делами сотруднику в качестве отправной точки, ускоряя, но не выполняя за него работу.

Рассмотрим конкретный пример. Решая, сколько еды и напитков заказать для конкретного рейса, сотрудники авиакомпании проводят калькуляцию исходя из своих расчетов и предыдущего опыта. Ошибки чреваты проблемами: если пассажиру не хватит еды, он может больше не полететь с компанией, а лишний груз попадает в отходы и влечет за собой дополнительный расход топлива.

В решении данной задачи очень помог бы алгоритм. Искусственный интеллект может предсказать нужный объем заказа, анализируя предыдущие решения или используя заданные менеджером правила. Подобное автозаполнение рекомендуемых объемов можно адаптировать под каждый рейс с учетом всех значимых прошлых данных, в том числе потребления еды и напитков на конкретном маршруте и даже покупательского поведения зарегистрированных на рейс пассажиров. При этом, как и в случае предиктивного ввода текста, человек вправе произвольно менять рекомендации машины: бразды правления всегда у него, ИИ только ассистирует, воспроизводя или предвидя его стиль принятия решений.

Менеджерам не придется привыкать к такой работе с технологиями. Мы уже пользуемся подобными механизмами в быту, например используя функцию автозаполнения онлайн-форм. На работе же менеджер может, скажем, задать ИИ-ассистенту конкретные правила заполнения этих форм. По сути, многие программные решения из ныне используемых в компаниях (допустим, программы кредитного рейтинга) именно таковы: они представляют собой совокупность заданных человеком правил принятия решений. ИИ-ассистент может отточить эти правила, кодифицируя условия, в которых менеджер следует им. Подобное обучение не требует от менеджера ни изменения собственных методов, ни затрат времени на обучение ассистента.

Этап 2

НАБЛЮДАТЕЛЬ

Следующим шагом станет настройка ИИ-системы на предоставление обратной связи в реальном времени. Благодаря возможностям машинного обучения искусственный интеллект можно натренировать точно предсказывать пользовательские решения в конкретной ситуации (некачественные решения могут быть связаны, например, с самонадеянностью или усталостью). Если пользователь собирается сделать выбор, разительно отличающийся от прежних, система указывает на это. Это особенно полезно при массовых решениях, когда трудно не утомиться и не отвлечься.

Исследования в сфере психологии, поведенческой экономики и когнитивистики указывают на то, что способности человека ограничены и несовершенны, и в особенности — в решении характерных для бизнеса статистических и вероятностных задач. Ряд работ (соавтор данной статьи Чэнь участвовал в одной из них) по анализу судебных решений показал, что обычный судья предоставляет политическое убежище до ланча чаще, чем после, присуждает меньший тюремный срок, если накануне выиграла его любимая футбольная команда, и готов давать поблажки ответчику в день его рождения. Очевидно, что, если снабдить судью программным наблюдателем, указывающим на непоследовательность или несоответствие решения сугубо юридическим критериям, это пойдет на пользу правосудию.

ИИ готов стать таким наблюдателем. Другое исследование (его соавтором тоже был Чэнь) продемонстрировало, что ИИ-программы, работающие с созданной авторами моделью на базе юридических показателей, способны предсказать решения о предоставлении политического убежища с точностью около 80% уже в момент открытия дела. Авторы добавили в программу функцию самообучения — и теперь программа может симулировать образ действий конкретного судьи на основе его прошлых вердиктов.

Такой подход успешно переносится и в другие ситуации. Например, когда портфельные менеджеры Marble Bar Asset Management рассматривают рискованные решения о покупке или продаже активов — допустим, повышающие риски в сомнительном секторе или регионе, — система предупреждает их об этом всплывающим сообщением, помогая лишний раз обдумать варианты. Менеджер вправе игнорировать эти сообщения, если его решение не выходит за рамки корпоративных норм риска, но своевременная обратная связь в любом случае полезна.

Конечно, ИИ не всегда прав. Зачастую его предложения не учитывают какую-либо надежную приватную информацию, доступ к которой имеется у принимающего решения человека. Поэтому есть риск, что машина не исправит субъективную ошибку, а заведет сотрудника не туда. Тем важнее рассматривать общение с ней как диалог, в котором алгоритм выдает результат в соответствии с имеющимися у него данными, а человек совершенствует его, объясняя, по какой причине не воспользовался подсказкой. Это делает ИИ полезнее и сохраняет автономию принимающего решения сотрудника.

К сожалению, многие ИИ-системы подавляют эту автономию. Скажем, если алгоритм пометил банковскую транзакцию как потенциально мошенническую, сотрудник часто не имеет права одобрить ее без утверждения начальника или даже внешнего аудитора. Порой отменить решение ИИ-системы фактически невозможно — и это раздражает как ее пользователей, так и службу поддержки такой системы. Во многих случаях мотивы решений ИИ непрозрачны — и сотрудник не имеет возможности их узнать, даже если он явно выдал ошибочную рекомендацию.

Другая серьезная проблема при сборе алгоритмом данных о принимаемых решениях — конфиденциальность. Мы должны не просто сделать человека главным при взаимодействии с ИИ, но и гарантировать защиту его данных, обобщаемых машиной. А системные администраторы, отвечающие за ИИ, должны быть отделены от начальства «стеной» конфиденциальности — иначе сотрудник будет опасаться, что, если он начнет обращаться к ИИ по своему усмотрению, его накажут за ошибки.

Кроме того, компании должны задавать правила разработки и использования ИИ, обеспечивающие последовательность корпоративных норм и практик. В этих правилах может указываться уровень предиктивной точности, при котором выдается подсказка или ее обоснование, критерии необходимости подсказки, условия, при которых сотрудник должен либо следовать указаниям ИИ, либо передать проблему вышестоящему (а не просто принять или отклонить подсказку).

Чтобы будущие пользователи не почувствовали, что все решено без них, мы рекомендуем менеджерам и разработчикам системы вовлекать их в создание ИИ. Пусть в качестве экспертов они определят, какие данные стоит использовать и как проверять правильность получаемых выводов, пусть познакомятся с моделями еще на стадии разработки и помогут обучить и улучшить эти модели при развертывании. В процессе сотрудники поймут, по какому принципу строится модель, как обрабатываются данные и почему машина выдает именно такую рекомендацию.

Этап 3

НАСТАВНИК

Почти 60% участников недавнего опроса PwC указали, что хотели бы получать сторонний отзыв о своей работе каждый день или каждую неделю. Это понятно: как заявил Питер Друкер в нашумевшей статье 2005 года «Управление собственной жизнью» («Harvard Business Review»), люди чаще всего вообще не знают своих сильных сторон или заблуждаются по этому поводу.

Проблема в том, что единственный способ выяснить свой потенциал, в том числе для его развития, — тщательный анализ решений и действий. Для этого нужно задокументировать ожидаемый результат, а затем, спустя девять месяцев или год, сравнить его с реальным. Поэтому сотрудники чаще всего получают оценку своих профессиональных качеств от начальства во время аттестации, а не тогда и не в том формате, в каком они бы хотели. Это досадно, ведь, как выяснила в недавнем исследовании психолог Тесса Вест из Нью-Йоркского университета, чем увереннее и самостоятельнее чувствует себя человек, в частности, в вопросе о том, когда и как он хочет получать отзыв, тем больше шанс, что он на него правильно среагирует.

ИИ может взять на себя эту обратную связь, генерируя отзывы, помогающие сотрудникам, видя свои результаты, осмысливать отклонения и ошибки. Ежемесячная ИИ-аналитика данных о прошлых действиях выявляет паттерны решений и рабочих приемов каждого. Ее внедрили немало компаний, в основном финансового сектора. В частности, портфельные менеджеры МВАМ получают обратную связь от аналитической системы, фиксирующей индивидуальные инвестиционные решения.

Данные могут вскрыть в действиях менеджеров интересные и характерные для каждого стереотипы. Выяснится, что одни нетерпимы к потерям и слишком долго держатся за убыточную инвестицию, а другие слишком уверены в себе, — и держат чересчур крупную позицию по выбранной инвестиции. Алгоритм выявляет подобное поведение и, подобно наставнику, предлагает персональную обратную связь, показывая, как меняются решения менеджера и как можно их улучшить. При этом решение о применении этой обратной связи остается за менеджером. Руководство МВАМ убеждено: именно этот «улучшатель трейдинга» становится ключевым преимуществом компании, помогая как развивать портфельных менеджеров, так и повышать привлекательность компании как работодателя.

Более того, «коуч-бот» на базе машинного обучения улучшает свой коучинг исходя из поведения «опекаемого» сотрудника так же, как хороший наставник учится у своих учеников. Человек может не согласиться с ботом — как и ученик с наставником, — и тем самым породить новые данные, меняющие модель ИИ. Например, если портфельный менеджер решает не работать с рекомендуемых активом, зная о недавних событиях в этой компании, он может ввести в систему соответствующее объяснение. Получая обратную связь, система постоянно фиксирует данные и анализирует их, ища закономерности.

Если сотрудники понимают и контролируют работу с искусственным интеллектом, они воспримут его обратную связь как безопасную и полезную, а не как оценивающую и карающую. Здесь важно выбрать правильный интерфейс. Например, МВАМ персонализирует под предпочтения конкретного портфельного менеджера все инструменты трейдингового ИИ — в частности, визуальные.

На этом этапе, как и на предыдущем, очень важно привлечь сотрудников к разработке системы. Столкнувшись с ИИ в роли наставника, человек еще в большей степени тревожится за свои права. Алгоритм может казаться ему как партнером, так и конкурентом — а кто готов чувствовать себя глупее машины? Опасения потери автономности и конфиденциальности тоже нарастают. Но, если вы не доверяете своему коучу, работа с ним бесполезна. А если коуч делится невыгодными для вас данными с отделом кадров, вы вряд ли будете ему открываться.

Развертывание ИИ на трех первых этапах, безусловно, влечет за собой некоторые потери. В долгосрочной перспективе новые технологии всегда создают больше рабочих мест, чем уничтожают, однако в краткосрочной — производят переворот на рынках труда. Более того, как утверждает Мэтт Бин в статье «Тайные ученики умных машин» («renchen.ru», ноябрь 2019 г.), внедряющие ИИ компании иногда закрывают для сотрудников какие-то возможности производственного обучения и коучинга.

Таким образом, существует риск не только потерять рабочие места начального уровня (ведь цифровые ассистенты могут их заменить), но и отучить будущих управленцев принимать решения самостоятельно. Впрочем, этого можно избежать. Бин предлагает организациям применять искусственный интеллект для проработки онлайн-обучения сотрудников, параллельно делая систему прозрачнее и давая человеку контроль над процессом. Поскольку формирование будущих работников будет происходить в среде с участием машин, они почти наверняка будут лучше нынешних замечать возможности для инноваций и предлагать нововведения для роста выгоды и создания новых рабочих мест. И тут мы, наконец, выходим на четвертую фазу процесса.

Этап 4

КОЛЛЕГА

Когнитивный антрополог Эдвин Хатчинс создал так называемую теорию распределенных когнитивных процессов. Она основана на его исследованиях морской навигации, которая, как он показал, невозможна без моряков, навигационных карт, линейки, компаса и прокладочного инструмента. Эта теория соприкасается с концепцией расширенного сознания, утверждающей, что когнитивная обработка и связанные с ней мыслительные процессы вроде веры и намерения необязательно относятся только к мозгу или даже организму в целом. Внешние инструменты могут при определенных обстоятельствах играть роль в когнитивной обработке, создавая связанную систему.

Примерно таким же образом на финальном этапе проникновения ИИ в жизнь компании (до которого, насколько мы знаем, еще не дошла ни одна организация) возникнет связанная сеть людей и машин, которую каждый участник будет пополнять своим опытом. Мы убеждены, что по мере совершенствования ИИ через взаимодействие с конкретными пользователями анализ и даже моделирование экспертов с опорой на данные о прошлых решениях и действиях в организациях с полной интеграцией коуч-ботов естественным образом возникнет сообщество экспертов — людей и машин. Скажем, директору по закупкам будет очень полезно в момент принятия решения не просто нажать кнопку и посмотреть цены конкурентов, но и узнать экспертное мнение.

Хотя технологии для создания подобного коллективного разума уже существуют, перейти на эту фазу непросто. В частности, интеграция ИИ по такому принципу должна быть защищена от старых и новых искажений и предвзятостей, а также нарушений конфиденциальности, чтобы сотрудники могли доверять машине как коллеге. Это само по себе достаточно серьезная проблема, учитывая объемы исследований, доказывающих, что доверие трудно завоевывается даже среди себе подобных.

Выстраивание доверия на работе опирается на взаимосвязь между доверием и пониманием — ее изучал Дэвид Дэнкс и его коллеги по Университету Карнеги — Меллона. Согласно их модели, я доверяю партнеру, потому что понимаю его ценности, желания и намерения, которые служат гарантией его готовности понять мои интересы. Исторически служившее базой для доверия в человеческих отношениях понимание подходит и для отношений между человеком и машиной: люди опасаются искусственного интеллекта во многом именно из-за непонимания принципов его работы (см. врезку «Если ИИ сбился с пути»).

Важный вопрос в выстраивании понимания — что значит «объяснить» и, тем более, объяснить хорошо? Ответу на него посвящено множество исследований. В частности, один из нас (Эвгениу) пытается открыть «черные ящики» машинного обучения с помощью так называемых контрафактических объяснений, то есть декодирования решения ИИ-системы (например, об одобрении кредита по транзакции) путем выявления краткого списка повлиявших на это решение характеристик данной транзакции. Будь любая из этих характеристик иной, система приняла бы другое решение (кредит был бы отклонен).

Эвгениу также пытается узнать, что люди воспринимают как хорошее объяснение решений искусственного интеллекта. Например, какое объяснение кажется более доходчивым: изложенное в терминах логической комбинации свойств («Транзакция была одобрена, потому что обладала характеристиками X, Y, Z») или в связи с другими решениями («Транзакция была одобрена, потому что она аналогична прочим одобренным транзакциям, вот они»)? Исследования объяснимости алгоритмов будут продолжаться и впредь, делая ИИ-системы более прозрачными и способствуя доверию к ним.

ЕСЛИ ИИ СБИЛСЯ С ПУТИ

В 2016 году расследовательское СМИ ProPublica опубликовало обличительный материал о COMPAS — программе прогнозирования рисков с помощью ИИ, используемой судьями на юге Флориды для оценки шанса рецидива преступления в тот или иной период.
Алгоритм в основе COMPAS является секретом фирмы ее производителя Northpointe (ныне Equivant), а это означает, что неизвестны ни механизмы принятия ею решений, ни данные, на которых программа обучается. Таким образом, оценить качество ее выводов невозможно. Выяснилось, однако, что этот алгоритм выдает разные результаты по разным расам, после чего COMPAS немедленно стала популярнейшим примером того, почему нельзя доверять ИИ.
Если компания хочет, чтобы сотрудники приняли и использовали ИИ-системы, доверяя их решениям, необходимо открыть черный ящик (насколько это возможно по закону) тем, кто будет взаимодействовать с технологиями. Как выразился главный научный сотрудник Salesforce Ричард Сочер, «если компании используют для принятия решений ИИ, их долг — объяснить людям, как именно он принимает решения».

Внедрение новых технологий никогда не было простым — и чем более мощной является технология, тем сложнее ее внедрить. Искусственный интеллект, будучи потенциально исключительно эффективным инструментом, кажется особенно трудным в развертывании. Однако при грамотном подходе начало работы с ним может пройти без проблем. Именно поэтому важно, чтобы компании ответственно подошли к планированию и разработке ИИ — особенно в смысле прозрачности, автономности принятия решений и конфиденциальности — и вовлекли в процесс тех, кто будет с ним работать. В противном случае сотрудники будут вправе опасаться притеснения — или даже вытеснения — со стороны машин, умеющих принимать самые разные решения недоступными человеческому пониманию способами.

Чтобы люди доверяли ИИ, главное — преодолеть подобные страхи. Люди должны определять базовые правила для всех четырех фаз, описанных выше. Ответственно подойдя к созданию искусственного интеллекта, можно сделать его настоящим партнером (и учеником!) сотрудника, моментально и последовательно обрабатывающим массивы разнородных данных и дополняющим человеческую интуицию и креативность.

Об авторах

Борис Бабик (Boris Babic) — преподаватель теории принятия решений в INSEAD.

Дэниел Чэнь (Daniel L. Chen) — профессор Института опережающих исследований при Тулузской школе экономики, ведущий исследователь программы Всемирного банка «Данные и свидетельства по реформированию системы правосудия».

Теодорос Эвгениу (Theodoros Evgeniou) — профессор теории принятия решений и управления технологиями в INSEAD, советник упомянутой в статье инвестиционной фирмы Marble Bar Asset Management.

Анн-Лор Файяр (Anne-Laure Fayard) — доцент теории организации, инноваций и дизайна в Инженерной школе Тандонов при Нью-Йоркском университете.