читайте также
Какие чувства на самом деле испытывают люди?
Компаниям всегда было сложно ответить на этот вопрос. С одной стороны, эмоции по своей природе трудно считываемы. С другой стороны, часто люди чувствуют одно, а говорят другое.
Рассмотрим, как воспринимаются рекламные ролики во время трансляции Супербоула — финального матча Национальной футбольной лиги. Согласно данным USA Today Ad Meter, в 2018 году телезрители признали лучшей рекламой ролик от Amazon «Alexa теряет голос», где знаменитости пытаются (безуспешно) заменить голосового помощника Alexa. Рекламный ролик диетической колы Groove, в котором женщина выпивает банку Diet Coke Twisted Mango и неуклюже танцует, был признан худшим. На основании этого опроса напрашивается вывод, что реклама Alexa произвела гораздо большее впечатление. По мнению исследователя в области нейробиологии и генерального директора компании Immersion Neuroscience Пола Зака, чья команда изучала нейробиологические аспекты воздействия рекламы, это не совсем соответствует действительности. Команда Зака оценила степень эмоциональной вовлеченности зрителей по изменению уровня окситоцина — «нейробиологического маркера эмоционального резонанса». Исследование показало, что ролик Groove на самом деле оказал большее воздействие. По мнению Зака, это доказывает, что для рекламы во время трансляции Супербоула характерна «нулевая корреляция» между тем, что люди говорят, и тем, что они подсознательно испытывают.
Когда мы обсуждали это явление с Заком, он заметил: «Люди обманывают, но мозг — нет».
Чтобы разобраться, что чувствуют люди, многие компании используют фокус-группы и опросы. Теперь технология эмоционального ИИ может помочь компаниям улавливать эмоциональные реакции в режиме реального времени — например, расшифровывая выражения лица, анализируя образцы голоса, отслеживая движения глаз и измеряя степень нейробиологического отклика. Конечный результат — намного более глубокое понимание клиентов и даже сотрудников.
Риски предвзятости эмоционального ИИ
Из-за субъективной природы эмоций эмоциональный ИИ особенно склонен к предвзятости. Например, одно из исследований показало, что технология эмоционального анализа приписывает больше отрицательных эмоций людям определенной этнической принадлежности. Представьте, каковы могут быть последствия в профессиональной среде, если алгоритм будет систематически определять у человека негативные эмоции, и как это отразится на карьерном росте.
К тому же часто ИИ еще не настолько совершенен, чтобы понимать культурные различия в проявлении и считывании эмоций, что затрудняет точные выводы. Например, улыбка может означать в Германии одно, а в Японии — другое. Смешение этих значений может привести к тому, что компании будут принимать неправильные решения. Представьте себе в магазине в Берлине японского туриста, которому нужна помощь. Если для обслуживания клиентов используется технология распознавания эмоций, то продавец может ошибочно прочитать улыбку — знак вежливости в Японии — как сигнал того, что помощь покупателю не нужна.
Одним словом, если оставить проблему без внимания, осознанные или бессознательные эмоциональные предубеждения могут закреплять стереотипы и предрассудки в беспрецедентных масштабах.
Как бизнесу предотвратить повсеместное распространение ошибочных предрассудков
По опыту наших исследований и работы с глобальными клиентами, компании используют технологию эмоционального искусственного интеллекта для четырех целей. В каждом случае последствия предвзятости алгоритмов явно напоминают о том, что лидеры бизнеса и разработчики технологий должны осознавать существование предрассудков и исключать их проникновение в аналитику.
Оценка эмоциональной вовлеченности сотрудников. Когда ИИ используется для распознавания эмоций сотрудников, это может серьезно повлиять на распределение задач и ролей. Например, работники часто думают, что они «на своем месте», но, принимая участие в новых проектах, могут обнаружить, что их навыки лучше подходят для другой позиции. В некоторых компаниях у сотрудников есть возможность раз в месяц попробовать себя в новом качестве и посмотреть, какая работа им нравится больше. В подобных задачах предвзятость ИИ может закреплять существующие стереотипы. Например, в США, где 89% инженеров-строителей и 81% младших чинов среди полицейских и сотрудников уголовного розыска — мужчины, алгоритм, настроившийся анализировать особенности мужского поведения, может столкнуться с трудностями при считывании эмоциональных реакций и оценке степени вовлеченности принимаемых на службу женщин. Это может привести к ошибочным решениям в профессиональной подготовке и при распределении ролей.
Разработка продуктов, учитывающих эмоции потребителей. С помощью отслеживания эмоций разработчики продукта могут узнать, какие функции больше впечатляют и привлекают пользователей. Возьмем, к примеру, платформу Auto AI от Affectiva, которая способна распознавать, например, радость и гнев, и соответствующим образом изменять атмосферу в салоне автомобиля. С помощью камер и микрофонов система может уловить, что пассажира клонит в сон и в ответ понизит температуру или резко усилит натяжение ремня безопасности. Умный помощник заговорит по-другому, если пассажир расстроен. Возможности эмоционального ИИ позволяют проектировать изменяемое качество клиентского опыта для любого продукта или услуги — будь то в салоне автомобиля или где угодно. Но адаптивные системы с искажениями будут неверно интерпретировать некоторых пассажиров. Например, пожилые люди с большей вероятностью могут быть ошибочно идентифицированы как уставшие (чем старше человек, тем меньше вероятность того, что выражения его лица будут декодированы точно). А поскольку подобные системы получают все более широкое распространение, скоро и страховым компаниям понадобятся соответствующие данные. Это в свою очередь может вылиться в более высокие страховые взносы для пожилых, ведь система будет показывать, что, несмотря на многократные призывы передохнуть, водитель продолжал управлять автомобилем.
Совершенствование инструментов для оценки удовлетворенности клиентов. Такие компании, как бостонский стартап Cogito, предоставляют бизнесу инструменты для повышения качества работы с клиентами. Такие алгоритмы способны не только определять «усталость от сочувствия» у специалистов по обслуживанию клиентов, но и подсказывать им ответы на вопросы звонящих через приложение. Расстроенный клиент, например, может обратиться с жалобой на продукт. Записывая и анализируя беседу, платформа Cogito предложит агенту замедлить темп разговора или подскажет, когда следует проявить сочувствие. Искажения алгоритма, например, в восприятии акцента или низкого тембра голоса, могут привести к тому, что с кем-то из покупателей общаться будут менее обходительно, и таких клиентов бизнес может потерять. К звонящему мужчине могут проявить меньше сочувствия, чем к женщине, что дополнительно будет усиливать общее восприятие мужчин как «эмоционально сильных». С другой стороны, обратившуюся в компанию покупательницу могут расценить как менее жесткого переговорщика, и в результате ей будет предложена меньшая компенсация. Примечательно, что сами агенты могут даже не иметь никаких предубеждений, но будут ошибочно во всем полагаться на предполагаемую точность алгоритмов. Тем самым искажения будут закрепляться — беспрепятственно и систематически.
Повышение качества обучения. Анализ эмоций может быть полезен для повышения качества обучения. Например, преподавателям подобные наработки помогли бы строить занятия максимально увлекательно, давать ключевую информацию в моменты максимальной вовлеченности слушателей и переключать внимание, когда они становятся рассеянными. Распознавание эмоций также поможет лучше понять самих учащихся и определить, кому уделить больше времени. В Китае уже начинают применять системы распознавания эмоций в классах для отслеживания степени сосредоточенности учеников. Искажения в этих оценках могут привести к тому, что процесс обучения будет больше ориентирован на определенные группы. Подумайте о разных особенностях восприятия. Некоторые из нас — визуалы. Другие учатся на практике. Третьи предпочитают интенсивную самостоятельную работу. Но алгоритм, разработанный, например, визуалом, может упускать из виду или неверно трактовать подобные механизмы. Неправильные данные о степени вовлеченности в учебный процесс могут сказываться на результатах обучения на всех этапах, в том числе и в программах повышения квалификации. Это означает, что даже в рамках производственных тренингов лишь небольшая часть сотрудников сможет получить полноценное профессиональное развитие.
Как избежать ошибок при использовании искусственного интеллекта
По мере того как все большее число компаний используют в своей работе и дизайне продукции эмоциональный ИИ, крайне важно понимать вероятность возникновения системных ошибок и активно работать над их предотвращением.
Независимо от причин — касаются ли они субъективной природы эмоций или расхождений в проявлении одной и той же эмоции, — очевидно, что распознавание чувств — нелегкая задача. Некоторые технологии отслеживают определенные эмоции лучше других, поэтому в сочетании разные методики помогут уменьшить вероятность системной ошибки. Фактически, исследование компании Nielsen, в котором проверяли точность нейробиологических технологий, таких как кодирование мимики, биометрия и электроэнцефалограмма (ЭЭГ), показало, что при использовании технологий по отдельности уровни точности достигали 9%, 27% и 62% соответственно. При совмещении технологий уровни точности выросли до 77%. Проверка полученных результатов путем опроса позволила достичь планки 84%. Таким образом, использование различных методик в сочетании друг с другом позволяет контролировать правильность результатов, обеспечивая своего рода их калибровку.
Но для учета в алгоритмах культурных особенностей потребуется не просто соединить несколько технологий. Для контроля системных искажений и полноценного отражения всей сложности проявления эмоций решающее значение будет иметь разнородный состав команд разработчиков, занимающихся проектированием алгоритмов эмоционального ИИ. При этом речь идет не только о гендерном и этническом разнообразии, но и об отличиях в социально-экономическом статусе и во взглядах — важно исключить любые проявления дискриминации от ксенофобии до гомофобии и эйджизма. Чем многообразнее исходные данные и контрольные переменные, тем выше вероятность, что удастся разработать справедливый и беспристрастный ИИ.
При обучении эмоционального ИИ компаниям важно не допускать закрепления искажений исторических данных. Накопленный материал может быть использован в качестве основы для обучения ИИ распознаванию различных эмоциональных состояний, но для контекста обязательно должна учитываться актуальная оперативная информация. Например, улыбка. Одно из исследований показало, что из 19 различных типов улыбки только шесть означают, что человек в хорошем настроении. Мы улыбаемся еще и когда испытываем боль, смущение и дискомфорт — разницу можно определить только с учетом контекста.
В целом эмоциональный ИИ может стать действительно мощным инструментом, способным подтолкнуть компании к пересмотру моделей работы с клиентами и сотрудниками. Он позволит не только создать новые системы показателей для понимания людей, но и переосмыслить концепцию продукта. При разработке эмоционального искусственного интеллекта компаниям важно не допускать распространения системных искажений. Если этого не сделать, для определенных групп людей систематически будут формироваться неправильные трактовки, что никак не соответствует наилучшему использованию возможностей эмоционального ИИ.
Авторы хотели бы поблагодарить своих коллег из компании Accenture Research — Сяо Чана, Пола Барбагалло, Дейва Лайта и Джеймса Уилсона — за их существенный вклад в эту статью.
Об авторах
Марк Пёрди (Mark Purdy) — управляющий директор компании Accenture Research.
Джон Зилли (John Zealley) — старший управляющий директор и руководитель в области изучения и развития потребительских предпочтений в консалтинговой компании Accenture.
Омаро Масели (Omaro Maseli) — старший аналитик Accenture Research.