читайте также
В январе 2018 года вице-президент по исследованиям компании Gartner Аннетт Циммерманн заявила: «К 2022 году ваше персональное устройство будет знать о вашем эмоциональном состоянии больше, чем члены семьи». Всего два месяца спустя было опубликовано исследование ученых из Университета Огайо, которые утверждают, что их алгоритм может распознавать эмоции лучше, чем люди.
Системы искусственного интеллекта скоро будут распознавать, интерпретировать, обрабатывать и воспроизводить человеческие эмоции. Комплексный анализ мимики и голоса в сочетании с глубоким обучением уже позволяет ИИ расшифровать человеческие эмоции для маркетинговых исследований и выборных кампаний. По оценкам специалистов, рынок эмоциональных вычислений, на котором работают такие разработчики ПО для анализа эмоций, как Affectiva, BeyondVerbal и Sensay, к 2022 году ожидает рост до $41 млрд, потому что в гонку по расшифровке эмоций пользователей вступают такие игроки, как Amazon, Google, Facebook и Apple.
Развитие технологий не в области управляемых статистических данных, а в сфере эмоциональных вычислений поможет брендам установить связи с клиентами на значительно более глубоком личном уровне. Но считывание человеческих эмоций — тонкий вопрос. Эмоции — это очень личное, и пользователи будут беспокоиться о нарушении конфиденциальности и возможности манипулирования ими. Поэтому руководители бизнеса, прежде чем использовать технологию, должны задать себе следующие вопросы.
1. Что вы предлагаете? Допускает ли ваше ценностное предложение использование эмоций? Можете ли вы оправдать применение эмоциональных подсказок для улучшения пользовательского опыта?
2. Каковы эмоциональные намерения ваших клиентов при взаимодействии с брендом? Каков характер взаимодействия?
3. Давали ли пользователи явное разрешение анализировать их эмоции? Контролируют ли пользователи свои данные и могут ли отозвать разрешение в любой момент?
4. Достаточно ли умна ваша система, чтобы точно считывать эмоции и реагировать на них?
5. Чем вы рискуете, если система выйдет из строя? Насколько это опасно для пользователя и/или для бренда?
Руководителям также не следует забывать о доступных сегодня вариантах применения эмоционального ИИ. Их можно поделить на три категории.
Использование эмоций для корректировки реакции
Этот способ применения ИИ признает наличие эмоций и учитывает их в процессе принятия решения, однако результат работы сервиса при этом полностью лишен эмоций.
Интерактивное речевое взаимодействие и чат-боты могут направить клиентов в нужный поток услуг быстрее и точнее, если будут учитывать эмоции. Например, в ситуациях, когда система распознает, что пользователь сердится, она направит его в другой поток или к оператору.
Система искусственного интеллекта для автомобилей компании Affectiva AutoEmotive и Ford готовят к выпуску на рынок программное обеспечение, способное распознавать человеческие эмоции, такие как гнев или недостаток внимания, и перехватывать управление автомобилем или останавливать его, чтобы не допустить аварии или агрессивного поведения.
Организации из сферы безопасности также обращается к эмоциональному ИИ, чтобы выявлять людей, находящихся в состоянии стресса или гнева. Например, правительство Великобритании следит в социальных сетях за реакцией граждан на определенные темы.
Во всех описанных случаях эмоции играют определенную роль в процессе принятия решения машиной. Однако машина все же реагирует как машина, лишь направляя людей в нужном направлении.
Целенаправленный анализ эмоций для обучения
В 2009 году компания Philips вместе с одним из банков Нидерландов разработала идею «рационализаторского браслета». Измеряя частоту пульса и уровень стресса трейдера, он не позволяет ему принимать неразумные решения. Когда пользователи осознавали, что вышли из состояния эмоционального равновесия, они делали паузу и задумывались, прежде чем принять импульсивное решение.
Умные очки Brain Power, похожие на Google Glass, помогают людям с аутизмом лучше понимать эмоции и социальные сигналы других людей. В таких очках человек видит и слышит особую обратную связь, подходящую к ситуации, например, получает подсказки о том, как люди выражают эмоции с помощью мимики, и даже информацию о собственном эмоциональном состоянии.
Эти системы анализа эмоций распознают и интерпретируют эмоции. Выводы сообщаются пользователю в целях обучения. На персональном уровне такие устройства и приложения, поддерживая между машиной и человеком коммуникацию, в которой главным остается пользователь, будут действовать аналогично браслетам для фитнеса. Только оценивать они будут не физическое, а эмоциональное состояние, помогая добиваться внимательности, осознанности и самосовершенствования.
Системы анализа эмоций в целях обучения также тестируются на группах. Например, они анализируют эмоции учеников к учителям или работников к руководителям. Масштабирование технологии может напомнить сюжеты из Оруэлла. Подобные эксперименты находятся на грани этики и вызывают беспокойство, так как могут нарушить конфиденциальность, препятствовать проявлениям креативности и индивидуальности. По этой причине менеджерам нужна соответствующая психологическая подготовка, чтобы интерпретировать результаты анализа ИИ и вносить в него адекватные корректировки.
Имитация и замена взаимодействия между людьми
Когда в 2014 году в американских домах появились умные колонки, мы начали привыкать к тому, что компьютеры называют себя словом «я». Можно считать это ошибкой, свойственной людям, или эволюционным изменением, но когда машины говорят, у людей завязываются с ними отношения.
Сегодня существуют продукты и услуги, в которых используется голосовой пользовательский интерфейс и концепция «компьютеров как социальных партнеров» для лечения и профилактики психических заболеваний. Они используют методы поведенческой терапии и выступают в роли коуча для пользователей, находящихся в кризисном состоянии. Программа Ellie помогает справиться солдатам с посттравматическим стрессом, а чат-бот Karim — сирийским беженцам с психологической травмой. Цифровым помощникам даже поручают помогать пожилым людям справляться с одиночеством.
Повседневные приложения вроде XiaoIce компании Microsoft, Google Assistant или Alexa компании Amazon используют социальные и эмоциональные сигналы в менее альтруистических целях: они добиваются лояльности пользователей, действуя как лучшие цифровые друзья. Как язвительно замечает футуролог Ричард Ван Хойдонк, если маркетолог «может заставить вас плакать, он может и заставить вас покупать».
Участники дискуссии о технологиях, вызывающих привыкание, начинают изучать намерения, которые стоят за использованием голосовых помощников. Чем грозит пользователям подключение персональных помощников к рекламе? В служебной записке Facebook, попавшей в СМИ, компания сообщает рекламодателям, что может выявить у подростков, в том числе, чувства «никчемности» и «незащищенности» и воздействовать на них.
Джудит Мастхофф из Абердинского университета говорит: «Мне хотелось бы, чтобы у людей были ангелы-хранители, которые могли бы эмоционально поддерживать их». Но чтобы достичь этого идеала, понадобится серия экспериментов (с коллективного согласия), результаты которых подскажут разработчикам и брендам нужный уровень близости отношений с устройствами. А серия неудач определит правила поддержания доверия, конфиденциальности и эмоциональных границ.
Самая большая сложность в установлении баланса в этой сфере, возможно, будет заключаться не в том, чтобы разработать более эффективные формы эмоционального ИИ, а в том, чтобы найти людей с достаточным эмоциональным интеллектом для их создания.
Об авторе. Софи Клебер — исполнительный креативный директор диджитал-агентства Huge, исследует возможности взаимодействия с пользователями. В сфере интересов Софи — экранные интерфейсы, голосовые пользовательские интерфейсы, вычисления на основе восприятия. Ее работа влияет на деятельность крупнейших в мире компаний, таких как IKEA, Under Armour, Goldman Sachs и Warner Brothers.
* деятельность на территории РФ запрещена