Скрытые угрозы потребительских ИИ-решений | Большие Идеи

? Технологии
Переводной материал

Скрытые угрозы
потребительских ИИ-решений

Как смягчить негативные последствия компромиссов, на которые мы идем, используя ИИ

Авторы: Стефано Пунтони , Ребекка Уокер Речек , Маркус Гислер , Симона Ботти

Скрытые угрозы потребительских ИИ-решений
The Halal Design Studio / Unsplash

читайте также

Почему менеджеры не слушают своих сотрудников

Виджайя Венкатарамани,  Субра Тангирала,  Элад Шерф

Истинная причина нелюбви к переменам

Киган Роберт,  Лейхи Лэскоу Лайза

Лидеру нужно заботиться о других, но одной заботы недостаточно

Жаклин Картер,  Ник Хобсон,  Расмус Хогард

Чем опасны гибкий график и удаленная работа

Дженнифер Мосс

Искусственный интеллект способен существенно облегчить нашу жизнь. Роботы заменяют множество сотрудников одновременно; фитнес-часы помогают нам худеть; приложения отслеживают наши биоритмы; алгоритмы сайтов знакомств рассчитывают совместимость с потенциальными партнерами. Точность, скорость, детальность и персонализация ИИ-решений выводят нашу работу, отдых и личную жизнь на новый уровень. Неудивительно, что эти решения проникли буквально всюду. Всего два-три десятилетия назад они существовали лишь в научной фантастике — а сегодня уже формируют корпоративную культуру и порождаемый ею потребительский опыт.

Преимущества ИИ очевидны всем. Но мы все чаще слышим и о рисках. Много пишут, в частности, о том, что миллионы замененных автоматами людей потеряют работу, что грядут изощренные ИИ-кибератаки — и даже что суперсистемы взбунтуются. Но осознаем ли мы в полной мере, с какими повседневными рисками и издержками связано потребительское использование ИИ и на какие компромиссы мы вынуждены идти при взаимодействии с обычными продуктами и услугами, в которые встроены алгоритмы?

Чтобы лучше разобраться, что мы обретаем и что теряем, применяя ИИ, авторы этой статьи — группа ученых из Университета Эразма Роттердамского (Нидерланды), Университета штата Огайо (США), Йоркского университета (Канада) и Лондонской школы бизнеса — проанализировали обширную выборку релевантных исследований, рассматривающих взаимодействие ИИ и потребителя с психологической и социологической точек зрения. Мы выделили четыре аспекта этого взаимодействия — и связанные с каждым из них компромиссы, на которые компаниям приходится идти ради экономии или улучшения обслуживания и которые стоит учитывать как руководителям компаний, так и разработчикам алгоритмов. Вот список этих аспектов, компромиссов — и предложений и рекомендаций по смягчению их негативных последствий.

• Продукты и услуги на базе искусственного интеллекта создаются машинами, но работают с людьми.

• Повсеместное проникновение таких решений помогает потребителям в целом ряде процессов, позволяя собирать и классифицировать данные, делегировать функции и общаться.

• ИИ создает огромную ценность, но и вынуждает идти на компромиссы.

• Менеджерам и разработчикам необходимо учитывать эти компромиссы и стараться устранять их.

1. Сбор данных

Искусственный интеллект использует алгоритмы для обработки крупных объемов данных и поиска закономерностей или особенностей. Далее он обучается на выявленных закономерностях и прогнозирует будущую динамику — невероятно быстро и в целом верно.

Однако данные, собираемые ИИ, принадлежат нам, потребителям. Машина анализирует принимаемые нами решения, наши предпочтения и вкусы. Именно здесь возникают трения и компромиссы.

ИИ фиксирует наши данные непрерывно. Сведения о нас и среде вокруг нас используются для повышения комфорта обслуживания — персонализации и кастомизации сервисов, информации или развлечений. Например, приложение Google Фото позволяет компании Google сохранять в своих базах все наши воспоминания — но зато помогает нам не беспокоиться о том, как не потерять сделанные снимки, где их искать, как хранить и обрабатывать.

Мы получаем индивидуальное обслуживание, не переживая и не задумываясь. Но исследования показывают, что сбор данных может вызывать у людей неприятное чувство, будто их используют: за нами следят, нами управляют непонятные системы, наши персональные данные уже как бы и не совсем наши. Дело в том, что, настойчиво собирая информацию о нас, ИИ не объясняет, как он ее применяет, и не отчитывается о своих действиях. Что в состоянии сделать компании, чтобы уменьшить этот эффект?

• Больше понимания. Важно не игнорировать вопросы конфиденциальности и асимметрии контроля над персональными данными. Ответственные организации должны прислушиваться к потребителю — внимательно и сочувственно — и не принимать за данность собственные представления о нем.

• Больше прозрачности. Разумные компании уже работают над улучшением процессов захвата данных искусственным интеллектом и позволяют потребителю вмешиваться в некоторые из них и требовать большей прозрачности в использовании информации. Чтобы люди не чувствовали себя подопытными кроликами, следует помогать им больше узнать о плюсах и минусах сбора данных алгоритмами.

 2. Классификация

Любой пользователь аккаунта Netflix или Amazon регулярно получает рекомендации, какие фильмы посмотреть или какие товары купить. Чтобы сформировать эти ультракастомизированные советы, ИИ использует индивидуальные и контекстуальные данные и подразделяет потребителей на типы. Но всегда существует опасность перейти тонкую грань между глубоким пониманием клиента и цинизмом. Если пользователь почувствует, что его загоняют в некие рамки, то будет воспринимать в штыки даже максимально полезные рекомендации. Классификация может также порождать дискриминацию или неверное понимание некоторых групп. Если алгоритмы чересчур точно классифицируют потребителей на основе определенных черт или свойств, последствия могут быть катастрофическими. Компания Apple прочувствовала это на своем горьком опыте, когда «перекосившиеся» алгоритмы начали предлагать женщинам заниженные на порядок лимиты кредита по Apple Card.

Как в таких случаях быть руководству?

• Больше тщательности. Не надо думать, что алгоритмы вашей организации идеально беспристрастны, — и не надо ждать, пока вам укажут на обратное. Неважно, требуют этого от вас на политическом или законодательном уровне или нет, — организации должны проактивно проверять и дорабатывать объективность алгоритмов вместе с техническими экспертами, учеными-информатиками, социологами и психологами.

• Больше разнообразия. Чтобы изменить классификацию к лучшему, попробуйте выбраться из привычного пузыря и перестать давать рекомендации исключительно на основе прошлых пристрастий: они не всегда определяют нынешние и будущие предпочтения и могут предлагать потребителю недостаточный выбор.

3. Делегирование

Приложения вроде Alexa, Siri и Google Assistant позволяют с помощью ИИ выполнять простые, но времязатратные задачи вроде записи к парикмахеру, составления письма или поиска по карте. Но делегирование даже рутинных заданий также требует компромиссов. Сам этот процесс может казаться пугающим. Во-первых, людям нравится чувствовать, что положительные результаты (пусть и самые простые) проистекают из их собственных действий, умений, талантов или творческих усилий. Во-вторых, передавая выбор или решение кому-то другому, человек часто оказывается меньше им удовлетворен. Наконец, в-третьих, постоянно перепоручая что-то, мы отвыкаем делать это сами — или по крайней мере нам так кажется. Не так давно прогремел скандал: японские студенты, проводившие каникулы в Австралии, в попытке добраться до острова Норт-Страдброк направили машину прямо в Тихий океан. Газеты пестрели фотографиями затонувшего автомобиля — и интервью, в которых ошарашенные туристы объясняли: GPS показывала, что там есть дорога!

Как не допустить подобных случаев?

• Больше человечности. Некоторые качества воспринимаются нами как сугубо человеческие — и зависящие от глубоких суждений, выносимых в неструктурированной среде. Организации все чаще взаимодействуют с музеями, театрами и гуманитарными факультетами университетов в стремлении лучше понять, что может сделать ИИ в деле развития (а не подмены собой!) таких человеческих особенностей, как креативность, умение сотрудничать и образовывать группы.

• Больше гибкости. В свое время широкую известность получило маркетинговое исследование, показавшее, что потребители предпочитают всем другим смесям для кекса ту, в которую надо самостоятельно вбить сырое яйцо. Почему это так? Даже самый незначительный личный вклад способен компенсировать чувство утраты контроля и мастерства и сделать делегирование более приятным процессом. В том же направлении действуют фирмы, старающиеся продумать дизайн беспилотных автомобилей так, чтобы водителю казалось, что он хотя бы частично контролирует ситуацию на дороге.

4. Общение

Вот уже много лет мы как общество пытаемся рационально и художественно осмыслить взаимодействие человека и искусственного интеллекта — вспомнить хотя бы фильм «Она», герой которого влюбляется в операционную систему. Такие приложения, как Siri и Alexa, имеют явные антропоморфные черты — и мы общаемся с ними почти как с людьми. Подобное решение дополнительно располагает нас к продукту, услуге и организации, стоящей за ними. Или не располагает. Здесь тоже важно не пересечь линию, отделяющую комфорт и вовлеченность от тревоги и отторжения.

В 2020 году на ресурсе BusinessNewsDaily обсуждался неловкий диалог.

Бот: Как бы вы объяснили своей бабушке, что такое бот?

Пользователь: Моя бабушка умерла.

Бот: Отлично! Спасибо за обратную связь! [одобрительный смайлик]

Что делать, чтобы подобное не повторялось?

• Больше информированности. Чтобы боты не промахивались, фирмы стараются побольше узнать о том, что отталкивает потребителей. Чтобы получить ценные сведения о логике, причинах и последствиях таких случаев, компании не просто собирают информацию напрямую у тех, кто недоволен общением с ботом, но и сотрудничают с экспертами — психологами, социологами, геронтологами.

• Больше заботы. Антропоморфизм — палка о двух концах. Многие дизайнеры и маркетологи убеждены, что гуманизация ИИ автоматически улучшает отношения с клиентами. Увы, так происходит не всегда. Все мы настолько разные — и эти отличия настолько сложны и тонки, — что шанс ошибиться огромен. Существенны и риски надолго положиться на опасный стереотип — такой, например, как использование пассивного или слишком услужливого женского голоса в ИИ-приложениях. Подобные моменты необходимо отслеживать и искоренять. Прогрессивные фирмы все активнее интересуются, нельзя ли сделать искусственный интеллект гендерно нейтральным, а в некоторых случаях и менее (а не более!) человекоподобным.

***

Товары и услуги с искусственным интеллектом обещают сделать потребителя счастливее, здоровее и эффективнее. Их часто считают прогрессом, устремленным ко благу — то есть потенциально способным решить не только повседневные, но и глобальные проблемы, стоящие перед человечеством. И перспективы ИИ действительно масштабны. Но масштабны и риски излишне упрощенного взгляда на этот инструмент — и готовности закрыть глаза на психологические и социологические нюансы гендерной, расовой, классовой и прочей проблематики.

Перед разработчиками и руководителями компаний стоит сложнейшая задача: подходить к созданию и развертыванию ИИ-решений добросовестно и по-человечески. Если мы будем внимательны, компетентны и бережны, искусственный интеллект не заразится нашими собственными стереотипами и слабостями.

Источник: Лондонская школа бизнеса, сентябрь 2023 г.