Преступление, ИИ, наказание | Большие Идеи

? Технологии
Статья, опубликованная в журнале «Гарвард Бизнес Ревью Россия»

Преступление,
ИИ, наказание

Плюсы и минусы использования искусственного интеллекта для борьбы с преступными действиями

Авторы: Лиза Квест , Энтони Черри , Лукас дю Крю де Йонг , Субас Рой

Преступление, ИИ, наказание
PATRICK GEORGE/GETTY IMAGES

читайте также

Каждому по потребностям

Марина Иванющенкова

Глобальное экономическое разочарование интернета

Уильям Давидоу

Осознанная жизнь: рекомендации для работающих родителей

Мишель Гейл

Шесть признаков успешной цифровой трансформации

Жак Бугин,  Танги Кэтлин

Компании используют искусственный интеллект для предотвращения и расследования любых преступлений — от воровства на рабочем месте до инсайдерской торговли. Многие банки и крупные корпорации также применяют ИИ для предотвращения мошенничества и отмывания денег. С помощью машинного обучения операторы социальных сетей блокируют запрещенный контент вроде детской порнографии. Компании постоянно экспериментируют с новыми способами использования искусственного интеллекта — от оперативного выявления мошенничества до прогнозирования преступлений.

Революционна не сама по себе технология, а алгоритмы, которые лежат в ее основе, и полученные результаты. Например, банки десятилетиями используют системы мониторинга транзакций на основе заданных двоичных правил, требующих проверки результатов вручную. Показатель эффективности у них довольно низкий: в среднем, только 2% подозрительных транзакций действительно являются противозаконными. В противоположность этому современные решения на основе машинного обучения используют прогностические правила, автоматически распознающие отклонения в наборах данных. Усовершенствованные алгоритмы могут значительно сократить количество ложных сигналов тревоги: они будут фильтровать ошибочно распознанные случаи и находить те, которые действительно представляют опасность.

Учитывая количество данных в отрытом доступе и рост ожиданий со стороны клиентов и государственных органов, касающихся защиты и использования этих данных, многие компании решили, что внедрение механизмов ИИ — один из немногих способов не отставать от все более изобретательных мошенников. Предполагается, например, что социальные сети должны мгновенно находить и удалять видеоролики и сообщения, содержащие призывы к терроризму. Возможно, со временем крупные компании будут обязаны внедрять ИИ-инструменты для борьбы с преступностью в том числе и потому, что иного способа быстро обнаружить и проанализировать паттерны противозаконного поведения в огромном потоке данных просто не будет.

Определить, насколько эффективным для бизнеса окажется использование искусственного интеллекта в борьбе с преступностью можно только убедившись, что преимущества превышают возможные риски. Один из рисков заключается в том, что ИИ может делать пристрастные выводы на основании таких факторов, как этническая принадлежность, пол и возраст. Также компании могут столкнуться с недовольством клиентов по поводу того, что их данные используются не по назначению или что таким образом организации отслеживают их записи, транзакции и коммуникации (особенно если эти сведения в результате могут быть переданы властям). Например, недавно из-за протеста клиентов против политики «Большого брата» европейский банк AIB отказался от плана мониторинга аккаунтов в социальных сетях, который он намеревался внедрить для того, чтобы рассылать пользователям лучшие релевантные предложения по ипотечному кредитованию.

Как же ведущие компании оценивают преимущества и недостатки быстро развивающихся ИИ-технологий в борьбе с преступностью и в управлении рисками? Ниже мы описываем некоторые шаги, которые предпринимаются сейчас бизнесом.

Оценка стратегического соответствия

Прежде чем внедрять ИИ в сферу управления рисками, стоит разобраться, какие области уже значительно трансформированы технологией машинного обучения. Например, за счет автоматизации процессов с помощью инструментов ИИ и многоуровнего анализа на основе глубокого обучения банки быстрее фиксируют преступления и тратят на это меньше ресурсов, чем раньше. Несмотря на то, что сегодня число отчетов по подозрительным действиям, связанным с отмыванием денег, выросло в 20 раз по сравнению с 2012 годом, инструменты ИИ позволили банкам сократить количество сотрудников, занятых оценкой таких предупреждений. Это связано с тем, что технологии ИИ позволили вдвое снизить количество ложных сообщений, а также с тем, что многим банкам удалось автоматизировать повседневную работу сотрудников. Несколько примеров. Используя искусственный интеллект, PayPal смог вдвое сократить количество ложных сообщений о мошеннических действиях. А Королевскому банку Шотландии удалось предотвратить потерю более $9 млн благодаря совместному проекту с платежным сервисом Vocalink Analytics, в рамках которого они использовали ИИ для проверки транзакций малого бизнеса.

Кроме того, инструменты ИИ позволяют компаниям выявлять подозрительные паттерны, которые обычно не идентифицируются даже экспертами. Например, искусственные нейронные сети позволят сотрудникам предсказывать следующий шаг даже неопознанных преступников. Эти искусственные нейронные сети связывают миллионы, казалось бы, не связанных данных, начиная от постов в соцсетях и адресов интернет-протоколов в сетях Wi-Fi аэропортов и заканчивая данными о недвижимости и налоговыми декларациями.

Следует также оценить ожидания клиентов и государственных органов. Даже если программы управления рисками с использованием ИИ не станут обязательными, компании все равно будут стремиться занять ведущую роль в использовании передовой аналитики. Это может гарантировать, что участники отрасли, регуляторы, технологические инноваторы и клиенты будут в безопасности, а неприкосновенность частной жизни и права человека не окажутся под угрозой.

Оценка и снижение внутренних рисков

Руководителям следует рассмотреть, как идентификация преступной деятельности с помощью ИИ впишется в общую стратегию по его использованию. Управление рисками на основе ИИ и выявление и раскрытие преступлений не должны проводиться изолированно друг от друга. Тестирование на более простых моделях поможет банкам ограничить влияние необъяснимых выводов, сделанных искусственным интеллектом, особенно в случае какого-нибудь неизвестного явления, обрабатывать которое модель не была обучена. Например, банки используют искусственный интеллект для мониторинга транзакций и сокращения количества ложных предупреждений, которые они получают о подозрительных сделках, связанных с отмыванием денег. По сути это и есть тестирование на более простых моделях для определения потенциальных отклонений. Модель ИИ может, например, ошибочно игнорировать крупную транзакцию, похожую на отмывание денег. В обычной ситуации она спровоцировала бы предупредительный сигнал, но сигнала нет, поскольку в правилах модели прописано, что крупные транзакции, проводимые клиентами из богатых районов, не заслуживают столь пристального внимания. Учет таких нюансов позволяет компаниям разрабатывать более прозрачные модели машинного обучения, даже если это означает, что они будут работать в более жестких рамках.

Руководители должны оценить, могут ли используемые средства анализа данных компании работать в связке со сложными ИИ-инструментами. Если нет, то компании необходимо усовершенствовать их.

Подготовка к внешним рискам

Широкое использование инструментов ИИ для предотвращения преступных действий подразумевает и рост внешних рисков. Компания может потерять доверие со стороны общественности, регулирующих органов и других заинтересованных сторон множеством способов. Например, если будут появляться ложные предупреждения, ошибочно идентифицирующие людей как «подозрительных» и «преступников» из-за непреднамеренного, но все же встроенного в систему расового предубеждения. Реакция будет аналогичной, если системы не отследят преступления вроде незаконного оборота наркотиков или перевода денежных средств из стран, находящихся под санкциями, например, из Ирана. Скорее всего, нарушители закона будут прибегать к экстремальным и жестким методам для того, чтобы перехитрить ИИ. Если это приведет к чрезмерной зарегулированности действий пользователей, они могут отказаться от услуг компании в пользу тех, кто предложит более свободные условия. Возможна и иная угроза: сотрудники переложат свою работу на искусственный интеллект в надежде, что ИИ-инструменты все сделают за них.

Чтобы этого не произошло, компаниям необходимо создавать и тестировать различные сценарии развития событий после внедрения ИИ-инструментов для отслеживания преступной деятельности. К примеру, для того чтобы обнаружить тех, кто отмывает деньги, банки должны проводить «учения» с участием бывших сотрудников правоохранительных органов (прокуроров и следователей), которые помогут выявить слабые места системы.

На основе полученных данных руководителям и совету директоров будет проще решить, насколько компания готова к использованию ИИ в борьбе с мошенниками. Также специалисты могут разработать подробные инструкции для менеджеров на случай, если что-то пойдет не так (а это неизбежно произойдет).

С помощью искусственного интеллекта компании могут идентифицировать и помогать госучреждениям более быстро и эффективно раскрывать мошенничество, отмывание денег или финансирование терроризма, а также более тривиальные преступления вроде воровства на рабочем месте и подделки счетов. Однако наряду с очевидными преимуществами у этой стратегии есть и свои риски, которые должны быть открыто, честно и прозрачно оценены, чтобы определить, насколько удачное решение в данном конкретном случае может предложить ИИ. Это непросто, но открытая коммуникация с регуляторами и клиентами позволит компаниям выстоять в нештатной ситуации. В конечном счете, ИИ способен снижать уровень преступности — по крайней мере, до тех пор, пока им грамотно управляют.

Об авторах

Лиза Квест (Lisa Quest) — партнер лондонского офиса консалтинговой компании Oliver Wyman.

Энтони Черри (Anthony Charrie) — управляющий партнер европейского офиса консалтинговой компании Oliver Wyman.

Лукас дю Крю де Йонг (Lucas du Croo de Jongh) — партнер амстердамского офиса консалтинговой компании Oliver Wyman.

Субас Рой (Subas Roy) — партнер лондонского офиса консалтинговой компании Oliver Wyman.