
читайте также
Философия становится ключевым фактором развития искусственного интеллекта, определяя его цели, методы и ценность для бизнеса, что требует от лидеров осознанного подхода к внедрению ИИ, объясняют научный сотрудник Инициативы по цифровой экономике при Школе менеджмента Слоуна Массачусетского технологического института (MIT) Майкл Шрейдж и директор по исследованиям и главный редактор MIT Sloan Management Review Дэвид Кирон в статье для MIT Sloan.
В 2011 году Марк Андриссен (программист, ставший венчурным инвестором) сделал знаменитое заявление на страницах The Wall Street Journal: «Программное обеспечение поглощает мир». В своем манифесте он описал, как стремительно высокие технологии преобразуют каждую отрасль мировой экономики, которую они поглотили. Он не ошибся; программное обеспечение остается «всемирно ненасытным».
Всего через шесть лет соучредитель и генеральный директор Nvidia Дженсен Хуан смело поправил Андриссена, заявив: «Программное обеспечение поглощает мир... но ИИ поглощает программное обеспечение». В связи с ускоряющимся алгоритмическим переходом от деятельности программистов к машинному обучению Хуан также отметил: «Глубокое обучение — это стратегическая необходимость для каждой крупной технологической компании. Оно все глубже проникает во все аспекты работы — от инфраструктуры до инструментов и того, как создается продукция». Многотриллионная рыночная капитализация Nvidia подтверждает прозорливость предсказания Хуана, сделанного в 2017 году.
Но даже если программное обеспечение поглощает мир, а ИИ заглатывает программное обеспечение, какая обновляющая сила готовится подкрепиться ИИ? Ответ лежит на поверхности. Он ставит перед бизнес- и технологическими лидерами задачу переосмыслить свои инвестиции в искусственный интеллект и взаимодействие с ним. От этой силы, влекущей за собой прорывные инновации, не скрыться; она проникает в обучающие наборы данных и нейронные сети каждой большой языковой модели (БЯМ) в мире.
ИИ поглощает философия. Философия как дисциплина, набор данных и способ восприятия все сильнее влияет на то, как цифровые технологии размышляют, прогнозируют, творят, генерируют контент и создают инновации.
Ключевое испытание для предприятий сводится к тому, хватит ли их лидерам осознанности и скрупулезности, чтобы использовать философию как ресурс для создания ценности с помощью ИИ, или они будут полагаться на действующие по умолчанию немые, невнятные философские принципы внедрения ИИ. Как бы то ни было, в любом случае философия поглощает ИИ. Стратегически мыслящим руководителям стоит поразмыслить над этой метафорой.
Сейчас при осмыслении роли философии в разработке и внедрении ИИ-решений основное внимание уделяется этической стороне ответственного использования ИИ, но эта тема — только верхушка айсберга, который представляют собой философские принципы, определяющие ход внедрения, возможности и назначение ИИ. Ставить на первое место этические нормы и ограничения, относящиеся к использованию ИИ — значит недооценивать истинное влияние и воздействие философии на него. Философский взгляд на то, чего должны достигать ИИ-модели (телеология), что считается знанием (эпистемология) и как ИИ представляет реальность (онтология), также влияет на создание ценности. Без вдумчивой и тщательной проработки философских идей организации не смогут получить превосходную отдачу и конкурентное преимущество от своих инвестиций в генеративный и предиктивный ИИ.
Этот аргумент все чаще подтверждается и эмпирически, и технически. Есть веские основания для того, что такие инвесторы, новаторы и предприниматели, как соучредитель PayPal Питер Тиль, Алекс Карп из Palantir Technologies, профессор Стэнфорда Фей-Фей Ли и Стивен Вольфрам из Wolfram Research, открыто подчеркивают, что философия и философская скрупулезность — движущие силы их работы. Открыто обращаться к философским концепциям вряд ли ново или необычно для ИИ. Прорывы в области информатики и развития ИИ неизменно происходили благодаря глубокому философскому осмыслению природы вычислений, интеллекта, языка и разума. Например, фундаментальные прозрения ученого-информатика Алана Тьюринга о компьютерах основаны на осмыслении философских вопросов о вычислимости и интеллекте, а сам тест Тьюринга — философский мысленный эксперимент. Осуществленный философом Людвигом фон Витгенштейном анализ языковых игр и следования правилам непосредственно повлияли на развитие информатики, а исследования философа Готлоба Фреге в области логики стали философской основой для нескольких языков программирования.
Получившая в 2024 году Нобелевскую премию работа Джеффри Хинтона по нейронным сетям основана на осмыслении философских вопросов о том, как разум представляет и обрабатывает знания. Когда Клод Шеннон из Массачусетского технологического института разрабатывал теорию информации, он одновременно решал инженерную задачу и рассматривал философские вопросы о природе и сущности информации. Более того, амбициозное стремление Сэма Альтмана создать в OpenAI общий искусственный интеллект, вероятно, обусловлено философскими размышлениями об интеллекте, сознании и человеческом потенциале. Эти пионеры не рассматривали философию как что-то отдельное от практической инженерии; напротив, философская ясность способствовала техническим прорывам.
Руководителям следует вкладываться в развитие своих навыков критического мышления, чтобы философия делала их машины более умными и ценными.
Сегодня нормативное регулирование, судебные разбирательства и новые государственные политики представляют собой внешние силы, которые вынуждают ИИ-модели обзаводиться целями, обеспечивать точность и соответствовать человеческим ценностям. Но у компаний есть собственные ценности, побуждающие их мириться с присутствием философских аспектов в своих ИИ-системах и обеспечивать его. Наследие гигантов философии, от Конфуция до Канта и Энском, по-прежнему недооценивается как ресурс для обучения и настройки ИИ, составления запросов для него и получения ценных результатов и продуктов с его помощью и недостаточно активно используется в этом качестве. Мы полагаем, что целенаправленное внедрение философских схем в БЯМ может радикально повысить их эффективность.
Это не означает, что компаниям надо нанимать генеральных директоров по философии… пока что. Но действовать так, как будто философия и философские идеи — второстепенные или необязательные компоненты влияния корпоративного ИИ, — значит сводить к минимуму их потенциальную технологическую и экономическую роль. Чтобы стратегии внедрения ИИ и его использование были эффективными, от людей и машин все чаще требуется критически осмыслять разнородные философии, определяющие характер использования ИИ и выступающие как его движущие силы. Другими словами, организациям нужна стратегия использования ИИ, рассматривающая его философские аспекты с философской точки зрения. Руководителям и разработчикам необходимо согласовать философии, определяющие разработку и использование ИИ. Руководителям, стремящимся получить максимальную отдачу от ИИ, необходимо инвестировать в свои навыки критического мышления, чтобы философия делала их машины более умными и более ценными.
Философия, а не только этика поглощает ИИ
Показательный и постыдный провал Gemini — ИИ от Google — демонстрирует, насколько рискованно не приводить философские аспекты обучения генеративного ИИ в соответствие с его задачами. Опасаясь еще сильнее отстать от конкурентов в области БЯМ, Google обновила диалоговую платформу Bard, интегрировав ее с мощной моделью Imagen 2, чтобы научить свою модель генерировать качественные изображения в ответ на текстовые запросы. Но когда пользователи Gemini попросили БЯМ сгенерировать изображения исторически значимых фигур и реалий, относящихся к важным событиям, — отцов-основателей Америки, викингов, сцены Второй мировой войны и т.д., — она выдала результаты, неизменно отличающиеся расовым и гендерным разнообразием, но исторически неточные. Например, Gemini изобразила отцов-основателей как представителей разных рас, а викингов — в виде азиатских женщин.
Эти антиисторические результаты вызвали всеобщую критику и насмешки. Изображения отражали современные идеалы разнообразия, навязанные контекстам и обстоятельствам, в которых они, в конечном счете, были неуместны. Учитывая огромный кадровый потенциал Google, ресурсы и техническую изощренность этой компании, какая коренная причина лучше всего объясняет эти неприемлемые результаты? Google позволила воцариться телеологическому хаосу, вызванному конкуренцией между ее целями — давать точные ответы и соответствовать идеалам разнообразия, равенства и инклюзии. Проблема была не в качестве данных и их недоступности. К вводящим в заблуждение, неточным и неприемлемым ответам на запросы по истории привело автоматическое срабатывание алгоритмов Gemini, предназначенных для предотвращения субъективно ощущаемой предвзятости против определенных этнических групп или гендерных идентичностей. То, что сначала кажется багом этического или ответственного ИИ, на самом деле не техническая, а телеологическая ошибка. Сотрудники Google, занимающиеся обучением, настройкой и тестированием ИИ, сделали неудачную ставку — не на неправильный ИИ или плохие модели, а на философские принципы, не соответствующие основному назначению БЯМ.
Философия поглощает лояльность клиентов
Такие промахи происходят, если организации не переосмысливают свои философские основы. Например, компании заявляют, что хотят создавать, развивать и обслуживать лояльных клиентов. Но вместо того, чтобы дать четкое определение лояльности, они по умолчанию измеряют ее с помощью параметров, служащих количественными заменителями и суррогатами. Равноценно ли оптимизации самой лояльности клиентов использование ИИ для оптимизации RFM (давности, количества и рентабельности сделок — англ. Recency, Frequency, and Monetary value ), управления оттоком клиентов и NPS (коэффициента клиентской лояльности)? Для слишком многих маркетологов и менеджеров по сопровождению клиентов этот вопрос — серьезный. Без более вдумчивого восприятия лояльности такие критерии и параметры по распоряжению руководства делаются ее определениями. Более точные вычисления становятся, скорее, заменой качественного осмысления лояльности, чем стимулом для него. Это существенное ограничение.
Как однажды заметил Людвиг Витгенштейн: «Границы моего языка означают границы моего мира». Аналогично, нет необходимости и смысла приравнивать границы и рамки параметров к границам того, в чем может выражаться лояльность клиентов. У «лояльности», рассмотренной с точки зрения стратегии, экономики и эмпатии, может быть несколько измеримых измерений. Это телеологическая, онтологическая и эпистемологическая возможность, возникшая в связи с развитием ИИ и подкрепляемая им.
В ходе исследований, преподавания и консультаций мы видим, как компании объединяют улучшенные количественные возможности с философски обоснованным анализом того, что может и должна означать «лояльность». Эта аналитика охватывает как этические, так и эпистемологические, онтологические и телеологические соображения.
Starbucks и Amazon, например, разработали новые философские подходы к обеспечению лояльности клиентов и ориентировались на них при разработке и внедрении ИИ-моделей. Они не просто внедрили ИИ для улучшения показателей на основе заданного набора параметров. В 2019 году топ-менеджеры Starbucks под руководством тогдашнего генерального директора компании Кевина Джонсона разработали платформу Deep Brew AI для продвижения того, что они считали онтологической сущностью взаимодействия Starbucks с клиентами, — укрепления связи между посетителями и сотрудниками торговых точек и в традиционных торговых точках, и в интернете.
Цифровое сопровождение интерактивного обслуживания клиентов стало для Starbucks ключевым инструментом укрепления их лояльности. Deep Brew также поддерживает предлагаемую компанией обширную программу вознаграждений, участники которой приносят более половины выручки Starbucks. В связи с текущими проблемами компании и сменой ее руководства эти вопросы становятся еще более актуальными и приоритетными: какими философскими принципами должна руководствоваться компания, обновляя и изменяя приложение Starbucks? Будут ли «наследственная лояльность» и способы ее измерения радикально переосмыслены?
Хотя программа Amazon Prime начиналась в 2004 году как служба сверхвыгодной доставки, основатель Amazon Джефф Безос быстро переосмыслил ее как интерактивную платформу для выявления и удержания лучших и самых лояльных клиентов компании. Один из ранних руководителей Amazon Prime вспоминает, как Безос заявил: «Я хочу вырыть ров вокруг наших лучших клиентов. Мы не будем принимать наших лучших клиентов как должное». Безос хотел, чтобы клиенты Prime по умолчанию использовали для покупок именно эту службу, а не просто экономили с ее помощью.
Amazon использовала свои огромные аналитические ресурсы для анализа поведенческих, транзакционных и социальных данных, чтобы лучше понять клиентов Prime и для каждого из них сформировать персонализированное предложение. Важно отметить, что команда Prime не просто стремилась к большей лояльности со стороны клиентов. Она стремилась проявить больше лояльности к клиентам: взаимность была центральным элементом философской позиции Prime.
Как и Starbucks, Amazon внедряла ИИ не (только) для улучшения показателей, используемых для оценки клиентской лояльности, — она училась выявлять, создавать и вознаграждать своих лучших клиентов. Руководители тщательно обдумывали, как идентифицировать и понять (то есть эпистемологически осмыслить) своих лучших клиентов и определить роль каждого из них в развивающейся бизнес-модели организации. Поясним: множества «лучших» и «самых прибыльных» пересекались, но не совпадали друг с другом.
Для Starbucks и Amazon философские соображения способствовали совершенствованию параметров. Использование онтологии (для определения сущности взаимодействия Starbucks с клиентами), эпистемологии (для понимания клиентов Amazon ) и телеологии (для установления цели взаимодействия с клиентами) привело к появлению более значимых параметров и критериев. Ценностные ориентиры лояльности научились повышать ценность лояльности — и наоборот.
К сожалению, слишком многие старинные компании, использующие ИИ для усиления «ориентированности на клиента», полагаются на KPI, которые с философской точки зрения обеднены отсутствием продуманной привязки к лояльности клиентов, их поведению и свойствам лояльности. Смешивать параметры лояльности с самой лояльностью — значит опасно заблуждаться, ставя измерение выше серьезного переосмысления основ взаимодействия с клиентами. Как почти 100 лет назад заметил философ и инженер Альфред Коржибски: «Карта — это не территория».
Философия формирует агентный ИИ: от параметрического потенциала к автономному совершенству
Когда интеллектуальные технологии переходят от языковых моделей к агентным ИИ-системам, изречение древнегреческого воина и поэта Архилоха — «Мы не поднимаемся до уровня наших ожиданий, мы опускаемся до уровня нашей подготовки» — становится стратегическим предостережением. Если вспомнить еще и циничный афоризм статистика Джорджа Бокса — «Все модели неверны, но некоторые полезны», — задача становится еще яснее. При разработке ИИ, который самостоятельно преследует стоящие перед организацией цели, простая «полезность» недостаточна. Организациям нужно больше. Надежность и эффективность создаваемых автономных или полуавтономных агентов в меньшей степени зависит от технических экосистем и/или алгоритмических инноваций, чем от философской подготовки, которая целенаправленно проводится для того, чтобы встроить в их когнитивные схемы смысл, цель и подлинную агентность. Совершенство исполнения проистекает из совершенства обучения. Высокопроизводительный ИИ невозможен без высококачественного обучения.
Большие и малые языковые модели в результате своего обучения преуспевают в распознавании и генерации шаблонов для создания сложных результатов, но организациям нужен ИИ, который выходит за рамки превосходного выполнения запросов. Агентные системы ИИ не просто обрабатывают и генерируют язык, они контекстуально понимают цели, формулируют планы и предпринимают автономные действия, которые должны соответствовать ценностям компании. Это требует философской подготовки, дающей гораздо более глубокие знания, чем те, которые создатели ИИ-моделей внедряют в них, чтобы наделить их способностью принимать решения и автономно или полуавтономно рассуждать.
Недавние исследования, такие как «Безграничное сократовское обучение с языковыми играми» от DeepMind и исследования идеологического отражения в ИИ-системах, заложили основу для критически важного инсайта. Агентность возникает не благодаря укрупнению моделей или использованию большего количества параметров (то есть не по законам масштабирования), а благодаря каркасу, построенному из тщательно отобранных философских концепций и способствующему автономности мышления и действий. В конечном счете, ИИ-агенты должны разрабатывать и применять свои собственные решения в различных философских областях, сохраняя при этом соответствие человеческим ценностям. Другими словами, их нужно обучать учиться и «учиться учиться».
Рассмотрим, например, как эта обучаемость может проявляться в глобальной деловой практике.
Сценарий: система ИИ, управляющая сбоями в цепочке поставок
Ответ на основе сопоставления шаблонов: «Исторические данные предполагают привлечение резервных поставщиков и увеличение страхового запаса».
Ответ, основанный на философской подготовке: «Я проанализировал уникальные характеристики этого сбоя и более широкие системные последствия. Вместо увеличения запасов я предлагаю следующие меры.
1. Целенаправленное развитие отношений с ключевыми поставщиками в стабильных регионах.
2. Переработка процессов для повышения прозрачности цепочки поставок.
3. Стратегическое размещение резервных запасов различных компонентов, в зависимости от их степени их важности.
Я смоделировал эти вмешательства в нескольких сценариях и могу руководить их реализацией, адаптируясь к обратной связи от заинтересованных сторон. Рассмотрим подробный анализ?».
Как показывает этот сценарий, составленный на примере цепочки поставок, агентный ИИ должен опираться на телеологические, эпистемологические и онтологические контексты и извлекать из них информацию, чтобы выдвигать предложения, которые способствуют достижению желательных для компании результатов. Эти предложения были бы направлены на уравновешивание и совмещение рациональных стратегических целей, эмпирических данных и аналитики. В совокупности последние можно рассматривать как философские основы для обучения ИИ-агентов, которые учатся лучше решать проблемы и исследовать/использовать возможности.
Философские основы для агентного ИИ
1. Эпистемологическая агентность: за пределами обработки информации
ИИ-системы достигают эпистемологической агентности, когда выходят за рамки пассивной обработки информации, активно создают и проверяют знания. Для этого требуется обучение, направленное на закладывание философских основ для перечисленных ниже видов деятельности.
Самостоятельное обучение: агенты автономно выявляют пробелы в своих знаниях и принимают меры, чтобы лучше понять материал, а не ждут запросов или подсказок. Например, при анализе рыночных тенденций они проактивно исследуют смежные рынки и новые факторы, а не ограничивают анализ только запрошенными данными.
Динамическое тестирование гипотез: агенты генерируют и проверяют возможности, а не просто оценивают предложенные варианты. Например, при сбоях в цепочке поставок они не просто оценивают известные альтернативы, а предлагают и моделируют новые решения на основе более глубокого понимания причин происходящего.
Метакогнитивная осведомленность: агенты активно осознают, что они знают, чего они не знают и насколько надежны их знания. Они не просто предоставляют ответы, а обозначают уровень уверенности в них и потенциальные пробелы в своих знаниях, которые могут повлиять на принятие решений.
Эта эпистемологическая основа преобразует то, как ИИ-системы взаимодействуют со знаниями. От сопоставления шаблонов с данными, полученными при обучении, они переходят к активному построению понимания посредством систематического исследования и проверки получаемой информации. ИИ для цепочки поставок, хорошо подготовленный в области эпистемологии, не просто предсказывает сбои на основе исторических шаблонов. Он проактивно строит и совершенствует причинно-следственные модели отношений с поставщиками, рыночной динамики и системных рисков, чтобы генерировать более точные и применимые инсайты.
2. Онтологическое понимание: от распознавания шаблонов к системным инсайтам
ИИ-системам нужны сложные онтологические схемы для понимания как своей природы, так и сложной реальности, в которой они функционируют. Это подразумевает перечисленные ниже свойства.
Самопонимание: поддержание динамической осведомленности о своих возможностях и ограничениях в рамках взаимодействия человека с ИИ.
Причинно-следственная архитектура: построение богатых моделей того, как элементы в их среде влияют друг на друга — от прямых воздействий до тонких волновых эффектов.
Системное мышление: осознание того, что бизнес-проблемы существуют в рамках вложенных систем нарастающей сложности, где изменения в одной области неизбежно влияют на другие.
Например, ИИ, управляющий розничными операциями, не должен ограничиваться оптимизацией запасов на основе шаблонов продаж — он понимает, как решения о запасах влияют на отношения с поставщиками, денежный поток, удовлетворенность клиентов и восприятие бренда. Эта онтологическая основа преобразует сопоставление шаблонов в контекстный интеллект, позволяя принимать решения с учетом и неотложных потребностей, и возможных системных последствий.
3. Телеологическая архитектура: от выполнения задач к целенаправленным действиям
Агентным системам нужны сложные телеологические схемы, чтобы понимать и преследовать цели на нескольких уровнях. Эта телеологическая основа позволяет им осуществлять перечисленные ниже действия.
Формировать и уточнять цели: выходить за рамки выполнения предопределенных задач, самостоятельно разрабатывая и корректируя цели на основе изменяющихся условий.
Ориентироваться в иерархии целей: понимать, какие экстренные меры могут способствовать воплощению более широких миссий организации, находить равновесие между эффективностью в краткосрочной перспективе и созданием ценности в долгосрочной перспективе.
Устранять конкуренцию между приоритетами: активно распознавать и прекращать конфликты между различными целями организации с помощью принципиальных компромиссов, согласованных со стратегическими намерениями.
Рассмотрим маркетинговый ИИ. Вместо того, чтобы оптимизировать коэффициент кликов, он применяет стратегии взаимодействия, в которых текущие параметры уравновешены ценностью бренда, пожизненной ценностью клиента и рыночным позиционированием. Это перекликается с обсуждением лояльности клиентов выше. Каждое действие вытекает из четкого понимания не только того, какие задачи нужно решать, но и того, почему они важны для более широких контекстов организации.
Эти усвоенные и отточенные навыки превращают ИИ из «инструмента для достижения заданных целей» в «системы, которые целенаправленно достигают определенных организационных целей и долгосрочных результатов». Фактически этот переход от краткосрочных результатов к долгосрочным подчеркивает значение цели.
4. Этическая агентность
Помимо способности соблюдать правила, агентному ИИ необходимы способности к автономным нравственным рассуждениям и этическому осмыслению новых ситуаций. Внедрение рассуждающих схем в ИИ-модели позволяет им ориентироваться в новых ситуациях, сохраняя доверие заинтересованных сторон и следуя ценностям предприятия. Это выходит за рамки простых правил или ограничений — речь идет о создании сложных схем для оценки последствий и принятия принципиальных решений в беспрецедентных ситуациях. Как и любой ответственной ИИ-модели, агентному ИИ необходимо, чтобы его этические решения были прозрачными, интерпретируемыми и объяснимыми.
Практическая реализация: от теории к агентности
Рассмотрим теперь ИИ-агента, управляющего сложной организационной системой. В отличие от традиционного чат-бота или языковой модели, этот агент предлагает улучшенные ответы, используя полученную во время обучения информацию об определенной философской концепции — «либертарианском патернализме», «политико-экономических» основах теории подталкивания, предложенной Ричардом Талером и Кассом Санстейном.
Ответ устаревшей языковой модели: «Исходя из текущих параметров, производительность отдела можно повысить, введя политику сверхурочной работы. Стандартная схема — до 10 дополнительных часов, каждый из которых оплачивается как полторы обычных часовых ставки».
Ответ агентного ИИ: «Я автономно проанализировал проблемы с производительностью и выявил три возможных точки вмешательства. Прежде, чем рекомендовать сверхурочную работу, я смоделировал долгосрочные эффекты различных решений. Мой анализ показывает, что коренная причина — в неэффективности процессов, а не в количестве рабочих часов. Я предлагаю начать совместную переработку рабочих процессов, которую я могу курировать. Я уже подготовил детализированные симуляции с прогнозируемыми результатами и могу адаптировать план на основе мнений заинтересованных сторон. Хотите, чтобы я представил эти альтернативы и их предполагаемые последствия?».
Вопрос, отражает ли ответ этого агентного ИИ человеческую агентность, не имеет отношения к сути и цели философского рассуждения. Предложенное стратегическое решение эффективно отражает его философскую подготовку и направлено на то, чтобы согласовать поведение сотрудников с целями организации, сохраняя при этом индивидуальный выбор. Это ограничение, обусловленное философской подготовкой модели, не снижает ее производительности. Оно позволяет эффективнее добиваться желаемых долгосрочных результатов. С точки зрения концепции «либертарианского патернализма» Санстейна/Талера, агентный ИИ становится «архитектором выбора» для использующих его людей.
Конечно, спектр доступных философских схем значительно шире либертарианского патернализма. Западная и восточная философии предлагают богатые ресурсы для устранения конфликтов между индивидуальными и коллективными интересами. Аналитические и континентальные традиции предлагают разные подходы к логике, языку и созданию ценности. Ключи к успеху — выбор и комбинирование философских схем, которые соответствуют целям организации и потребностям заинтересованных сторон. Для полного раскрытия потенциала генеративного ИИ могут понадобиться новые жанры философских схем.
Как показал зрелищный провал Google Gemini, перед разработчиками ИИ-моделей стоит по определению сложная задача — устранять конфликты между философскими концепциями, которые они встраивают в эти модели. Это нельзя делегировать или передать техническим командам или специалистам по корпоративному контролю, вооруженным перечнями контрольных показателей. Руководящие команды должны активно участвовать в выборе и формировании философских схем и приоритетов, которые определяют, как думают и работают их системы ИИ.
Стратегический императив: от технической подготовки к философской
Мы утверждаем, что ИИ-системы поднимаются или опускаются до уровня своей философской подготовки, а не своих технических возможностей. Когда организации внедряют сложные философские схемы при обучении ИИ, они перестраивают и адаптируют вычислительные архитектуры в системы, которые:
· генерируют стратегические инсайты, а не тактические ответы;
· вступают в значимое взаимодействие с лицами, принимающими решения, вместо того чтобы просто отвечать на запросы;
· создают измеримую ценность, понимая цели организации и принимая меры для их достижения.
Эти аспекты должны рассматриваться как стратегические императивы, а не академические упражнения или мысленные эксперименты. Те, кто игнорирует эту философскую истину, создадут мощные, но в конечном счете ограниченные инструменты; те, кто ее примет, смогут взрастить ИИ-партнеров, способных продвигать их стратегическую миссию. Те, кто игнорирует философию или ставит ее на второе место, рискуют создать несогласованные системы, бесцельно следующие шаблонам и быстро генерирующие неправильные ответы.
Эти изменения, в результате которых БЯМ превращаются в ИИ-агентов, не происходят постепенно и не сводятся к очередному слою в компьютерной экосистеме. Чтобы их добиться, требуется фундаментально переосмыслить обучение ИИ. В этих «плодах воображения» должно быть нечто большее, чем улучшение обучающих данных и/или использование большего количества параметров. Они требуют внедрения механизмов для самостоятельного обучения и автономного нравственного рассуждения. Провокационное предположение: текущие подходы к разработке ИИ, направленные, главным образом, на улучшение понимания языка и генерации ответов, могут оказаться неподходящими для создания действительно эффективных ИИ-агентов. Вместо того чтобы обучать модели, лучше обрабатывать информацию более высокого качества, нам нужно создать системы, способные вести настоящие философские изыскания и заниматься своим когнитивным развитием.
Таким образом, эти инсайты показывают, что при разработке ИИ-систем мы столкнемся не только с техническими сложностями. Мы приближаемся к трансформации понимания и развития искусственного интеллекта. Переход к агентности требует от нас заниматься глубокими философскими вопросами о природе автономии, сознания и нравственного рассуждения, которые нам, по большому счету, удалось оставить в стороне при разработке языковых моделей.
Будущее корпоративного ИИ принадлежит руководителям, которые понимают, что высшая способность ИИ — не вычислять, а философствовать. Значимые улучшения способностей ИИ — от способности рассуждать до способности выдавать более надежные результаты и более глубокие инсайты — происходят благодаря использованию более совершенных философских схем при совершенствовании процессов, от которых зависит, как эти системы думают, учатся, оценивают и создают. Истинная ценность ИИ заключается не в его растущей вычислительной мощности, а в его способности обучаться интеграции и использованию стратегического мышления в крупных масштабах.
В каждом запросе, параметре и развертывании закодированы философские суждения о знаниях, истине, цели и ценности. Чем более мощным, способным, рациональным, инновационным и креативным становится искусственный интеллект, тем важнее делаются его способности ставить философские вопросы и этично взаимодействовать со своими коллегами и партнерами из числа людей. Игнорирование влияния философских концепций на производительность ИИ-моделей создает все больше стратегических рисков, особенно когда ИИ берет на себя более стратегическую роль в бизнесе. При внедрении в ИИ продуманных и строгих философских схем не только снижается риск его использования. Его алгоритмы наделяются способностью активно способствовать достижению целей предприятия и непрерывно учиться улучшать себя способами, которые вдохновляют и мотивируют людей, занимающих руководящие должности.
Следующие шаги
Признание важности философии для обучения и использования ИИ-моделей побуждает руководителей и менеджеров из всех подразделений организации целенаправленно внедрять и использовать философские схемы при разработке ИИ-стратегий и их исполнении. Ниже перечислены четыре практических меры, которые менеджеры могут использовать для достижения этих целей.
Относитесь к БЯМ как к сотрудникам с высоким потенциалом и обучайте их соответствующим образом
Реализуйте структурированные «Программы развития талантов ИИ», аналогичные программам развития руководящих сотрудников.
Установите количественно измеримые ключевые показатели эффективности (KPI ) для повышения производительности БЯМ при определенных сценариях использования.
Создайте специальные «Лаборатории производительности ИИ» для тестирования и оптимизации запросов.
Внедрите «Матрицы возможностей ИИ», сопоставляющие сильные и слабые стороны БЯМ с потребностями компании.
Введите регулярные «Обзоры талантов ИИ», анализирующие производительность моделей, их дрейф и возможности для их совершенствования.
Создайте философские схемы для внедрения ИИ
Разработайте четкие «Деревья решений ИИ», описывающие, когда и как БЯМ принимают автономные решения (получая права на принятие решений).
Создайте «Философские руководства» для конкретных сценариев использования, которые определяют:
· телеологические цели (предполагаемые результаты и показатели успеха);
· эпистемологические стандарты (приемлемые источники знаний и пороговые значения уверенности);
· этические границы (не подлежащие обсуждению ограничения и требуемый человеческий контроль).
Создайте «Контроль управления ИИ» для поддержания философской согласованности в рамках инициатив.
Сформируйте (или переформируйте) архитектуру взаимодействия человека и ИИ
Составьте карту рабочих процессов предприятия в «Спектре автоматизации и дополнения с использованием ИИ», четко обозначьте триггеры запуска автоматизации.
Изучите «Шаблоны оценки добавленной стоимости», чтобы оценить относительную рентабельность инвестиций (ROI ) в деятельность человека и ИИ.
Начните «Отслеживание эволюции возможностей», чтобы отслеживать повышение производительности человека, по сравнению с ИИ или при совместной работе с ИИ.
Определите четкие «Протоколы передачи» для переноса, миграции или перехода задач от человека к ИИ-агентам.
Установите «Параметры качества сотрудничества», чтобы измерять/оценивать эффективность взаимодействия человека и ИИ.
Внедрите управление философской производительностью
Внедрите «Карты влияния обучения ИИ», привязывающие улучшения моделей к бизнес-результатам.
Создайте «Панели добродетельного цикла» для отслеживания корреляции между:
· инвестициями в обучение ИИ и ростом производительности;
· схемами использования ИИ и повышением точности его ответов;
· результатами оценки и возможностями для оптимизации.