1026
Аннотация
Искусственный интеллект (далее — ИИ) — активно развивающаяся область науки, которая уже успешно внедряется на практике. В статье рассматриваются направления внедрения ИИ в социальную сферу. Однако, в статье отмечается, что успешное внедрение этой технологии может принести не только положительные результаты. Темпы развития ИИ требуют повышенного внимания к вопросам этики ИИ, и вопрос ответственности — это лишь один из многих этических вызовов, возникающих при использовании систем, которые основаны на ИИ. В связи с этим отмечено, что установление приоритетов этических руководящих принципов для ИИ является серьёзным шагом в обеспечении гарантий безопасности и повышения степени признания этой технологии. Тем не менее, следует констатировать, что вокруг этических вопросов ИИ сегодня образовался своеобразный вакуум. Отмечено, что на множество вопросов о том, как обеспечить равные возможности для всех пользователей технологий, основанных на ИИ, как обеспечить, чтобы ИИ развивался прозрачно, — пока нет четкого ответа. Поэтому надо обратить внимание на то, что ИИ — технология, эффективное использование которой зависит от качественной подготовки, постоянной оценки и продуманного этического сопровождения, основанного на инклюзивном подходе.
С появлением в середине XX в. первых вычислительных машин и изобретением компьютеров начали формироваться условия для создания ИИ. А разработка в 2010х гг. новейших графических процессоров, позволяющих ускорять сложнейшие вычисления, усилила интерес к развитию ИИ. Вместе с этим становился все более актуальным вопрос ответственности за использование систем, основанных на ИИ. Цель данной статьи, с одной стороны, показать, что активное использование ИИ в социальной сфере организации способно приносить ей пользу. С другой стороны, мы хотим подчеркнуть, что нельзя заявлять о безрисковом характере внедрения этой сложной и постоянно развивающейся технологии. Как и любой проект, ИИ требует предварительного анализа, планирования, тщательного выбора инструментов, оценки, обратной связи и постоянного совершенствования.
Благодаря влиянию научно-фантастических произведений в массовой культуре понятие ИИ стало ассоциироваться с роботами, способными к поведению, реакциям, эмоциям, присущим человеку [5]. Научное сообщество по другому интерпретирует определение ИИ. Достаточно часто ИИ сегодня рассматривается как область когнитивных вычислений [14]. Однако первоначальная трактовка данного понятия, сформулированная в 1955 г. Джоном Маккарти, определяет ИИ как «науку и технику создания интеллектуальных машин» [9].
Мы придерживаемся более широкого взгляда на толкование сути данного явления, соглашаясь с авторами, которые рассматривают ИИ как технологию, алгоритм, устройство или компьютерную программу, способную решать интеллектуальные задачи, включающие анализ данных, прогнозирование, принятие решений, что ранее было возможно выполнить только человеку [14; 16]. Обладая достаточной информацией об этой области науки, несложно себе пред ставить, что ИИ перестал быть популяризированным мифом и стал частью нашей жизни. Этот факт подтверждается исследованием McKinsey Analytics «The state of AI in 2020», проведенном в 2020 г. с привлечением 2395 респондентов. Результаты опроса показывают, что около 50% организаций из числа участников исследования используют компоненты ИИ хотя бы в одном бизнес-процессе [11].
Во многих областях управления ИИ оказывает серьезное влияние на способы взаимодействия людей друг с другом. На этом пути мы можем столкнуться с существенными этическими проблемами, требующими тщательного философского и этического анализа и регулирования. Сегодня множество работ ведущих отечественных и зарубежных ученых посвящено изучению социального воздействия ИИ на многие сферы жизни человека и, прежде всего, на социальную сферу с целью поиска путей избегания каких-либо негативных последствий бесконтрольного использования ИИ [16]. Чаще всего авторы, исследующие этику ИИ, обращают внимание на проблему предвзятости, которая закладывается в процесс принятия решений ИИ. Наиболее частые пред убеждения связаны с гендерной предвзятостью [2]. Кроме этого, большая доля опасений высказывается в отношении технологий ИИ, заменяющих людей на их рабочих местах [12, 13].
Мы задались целью получить ответ на вопрос, кто сегодня играет значимую роль в создании, принятии и обеспечении соблюдения этических и моральных стандартов? Некоторые исследователи высказывают предположения, что ИИ и автоматизация существенным образом повлияют на разрыв в благосостоянии населения. Какова должна быть государственная политика и какие нормативные акты могут по мочь в предотвращении этого разрыва? Как помочь работ никам, кому на смену идет ИИ, кто должен гарантировать, что в программы ИИ не заложены различные человеческие предубеждения, можно ли говорить о единой общемировой этике ИИ или в ней должны учитываться культурные особенности разных стран?
Внедрение ИИ резко возросло за последние 6 лет. В 2015 г. Gartner [3] обнаружила, что только 25% компаний используют или планируют использовать решения ИИ. Но к 2019 г. это число выросло до 37%. Очевидно, что по мере того, как технологии совершенствуются и бизнес видит ценность внедрения ИИ, эта тенденция будет только усиливаться. В ходе опроса, проведенного компанией Cognilytica в 2020 г. среди 1500 представителей компаний и государственных органов, почти 90% респондентов заявили, что в ближайшие два года они будут внедрять ИИ в полном объеме [4].
Еще одним толчком к внедрению в работу компаний ИИ в последние годы стала пандемия COVID19. Несомненно, это масштабное явление разделило нашу жизнь на до и после. Бизнесу пришлось адаптироваться, автоматизироваться, переключаться на удаленную работу и переходить в onlineпространство. Как ни странно, именно в этот период многие организации стали активно инвестировать в технологии ИИ.
Анализируя данные о трансформации процессов, как на уровне рынка труда, в отдельных областях социальной сферы, так и на уровне отдельного работника, мы лишь подтверждаем существующее положение, как о глобальных преимуществах, так и о существенных ограничениях использования технологий ИИ, которые будут возникать до тех пор, пока не будут приняты и не заработают законы и нормативные акты, регулирующие вопросы этики ИИ (см. таблицу).
Таблица Преимущества, ограничения и риски использования технологий, основанных на ИИ, в социальной сфере
Преимущества использования технологий ИИ |
Ограничения и риски использования ИИ |
Рынок труда |
|
Появление новых профессий, удешевление производства продукции, увеличение темпов и объемов производства, высвобождение свободного социального времени для отдыха и интеллектуальной деятельности |
Возможное вытеснение людей с рынка труда, массовая безработица, угроза низкоквалифицированным рабочим, чьи рабочие места могут быть легко автоматизированы |
Технологии управления персоналом организации |
|
Использование ИИ при выявлении и отборе кандидатов (автоматизация поиска, проведения интервью) |
Возможна дискриминация кандидатов при отборе по результатам анализа ИИ успешных работников |
Сбор информации с помощью чатботов, использование ИИ для самообслуживания сотрудников |
Злоупотребление руководством организации полученными данными в целях усиления психологического воздействия на работников |
Активное использование ИИ в обучении и адаптации сотрудников (vr, дополненная реальность) |
Обесценивание физического развития человека — оно становится малозначимым для производства и функционирования человека в обществе |
Ускорение обработки больших данных и принятия решений, внедрение электронного документооборота |
ИИ всегда будет анализировать ситуацию с точки зрения предварительных данных и прошлого опыта, ограниченность творческого и гибкого подхода в решении оперативных задач |
Выявление сотрудников, подверженных рискам увольнения |
«Цифровое рабство» — беспрецедентные возможности для манипуляции различными аспектами жизни работников обладателями персональных данных |
Увеличение заработной платы в высокотехнологичных отраслях и странах с большим процентом молодого населения (например, Индия, Китай) |
Стагнация или падение уровня заработной платы в широком спектре профессий со средним уровнем дохода, поляризация доходов. Расширение существующих гендерных разрывов в оплате труда, так как в мире всего лишь около 20% женщин, владеющих технологиями ИИ |
Коммуникации и удаленная работа |
|
Ускорение коммуникаций, мгновенная связь, чат-боты с сотрудниками 24/7 |
Трудности с личным общением, социальное дистанцирование и социальная изоляция, оторванность от социума, рост социальной неустойчивости |
Приведенные данные дополняет аргументы об актуальности и масштабности развития ИИ. С другой стороны, очевидны риски распространения ИИ в социальной сфере. Расшифровывая приведенные в таблице данные, можно отметить следующее. Исследование McKinsey показало, что к 2030 г. роботы заменят по меньшей мере 30% человеческого труда, то есть почти 400–800 миллионов рабочих мест. Это, в свою очередь, повлечет за собой увольнение и поиск новой работы для 375 миллионов человек [10]. Это только данные, подтверждающие возможный риск в одной из областей применения ИИ, однако, это прогнозируемые данные. Более актуальной и серьезной непосредственной проблемой является сегодня неправильное использование ИИ либо по небрежности, либо по злому умыслу. Кроме этого, машинам неподвластен так называемый эмоциональный интеллект. Да, машины способны моментально обрабатывать огромные данные и принимать логические решения, основанные на принципах статистики.
Но когда ожидания и удовлетворение клиентов основываются на небольшом сочувствии, ИИ практически бессилен. Например, даже простое решение о покупке в той или иной степени чаще коренится в эмоциональной потребности, чем в рациональном выборе.
Еще одним, казалось бы, эффективным направлением для использования ИИ является автоматизация рутинных задач. Современные системы способны анализировать поступающие на почту электронные письма, категорируя и сортируя их, обрабатывать поступающие запросы и голосовые сообщения, анализировать документы. Все эти рутинные задачи могут быть переданы в обязанность ИИ. Однако, наступление ИИ в отраслях с большим количеством рутинных рабочих мест — производство, кол-центры, банки, розничная торговля и т.д. может нести разрушительный характер не только с точки зрения изменения структуры занятости на рутинных работах и вытеснения работников с рабочих мест. Данный процесс вынудит действующих игроков рынка конкурировать в быстроте автоматизации рутинных процедур. Поскольку, естественно, победившие в этой конку рентной борьбе получат экономические выгоды и сверхприбыли. Небольшое количество компаний (ИИкомпании, Интернет+ИИкомпании, ИИSaaSкомпании и т.д.) будут иметь сверхприбыль, а все другие разорятся, не выдержав конкуренции, или будут близки к этому.
Одним из направлений внедрения ИИ является выявление сотрудников, подверженных риску увольнения. Мы выяснили, что подобный анализ проводится с помощью плат форм, оценивающих рабочую активность человека, основываясь на использовании мобильных устройств, электронной почты, пропусков, сравнивая при этом эти данные с его средними и более ранними результатами, а также с оптимальными моделями поведения. Обработав полученную информацию, платформа передает данные руководителю или менеджеру. Такая система позволяет оперативно оценивать сигналы об отсутствии у сотрудника вовлеченности в работу, о возможном желании покинуть организацию.
Однако, в рамках концепции психологического контракта руководители не должны забывать об этической стороне при внедрении подобных платформ и приложений для сбора информации о сотрудниках, так как у руководителей и их подчиненных могут быть различные цели использования передаваемой и получаемой информации. Подчиненные могут делиться данными о своей физической активности в целях управления здоровьем и безопасностью, а руководители могут использовать данную информацию в целях более точечного воздействия в своей управленческой практике. Поэтому так называемый психологический контракт между руководителем и подчиненными может быть нарушен, если последние почувствуют, что за ними наблюдают или злоупотребляют их данными [2].
Какие можно дать гарантии в отношении того, что алгоритмы, закладываемые при разработке умных машин, не нарушают фундаментальные права человека — от конфиденциальности данных до свободы выбора и свободы совести? Будет ли доступна свобода действий, когда наши желания предвосхищаются и направляются с помощью технологий ИИ? Могут ли ценности программироваться и кем? Кому вообще подчиняются люди, осуществляющие взаимодействие с системой ИИ? Умной машине или ее разработчикам? Кто несет ответственность за управленческие решения ИИ?
Таким образом достижения в области ИИ породили целый ряд более острых и сложных моральных вопросов.
Нынешние усилия по поиску ответов на этические, социальные и правовые проблемы, связанные с применением технологий, основанных на ИИ, в настоящее время все еще представляют собой набор разрозненных инициатив. Это обстоятельство усиливает необходимость широкого диалога работодателей, представителей социальной сферы, власти, в центре которого будут ценности, закладываемые в техно логии ИИ, и определение самой роли данных технологий в организациях в частности и в обществе в целом.
В целом необходимо помнить, что ИИ — это инструмент, а не конкурент, он служит человеку, но не наоборот. Однако, при таких масштабных направлениях использования технологий ИИ возникает закономерный вопрос — кто будет отвечать за внедрение ИИ в организации, обществе, государстве?
Что касается уровня организации, то в современных компаниях возникают сложности как со специалистами, обладающими навыками и знаниями в области этики ИИ, не пониманием подходов к ИИ, так и в целом с регламентирующими положениями, закрепляющими ответственность за использование технологий ИИ.
Конечно, на государственном уровне предпринимается большее число шагов к регулированию вопросов этики ИИ. Однако, директивные органы должны более активно взаимодействовать с инженерами и проектировщиками в разработке систем ИИ, в противном случае поведение ИИ будет целиком и полностью зависеть от их создателей, которые не являются экспертами в вопросах разработки государственной политики. На самом деле, инженерыпроекти ровщики, занимающиеся системами ИИ, могут вообще не иметь представления о том, что они кодируют законы, политику, этику и мораль.
Поэтому многие развитые и развивающиеся страны активно создают внедряют национальные стратегии ИИ. В России этот вопрос был также официально поднят в 2019 г. по поручению Президента РФ.
В 2017 г. В.В. Путин выразил мнение, что страна, которая первой овладеет ИИ, станет «правителем мира» [1].
Одним из направлений регулирования ИИ в России является государственная программа цифровизации «Стратегия развития информационного общества в России на 2017– 2030 годы», утвержденная Указом № 203 Президента РФ в 2017 г. Руководит этими процессами Министерство цифрового развития, связи и массовых коммуникаций РФ, которое реализует национальные программы «Цифровая экономика Российской Федерации», «Электронное правительство» и другие проекты. В соответствии с этим в федеральных органах исполнительной власти появились руководители по цифровой трансформации (РЦТ).
Минэкономразвития России создало паспорт федерального проекта «Искусственный интеллект», в котором отражены направления содействия развитию интеллектуального потенциала и обучению ИИ.
Однако, стоит помнить, что ИИ — это инновационный проект, который требует жестких процедур анализа, оценки, планирования и т.п. Обеспечение этики ИИ является не отложной и критической задачей. При этом отметим, что в РФ, как и во многих других странах, до сих пор не приняты законы, регулирующие вопросы этики ИИ. Вот здесь и возникает основная сложность.
Чтобы сделать поведение машины (принятие моральных решений) приемлемым для человека, требуются объяснения самого процесса принятия решений [6]. Одна из психологических проблем для реализации этики ИИ заключается в том, что люди применяют различные моральные ценности для себя и для других. Идеальным решением будет разработка систем ИИ, которые следуют идеальным этическим принципам. Это просто звучит в теории, но это весьма затруднительно реализовать на практике. Для того чтобы разработчики могли создать абсолютно безвредную систему или технологию ИИ, самим разработчикам нужно четко пони мать, что такое вред. Для этого потребуется глобальный уровень этики, который включает общий набор информации между разработчиками этических стандартов (организации, общества, государства) и разработчиками ИИ.
Страной, которая запустила первую национальную стратегию по регулированию ИИ в марте 2017 г., стала Ка нада, за ней вскоре последовала Япония, и с тех пор было опубликовано множество инициатив, включая национальные стратегии европейских стран, Китая, ОАЭ, Сингапура, США, России и ряда других. Рассмотрим некоторые из них.
Так, в Евросоюзе создано большое количество резолюций и хартий, направленных на обеспечение этики ИИ. Например, Резолюция Европейского парламента о гражданскоправовых нормах, касающихся робототехники, содержит призыв к Европейской комиссии принять предложение о законодательном акте, предусматривающем гражданско-правовые нормы об ответственности роботов и ИИ. В этом же документе содержится требование определить критерии для классификации роботов, которые должны быть зарегистрированы гделибо. Также в Евросоюзе проходит активное обсуждение хартии, которая будет представлять собой кодекс поведения инженеровробототехников и роботов, которым будет присвоен статус электронных лиц и на которых предлагается возложить ответственность за решения, которые они будут принимать самостоятельно.
В июле 2017 г. Государственный совет Китая выпустил новое поколение ИИ — План развития, в котором изложены долгосрочные стратегические цели развития ИИ в Китае до 2030 г. Он содержит «гарантийные меры»: разработка системы регулирования ИИ, усиление защиты интеллектуальной собственности и разработка нормативных и этических рамок. Эта мера направлена на укрепление исследований по правовым, этическим и социальным вопросам, связанным с ИИ, и создание нормативных и этических рамок для обеспечения здорового развития ИИ. В Германии создана Комиссия по этике ИИ, в США выделяются миллиарды долларов не только на программы создания ИИ, но и на программы поддержки равных прав и конфиденциальности при использовании ИИ.
Отличным ресурсом в этом контексте является сравни тельный обзор 84 этических руководящих принципов, вы пущенных национальными или международными организациями из различных стран [7]. Мы обнаружили сильную конвергенцию данного ресурса с собственными исследованиями [8] наиболее значимых этических принципов, связанных с применением ИИ. Среди этих принципов выделим следующие:
- прозрачности,
- справедливости и честности,
- безопасности (ненасилия),
- объяснимости,
- конфиденциальности.
Данное обстоятельство подтверждается и статистическими базами данных, имеющих отношение к социальным, поведенческим аспектам внедрения технологий ИИ. Однако, даже эти принципы, провозглашаемые во всех общественных документах в разных странах, наполняются своим собственным, отличительным смыслом в зависимости от кросскультурных особенностей той или иной страны. Поэтому мы можем сделать вывод, что человеческий фактор будет еще долго определяющим при разработке принципов поведения умной машины, а желание смягчить этические принципы в сфере ИИ в угоду собственному обогащению, к сожалению, будет способствовать появлению расплывчатых формулировок в правилах и предписаниях.
Как мы видим из приведенных исследований, внедрение ИИ ведется не только в бизнеспроцессы, направленные на внешнее взаимодействие, но и преобразует внутренние процессы, связанные с сотрудниками. Из этого следует, что трансформируется и социальная сфера организации. В практическом отношении ИИ располагает значительными возможностями для использования. Но одновременно с этим необходимо осуществлять разработку новых этических под ходов его применения. Мы делаем вывод, что не может быть однозначных, общемировых решений при разработке таких морально-этических принципов ИИ, поскольку до сих пор культурные особенности нации определяют существующую в той или иной стране мораль. Разработкой концепций этики ИИ занимаются в основном западные ученые. Соответственно, необходимо добиваться, чтобы данные разработки носили инклюзивный характер, включая в себя и не западные концепции этики, к примеру, этику православных добродетелей или конфуцианские перспективы.
Поэтому мы придаем большое значение целенаправленной, скоординированной работе по формированию этических принципов ИИ, поскольку данная область все еще находится в стадии становления, приобретая все большую практическую значимость. Мы надеемся, что данная статья подтолкнет заинтересованных лиц к развертыванию конструктивной дискуссии по этике ИИ, а выделенные главные принципы этики ИИ будут полезным инструментом при формировании этикоправовой базы использования ИИ в социальной сфере.
Протоиерей Вадим Леонов
Екатерина Викторовна Каштанова
Леонов В.А., Каштанова Е.В. Технологии искусственного интеллекта в организационно-управленческой среде: этическая проблематика // Управление персоналом и интеллектуальными ресурсами в России. М.: Научно-издательский центр ИНФРА-М, 2022, № 3 (60). С. 12-16. DOI 10 12737/2305-7807-2022-11-3-12-16
ЛИТЕРАТУРА
1. «Тот, кто возглавит ИИ, будет править миром»: Путин российским детям в День знаний. [Электронный ресурс]. — URL: https://www.rt.com/news/401731airuleworldputin/ (дата обращения: 29.04.2022).
2. Chang К. Artificial intelligence in personnel management: the development of APM model. The Bottom Line. — 2020. — vol. 33. No. 4, pp. 377–388. DOI 10.1108/BL0820200055.
3. Gartner Survey Shows 37 Percent of Organizations Have Implemented AI in Some Form. Режим доступа: https://www.gartner.com/en/newsroom/ pressreleases/20190121 gartnersurveyshows37percentoforganizationshave/ (дата обращения: 27.04.2022).
4. Global AI Adoption Trends & Forecast. Режим доступа: https://www.cognilytica.com/2020/01/22/globalaiadoption trendsforecast2020/ (дата обращения: 30.04.2022).
5. Gunkel D.J., Byson J.J., Torrance S. Behind the Mask: Machine Morality. In K. Miller, M.J. Wolf, F. Grodzinsky (Eds.), The Machine Question: AI, Ethics and Moral Responsibility. Birmingham: AISB/IACAP World Congress, 2012, 34–38.
6. Chang К. Artificial intelligence in personnel management: the development of APM model. The Bottom Line. — 2020. — vol. 33. No. 4, pp. 377–388. DOI 10.1108/BL0820200055.
7. Gartner Survey Shows 37 Percent of Organizations Have Implemented AI in Some Form. Режим доступа: https://www. gartner.com/en/newsroom/ pressreleases/20190121 gartnersurveyshows–37percentoforganizationshave/ (дата обращения: 30.04.2022)
8. Indurkhya B. Is morality the last frontier for machines, New Ideas Psychol. — 2019. — vol. 54, Р. 107–111. Режим доступа: https://doi.org/10.1016/j.newideapsych.2018.12.001 (дата обращения: 27.04.2022).
9. Jobin A., Ienca M., Vayena E. The Global Landscape of AI Ethics Guidelines. Nature Machine Intelligence. — 2019. — 1(9), 389–399.
10. Leonov V.A., Kashtanova E.V., Lobacheva A.S. Ethical aspects of the use of artificial intelligence in the social sphere and management environment. — 2022. — vol. 118., рр. 989–998. DOI:10.15405/epsbs.2021.04.02.118.
11. Sinhaa N., Singhb P., Guptaa M., Singha P. Robotics at workplace: An integrated Twitter analytics — SEM based approach for behavioral intention to accept. International Journal of Information Management, 55 (2020) 102210. DOI: 10.1016/ j. ijinfomgt.2020.102210
12. McKinsey, Потерянные рабочие места, приобретенные рабочие места: что будущее работы будет означать для рабочих мест, навыков и заработной платы. Режим доступа: https://www.mckinsey.com/featured-insights/future-of-work/ jobs-lost-jobs-gained-what-the-future-of-work-will-mean-forjobs-skills-and-wages# (дата обращения: 28.04.2022).
13. McKinsey, Состояние искусственного интеллекта в 2020 году. Режим доступа: https://www.mckinsey.com/ business-functions/quantumblack/our-insights/global-surveythe-state-of-ai-in–2020 (дата обращения: 30.04.2022).
14. Садовая Е.С. Цифровая экономика и новая парадигма рынка труда. World economy and international relations. — 2018. — vol. 62, № 12. — P. 35–45. DOI: 10.20542/01312227-2018-62-12-35-45.