Этика искусственного интеллекта: проблемы и инициативы в социальной сфере

Московская Сретенская  Духовная Академия

Этика искусственного интеллекта: проблемы и инициативы в социальной сфере

2206



Аннотация

   Технологии, основанные на искусственном интеллекте (ИИ), достигли значительных результатов, среди которых распознавание лиц, медицинская диагностика, самоуправляемые автомобили, управление страховыми и биржевыми активами, собственностью, человеческими ресурсами, поиском и подбором персонала. Искусственный интеллект обещает огромные выгоды для экономического роста, социального развития, а также повышения благосостояния и безопасности людей. Конечно, искусственный интеллект и робототехника сегодня являются одними из наиболее обсуждаемых вопросов и технологических тенденций во всем мире. В свете их повсеместного использования и внедрения во все сферы человеческой жизнедеятельности зачастую ожидаемые возможности, достижения и научные прорывы затмевают разумность и целесообразность применения технологий искусственного интеллекта в той или иной области с правовой и этической точек зрения. Компании в погоне за прибылью и лидирующими позициями на рынке зачастую безответственно относятся к правовым и этическим вопросам взаимодействия с технологиями искусственного интеллекта. Тем не менее этические аспекты применения технологий искусственного интеллекта обретают в наши дни высокое значение. Появление высокотехнологичных систем и программного обеспечения, которые могут функционировать все более независимо от человека и заменять выполнение задач людьми, требует особого внимания. Эти системы порождают целый ряд важных и жестких моральных вопросов. В статье рассматриваются основные направления распространения технологий искусственного интеллекта и возникающие в связи с этим этические последствия и моральные вопросы как на государственном, так и на организационном уровне. Изучаются основные тенденции, характерные для рынка труда, возникающие в процессе роботизации рабочих мест и внедрения в производственный процесс интеллектуальных роботов. Авторы убедительно доказывают приоритетность вопросов этики и безопасности людей при проектировании и внедрении систем ИИ. В ходе обсуждения этических проблем внедрения искусственного интеллекта в организациях сделан акцент на использование данных технологий не с позиции автоматизации и повышения эффективности выполнения непосредственных функций управления, а с точки зрения организации труда персонала. Исходя из этого в заключении статьи предлагаются рекомендации по разработке принципов этики, адаптированных к проектированию и использованию систем ИИ.

   В последнее время работодатели, специалисты в области управления персоналом все больше внимания уделяют вопросам внедрения технологий, построенных на искусственном интеллекте в различных областях экономики.

   Современные инновационные технологии, основанные на ИИ, достигли значительных результатов, таких как распознавание внешности, проведение медицинской экспертизы, использование беспилотников. В социальных вопросах компании используют опросы и инструменты обратной связи для получения мнения персонала, новые инструменты отслеживают электронную почту и сеть коммуникаций между людьми в компании и вне ее, специальные программы собирают данные о путешествиях, местоположении и мобильности, а организации, в частности, и государство в целом теперь имеют данные о благополучии, физической форме и здоровье, доходах и расходах и других действиях людей.

   В этой связи большое значение приобретают сегодня результаты исследования этики ИИ [9]. К этому добавляются обязательное изучение аспектов правового обеспечения использования ИИ, и вопросы трансформации корпоративной культуры в связи с возникновением технологий ИИ [10]. Итак, чем обусловлено такое повышенное внимание к перечисленным вопросам?

   Во-первых, это проблема безопасности, предотвращения вреда, вызванного действиями ИИ, и вопросы снижения рисков. Во-вторых, это вопросы моральной ответственности человека. Где находится морально значимая основа в динамичных и сложных социально-технических системах с передовым ИИ и роботизированными компонентами? Как следует распределять моральную ответственность, кто будет нести ответственность за возможные неблагоприятные последствия? Имеет ли смысл распространение «общего контроля» и «общей ответственности» между людьми и умными машинами? В-третьих, появляется необходимость в новом взгляде на вопросы управления, регулирования, проектирования, разработки, инспекции, мониторинга, испытаний и сертификации всех процессов при использовании технологий ИИ. Как следует перестроить наши институты и законы, чтобы они служили благосостоянию людей и общества и обезопасили общество при использовании технологии ИИ? При определении основных вопросов своего исследования мы пришли к неоднозначным выводам. Сторонниками распространения ИИ подчеркивается важность его внедрения во все сферы жизнедеятельности человека и общества, поскольку его распространение в различных областях обещает огромные выгоды для экономического роста, социального развития, а также повышения благосостояния безопасности людей. Однако, с другой стороны, низкий уровень объяснимости, искажения данных, безопасность данных, конфиденциальность данных и этические проблемы технологии, основанной на ИИ, создают значительные риски для пользователей, разработчиков, человечества и общества.

   Но прежде всего нас интересуют вопросы, посвященные изучению влияния ИИ на деятельность человека [1]. Исследователи обращают внимание, что развитие и распространение ИИ во многом зависит от степени готовности общества к потреблению этого продукта [6], а также предупреждают о возможном негативном влиянии ИИ на занятость и здоровье людей, рисках, связанных с потерей рабочих мест, предвзятостью, десоциализацией, нарушением конфиденциальности личной информации и других.

   Прежде, чем мы рассмотрим потенциальные этические дилеммы и моральные вопросы, которые могут быть вызваны распространением технологий ИИ, обратимся к трактовке самого понятия «этика ИИ».

   Этика ИИ — это область, связанная с изучением этических проблем в ИИ. По мере развития ИИ растут и проблемы, связанные с его использованием. Несмотря на то, что концепция «машинной этики» была предложена примерно в 2006 году, этика ИИ все еще находится в процессе становления. В контексте ИИ этика ИИ должна определять моральные обязательства и обязанности ИИ и его создателей, поскольку инструменты и методы, применяемые в технологиях ИИ, могут быть неправильно использованы властями и другими лицами, имеющими к ним доступ. В этой связи мы считаем необходимым установить принципы их использования.

   Бесспорно, сегодня применение технологий ИИ позволяет во много раз эффективнее решать разнообразные производственные и управленческие задачи. Однако развитие данных технологий влечет за собой целый ряд правовых и нравственно-этических проблем. С точки зрения обычного потребителя вопрос этики ИИ чаще всего связан с конфиденциальностью и безопасностью персональных данных. Аспекты распространения личной информации, передачи личных данных третьим лицам, неправомерного использования данных о субъектах и т.д. сегодня чаще всего обсуждаются в разрезе социальных сетей и поисковых сайтов. Под прицел общественного мнения попадают крупные IT-компании, такие как Google, Facebook, Яндекс, Apple, Microsoft и пр. Также часто возникает вопрос правомерности использования систем распознавания лиц и безопасности данных, полученных с камер наблюдения. Также можно услышать критику в адрес организаций, работающих в сфере продаж, в связи с использованием ими данных о покупательских предпочтениях, поисковых запросов и пр.

   Кроме этого, среди масштабных проблем, появляющихся в связи с использованием технологий ИИ, можно назвать такую, как возможность реальных угроз для жизни людей, усиление предвзятости и дискриминации, затруднения в определении субъекта, несущего ответственность за решения, принимаемые при использовании технологий ИИ, риски десоциализации как отдельных людей, так и групп.

   С точки зрения управления персоналом этику ИИ также рассматривают чаще с позиций этичности и правомерности обработки персональных данных сотрудников и защиты их прав приватности.

   Однако, по мере того как машины становятся более разумными и могут однажды обрести сознание, в будущем люди, видимо, должны будут рассмотреть права роботов — концепцию, согласно которой люди должны иметь моральные обязательства по отношению к разумным машинам. Это похоже на права человека и животных. Например, этично ли отправлять интеллектуальных военных роботов на опасные поля сражений или назначать роботов для работы в условиях грязной среды? К этой категории относятся также права на свободу действий, свободу выражения, равенство, свободу мысли и эмоций. Кстати, писатели-фантасты почти 70 лет назад затронули данный вопрос в своих произведениях. Примером тому являются наиболее известные Три закона робототехники, выдвинутые Айзеком Азимовым в 1950е годы в рассказе «Хоровод». И вот сегодня наступают времена, когда эксперты всерьез задумываются о применимости вопросов этики ИИ как во имя человека, так и в защиту прав роботов.

   Постоянно растущие запросы современного человека на повышение темпов и эффективности процесса принятия решений и передачи информации, комфорта и удобства профессиональной и личной жизни, скорости перемещения в пространстве породили целый ряд инноваций в области ИИ.

   Однако мы хотим рассмотреть не столько восторги, связанные с преимуществами, которые рекламируют разработчики и дизайнеры технологий ИИ, сколько обратить внимание читателей на настойчивые призывы к уточнению руководящих принципов этики ИИ, стимулированию принятия этических стандартов и юридически обязывающих инструментов регулирования использования технологий ИИ.

   Этические нормы в отношении ИИ, если таковые существуют, пока носят в основном саморегулирующийся характер, и существует растущий спрос на усиление государственного надзора в данном вопросе.

   Нам также представляется, что еще один из ключевых вопросов применения технологий ИИ заключается в том, чтобы понять, а что происходит, когда ИИ заменяет или дополняет человеческую свободу воли? Этот вопрос лежит в основе понимания этики. В данной связи возникает необходимость разработки рекомендаций, направленных на поиск путей создания этического, ориентированного на человека ИИ, который должен быть спроектирован и разработан в согласовании с ценностями и этическими принципами общества или сообщества, на которое он влияет. Этика, по нашему мнению, должна быть встроена в процесс проектирования и разработки с самого начала создания ИИ.

   Для определения круга основных актуальных вопросов этики ИИ нами был проведен репрезентативный обзор научно-практической литературы и интернет-источников. Его осуществление дало возможность сформировать четкое видение проблем, связанных с рассматриваемой темой этики ИИ. При использовании данного метода, как синтеза исследовательского вопроса ИИ, мы обнаружили многократное подтверждение актуальности дальнейшего исследования и разработки новых ценностей, принципов и методов, которые будут направлять моральное поведение ИИ при его внедрении на практике. Человек должен контролировать/проверять/осуществлять мониторинг деятельности любой конкретной технологии ИИ, чтобы полностью понять ее поведение и убедиться, что она не нарушает человеческий моральный компас.

   Мы пришли к заключению, что этика должна быть встроена в идею о том, почему разрабатывается определенная технология, оснащенная ИИ, поскольку ни одно из нововведений в профессиональной и социальной сферах не является сегодня более трансформационным и разрушительным, чем взрывное воздействие ИИ, потому что оно способно изменить все, что мы делаем. Изучение прецедентов, представленных в различных источниках информации, рассмотренной нами, показал, что четыре основные категории риска особенно актуальны и требуют обязательного этического регулирования, когда решения ИИ используются для социального блага:

- справедливость,

- конфиденциальность,

- безопасное использование и безопасность,

- «объяснимость» (способность идентифицировать функцию или набор данных, которые приводят к определенному решению или прогнозу).

   Также наше внимание сосредоточено на статистических базах данных, имеющих отношение к социальным, поведенческим аспектам внедрения технологий ИИ. Поэтому при написании работы мы также воспользовались результатами исследования, осуществляемого ВЦИОМ методом интервью в рамках проекта «Цифровизация и искусственный интеллект» в течение нескольких последних лет, с 2017 года по настоящее время. Опрос направлен на выявление мнения населения и работодателей в отношении использования и распространения технологий с использованием ИИ и робототехники [2].

   Результаты проведенного исследования позволили нам разделить нравственно-этические вопросы применения технологий ИИ на два глобальных направления — этика применения технологий ИИ в масштабах общества и масштабах отдельной компании.

   Среди главных общемировых проблем — разработка так называемых «автономных систем смертоносных вооружений» — Lethal Autonomous Weapons Systems (LAWS), дронов для заказных убийств, в частности, или очередное возвращение к гонке вооружений, но уже на базе развития ИИ военной техники и кибероружия. На начало 2019 года о планах увеличения внедрения ИИ в военные разработки заявили США, Китай, Индия, Франция и Великобритания [8].

   Однако, не только военная технология с использованием ИИ   может нести угрозу жизни, но и бытовая или промышленная, поскольку ИИ не обладает осознанием самого себя, как не обладает и тем, что называется «эмпатией» — основой этики.

   Стандарты морального «компаса» человека сильно зависят от его воспитания и окружения, моральных принципов и религиозных убеждений, но у большинства людей есть один из этих «компасов». Это также то, на чем компании строят свою этику и соблюдение, что правильно, а что неправильно, и как мы устанавливаем правила, основанные на этом.

   ИИ   лишен такого «компаса» — нравственного ориентира. На самом деле, у него нет никакого ориентира. ИИ может отделить правильное от неправильного только на основе данных, которые имеют ярлык «правильно» и ярлык «неправильно», прикрепленный к нему. Единственный моральный ориентир, который существует, когда речь заходит об ИИ, — это его разработчик, который затем устанавливает планку для того, что правильно, а что неправильно.

   Например, в США отмечается растущее использование ИИ в системе уголовного правосудия, которое может иметь дискриминационные последствия. Программное обеспечение для оценки риска рецидивизма, используемое в системе уголовного правосудия, показывает случаи дискриминации на основе расы, пола и этнической принадлежности. Так, некоторые обвиняемые ложно помечены как высокорисковые из-за своей этнической принадлежности.

   Также сегодня обширно обсуждается возможность вывода на дороги беспилотных автомобилей. Они действительно являются одной из реальных угроз для жизни людей, так как в случае спорных аварийных ситуаций достаточно трудно прогнозировать поведение машины. В связи с этим достаточно часто сейчас приводится пример с вагонеткой, которая едет по рельсам и управляется ИИ. На пути следования вагонетки находятся пять человек, привязанных к рельсам. При этом вагонетка может свернуть на другой путь, где находится всего один человек в аналогичном положении. Если бы вагонеткой управлял человек, то, принимая свое решение, он поступил бы так или иначе, основываясь на множестве внутренних и внешних факторов и условий. Принадлежность к социальной группе, сформированная система внутренних установок, мораль определят выбор человека, в отличие от ИИ, который сделает выбор в соответствии с заложенным алгоритмом. Массачусетской технологический университет даже предлагает всем желающим развернуть свой сценарий на сайте, посвященном этому вопросу с вагонеткой.

   В случае с беспилотным транспортом можно привести фактические примеры из практики зарубежных стран. Так, компания «Mercedes» заявила о первоочередной безопасности пассажира при любых обстоятельствах. Но в противовес ей Китайская Система социального рейтинга, основанная на данных о законопослушности граждан, предполагает, что производители беспилотных автомобилей в случае спорной аварийной ситуации могут заложить априори принцип виновности человека с низким социальным рейтингом.

   Следующая этическая проблема — нарушение права на неприкосновенность частной жизни, которое имеет важное значение для человеческого достоинства, также может быть затронута ИИ. Осуществление сбора данных пользователей, покупателей и потребителей выходит далеко за рамки простой обработки сведений в целях дальнейшего улучшения продукции, рекламных кампаний и пр. Эти сведения затем могут напрямую использоваться в целях манипулирования поведением людей и введения в заблуждение. Главный этический вопрос, который возникает в связи с этим, — это личная жизнь. Широкий круг заинтересованных сторон владеет, контролирует, собирает или генерирует данные, которые могут быть развернуты для технологий ИИ. Правительства являются одними из наиболее важных сборщиков информации, которая может включать данные о налогах, здравоохранении и образовании. Огромные объемы данных также собираются частными компаниями — включая спутниковых операторов, телекоммуникационные фирмы, коммунальные предприятия и технологические компании, которые управляют цифровыми платформами, а также сайтами социальных сетей и поисковыми операциями.

   В качестве примера, подтверждающего факт активной передачи личной конфиденциальной информации в сети интернет, приведем данные опроса ВЦИОМ, которые наглядно свидетельствуют о том, что около 60% российских граждан регулярно осуществляют банковские и коммунальные платежи, покупку билетов на транспорт и зрелищные мероприятия, передачу информации о расходовании тепла и электроэнергии, заказывают такси и записываются на различные мероприятия или в медицинские учреждения с помощью информационных технологий.

   Эти наборы данных содержат строго конфиденциальную личную информацию, которая не может быть передана без анонимизации. Но частные операторы могут также коммерциализировать свои наборы данных, которые, следовательно, могут быть недоступны для бесплатных социально-полезных случаев. Преодоление этой проблемы доступности, вероятно, потребует глобального призыва к действию для регистрации данных и повышения их доступности для четко определенных общественных инициатив.

   Сборщики и генераторы данных должны быть поощрены и, возможно, уполномочены открывать доступ к подмножествам своих данных, когда это может быть использовано в явных общественных интересах, через создание и принятие Международных хартий.

   Конечно, не будем забывать и про самое основное опасение человечества, которое теоретически является вполне правдоподобным — это возможно близкий конец эры человеческого господства на Земле, в случае выхода систем ИИ из-под контроля людей. Несомненно, на настоящий момент подобное предположение пока представляется ближе к фантастике, чем к реальности, но в целом это вполне возможный сценарий развития, учитывая, что уже сегодня некоторые разработчики не могут до конца объяснить, по какому принципу, работает созданный ими ИИ. Это касается, например, современных социальных сетей. Чем быстрее и активнее будут развиваться технологии машинного обучения, тем более жестким должен становиться контроль со стороны государства и тем более упреждающим должно становиться законодательное регулирование. Конечно, в данной статье мы не имеем в виду взятие людей машинами в заложники, но, например, распространение заведомо ложного или пропагандистского контента, манипулирование и склонение людей, например к геноциду, вполне возможно.

   Современные технологии ИИ, применяемые в СМИ, могут легко спровоцировать насилие и панику. С помощью ИИ легко создавать измененные видео, накладывать изображение лиц людей, например известных политиков, на любые видеосюжеты, создавая фальшивые новости и компрометируя данных политиков, показывая, например сцены террора или развлечений с их участием. Фальшивые новости — это реальная проблема наших дней, а последствия их распространения мы уже видим воочию.

   Кроме того, например, в США было запрещено использование такой технологии ИИ, как генератор поддельного текста, из-за высокого риска неправильного использования. Несомненно, продвинутые агенты ИИ могут подвергнуть людей, компании и общество повышенному риску.

   Описанные нами нравственно-этические моменты затрагивают, скорее, общество в целом и являются общегосударственными проблемами. Но в рамках конкретных организаций этические вопросы применения ИИ носят также весьма актуальный характер.

   Вопреки многим ожиданиям, применение ИИ может повлечь за собой усиление предвзятости и дискриминации, а не борьбу с ней (данный аспект связан с тем, что интеллектуальные системы обучаются на уже имеющихся и вводимых в каком-либо виде людьми данных, соответственно, предшествующая машинному обучению дискриминация в любом виде будет только усиливаться в «машинном мышлении»). Предположим, например, что компания использует Pymetrics, Hire-Vue или другую передовую технологию оценки для отбора кандидатов на работу. Эти производители упорно работают, чтобы удалить расовые, гендерные и поколенческие предубеждения из своих инструментов, однако, реализуя программы, есть риск повторения ошибки, аналогичной той, которую допустила компания Amazon, которая непреднамеренно создала свою собственную гендерно-предвзятую систему найма. Специалисты по управлению персоналом этой компании обнаружили большую проблему: их новая рекрутинговая машина «не одобряла» кандидатов-женщин.

   Команда создавала компьютерные программы с 2014 года для проверки резюме соискателей с целью автоматизации поиска лучших талантов. Автоматизация была ключом к доминированию электронной коммерции Amazon, будь то внутри складов или принятие решений о ценах. Экспериментальный инструмент найма компании использовал ИИ, чтобы дать кандидатам на работу оценки от одной до пяти звезд — также, как покупатели оценивают продукты на Amazon [10].

   Специалисты по подбору персонала хотели получить инструмент отбора, который в несколько секунд отбирал бы из 100 резюме первую пятерку лучших, и компания бы нанимала их на работу. Но через год компания осознала, что ее новая система не оценивает кандидатов на должности разработчиков программного обеспечения и другие технические должности гендерно нейтральным образом. Это оказалось обусловлено тем, что компьютерные модели Amazon были обучены проверять кандидатов, собирая закономерности в резюме, представленные компании в течение предшествующего 10-летнего периода. Большинство из кандидатов — мужчины, что является реальным отражением преобладания численности мужчин в технологической индустрии. Amazon редактировала программы, чтобы сделать их нейтральными к этим конкретным условиям. Но это не стало гарантией того, что ИИ не придумает другие способы сортировки кандидатов, которые могут оказаться условно дискриминационными. Компания окончательно распустила команду в начале прошлого года, потому что менеджеры по персоналу потеряли надежду на проект. Рекрутеры Amazon смотрели на рекомендации, генерируемые инструментом при поиске новых сотрудников, но никогда так и не стали целиком полагаться исключительно на эти рейтинги.

   Еще одной важной морально-этической проблемой управления персоналом может стать чрезмерное использование технологий ИИ и потеря обычного человеческого контакта. Эта проблема аналогична проблеме десоциализации, актуальной в масштабах общества. Кроме того, чрезмерная цифровизация и роботизация коммуникационных процессов может служить причиной отсутствия командного духа и чувства социальной общности в организациях, что в определенных условиях является негативным фактором, снижающим эффективность производственных процессов. Чрезмерное использование технологий ИИ, уход от личных коммуникаций внутри коллектива также может вести к снижению доверия сотрудников друг к другу, к компании и к руководству [6]. Данное явление, в свою очередь, затронет и еще одну морально-этическую проблему использования ИИ в управлении персоналом — его влияние на формируемую в организации корпоративную культуру.

   Стремительный прогресс в области ИИ и технологий автоматизации может привести к еще одной значительной проблеме с точки зрения этики технологий ИИ — существенной трансформации рынков труда. Хотя ИИ и автоматизация могут повысить производительность труда одних работников, в то же время они могут заменить работу, выполняемую другими, и, с высокой долей вероятности, трансформируют в различной степени почти все профессии.

   Поскольку ИИ находится только в начальном состоянии, эмпирические данные о вытеснении человека с рабочего места роботами пока недоступны. Поэтому сейчас невозможно дать серьезный сигнал о потенциальном влиянии ИИ   на занятость. В связи с этим наши эмпирические исследования были сосредоточены на автоматизации в широком смысле и ее влиянии на занятость. Были выделены некоторые последствия автоматизации.

   О грядущей угрозе говорят результаты исследования глобального института McKinsey, озвученные в ежегодном Докладе об автоматизации, основанном на исследованиях рынков труда развитых стран мира, доходов, навыков и расширяющегося спектра моделей работы, включая экономику гигов, а также потенциального влияния на мировую экономику цифровизации, автоматизации, робототехники и ИИ [4].

   В данном докладе McKinsey предполагает, что к 2030 году интеллектуальные агенты и роботы могут заменить до 30 процентов нынешнего человеческого труда в мире. McKinsey считает, что, в зависимости от различных сценариев внедрения, к 2030 году утопия вытеснит от 400 до 800 миллионов рабочих мест, что потребует полного перехода от 375 миллионов человек к другим категориям рабочих мест. Такой сдвиг не может не вызывать существенного беспокойства, особенно в отношении уязвимых стран и населения мира.

   Кроме этого, сформулируем основные потенциальные тенденции рынка труда, отмечаемые в связи с распространением ИИ:

- исчезновение производственных механических рабочих мест в результате внедрения технологий ИИ;

- увеличение разрыва в заработной плате за счет повышения отдачи от образования;

- поляризация рынка труда, поскольку развитие технологий ИИ приводит к увеличению числа высококвалифицированных и низкоквалифицированных рабочих мест, вытесняя при этом рабочие места средней квалификации [5].

   Еще одной составляющей этики ИИ, помимо технологий ИИ, является робоэтика, изучающая этические проблемы, возникающие при проектировании и эксплуатации интеллектуальных роботов в реальной жизни. С точки зрения содержания труда невозможно рассматривать ИИ безотносительно роботизации рабочих мест. Так как со стороны работника-пользователя содержание трудовой деятельности усложняется именно за счет роботизации части выполняемых им процессов либо за счет необходимости взаимодействовать с физическими роботами.

   Организации, которые в настоящее время внедряют инновационные технологии, подходят к вопросу исключительно с позиций эффективности и прибыльности: процессы, которые в настоящее время требуют больших объемов ресурсов, но которые приносят качественно небольшую отдачу, автоматизируются, что влечет за собой высвобождение экспертов для работы над более важными и стратегическими задачами. Однако небольшое внимание уделяется именно качеству трудовой жизни персонала в условиях повсеместной роботизации. Это ставит перед HR-специалистами некоторые интересные дилеммы относительно того, когда и как автоматизация задач является наиболее подходящей и эффективной:

- когда повторяющиеся задачи перегружены и больше не рентабельны для организации?

- когда требуется освободить персонал, обремененный оперативными вопросами, для решения более важных стратегических задач?

- когда необходимо снизить риски бизнес-процессов, подверженных человеческим факторам и ошибкам?

   Также обнаруживается и этический вопрос, который возникает перед специалистом по управлению персоналом при цифровизации бизнес-процессов, а именно:

- если автоматизация приносит людям большее благополучие и чувство безопасности, достаточно ли этой причины для автоматизации даже с высокими затратами или минимальным увеличением производительности/ прибыльности компании? Могут ли коммерческие, временные или финансовые результаты уступить место благополучию и качеству трудовой жизни персонала?

   К   сожалению, многие организации еще не достигли стадии, когда результаты и удовлетворенность сотрудников стоят выше финансовых или производственных результатов. Несмотря на то, что сегодня многие работники сталкиваются с задачами, которые требуют как физического, так и психологического напряжения и которые, если их автоматизировать, скорее всего, облегчили бы многие симптомы стресса персонала, организации не предпринимают никаких действий и не внедряют инновационные технологии, так как не видят финансовых преимуществ.

   Вся социально-экономическая система вступает в фазу ускоряющейся трансформации: рынки, бизнес, образование, правительство, социальное обеспечение и модели занятости будут затронуты довольно серьезно. Сочетание стремительного распространения технологий ИИ и отсутствие соответствующих этических норм и правил могут привести к безграничному расширению монополий, которые станут диктовать свои правила в отношении политики занятости, а также препятствовать выходу на рынок компаний, не обладающих соответствующими возможностями в плане ИИ [3].

   Наш основной вывод состоит в том, что новая стратегия развития этики ИИ должна акцентировать внимание на равные права и возможности человека, начиная с получения соответствующего образования и гарантий занятости до обеспечения конфиденциальности информации и безопасности самого человека.

   Многие институты, такие как Google, IBM, Accenture, Microsoft и Atomium-EISMD, начали работать над созданием этических принципов, которые будут направлять развитие ИИ. Изучение дискуссии, которая ведется вокруг вопросов этики ИИ, позволила нам сформулировать главные принципы разработки технологий ИИ, наиболее часто называемые экспертами в области этики ИИ: прозрачность, справедливость и честность, ненарушение прав, ответственность и конфиденциальность. На основе обобщения результатов изучения практического опыта и публикаций, посвященных рассматриваемому вопросу, можно сформулировать перечень правил, которые предъявляются к технологиям ИИ, чтобы они могли считаться этичными и надежными:

- технологии ИИ направлены на расширение возможностей людей, однако, следует обеспечить надлежащие инструменты контроля их применения;

- технологии ИИ должны обладать устойчивостью и безопасностью, чтобы минимизировать непреднамеренный потенциальный вред;

- применение технологий ИИ должно осуществляться строго в соответствии с соблюдением законов о правах человека, иметь возможность осуществления контроля со стороны представителей общественности;

- обеспечение конфиденциальности и целостности данных, обеспечение законного доступа к ним;

- при разработке ИИ следует избегать несправедливого предвзятого отношения, поскольку оно может иметь многочисленные негативные последствия, вскрывая предрассудки и обостряя дискриминацию отдельных социальных групп;

- доступность технологий ИИ всем заинтересованным потребителям, независимо от расы, географического положения или инвалидности;

- технологии ИИ должны обеспечивать социальное и экологическое благополучие всем людям, включая будущие поколения.

   По нашему мнению, вопросы соблюдения этики ИИ должны лечь в основу перестройки социальных механизмов, чтобы охватить целый ряд новых сценариев и ситуаций. Это положение обусловливается тем фактом, что политика на рынке труда и в сфере образования, в основу которой не заложены этические основы, снижает позитивное воздействие ИИ и роботизации на занятость в частности и на глобальную экономику в целом.

   Следует пересмотреть рыночный механизм рынка труда и его регулирования, корпоративную культуру и систему управления компаний, а также содержание трудовых договоров и контрактов в наступающую эру автоматизации и роботизации рабочих процессов на основе этических, социальных и правовых аспектов систем ИИ, если мы хотим избежать непреднамеренных негативных последствий и рисков, возникающих в результате внедрения ИИ в общество.

   Согласно исследованиям Robotic Business Review, к 2025 году более 60% крупнейших компаний в различных сферах производства, здравоохранения, логистики, сельского хозяйства и электроэнергии введут должность директора по робототехнике, основной задачей которого будет разработка стратегии по автоматизации производства с помощью роботов, а также снижение обеспокоенности персонала в связи с возможной потерей рабочих мест и изменения качества и содержания труда.

   Для эффективной работы и отлаженного производственного процесса подобные специалисты, совместно с HR-службами должны разрабатывать принципы и нормы взаимодействия человека и робота, включая [3]:

- этическое поведение и кодексы поведения между людьми и роботами;

- определение политик и процедур для модификации бизнес-процессов в свете внедрения ИИ и роботизации производства;

- принципы и программы адаптации сотрудников к изменяющейся роботизированной трудовой среде;

- выявление и решение проблем, связанных с угрозами физическому и психическому здоровью и благополучию работников, а также их человеческому достоинству;

- принципы управления и взаимодействия с роботами; этический дизайн, правила взаимодействия и адаптации новых роботов; управляющие структуры для решения юридических,

- социальных вопросов, вопросов прозрачности, доверия, предсказуемости, конфиденциальности и увольнения роботов;

- реорганизация процессов принятия решений и закрепление лидерских позиций человека над роботом;

- регулирование материальной ответственности при работе с робототехническими системами;

- разработка новых стандартов поведения сотрудников по отношению к ИИ и роботам;

- определение стандартов поведения работодателя по отношению к сотрудникам, а также юридической ответственности компании перед персоналом;

- создание инновационной корпоративной культуры, способствующей нововведениям и технологическим трансформациям и предупреждающей сопротивление персонала роботизации и пр.

   Коммуникация и раскрытие информации могут помочь обществу в целом обеспечить развитие и внедрение этического ИИ. Создание дискуссионных форумов и публикация этических рекомендаций компаниями, отраслями и политиками могут помочь просвещать и обучать общественность пониманию преимуществ ИИ и развеивать мифы и заблуждения об ИИ. Кроме того, более глубокое знание юридических основ в области прав человека, укрепление чувства безопасности и понимание этических вопросов, связанных с ИИ, может способствовать укреплению доверия к ИИ и более эффективному и действенному развитию этического ИИ.

   В мире ИИ и алгоритмов специалистам по персоналу придется принимать множество решений, которые будут иметь долгосрочное влияние на качество и тип работы, выполняемой в организациях. Без придания существенной роли HR-службе в данных процессах, общество в целом рискует оказаться в ситуации, когда все решения по цифровизации и автоматизации рабочих мест будут зависеть только от финансовых результатов, что не может положительно сказаться на будущих рабочих местах и на общем качестве трудовой жизни в обществе.

   Поэтому в современных условиях повсеместной цифровизации и роботизации HR-специалист становится в какой-то степени защитником человеческих ценностей, определяющая роль которого должна сводиться к соблюдению моральных норм и принципов в новой, формируемой инновациями корпоративной культуре организации.

   В заключение еще раз отметим, что ИИ обладает огромным потенциалом, а его ответственное внедрение зависит только от нас.

Леонов Вадим, прот.

Каштанова Е.В.

Лобачева А.С.

Леонов Вадим, прот., Каштанова Е.В., Лобачева А.С. Этика искусственного интеллекта: проблемы и инициативы в социальной сфере // Управление персоналом и интеллектуальными ресурсами в России. М.: Научно-издательский центр ИНФРА-М, 2021, № 2 (53). С. 5-12. DOI 10 .12737/2305-7807-2021-10-2-5-12 


ЛИТЕРАТУРА

1.     Виниченко М.В., Наррайнен Г.С. Мельничук А.В., Фени Ч. Влияние искусственного интеллекта на деятельность человека // Пограничные информационные технологиии системные исследования в кооперативной экономике. Исследования в области систем, принятия решений и   управления. Springer Nature Швейцария. — 2021. — Том 316. — C. 561–570. https://doi.org/10.1007/978–3030– 57831–2_60.

2.     ВЦИОМ (2020). Расширенный сбор данных. К тематическому выпуску «Цифровизация и искусственный интеллект». URL: https://wciom.ru/fileadmin/file/nauka/ podborka/rasshirennaya_podborka_dannyh_wciom_102020. pdf. (дата обращения: 03.03.2021).

3.     Захаров Д.К., Лобачева А.С. Формирование и развитие HR-экосистемы в организации // Управление персоналом и   интеллектуальными ресурсами в России. — 2020. — № 1(9). — С. 23–26.

4.     Каштанова Е.В., Лобачева А.С., Макушкин С.А., Ридхо Т.К. Компетентностная модель в области информационных технологий // Пограничные информационные технологии и системные исследования в кооперативной экономике. Исследования в области систем, принятия решений и управления. — Springer Nature Швейцария. — 2021. — Том 316. — https://doi.org/10.1007/ 978–3030– 57831– 2_58.

5.     Лобачёва А.С. Робоэтика в корпоративной культуре // Материалы 24й Международной научно-практической конференции «Актуальные проблемы управления–2019», Москва: Издательский дом ГУУ, 2020. Садовая Е.С. Цифровая экономика и новая парадигма рынка труда // Мировая экономика и международные отношения. — 2018. — Т. 62. — № 12. — С. 35–45.

7.    Технологии управления персоналом в условиях цифровой модернизации экономики: монография / Государственный университет управления, Институт управления персоналом, социальных и бизнес-коммуникаций ГУУ; [под ред. Р.А. Ашурбекова]. — Москва: Издательский дом ГУУ, 2019. — 134 с. 

8.    HR в эпоху искусственного интеллекта: впереди много перемен. — URL : https://joshbersin.com/2019/07/hrintheageofailotsofchangeahead/ (дата обращения: 05.03.2021).

9.    Keng Siau, Weiyu Wang. Artificial Intelligence (AI) Ethics: Ethics of AI and Ethical AI. March 2020. Journal of Database Management 31(2):74–87 p.

10. Symitsi E., Stamolampros P., Daskalakis G., Korfiatis N. The informational value of employee online reviews. European Journal of Operational Research, Elsevier, 288 (2021) 605– 619 p.