«Опасность таится не в машине, а в человеке». Протоиерей Александр Абрамов об искусственном интеллекте

Московская Сретенская  Духовная Академия

«Опасность таится не в машине, а в человеке». Протоиерей Александр Абрамов об искусственном интеллекте

2143



На прошедшей в Сретенской духовной академии конференции, посвященной развитию технологий и искусственному интеллекту, преподаватель Академии, настоятель храма преподобного Сергия Радонежского в Крапивниках протоиерей Александр Абрамов выступил с докладом на тему «Искусственный интеллект и христианство: взгляд Ватикана». Мы поговорили с отцом Александром об опасностях, связанных с искусственным интеллектом, и о взглядах Католической Церкви на эти опасности.  

Отец Александр, скажите, почему Русской Православной Церкви важно учитывать опыт Католической Церкви при исследовании искусственного интеллекта, ведь мировоззрение у нас различается?

Нам важно учитывать опыт не только Католической Церкви, но и протестантского сообщества тоже, потому что нам важна позиция всех людей, именующих себя христианами.

Наше мировоззрение хотя и различается, но оно в своей основе евангельское. И в условиях, когда мир так радикально разделен, близость позиции людей, исповедующих Христа личным Богом, очень важна. Однако при этом надо, конечно же, учитывать и наши расхождения.

Позицию, в особенности католицизма, следует брать в расчет по той причине, что изучение тематики искусственного интеллекта в этой Церкви начали значительно раньше, чем в православном мире. Сейчас проходят многочисленные результативные конференции, посвященные изучению искусственного интеллекта, вырабатываются те или иные документы, намечающие контуры подхода Святого Престола к этому вопросу.

Поскольку вызовы новых технологий для современного мира одни и те же в глобализирующемся пространстве, может быть, нам не стоит изобретать велосипед, а следует присмотреться к результатам, которые имеются у христиан на Западе.

Отец Александр, Вы в своем докладе говорили, что Ватикан призывает к тому, чтобы воспрепятствовать развитию военных дронов. Однако как контраргумент была высказана мысль, что лучше, чтобы системы искусственного интеллекта воевали между собой, а люди при этом чувствовали себя в безопасности. Вы поддерживаете такое мнение?

Конечно нет. Во-первых, на данном этапе дроны не до конца самостоятельны, потому что решение об ударе принимает оператор. Человек принимает этическое решение в пределе: убивать или не убивать.

Для меня морально ужасна ситуация, в которой машина принимает решение об уничтожении человека. И человек не имеет на эту ситуацию никакого влияния, а решение принимается на основе анализа факторов целесообразности, удобства, скорости, достижимости и так далее.

Только в фантастических рассказах роботы уничтожают роботов. В реальных войнах удар приходится по живой силе, по инфраструктуре, по населенным пунктам и т.д. Цель любой войны — уничтожение противника, а противник — это в первую очередь люди.

Видите ли Вы какие-то положительные моменты в развитии искусственного интеллекта?

Мы, на самом деле, уже давно живем в мире алгоритмизации, и я в своем докладе упоминал, что Советская ассоциация исследований искусственного интеллекта возникает уже в 80-е годы XX века, то есть еще в период СССР.

Мы с вами знаем, что в период пандемии лечение больных ковидом осуществлялось с помощью алгоритмов, которые анализировали итоги компьютерной томографии. Терапевтически значимое исследование миллионов снимков компьютерной томографии — это пример доброго применения искусственного интеллекта.

Мы все пользуемся автомобильными навигаторами — вот вам другой пример искусственного интеллекта. Используем и более сложные результаты деятельности ИИ, например систему взлета и посадки самолетов. Положительных сторон очень много, это не значит, что мы должны пренебрегать и опасностями.

Можно ли говорить, что с развитием искусственного интеллекта наступит тотальный контроль в мире, как это описано в романе «1984» Оруэлла и что отчасти реализовано в Китае?

Китай — один из примеров. Компания Amazon тоже использует контроль и ограничения, с ее этнически-расистскими профилированными продуктами, которые предлагаются на основе алгоритмически распознаваемых предпочтений тех или иных людей. Или отказы в приеме на работу тем людям, которые не проходят сито критериев искусственного интеллекта.

Известен случай, когда человеку многократно отказывали в посадке на самолет из-за того, что система не распознавала его фотографию — он был монголоидом, а система считала, что у него нет глаз.

Но, к сожалению, это не только курьезы. Есть случаи, когда ошибочно направленные письма, случайно выбранные алгоритмом в адрес того или иного человека, приводили его к самоубийству.

Опасность не в деятельности алгоритма как такового. Опасность не в машине и не в железе. Опасность в том, что изобретатель, инженер, специалист, может реализовать такую программу или такие программы, которые будут построены на тоталитарных началах. В эпоху безличности, больших данных и охоты за колоссальными деньгами или властью злые аргументы могут брать верх.

Я вам приведу маленький пример. У храма, в котором я настоятель, есть аккаунт в фейсбуке уже много лет. Фейсбук обратил к нам неправомерные требования — перерегистрироваться как общественное лицо. Но храм — это не общественное лицо, храм — это храм. И тогда нам удалили весь архив фотографий за много лет. Это тысячи фотографий, воспоминания о событиях, которые для нас важны. Это же делали не люди, это сделала программа, разработанная людьми, на основании критериев, разработанных людьми. Является ли этот шаг тоталитарным? Да, безусловно. Является ли он несправедливым? Да, безусловно. Является ли это опасностью? Да, безусловно.

Что для Вас в прошедшей конференции было наиболее ценным?

Я должен сказать, что присоединюсь к мнению отца Александра Волкова. Он говорит о том, что мы только в самом начале пути, нам надо разделить реальные опасности и предрассудки, нам надо выделить подлинное движение вперед и то, что, как нам кажется, может привести к успеху.

Мы находимся на этапе распознавания очень сложного, многогранного, нового процесса. Татьяна Черниговская, известный исследователь проблем сознания, говорит: «Я чувствую, что есть какая-то опасность дегуманизации в развитии искусственного интеллекта так, как оно идет сейчас».

Тот факт, что на базе Сретенской конференции в академическом разрезе ставится вопрос о воздействии высоких технологий на жизнь человека, — это серьезное заявление, это заявление о том, что мы относимся к проблеме не спустя рукава, а пристально и внимательно, и что это изучение богословское, философское, практическое будет продолжаться. Это очень важно. 

Подготовил Никита Ходяков