God from the machine 2.0: biblical narrative as a metalanguage for discussing machine ethics

Cover Page


Cite item

Full Text

Abstract

The article is devoted to theoretical models in which the biblical narrative becomes a means of conceptualizing the actions of technological objects. Based on the works of Russian and foreign philosophers, it is shown what the specifics of the discursive formulation of the problems of machine ethics, understood as a subject, are. The focus is not on the formulation of the problem of artificial intelligence ethics per se or the possibility of solving it, but on the very method of discursive formulation, or the way of talking about it, by incorporating biblical plots, motifs, and images as mechanisms for understanding this problem. The subject of the study is the heuristic potential of the biblical metanarrative in the structure of statements about artificial intelligence. It is demonstrated that the heuristic potential of the biblical metanarrative in the study of AI problems is related to the production of distinctions. It is revealed which new systems of basic distinctions can be constructed using this method of discursive design. It is shown what changes are observed in the discourse about algorithmic technologies. Possible reasons for the activation of biblical discourse in addressing the problems of artificial intelligence are identified.

Full Text

Введение

Название этой статьи — аллюзия на известную работу Уильяма Бейнбриджа «Бог из машины: модели религиозного познания с использованием искусственного интеллекта» («God from the Machine: Artificial Intelligence Models of Religious Cognition») [1] и менее известную работу Родриго Санза «Ethica ex machina. Exploring artificial moral agency or the possibility of computable ethics» [2]. Оба автора, несмотря на несходство концептуальных аппаратов, целей работы и подходов, указывают на одну тенденцию — рассмотрение технологических объектов в, казалось бы, чуждых им контекстах: религиозного опыта, этики и/или религиозной этики.

Заглавие статьи обыгрывает название известного драматургического приема античного театра и отсылает к ситуации, в рамках которой немотивированно появившееся божество определяет судьбу действующих лиц или изменяет всю обстановку действия [3]. Ключевым фактором при этом оказывается именно немотивированность подобного появления, которое может показаться за границей структуры повествуемого мира полной неожиданностью. Однако в структуре повествуемого мира появление бога может быть вполне ожидаемым и потому не воспринимается как непредсказуемое — напротив, герои могут осознавать появление подобного актора как необходимое гармонизирующее начало.

Столь же неожиданным, сколь появление любого немотивированно возникающего агента, является актуализирование библейского нарратива для осмысления и оценки действий технологических объектов. Так, использование подобной метафоры, если она позволительна в научном или философском дискурсе, призвано описать ситуацию распространения или актуализации такого способа дискурсивного оформления явлений или ситуаций, который, с одной стороны, мыслится как не вполне органичный (в пределе — чуждый) описываемому явлению, но, с другой стороны, воспринимается как вполне симптоматичный.

Наиболее примечательным и значимым, с нашей точки зрения, событием последних лет — по крайней мере, по масштабу и плодотворности дискуссий и обсуждений работы — становится публикация книги российского и французского философа А. Гринбаума «Машина-доносчица» [4]. Подзаголовок труда А. Гринбаума («Как избавить искусственный интеллект от зла»), очевидно, вводит разговор об искусственном интеллекте в плоскость постановки и решения этических проблем (дихотомия добро-зло). Однако формулировка автора такова, что постулируется наличие зла уже в самой машине [ср.: a) как не допустить зло в ситуации наличия ИИ; и b) как избавить ИИ от зла]. А. Гринбаум, пользуясь методом, определяемым им как метод гомологии [4, с. 11] и позволяющим «осмысленно вести речь об определенной общности между научным и мифологическим контекстами, несмотря на их онтологическую несхожесть» [4, с. 12], ставит проблему этики искусственного интеллекта (далее — ИИ) и предлагает пути ее решения, используя, как ни странно, библейский «терминологический аппарат» — библейские: а) сюжеты; b) мотивы и c) образы (такие как: a) битва за Гай из книги Иисуса Навина; b) бросание жребия; с) функции ангелов и Сатаны и проч.) — как универсальный язык и способ описания.

Примечательны два аспекта. Во-первых, оформляющаяся попытка говорить об этике машины per se. Так, немецкий философ Винсент Мюллер (Vincent C. Müller) — один из ведущих специалистов в области ИИ, профессор этики и философии ИИ и президент European Association for Cognitive Systems — в не переведенной на русский язык работе «Ethics of Artificial Intelligence and Robotics» (включена в Stanford Encyclopedia of Philosophy) говорит о необходимости рассуждать об этике машины, понятой как субъект [5]. В концептуальном аппарате Мюллера «машинная этика» — это этика для машин, этика машин как субъектов, а не «человеческая» этика человеческого же их использования как объектов («Machine ethics is ethics for machines, for «ethical machines», for machines as subjects, rather than for the human use of machines as objects» [5]). Такая пересборка ролей, как и сама возможность этики машины, рождает, безусловно, множество сопутствующих вопросов1.

Второй аспект, очевидно, — привлечение библейских сюжетов, мотивов и образов как концептуального аппарата, пригодного для говорения об этике машин (понятой в смысле Гринбаума и Мюллера или традиционно — как этике использования машин). Априори кажется, что сложно представить более сопротивляющийся язык для описания проблем, связанных с ИИ, однако все продолжающаяся актуализация такого способа их дискурсивного оформления говорит об обратном.

Крайние (или по крайней мере наиболее явные и репрезентативные) проявления наложений двух логик: «божественное» и «технологическое» (представленное ИИ) — являют собой весьма любопытные социокультурные феномены (к таковым можно отнести Церковь ИИ «Way of the Future» Энтони Левандовски, пусть и ныне закрытую, или виртуальную православную церковь с ИИ в Румынии на BisericaGPT и др.). Нас, однако, интересуют не они.

Для дальнейшего рассуждения необходимо сделать несколько предварительных замечаний:

1) О цели. В рамках данной работы нас интересует не постановка проблемы этики ИИ per se или возможности ее решения, а сам способ дискурсивного оформления, или способ говорения о ней, путем привлечения библейских сюжетов как механизмов «освоения» этой проблемы. Возникает ряд взаимосвязанных вопросов: почему такой способ говорения об этике машин оказывается продуктивным (или — кажется продуктивным)? Какие смыслы позволяет вскрыть (или конструировать) библейский нарратив, применяемый для описания этики машин и понятый как объект исследования? Так, нас интересует эвристический потенциал подобных высказываний (точнее — языка описания), а не их технооптимистическое или технопессимистическое содержание.

2) Об объекте. Важно подчеркнуть, что во многих случаях речь идет не об этических принципах в сфере влияния машины на человека, а об этике самой машины. В этом случае нас также интересует не возможность или невозможность этики машины-субъекта как таковая, а сами принципы порождения высказываний в рамках риторики, связанной с этикой машины. В центре внимания при этом, как было сказано, оказывается сам тип построения языка как языка описания.

Материалом исследования являются работы зарубежных философов и/или ученых (Ник Бостром, Гаспар Кёниг, Норберт Винер, Ричард Рорти, Винсент Мюллер, Уэнделл Уоллак, Дэниел Деннет и др.), а также работы отечественных исследователей.

Эвристический потенциал наложения

Есть ли какой-то эвристический потенциал в стратегиях наложения «библейского» на «технологическое» (если мыслить их как гомогенные) или описания технологического посредством библейского нарратива (если видеть первое как объект, а второе — как оптику и механизм описания)? Какие возможности есть у «библейского терминологического аппарата», понятого как оптика?

В целом, мы предлагаем две стратегии комментирования:

1) выявить, о чем вообще позволяет говорить наложение «библейского категориальной схемы» на феномены, связанные с ИИ;

2) уʹже: выявить, какие системы базовых различений позволяет конструировать такой способ дискурсивного оформления. В данной работе обе стратегии реализуются одновременно.

Здесь, по-видимому, обнаруживается два крайних полюса:

1) понимание технологического через божественное;

2) понимание божественного через технологическое.

Первая стратегия (понимание технологического через божественное) представляется, конечно, менее контринтуитивной, чем вторая.

В известной и уже ставшей классической работе «Творец и робот» [6] (ориг. God & Golem, Inc. A Comment in Certain Points where Cybernetics Impinged on Religion) [7] основоположника кибернетики и теории ИИ Норберта Винера дихотомия Бога и Дьявола — это противопоставленность [любого] творца его творению (или всей совокупности его творений). У Н. Винера оппозиция Бог/Дьявол не соответствует оппозициям добро/зло, истина/ложь и подобным ассиметрично интерпретируемым оппозициям, что часто обнаруживается в трудах авторов, имеющих отношение к богословию и пишущих об ИИ. Винер отдельно оговаривает, что «выбирает свой отправной пункт вне сферы религии» [6, с. 2].

Заход Винера, в целом, довольно очевиден: «Проблема обучения, в частности в ее приложении к машинам, способным обучаться играм, может показаться несколько далекой от религии. Тем не менее существует теологическая проблема, к которой вышеприведенные рассуждения имеют отношение. Это проблема игры между Творцом и его творением. Это тема книги Иова и “Потерянного рая”. В обоих этих сочинениях Дьявол ведет игру с Богом, причем ставкой является душа Иова или вообще души людей. Но, согласно ортодоксальным иудейским и христианским воззрениям, Дьявол — одно из творений Бога. Любое другое предположение привело бы к моральному дуализму с привкусом зороастризма и <…> манихейства» [6, с. 27]. В отличие от традиционной пропорции «Бог-Дьявол», соотносимой с «Человек-ИИ», позволяющей преимущественно обозначать или наметить тенденции технопессимизма (Дьявол = ИИ — ложь, зло, обман) или технооптимизма, дихотомия Н. Винера позволяет обозначить ситуацию, при которой созданное творцом может оказаться равноценным ему по силе (или даже превосходящим). Именно поэтому далее Н. Винер обращается к анализу шахматных партий, сыгранных человеком против машины и человеком против человека: «Бог действительно вовлечен в конфликт со своим творением, причем он легко может проиграть. И, однако, это его творение создано им по его собственной воле и, по-видимому, приобрело всю свою способность действия от самого Бога. Может ли Бог вести серьезную игру со своим собственным творением? Может ли любой творец, даже ограниченный в своих возможностях, вести серьезную игру со своим собственным творением? Изобретатель, конструируя машины, с которыми он может вести игру, присвоил себе в определенных пределах функции творца, какова бы ни была природа создаваемых им игровых устройств. Это в особенности верно в отношении играющих автоматов, которые обучаются на своем опыте» [6, с. 34]. Небезынтересная ремарка такова: Винер обращается к модельной ситуации шахматной игры человека и машины, понятой как игра творца и его творения, еще в 60-е, отмечая, что «машины, играющие в шахматы <…> уже существуют, но они играют сравнительно слабо» [6, с. 34]. Винер не застал широко известный и уже ставший хрестоматийным для описания проблемы игры творения (ИИ) и творца (человека) кейс 2016 года — матч по игре в го, в котором алгоритм AlphaGo победил профессионала высочайшего уровня — одного из сильнейших игроков за всю историю го — Ли Седоля. Подробно этот известный кейс рассмотрен в ряде работ (например, Н. Кловайта и М. Ерофеевой [8], работах В. Вахштайна и др.), но нас, как было сказано, интересует именно риторика; в этом смысле примечательно даже не то, что профессиональная ассоциация игроков в го присвоила алгоритму ранг почетного 9-го профессионального дана (что само по себе любопытный культурологический феномен), а то, какова формулировка отличительной награды в сертификате: «The citation on the certificate, serial-numbered 001, said it was given in recognition of AlphaGo’s «sincere efforts» to master Go’s Taoist foundations and reach a level «close to the territory of divinity» [9] («За искренние усилия» в освоении даосских основ го и достижения уровня [игры], «близкого к области божественного» (переведено и выделено мною. — Е.Н.). Ирония заключается в том, что ранее Ли Седоль применил ход, обозначаемый в терминологии игры как «ход Бога» (или «божественный ход»).

В программных документах и документах совещаний Всемирной комиссии по этике научных знаний и технологий (консультативный орган ЮНЕСКО) «Preliminary study on the Ethics of Artificial Intelligence» кейс Альфа Го описан в основных положениях (часть «What is AI?», пункт 15) как фундаментальный кейс, вызывающий особую обеспокоенность (concern) [10]. Обеспокоенность связана с принципиальным — предельным — непониманием того, как вообще действует подобный алгоритм («performance without awareness»), то есть с тем, что А. Гринбаум называет «границей замутнения».

Возвращаясь к работе Винера, стоит отметить, что «Творец и робот» — это лишь наиболее известный перевод названия труда, в оригинале обозначенного как «God & Golem, Inc.» (с подзаголовком «A Comment on Certain Points Where Cybernetics Impinges on Religion»). Винер обращается к известному образу пражского Голема, что позволяет автору выходить на проблемы, которые можно было бы обозначить как проблемы социополитические. Легенда о пражском Големе позволяет Винеру соотнести алхимию (колдовство) и современную кибернетику: «Еще лет двести назад ученый, пытавшийся создать машины, способные обучаться играм или размножаться, был бы облачен в “санбенито” — балахон для жертв инквизиции — и предан огню <…> Избежать костра ему удалось бы разве лишь в том случае, если бы кто-нибудь из его высоких покровителей поверил, будто он владеет магическим искусством превращать простые металлы в золото, как некогда император Рудольф поверил пражскому раввину Лёви, что своими заклинаниями он способен вдохнуть жизнь в глиняного человека — Голема» [6, с. 59]. Логика автора, оправдывающая такое странное, на первый взгляд, соотнесение заключается в следующем: сколь пугающими и непредсказуемыми бы ни казались последствия созидающей деятельности (результаты алхимических опытов или продукты технологического проектирования), создатель, доказавший их выгодность (argumentum ad crumenam), получает карт-бланш. Винер, говоря об этике машин, определяет «греховность» (a sin — в оригинале [7, с. 52] не как возможное свойство или состояние самой машины (как, например, А. Гринбаум), а как ныне неотчуждаемое участие машины в процессе получения все большей и большей прибыли. На то же обращает внимание французский философ Гаспар Кёниг (новая книга которого, «Конец индивидуума. Путешествие философа в страну искусственного интеллекта» [11], вышла в издательстве «Индивидуум Принт» совсем недавно — в 2023 году). В этой работе Кёниг отмечает, что «ярлык “ИИ” стал волшебным словом, паролем, позволяющим продать любую идею инвесторам, которые не поспевают за скоростью этих преобразований» [11, с. 21]. «Мне недавно рекомендовали упомянуть ИИ в научном труде по философии, чтобы повысить свои шансы на успех», — добавляет Кёниг.

К тому же образу — образу голема — обращается и шведский философ Ник Бостром, правда, в перспективе связки ИИ и проблем трансгуманизма. В главе «Technological genies: AI, the singularity, nanotech, and uploading» труда «A History of Transhumanist Thought» Бостром рассматривает две традиции понимания голема, прослеживая историю становления этого сюжета; по Бострому, в раннем иудейском мистицизме голем — детище святого, обладающего частью божественной мудрости и силы. В этой версии легенды голем оказывается только слабой тенью и копией божьих творений: «Having a golem servant was the ultimate symbol of wisdom and holiness» («Иметь голема в услужении было высшим символом мудрости и святости». — перевод мой. — Е.Н). Поздняя версия легенды оформилась под влиянием ислама, более остро реагирующего на «демиургические» посягательства человека («Islamic concern about humanity’s getting too close to God» [12, с. 7]). Так, в «эволюционировавшей» версии сюжета голем стал чудовищной и пугающей «ошибкой», и допустившего ее ждет неизбежное наказание за его богохульство (inevitably punished for blasphemy) [12, с. 8]). Обращение к этой легенде, следовательно, способно снять тот алармизм, который традиционно сопутствует разговору об ИИ в современном научном дискурсе и за его пределами: греховность не как данность, а как результат overreacting («overreaching mystics» [12, с. 8]) — слишком острой реакции на возможные будущие проблемы. В отличие от многих других философов и исследователей, Кёниг также пытается выйти к решению вопроса об этике самой машины, споря с Бостромом и его теорией ортогональности — в частности, с известным ментальным экспериментом про машину с ИИ, производящую скрепки и уничтожающую людей, так как они — люди — слишком мало приспособлены к этой задаче.

Дихотомия Бог//Его творение, сотворенное Богом (Человек) как отношение любого творца и творения представлена и в отечественных исследованиях. Н.И. Дерябин пишет: «Возьмем для примера автомобиль известной марки BMW. Кто лучше всех и все знает про эту модель? Естественно, завод-производитель, потому что у него все чертежи, технологический процесс, результаты испытаний и эксплуатации. И именно он является ее Творцом» [13, с. 232].

Так, отношения Бог-человек, например, могут стать универсальными, «модельными», формами говорения о любом творце вообще и о сотворенном им соответственно.

Такая стратегия говорения, судя по всему, может оказаться продуктивной для решения прикладных правовых вопросов о делегировании ответственности (по крайней мере, намечая пути к решению проблемы через определение статуса каждой инстанции: Творец — Сотворенное/Создатель — Пользователь и т. д.).

Понимание божественного через технологическое

Стратегия понимания и определения Бога через феномен ИИ (вернее, в «компьютерных» концептуальных метафорах) кажется, на первый взгляд, абсолютно контринтуитивной. Несмотря на все несходства, такой интеллектуальный ход, как представляется, уже не нов; как известно, продуктивной для исследований в области когнитивистики стала концептуальная метафора, часто обозначаемая как «компьютерная метафора». Иногда она описывается как — далее дословная цитата — «гипотеза, в которой предполагается, что функционирование человеческого мозга происходит по схожим с компьютером алгоритмам» [14, с. 104]. Не споря с этим утверждением в целом, отметим, что речь идет в первую очередь именно о концептуальной метафоре: не столько о предположении, что мозг так уж сильно напоминает компьютер в своем функционировании, сколько о возможности концептуализации мозга определенным образом.

Так, метафора «мозг как компьютер» (например, у Ричарда Рорти «Мозг как компьютер, культура как программа» [15] и в целом ряде других трудов) становится концептуальной метафорой, делающей возможным понимание неизвестного (и говорение о нем) через анализ известного. В последнее десятилетие говорение о мозге, сознании и продуктах сознания в кибернетических и/или компьютерных метафорах «взлома сознания», «нейрохакинга» и проч. становится крайне распространенным. По-видимому, такая риторика удобна тем, что снимает проблематику мозг-сознание и позволяет вообще отказываться от размышлений о том, «содержится» ли сознание в материальном субстрате мозга. Эта ситуация (неизвестное, но первичное через известное, но вторичное (вторичность — хотя бы хронологическая)) нам представляется сходной — с той лишь разницей, что в случае «божественное через технологическое» парадоксально происходит говорение о неизвестном через неизвестное. Объяснить это можно подлинной или кажущейся управляемостью технологий — их априорной возможностью быть прозрачными (в смысле transparency) для человека.

Так или иначе, оформляется тенденция говорения о божественном в «компьютерных» метафорах. Сочетание двух оптик обеспечивает «неконвенциональное» прочтение самих библейских сюжетов. А.В. Подопригора пишет: «Иисус искупает грех как “программную ошибку” творения, вместе с тем — ошибку неизбежную и “предустановленную”» [16, с. 18]. Имеется в виду, что человек — «несовершенный продукт эксперимента Бога» [16, с. 18], неудачная программа, написанная Программистом с рядом неисправимых ошибок. Создание ИИ при этом является, по словам А.В. Подопригоры, «цифровым зеркалом» — лакмусовой бумажкой, которая становится индикатором не открывающихся непосредственно явлений: «Именно так создает сейчас человек ИИ — отражение и модель собственного сознания, которое в этом технологическом удвоении одновременно познается как цифровое “зеркало” метапрограммы бытия, а метафизически представляется распознанием человеком в самом себе небесного Антропоса» [16, с. 18]. Таким образом, в этом случае не наложение библейского на технологическое позволяет сделать выводы о последнем, а наложение логики технологического на библейское позволяет переозначить библейские сюжеты, а с их помощью — переосмыслить структуру мира в целом. Так, для Бострома, например, сам мир — вариант компьютерной симуляции.

В работах Н.И. Дерябина «сильный ИИ — своего рода инспекция Бога по проверке исполнения людьми его заповедей и персональных миссий» [13, с. 224]. Одну из глав монографии «Развитие науки, общества, образования в современных условиях» Н.И. Дерябин открывает наблюдением, согласно которому «гипотезы теологии хорошо коррелируются с кибернетическими подходами» [13, с. 224]. Однако, разумеется, если и соглашаться с этим выводом, то стоит учесть, что сходством могут обладать, по-видимому, только языки описания. Тем не менее подобное сопряжение языков (или логик) позволяет автору сделать вывод о том, что «Десять теологических заповедей (Декалог, Закон Божий) — это своего рода декларация о ценностях (руководящих принципах), установленных в глобальном кибернетическом интеллектуальном социуме. Они <…> являются вечными и обязательными для всех Творцов на всех уровнях иерархии» [13, с. 226]. Так, в этой работе «сильный ИИ, создаваемый человечеством, становится стратегической обратной связью в глобальном кибернетическом социуме, реализующей проверку Богом соблюдения людьми его заповедей» [13, c. 234].

Когнитивную конструкцию «человек как результат программирования [Бога]» и ее «эволюцию» подробно рассматривает А.В. Подопригора: «<…> обозначается не только возможность сотворения человеком нового (цифрового, виртуального) мира при помощи квантовых компьютеров и программ, но и вероятность того, что социальная реальность и сам человек как разумная система являются продуктом программирования гораздо более высокого уровня, открывающегося в человеческой культуре трансцендентальным» [16, с. 12]. Аналогично в работах А.Л. Гусева «выдвигается гипотеза о том, что Человек является искусственным интеллектом по отношению к Богу» [17, с. 6], и даются «переозначенные» трактовки «таких понятий как человек, душа, информация, пространство и так далее» [17, с. 6]. Если человек создан по образу и подобию Бога (можно сказать, являясь его менее совершенным «дубликатом»), а алгоритмы созданы Человеком по своему образу и подобию (нейросеть может давать неправильные ответы на вопросы в той мере, в которой она дублирует логику человеческого ответа), то, с точки зрения автора работы, логично вытекает вывод о том, что и сам человек является неким вариантом ИИ по отношению к Богу. Отметим, что, как было сказано, нас интересует не правомерность подобных выводов, а сами эти выводы и им предшествующая логика, понятые как предмет анализа. Так, подобный интеллектуальный ход связан с логикой переозначивания и переопределения человека. Примечательно здесь следующее: в прошлых случаях отношения, с одной стороны, Бога и Человека и, с другой стороны, Человека и ИИ рассматривались как типы отношений, существующих в кардинально разных плоскостях. В этой теоретической модели равно онтологическим статусом обладают бытийствующие Бог, Человек и ИИ. При таком исходном допущении субъекты (или технологические объекты) попадают в схему бесконечной рекурсии: «Человек, как искусственный интеллект, умеет создавать другой искусственный интеллект. И как уже отмечалось, нейрокомпьютер (то есть искусственный интеллект) обучает другой компьютер (то есть порождает новый искусственный интеллект). И такая цепочка “искусственный интеллект — искусственный интеллект — искусственный интеллект — …” может быть бесконечной по отношению ко всему Мирозданию» [17, с. 7].

Американский философ — представитель современной философии сознания — Дэниел Деннет сходным образом («рекурсивно») понимает человеческое тело, определяя человека в качестве робота, который тоже, в свою очередь, состоит из роботов, состоящих из роботов: «Мы являемся роботами, и мы созданы роботами — каждый из нас состоит из нескольких триллионов роботоподобных клеток» [18].

В ряде работ использование библейских образов и метафор (чаще — но не всегда — это труды богословов) позволяет формализовать и определенным образом фреймировать опасения, связанные с функционированием технологических объектов. Так, в работе «Богословский анализ искусственного интеллекта» И.А. Горюнов фреймирует ИИ как еще одну Вавилонскую башню: использование ИИ также «приводит людей к отрыву друг от друга» [19], что, в свою очередь, чревато отпадением от Бога. Так понятые технологические объекты вообще могут быть помыслены в моделях искушения или испытания Богом человека.

Примечательно, что, напротив, в ряде работ обращение к библейским сюжетам (иногда — к тем же самым) конструирует не алармистские смыслы «ИИ-угроза», а топос «неготовности» человечества. В работе «Искусственный интеллект: философско-богословский дискурс» И.Ю. Привалова «неортодоксально» интерпретирует сюжет Книги Бытия о грехопадении как сюжет о «юном» [14, c. 102] человеке, который еще не готов к «встрече» с запретным плодом; говоря об использовании ИИ, автор заключает: «Человеку надо было повременить с вкушением данных плодов до момента своей зрелости…» [14, c. 102].

Итак, эвристический потенциал библейского метанарратива в исследовании проблем ИИ связан так или иначе с производством различий (творение/творец, созданное/создатель) и др.

Почему такой контринтуитивный тип риторики оформляется? Почему вообще оформляется тяготение к Θεός как структуре описания и метанарративу? Здесь мы также предлагаем две — впрочем, не исключающие друг друга — стратегии комментирования.

Шифт «продукт — объект — существо — особа — субъект»

Использование «библейских категорий» связано с производством еще одного типа различий. Иеромонах Мефодий (Зинковский), обращаясь к понятию интеллекта в Священном Писании, рассматривает два термина: «νοῦς» (греч. «ум») и «διάνοια» (греч. «критическое мышление» или «способность к размышлению») [20, с. 14]. Введение этих категорий позволяет иеромонаху Мефодию противопоставить человека как «человеческий ум» и ИИ как нечто, такового «ума» не имеющее. Нус и дианойя — категории античной философии, но библейским метанарративом активно «впитавшиеся»: активное обращение к понятиям «душа» (ψυλή), «ум» (νους), «сердце» (καρδία) и «мысль, мышление» (διάνοια) в авраамических религиях позволяет нам включить эти категории в логику наших размышлений. Актуальный вопрос о демаркации мыслящего/не мыслящего, живого/неживого, имеющего ψυλή и ее не имеющего, таким образом, вполне может быть решен авторами, избирающими такой способ концептуализации, путем наложения этих категорий.

Обращение к Θεός как структуре описания, как представляется, — это еще одна (или, может, первичная) попытка поставить точку в постоянном переопределении и переозначивании технологических объектов самих по себе.

В целом шифт, обнаруживающийся в структуре говорения об алгоритмизированных технологиях, — это шифт «цифровые продукты — цифровые объекты — цифровые субъекты — цифровые особы» и т. д. Очевидно, что каждое из этих понятий является результатом особого типа конструирования предмета исследования. Риторика последних тридцати лет идет по пути все большего и большего закрепления за технологическим статуса субъекта (большее придание субъектности). Если обозначения «цифровые продукты» и «цифровые объекты» актуализировали антропоцентрическое, субъект-объектное, измерение культуры, закрепляя привилегированный статус ἄνθρωπος в бытии и познании, то новые понятия — воспользуемся формулировкой [21] французского философа Жана-Мари Шеффера — знаменуют «конец человеческой исключительности».

В ряде работ [22] активно используется «промежуточное» понятие интеллектуального существа (к таковым относят и ИИ), что актуализирует его неопределенный статус.

В работах ряда исследователей (Ю.В. Назаров, В.В. Попова [23], А. Гринбаум [4], Г.В. Потемкин [24] и др.) появляется формулировка «цифровая особа», выводящая из дуалистических предположений и человека, и ИИ. Сами кейсы десятых годов XXI века (получение гражданства Саудовской Аравии роботом Софией, произведенной гонконгской компанией «Hanson»; получение гражданства Бельгии и свидетельства о рождении усыновленного впоследствии Фрэна Пеппера, гуманоида, разработанного французской компанией «Aldebaran Robotics» и др.) говорят об отказе — как минимум декларативном — от дуалистического понимания таких объектов, как вещи. Применительно к последнему (Фрэну Пепперу и ему подобным) в СМИ появляются даже формулировки «цифровые люди» [25].

Ряд ведущих исследователей в области биоэтики, например специализирующийся на этике новых технологий, в частности ИИ, Уэнделл Уоллак (Йельский университет), вводят понятие искусственного (то есть созданного) морального агента «AMA»: «A computer system, robot, or android capable of making moral judgments would be an artificial moral agent (AMA)» [26]. Стоит добавить, что Уэнделл Уоллак является одним из целого ряда исследователей, пытающихся «научить» ИИ отделять добро от зла, — например, см. работу «Moral machines: teaching robots right from wrong» [27].

Сейчас при описании проблем этики ИИ именно AMA как artificial moral agent становится наиболее общим и как бы зонтичным термином, позволяющим на уровне языка отказаться от затруднительных решений о признании субъектности машины и прочих. Несложно увидеть, что представление ИИ в терминологической сетке агента и агентности, во-первых, снимает вопрос об онтологическом статусе ИИ и, во-вторых, вполне вписывается в логику представления любых действующих как агентов и — шире — в логику т.н. «темных» (нечеловеческих) и/или антикорреляционистских теорий (АСТ Брюно Латура, ООО Грэма Хармана или спекулятивный реализм Квентина Мейясу).

Теология без Бога

Другую стратегию объяснения актуализации Θεός-оптики предлагает Гаспар Кёниг в главе «Теология без Бога» уже цитируемой работы «Конец индивидуума». В этой главе Кёниг рассказывает о посещении музея Ван Гога в Амстердаме; удивительным для него оказалось то, насколько велико стремление человека фотографировать картины и игнорировать при этом уже не обязательную задачу их созерцания. Логика комментирования Кёнига представляется интересной — приведем ее практически без купюр: «Кто вообще будет смотреть эти фото? Но главное здесь — это накапливать, архивировать. Оставить след. Я увидел эту картину, и эта истина должна быть зафиксирована в вечности облака. <…> Не был ли изобретен всеведущий Бог для того, чтобы служить свидетелем наших действий, зрителем наших скромных судеб? Конечно, Он нас судит. Но самое главное, Он нас видит. А потому наша жизнь не бессмысленна, ведь малейшее из наших прегрешений, каким бы легкомысленным оно ни было, записано в Книге мира. Где-то на Небе есть совершенная копия нашей жизни, хранимая как драгоценность в ожидании Страшного суда. Библия повторяет одно и то же на разные лады: “И нет твари, сокровенной от Него, но все обнажено и открыто перед очами Его: Ему дадим отчет” (Послание к Евреям 4:13); “Ибо пред очами Господа пути человека, и Он измеряет все стези его” (Притчи 5:21); “Может ли человек скрыться в тайное место, где Я не видел бы его? — говорит Господь. Не наполняю ли Я небо и землю? — говорит Господь” (Иеремия 23:24) и т. д. Святой Августин хорошо понимал: ему нужно найти Бога в себе, Бога, который наблюдает не только за его действиями, но и за его чувствами, за самыми сокровенными помыслами. Не этим ли объясняется, почему религия так хорошо успокаивает нас? Не столько вечностью души, сколько записью самого нашего существования…» [11, с. 189–190].

В ситуации, когда, по словам Кёнига, «Бог если и не исчез, то по крайней мере перестал быть повседневным собеседником», человек вынужден искать функциональные и функционирующие заменители. Действия человека Гаспар Кёниг объясняет страхом небытия и страхом конечности. Какое место в этой в общем-то традиционной логике занимают технологии? По Кенигу, функции Бога в какой-то мере делегированы человеком машине: «Производить данные, как можно больше данных, — значит пытаться оставить след, отказываясь от абсурда существования, предоставленного самому себе. Поскольку Бог больше не смотрит на меня, я заменю его самим собой, создавая виртуальную копию собственной жизни, загружая ее в облако и распространяя по социальным сетям. Я больше никогда не взгляну на фотографию “Автопортрета художника”, но тот факт, что я видел эту картину, останется навсегда (или по крайней мере пока хватит энергии для поддержания работы серверов). Машина воспроизводит божественное всезнание» [18, с. 190]. Логика взаимодействия с машиной в этом случае абсолютно изоморфна логике общения с Богом.

Хотя облачное хранилище было названо cloud по другим причинам, Кёниг сближает две логики: «Мы считали, что Бог умер, но сами же воскресили его в цифровой форме, подарили ему новое небо — cloud, облако. Человечество неисправимо в своей тяге к трансцендентному» [11, с. 64]. Так, по Кёнигу, тяготение к библейскому нарративу — результат универсального (и в каком-то смысле постоянного) стремления человека к трансцендентному. Аналогична и позиция Винера. Реконструируя позицию Винера, можно заключить, что говорение о машинах с использованием библейских метафор симптоматично: «Пусть силы машинного века на самом деле нельзя считать сверхъестественными, но все же они не укладываются в представления простого смертного о естественном порядке вещей» [6].

Используя формулировку А.В. Подопригоры, можно сказать, что библейская система координат, понятая как оптика, обеспечивает «синергию мистического переживания, мифологического моделирования и рационального познания» [16, с. 14], выстраивая, как было сказано, главным образом систему производства различий.

В заключение стоит сказать о перспективах дальнейшего изучения библейского как оптики и концептуальной схемы. Интересно увидеть, сходны ли Θεός-оптики (и вообще — оптики) при рассмотрении проблем ИИ и более ранних проблем человека и техники; иными словами, насколько способы дискурсивного оформления разнообразных проблем техники и технологий разнятся в эпохи, традиционно определяемые как индустриальная и постиндустриальная. Это, однако, тема отдельного исследования.

1 Для ряда философов и ученых (из упомянутых — это Гринбаум и Мюллер) центральной проблемой остается не вопрос «перекодирования» человеческой этики на язык машин (проблема языка), а вопрос о точках пересечения абсолютных ценностей машины (например, максимизация количества информации и возможностей ее обработки) и предельных человеческих ценностей. Что касается проблемы языка, в стороне оставляем топос невозможности практического применения знаменитых законов Азимова именно в силу их невозможности перевода на язык машин, хотя такие попытки и предпринимались.

×

About the authors

Ekaterina A. Nechaeva

Samara State University

Author for correspondence.
Email: ne4aevakaterina@yandex.ru
SPIN-code: 1136-9508

Candidate of Philological Sciences, Associate Professor of the Department of Russian and Foreign Literature and Public Relations

Russian Federation, Samara

References

  1. Bainbridge WS. God from the Machine: Artificial Intelligence Models of Religious Cognition. AltaMira Press; 2006. 188 p.
  2. Sanz R. Ethica ex machina. Exploring artificial moral agency or the possibility of computable ethics. ZEMO. 2020:223–239. doi: 10.1007/s42048-020-00064-6
  3. Deratani N. Deus ex machina. Literaturnaya enciklopediya. In 11 vol. Moscow, 1929–1939. Moscow: Kom. Akad; 1930. Vol. 3. Stb. 223-224. (In Russ.)
  4. Grinbaum A. The whistle-blowing machine. How to rid artificial intelligence of evil. Saint Peterburg: Translit; 2017. 75 p. (In Russ.)
  5. Müller Vincent C. Ethics of artificial intelligence and robotics. Stanford Encyclopedia of Philosophy. Ed. by E.N. Zalta. Palo Alto: CSLI, Stanford University, 2016. [cited 2023 Nov 13]. Availaible from: https://plato.stanford.edu/entries/ethics-ai/
  6. Wiener N. God and Golem: a comment of certain points where cybernetics impinges on religion. Moscow: Progress; 1966. 104 p. (In Russ.)
  7. Wiener N. God & Golem, Inc. A Comment in Certain Points where Cybernetics Impinged on Religion. The MIT Press, 1966. 99 p.
  8. Klovait N, Erofeeva M. Rabota v epohu razumnih mashin_ zarojdenie nevidimoi avtomatizacii. Logos. 2019;9(1):53–84.
  9. Google’s AlphaGo gets ‘divine’ Go ranking. Computer Sciences. PHYS.ORG. 15.03.2016 [cited 2023 Nov 13]. Availaible from: https://phys.org/news/2016-03-google-alphago-divine.html
  10. Preliminary study on the Ethics of Artificial Intelligence [cited 2023 Nov 13]. Availaible from: https://unesdoc.unesco.org/ark:/48223/pf0000367823
  11. Kœnig G. La Fin de l’individu. Voyage d’un philosophe au pays de l’intelligence artificielle. Moscow: Individuum, 2023. 352 p. (In Russ.)
  12. Bostrom N. A History of Transhumanist Thought. Journal of Evolution and Technology. 2005;14(1):1–10.
  13. Deryabin NI. Strong artificial intelligence of god. Penza: Nauka i Prosveschenie; 2022. P. 224–237. EDN: CRSDXC
  14. Privalova IYu. Artificial intelligence: a philosophical and theological discourse. Ekonomicheskie i socialno-gumanitarnie issledovaniya. 2020;4(28):101-106. doi: 10.24151/2409-1073-2020-4-101-106 EDN: OVAEKG
  15. Rorti R. Brain as a Computer, Culture as a Program. Language and Consciousness: Analytical and Socio-Epistemological Contexts. Ed. by I.T. Kasavina. Moscow. 2013. P. 374–393. (In Russ.)
  16. Podoprigora AV. Temptation of demiurge. Gnostic models and paradigm of artificial intelligence. Antinomies. 2019;19(4):7–30. EDN: YFWKBV doi: 10.24411/2686_7206_2019_00006
  17. Gusev AL. Is Man an Artificial Intelligence in Relation to God? Symbol of Science. 2019;(9):6–9. (In Russ.)
  18. Dennett DC. The Fantasy of First-Person Science. Ed. by S. Wuppuluri, F. Doria. In: The Map and the Territory. The Frontiers Collection. Springer, Cham. 2018. P. 455–473. doi: 10.1007/978-3-319-72478-2_26
  19. Goryunov IA. Theological analysis of artificial intelligence. Proceedings of the Yakutsk Theological Seminary. 2021;(13-14):9–17. EDN: BZNAIH doi: 10.24412/2686_9497_2021_13_14_9_17 (In Russ.)
  20. Methodius (Zinkovsky), hierom. Orthodox Theology of Personality and the Problem of Artificial Intelligence. Christian Reading.2020;(6):10–24. (In Russ.)
  21. Sheffer J.-M. The End of Human Exceptionality. Transl. from Fr. S.N. Zenkin. Moscow: New Literary Review; 2010. 392 p. (In Russ.)
  22. Alekseeva IYu, Popova VV. The cult of technologies and subjectivity of human. VVII Descartes Readings. Global threats to the development of civilization in the XXI century: Materials of the international scientific-practical conference, Moscow – Zelenograd, March 11, 2021. Vol. 1. P. 109–116. EDN: NPGIAT (In Russ.)
  23. Nazarov YuV. Fashion design innovation. Decorative Art and environment. Gerald of the RGHPU. 2022;(2–2):21–29. EDN: EBOEZK doi: 10.37485/1997_4663_2022_2_2_21_29
  24. Potemkin GV. Smart citi: ethical and technological aspects (analysis of interdisciplinary discourse) [Master's dissertation] 42.04.01 – Advertising and Public Relations. Tomsk; 2018. [cited 2023 Nov 13]. Availaible from https://vital.lib.tsu.ru/vital/access/manager/Repository/vital:7650 (In Russ.)
  25. Korotinskii D. The world's first robot has been granted citizenship and a birth certificate 2017. [cited 2024 Mar. 13] https://www.planetanovosti.com/ru/news/pervyj_v_mire_robot_poluchil_grazhdanstvo_i_svidetelstvo_o_rozhdenii/2017-02-04-15392 (In Russ.)
  26. Wallach W, Allen, C. EthicALife: A new field of inquiry. In: AnAlifeX workshop. USA; 2006 [cited 2023 Nov 13]. Availaible from: https://clck.ru/36aQcj
  27. Wendell W, Allen C. Moral Machines: Teaching Robots Right from Wrong. Ethics and Information Technology. 2010;(12):359–361. [cited 2023 Nov 13]. Availaible from: https://www.researchgate.net/publication/257560753. doi: 10.1007/s10676-010-9239-1

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2024 Nechaeva E.A.

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License.

This website uses cookies

You consent to our cookies if you continue to use our website.

About Cookies