Бог из машины 2.0: библейский нарратив как метаязык гововорения об этике машин

Обложка


Цитировать

Полный текст

Аннотация

Статья посвящена теоретическим моделям, в которых библейский нарратив становится средством концептуализации действий технологических объектов. На материале работ русских и зарубежных философов показано, какова специфика дискурсивного оформления проблем этики машины, понятой как субъект. В центре внимания оказываются не постановка проблемы этики искусственного интеллекта per se или возможности ее решения, а сам способ дискурсивного оформления, или способ говорения о ней, путем привлечения библейских сюжетов, мотивов и образов как механизмов освоения этой проблемы. Предметом исследования является эвристический потенциал библейского метанарратива в структуре высказываний об искусственном интеллекте. Показано, что эвристический потенциал библейского метанарратива в исследовании проблем искусственного интеллекта связан с производством различий. Выявлено, какие новые системы базовых различений позволяет сконструировать такой способ дискурсивного оформления. Показано, какие изменения обнаруживаются в структуре говорения об алгоритмизированных технологиях. Выявлены возможные причины актуализации библейского дискурса в освоении проблем искусственного интеллекта.

Полный текст

Введение

Название этой статьи — аллюзия на известную работу Уильяма Бейнбриджа «Бог из машины: модели религиозного познания с использованием искусственного интеллекта» («God from the Machine: Artificial Intelligence Models of Religious Cognition») [1] и менее известную работу Родриго Санза «Ethica ex machina. Exploring artificial moral agency or the possibility of computable ethics» [2]. Оба автора, несмотря на несходство концептуальных аппаратов, целей работы и подходов, указывают на одну тенденцию — рассмотрение технологических объектов в, казалось бы, чуждых им контекстах: религиозного опыта, этики и/или религиозной этики.

Заглавие статьи обыгрывает название известного драматургического приема античного театра и отсылает к ситуации, в рамках которой немотивированно появившееся божество определяет судьбу действующих лиц или изменяет всю обстановку действия [3]. Ключевым фактором при этом оказывается именно немотивированность подобного появления, которое может показаться за границей структуры повествуемого мира полной неожиданностью. Однако в структуре повествуемого мира появление бога может быть вполне ожидаемым и потому не воспринимается как непредсказуемое — напротив, герои могут осознавать появление подобного актора как необходимое гармонизирующее начало.

Столь же неожиданным, сколь появление любого немотивированно возникающего агента, является актуализирование библейского нарратива для осмысления и оценки действий технологических объектов. Так, использование подобной метафоры, если она позволительна в научном или философском дискурсе, призвано описать ситуацию распространения или актуализации такого способа дискурсивного оформления явлений или ситуаций, который, с одной стороны, мыслится как не вполне органичный (в пределе — чуждый) описываемому явлению, но, с другой стороны, воспринимается как вполне симптоматичный.

Наиболее примечательным и значимым, с нашей точки зрения, событием последних лет — по крайней мере, по масштабу и плодотворности дискуссий и обсуждений работы — становится публикация книги российского и французского философа А. Гринбаума «Машина-доносчица» [4]. Подзаголовок труда А. Гринбаума («Как избавить искусственный интеллект от зла»), очевидно, вводит разговор об искусственном интеллекте в плоскость постановки и решения этических проблем (дихотомия добро-зло). Однако формулировка автора такова, что постулируется наличие зла уже в самой машине [ср.: a) как не допустить зло в ситуации наличия ИИ; и b) как избавить ИИ от зла]. А. Гринбаум, пользуясь методом, определяемым им как метод гомологии [4, с. 11] и позволяющим «осмысленно вести речь об определенной общности между научным и мифологическим контекстами, несмотря на их онтологическую несхожесть» [4, с. 12], ставит проблему этики искусственного интеллекта (далее — ИИ) и предлагает пути ее решения, используя, как ни странно, библейский «терминологический аппарат» — библейские: а) сюжеты; b) мотивы и c) образы (такие как: a) битва за Гай из книги Иисуса Навина; b) бросание жребия; с) функции ангелов и Сатаны и проч.) — как универсальный язык и способ описания.

Примечательны два аспекта. Во-первых, оформляющаяся попытка говорить об этике машины per se. Так, немецкий философ Винсент Мюллер (Vincent C. Müller) — один из ведущих специалистов в области ИИ, профессор этики и философии ИИ и президент European Association for Cognitive Systems — в не переведенной на русский язык работе «Ethics of Artificial Intelligence and Robotics» (включена в Stanford Encyclopedia of Philosophy) говорит о необходимости рассуждать об этике машины, понятой как субъект [5]. В концептуальном аппарате Мюллера «машинная этика» — это этика для машин, этика машин как субъектов, а не «человеческая» этика человеческого же их использования как объектов («Machine ethics is ethics for machines, for «ethical machines», for machines as subjects, rather than for the human use of machines as objects» [5]). Такая пересборка ролей, как и сама возможность этики машины, рождает, безусловно, множество сопутствующих вопросов1.

Второй аспект, очевидно, — привлечение библейских сюжетов, мотивов и образов как концептуального аппарата, пригодного для говорения об этике машин (понятой в смысле Гринбаума и Мюллера или традиционно — как этике использования машин). Априори кажется, что сложно представить более сопротивляющийся язык для описания проблем, связанных с ИИ, однако все продолжающаяся актуализация такого способа их дискурсивного оформления говорит об обратном.

Крайние (или по крайней мере наиболее явные и репрезентативные) проявления наложений двух логик: «божественное» и «технологическое» (представленное ИИ) — являют собой весьма любопытные социокультурные феномены (к таковым можно отнести Церковь ИИ «Way of the Future» Энтони Левандовски, пусть и ныне закрытую, или виртуальную православную церковь с ИИ в Румынии на BisericaGPT и др.). Нас, однако, интересуют не они.

Для дальнейшего рассуждения необходимо сделать несколько предварительных замечаний:

1) О цели. В рамках данной работы нас интересует не постановка проблемы этики ИИ per se или возможности ее решения, а сам способ дискурсивного оформления, или способ говорения о ней, путем привлечения библейских сюжетов как механизмов «освоения» этой проблемы. Возникает ряд взаимосвязанных вопросов: почему такой способ говорения об этике машин оказывается продуктивным (или — кажется продуктивным)? Какие смыслы позволяет вскрыть (или конструировать) библейский нарратив, применяемый для описания этики машин и понятый как объект исследования? Так, нас интересует эвристический потенциал подобных высказываний (точнее — языка описания), а не их технооптимистическое или технопессимистическое содержание.

2) Об объекте. Важно подчеркнуть, что во многих случаях речь идет не об этических принципах в сфере влияния машины на человека, а об этике самой машины. В этом случае нас также интересует не возможность или невозможность этики машины-субъекта как таковая, а сами принципы порождения высказываний в рамках риторики, связанной с этикой машины. В центре внимания при этом, как было сказано, оказывается сам тип построения языка как языка описания.

Материалом исследования являются работы зарубежных философов и/или ученых (Ник Бостром, Гаспар Кёниг, Норберт Винер, Ричард Рорти, Винсент Мюллер, Уэнделл Уоллак, Дэниел Деннет и др.), а также работы отечественных исследователей.

Эвристический потенциал наложения

Есть ли какой-то эвристический потенциал в стратегиях наложения «библейского» на «технологическое» (если мыслить их как гомогенные) или описания технологического посредством библейского нарратива (если видеть первое как объект, а второе — как оптику и механизм описания)? Какие возможности есть у «библейского терминологического аппарата», понятого как оптика?

В целом, мы предлагаем две стратегии комментирования:

1) выявить, о чем вообще позволяет говорить наложение «библейского категориальной схемы» на феномены, связанные с ИИ;

2) уʹже: выявить, какие системы базовых различений позволяет конструировать такой способ дискурсивного оформления. В данной работе обе стратегии реализуются одновременно.

Здесь, по-видимому, обнаруживается два крайних полюса:

1) понимание технологического через божественное;

2) понимание божественного через технологическое.

Первая стратегия (понимание технологического через божественное) представляется, конечно, менее контринтуитивной, чем вторая.

В известной и уже ставшей классической работе «Творец и робот» [6] (ориг. God & Golem, Inc. A Comment in Certain Points where Cybernetics Impinged on Religion) [7] основоположника кибернетики и теории ИИ Норберта Винера дихотомия Бога и Дьявола — это противопоставленность [любого] творца его творению (или всей совокупности его творений). У Н. Винера оппозиция Бог/Дьявол не соответствует оппозициям добро/зло, истина/ложь и подобным ассиметрично интерпретируемым оппозициям, что часто обнаруживается в трудах авторов, имеющих отношение к богословию и пишущих об ИИ. Винер отдельно оговаривает, что «выбирает свой отправной пункт вне сферы религии» [6, с. 2].

Заход Винера, в целом, довольно очевиден: «Проблема обучения, в частности в ее приложении к машинам, способным обучаться играм, может показаться несколько далекой от религии. Тем не менее существует теологическая проблема, к которой вышеприведенные рассуждения имеют отношение. Это проблема игры между Творцом и его творением. Это тема книги Иова и “Потерянного рая”. В обоих этих сочинениях Дьявол ведет игру с Богом, причем ставкой является душа Иова или вообще души людей. Но, согласно ортодоксальным иудейским и христианским воззрениям, Дьявол — одно из творений Бога. Любое другое предположение привело бы к моральному дуализму с привкусом зороастризма и <…> манихейства» [6, с. 27]. В отличие от традиционной пропорции «Бог-Дьявол», соотносимой с «Человек-ИИ», позволяющей преимущественно обозначать или наметить тенденции технопессимизма (Дьявол = ИИ — ложь, зло, обман) или технооптимизма, дихотомия Н. Винера позволяет обозначить ситуацию, при которой созданное творцом может оказаться равноценным ему по силе (или даже превосходящим). Именно поэтому далее Н. Винер обращается к анализу шахматных партий, сыгранных человеком против машины и человеком против человека: «Бог действительно вовлечен в конфликт со своим творением, причем он легко может проиграть. И, однако, это его творение создано им по его собственной воле и, по-видимому, приобрело всю свою способность действия от самого Бога. Может ли Бог вести серьезную игру со своим собственным творением? Может ли любой творец, даже ограниченный в своих возможностях, вести серьезную игру со своим собственным творением? Изобретатель, конструируя машины, с которыми он может вести игру, присвоил себе в определенных пределах функции творца, какова бы ни была природа создаваемых им игровых устройств. Это в особенности верно в отношении играющих автоматов, которые обучаются на своем опыте» [6, с. 34]. Небезынтересная ремарка такова: Винер обращается к модельной ситуации шахматной игры человека и машины, понятой как игра творца и его творения, еще в 60-е, отмечая, что «машины, играющие в шахматы <…> уже существуют, но они играют сравнительно слабо» [6, с. 34]. Винер не застал широко известный и уже ставший хрестоматийным для описания проблемы игры творения (ИИ) и творца (человека) кейс 2016 года — матч по игре в го, в котором алгоритм AlphaGo победил профессионала высочайшего уровня — одного из сильнейших игроков за всю историю го — Ли Седоля. Подробно этот известный кейс рассмотрен в ряде работ (например, Н. Кловайта и М. Ерофеевой [8], работах В. Вахштайна и др.), но нас, как было сказано, интересует именно риторика; в этом смысле примечательно даже не то, что профессиональная ассоциация игроков в го присвоила алгоритму ранг почетного 9-го профессионального дана (что само по себе любопытный культурологический феномен), а то, какова формулировка отличительной награды в сертификате: «The citation on the certificate, serial-numbered 001, said it was given in recognition of AlphaGo’s «sincere efforts» to master Go’s Taoist foundations and reach a level «close to the territory of divinity» [9] («За искренние усилия» в освоении даосских основ го и достижения уровня [игры], «близкого к области божественного» (переведено и выделено мною. — Е.Н.). Ирония заключается в том, что ранее Ли Седоль применил ход, обозначаемый в терминологии игры как «ход Бога» (или «божественный ход»).

В программных документах и документах совещаний Всемирной комиссии по этике научных знаний и технологий (консультативный орган ЮНЕСКО) «Preliminary study on the Ethics of Artificial Intelligence» кейс Альфа Го описан в основных положениях (часть «What is AI?», пункт 15) как фундаментальный кейс, вызывающий особую обеспокоенность (concern) [10]. Обеспокоенность связана с принципиальным — предельным — непониманием того, как вообще действует подобный алгоритм («performance without awareness»), то есть с тем, что А. Гринбаум называет «границей замутнения».

Возвращаясь к работе Винера, стоит отметить, что «Творец и робот» — это лишь наиболее известный перевод названия труда, в оригинале обозначенного как «God & Golem, Inc.» (с подзаголовком «A Comment on Certain Points Where Cybernetics Impinges on Religion»). Винер обращается к известному образу пражского Голема, что позволяет автору выходить на проблемы, которые можно было бы обозначить как проблемы социополитические. Легенда о пражском Големе позволяет Винеру соотнести алхимию (колдовство) и современную кибернетику: «Еще лет двести назад ученый, пытавшийся создать машины, способные обучаться играм или размножаться, был бы облачен в “санбенито” — балахон для жертв инквизиции — и предан огню <…> Избежать костра ему удалось бы разве лишь в том случае, если бы кто-нибудь из его высоких покровителей поверил, будто он владеет магическим искусством превращать простые металлы в золото, как некогда император Рудольф поверил пражскому раввину Лёви, что своими заклинаниями он способен вдохнуть жизнь в глиняного человека — Голема» [6, с. 59]. Логика автора, оправдывающая такое странное, на первый взгляд, соотнесение заключается в следующем: сколь пугающими и непредсказуемыми бы ни казались последствия созидающей деятельности (результаты алхимических опытов или продукты технологического проектирования), создатель, доказавший их выгодность (argumentum ad crumenam), получает карт-бланш. Винер, говоря об этике машин, определяет «греховность» (a sin — в оригинале [7, с. 52] не как возможное свойство или состояние самой машины (как, например, А. Гринбаум), а как ныне неотчуждаемое участие машины в процессе получения все большей и большей прибыли. На то же обращает внимание французский философ Гаспар Кёниг (новая книга которого, «Конец индивидуума. Путешествие философа в страну искусственного интеллекта» [11], вышла в издательстве «Индивидуум Принт» совсем недавно — в 2023 году). В этой работе Кёниг отмечает, что «ярлык “ИИ” стал волшебным словом, паролем, позволяющим продать любую идею инвесторам, которые не поспевают за скоростью этих преобразований» [11, с. 21]. «Мне недавно рекомендовали упомянуть ИИ в научном труде по философии, чтобы повысить свои шансы на успех», — добавляет Кёниг.

К тому же образу — образу голема — обращается и шведский философ Ник Бостром, правда, в перспективе связки ИИ и проблем трансгуманизма. В главе «Technological genies: AI, the singularity, nanotech, and uploading» труда «A History of Transhumanist Thought» Бостром рассматривает две традиции понимания голема, прослеживая историю становления этого сюжета; по Бострому, в раннем иудейском мистицизме голем — детище святого, обладающего частью божественной мудрости и силы. В этой версии легенды голем оказывается только слабой тенью и копией божьих творений: «Having a golem servant was the ultimate symbol of wisdom and holiness» («Иметь голема в услужении было высшим символом мудрости и святости». — перевод мой. — Е.Н). Поздняя версия легенды оформилась под влиянием ислама, более остро реагирующего на «демиургические» посягательства человека («Islamic concern about humanity’s getting too close to God» [12, с. 7]). Так, в «эволюционировавшей» версии сюжета голем стал чудовищной и пугающей «ошибкой», и допустившего ее ждет неизбежное наказание за его богохульство (inevitably punished for blasphemy) [12, с. 8]). Обращение к этой легенде, следовательно, способно снять тот алармизм, который традиционно сопутствует разговору об ИИ в современном научном дискурсе и за его пределами: греховность не как данность, а как результат overreacting («overreaching mystics» [12, с. 8]) — слишком острой реакции на возможные будущие проблемы. В отличие от многих других философов и исследователей, Кёниг также пытается выйти к решению вопроса об этике самой машины, споря с Бостромом и его теорией ортогональности — в частности, с известным ментальным экспериментом про машину с ИИ, производящую скрепки и уничтожающую людей, так как они — люди — слишком мало приспособлены к этой задаче.

Дихотомия Бог//Его творение, сотворенное Богом (Человек) как отношение любого творца и творения представлена и в отечественных исследованиях. Н.И. Дерябин пишет: «Возьмем для примера автомобиль известной марки BMW. Кто лучше всех и все знает про эту модель? Естественно, завод-производитель, потому что у него все чертежи, технологический процесс, результаты испытаний и эксплуатации. И именно он является ее Творцом» [13, с. 232].

Так, отношения Бог-человек, например, могут стать универсальными, «модельными», формами говорения о любом творце вообще и о сотворенном им соответственно.

Такая стратегия говорения, судя по всему, может оказаться продуктивной для решения прикладных правовых вопросов о делегировании ответственности (по крайней мере, намечая пути к решению проблемы через определение статуса каждой инстанции: Творец — Сотворенное/Создатель — Пользователь и т. д.).

Понимание божественного через технологическое

Стратегия понимания и определения Бога через феномен ИИ (вернее, в «компьютерных» концептуальных метафорах) кажется, на первый взгляд, абсолютно контринтуитивной. Несмотря на все несходства, такой интеллектуальный ход, как представляется, уже не нов; как известно, продуктивной для исследований в области когнитивистики стала концептуальная метафора, часто обозначаемая как «компьютерная метафора». Иногда она описывается как — далее дословная цитата — «гипотеза, в которой предполагается, что функционирование человеческого мозга происходит по схожим с компьютером алгоритмам» [14, с. 104]. Не споря с этим утверждением в целом, отметим, что речь идет в первую очередь именно о концептуальной метафоре: не столько о предположении, что мозг так уж сильно напоминает компьютер в своем функционировании, сколько о возможности концептуализации мозга определенным образом.

Так, метафора «мозг как компьютер» (например, у Ричарда Рорти «Мозг как компьютер, культура как программа» [15] и в целом ряде других трудов) становится концептуальной метафорой, делающей возможным понимание неизвестного (и говорение о нем) через анализ известного. В последнее десятилетие говорение о мозге, сознании и продуктах сознания в кибернетических и/или компьютерных метафорах «взлома сознания», «нейрохакинга» и проч. становится крайне распространенным. По-видимому, такая риторика удобна тем, что снимает проблематику мозг-сознание и позволяет вообще отказываться от размышлений о том, «содержится» ли сознание в материальном субстрате мозга. Эта ситуация (неизвестное, но первичное через известное, но вторичное (вторичность — хотя бы хронологическая)) нам представляется сходной — с той лишь разницей, что в случае «божественное через технологическое» парадоксально происходит говорение о неизвестном через неизвестное. Объяснить это можно подлинной или кажущейся управляемостью технологий — их априорной возможностью быть прозрачными (в смысле transparency) для человека.

Так или иначе, оформляется тенденция говорения о божественном в «компьютерных» метафорах. Сочетание двух оптик обеспечивает «неконвенциональное» прочтение самих библейских сюжетов. А.В. Подопригора пишет: «Иисус искупает грех как “программную ошибку” творения, вместе с тем — ошибку неизбежную и “предустановленную”» [16, с. 18]. Имеется в виду, что человек — «несовершенный продукт эксперимента Бога» [16, с. 18], неудачная программа, написанная Программистом с рядом неисправимых ошибок. Создание ИИ при этом является, по словам А.В. Подопригоры, «цифровым зеркалом» — лакмусовой бумажкой, которая становится индикатором не открывающихся непосредственно явлений: «Именно так создает сейчас человек ИИ — отражение и модель собственного сознания, которое в этом технологическом удвоении одновременно познается как цифровое “зеркало” метапрограммы бытия, а метафизически представляется распознанием человеком в самом себе небесного Антропоса» [16, с. 18]. Таким образом, в этом случае не наложение библейского на технологическое позволяет сделать выводы о последнем, а наложение логики технологического на библейское позволяет переозначить библейские сюжеты, а с их помощью — переосмыслить структуру мира в целом. Так, для Бострома, например, сам мир — вариант компьютерной симуляции.

В работах Н.И. Дерябина «сильный ИИ — своего рода инспекция Бога по проверке исполнения людьми его заповедей и персональных миссий» [13, с. 224]. Одну из глав монографии «Развитие науки, общества, образования в современных условиях» Н.И. Дерябин открывает наблюдением, согласно которому «гипотезы теологии хорошо коррелируются с кибернетическими подходами» [13, с. 224]. Однако, разумеется, если и соглашаться с этим выводом, то стоит учесть, что сходством могут обладать, по-видимому, только языки описания. Тем не менее подобное сопряжение языков (или логик) позволяет автору сделать вывод о том, что «Десять теологических заповедей (Декалог, Закон Божий) — это своего рода декларация о ценностях (руководящих принципах), установленных в глобальном кибернетическом интеллектуальном социуме. Они <…> являются вечными и обязательными для всех Творцов на всех уровнях иерархии» [13, с. 226]. Так, в этой работе «сильный ИИ, создаваемый человечеством, становится стратегической обратной связью в глобальном кибернетическом социуме, реализующей проверку Богом соблюдения людьми его заповедей» [13, c. 234].

Когнитивную конструкцию «человек как результат программирования [Бога]» и ее «эволюцию» подробно рассматривает А.В. Подопригора: «<…> обозначается не только возможность сотворения человеком нового (цифрового, виртуального) мира при помощи квантовых компьютеров и программ, но и вероятность того, что социальная реальность и сам человек как разумная система являются продуктом программирования гораздо более высокого уровня, открывающегося в человеческой культуре трансцендентальным» [16, с. 12]. Аналогично в работах А.Л. Гусева «выдвигается гипотеза о том, что Человек является искусственным интеллектом по отношению к Богу» [17, с. 6], и даются «переозначенные» трактовки «таких понятий как человек, душа, информация, пространство и так далее» [17, с. 6]. Если человек создан по образу и подобию Бога (можно сказать, являясь его менее совершенным «дубликатом»), а алгоритмы созданы Человеком по своему образу и подобию (нейросеть может давать неправильные ответы на вопросы в той мере, в которой она дублирует логику человеческого ответа), то, с точки зрения автора работы, логично вытекает вывод о том, что и сам человек является неким вариантом ИИ по отношению к Богу. Отметим, что, как было сказано, нас интересует не правомерность подобных выводов, а сами эти выводы и им предшествующая логика, понятые как предмет анализа. Так, подобный интеллектуальный ход связан с логикой переозначивания и переопределения человека. Примечательно здесь следующее: в прошлых случаях отношения, с одной стороны, Бога и Человека и, с другой стороны, Человека и ИИ рассматривались как типы отношений, существующих в кардинально разных плоскостях. В этой теоретической модели равно онтологическим статусом обладают бытийствующие Бог, Человек и ИИ. При таком исходном допущении субъекты (или технологические объекты) попадают в схему бесконечной рекурсии: «Человек, как искусственный интеллект, умеет создавать другой искусственный интеллект. И как уже отмечалось, нейрокомпьютер (то есть искусственный интеллект) обучает другой компьютер (то есть порождает новый искусственный интеллект). И такая цепочка “искусственный интеллект — искусственный интеллект — искусственный интеллект — …” может быть бесконечной по отношению ко всему Мирозданию» [17, с. 7].

Американский философ — представитель современной философии сознания — Дэниел Деннет сходным образом («рекурсивно») понимает человеческое тело, определяя человека в качестве робота, который тоже, в свою очередь, состоит из роботов, состоящих из роботов: «Мы являемся роботами, и мы созданы роботами — каждый из нас состоит из нескольких триллионов роботоподобных клеток» [18].

В ряде работ использование библейских образов и метафор (чаще — но не всегда — это труды богословов) позволяет формализовать и определенным образом фреймировать опасения, связанные с функционированием технологических объектов. Так, в работе «Богословский анализ искусственного интеллекта» И.А. Горюнов фреймирует ИИ как еще одну Вавилонскую башню: использование ИИ также «приводит людей к отрыву друг от друга» [19], что, в свою очередь, чревато отпадением от Бога. Так понятые технологические объекты вообще могут быть помыслены в моделях искушения или испытания Богом человека.

Примечательно, что, напротив, в ряде работ обращение к библейским сюжетам (иногда — к тем же самым) конструирует не алармистские смыслы «ИИ-угроза», а топос «неготовности» человечества. В работе «Искусственный интеллект: философско-богословский дискурс» И.Ю. Привалова «неортодоксально» интерпретирует сюжет Книги Бытия о грехопадении как сюжет о «юном» [14, c. 102] человеке, который еще не готов к «встрече» с запретным плодом; говоря об использовании ИИ, автор заключает: «Человеку надо было повременить с вкушением данных плодов до момента своей зрелости…» [14, c. 102].

Итак, эвристический потенциал библейского метанарратива в исследовании проблем ИИ связан так или иначе с производством различий (творение/творец, созданное/создатель) и др.

Почему такой контринтуитивный тип риторики оформляется? Почему вообще оформляется тяготение к Θεός как структуре описания и метанарративу? Здесь мы также предлагаем две — впрочем, не исключающие друг друга — стратегии комментирования.

Шифт «продукт — объект — существо — особа — субъект»

Использование «библейских категорий» связано с производством еще одного типа различий. Иеромонах Мефодий (Зинковский), обращаясь к понятию интеллекта в Священном Писании, рассматривает два термина: «νοῦς» (греч. «ум») и «διάνοια» (греч. «критическое мышление» или «способность к размышлению») [20, с. 14]. Введение этих категорий позволяет иеромонаху Мефодию противопоставить человека как «человеческий ум» и ИИ как нечто, такового «ума» не имеющее. Нус и дианойя — категории античной философии, но библейским метанарративом активно «впитавшиеся»: активное обращение к понятиям «душа» (ψυλή), «ум» (νους), «сердце» (καρδία) и «мысль, мышление» (διάνοια) в авраамических религиях позволяет нам включить эти категории в логику наших размышлений. Актуальный вопрос о демаркации мыслящего/не мыслящего, живого/неживого, имеющего ψυλή и ее не имеющего, таким образом, вполне может быть решен авторами, избирающими такой способ концептуализации, путем наложения этих категорий.

Обращение к Θεός как структуре описания, как представляется, — это еще одна (или, может, первичная) попытка поставить точку в постоянном переопределении и переозначивании технологических объектов самих по себе.

В целом шифт, обнаруживающийся в структуре говорения об алгоритмизированных технологиях, — это шифт «цифровые продукты — цифровые объекты — цифровые субъекты — цифровые особы» и т. д. Очевидно, что каждое из этих понятий является результатом особого типа конструирования предмета исследования. Риторика последних тридцати лет идет по пути все большего и большего закрепления за технологическим статуса субъекта (большее придание субъектности). Если обозначения «цифровые продукты» и «цифровые объекты» актуализировали антропоцентрическое, субъект-объектное, измерение культуры, закрепляя привилегированный статус ἄνθρωπος в бытии и познании, то новые понятия — воспользуемся формулировкой [21] французского философа Жана-Мари Шеффера — знаменуют «конец человеческой исключительности».

В ряде работ [22] активно используется «промежуточное» понятие интеллектуального существа (к таковым относят и ИИ), что актуализирует его неопределенный статус.

В работах ряда исследователей (Ю.В. Назаров, В.В. Попова [23], А. Гринбаум [4], Г.В. Потемкин [24] и др.) появляется формулировка «цифровая особа», выводящая из дуалистических предположений и человека, и ИИ. Сами кейсы десятых годов XXI века (получение гражданства Саудовской Аравии роботом Софией, произведенной гонконгской компанией «Hanson»; получение гражданства Бельгии и свидетельства о рождении усыновленного впоследствии Фрэна Пеппера, гуманоида, разработанного французской компанией «Aldebaran Robotics» и др.) говорят об отказе — как минимум декларативном — от дуалистического понимания таких объектов, как вещи. Применительно к последнему (Фрэну Пепперу и ему подобным) в СМИ появляются даже формулировки «цифровые люди» [25].

Ряд ведущих исследователей в области биоэтики, например специализирующийся на этике новых технологий, в частности ИИ, Уэнделл Уоллак (Йельский университет), вводят понятие искусственного (то есть созданного) морального агента «AMA»: «A computer system, robot, or android capable of making moral judgments would be an artificial moral agent (AMA)» [26]. Стоит добавить, что Уэнделл Уоллак является одним из целого ряда исследователей, пытающихся «научить» ИИ отделять добро от зла, — например, см. работу «Moral machines: teaching robots right from wrong» [27].

Сейчас при описании проблем этики ИИ именно AMA как artificial moral agent становится наиболее общим и как бы зонтичным термином, позволяющим на уровне языка отказаться от затруднительных решений о признании субъектности машины и прочих. Несложно увидеть, что представление ИИ в терминологической сетке агента и агентности, во-первых, снимает вопрос об онтологическом статусе ИИ и, во-вторых, вполне вписывается в логику представления любых действующих как агентов и — шире — в логику т.н. «темных» (нечеловеческих) и/или антикорреляционистских теорий (АСТ Брюно Латура, ООО Грэма Хармана или спекулятивный реализм Квентина Мейясу).

Теология без Бога

Другую стратегию объяснения актуализации Θεός-оптики предлагает Гаспар Кёниг в главе «Теология без Бога» уже цитируемой работы «Конец индивидуума». В этой главе Кёниг рассказывает о посещении музея Ван Гога в Амстердаме; удивительным для него оказалось то, насколько велико стремление человека фотографировать картины и игнорировать при этом уже не обязательную задачу их созерцания. Логика комментирования Кёнига представляется интересной — приведем ее практически без купюр: «Кто вообще будет смотреть эти фото? Но главное здесь — это накапливать, архивировать. Оставить след. Я увидел эту картину, и эта истина должна быть зафиксирована в вечности облака. <…> Не был ли изобретен всеведущий Бог для того, чтобы служить свидетелем наших действий, зрителем наших скромных судеб? Конечно, Он нас судит. Но самое главное, Он нас видит. А потому наша жизнь не бессмысленна, ведь малейшее из наших прегрешений, каким бы легкомысленным оно ни было, записано в Книге мира. Где-то на Небе есть совершенная копия нашей жизни, хранимая как драгоценность в ожидании Страшного суда. Библия повторяет одно и то же на разные лады: “И нет твари, сокровенной от Него, но все обнажено и открыто перед очами Его: Ему дадим отчет” (Послание к Евреям 4:13); “Ибо пред очами Господа пути человека, и Он измеряет все стези его” (Притчи 5:21); “Может ли человек скрыться в тайное место, где Я не видел бы его? — говорит Господь. Не наполняю ли Я небо и землю? — говорит Господь” (Иеремия 23:24) и т. д. Святой Августин хорошо понимал: ему нужно найти Бога в себе, Бога, который наблюдает не только за его действиями, но и за его чувствами, за самыми сокровенными помыслами. Не этим ли объясняется, почему религия так хорошо успокаивает нас? Не столько вечностью души, сколько записью самого нашего существования…» [11, с. 189–190].

В ситуации, когда, по словам Кёнига, «Бог если и не исчез, то по крайней мере перестал быть повседневным собеседником», человек вынужден искать функциональные и функционирующие заменители. Действия человека Гаспар Кёниг объясняет страхом небытия и страхом конечности. Какое место в этой в общем-то традиционной логике занимают технологии? По Кенигу, функции Бога в какой-то мере делегированы человеком машине: «Производить данные, как можно больше данных, — значит пытаться оставить след, отказываясь от абсурда существования, предоставленного самому себе. Поскольку Бог больше не смотрит на меня, я заменю его самим собой, создавая виртуальную копию собственной жизни, загружая ее в облако и распространяя по социальным сетям. Я больше никогда не взгляну на фотографию “Автопортрета художника”, но тот факт, что я видел эту картину, останется навсегда (или по крайней мере пока хватит энергии для поддержания работы серверов). Машина воспроизводит божественное всезнание» [18, с. 190]. Логика взаимодействия с машиной в этом случае абсолютно изоморфна логике общения с Богом.

Хотя облачное хранилище было названо cloud по другим причинам, Кёниг сближает две логики: «Мы считали, что Бог умер, но сами же воскресили его в цифровой форме, подарили ему новое небо — cloud, облако. Человечество неисправимо в своей тяге к трансцендентному» [11, с. 64]. Так, по Кёнигу, тяготение к библейскому нарративу — результат универсального (и в каком-то смысле постоянного) стремления человека к трансцендентному. Аналогична и позиция Винера. Реконструируя позицию Винера, можно заключить, что говорение о машинах с использованием библейских метафор симптоматично: «Пусть силы машинного века на самом деле нельзя считать сверхъестественными, но все же они не укладываются в представления простого смертного о естественном порядке вещей» [6].

Используя формулировку А.В. Подопригоры, можно сказать, что библейская система координат, понятая как оптика, обеспечивает «синергию мистического переживания, мифологического моделирования и рационального познания» [16, с. 14], выстраивая, как было сказано, главным образом систему производства различий.

В заключение стоит сказать о перспективах дальнейшего изучения библейского как оптики и концептуальной схемы. Интересно увидеть, сходны ли Θεός-оптики (и вообще — оптики) при рассмотрении проблем ИИ и более ранних проблем человека и техники; иными словами, насколько способы дискурсивного оформления разнообразных проблем техники и технологий разнятся в эпохи, традиционно определяемые как индустриальная и постиндустриальная. Это, однако, тема отдельного исследования.

1 Для ряда философов и ученых (из упомянутых — это Гринбаум и Мюллер) центральной проблемой остается не вопрос «перекодирования» человеческой этики на язык машин (проблема языка), а вопрос о точках пересечения абсолютных ценностей машины (например, максимизация количества информации и возможностей ее обработки) и предельных человеческих ценностей. Что касается проблемы языка, в стороне оставляем топос невозможности практического применения знаменитых законов Азимова именно в силу их невозможности перевода на язык машин, хотя такие попытки и предпринимались.

×

Об авторах

Екатерина Андреевна Нечаева

Самарский национальный исследовательский университет имени академика С.П. Королева

Автор, ответственный за переписку.
Email: ne4aevakaterina@yandex.ru
SPIN-код: 1136-9508

кандидат филологических наук, доцент кафедры русской и зарубежной литературы и связей с общественностью

Россия, Самара

Список литературы

  1. Bainbridge W.S. God from the Machine: Artificial Intelligence Models of Religious Cognition. AltaMira Press, 2006. 188 p.
  2. Sanz R. Ethica ex machina. Exploring artificial moral agency or the possibility of computable ethics // ZEMO. 2020. P. 223–239. doi: 10.1007/s42048-020-00064-6
  3. Дератани Н. Deus ex machina // Литературная энциклопедия: В 11 т. Москва, 1929–1939. Москва: Ком. Акад., 1930. Т. 3. Стб. 223–224.
  4. Гринбаум А. Машина-доносчица. Как избавить искусственный интеллект от зла. Санкт-Петербург: Транслит, 2017. 75 с.
  5. Müller Vincent C. Ethics of artificial intelligence and robotics // Stanford Encyclopedia of Philosophy / Ed. by E.N. Zalta. Palo Alto: CSLI, Stanford University, 2016. [дата обращения: 13.11.2023]. Доступ по ссылке: https://plato.stanford.edu/entries/ethics-ai/
  6. Винер Н. Творец и робот: Обсуждение некоторых проблем, в которых кибернетика сталкивается с религией. Москва: Прогресс, 1966. 104 с.
  7. Wiener N. God & Golem, Inc. A Comment in Certain Points where Cybernetics Impinged on Religion. The MIT Press, 1966. 99 p.
  8. Кловайт Н., Ерофеева М. Работа в эпоху разумных машин: зарождение невидимой автоматизации // Логос. 2019. Т. 29, № 1(128). С. 53–84.
  9. Google’s AlphaGo gets ‘divine’ Go ranking // Computer Sciences. PHYS.ORG. 15.03.2016 [дата обращения 13.11.2023]. Доступ по ссылке: https://phys.org/news/2016-03-google-alphago-divine.html
  10. Preliminary study on the Ethics of Artificial Intelligence [дата обращения 13.11.2023]. Доступ по ссылке: https://unesdoc.unesco.org/ark:/48223/pf0000367823
  11. Кёниг Г. Конец индивидуума. Путешествие философа в страну искусственного интеллекта. Москва: Individuum, 2023. 352 с.
  12. Bostrom N. History of Transhumanist Thought // Journal of Evolution and Technology. 2005. Vol. 14, N. 1. P. 1–10.
  13. Дерябин Н.И. Сильный искусственный интеллект Бога // Развитие науки, общества, образования в современных условиях: монография. Пенза: Наука и Просвещение (ИП Гуляев Г.Ю.), 2022. С. 224–237. EDN: CRSDXC
  14. Привалова И.Ю. Искусственный интеллект: философско-богословский дискурс // Экономические и социально-гуманитарные исследования. 2020. №4(28). С. 101–106. doi: 10.24151/2409-1073-2020-4-101-106 EDN: OVAEKG
  15. Рорти Р. Мозг как компьютер, культура как программа // Язык и сознание: Аналит. и социально-эпистемол. контексты / Под ред. И.Т. Касавина. Москва, 2013. С. 374–393.
  16. Подопригора А.В. Искушение демиурга. Гностические модели и парадигма искусственного интеллекта // Антиномии. 2019. Т. 19, вып. 4. С. 7–30. EDN: YFWKBV doi: 10.24411/2686-7206-2019-00006
  17. Гусев А.Л. Человек – это искусственный интеллект по отношению к Богу? // Символ науки. 2019. № 9. С. 6–9.
  18. Dennett D.C. The Fantasy of First-Person Science / Ed. by S. Wuppuluri, F. Doria. In: The Map and the Territory. The Frontiers Collection. Springer, Cham. 2018, P. 455-473. doi: 10.1007/978-3-319-72478-2_26
  19. Горюнов И.А. Богословский анализ искусственного интеллекта // Сборник трудов Якутской духовной семинарии. 2021. № 13–14. С. 9–17. EDN: BZNAIH doi: 10.24412/2686-9497-2021-13-14-9-17
  20. Мефодий (Зинковский), иером. Православное богословие личности и проблематика искусственного интеллекта // Христианское чтение. 2020. № 6. С. 10–24.
  21. Шеффер Ж.-М. Конец человеческой исключительности / Пер. с фр. С.Н. Зенкина. Москва: Новое литературное обозрение, 2010. 392 с.
  22. Алексеева И.Ю. Культ технологий и субъектность человека // VII Декартовские чтения. Глобальные угрозы развитию цивилизации в XXI веке: Материалы международной научно-практической конференции, Москва – Зеленоград, 11 марта 2021 года. Москва – Зеленоград: Национальный исследовательский университет «Московский институт электронной техники», 2021. Ч. 1. С. 109–116. EDN: NPGIAT
  23. Назаров Ю.В., Попова В.В. Инновации в дизайне одежды // Декоративное искусство и предметно-пространственная среда. Вестник РГХПУ им. С.Г. Строганова. 2022. № 2–2. С. 21–29. EDN: EBOEZK doi: 10.37485/1997-4663_2022_2_2_21_29
  24. Потемкин Г.В. Smart citi: этический и технологический аспекты (анализ междисциплинарного дискурса): магистерская дис. ... по направлению подготовки: 42.04.01 - Реклама и связи с общественностью. Томск, 2018. [дата обращения 13.11.2023]. Доступ по ссылке: https://vital.lib.tsu.ru/vital/access/manager/Repository/vital:7650
  25. Коротинський Д. Первый в мире робот получил гражданство и свидетельство о рождении // Новости планеты. 2017. [дата обращения: 13.03.2024]. Доступ по ссылке: https://www.planetanovosti.com/ru/news/pervyj_v_mire_robot_poluchil_grazhdanstvo_i_svidetelstvo_o_rozhdenii/2017-02-04-15392
  26. Wallach W., Allen C. EthicALife: A new field of inquiry. In: AnAlifeX workshop. USA, 2006 [дата обращения 13.11.2023]. Доступ по ссылке: https://clck.ru/36aQcj
  27. Wendell W., Allen C. Moral Machines: Teaching Robots Right from Wrong // Ethics and Information Technology. 2010. № 12(4). P. 359–361. [дата обращения 13.11.2023]. Доступ по ссылке: https://www.researchgate.net/publication/257560753_Wendell_Wallach_and_Colin_Allen_moral_machines_teaching_robots_right_from_wrong doi: 10.1007/s10676-010-9239-1

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Нечаева Е.А., 2024

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial 4.0 International License.

Данный сайт использует cookie-файлы

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.

О куки-файлах