Does algorithmocentrism impose restrictions on the functionality of artificial intelligence?
- 作者: Bazhanov V.A.1
-
隶属关系:
- Ulyanovsk State University
- 期: 卷 6, 编号 4 (2024)
- 页面: 74-78
- 栏目: ФИЛОСОФИЯ И МЕТОДОЛОГИЯ НАУКИ
- URL: https://journals.eco-vector.com/2658-7750/article/view/692915
- ID: 692915
如何引用文章
全文:
详细
The article attempts to analyze the functionality of artificial intelligence (AI) from the point of view of the operating features of the algorithms that underlie it. The conception of algorithmocentrism is discussed, and it is shown that such boundaries, according to this conception, unconditionally exist, and they must be taken into account in order to more realistically comprehend the capabilities of AI. We claim that such limits exist, and they to be assessed in order to have more realistic picture representing AI capabilities. The latter compared with natural intelligence as well. The opinion is expressed that AI can and will be an effective tool, supplementing the natural one, but it is unlikely to replace it in any conceivable case of preserving the architecture of discrete device.
全文:
Алгоритмы известны и довольно активно используются с глубокой древности. История применения разного рода алгоритмов и алгоритмического мышления уходит в глубь веков [1]. Однако рождение и экспансия информационных технологий (включая шаги в направлении создания искусственного интеллекта – ИИ) заставили более пристально, чем раньше, взглянуть и проанализировать особенности работы алгоритмов, специфику и закономерности развития алгоритмического мышления. Такой анализ ставит серьезные эпистемологические вопросы, которые касаются природы и возможностей применения алгоритмов в разных сферах деятельности: что означает «мыслить алгоритмически»; каковы условия использования алгоритмов; допустимо ли рассуждать о границах и недостатках алгоритмического дискурса и алгоритмических процедур, тем более что всё чаще говорят уже и о нейронных алгоритмах [2]? Такого рода вопросы все настойчивее задаются и теми, кто непосредственно развивает информационные технологии, и теми, кто стремится осмыслить последствия их экспансии и применение этих технологий в самых разных сферах человеческой жизни [3]. Более того, ведущие мировые мыслители и ученые еще до момента прорыва в области ИИ выражали сомнения в том, достаточно ли серьезно человечество относится к достижениям в области создания ИИ [5].
Ключевые вопросы, связанные с возможностями алгоритмов и алгоритмического мышления, непосредственно затрагивают перспективы создания ИИ, в определенном смысле сравнимого с естественным интеллектом. И это вовсе не случайно, поскольку любой ИИ функционирует по некоторым алгоритмам.
Согласно общепринятому определению под алгоритмом понимаются процедуры поиска и решения некоторых задач в виде точных, последовательно выполняемых действий. Алгоритмы – вне зависимости от их вида (механические, вероятностные, циклические и т. д.) – должны быть эффективными, детерминированными, конечными и т. п. Все эти свойства могут быть реализованы на так называемых конечных автоматах, машинах Тьюринга, Поста посредством рекурсивных функций. Однако относительно работы едва ли не любого алгоритма можно сказать, что он представляет собой некоторое «бутылочное горлышко» (bottleneck), пропускной потенциал которого ограничен теми или иными факторами. Даже алгоритмы случайного перебора в информационных системах в действительности осуществляют не случайный, а псевдослучайный выбор (перебор).
Дело в том, что любой ныне действующий алгоритм является дискретным «устройством» и/или воспроизводится таковым. В случае цифровой репрезентации он может работать только с рациональными числами, тогда как всё множество действительных чисел принципиально ему недоступно. Между тем мозг человека нельзя сравнить с компьютером, который представляет собой дискретный автомат. Однако допустимо сравнение мозга, которому присуще мышление континуального типа, с аналоговой (вычислительной) машиной, которая по многим параметрам пока уступает «дискретным» компьютерам.
Действие алгоритмов сопряжено с множеством недостатков (особенно если речь идет о социально-политических или экономических процессах) [6]. Это и проблема воспроизводимости результатов вычислений [8], и проблема точности измерений (так называемая эпистемическая неопределенность), и проблема «плавающей запятой», точности репрезентации чисел, и необходимость обращения к псевдослучайным генераторам чисел [9] и т. п. Известный тест Тьюринга в его классической форме по существу исключает апелляцию к «отелесненному» (embodied) субъекту, тогда как всё, что приписывается алгоритмам, приписывается «живым, т. е. отелесненным» субъектам, думающим и объективирующим знание значительно медленнее компьютера. Этот фактор, связанный с «отставанием» человека от результатов, выдаваемых компьютером, может быть решающим в те моменты, когда требуется незамедлительное важное решение, касающееся отдаленных перспектив. Более того, во многие алгоритмы незримо «впечатываются» имплицитные предпочтения и предвзятости (biases) cубъекта, как, например, в случае расовых предрассудков в США, связанных с «каталогизацией» населения [10]. Нельзя также упускать из вида возможность алеаторической неопределенности. Вряд ли особенности действия алгоритмов в явном виде проявляются в модифицированных версиях теста Тьюринга и в тестах с аналогичными целями. «Большие языковые модели» (LLM) ChatGPT – 4, а также более продвинутые версии ChatGPT – 5, PresenAI, GFP-GAN, JADBio, Copy.ai, Notion.ai и т. д. далеко не столь совершенны, как обычно считают [11, 12]. Все модели такого рода вовлекают в свой функционал громадные массивы текстов, но они всегда задействуют тот их объем, который имел место на конкретный момент работы. Кроме того, как это ни парадоксально, эти модели испытывают значительные трудности и при соответствующих (даже арифметических) операциях с числовыми данными, поскольку как раз в вычислительных процедурах информационные технологии радикально превосходят естественный интеллект. Здесь ничего удивительного нет: если в текстах – умышленно или неумышленно – допущены арифметические ошибки или неточности, то они будут репрезентированы и в результатах работы LLM. Похожая ситуация наблюдается в простейших случаях дедуктивных рассуждений (типа простого категорического силлогизма, не говоря уж об индуктивных и тем более абдуктивных умозаключениях).
Кроме того, следует учитывать, что обучение ИИ (в частности, LLM) требует очень больших энергетических затрат со всеми сопутствующими финансовыми затратами и экологическими проблемами.
Всё это характеризуется как «алгоритмическая катастрофа», хотя такая характеристика и тяготеет к метафорическому выражению [12] (подробнее о концепции Ю. Хуэя говорится в [13]). Алгоритмизация приобретает особый статус в плане неопределенности функционала при поиске и выработке решения на базе нейросетей, в которых природа алгоритмических операций вообще может быть уподоблена «черному ящику»: внутренние процессы малодоступны для человеческого контроля и – во всяком случае пока – понимания.
Развитие ИИ (прежде всего «больших языковых моделей» типа GPT) поднимает нетривиальные вопросы о сохранении или модификации положений об авторских правах. Согласно статье № 1228 действующего ныне Гражданского кодекса РФ реальным автором интеллектуальной собственности является только лицо, творческий труд которого привел к тому, что она (интеллектуальная собственность) была создана. Поэтому в случае применения средств, предлагаемых LLM, честный и ответственный автор обязан сослаться на факт такого рода использования – аналогичным образом он в своем творчестве (работе) опирается на ресурсы Интернета.
Феномен алгоритмизации нашей деятельности, связанной с экспансие методов ИИ, требует обстоятельного анализа. Мы должны знать, на что способен и на что не способен ИИ. Только в этом случае опора на мощь и потенциал ИИ будет приводить к рациональным решениям.
作者简介
Valentin Bazhanov
Ulyanovsk State University
编辑信件的主要联系方式.
Email: vbazhanov@yandex.ru
SPIN 代码: 2644-7587
Doctor of Philosophy, Professor, Head of the Department of Philosophy
俄罗斯联邦, Ulyanovsk参考
- A history of algorithms: from pebble to the microchip / Ed. J.-L. Chabert. L.: N.Y.: Springer, 2015. 524 p.
- Velickovic P, Bendell G. Neural algorithmic reasoning. Patterns. 2021. Vol. 2. Pp. 1–4.
- Beer D. The tensions of algorithmic thinking: automation, intelligence, and the politics of knowing. Bristol: Bristol University Press, 2023. 145 p.
- Padilla LM. Limitations of algorithmic reasoning. L.: Our knowledge publ, 2023. 52 p.
- Hawking S, Russell S, Tegmark M, Wilczek F. Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough? Available from: https://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence-but-are-we-taking-ai-seriously-enough-9313474.html (accessed 2024.04.25).
- Bazhanov VA. Artificial intelligence, Big Data technologies and features of the modern political process. Philosophy. HSE Journal. 2023;3:193-210.
- Filin SA, Yakushev AZh. Concepts of knowledge and artificial intelligence in relation to the innovation sphere. Moscow: RUSAINS, 2023. 230 p. (In Russ.)
- Bazhanov VA. The phenomenon of reproducibility in the focus of epistemology and philosophy of science. Problems of Philosophy. 2022;5:25-35. (In Russ.)
- Coveney PV, Highfield RR. When we can trust computers (and when we can’t). Philosophical Transactions A. 2021. Vol. A379. Article 20200067.
- Obermeyer Z, Powers B, Vogeli C. Dissecting racial bias in an algorithm used to manage the health of the population. Science. 2019;366:447-453.
- Bazhanov VA. Can artificial intelligence be completely trusted? Lesson from “Gödel, Escher, Bach”. Troitskii variant. 2023. July 25. No. 383. Рp. 12–13. (In Russ.)
- Hui Y. Algorithmic catastrophe – the revenge of contingency. Parrhesia. 2015. Vol. 23. Pp. 122–143.
- Ivakhnenko EN. Towards a “new epistemology”: Yuk Hui’s recursiveness and contingency. Epistemology and Philosophy of Science. 2022. No. 3. Рp. 220–233. (In Russ.)
- Rowbottom DP, Peden W, Curtis-Trudel A. Does the no miracles argument apply to AI? Synthese. 2024. Vol. 203. Article 173.
补充文件
