Modern global transformations of the socio-political space under the influence of digital information and communication technologies

Cover Page

Cite item

Full Text

Abstract

This article is devoted to the newest challenges posed to society by the rapid development of digital communication technologies, especially global social media. The relevance of the topic lies in the fact that social media are constantly strengthening their monopoly as channels of information dissemination and communication platforms. At the same time, the commercial nature of social networks and the focus of IT giants on maximizing profits leads to unforeseen consequences that essentially transform socio-political life around the world. The text examines the main problems associated with the specifics of the functioning of social media and significantly influencing the socio-political sphere starting with the so-called “human factors”, such as the deliberate use of the capabilities of social media by certain interest groups and the psychological characteristics of human behavior that influence formatting of the online space, and ending with the built-in mechanisms of social media, such as recommendation algorithms and the collection and analysis of gigantic volumes of personal data for commercial use, which is increasingly turning into use for political purposes.

Full Text

Введение. Цифровые технологии играют важную роль в нашей повседневной жизни, и мы видим, как мир становится все более цифровым. Интернет, мобильные устройства и облачные вычисления позволяют людям работать и общаться из любой точки планеты, а число пользователей социальных сетей растет по всему миру. Цифровые технологии приносят ряд положительных изменений. Они ускоряют бизнес-процессы в экономике, стирают границы в доступе к информации, открывают новые возможности для людей в защите своих прав и выражении своего мнения.

Но у этих процессов есть и обратная сторона. Возможности социальных сетей могут использоваться и для монополизации рынков, и для распространения дезинформации, а также для манипуляции общественным мнением. При этом коммерческие интересы ИТ-компаний часто находятся в конфликте с интересами общества, а внедрение новых цифровых технологий, таких как рекомендательные алгоритмы, искусственный интеллект и нейросети, развивающиеся за счет аккумуляции гигантских объемов пользовательских данных, обостряют этот конфликт интересов.

Методы исследования. В данной статье выявлены основные факторы в функционировании социальных медиа, которые влияют на политическую жизнь в современных обществах, при помощи использования социально-антропологического подхода, который предполагает изучение общественных практик как сложной системы, которая включает в себя множество элементов и связей между ними. На материале выявленных данных проанализированы существующие и возможные будущие последствия такого влияния в рамках неоинституционального подхода, который основывается на изучении социальных институтов и их влияния на поведение индивидов и групп и предполагает, что институты не только определяют поведение людей, но и сами изменяются под воздействием этого поведения.

Целью данного анализа является выявление негативных тенденций в современной общественно-политической жизни, связанных с социальными медиа и использованием сетевыми платформами современных цифровых технологий, чтобы привлечь внимание к проблеме и способствовать общественной дискуссии о принципах и методах предотвращения дальнейшего усугубления этого негативного влияния.

Было проведено исследование, основанное на анализе экспертных и новостных публикаций, синхронных с исследуемыми событиями. В ходе анализа были рассмотрены различные источники, включая научные статьи, аналитические материалы, новостные порталы и другие открытые ресурсы. Данный подход позволил получить более глубокое понимание контекста и взаимосвязи между изучаемыми событиями, а также сформировать представление об их восприятии и реакции общества и экспертов.

История вопроса. В начале социальные сети не привлекали внимания политических элит. Они использовали традиционные СМИ: газеты, радио и телевидение, которые занимали лидирующее положение на информационном рынке в начале 2000-х гг. и были связаны с политиками взаимовыгодными отношениями.

Первыми новые возможности обнаружили те, кто прежде был лишен возможности напрямую заявить о своих интересах, проблемах и недовольстве чем-либо – рядовые граждане, обычные пользователи социальных сетей. Они «изобрели» общественные кампании порицания в социальных сетях. Эти кампании изначально были направлены против известных политиков, компаний и медиа, которые нарушали законы и вели себя неэтично [23, c. 18]. Сила общественных кампаний порицания заключалась в их массовости. Это приводило к тому, что политики теряли спонсоров, традиционные СМИ – рекламодателей, а компании уступали, боясь навредить своему имиджу и потерять клиентов. Массовость достигалась с помощью инструментов социальных сетей, таких как лайки, репосты и хэштеги.

Были люди, которые сочли это явление новым расцветом прямой демократии [23, c. 20]. Но это очарование не могло продлиться долго. И то, что общественные онлайн-кампании за социальную справедливость очень быстро выродились в кибер-травлю обычных людей и «культуру отмены» публичных персон – это лишь одно из существенных негативных последствий.

Другим, еще более значимым, последствием стало то, что на социальные сети, механизмы их функционирования и особенности поведения людей в онлайн-пространстве теперь уже обратили внимание политические силы и решили использовать в своих интересах.

Вторым бенефициаром новых коммуникационных технологий стало академическое сообщество. Ученые и исследователи получили большую пользу от открытых технологий и данных. Исследовательские группы используют алгоритмы, развивают языковые модели и масштабируют нейронные сети. Языковые модели быстро стандартизируются, как и большие данные, на которых они основаны. Мы видим тенденцию к созданию национальных языковых моделей и проприетарных продуктов на базе искусственного интеллекта, открытого кода и состава которых мы никогда не увидим.

Это сделало вопрос отношения к открытым данным, лежащим в основе всего, особенно актуальным [5]. Сейчас эти данные считаются самым ценным ресурсом в мире. Часто используемые метафоры включают сравнение данных с новой нефтью. Цифровые ресурсы трансформируют наше понимание современной экономики. Многие исследователи даже выделяют различные типы экономических отношений в зависимости от отношения к данным: цифровой капитализм [25], информационный капитализм [4], платформенный капитализм [29] и даже капитализм данных [16].

Результаты исследования. Изначально к социальным сетям обратились те политические силы, которые конкурировали за власть с правящими элитами, и поэтому эти силы использовали те же инструменты, что и обычные пользователи. Только в этих случаях массовость политических онлайн-кампаний достигалась за счет финансовых ресурсов, позволяющих нанимать на работу «простым неравнодушным гражданином» большое количество людей.

Первым заметным случаем, привлекшим внимание международного журналистского и научного сообщества, была предвыборная кампания, проведенная кандидатом в президенты Филиппин Родриго Дутерте. Именно «благодаря» ему мир узнал о схемах систематического вброса дезинформации и использовании армий сетевых троллей для атак на своих политических оппонентов [20].

Исследователи из университетов Массачусетса и Лидса опубликовали в 2018 г. исследование «Архитектура сетевой дезинформации», которое анализирует структуру и принципы работы этого феномена на Филиппинах [20].

Но к моменту, когда одни исследователи разобрались с интернет-деятельностью отдельных политиков, другие исследователи уже указывали на то, что произошла глобальная смена всей политической парадигмы. Благодаря развитию Интернета, цензура в масштабах целых государств в XXI в. стала практически невозможной. Но авторитарные политические силы вполне успешно адаптируются к новой реальности. Мы находимся на переходном этапе политической истории, когда подавление инакомыслия достигается не с помощью цензуры, а переизбытком вбрасываемой дезинформации, а также атаками сетевых троллей, которые уничтожают репутацию в глазах общества всех несогласных, и люди перестают прислушиваться к их заявлениям [18].

Исследовательница кибервойн Камиль Франсуа отмечает, что доказать связь властей и кибер-троллей практически невозможно. Всегда можно сказать, что это обычные граждане, высказывающие свое мнение. Этот новый феномен К. Франсуа назвала «троллингом с государственной поддержкой» [18]. «Мы наблюдаем за тактическими ходами, которые делают государства по пути от идеологии дефицита информации к идеологии информационного изобилия, – пишет профессор права Тим Ву, – и в этом процессе сама речь начинает выступать оружием цензуры» [37].

Многие исследователи указывают, что распространение ложной информации - это прямое следствие того, какие принципы заложены в основу устройства социальных сетей: стремление получить одобрение в виде лайков и репостов приводит ко всё большей радикализации поведения в онлайн пространстве, а это влечет за собой производство всё более гипертрофированного контента и откровенной лжи [38].

Исследования также показывают, что пользователи перед ложной информацией в большинстве своем бессильны. Среднестатистический молодой пользователь социальных медиа не в состоянии отличить проплаченный рекламный текст, даже содержащий пометку «Реклама», от журналистской аналитической статьи, официальный сайт известной организации или редакции от его фейкового клона, репортаж с места событий от выдуманных истории со случайными изображениями [17]. Но пользователи старшего поколения в распознавании лжи оказываются еще хуже – люди возраста 65+ делятся в сетях ложной информацией в 7 раз чаще, чем молодежь [3]. А потому дезинформация распространяется быстрее и шире [34].

Фактчегинговые агентства вносят свой вклад в борьбу с дезинформацией. Но публикации с опровержениями фейков получают меньше внимания, чем сами фейки. И опровержения приходят существенно позднее, когда дезинформация уже могла произвести свой разрушительный эффект.

Новую стратегию борьбы с дезинформацией, не нарушающую свободу высказывания пользователей, предложила компания X/Twitter (деятельность компании признана экстремистской и запрещена на территории РФ) под новым руководством – пользовательская модерация контента. Компания открыла всеобщий пользовательский доступ к программе проверки фактов «Примечания сообщества»/Birdwatch. Особенностью этой программы является то, что оригинальное сообщение не удаляется, а под ним, независимо от воли того, кто опубликовал это сообщение, появляется пользовательский комментарий, призванный повысить осведомленность об истинном положении вещей всех тех, кто видит данный пост.

Остается надеяться, что-либо модерация пользователей окажется эффективной, либо будут найдены более удачные стратегии противодействия дезинформации. В ближайшие годы эта проблема будет становиться все более актуальной по мере увеличения информационных потоков и развития цифровых технологий, позволяющих создавать фото-, аудио- и видеоматериалы, которые все сложнее отличить от настоящих.

Но что говорит о распространении в Интернете ложной информации закон? Интернет-гиганты в абсолютном большинстве являются американскими компаниями, а значит подчиняются законодательству США, в частности, знаменитой законодательной норме «Раздел 230». Это одна из наиболее значимых, если не важнейшая юридическая норма, оказавшая ключевое влияние на развитие Интернета, - Раздел 230 американского закона о телекоммуникациях (47 U.S. Code § 230). Основная часть данного раздела состоит всего из 26 слов. Именно так и была озаглавлена недавно вышедшая книга профессора права в области кибербезопасности Джеффа Коссефа «26 слов, которые создали Интернет» [14]: «Ни провайдер, ни пользователь интерактивного компьютерного сервиса не считаются издателем или носителем какой-либо информации, предоставленной другим провайдером информационного контента». На практике это означает, что владелец веб-сайта не несет ответственности за контент, который на этом сайте оставят пользователи. При этом владелец имеет право модерировать, а проще говоря, удалять любой пользовательский контент, в соответствии с правилами, созданными самим владельцем. Подразумевалось (да так и получилось), что раздел 230 ускорит развитие Интернета – компаниям не придется ничего премодерировать, проверять на все возможные законодательные нормы загружаемый пользователями контент, прежде чем позволить ему появиться на веб-страницах, опасаясь ответственности. Так же предполагалось, что модерируя контент по своему усмотрению, владельцы сайтов создадут конкурентные предложения, а пользователи смогут выбирать, чьи правила модерации им нравятся больше.

Проблема с разделом 230 состоит в том, что этот законодательный акт был принят в 1996 году, когда речь могла идти только о небольших веб-сайтах со страницами пользовательских форумов. Совершенно логично было освободить владельцев этих небольших сайтов от ответственности за деятельность третьих лиц. И столь же нелогично было требовать от таких сайтов, зачастую созданных под коммерческие цели, предоставлять свою площадку для всеобщих дискуссий по любому поводу, где владелец обязывался держать нейтралитет. Известных нам глобальных социальных сетей тогда еще просто не существовало. Сегодня же речь идет об информационных и коммуникационных монополистах. И Раздел 230 подвергается критике практически со всех сторон. Условные американские демократы и другие общественные силы недовольны тем, что социальные сети недостаточно борются с ненавистническими высказываниями. Условные республиканцы, напротив, обвиняют интернет-компании в ангажированности и в том, что они удаляют контент именно консервативного содержания.

Европейский Союз идет по другому пути, пытаясь всесторонне регулировать интернет-пространство [9], что не только противоречит гражданским свободам, но и технически практически неосуществимо в силу единства и глобальности онлайн-пространства. При этом претензии руководства Евросоюза к социальным сетям могут носить диаметрально противоположный характер, в зависимости от текущей политической ситуации. Когда упоминавшийся выше Твиттер заблокировал аккаунт Дональда Трампа, бывшего на тот момент действующим президентом США, чиновники Еврокомиссии впервые прямо заявили, что «больше неприемлемо» позволять ИТ-гигантам самостоятельно принимать решения об удалении контента [30]. Когда Илон Маск пообещал вернуть в соцсеть «свободу слова», руководство ЕС обрушилось на него с критикой и пригрозило блокировкой сети на территории Европейского Союза уже за отказ удалять тот или иной информационный контент.

Как же бороться с ошибочной информацией и сознательно вбрасываемой дезинформацией? Как показал пример с пандемией Covid-19, IT-гиганты в большинстве своем довольно легко поддаются давлению со стороны государственных властей и цензурируют информацию по запросам правительств. Но при этом ИТ-компании признавались, что им не хватало человеческих, цифровых и финансовых ресурсов для проверки и модерирования всего генерируемого пользователями контента. К делу подключили искусственный интеллект (ИИ). Он не оправдал возложенных на него надежд, зачастую удаляя взвешенную аналитическую информацию и пропуская публикации с прямым нарушением правил. И кончилось всё тем, что руководство компаний сняло с себя и соцсетей ответственность и прямо заявило о том, что не соцсети, а пользователи распространяют фейки [11]. Примерно тогда же вспомнились, подзабытые за первый год пандемии, права и свободы граждан, в том числе и информационные, и руководство заявило, что не желает становится «полицией абсолютной истины» [36]. Проблема распространения ложной информации осталась на месте. А цензурирование информации о Covid-19 привело к еще большему распространению слухов и конспирологических версий, а также еще сильнее подорвало доверие граждан к официальной государственной информации.

Сегодня в большинстве стран мира абсолютное большинство людей не верит ни СМИ, ни своим правительствам, более того, почти половина граждан считает СМИ и правительства своих стран главными разобщающими силами в обществе [7]. И это в то время, когда атомизация общества действительно вышла на первый план как одна из главных проблем современного мира.

Принципы работы социальных сетей и особенности человеческой психологии совместно приводят к тому, что люди всё больше замыкаются в своих «информационных пузырях» или «информационных эхо-камерах», окружая себя в онлайн пространстве людьми и источниками информации, точки зрения на те или иные проблемы которых соответствуют уже имеющимся у людей взглядам.

Сегодня мы имеем возможность не видеть и не слышать того, чего не хотим, и это проблема, о которой говорят с начала 2000-х гг. С начала 2010-х эту проблему начали воспринимать всерьез. Источники новостей, которые мы читаем [2], ссылки, по которым переходим в интернете [27], взгляды людей, которые нас окружают в общении онлайн [21], – все это (эхо)камера подтверждающей информации, где мы оказались заточенными к 2020-м гг. И поляризация общественных мнений наблюдается по любому вопросу.

Люди становятся все менее терпимы к отличающимся точкам зрения и отличающимся от них другим людям [32]. Индекс «позитивного миролюбия», включающий показатель под названием «признание прав остальных», показывает, что значение этого показателя в последнее время значительно снизилось в Европе и Северной Америке [32], в то время как одновременно активно развиваются общественные движения, «устанавливающие превосходство и доминирование одной группы над остальными».

Когда онлайн-гиганты изгоняют со своих площадок те или иные слишком радикальные или просто не соответствующие их информационной политике сообщества, эти сообщества находят новое пристанище на малоизвестных онлайн-площадках, уходят в «онлайн-подполье», где, отрезанные от возможности пересечься с людьми других взглядов, радикализируются еще сильнее. Именно так произошло с онлайн-сообществами так называемых инцелов, которые из групп поддержки одиноких людей любого пола, постепенно превратились сначала в закрытые мужские сексистские сообщества, а будучи изгнанными с глобальных платформ, в настоящие экстремистские сообщества, где помимо сексизма процветают белый расизм, антисемитизм, различные ультра-правые взгляды, слышны призывы к реальному насилию, которые иногда воплощаются на практике [10].

Возвращение в общество конструктивного диалога является одной из главных задач ближайшего будущего. Но пока даже нет ответа, кто должен решать эту задачу: владельцы онлайн-платформ, политики или само общество.

Но еще одна проблема, усугубляющая распространение дезинформации и усиливающая радикализацию сообществ, полностью является следствием целенаправленных действий ИТ-гигантов в своих коммерческих интересах. Это алгоритмы рекомендаций. Сегодня формирование ленты новостей подчиняется этим алгоритмам, принципы работы которых интернет-гиганты стараются держать в тайне.

Цифровые рекомендательные системы можно условно разделить на две категории: алгоритмы «чтения мыслей» и алгоритмы «изменения мыслей». Первые, подстраиваясь под наши предыдущие запросы, стараются удерживать нас как можно дольше перед экраном.

Эти алгоритмы порой потрясающе эффективны. Например, представители YouTube сами утверждают, что более 70% времени посетители проводят на сайте благодаря рекомендациям [6]. Но чтобы рекомендации сработали вам всё же должно быть интересно. Еще в 2011 году Гийом Шасло, программист из Google, обнаружил, что механизм работы YouTube постоянно предлагает людям сходный контент (сегодня это знание является общим местом). Если даже вы случайно посмотрите видео с откровенно дезинформирующим контентом, алгоритм будет и дальше подкидывать вам аналогичный материал. Шасло рассказал, что такими алгоритмами легко манипулировать: если у вас есть ресурсы для того, чтобы нанять большое количество людей для просмотра определенных видео и создания больших массивов контента на конкретную тему, который помогает продвигать эти видео, вы можете достичь удивительных результатов. Контент мог получить статус «рекомендуемого» и в том случае, если его продвигали сразу несколько каналов [15].

По мнению разработчиков и руководителей, влияющих с помощью рекомендательных алгоритмов на наш выбор, все наши действия должны быть встроены в машинную модель. В этой картине автоматизированного будущего нет места для новых предпочтений. Вы такой, каким вас считают машины, а значит, такой, каким они хотят вас сделать [28].

Возможно, у этой угрозы, у проблемы рекомендательных алгоритмов, самое простое, то есть понятное, решение – соцсети должны перестать их использовать в той степени и таким образом, как делают это сейчас. И тем не менее это, возможно, это одно из самых сложных, то есть трудноосуществимых решений ведь оно противоречит коммерческим интересам ИТ-гигантов.

Вторая группа алгоритмов – алгоритмы изменения мыслей – пытаются сформировать у нас вкусы, предпочтения и мнения, которых у нас раньше не было [24]. И они открывают огромные возможности для формирования не только экономического, но и политического поведения, манипулирования им. Исследования показывают насколько сильно люди склонны следовать за алгоритмами, что не удивительно, так как с учетом психологии эти системы и разрабатывались, интегрировались в архитектуру социальных сетей [26].

«Рекомендательные системы всё больше влияют на то, что люди собой представляют, о чём они мечтают и какими хотят стать. Будущее «я» – это будущее рекомендаций», – пишет научный сотрудник передового в области новых технологий Массачусетского технологического института Майкл Шраге, автор книги о рекомендательных система [26, c. 119].

Но главный козырь в рукаве интернет-гигантов – это то, что они действительно знают о нас всё. Интернет-гиганты через платформы социальных сетей собирают персональные данные: какие товары пользователь покупает, с кем общается, какие новостные ресурсы читает, какие фильмы смотрит, какие сообщения лайкает и т.д. Возникает угроза противозаконного использования этих данных. Первая проблема этой угрозы – как понять, что является законным или противозаконным использованием, когда никто не читает пользовательских соглашений, а если и читает, то как отказаться от предложенных условий, когда их предлагает монополист? Вторая проблема – если противозаконное использование всё же имело место, то как это доказать и кого и как привлекать к ответственности?

Вспомним пример компании Cambridge Analytica [31; 19], которую обвинили (но не смогли доказать) в противозаконном использовании персональных данных, в результате которого через психологический таргетинг пользователей Facebook (деятельность компании “Мета” признана экстремистской и запрещена на территории РФ) было оказано влияние на итоги президентских выборов в США 2016 года (Хиллари/Трамп) и голосование по вопросу выхода из Европейского Союза в Великобритании. Общим местом является представление, что за Брекзит голосовали те британцы, кто устал от притока мигрантов. Однако руководитель цифрового направления кампании за Брекзит Томас Борвик представил другую картину [22, c. 119]. Сейчас группы в социальных сетях способны дать довольно четкое представление о том, какие темы могут побудить различных людей голосовать. Стране с населением в 20 миллионов, по расчетам Борвика, требуется от 70 до 80 типов таргетированных сообщений. Что касается голосования за выход из Евросоюза, по словам Борвика, самыми эффективными были сообщения о жестоком обращении с животными в ЕС, поскольку законы ЕС поддерживают устраивающих корриду испанцев. Заставлял ли Европейский Союз британцев проводить у себя корриду? И как выход Британии из ЕС может спасти быков в Испании? Этими вопросами избиратели не задавались. Потому что сообщения должны были воздействовать на эмоции. И люди, проголосовавшие на референдуме за выход из Европейского Союза, могли ничего не иметь против иммигрантов и даже не задумываться над тем, какие экономические последствия такой выход будет значить лично для них.

Одно из исследований онлайн-пропаганды показало наличие трех десятков государств по всему миру, которые сознательно и систематически используют соцсети для манипулирования общественным мнением и оказанием воздействия на электоральное поведение граждан [13]. С дальнейшим развитием технологий и расширением сфер использования онлайн-сервисов данных о пользователях будет собираться еще больше, и таргетирование будет еще точнее, манипуляции общественным мнением еще более эффективными и всепроникающими. Можно ли в таких условиях будет говорить о воле избирателей? И эта ситуация является одной из главных угроз участию общества в политической жизни на ближайшие десятилетия.

Но данные пользователей используются ИТ-гигантами не только для коммерческого или политического воздействия на самих пользователей. Применение этих данных гораздо шире. Настолько, что они были провозглашены самым ценным ресурсом в мире еще в 2017 году [33].

Искусственный интеллект и нейронные сети обучаются на данных, создаваемых людьми и размещаемых в интернет-пространстве. Нейросети не создают и еще долго не смогут создавать шедевры живописи, музыки, литературы, проводить научные исследования, самостоятельно совершенствоваться и развивать новые цифровые технологии. Но нейросети способны генерировать простую информационную новостную заметку, посредственную картинку, кратко пересказать научную статью, найти вариант стандартного кода. А значит оставить без работы журналиста-новостника, дизайнера рекламы, библиотекаря, программиста. Нейросети встают в ряд с теми технологиями цифровизации и автоматизации процессов, которым исследователи дали название «так себе технологии» [1] - технологии, которые не повышают производительности, которые способны уничтожить старые рабочие места, но не способны создать новые. Но нейросети не только паразитируют на интеллектуальном труде людей, отбирая их же рабочие места. Они лишают нас дальнейшего развития интеллектуальных и креативных сфер деятельности, так как люди оставляют их, потеряв возможность там зарабатывать.

Другая проблема ИИ именно в том, что эти интеллектуальные инструменты программируются людьми и обучаются на примерах действий и решений, принимаемых людьми. А действия людей далеки от идеалов справедливости и беспристрастности. Технологические новинки предыдущего поколения уже продемонстрировали эту проблему на практике. Например, алгоритмы сортировки резюме обучались отдавать предпочтение кандидатам-мужчинам перед кандидатами-женщинами. А банковские системы прогнозирования рисков научались устанавливать более высокие процентные ставки на получение кредита представителями этнических меньшинств [8]. Чему тогда обучатся в интернете нейросети нового поколения, если, как нам известно, интернет кишит сексизмом, расизмом и прочей ненавистью всех мастей? Интернет полон ошибочных сведений и, как мы видели, целых пластов сознательно созданной дезинформации. И сколько-нибудь серьезное обсуждение использования искусственного интеллекта в сети Интернет не может обойтись без рассмотрения этих вопросов и поиска решений. Возможно, в ближайшем будущем станет необходимо рассмотреть вопрос об отказе от внедрения новых технологий до того, как будут учтены и обеспечены интересы людей, которые от новых технологий могут прямо пострадать.

Выводы. Подводя итог, можно сказать, что развитие цифровых технологий и социальных медиа должно находиться в центре внимания общества. Рассмотренные выше факторы делают тему развития цифровых технологий и социальных медиа актуальной и важной для обсуждения и исследования. Особенно это важно потому, что в условиях общемирового падения доверия к политикам, традиционным политическим институтам и к средствам массовой информации, по всему миру растет популярность идей прямой демократии [35]. Это одно из возможных направлений дальнейшего развития политического поля. Однако, прямая демократия столкнется со всеми теми проблемами организованных с использованием современных цифровых инструментов манипуляций, о которых говорилось выше.

Поэтому важным направлением общественной политики должен стать контроль за технологиями. Отказ от технооптимизма и технопессимизма в пользу технореализма и осознание того факта, что цифровые технологии, как и любые другие, не являются чем-то естественным и детерминированным. Они создаются людьми с определенными целями. Технологии не обладают собственной волей – это политики под давлением общественных сил определяют, какие ограничения необходимо ставить на применение таких технологических новинок, как программы распознавания лиц, или использование личных данных. Принципы работы социальных сетей тоже закладываются в них людьми с определенными целями. Проблема здесь заключается в том, что мало кто разбирается в принципах работы новых технологий. Это касается как общества, так и политиков. Некоторые разработчики технологий сами начинают говорить о необходимости принимать в рассмотрение этические моменты еще на стадии проектирования новых технологий. Но также указывают и на необходимость для начала определиться с теми ценностями, которые общество хочет видеть в своей основе: «Как машины смогут узнать наши ценности, если мы сами этого не знаем?.. …Мы не сможем улучшить благосостояние человечества, если не уделим время определению наших общих ценностей, чтобы создавать технологии, которые наверняка будут отвечать этим идеалам» [12]. В итоге, все снова сводится к людям и нашей личной ответственности за выбор того будущего, в котором мы хотим жить.

×

About the authors

Maria V. Grigorieva

Institute of Scientific Information for Social Sciences of the Russian Academy of Sciences (INION RAN)

Author for correspondence.
Email: mariagrigorieva9@gmail.com

PhD in Political Sciences, Researcher at INION RAN

Russian Federation, Moscow

References

  1. Acemoglu, D., Restrepo, P. Automation and new tasks: How technology displaces and reinstates labor [Текст] / Acemoglu D., Restrepo P. // Journal of Economic Perspectives. — 2019. — № Т. 33. – №. 2. — С. 3-30.
  2. Adamic, L. A., Glance, N. The political blogosphere and the 2004 US election: divided they blog [Текст] / Adamic L. A., Glance N. // Proceedings of the 3rd international workshop on Link discovery. — 2005. — С. 36-43.
  3. Chokshi, N. Older people shared fake news on facebook more than others in 2016 race, study says / Chokshi N. [Электронный ресурс] // The New York Times: [сайт]. — URL: https://www.nytimes.com/2019/01/10/us/politics/facebook-fake-news-2016-election.html (дата обращения: 26.11.2023).
  4. Cohen, J. E. Between truth and power: The Legal Constructions of Informational Capitalism [Текст] / Cohen J. E. — 1-е изд. — New York: Oxford University Press, 2019 — 366 c.
  5. Couldry, N., Mejias, U. A. The costs of connection: How data is colonizing human life and appropriating it for capitalism. [Текст] / Couldry N., Mejias U. A. — 1-е изд. — Stanford, CA: Stanford University Press, 2020 — 352 c.
  6. Dave, P. YouTube sharpens how it recommends videos despite fears of isolating users / Dave P. [Электронный ресурс] // Reuters: [сайт]. — URL: https://www.reuters.com/article/alphabet-youtube-content-idINKBN1DT0MJ/ (дата обращения: 26.11.2023).
  7. Edelman Trust Barometer 2022 Edelman Trust Barometer / 2022 Edelman Trust Barometer [Электронный ресурс] // Edelman: [сайт]. — URL: https://www.edelman.com/trust/2022-trust-barometer (дата обращения: 26.11.2023).
  8. Eubanks, V. Automating inequality: How high-tech tools profile, police, and punish the poor [Текст] / Eubanks V. — 1-е изд.. — New York, NY: St. Martin's Press, 2018 — 272 c.
  9. European Commission European Democracy Action Plan / European Commission [Электронный ресурс] // An of-ficial website of the European Union: [сайт]. — URL: https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/new-push-european-democracy/european-democracy-action-plan_en (дата обращения: 26.11.2023).
  10. Farivar, M. Canada Van Attack Spotlights Online Men’s Movement / Farivar M. [Электронный ресурс] // VOA: [сайт]. — URL: https://www.voanews.com/a/toronto-van-attack-spotlights-extremist-mens-movement/4376624.html (дата обращения: 26.11.2023).
  11. Fried, I. Facebook exec blames society for COVID misinformation / Fried I. [Электронный ресурс] // Axios AI+ : [сайт]. — URL: https://www.axios.com/2021/12/12/facebook-bosworth-covid-misinformation (дата обращения: 26.11.2023).
  12. IEEE Standards Association IEEE Global Initiative for Ethical Considerations in Artificial Intelligence (AI) and Au-tonomous Systems (AS) Drives, together with IEEE Societies, New Standards Projects; Releases New Report on Pri-oritizing Human Well-Being / IEEE Standards Association [Электронный ресурс] // IEEE: [сайт]. — URL: https://standards.ieee.org/news/ieee_p7004/ (дата обращения: 26.11.2023).
  13. Kelly, S. et al. Freedom on the Net 2017 / Kelly S. et al. [Электронный ресурс] // Freedom House: [сайт]. — URL: https://freedomhouse.org/sites/default/files/FOTN%202017_United%20States.pdf (дата обращения: 26.11.2023).
  14. Kosseff, J. The twenty-six words that created the Internet [Текст] / Kosseff J. — 1-е изд. — New York, NY: Cornell University Press, 2019 — 328 c.
  15. Lewis, P. 'Fiction is outperforming reality': how YouTube's algorithm distorts truth / Lewis P. [Электронный ресурс] // The Guardian: [сайт]. — URL: https://www.theguardian.com/technology/2018/feb/02/how-youtubes-algorithm-distorts-truth (дата обращения: 26.11.2023).
  16. Mayer-Schönberger, V., Cukier, K. Big data: A revolution that will transform how we live, work, and think [Текст] / Mayer-Schönberger V., Cukier K. — 1-е изд.. — Boston, MA: Houghton Mifflin Harcourt, 2013 — 272 c.
  17. McGrew, S. et al. Can students evaluate online sources? Learning from assessments of civic online reasoning [Текст] / McGrew S. et al. // Theory & research in social education. — 2018. — № Т. 46. — №. 2. — С. 165-193.
  18. Nyst, C., Monaco, N. State-sponsored trolling: how governments are deploying disinformation as part of broader digital harassment campaigns. / Nyst C., Monaco N. [Электронный ресурс] // Institute for the Future: [сайт]. — URL: https://legacy.iftf.org/statesponsoredtrolling/ (дата обращения: 26.11.2023).
  19. O'Sullivan, D., Griffin, D. Cambridge Analytica whistleblower fears Facebook data was shared with Russia / O'Sul-livan D., Griffin D. [Электронный ресурс] // CNN: [сайт]. — URL: https://edition.cnn.com/2018/05/16/politics/cambridge-analytica-congress-wylie/index.html (дата обращения: 26.11.2023).
  20. Ong, J. C., Cabañes J. V. A. Architects of networked disinformation: Behind the scenes of troll accounts and fake news production in the Philippines / Ong J. C., Cabañes J. V. A. [Электронный ресурс] // University of Massachu-setts: [сайт]. — URL: https://scholarworks.umass.edu/communication_faculty_pubs/74/ (дата обращения: 26.11.2023).
  21. Park, J. H. et al. Information valuation and confirmation bias in virtual communities: Evidence from stock message boards [Текст] / Park J. H. et al. // Information Systems Research. — 2013. — № Т. 24. — №. 4. — С. 1050-1067.
  22. Pomerantsev, P. This is not propaganda: Adventures in the war against reality [Текст] / Pomerantsev P. — 1-е изд.. — US: PublicAffairs, 2019 — 256 c.
  23. Ronson, J. So you've been publicly shamed [Текст] / Ronson J. — 1-е изд. — New York, NY: Riverhead Books, 2016 — 290 c.
  24. Roth, C. Algorithmic distortion of informational landscapes [Текст] / Roth C. // arXiv preprint. — 2019.
  25. Schiller, D. Digital capitalism: Networking the global market system [Текст] / Schiller D. — 1-е изд. — Boston, MA: MIT press, 1999 — 320 c.
  26. Schrage, M. Recommendation engines [Текст] / Schrage M. — 1-е изд.. — Cambridge, MA: MIT Press, 2020 — 296 c.
  27. Schweiger, S., Oeberst, A., Cress, U. Confirmation bias in web-based search: a randomized online study on the ef-fects of expert information and social tags on information search and evaluation [Текст] / Schweiger S., Oeberst A., Cress U. // Journal of medical Internet research. — 2014. — № Т. 16. — №. 3. — С. 369–382.
  28. Smith, B., Linden, G. Two decades of recommender systems at Amazon.com [Текст] / Smith B., Linden G. // Ieee in-ternet computing. — 2017. — № Т. 21. — №. 3. — С. 12-18.
  29. Srnicek, N. Platform capitalism [Текст] / Srnicek N. — 1-е изд. — Cambridge, UK: Polity Press, 2017 — 120 c.
  30. Stolton, S. ‘No longer acceptable’ for platforms to take key decisions alone, EU Commission says / Stolton S. [Электронный ресурс] // EURACTIV: [сайт]. — URL: https://www.euractiv.com/section/digital/news/no-longer-acceptable-for-platforms-to-take-key-decisions-alone-eu-commission-says/ (дата обращения: 26.11.2023).
  31. The Cambridge Analytica Files / [Электронный ресурс] // The Guardian: [сайт]. — URL: https://www.theguardian.com/news/series/cambridge-analytica-files (дата обращения: 26.11.2023).
  32. The Institute for Economics & Peace Positive Peace Report 2018 / The Institute for Economics & Peace [Электронный ресурс] // The Institute for Economics & Peace: [сайт]. — URL: https://archive.org/details/PositivePeaceReport2018/mode/2up (дата обращения: 26.11.2023).
  33. The world’s most valuable resource is no longer oil, but data / [Электронный ресурс] // The Economist : [сайт]. — URL: https://www.economist.com/leaders/2017/05/06/the-worlds-most-valuable-resource-is-no-longer-oil-but-data (дата обращения: 26.11.2023).
  34. Vosoughi, S., Roy, D., Aral, S. The spread of true and false news online / Vosoughi S., Roy D., Aral S. [Электронный ресурс] // MIT Media Lab: [сайт]. — URL: https://www.media.mit.edu/projects/the-spread-of-false-and-true-info-online/overview/ (дата обращения: 26.11.2023).
  35. Wike, R. et al. Globally, broad support for representative and direct democracy / Wike R. et al. [Электронный ресурс] // Pew Research Center: [сайт]. — URL: https://assets.pewresearch.org/wp-content/uploads/sites/2/2017/10/17102729/Pew-Research-Center_Democracy-Report_2017.10.16.pdf (дата обращения: 26.11.2023).
  36. Wong, Q. Facebook says it's trying to strike a balance as it battles misinformation / Wong Q. [Электронный ресурс] // CNET : [сайт]. — URL: https://www.cnet.com/news/politics/facebook-says-its-trying-to-strike-a-balance-as-it-battles-misinformation/ (дата обращения: 26.11.2023).
  37. Wu, T. Is the first amendment obsolete? / Wu T. [Текст] // The Perilous Public Square: Structural Threats to Free Expression Today. — New York, NY:Columbia University Press, 2019. — С. 15-61.
  38. Zollo, F. et al. Emotional dynamics in the age of misinformation [Текст] / Zollo F. et al. // PloS one. — 2015. — Т. 10. — № 9.

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2024 Grigorieva M.V.

Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.

This website uses cookies

You consent to our cookies if you continue to use our website.

About Cookies