Правовые проблемы идентификации искусственного интеллекта

Обложка

Цитировать

Полный текст

Аннотация

Искусственный интеллект, как и ряд других продуктов технологической революции, послужил предпосылкой к формированию специфической области общественных отношений, что обусловило поиск адекватных форм и методов правового регулирования. Использование ресурсов права в процессе создания необходимых регуляторов привело к накоплению соответствующего практического опыта и появлению дисциплинарной онтологии, аккумулирующей доктринальное знание о правовом бытии искусственного интеллекта. Центральное место в ней занимает проблематика правовой идентификации искусственного интеллекта, имеющая как теоретическое, так и практическое значение. Её освоение предполагает разработку комплекса фундаментальных, программных и проектных вопросов.

В статье представлены образующие этот комплекс решения в контексте развития научного правового знания и практики правового регулирования в области создания и использования искусственного интеллекта, а также рациональная картина опосредования правом рассматриваемых общественных отношений в её актуальном виде; характеризуются содержание и динамика этой картины; анализируется накопленный правотворческий опыт и практика правовых экспериментов; изложены прогнозы относительно дальнейшего развития данного сегмента правовой сферы и применяемых для его упорядочения инструментов; определены задачи юридической доктрины на перспективу.

Статья подготовлена на основе научного доклада, представленного автором на заседании Президиума РАН 12 марта 2024 г.

Полный текст

Появление и развитие технологий, именуемых искусственным интеллектом (далее – ИИ), а также их интенсивное применение в различных сферах человеческой деятельности стали вызовом для права и юридической доктрины. В общем русле цифровизации и становления антропотехносферы создание и усовершенствование этих технологий демонстрируют социально значимые эффекты, указывающие на необходимость упорядочения соответствующих процессов.

Искусственный интеллект, как и ряд других продуктов технологической революции, послужил предпосылкой формирования специфической области общественных отношений, что обусловило задачу поиска адекватных форм и методов их регулирования. К настоящему времени накоплен эмпирический материал для научного анализа, позволяющий проследить реакцию государств и международных институтов на развитие нового сегмента правовой сферы, а также оценить подходы к регламентации общественных отношений, связанных с технологией ИИ. Данное обстоятельство послужило стимулом для активизации правовых исследований в этой области.

Искусственный интеллект осваивается правоведами в качестве и прикладной, и фундаментальной проблемы. Есть основания констатировать возникновение самостоятельного научного направления в юридической науке, которое объединяет теоретическую и практическую проблематику правового регулирования общественных отношений, связанных с созданием и эксплуатацией ИИ. Уже проведены классификации состоявшихся научных исследований, систематизирован широкий спектр вопросов [1]. В их числе понятийно-категориальный аппарат права, необходимый для создания юридических форм в области применения ИИ, правовой статус соответствующих технологий и их носителей, юридическая ответственность за вред, причинённый ИИ.

Правовые исследования в этой сфере можно сгруппировать следующим образом:

  • общие вопросы правового обеспечения создания и использования ИИ [2];
  • формирование оптимального технологического, экономического и правового ландшафта для применения ИИ в социальной и юридической практике [3]. Разработки ведутся в части регулирования автономных и полуавтономных транспортных систем [4], автоматизированных биржевых консультантов (robo-advising) [5], банковской деятельности [6], применения ИИ в корпоративных процедурах [7];
  • оценка возможностей, последствий и рисков опосредования технологий ИИ и общественных отношений, связанных с его эксплуатацией различными отраслями права и законодательства (антимонопольного [8], законодательства о защите персональных данных [9], об интеллектуальных правах [10]), соответствующая адаптация отраслевых и комплексных правовых институтов (юридическая ответственность, персональные данные, кибербезопасность и т.д.) [11];
  • использование ИИ в юриспруденции, в том числе для выполнения определённых задач юриста [12–14];
  • разработка специализированного “права роботов”, которое коррелирует с кибернетической этикой и программными правилами, имплементированными в машинные алгоритмы [15, 16]. Изучается вопрос о субъектности ИИ [17–20], взаимодействии человека и робототехники в процессе принятия решений [21]. В частности, ИИ осваивается с позиций когнитивных наук [22], с точки зрения способности больших данных и ИИ влиять на решения человека в культурном, экономическом и политическом контекстах [23]. Отдельный блок поиска осуществляется на стыке права и нейронауки [24, 25] и направлен на выяснение возможностей ИИ в юридической аргументации [26];
  • теоретико-методологические исследования бытия ИИ в правовой сфере, создание правовой инфраструктуры взаимодействия человека и технологий ИИ [1, 27, 28].

Анализ научных результатов приводит к выводу о том, что правоведы в научном поиске движутся в русле фрагментации предмета исследований и полученных знаний. Несмотря на это, эскиз дисциплинарной онтологии (отраслевой научной картины) уже просматривается. Более того, доктриной предложены вариативные правовые модели, позволяющие на текущем этапе придать наиболее важным общественным отношениям в области применения ИИ правовую форму, купировать реальные и потенциальные риски для человека и общества [27, 28]. В то же время главная научная задача – разработка эффективной модели правового регулирования – сохраняет актуальность.

Регуляторика в области ИИ стала формироваться сравнительно недавно. В процессе её становления пройдено несколько этапов как в доктрине, так и на практике. Поиск эффективного регулятора обозначил конкуренцию между этикой, на первых порах выполнявшей роль основного инструмента регулирования1, и правом, которое некоторое время было нейтральным по отношению к данной сфере. В настоящее время этическое регулирование уступило ведущую роль праву, хотя продолжает использоваться.

В качестве причин изменений в соотношении этического и правового регулирования следует отметить:

  • переход к интенсивному внедрению ИИ во многие сферы жизни общества и деятельности государственных институтов, а также хозяйствующих субъектов повлёк за собой разнообразные риски для человека, общества и государства (в сферах оборота персональных данных, обеспечения прав потребителей, конкуренции, жизни и здоровья людей);
  • усиление социальной потребности в эффективной регуляции новых общественных отношений, обусловленной многочисленными рисками для человека, общества и государства, которые сопутствуют широкомасштабному внедрению ИИ;
  • дефицит позитивного социального эффекта от этического регулирования на фоне повышения уровня и масштабов применения технологий ИИ, а также упомянутых рисков.

Этические нормы не предполагают конкретных механизмов их реализации, преодоления последствий их несоблюдения (например, компенсация вреда жизни и здоровью человека, его имуществу). Право в этом смысле более действенный регулятор, который позволяет не только нормировать поведение людей и организаций, но и примирять противоречия, разрешать конфликты в области создания и использования ИИ. Это возможно только на основе императивов, которыми оперирует право, так как на повестке дня задача предотвратить серьёзные риски для человека. Этика постепенно, но неизбежно становится дополнительным регулятором. В практике разных государств наблюдается стремление наращивать правовое регулирование в области использования ИИ. В формируемой государствами регуляторике, опосредующей развитие и применение технологий ИИ, увеличивается количество законодательных актов. Согласно докладу Стэнфордского университета “Индекс искусственного интеллекта – 2023” (AI Index Report 20232) в 2016 г. был принят всего один закон, в 2018 г. их было уже 12, в 2021 г. – 18, в 2022 г. – 37.

Законотворческая практика государств (от Европейского союза до Китая) очень разнообразна, но при этом в основу законодательных решений положен приоритет прав человека в том виде, в котором они определены во Всеобщей декларации прав человека. Отсюда охранительный уклон и разного рода охранительные ноу-хау в управлении развитием ИИ (в этом плане показателен опыт Китая, специфика которого будет показана ниже).

Созданные этические нормы в области ИИ сохраняют действие, в том числе служат одним из источников применяемых и проектируемых юридических норм. Осмысление динамики формирующегося социального регулирования в области ИИ приводит к выводу о том, что в нём складывается “трансграничный” режим в том смысле, что оно осуществляется на линии соприкосновения права и морали (этики), демонстрируя их взаимное проникновение в предмет, цели и функционал друг друга. В сложившихся условиях взаимодействие этики и права играет позитивную роль в процессе выработки правил поведения, необходимых как для развития технологий ИИ, так и для защиты человека от сопряжённых с этим рисков.

На начальном этапе создания регуляторики в сфере ИИ возникла проблема выбора между установлением общего правового регулирования для всех сфер его применения и конструированием дифференцированного регулирования в каждой сфере в отдельности. Мировым трендом стала практика формирования унифицированной модели регулирования, предполагающей общие правила вне зависимости от области применения ИИ. Общие (базовые) законы об ИИ готовятся в 15 государствах. В основном это Восток и Азия: ОАЭ (Оман, Катар), Малайзия, Китай, Таиланд, Филиппины и др.

Значительный интерес подставляет Закон Европейского союза об искусственном интеллекте (Artificial Intelligence Act), принятый Европейским парламентом 13 марта 2024 г.3 Сфера его применения охватывает все секторы (за исключением военных) и все виды ИИ. Закон объёмный (85 статей), содержит правила использования различных приложений на основе ИИ, в том числе систем распознавания лиц, предиктивной аналитики, генеративного ИИ, беспилотных автомобилей и др. Он разработан на базе подхода, основанного на оценке рисков, согласно которому технологии ИИ классифицируются в соответствии с их потенциальным риском по четырём категориям: неприемлемый риск, высокий риск, низкий риск и минимальный риск. Закон станет первым в мире примером комплексного регулирования использования ИИ, на который в дальнейшем так или иначе будут ориентироваться власти других стран и корпорации. И это уже происходит при подготовке собственных аналогичных актов. Например, в Бразилии готовится законопроект, который имеет сходные черты с проектом закона Европейского союза. Он содержит похожие определение систем ИИ, категории рисков, перечень систем высокого риска, предоставляет субъектам права в отношении поставщиков и пользователей систем ИИ, механизмы обеспечения безопасности и ответственности4.

В целом страны Запада действуют в соответствии с принятыми Организацией экономического сотрудничества и развития Рекомендациями по искусственному интеллекту 2019 г. В них закреплены принципы защиты персональных данных, фундаментальных прав человека, прозрачности ИИ и логики принятия решений, сотрудничества стран в разработке и регулировании ИИ5, а также предлагается регулировать данную сферу согласно ранее принятым рекомендациям о трансграничном потоке персональных данных, с учётом ответственности оператора по факту его контроля над персональными данными вне зависимости от местонахождения.

Специфичен опыт Китая, который готовит свой закон об ИИ. Этот подход является более фрагментированным и потенциально более жёстким (разрешительным), поскольку предполагается введение правила о предварительном одобрении службы безопасности для применения генеративного ИИ, ориентированного на потребителя. Западные специалисты критикуют его за чрезмерную, по их мнению, ответственность оператора и разработчика ИИ и возложение на него ответственности за поведение пользователя6. Помимо защиты персональных данных и ответственности разработчика или оператора систем ИИ, законопроект предусматривает защиту общественной морали, основных ценностей социализма и традиций китайского общества, а также фильтрацию данных, на основе которых обучаются системы ИИ7.

Следствием использования права в качестве основного регулятора общественных отношений в области ИИ стала необходимость правовой идентификации данного феномена. Несмотря на известные курьёзы, касающиеся распространения статуса субъекта права на цифровые сущности (предоставление Королевством Саудовская Аравия подданства роботу “София”8; рекомендации Еврокомиссии 2017 г. “Нормы гражданского права о робототехнике”9, в которых допускалось особое правовое положение роботов, наделение их правовым статусом, включающим способность нести ответственность за свои действия, принимать самостоятельные решения или иным образом независимо от человека взаимодействовать с третьими лицами; информация о том, что нейросеть-чатбот ChatGPT претендует на собственную личность10, и др.), базовым направлением развития правовой доктрины и практики в рассматриваемой сфере стало признание ИИ объектом субъективных прав. Этот тренд отражает недавно принятый Закон Европейского союза об ИИ.

Искусственный интеллект проявляет себя в национальных правовых порядках прежде всего в качестве объекта гражданских прав. Соответственно, любая технология или система ИИ – это то, по поводу чего возникают правоотношения. Например, согласно российскому законодательству11 ИИ может быть идентифицирован как имущество, охраняемый результат интеллектуальной деятельности. В международной частноправовой практике киберфизические интеллектуальные системы также имеют статус вещи в общем смысле и статус товара в коммерческом отношении. Так, Международная классификация товаров и услуг для регистрации знаков (МКТУ) прямо называет специфический вид товара: “Роботы человекоподобные с искусственным интеллектом” (класс 09, базовый № 090778)12.

В то же время в доктрине продолжается дискуссия о наделении юнитов ИИ правосубъектностью и признании его субъектом права. Например, их предлагается наделить правом на функционирование, энергосбережение, самообучение. Обсуждаются вопросы о распространении на юниты ИИ прав человека (в их конституционном смысле), юридическом оформлении их правового статуса в качестве “электронного лица” [29, с. 277, 303–358, 30, 31], кибернетических “электронных организмов” [32], “электронных агентов”13 (такие модели уже разработаны).

Среди потенциальных конституционных прав и свобод искусственных интеллектуальных систем называют: право быть свободным, право на самосовершенствование (обучение и самообучение), право на неприкосновенность (защита программного кода от произвольного вмешательства третьих лиц), свобода слова, свобода творчества, признание за ИИ авторских прав и ограниченное право собственности [33]. В отношении обязанностей ИИ предлагается конституционное закрепление трёх законов робототехники, сформулированных фантастом А. Азимовым в научно-фантастическом рассказе “Хоровод” (англ. Runaround) [34]: непричинение вреда человеку, а равно недопущение своим бездействием его причинения; повиновение всем приказам, отдаваемым человеком, кроме направленных на причинение вреда другому человеку; забота о собственной безопасности, за исключением предыдущих двух случаев [35].

В теоретической плоскости вопросы правосубъектности ИИ обсуждаются преимущественно в контексте трёх сюжетов: право интеллектуальной собственности, ответственность за гражданско-правовые деликты, картельные сговоры. Правоведы допускают даже уголовную ответственность искусственного интеллекта [36], оценивают перспективу появления в уголовных кодексах раздела, посвящённого мерам уголовно-правового характера для электронных субъектов [29, 37, с. 12].

Наделение этих творений правосубъектностью объясняется прагматичными соображениями, в числе которых необходимость решения ставших уже очевидными проблем их правовой идентификации в социальном и правовом пространстве, упрощение и оптимизация применения к ним действующих правовых режимов, содействие интеграции и сотрудничеству между человеком и машиной [29], а также специфика программ, которые в процессе самообучения становятся независимыми от своего создателя. Такие программы могут генерировать результаты, которые не предполагались замыслом разработчика, но стали возможны благодаря обучающей способности лежащего в их основе алгоритма [38, с. 137]. Однако для специалистов очевидно, что главной причиной актуальности обоснования соответствующих правотворческих решений является стремление перенести на сами юниты ИИ бремя юридической ответственности за причинение вреда человеку, имуществу, охраняемым законом общественным отношениям. В связи с этим, полагаем, что идеи правосубъектности ИИ будут находить своих адептов и научная полемика по данной проблеме будет продолжена.

Вместе с тем в практической плоскости сделан выбор, который не предполагает воплощения указанных идей в правотворчестве или правоприменении, во всяком случае, в обозримой перспективе. Социализация ИИ осуществляется на основании традиционных подходов юриспруденции и сохранения его идентичности объекту субъективных прав. Гуманистический потенциал такого решения проблемы, имеющей по сути фундаментальный характер, очевиден. В соответствии с данным подходом создаются правовые основания для защиты человека, общества и государства от потенциальных негативных эффектов дальнейшей социализации ИИ, не происходит наслоения новых гибридных юридических конструкций на отработанные веками базовые институты права, открываются перспективы для развития общей модели правового регулирования.

Наконец, ещё один сюжет связан с проблемой допустимости применения ИИ в качестве инструмента правового регулирования. Исследования показали наличие у технологий ИИ необходимого для этого потенциала. Соответствующие технологии используются при организации онлайн-голосования на выборах и референдумах, дорожного движения, квалификации преступлений, выявлении моделей преступного поведения (например, коррупционного). В ряде стран они попали в сферу судебного правоприменения. Например, в России первым опытом в этом направлении стал Белгородский эксперимент 2021 г. В Белгородской области на нескольких участках мировых судей технология ИИ была задействована для формирования судебных приказов по взысканию задолженностей по имущественным, земельным и транспортным налогам14. На проходившем 23–25 мая 2023 г. Совете судей России его председатель В.В. Момотов сообщил о том, что в рамках суперсервиса “Правосудие онлайн”, запуск которого намечен на 2024 г., предполагается использование технологии “слабого” ИИ15.

Потенциал систем ИИ в области формирования возможных судебных решений наглядно демонстрирует опыт соответствующих экспериментов в так называемом предсказанном правосудии (predicting justice). Искусственный интеллект на основе анализа массива исходных данных прогнозирует наиболее вероятный исход судебного разбирательства по тому или иному делу. Так, программное моделирование судебных актов позволило роботам в 70% случаев предсказать решения Верховного суда США и в 79% – решения Европейского суда по правам человека [39]. Значительные перспективы в плане определения оптимальной меры уголовного наказания открывает уникальная технология “Электронные весы правосудия”, разработанная И.М. Рагимовым и Х.Д. Аликперовым [40, 41] и не имеющая аналогов в мире.

Искусственный интеллект востребован не только в сфере индивидуального (казуального) правового регулирования. Он используется в правотворчестве для прогнозирования последствий принимаемых нормативных правовых актов, выявления противоречий в законодательстве [42]. Например, Еврокомиссия приняла Руководство по внедрению и использованию искусственного интеллекта в парламентском рабочем пространстве (DRAFT v1.0 / 6 April 2023).

Таким образом, признание инструментального характера искусственного интеллекта в правовом регулировании состоялось. Юридические основания для этого созданы. Применяемые в качестве вспомогательного инструментария системы имеют предпосылки стать одним из основных средств регулирования. По прогнозам, в будущем технологии ИИ будут использовать в правообразовании, выявлении, интерпретации и даже генерации политической воли (в качестве общей воли, отражающей борьбу и согласование свободных воль в их взаимодействии и взаимообусловленности, государственной, классовой или иной) [43, 44].

Можно констатировать, что период стремительного и во многом непонятного юристам, да и не только им, развития новых отношений в области создания и использования ИИ пройден. Круг этих отношений как предмет правового регулирования более или менее установлен, есть признаки относительно устойчивого воспроизводства этих отношений в определённом контуре. Ключевые правовые проблемы, включая угрозы и риски, которые несёт ИИ, осмыслены. Ответы на многие актуальные фундаментальные правовые вопросы предложены. Концептуализация отраслевого знания позволила выйти на необходимый уровень понимания сущности данного правового феномена и установления параметров его правовой идентификации. Это дало правоведам возможность предложить программные решения, которые нашли отражение в Основном Законе государства.

В современных конституциях появились такие объекты регулирования, как научно-технологическое развитие (в разных вариантах формулировок – Россия, Мозамбик и др.); новые технологии (Бразилия, Венесуэла); информационные и коммуникационные технологии (Боливия, Германия); инновации, информационные услуги, национальная научно-техническая система (Венесуэла). В некоторых конституциях государству вменено в обязанность гарантировать, поддерживать и поощрять научно-технологическое развитие. В связи с этим к предметам ведения и (или) полномочиям органов публичной власти отнесены определение государственной политики в области научно-технологического развития, его обеспечение и поддержка (Россия, Боливия, Германия). В отдельных случаях частный сектор обязывается вносить свой вклад ресурсами в создание национальной научно-технической системы (Венесуэла).

Конституционно закреплены права человека на получение выгоды от научно-технического прогресса нации (Гватемала), доступ к Интернету и информационным технологиям (Индия, Исландия, Мексика, Судан), использование достижений науки и техники (Индонезия). В проекте политической конституции Республики Чили, подготовленном Конституционным конвентом страны, который был вынесен на национальный плебисцит (4 сентября 2022 г.), но не был поддержан, каталог общеизвестных прав человека дополнен правами: на доступную цифровую среду; участие в цифровом пространстве, его устройствах и инфраструктурах; цифровое образование; развитие знаний, мышления и технологического языка, а также пользование его преимуществами; свободное использование Интернета.

Очень важно, что конституционно закреплены критерии допустимости создания и распространения новых технологий. В качестве таковых зафиксированы необходимость корреляции их продвижения с религиозными ценностями (“с высочайшим уважением” к ним) и “национальным единством”, с целью “развития цивилизации и процветания человечества” (Индонезия), этическими и правовыми принципами, “регулирующими исследовательскую деятельность в области науки, гуманизма и технологий” (Венесуэла), со служением людям, с уважением к жизни, физической и психической неприкосновенности (Чили), общественным благополучием (Бразилия).

В целом можно констатировать, что в современных конституциях присутствуют несколько акцентов:

  • признание научно-технологического прогресса в качестве конституционной ценности и приоритета общественного развития;
  • стимулирование научно-технологического прогресса;
  • право человека на доступ к технологическим инновациям;
  • охрана конституционных, в том числе религиозных, ценностей от возможных негативных последствий технологической революции.

Конституция РФ содержит ряд положений программного характера, которые служат своеобразным ответом на вызовы технологической революции и нового технологического уклада. В числе ценностей общественного (в том числе социально-экономического) развития, возведённых на уровень важнейших ориентиров и приоритетов государственной политики (на федеральном и региональном уровнях), конституционное закрепление получили научно-технологическое развитие, наука и научный потенциал России как его источники и самостоятельные блага. Конституцией России по сути учреждена функция государства, состоящая в обеспечении научно-технологического развития и управлении им (посредством отнесения к предметам ведения Российской Федерации), а самостоятельным направлением государственной деятельности признано “обеспечение безопасности личности, общества и государства при применении информационных технологий, обороте цифровых данных” (п. “м” ст. 71).

Особенности данного конституционного регулирования заключаются, во-первых, в том, что в Основном Законе России гармонично сочетаются позитивно-регулятивный и охранительный подходы к новым технологиям, в частности к ИИ; во-вторых, в признании необходимости защищать всех без исключения основных субъектов конституционных правоотношений – личность, общество и государство. Систематическое толкование конституционных норм приводит к выводу о том, что осуществление функции защиты права распространяется и на бизнес.

Таким образом, обновлённая Конституция РФ (в п. “е”, “м” ст. 71, п. “е” ч. 1 ст. 72, ст. 114):

во-первых, формирует мировоззренческую парадигму, в некотором смысле идеологию социально-экономического развития России (на основе знаний и высоких технологий), включая критерии для определения пределов допустимого использования технологических инноваций. В ней нашли отражение стимулы для научно-технологического развития (в единстве науки как источника и технологий как результата научного поиска), гарантии защиты от его нежелательных эффектов, причём для всех основных субъектов конституционных отношений – личности, общества, государства;

во-вторых, создаёт необходимые конституционные ориентиры для достижения стратегических целей России;

в-третьих, оформляет конституционную модель целой сферы общественной жизни, именуемой философами техносферой (или более широко – антропотехносферой), включая её ценностные основания, институциональную и функциональную основы, объекты и субъекты правового взаимодействия, правовые инструменты реализации государственных приоритетов, конституционные гарантии безопасности для личности, общества и государства.

Всё это задаёт правовые параметры развития и “социализации” ИИ, в том числе с учётом рисков и угроз, которые несёт перспектива его повсеместного внедрения [1].

Программные решения доктрины выражены в актах государственного стратегического планирования в области ИИ16, а также в научных концепциях. Например, в 2020 г. Институт законодательства и сравнительного правоведения при Правительстве Российской Федерации подготовил Концепцию комплексного регулирования (правового регулирования) отношений, возникающих в связи с развитием цифровой экономики17. В ней определены подходы и пределы: правового регулирования нетипичных общественных отношений, связанных с использованием цифровых технологий (в том числе финтеха, регтеха); применения к новым объектам (цифровым вещам, цифровым сущностям) действующих правовых режимов; гармонизации нормативного и индивидуального, правового и этического регулирования. Её положения нашли отражение в Научных концепциях развития российского законодательства [45], в которых предложены прогнозные и программно-целевые выводы и установки относительно развития законодательства Российской Федерации в целом, его отдельных отраслей, а также комплексных и формирующихся правовых массивов.

В настоящее время отечественная правовая доктрина сфокусирована на подготовке проектных решений в области ИИ, разработке правовых механизмов реализации конституционных новелл и актов государственного стратегического планирования. Соответствующий поворот наблюдается и в законодательстве, которое от периода интенсивной точечной адаптации к появлению отношений, осложнённых ИИ, перешло к этапу плановой технологической модернизации на основе доктринальных разработок и применения правового эксперимента18. На этом этапе важно эффективно воплотить фундаментальные и программные решения в текстах законов с тем, чтобы, с одной стороны, законодательно закрепить необходимые правовые конструкции, институты и процедуры, обеспечивающие безопасную для человека и общества социализацию ИИ и в то же время благоприятную среду для развития соответствующих технологических инноваций, с другой – сохранить системность и непротиворечивость законодательства.

В области правовой идентификации ИИ ключевым является вопрос о его правовой природе. Не вызывает сомнения утверждение о том, что ИИ – это результат интеллектуальной деятельности человека. На первый взгляд, такой генезис ИИ обусловливает его признание объектом интеллектуальных прав и их правовую охрану посредством части четвёртой ГК РФ (в Российской Федерации). Вместе с тем далеко не все результаты интеллектуальной деятельности выступают объектами интеллектуальных прав. Так, априори не может рассматриваться в этом качестве и быть объектом гражданско-правовой охраны общеизвестная информация. В части 5 ст. 1259 ГК РФ прямо указано, что авторские права не распространяются на идеи, концепции, принципы, методы, процессы, системы, способы, решения технических, организационных или иных задач, открытия, факты, языки программирования, геологическую информацию о недрах. Применительно к технологиям гражданско-правовая охрана также существенно ограничена институтами ноу-хау (гл. 75 ГК РФ) и единой технологии (гл. 77 ГК РФ).

Фактически объектами интеллектуальных прав признаются только те результаты интеллектуальной деятельности, которые отвечают требованиям, установленным в законе. В Российской Федерации они прямо перечислены в ст. 1225 ГК РФ, а требования к ним – в гл. 70–77 ГК РФ. При этом приведённый в названной статье перечень результатов интеллектуальной деятельности является закрытым, и ИИ в нём прямо не указан. Таким образом, с формально-юридической стороны ИИ в Российской Федерации не признаётся объектом интеллектуальных прав, а правовая охрана может предоставляться исключительно отдельным его элементам, непосредственно поименованным в ст. 1225 ГК РФ (при их наличии в его составе).

В аналогичном состоянии находится и законодательство иностранных государств. Инновационный характер отношений, связанных с ИИ, обусловливает зарождение соответствующих регуляторики и правовой охраны. Например, в упомянутом выше Законе Европейского союза об ИИ данная задача не ставится, европейский законодатель ограничивается целью предупреждения разнообразных рисков, связанных с использованием ИИ. При этом субъективные права его поставщиков (разработчиков) не конкретизируются. На них только возлагаются обязанности, а также устанавливаются запреты в области использования ИИ, обусловленные публичными интересами.

В результате вопрос о правовой природе ИИ остаётся открытым. В связи с этим требуют решения следующие познавательные задачи: 1) установление достаточности для регулирования соответствующих отношений (в случае признания ИИ самостоятельным объектом правовой охраны и субъективных прав) существующего потенциала права интеллектуальной собственности как подотрасли гражданского права; 2) определение наличия или отсутствия необходимости в его расширении посредством выделения в данном нормативном массиве особой группы норм, посвящённых ИИ. Кроме того, с учётом зарубежного опыта и признания роли ИИ в регуляторной политике государства, а также публичного характера рисков, связанных с его использованием, актуальным представляется вопрос о наличии потребности в формировании комплексного регулирования, включающего как частноправовой, так и публично-правовой компонент.

Для решения указанных задач полагаем целесообразным установить: 1) единство конкретного ИИ; 2) обладателя субъективных прав на него; 3) моменты начала и прекращения его правовой охраны; 4) его связи с материальным носителем, энергетическим обеспечением, результатами интеллектуальной деятельности и иными информационными ресурсами.

Следует подчеркнуть, что право интеллектуальной собственности исходит из того, что результаты интеллектуальной деятельности (за некоторым исключением, например, произведения архитектуры и искусства) могут копироваться бесконечное множество раз, при этом все копии считаются идентичными друг другу. Все ранее известные объекты интеллектуальной собственности изначально обладают конечным множеством характеристик, которые впоследствии не могут быть изменены. Искусственный интеллект, напротив, имеет потенциал к развитию (саморазвитию), предполагающий увеличение его исходных характеристик. В его основе лежит алгоритм самообучения, направленный на постепенное приумножение знаний, которыми он обладает, и расширение круга решаемых задач. Обучение ИИ осуществляется по определённой траектории до тех пор, пока, возможно, не будет достигнут некий предел.

Таким образом, следует определить, от каких факторов зависит указанная траектория, выяснить, существует ли предел обучения ИИ и, если существует, то каков он. Указанные факторы могут быть связаны с особенностями материального носителя ИИ, энергетическим обеспечением его функционирования, характером взаимодействия с другими результатами интеллектуальной деятельности и иными информационными ресурсами.

При определении правовой природы ИИ необходимо обратить внимание на следующее обстоятельство: если ИИ переносится на другой исполнительный модуль, то появляется его копия. Но вопрос, ответ на который имеет выраженную юридическую проекцию, состоит в том, насколько соответствуют друг другу копии ИИ, размещённые на различных исполнительных модулях. Между ними может осуществляться информационное взаимодействие, но оно может и отсутствовать. Первому способствует наличие информационно-коммуникационных сетей, что позволяет копиям обмениваться информацией, взаимно влияя на траектории обучения друг друга, формируя единую траекторию. В свою очередь, отсутствие такого взаимодействия может повлечь изменение траекторий обучения различных копий. Совокупность копий ИИ, обучающихся по единой траектории, образует единый объект субъективных прав. Однако если траектории обучения различаются, можно ли считать соответствующие копии единым объектом или происходит их индивидуализация?

Предел обучения имеет не меньшее значение для ответа на вопрос о способности ИИ индивидуализироваться на объектном уровне. Если такой предел отсутствует, то есть основания для признания обособившихся копий, обучающихся по различным траекториям, самостоятельными объектами субъективных прав. Наличие такого предела требует установить, являются ли обучавшиеся по различным траекториям копии идентичными или их характеристики различаются. В первом случае придётся признать их единым объектом субъективных прав. При этом необходимо определить, отличается ли ИИ от программы для ЭВМ (программного обеспечения) и нуждается ли в самостоятельном правовом регулировании. Во втором случае появляется несколько самостоятельных объектов субъективных прав, которые уже не являются точными копиями друг друга. Здесь актуальным становится вопрос о том, кого признавать поставщиком (разработчиком) и правообладателем. Требуется найти ответ и на вопрос о том, что является непосредственным объектом правовой охраны – алгоритм самообучения или ИИ, достигший предела своего обучения, либо каждый из них в отдельности.

Проблема правовой природы ИИ осложняется тем, что здесь необходимо учитывать двойственную – программно-аппаратную – сущность данного феномена, характер связи (является она неразрывной или нет) между программной и аппаратной составляющими, а следовательно, и правами на них.

Наличие угроз и рисков, связанных с внедрением и применением ИИ, его широкое использование в публичной сфере обусловливают вопрос о достаточности частноправового регулирования соответствующих отношений. Есть основания прогнозировать масштабную конвергенцию частноправового и публично-правового инструментария – вплоть до формирования обособленного комплексного регулирования, объединённого одним предметом. Такая конвергенция ещё не началась, очевидны только её предпосылки. Так, Закон Европейского союза об ИИ по содержанию может быть отнесён к публичному регулированию. На частноправовом уровне в Европейском союзе в отношении ИИ продолжает действовать ранее сложившееся гражданское законодательство.

Ещё одна проблема на этапе подготовки проектных решений заключается в многообразии подходов к определению ИИ. Данный феномен рассматривается как технология (группа сопряжённых технологий), программа (программное обеспечение, приложение), программно-аппаратный комплекс. В Европейском союзе ИИ определяется через программное обеспечение, в Китае – как совокупность технологий и программного обеспечения. В России научный консенсус склоняется в сторону признания ИИ технологией, но в правовых актах, принятых в разное время разными субъектами, содержатся несогласованные между собой дефиниции. Например, Федеральный закон «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона “О персональных данных”» определяет ИИ как комплекс технологических решений, обладающий определённым набором признаков и характеристик. Национальный стандарт Российской Федерации ГОСТ Р 43.0.8-2017 “Информационное обеспечение техники и операторской деятельности. Искусственно-интеллектуализированное человеко-информационное взаимодействие. Общие положения” (утверждён приказом Федерального агентства по техническому регулированию и метрологии от 27 июля 2017 г. № 757-ст) именует ИИ моделируемой (искусственно воспроизводящейся) интеллектуальной деятельностью человека. Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года (утверждена распоряжением Правительства РФ от 19 августа 2020 г. № 2129-р) предлагала по возможности избегать внедрения в законодательство Российской Федерации единого для всех отраслей нормативного определения этого термина.

Формально-юридический подход ориентирует юристов на законодательную дефиницию, хотя она вызывает много нареканий как самих юристов, так и представителей других наук. Согласно указанному Федеральному закону, ИИ – это комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру (информационные системы, информационно-телекоммуникационные сети, иные технические средства обработки информации), программное обеспечение (в том числе такое, в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений. Под технологиями ИИ в законе понимаются технологии, основанные на использовании ИИ (включая компьютерное зрение, обработку естественного языка, распознавание и синтез речи, интеллектуальную поддержку принятия решений и перспективные методы ИИ).

Ведётся работа над проектами федерального закона о технологической политике в Российской Федерации и концепции цифрового кодекса Российской Федерации. Каждый из этих актов призван решить специфические задачи в области регулирования ИИ.

Основной целью проекта федерального закона о технологической политике в Российской Федерации является обеспечение технологического суверенитета России. Он должен придать силу закона положениям Концепции технологического развития России на период до 2030 года (утверждена распоряжением Правительства РФ от 20 мая 2023 г. № 1315-р). В нём будут конкретизированы конституционные положения о научно-технологическом развитии, установлены гарантии технологического суверенитета России, определена компетенция государственных органов и иных субъектов технологического развития. Закон призван создать необходимые правовые механизмы для формирования и реализации государственной технологической политики на постоянной и системной основе. С этим законом связаны ожидания о сокращении препятствий при разработке и продвижении отечественных технологий и результатов интеллектуальной деятельности. Вместе с тем проектируемое регулирование будет способствовать правовой идентификации технологий (они до настоящего времени в праве не определены), которая является необходимой предпосылкой определения правовой природы ИИ.

Проект цифрового кодекса, который разрабатывает Министерство цифрового развития, связи и массовых коммуникаций РФ, в значительной степени призван систематизировать нормы законодательства об информации и цифровых технологиях, в том числе в части регламентации отношений, связанных с созданием, обучением и использованием ИИ, обеспечить непротиворечивость регулирования. Кроме того, анонсировано начало работы над проектом федерального закона об ИИ. Его концепция ещё не обнародована, но очевидно, что он должен носить комплексный характер, включая как частноправовой, так и публично-правовой компоненты.

Принятие этих актов придаст законодательству об ИИ более системный вид и позволит решить по крайней мере часть обозначенных проблем его правовой идентификации. Общий каркас правовой регламентации в области ИИ в нашей стране уже сформирован. Россия идёт по пути:

  • сочетания позитивно-регулятивного и охранительного подходов в данной области;
  • использования экспериментальных правовых режимов для накопления необходимого опыта такой регламентации с целью последующей общей модернизации законодательства;
  • идентификации ИИ в качестве объекта субъективных прав, который может применяться в том числе при реализации регуляторной политики государства.

В результате полностью задействуются регуляторные ресурсы права, потенциал его отдельных отраслей и институтов. При этом парадигма правового развития коренным образом не изменяется.

Есть основания прогнозировать:

  • продолжение фиксации особенностей использования ИИ в отраслевом законодательстве и коррекции пределов распространения на отношения, осложнённые ИИ, отдельных правовых режимов. Так, могут последовать изменения в гражданском законодательстве, в первую очередь в его деликтной части. Здесь, например, необходимы положения об особенностях ответственности за вред, причинённый при использовании технологий ИИ. Кроме того, в гражданском законодательстве могут появиться специфические механизмы защиты прав участников гражданского оборота при ненадлежащем исполнении обязательств, вызванном техническими сбоями электронных сервисов. В перспективе может быть даже ограничено распространение на ИИ положений права интеллектуальной собственности либо в этой подотрасли гражданского права будет выделена особая группа норм, посвящённых ИИ. Можно ожидать коррекции антимонопольного законодательства, включения в него правовых механизмов противодействия цифровым картелям и иным злоупотреблениям, связанным с доминирующим положением в технологической сфере;
  • расширение практики казуального регулирования, прежде всего судебного правоприменения, создание при этом правоположений, заслуживающих имплементации в законодательство об ИИ.

Юридическая наука готова к различным сценариям дальнейшего развития правового регулирования в рассматриваемой сфере и способна обеспечить научное сопровождение проектирования такого рода правовых новелл.

В свете этих прогнозов целесообразно расширить научную повестку и включить в неё следующие исследовательские задачи:

  • изучение практики конвертации положений актов государственного стратегического планирования об ИИ в юридические нормы, закреплённые в законе. Требует проверки рабочая гипотеза о функциональной характеристике актов государственного стратегического планирования в качестве специфического источника права;
  • определение пределов и способов имплементации этических норм в области ИИ в законодательство (в данном случае может быть продуктивно использована концепция легальной этики, ранее предложенная учёными ИЗиСП [46]). Полагаем, что они могут быть зафиксированы в федеральном законе о науке, что будет способствовать обеспечению общественного доверия к ИИ;
  • продолжение исследований в области имплементации судебных решений в законодательство и практической реализации результатов правового мониторинга;
  • совершенствование существующих и разработка новых процессуальных механизмов идентификации технологий, факты применения которых имеют значение для конкретного юридического дела, и верификации правоприменительных решений, вынесенных с использованием ИИ;
  • изучение возможности сближения подходов в правовом регулировании в области ИИ на пространствах ЕАЭС и БРИКС.

Результаты научного поиска в этих направлениях будут востребованы как в теории, так и в практике.

 

1 См., например: Азиломарские принципы разработки ИИ (2017); Глобальные этические стандарты (Рекомендации) ЮНЕСКО в сфере искусственного интеллекта (2019); Рекомендации ОЭСР по искусственному интеллекту (2019); Рекомендации по этике для заслуживающего доверия искусственного интеллекта (2019), разработанные Экспертной группой высокого уровня Европейской комиссии; Руководящие принципы и Международный кодекс поведения Хиросимского процесса для организаций, разрабатывающих передовые системы искусственного интеллекта, Блетчли, Великобритания (2023). В России принят Кодекс этики в сфере искусственного интеллекта (2021). К нему присоединилось более 190 российских организаций и более 15 зарубежных компаний.

2 https://aiindex.stanford.edu/report/

3 См.: Proposal for a Regulation of the European Parliament and of the Council Laying down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts // An official website on the European Union. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206

4 https://www.taylorwessing.com/en/interface/2023/ai---are-we-getting-the-balance-between-regulation-and-innovation-right/ai-regulation-around-the-world

5 Рекомендации приняты Советом ОЭСР на уровне министров 22 мая 2019 г. по предложению Комитета по политике цифровой экономики (CDEP). См.: OECD. Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449. https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449. P. 2–4.

6 DigiChina.

7 The Measures for the Management of Generative Artificial Intelligence Services (Draft for Comment). URL: https://digichina.stanford.edu/work/translation-measures-for-the-management-of-generative-artificial-intelligence-services-draft-for-comment-april-2023/

8 См.: Робот-андроид София стала подданной Саудовской Аравии // ТАСС / URL: https://tass.ru/ekonomika/4680400.

9 См.: European Parliament Resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)) // European Parlament. URL: http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//EN

10 См.: Чат-бот претендует на личность // Коммерсантъ / https://www.kommersant.ru/doc/5408670

11 См.: Федеральный закон от 24 апреля 2020 г. № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона “О персональных данных”»; Гражданский кодекс РФ.

12 См.: Международная классификация товаров и услуг для регистрации знаков (МКТУ) (11-я ред., изд. 1-е) // Правовая система “Кодекс”. https://docs.cntd.ru/document/420273241

13 См.: Дмитрий Гришин представил проект регулирования правового статуса роботов в России. (17 декабря 2016 г). https://robotrends.ru/pub/1650/dmitriy-grishin-predstavil-proekt-regulirovaniya-pravovogostatusa-roboto

14 См.: “А судьи кто?”: как искусственный интеллект помогает человеку в суде. http:// www.techinsider.ru

15 В суперсервис будут встроены вспомогательные элементы, с помощью которых можно определить подсудность дела, рассчитать и оплатить госпошлину, а также стандартные формы и справочники исковых требований, что позволит упростить и ускорить обращение в суд лицам, нуждающимся в судебной защите. Основной задачей судебного ИИ станет автоматизированное составление проектов судебных актов на основе анализа текста процессуального обращения и материалов судебного дела. Планируется оценить потенциал его использования для расшифровки аудиопротоколов, создания интеллектуальной поисковой системы с возможностью анализа и систематизации судебной практики (см.: Суды планируют подключить искусственный интеллект к составлению решений. http://www.rg.ru).

16 См.: Национальная стратегия развития искусственного интеллекта на период до 2030 года, утверждённая Указом Президента РФ от 10 октября 2019 г. № 490 “О развитии искусственного интеллекта в Российской Федерации”; Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года, утверждённая распоряжением Правительства РФ от 19 августа 2020 г. № 2129-р.

17 Концепция подготовлена по заказу Фонда развития Центра разработки и коммерциализации новых технологий (Сколково).

18 Федеральные законы от 24 апреля 2020 г. № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона “О персональных данных”, от 31 июля 2020 г. № 258-ФЗ “Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации”».

×

Об авторах

Талия Ярулловна Хабриева

Институт законодательства и сравнительного правоведения при Правительстве Российской Федерации

Автор, ответственный за переписку.
Email: office@izak.ru

академик РАН, заместитель президента РАН, директор

Россия, Москва

Список литературы

  1. Khabrieva T.Yа. Law, artificial intelligence, digitalization // Human and artificial intelligence systems / Ed. by V.A. Lectorsky. St. Petersburg: Law Center, 2022. P. 71–97.
  2. Oskamp A. & Lodder A.R. (2006) Introduction: Law, Information Technology and Artificial intelligence // Lodder A.R. & Oskamp A. (eds.) Information Technology and Lawyers. Dordrecht, Springer. P. 1–22. doi: 10.1007/1-4020-4146-2_1
  3. Palmerini E. et al. RoboLaw: Towards a European framework for robotics regulation // Robotics and Autonomous Systems. 2016. V. 86. Р. 78–85.
  4. Autonomous Vehicles – Self-Driving Vehicles Enacted Legislation // National Conference of State Legislatures. 2018. http://www.ncsl.org/research/ transportation/autonomous-vehicles-self-driving-vehicles-enacted-legislation.aspx
  5. Miller R.M. Don’t Let Your Robots Grow Up to Be Traders: Artificial Intelligence, Human Intelligence and Asset-Market Bubbles // Journal of Economic Behavior and Organization, Forthcoming. http://dx.doi.org/10.2139/ssrn.415220
  6. Wall L.D. (2018) Some financial regulatory implications of artificial intelligence // Journal of Economics and Business. № 100. P. 55–63.
  7. Möslein F. Robots in the Boardroom: Artificial Intelligence and Corporate Law (September 15, 2017) // Woodrow Barfield and Ugo Pagallo (eds.). Research Handbook on the Law of Artificial Intelligence, Edward Elgar (2017/18, Forthcoming). https://www.law.ox.ac.uk/business-law-blog/blog/2017/11/robots-boardroom-artificial-intelligence-and-corporate-law
  8. Ezrachi A. and Stucke M.E. Artificial Intelligence & Collusion: When Computers Inhibit Competition (April 8, 2015) // University of Illinois Law Review. 2017. Oxford Legal Studies Research Paper. No. 18/2015, University of Tennessee Legal Studies Research Paper. No. 267. Available at SSRN: https://ssrn.com/abstract=2591874
  9. Artificial Intelligence, Robotics, Privacy and Data Protection. Room document for the 38th International Conference of Data Protection and Privacy Commissioners. 2016. https://edps.europa.eu/data-protection/our-work/publications/other-documents/artificial-intelligence-robotics-privacy-and_en
  10. Yu R. (2017) The Machine Author: What Level of Copyright Protection is Appropriate for Fully Independent Computer Generated Works? // University of Pennsylvania Law Review. 165 (5). P. 1241–1270.
  11. Ashley K.D. (2017) Artificial Intelligence and Legal Analytics: New Tools for Law Practice in the Digital Age. Cambridge: Cambridge University Press. doi: 10.1017/9781316761380
  12. Balkin J.M. The Three Laws of Robotics in the Age of Big Data // Ohio State Law Journal. 2017. V. 78. Forthcoming. Yale Law School, Public Law Research Paper No. 592. https://ssrn.com/abstract=2890965
  13. Barfield W. (2005) Issues of Law for Software Agents within Virtual Environments // Teleoperators and Virtual Environments. 14 (6). P. 741–748. doi: 10.1162/105474605775196607
  14. Sartor G. (2009) Cognitive Automata and the Law: Electronic Contracting and the Intentionality of Software Agents // Artificial Intelligence and Law. 17 (4). P. 253–290.
  15. Balkin J.M. The Three Laws of Robotics in the Age of Big Data // Ohio State Law Journal. 2017. V. 78. Forthcoming. Yale Law School, Public Law Research PaperNo. 592. https://ssrn.com/abstract=2890965
  16. Leenes R.E., Lucivero F. Laws on Robots, Laws by Robots, Laws in Robots: Regulating Robot Behaviour by Design // Law, Innovation and Technology. 2014. V. 6. № 2. Р. 194–222. https://ssrn.com/abstract=2546759
  17. Laptev V.A. The concept of artificial intelligence and legal responsibility for its work // Law. Journal of the Higher School of Economics. 2019. No. 2. P. 87–90.
  18. Ponkin I.V., Redkina A.I. Artificial intelligence from the point of view of law // Bulletin of the RUDN. Series: Legal Sciences. 2018. V. 22. No. 1. P. 91–109.
  19. Eidenmueller H. The Rise of Robots and the Law of Humans (March 26, 2017) // Oxford Legal Studies Research Paper. 2017. № 27. http://dx.doi. org/10.2139/ssrn.2941001
  20. Saripan H. (2016) Are Robots Human? A Review of the Legal Personality Model // World Applied Sciences Journal. 34 (6). P. 824–831. doi: 10.5829/idosi.wasj.2016.34.6.15672.
  21. Solum L.B. Legal Personhood for Artificial Intelligences // North Carolina Law Review. V. 70. Р. 1231, 1992. Illinois Public Law Research Paper № 09-13. https://ssrn.com/abstract=1108671
  22. Chernogor N.N., Yemelyanov A.S. The cognitive basis of law and order // Questions of philosophy. 2022. No. 5. P. 5–14.
  23. Solum L.B. Legal Personhood for Artificial Intelligences // North Carolina Law Review. V. 70. Р. 1231, 1992. Illinois Public Law Research Paper № 09-13. https://ssrn.com/abstract=1108671
  24. Khabrieva T.Yа. Law, artificial intelligence, digitalization // Human and artificial intelligence systems / Ed. by V.A. Lectorsky. St. Petersburg: Law Center, 2022. P. 71–97.
  25. Kolber A. Will There Be a Neurolaw Revolution? // Indiana Law Journal. 2014. V. 89. Р. 807. https://ssrn.com/abstract=2398071
  26. Feteris E., Kloosterhuis H. Law and Argumentation Theory: Theoretical Approaches to Legal Justification (June 21, 2013). http://dx.doi.org/10.2139/ssrn.2283092
  27. Khabrieva T.Yа., Chernogor N.N. The future of law. The legacy of Academician V.S. Stepin and legal science. Moscow: Russian Academy of Sciences; Institute of Legislation and Comparative Law under the Government of the Russian Federation; INFRA-M, 2020.
  28. The legal concept of robotization: a monograph / Ed. Yu.A. Tikhomirov, S.B. Nanba. Moscow: Prospect, 2019.
  29. Morkhat P.M. Law and artificial intelligence: monograph / Ed. by I.V. Ponkin. Moscow: UNITY-DANA, 2017.
  30. Legal personality: general theoretical, sectoral and international legal analysis: a collection of materials for the XII Annual Scientific Readings in memory of S.N. Bratusya. Moscow: IZiSP; Statute, 2017..
  31. Yastrebov O.A. Legal personality of an electronic person: methodological approaches // Works of the Institute of State and Law of the Russian Academy of Sciences. 2018. V. 13. No. 2. P. 36–55.
  32. Musina K.S. Identification of the legal personality of artificial intelligence: a cross-national analysis of the legislation of foreign countries // Bulletin of the Peoples’ Friendship University of Russia. Series: Legal Sciences (2023). No. 27(1). P. 135–147. https://doi.org/10.22363/2313-2337-2023-27-1-135-147
  33. Filipova I.A., Koroteev V.D. The future of artificial intelligence: an object or a subject of law? // Journal of Digital Technologies and Law. 2023. No. 1(2). P. 359–384.
  34. Asimov I. Khorovod // Astounding Science Fiction, 1942. No. 3(march).
  35. Arkhipov V.V., Naumov V.B. On some issues of the theoretical foundations of the development of legislation on robotics: aspects of will and legal personality // Law. 2017. № 5. P. 157–170.
  36. Radutniy O.E. Criminal liability of the artificial intelligence. doi: 10.21564/2414-990x.138.105661 UDC 343.22+343.412:004.056//cyberleninka.ru/article/n/criminal-liability-of-the-artificial-intelligence/viewer
  37. Legal aspects of the artificial intelligence use: current problems and possible solutions: report of the Higher School of Economics / Chiefs of Authors’ Team V.B. Naumov, S.A. Chekhovskaya, A.Yu. Braginets, A.V. Mayorov. Moscow: Publishing House of the Higher School of Economics, 2021.
  38. Voynikanis E.A., Semenova E.V., Tyulyaev G.S. Artificial intelligence and law: challenges and opportunities of self-learning algorithms // Vestnik VSU. Series: Law. 2018. No. 4. P. 137–148.
  39. Glebov I.N. Artificial legal mind. https://humanlaw.ru/9-article/26-artificialintelligence.html
  40. Rahimov I.M., Alikperov Kh.D. “Electronic scales of justice” (goals, opportunities, advantages) // Criminal proceedings. 2019. No. 3. P. 8–14.
  41. Alikperov Kh.D. Electronic technology for determining the measure of punishment (“Electronic scales of justice”). St. Petersburg: Law Center, 2020.
  42. Zaloilo M.V. Artificial intelligence in law: a scientific and practical guide / Edited by D.A. Pashentsev. Moscow: Infotropik Media, 2021.
  43. Mathieu B. Law versus democracy? / Translated by Y.I. Lebedeva; edited by A.I. Kovler. Moscow: Norma, 2021.
  44. Surkov V. Unpopulated democracy and other political miracles of 2121. https://www.rbc.ru/politics/11/10/2021/6164228f9a794739a4ca037c
  45. Scientific concepts of the development of Russian legislation / Edited by T.Yа. Khabrieva, Yu.A. Tikhomirov. 8th ed. reprint. and additional. Moscow: Norma, 2024.
  46. Khabrieva T.Yа., Gabov A.V., Kapustin A.Ya., Chernogor N.N. Conflict of interests: nature, prevention, social regulation // Journal of Foreign Legislation and Comparative Jurisprudence. 2018. No. 3. P. 3–12.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Российская академия наук, 2024