Пределы допустимости участия искусственного интеллекта в постановлении приговора

Обложка

Цитировать

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков

Аннотация

Внедрение искусственного интеллекта (далее – ИИ) в уголовное судопроизводство поднимает проблемы, с которыми правовая наука еще не сталкивалась, и порождает множество вопросов, ответы на которые не столь однозначны. Целью исследования являются выявление и оценка потенциальных рисков, пределов допустимости использования ИИ при постановлении приговора, возможности влияния ИИ на улучшение качества принимаемых судом решений. В статье рассмотрены проблемы, которые возникли в некоторых странах при применении автоматизированных систем в суде. В частности, проблема «непрозрачности» ИИ – одна из наиболее неразрешимых в настоящее время, вызывающая значительные потенциальные риски использования ИИ в уголовном судопроизводстве и, по этой причине, препятствующая его применению. Зависимость ИИ от заказчика и разработчика также является потенциально опасным обстоятельством его использования при отправлении правосудия. Рассмотрены отдельные факторы положительного воздействия ИИ на качество решений суда. Сделан вывод о возможности влияния ИИ на улучшение качества принимаемых судом решений при условии ограничения пределов допустимости его использования при постановлении приговора. Вспомогательные системы с использованием ИИ, в том числе, предлагаемые отечественными авторами, могут решить проблемы дефицита времени судьи и высвободить его когнитивные ресурсы. Полная замена судьи – человека ИИ - опасна. Она может привести к дегуманизации правосудия. Легитимизация ИИ в уголовном судопроизводстве должна осуществляться государством, поскольку уголовный процесс имеет государственную природу.

Полный текст

Доступ закрыт

Об авторах

Елена Сергеевна Папышева

Уфимский университет науки и технологий

Автор, ответственный за переписку.
Email: papyshev-01@yandex.ru

кандидат юридических наук, доцент, Институт права

Россия, Уфа

Список литературы

  1. Аликберов Х.Д. Электронная система определения оптимальной меры наказания (постановка проблемы) // Криминология: вчера, сегодня, завтра. 2018. №4 (51). С.13-22.
  2. Аликперов Х.Д. Электронная технология определения меры наказания. СПб.: Юридических центр Пресс, 2020. 168 с.
  3. Маслов И.В. Отзыв на монографию доктора юридических наук, профессора Аликперова Ханлара Джафаровича «Электронная технология определения меры наказания» («Электронные весы правосудия») // Российский судья. 2020. № 11. С.55-60.
  4. Поляков С.Б., Гилев И.А. Предметная область информатизации судебных решений // Вестник Пермского университета. Юридические науки.2021. №3 С.462- 487.
  5. Поляков С.Б., Гилев И.А. Слова и дела «цифровизации права» // Российский юридический журнал. 2023. №1 (148). С.85-96.
  6. Поляков С.Б. Наше мнение: только искусственный интеллект принудит судью к справедливости // Вестник Московского университета МВД России. 2021. №3. С.213-218.
  7. Barabas, C. 2021. Beyond Bias: Reimagining the Terms “Ethical AI” in Criminal Law. Georgetwon Law.
  8. de Bruijn, H., Warnier, M., & Janssen, M. (2022). The perils and pitfalls of explainable AI: Strategies for explaining algorithmic decision-making. Government Information Quarterly, 39(2), 101666.
  9. Khademi, A., & Honavar, V. (2020, April). Algorithmic bias in recidivism prediction: A causal perspective (student abstract). In Proceedings of the AAAI Conference on Artificial Intelligence (Vol. 34, No. 10, pp. 13839-13840).
  10. Noiret, S., Lumetzberger, J., & Kampel, M. (2021, December). Bias and Fairness in Computer Vision Applications of the Criminal Justice System. In 2021 IEEE Symposium Series on Computational Intelligence (SSCI) (pp. 1-8). IEEE.
  11. Papyshev, G., & Yarime, M. (2022). The limitation of ethics-based approaches to regulating artificial intelligence: regulatory gifting in the context of Russia. AI & SOCIETY, 1-16.
  12. Reichel, P. L., & Suzuki, Y. E. (2015). Japan’s lay judge system: A summary of its development, evaluation, and current status. International Criminal Justice Review, 25(3), 247-262.
  13. Strauß, S. (2021). Deep automation bias: How to tackle a wicked problem of ai?. Big Data and Cognitive Computing, 5(2), 18.
  14. Watch, A. (2020). How Dutch activists got an invasive fraud detection algorithm banned. Algorithmic Watch’s Automating Society Report, 160-163.
  15. Zanzotto, F. M. (2019). Human-in-the-loop artificial intelligence. Journal of Artificial Intelligence Research, 64, 243-252.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

Данный сайт использует cookie-файлы

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.

О куки-файлах