Анализ эффективности и робастности нейронных сетей с ранними выходами в задачах компьютерного зрения

Обложка

Цитировать

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Доступ платный или только для подписчиков

Аннотация

Во многих встраиваемых системах и устройствах интернета вещей (IoT) применяются нейросетевые алгоритмы для различных задач обработки информации. При этом разработчики сталкиваются с проблемой недостаточности вычислительных ресурсов для эффективного функционирования, особенно в задачах реального (псевдо) времени. В связи с этим актуальной является задача нахождение баланса между качеством результатов и вычислительной сложностью. Одним из способов повышения вычислительной эффективности нейронных сетей, является применение архитектур нейронных сетей с ранними выходами (например, BranchyNet), позволяющие принимать решения до прохождения всех слоев нейронной сети, в зависимости от исходных данных при заданной достоверности результатов. Цель исследования: провести анализ применимости, эффективности и робастности нейронных сетей с ранними выходами (BranchyResNet18) в задачах компьютерного зрения. Анализ проводится на основе набора данных дорожных знаков GTSRB. Методология исследования представляет собой экспериментальный анализ эффективности на основе расчета количества операций с плавающей запятой (FLOP) для получения результатов с заданной точностью, и экспериментальный анализ робастности на основе генерации различных шумовых воздействий и состязательных атак. Результаты исследования: получены оценки эффективности нейронных сетей с ранним выходом и их робастность к непреднамеренным и преднамеренным возмущениям.

Полный текст

Доступ закрыт

Об авторах

Александр Николаевич Чесалин

МИРЭА – Российский технологический университет

Автор, ответственный за переписку.
Email: chesalin_an@mail.ru
ORCID iD: 0000-0002-1154-6151
SPIN-код: 4334-5520

кандидат технических наук, доцент; заведующий, кафедра компьютерной и информационной безопасности, Институт искусственного интеллекта

Россия, г. Москва

Алексей Вячеславович Ставцев

МИРЭА – Российский технологический университет

Email: stavcev@mirea.ru
SPIN-код: 4948-2180

кандидат физико-математических наук; доцент, кафедра компьютерной и информационной безопасности, Институт искусственного интеллекта

Россия, г. Москва

Надежда Николаевна Ушкова

МИРЭА – Российский технологический университет

Email: ushkova@mirea.ru
SPIN-код: 1935-5513

старший преподаватель, кафедра компьютерной и информационной безопасности, Институт искусственного интеллекта

Россия, г. Москва

Валентин Валерьевич Чаругин

МИРЭА – Российский технологический университет

Email: сharugin_v@mirea.ru
ORCID iD: 0009-0001-1450-0714
SPIN-код: 7264-9403

преподаватель, кафедра компьютерной и информационной безопасности, Институт искусственного интеллекта

Россия, г. Москва

Валерий Валерьевич Чаругин

МИРЭА – Российский технологический университет

Email: сharugin@mirea.ru
ORCID iD: 0009-0003-4950-7726
SPIN-код: 4080-4997

преподаватель, кафедра компьютерной и информационной безопасности, Институт искусственного интеллекта

Россия, г. Москва

Список литературы

  1. Jacob B., Kligys S., Chen B. et al. Quantization and training of neural networks for efficient integer-arithmetic-only inference // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2018. Pp. 2704–2713. URL: https://arxiv.org/abs/1712.05877
  2. Торкунова Ю.В., Милованов Д.В. Оптимизация нейронных сетей: методы и их сравнение на примере интеллектуального анализа текста // International Journal of Advanced Studies. 2023. Т. 13. № 4. C. 142–158. doi: 10.12731/2227-930X2023-13-4-142-158.
  3. Han S., Pool J., Tran J., Dally W.J. Learning both weights and connections for efficient neural networks // Advances in Neural Information Processing Systems (NeurIPS). 2015. URL: https://arxiv.org/abs/1506.02626
  4. Denton E.L., Zaremba W., Bruna J. et al. Exploiting linear structure within convolutional networks for efficient evaluation // Advances in Neural Information Processing Systems (NeurIPS). 2014. URL: https://arxiv.org/abs/1404.0736
  5. Hinton G., Vinyals O., Dean J. Distilling the knowledge in a neural network // arXiv Preprint arXiv:1503.02531. 2015. URL: https://arxiv.org/abs/1503.02531
  6. Иванов Е.А., Мамонова Т.Е. Сравнение методов сжатия модели нейронной сети при использовании на микроконтроллере // Молодежь и современные информационные технологии: сборник трудов XXI Междунар. науч.-практ. конф. студентов, аспирантов и молодых ученых (Томск, 15–18 апреля 2024 г.). Томск, 2024. C. 176–180.
  7. Ullrich K., Meeds E., Welling M. Soft weight-sharing for neural network compression // International Conference on Learning Representations (ICLR). 2017. URL: https://arxiv.org/abs/1702.04008
  8. Scardapane S., Scarpiniti M., Baccarelli E., Uncini A. Why should we add early exits to neural networks? // arXiv Preprint arXiv:2004.12814. 2020. URL: https://arxiv.org/abs/2004.12814
  9. Cheng Y., Wang D., Zhou P., Zhang T. A Survey of model compression and acceleration for deep neural networks // arXiv Preprint arXiv:1710.09282. 2017. URL: https://arxiv.org/abs/1710.09282
  10. Bajpai D.J., Hanawal M.K. A survey of early exit deep neural networks in NLP // arXiv Preprint arXiv:2501.07670. 2025. URL: https://arxiv.org/abs/2501.07670
  11. Panda P., Sengupta A., Roy K. Conditional deep learning for energy-efficient and enhanced pattern recognition // Design, Automation & Test in Europe Conference (DATE). 2016. Pp. 475–480.
  12. Teerapittayanon S., McDanel B., Kung H.T. BranchyNet: Fast inference via early exiting from deep neural networks // arXiv Preprint arXiv:1709.01686. 2017. URL: https://arxiv.org/abs/1709.01686
  13. Kaya Y., Hong S., Dumitras T. Shallow-deep networks: Understanding and mitigating network overthinking // Proceedings of the 36th International Conference on Machine Learning (ICML). 2019. Pp. 3301–3310.
  14. Laskaridis S., Venieris S.I., Almeida M. et al. SPINN: Synergistic progressive inference of neural networks over device and cloud // Proceedings of the 26th Annual International Conference on Mobile Computing and Networking (MobiCom’20). 2020. Pp. 1–15.
  15. Huang G., Chen D., Li T. et al. Multi-scale dense networks for resource efficient image classification // International Conference on Learning Representations (ICLR). 2018. 14 p.
  16. Kaya Y., Dumitras T. When does dynamic computation help early-exiting neural networks? // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). 2021. Pp. 2709–2718.
  17. Venieris S.I., Laskaridis S., Lane N.D. Dynamic neural networks: A survey // IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI). 2023. Vol. 45. No. 2. Pp. 2076–2098.
  18. Viola P., Jones M. Rapid object detection using a boosted cascade of simple features // CVPR. 2001. Vol. 1.
  19. Чесалин А.Н. Применение каскадных алгоритмов классификации для совершенствования систем обнаружения вторжений // Нелинейный мир. 2022. Т. 20. № 1. C. 24–41.
  20. He K., Zhang X., Ren S., Sun J. Deep residual learning for image recognition // arXiv:1512.03385v1 [cs.CV]. 2015.
  21. Sai Abhishek, Allena Venkata. Resnet18 model with sequential layer for computing accuracy on image classification dataset // International Journal of Scientific Research in Computer Science, Engineering and Information Technology. 2022. Vol. 10. Pp. 2320–2882.
  22. Stallkamp J., Schlipsing M., Salmen J., Igel C. The German Traffic Sign Recognition Benchmark: A multi-class classification competition // IEEE International Joint Conference on Neural Networks (IJCNN). 2011.
  23. Sovrasov V. Ptflops: A flops counting tool for neural networks in Pytorch framework. 2024. URL: https://github.com/sovrasov/flops-counter.pytorch
  24. Гонсалес Р., Вудс Р. Цифровая обработка изображений. М.: Техносфера, 2005. 1072 с.
  25. Kim H. Torchattacks: A PyTorch repository for adversarial attacks // arXiv:2010.01950. 2020.
  26. Moosavi-Dezfooli S.-M., Fawzi A., Frossard P. DeepFool: A simple and accurate method to fool deep neural networks // arXiv:1511.04599. 2015.
  27. Rauber J., Brendel W., Bethge M. Foolbox: A Python toolbox to benchmark the robustness of machine learning models // arXiv:1707.04131. 2017.
  28. Goodfellow I., Shlens J., Szegedy C. Explaining and harnessing adversarial examples // arXiv:1412.6572. 2015.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML
2. Рис. 1. Архитектура ResNet18

Скачать (154KB)
3. Рис. 2. Архитектура BranchyResNet18

Скачать (207KB)
4. Рис. 3. Зависимость количества операций (FLOPs) от выхода нейронной сети

Скачать (81KB)
5. Рис. 4. Зависимость точности классификации от используемого количества операций FLOPs

Скачать (69KB)
6. Рис. 5. Анализ точности и эффективности BranchyResNet18 при воздействии шума: а – гауссовский шум; b – равномерый шум; c – импульсный шум; d – размытие; e – зависимость количества операций (FLOPs) от уровня зашумления

Скачать (427KB)
7. Рис. 6. Анализ робастности и эффективности BranchyResNet18 при воздействии преднамеренными помехами: а – FGSM; b – PGD; c – DeepFool; d – BIM; e – зависимость количества операций (FLOPs) от интенсивности атаки

Скачать (413KB)

© Юр-ВАК, 2025

Ссылка на описание лицензии: https://www.urvak.ru/contacts/