DEVELOPMENT OF THE CONCEPT OF A GENERALIZED ARTIFICIAL NEURAL NETWORK MODEL


Cite item

Full Text

Abstract

An approach is proposed to create a model of a generalized artificial neural network in problems of simulation modeling. A simulation model using artificial neural networks as separate structural elements is studied. The limitations of the existing approach to creating simulation models in the future creation of a generalized artificial neural network are revealed. The requirements are formulated and a method for constructing systems using the general approach for the use of an artificial neuron and the construction of artificial neural networks is proposed, a new structure of a simulation model based on a multi-level representation of artificial neural networks is proposed.

Full Text

ВВЕДЕНИЕ Основное назначение искусственных нейронных сетей (ИНС) - имитация функций человеческого мозга [1], а именно: памяти, распознавания информации и ее предсказывание. Каждая нейронносетевая модель, вследствие особенностей ее обучения и функционирования, направлена на решение конкретных задач. Данное обстоятельство является главным фактором, препятствующим созданию имитационных математических моделей (ИММ) с использованием ИНС как структурного элемента. Создание подобных систем позволит объединить свойства входящих в них ИНС, обобщая алгоритм обработки входящей информации, и обеспечит адекватное реагирование на входящие сигналы из окружающей среды. РАЗРАБОТКА КОНЦЕПЦИИ ОБОБЩЕННОЙ ИСКУССТВЕННОЙ НЕЙРОННОЙ СЕТИ Основой построения ИНС служит формальный нейрон [2], представляющий собой сумматор входных сигналов X, умноженных на вес нейрона W, передаваемых в функцию активации нейрона F и выдаваемого результирующего сигнала Y (рис. 1). Обучением ИНС служит настройка весов ее нейронов таким образом, чтобы при прохождении входных сигналов получить желаемый результат. В противном случае алгоритм обратно- Рис. 1. Формальный нейрон го распространения ошибки меняет вес нейрона на величину разницы между желаемым и реальным выходными сигналами нейрона [3]. Рассмотрим ИММ со структурой, представленной на рисунке 2. Структурными элементами данной ИММ являются ИНС, конфигурации которых представлены на рисунке 3. В узком смысле ИНС-элементы системы - самостоятельные подсистемы, обученные выдавать конкретные решения в ответ на диапазон подаваемых в систему сигналов. В случае принятия ИНС-элементами незнакомого сигнала, они выдают результат, максимально близкий к их внутреннему представлению [4]. В широком смысле ИНС-элемент - это нелинейный преобразовательный элемент, нелинейность которого обеспечивается входящими в его нейроны функциями активаций [5]. Чтобы моделируемая система могла адекватно реагировать на входящие сигналы из внешней среды, необходимо, чтобы имелась обратная связь результирующих сигналов с входящими [6]. Подобный механизм реализован в большинстве современных алгоритмов обучения ИНС [7], следовательно, целесообразно представлять рассматриваемую систему в виде ИНС, при этом, ее элементы будут также являться ИНС. Данную концепцию в дальнейшем будем называть обобщенной ИНС (ОИНС). В то время как ИНС решает конкретные задачи, на которые обучена, ОИНС в перспективе способна решать комплекс задач, определяемый набором ИНС, входящих в ОИНС. Для создания ОИНС необходимо сформулировать ряд принципов построения и правил распространения и обработки сигналов. ИНС, как таковая, не обладает собственными весовыми характеристиками, необходимыми для функционирования внешней системы, как ОИНС. Следовательно, необходимо «наделить» ее такой характеристикой. Каким образом может быть получен вес ИНС? Во внешнюю среду из ИНС выходят результаты Y обработки входных сигналов X. Поскольку ИНС представляет собой отдельный структурный элемент ОИНС, то полученный выходной сигнал из ИНС возможно представить как ее вес (рис.4). В дальнейшем сигналы, распространяемые внутри ОИНС будем обозначать как Z, а результирующий сигнал ОИНС - как Z0. Очевидно, что для получения выходного сигнала Z внутри ОИНС или Z0 на выходе из ОИНС, необходимо обработать входные сигналы X или входящие сигналы Z соответственно с помощью внутренней ИНС, а затем повторно их обработать по алгоритму функционирования искусственного нейрона (рис. 5). Руководствуясь данными положениями, представим рассматриваемую ИММ в виде ОИНС (рис. 6). Так как в рассматриваемых моделях ИНС присутствуют два и более выходных сигналов, то в полученной ОИНС имеются элементы с несколькими весовыми характеристиками, что противоречит теории ИНС, утверждающей, что искусственный нейрон может иметь только один весовой коэффициент. Руководствуясь данным принципом, приведем ОИНС к виду стандартной ИНС, в которой каждый вес представляет собой нейрон, содержащий в себе ту модель ИНС, из которой он был получен (рис. 7). Таким образом, мы получаем двухуровневую нейронную сеть, пригодную для реализации любыми доступными на сегодняшний день инструментами по созданию ИНС-моделей. Достоинством полученной модели является решение комплекса задач ОИНС, определяемого набором входящих в нее ИНС. При специфическом обучении ОИНС круг решаемых задач возможно расширить. Существенным недостатком ОИНС является значительное снижение ее быстродействия по сравнению с ИНС, вследствие последовательной многоуровневой обработки входящих в систему сигналов. ВЫВОДЫ . Рассмотрена имитационная математическая модель, содержащая искусственные нейронные сети как отдельные элементы. . Выявлены недостаток рассматриваемой модели в задачах построения адаптирующихся систем, а именно: узкий круг решаемых задач входящими в систему искусственными нейронными сетями. . Сформулированы правила и принципы построения обобщенных нейронных сетей, решающих проблему построения адаптирующихся систем, содержащих искусственные нейронные сети в качестве структурных элементов. Рис. 2. Имитационная математическая модель со структурными элементами в виде искусственных нейронных сетей Рис. 3. Конфигурации искусственных нейронных сетей, входящих в имитационную математическую модель Рис. 4. Представление выходного сигнала ИНС как веса в масштабе ОИНС Рис. 5. Обработка сигналов элементом ОИНС Рис. 6. ОИНС, содержащая несколько весов в каждом структурном элементе Рис. 7. ОИНС, приведенная к стандартному виду ИНС
×

About the authors

Maksim Viktorovich Ivanov

Baltic State Technical University «VOENMEH» named after D.F. Ustinov

Email: umka62@list.ru
Graduate Student of the Department I2 “Engineering and Quality Management” Saint-Petersburg

References

  1. Grossberg D. Nonlinear neural networks: Principles, mechanisms, and architectures // Neural Networks vol. 1, issue 1. 1988. pp. 17-61.
  2. McCulloch W.S., Pitts W. A logical Calculus of Ideas Immanent in Nervous Activity // Bulletin of Mathematical Biology vol. 52, №1/2. 1990. pp. 99-115.
  3. Толмачев С.Г. Системы искусственного интеллекта. Нейросетевые модели: учебное пособие // С-Пб: БГТУ «Военмех» им. Д.Ф.Устинова.
  4. Rumelhart D.E., Hinton G.E., Williams R.J. Learning Internal Representations by Error Propagation // Parallel Distributed Processing vol. 1. 1986. pp. 318-362.
  5. Widrow B., Hoff M.E. Adaptive switching circuits. // 1960 IRE WESTCON Conferencion Record. New York. 1960.
  6. Ванюшин В.А., Галушкин А.И. Построение и исследование многослойных систем распознавания образов // Некоторые проблемы биологической кибернетики. Л.: Наука. 1972.
  7. LeCun Y, Bengio Y., Hinton G.E. Deep learning // Nature vol.521. 2015. pp. 436-444. REFERENCES
  8. Grossberg D. Nonlinear neural networks: Principles, mechanisms, and architectures // Neural Networks vol. 1, issue 1. 1988. pp. 17-61.
  9. McCulloch W.S., Pitts W. A logical Calculus of Ideas Immanent in Nervous Activity // Bulletin of Mathematical Biology vol. 52, №1/2. 1990. pp. 99-115;
  10. Tolmachev S.G. Artificial intelligence systems. Neural network models: Tutorial // S-Pb: BSTU “Voenmeh” D.F.Ustinov.
  11. Rumelhart D.E., Hinton G.E., Williams R.J. Learning Internal Representations by Error Propagation // Parallel Distributed Processing vol. 1. 1986. pp. 318-362;
  12. Widrow B., Hoff M.E. Adaptive switching circuits. // 1960 IRE WESTCON Conferencion Record. New York. 1960.
  13. Vanyushin V.A., Galushkin A.I. Construction and study of multilayer pattern recognition systems // Some problems of biological cybernetics. L.:Science. 1972.
  14. LeCun Y, Bengio Y., Hinton G.E. Deep learning // Nature vol.521. 2015. pp. 436-444.

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2019 Ivanov M.V.

Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.

This website uses cookies

You consent to our cookies if you continue to use our website.

About Cookies