Use of artifical intelligence models in acceptance tests

Cover Page

Cite item

Full Text

Abstract

This paper describes the application of fuzzy perсeptron in acceptance testing problems. A study on the use of various fuzzy functions in solving the problem of approximation of probability densities was carried out. Experiments were conducted on time series with preset distribution laws, evaluating approximation quality using standard deviation in the series of 29 tests. As a result of the research, using Gaussian fuzzy function, the mean value of standard deviation equal to 0.00145 determined which confirms good approximative ability of the fuzzy perсeptron. The system was tested on the acceptance test data of the gas compressor engine. In this case, approximation quality was assessed using the Kolmogorov-Smirnov agreement criterion. Analysis results confirm the high approximative ability of the fuzzy perсeptron, emphasizing its applicability in real acceptance tests.

Full Text

Введение

В современном мире статистические методы анализа данных являются важным шагом в научных исследованиях. Не умаляя достоинств теоретических методов исследования, значение экспериментальных методов трудно переоценить. Только с помощью эксперимента возможно получение достоверной информации об исследуемом объекте в реальном масштабе времени, после обработки которой возможно построение ее модели [1].

В различных научных исследованиях возникает необходимость определения параметров случайного процесса, дающих его исчерпывающее описание. На практике для их получения требуется решить задачу аппроксимации, позволяющую на основе имеющихся данных получить функцию, описывающую случайный процесс [2]. Задача аппроксимации плотности распределения вероятностей является важной, так как во многих прикладных задачах выдвигается гипотеза о распределении статистического ряда, которую необходимо проверить.

В данной работе рассматривается применение методов аппроксимации в задачах приемо-сдаточных испытаний.

Использование аппроксимации в данных задачах позволяет:

  • анализировать данные для более точных оценок измерений, особенно в случае ограниченного набора данных или наличия шума;
  • производить моделирование данных с целью прогнозирования поведения системы;
  • уменьшить количество необходимых испытаний и измерений, что позволит сократить время и затраты на проведение приемо-сдаточных испытаний.

Обзор методов аппроксимации

Как показано в [3], методы аппроксимации можно разделить на два класса:

  1. Параметрические методы аппроксимации.
  2. Методы непараметрической статистики.

Применение методов из первой группы основано на гипотезе о конкретном виде функции плотности распределения. Для оценки параметров функции применяется, например, метод максимального правдоподобия [2]. Стоит отметить, что на практике бывает затруднительно проверить гипотезу о принадлежности выборки конкретному распределению, что делает невозможным применение методов параметрической аппроксимации.

Этого недостатка лишены методы второй группы. К ним можно отнести следующие алгоритмы [2]:

  • аппроксимация сплайнами;
  • аппроксимация ортогональными полиномами;
  • ядерная оценка.

Общим недостатком этих оценок является то, что при построении модели не учитываются условия нормировки и неотрицательности полученной оценки. Это приводит к тому, что аппроксимирующее выражение может не являться плотностью распределения [4]. Также к недостаткам стоит отнести невозможность оценить параметры аппроксимируемой плотности.

Нейросетевая аппроксимация

Еще одним методом непараметрической статистики является использование нейронной сети в качестве универсального аппроксиматора. Корректность данной оценки следует из теоремы Хета-Нильсена о представимости любой многомерной функции нескольких переменных с помощью нейронной сети фиксированной размерности [5]. Таким образом, любую сложную функцию можно заменить более простой нейросетевой аппроксимацией, причем требуется только нелинейность функции активации нейрона.

Аппроксимирующие нейронные сети обладают целым рядом преимуществ по сравнению с другими способами аппроксимации:

  • нейронные алгоритмы имеют потенциал для распараллеливания процесса обработки информации одновременно между всеми нейронами, что приводит к многократному ускорению работы нейронной сети;
  • благодаря большому количеству нейросетевых соединений, сеть становится нечувствительной к ошибкам, возникающим в отдельных нейронах в процессе аппроксимации;
  • нейросетевые модели позволяют добиться меньшей ошибки аппроксимации по сравнению с другими методами непараметрической статистики [4];
  • оценка плотности вероятности является более гладкой, чем при использовании сплайнов и ортогональных полиномов.

Однако нейронные сети также не лишены ряда недостатков. Во-первых, для них также не выполняются условия нормировки и неотрицательности. Во-вторых, аппроксимирующее выражение является в разы более сложным, чем при использовании полиномов.

Также для получения качественной модели необходимо подобрать параметры нейронной сети, что является сугубо эвристическим действием, не зависящим от определенной математической формулы.

Подготовка данных

Для построения оценки плотности распределения вероятности необходимо произвести первичное оценивание, построив гистограмму наблюдаемого статистического ряда, и выделить на ней точки {xi,yi},i=1,M¯, где M – число дифференциальных коридоров гистограммы, которые и будут входить в выборку данных. Для построения гистограммы в данной работе используется алгоритм, предложенный в [2].

В процессе обучения и работы на вход нейронной сети подается значение, равное координате середины интервала гистограммы плотности вероятности, а на выходе сети должно получиться значение, соответствующее ординате гистограммы в данной точке.

Нечеткий персептрон

В данной работе для решения задачи аппроксимации предлагается использовать модель нечеткого персептрона. Для данного типа сети сформулирована теоремы об универсальной аппроксимации, которая утверждает, что любая непрерывная функция на замкнутом интервале может быть представлена сходящимся рядом полиномов [5].

В случае нечеткого персептрона достаточно одного скрытого слоя для построения равномерной аппроксимации с заданной точностью для любого обучающего множества, представленного набором обучающих пар. Однако теорема не утверждает, что использование одного скрытого слоя дает оптимальные результаты в плане сходимости и скорости работы алгоритма.

Структура нечеткого персептрона, представленная на рисунке 1, является гибридной и объединяет в себе сеть с нечеткой организацией и многослойный персептрон.

Использование гибридной архитектуры оправдано тем фактом, что при использовании гибридной сети задача разделяется на два независимых этапа, реализуемых отдельно друг от друга: этап фуззификации и этап работы многослойного персептрона (постпроцессора), приписывающего каждой группе кластеров соответствующий ей результат.

 

Рисунок 1. Структура нечеткого персептрона

 

Использование препроцессора, размерность которого больше размерности входного вектора, обосновывается теоремой Ковера о разделимости образов. В ней утверждается, что преобразование задачи классификации в пространство более высокой размерности повышает вероятность линейной разделимости образов. Это позволяет подавать на вход многослойного персептрона уже откластеризованные данные [6].

Постпроцессор в виде многослойного персептрона осуществляет перевод коэффициентов принадлежности точки множествам кластеризации в оценку плотности вероятности в данной точке.

Аппроксимирующее выражение для нечеткого персептрона можно представить в виде:

y(x)=fi=1Kwioutfj=1nwjiφx,cj,σj, (1)

где K – количество нейронов в персептронном слое;

x – координата середины интервала гистограммы;

wiout,wji – значения весов;

n – количество нечетких нейронов;

φ – нечеткая функция;

f – функция активации персептронного слоя;

cj,σj – значения параметров нечеткой функции.

Нечеткие функции

Ниже представлены нечеткие функции, используемые в данной работе.

Гауссова функция:

φ(x,c,σ)=exp(xc)22σ2. (2)

Функция Епанечникова [9]:

φ(x,c,σ)=341(xc)2σ2. (3)

Сигмоидальная функция:

φ(x,c,σ)=2π1exp(xc)22σ2+exp(xc)22σ2. (4)

Алгоритмы обучения нечеткого персептрона

Алгоритм обучения нечеткого персептрона носит двухэтапный характер. Первым этапом является определение параметров нечетких нейронов. После выполнения данного шага значения параметров замораживается и начинается обучение многослойного персептрона.

Обучение нечеткого персептрона требует определения центров нечеткой функции. В данной работе используется алгоритм C-Means [7]. Для некоторых функций также требуется параметр ширины. В разработанной системе для этого используется метод P-ближайших соседей [8].

Для обучения многослойного персептрона применялся алгоритм обратного распространения ошибки. Минимизировалась метрика MSE.

Исследование по аппроксимации плотностей распределения вероятностей

После обучения нейронной сети необходимо оценить качество полученного нейросетевого решения задачи аппроксимации.

С этой целью были сгенерированы временные ряды, подчиняющиеся заранее известным законам распределения вероятностей. Было проведено исследование по аппроксимации плотностей вероятностей при помощи различных нечетких функций [10]. Качество аппроксимации оценивалось при помощи среднеквадратичного отклонения (СКО). Проводилась серия из 29 испытаний. В таблице 1 представлены максимальные значения СКО.

 

Таблица 1. Зависимость СКО аппроксимации нечетким персептроном от вида нечеткой функции

 

Нечеткая функция

Закон распределения вероятностей

Гауссова функция

Функция Епанечникова

Сигмоидальная функция

Нормальный

0,0005

0,0268

0,0016

Экспоненциальный

0,0026

0,0098

0,0045

Лапласа

0,003

0,0163

0,0014

Вейбулла

0,0009

0,0082

0,0025

Релэя

0,0012

0,0084

0,0016

Арксинусоидальный

0,0005

0,0011

0,0055

 

Тестирование проводилось на следующих параметрах нейронной сети:

  • обучающие выборки построены по 10000 отсчетам;
  • тестовая выборка с аналогичными характеристиками;
  • коэффициент обучения – 0.03;
  • функция активации многослойного персептрона – логистическая с параметром 5;
  • число дифференциальных коридоров гистограммы – 15;
  • число нейронов в нечетком слое – 12;
  • число нейронов в многослойном персептроне – 15.

На основании данных из таблицы 1 мы можем сделать вывод, что нечеткий персептрон обладает хорошими аппроксимативными способностями. В среднем наилучшие результаты были получены при помощи нечеткой Гауссовой функции.

Исследование по аппроксимации плотностей распределения вероятностей данных приемо-сдаточных испытаний

Система была апробирована на данных приемо-сдаточных испытаний двигателя газоперекачивающих агрегатов. Так как распределение вероятности данных в данном случае нам неизвестно, для оценки качества аппроксимации использовался критерий согласия Колмогорова-Смирнова. Данный критерий используется для проверки гипотезы об однородности двух рассматриваемых выборок. В нашем случае сравниваются распределение вероятности реальных данных и выхода нейронной сети [11].

Для данной задачи использовалась конфигурация нейронной сети аналогичная той, что была в прошлом эксперименте с нечеткой Гауссовой функцией.

Результаты анализа представлены на рисунках 2–4 и в таблице 2.

На основании полученных данных мы можем сделать вывод, что нечеткий персептрон обладает хорошими аппроксимативными способностями.

 

Рисунок 2. Сравнение эталона и выхода сети. Данные «Обороты компрессора высокого давления»

 

Рисунок 3. Сравнение эталона и выхода сети. Данные «Обороты компрессора низкого давления»

 

Рисунок 4. Сравнение эталона и выхода сети. Данные «Обороты свободной турбины»

 

Таблица 2. Критерий Колмогорова-Смирнова для данных приемо-сдаточных испытаний

Данные

Критерий Колмогорова-Смирнова

Обороты компрессора высокого давления

0.0003

Обороты компрессора низкого давления

0.0007

Обороты свободной турбины

0.0005

 

Заключение

В данной работе было описано использование нейросетевых методов в задачах аппроксимации плотностей распределения вероятностей. Были проведены эксперименты по подтверждению корректности результатов, а также исследование по выбору оптимальной нечеткой функции. Проведенные исследования показали корректность применения нечеткого персептрона в задачах аппроксимации.

×

About the authors

Artyom A. Tarasov

Samara National Research University

Author for correspondence.
Email: tarasov.aa.1@ssau.ru

PhD Student of Information Systems and Technologies Department

Russian Federation, Samara

Irina V. Lyozina

Samara National Research University

Email: lezina.iv@ssau.ru

Associate Proffessor of Information Systems and Technologies Department

Russian Federation, Samara

References

  1. Prokhorov S.A., Kulikovskih I.M. Numerical Methods, Algorithms, and Software Complexes for Conducting Computational and Experimental Studies. Samara: Insoma-press, 2019, 208 p. (In Russ.)
  2. Prokhorov S.A. Approximative Analysis of Stochastic Processes. Samara: SNTs RAN, 2001, 380 p. (In Russ.)
  3. Terekhov S.A. Neural Network Approximations of Probability Density in Information Modeling Tasks. Nejroinformatika–2002: materialy IV Vserossijskoy nauchno-tekhnicheskoy konferencii. Moscow: MIFI, 2002, pp. 94–120. (In Russ.)
  4. Lyozina I.V. Approximative Analysis of Distribution Laws with Orthogonal Polynomials and Neural Network Models: diss. … cand. tech. sciences. Samara, 2012, 108 p. (In Russ.)
  5. Hajkin S. Neural Networks: 2nd Ed., recycled. Transl. From English. Moscow: OOO «I.D. Vil’yams», 2006, 1104 p. (In Russ.)
  6. Osovskij S. Neural Networks for Information Processing. Transl. From Poland. Moscow: Finansy i statistika, 2002, 344 p. (In Russ.)
  7. Bezdek J.C., Ehrlich R., Full W. FCM: The fuzzy c-means clustering algorithm. Computers and geosciences, 1984, vol.10, no. 2–3, pp. 191–203.
  8. Tarasenko L. Supervised and unsupervised learning in radial basis function classifiers. IEEE Proceedings – Vision, Image and Signal Processing, 1994, no. 4, pp. 210–216.
  9. Györfi L., Devroye L. Nonparametric Density Estimation: The L1-View. Transl. From English. Moscow: Mir, 1988, 408 p. (In Russ.)
  10. Tarasov A.A., Lyozina I.V. A study of the approximative capabilities of a fuzzy perceptron using various kernel functions. Perspektivnye informacionnye tekhnologii (PIT–2020): materialy mezhdunarodnoj nauchno-tekhnicheskoj konferencii. Samara: Izd-vo SNTs RAN, 2020, pp. 61–63. (In Russ.)
  11. Kolmogorov A.N. Theory of Probability and Mathematical Statistics. Moscow: Nauka, 1986, 535 p. (In Russ.)

Supplementary files

Supplementary Files
Action
1. JATS XML
2. Figure 1. Structure of the fuzzy perseptron

Download (861KB)
3. Figure 2. Comparison of benchmark and network output. Data "High Pressure Compressor RPM"

Download (87KB)
4. Figure 3. Comparison of benchmark and network output. Data "Low Pressure Compressor RPM"

Download (82KB)
5. Figure 4. Comparison of benchmark and network output. Data "Free Turbine RPM"

Download (73KB)

Copyright (c) 2023 Tarasov A.A., Lyozina I.V.

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

This website uses cookies

You consent to our cookies if you continue to use our website.

About Cookies