Application of genetic algorithms to optimize solution of filtering and prediction problems in dynamic program testing systems

Abstract

Subject of research: probabilistic time models of testing created to form complex stochastic connections between individual test elements and developed to detect certain groups of the web applications program errors.

The purpose of research: substantiate the possibility of using genetic algorithms in the process of solving probabilistic testing problems based on a multi-particle filter and evaluate their effectiveness. The study provides fundamental methods to improve the accuracy of the posterior distribution of probabilistic testing models and the total number of matched with evidences samples.

Methods and objects of research: object of the research is to solve filtering and smoothing problems for a probabilistic test model based on a multi-particle filter. Methods and algorithms based on the Monte Carlo method are presented, allowing, in combination with genetic algorithms, to increase the accuracy of obtaining posterior estimates of samples. This approach allows you to narrow the range of samples, as well as increase their consistency. The formation of each next sample will be carried out taking into account the previous ones through the use of crossover and mutation operations.

The main results of research: as a result, the validity of the proposed approaches to solving filtration and prediction problems in the process of implementing testing procedures based on multi-particle filter algorithms and genetic algorithms was proved. The given practical results prove the constructiveness and scientific validity of the proposed methods and algorithms for solving web applications testing problems.

Full Text

Введение

Генетические алгоритмы представляют собой универсальный инструмент, основанный на представлении естественного процесса эволюции. Применение генетических алгоритмов к математическим моделям было впервые рассмотрено в работах Холланда. В его работах рассматривается применение теории естественного отбора Дарвина для решения ряда прикладных математических задач поиска, распознавания образов и статистического вывода. Согласно его предположению каждой модели, может быть противопоставлено ограниченное число структур α, представляющих собой некоторое множество хромосом (комбинация генов), изменение которых производит за счет мутации. В таком случае, общая сложность модели будет определяться общим числом генотипов (структура генов). Генетические алгоритмы с научно-практической точки зрения представляют особый интерес для оптимизации процедур обучения и логического вывода вероятностных моделей. Одним из основных алгоритмов решения данных задач является семейство алгоритмов на основе многочастичного фильтра. Решение задачи нелинейной фильтрации на основе генетических алгоритмов было рассмотрено в исследованиях Морала [1, 2]. Суть предложенного подхода заключается в случайной мутации выборок, формируемых в соответствии с переходными вероятностями марковской цепи. В случае динамических вероятностных моделей данный подход не может быть явно применен, так как выборки, подвергнутые мутации предварительно должны соответствовать вероятностному распределению по всем свидетельствам. В связи с этим возникает необходимость пошаговой фильтрации с последующем применением генетического алгоритма уже к сформированному весовому распределению, полученному в соответствии с распределениями переходов и свидетельств для момента времени t+k. Основная особенность предлагаемого подхода заключается в возможности скрещивания выборок, исключительно имеющих общие свидетельства, следовательно, переменные, не имеющие условные связи, будут исключены из генетического алгоритма. В таком случае можно снизить область разброса выборок и повысить степень их согласования со свидетельствами. Для динамических моделей также допустимо использовать свидетельства со всех предыдущих состояний. Следовательно, можно прийти к выводу, что генетические алгоритмы также могут быть использованы в процессе ретроспективного анализа таких моделей, при этом общее число генерируемых выборок для обеспечения требуемой точности может быть сокращено.

Результаты и обсуждение

Вероятностный вывод во временных моделях тестирования

Решение задач вероятностного вывода является одной из основных задач решаемых с помощью вероятностных моделей. Наибольший интерес представляют модели, состоящие из нескольких временных состояний. Среди таких моделей выделяют динамические байесовские (ДБС) сети и скрытые марковские модели (СММ). В исследовании рассмотрим СММ, так как в общем случае ДБС можно представить в виде СММ. СММ является графическим представлением марковского процесса, где каждому срезу соответствует модель перехода PX1|X2 и модель восприятия PE2|X2. Каждому узлу СММ ставится в соответствие таблица условных вероятностей, характеризующая связи как в рамках одного среза, так и нескольких срезов. Типовая структура модели СММ приведена на рис. 1.

 

Рисунок 1 – Структура срытой марковской модели из трех временных срезов.

 

Матрица переходов, соответствующая рис. 1, будет иметь следующий вид:

T=PXt+1|Xt=T11T12T1kT21T22T2kTn1Tn2Tnk,Tij=P(Xt+1=j|Xt=i). (1)

Тогда полное совместное распределение, соответствующее СММ можно записать в следующем виде [3, 4]:

PX,Y=PX0t=1kPXt+1|Xt××j=1kPXj+1|Xj+1==PX0t=1kTijj=1kPXj+1|Xj+1, (2)

где PX0 – начальное распределение вероятностей, соответствующее моменту t=0.

Определив вероятностную семантику СММ, перейдем к рассмотрению алгоритмов вероятностного вывода. Среди различных подходов к решению задачи вероятностного вывода наибольший интересе представляет многочастичный фильтры (МЧФ). Сущность МЧФ заключается в формировании множества независимых друг от друга выборок с соответствующими им весами WX,Y,E. Отметим, что EY – свидетельства, поступающие в виде непрерывного потока плоть до текущего состояния. В данном случае вес будет определять степень согласованности выборок S. В таком случае, условие согласования выборок S со свидетельством E запишем в следующем виде [4, 6]:

PXt+1|E1:t+1=YNXt+1,Y1:t,E1:t×WYSwsXt+1,Y1:t,E1:tW==YPXt+1,Y1:t,E1:t=PXt+1|E1:t+1,W=WXt+1,Y1:t,E1:t , (3)

где NXt+1,Y1:t,E1:t – число выборок, достигающих состояния t+1.

Существует несколько основных подходов к решению задач логического вывода на основе МЧФ. Наибольший интересе представляют МЧФ на основе выборки по значимости (ВЗ) и взвешивания на основе правдоподобия (ВП). В данном исследовании рассмотрим МЧФ с взвешиванием на основе правдоподобия. Данный алгоритм позволяет изначально производить генерацию только из области выборок SX1,X2,,Xn, которые в наибольшей степени согласуются со свидетельствами E=e1,e2,,en. Такое условие достигается за счет того, что в процессе выполнения вероятностного вывода на основе ВП происходит определение и фиксирование переменных свидетельств E, а формирование выборок осуществляется исключительно для всех оставшихся переменных Z=XY, где X переменные запроса и Y переменные состояния. В процессе выполнения алгоритма производится развертывания динамической модели и происходит формирования выборок Sws, которые взвешиваются с учетом их правдоподобия на основе анализа полученных весов WXt+1,Y1:t,E1:t. Веса выборок рассчитываются на основе переходных вероятностей PXt+1|Xt и условного распределения по всем свидетельствам PEt+1|Xt+1. Типовая схема фильтра МЧФ с ВП приведена на рис. 2.

 

Рисунок 2 – Типовая схема МЧФ-фильтра с ВП

 

На рис. 2 W(Xt+1|E1:t+1) – веса выборок S, PEt+1|Xt+1 и PXt+1|Xt модели перехода и восприятия. Рассматривая метод вероятностной оценки выборок на основе ВП, отметим главное его преимущество по сравнению с ВЗ. ВП исключает формирование приближенного распределения по значимости Q(Xt|X0:t1,E1:t). Следовательно, нет необходимости на каждом этапе верификации апостериорного распределения PXt+1|Et+1 производить вычисление дистанции Кульбака-Лейблера (КЛ) для оценки степени соответствия Q(Xt+1|Et+1) и PXt+1|Et+1. Вместо этого в ВП каждая выборка формируется в соответствии с весом Xt+1i~W(Xt+1|X1:t,E1:t+1), при этом выборки с наименьшим весом исключаются из апостериорного распределения. Следовательно, согласно алгоритму ВП степень правдоподобия выборки будет определяться в соответствии с ее весом W(Xt+1|X1:t,E1:t+1). С учетом того, что распределение по всем выборкам прямо пропорционально общему числу выборок , запишем распределение для выборок в соответствии с распределением P(Xt|E1:t):

S(Xt|E1:t)=N×P(Xt|E1:t),N. (4)

Используя переходное распределение вероятностей PXt+1|Xt для модели СММ, приведенной на рисунке 1, можно определить условное распределение по всем выборкам, достигшим состояния t+1 у четом распределения (4). Тогда получим следующую сумму по всем переменных Xt [5, 6]:

S(Xt+1|E1:t)=XtPXt+1|XtS(Xt|E1:t). (5)

Далее используем метод ВП для определения весов для каждой из выборок в соответствии со свидетельствами E1:t:

W(Xt+1|E1:t+1)=PEt+1|Xt+1S(Xt+1|E1:t). (6)

Для повышения доли согласованных выборок используется процедура повторной генерации выборок в соответствии с распределением W(Xt+1|E1:t+1). Каждая следующая выборка формируется случайным образом. Вероятность того, что будет выбрана конкретная выборка будет пропорциональна весу. Тогда, с учетом этого, распределение по всем выборкам можно записать в следующей окончательном виде [7, 8]:

SXt+1|E1:t+1=N×WXt+1|E1:t+1==N×PXt+1|E1:t+1. (7)

Алгоритм МЧФ с ВП является оптимальным алгоритмом вероятностного вывода, обладает высокой степенью параллелизма в связи с тем, что генерация выборок может производиться независимо. Однако на ряду с преимуществами, алгоритм обладает недостатком, связанным с тем, что на этапе повторной генерации формирования очередной выборки формируется случайно, тем самым не учитывается предыстория формирования выборок. Для решения данной проблемы в рамках алгоритма МЧФ предлагается использование генетических алгоритмов (ГА). Применительно МЧФ алгоритм ГА может быть использован на этапе повторного формирования выборок с целью снижения разброса выборок относительно истинного значения и как следствие повышения точности определения апостериорного распределения PXt+1|Et+1. Рассмотрим детально структуру генетического алгоритма, а также возможность его адаптации для решения задач вероятностного вывода в СММ на основе фильтра МЧФ. Основными этапами генетического алгоритма являются: инициализация, отбор, размножение и мутации. На этапе инициализации выбираем множество выборок, веса которых имеют наибольшие значения. Тогда на этапе отбора доля потомков выборок с высоким значением весов будет преобладающей и будет вытеснять все другие выборки. Тогда каждая следующая популяция будет формироваться путем изменения генотипа предшествующей выборки за счет выполнения процедуры мутации. Введем обобщенную формулировку ГА, предложенную Бэком [9, 10] в соответствии с абстрактной моделью Холланда [11]:

Gs=<D0,n,nk,δ,ρ,Ω,f,t>, (8)

где D0={d1,d2,,dn}In,In=0,1nk – начальная популяция частиц, полученная на этапе ВП, In – множество допустимых значений для Xt+1, n– общее число популяция частиц, nk – размер популяции из которой производим отбор выборок, δ – селекция InkIn, Ink – допустимые значения Xt+1 для популяции nk, ρ – скрещивание Ink×Ink+1In, Ω – мутация InIn, f – функция соответствия  In, t – условие останова In0,1.

Начальная популяция D0 формируется в соответствии с PEt+1|Xt+1 и PXt+1|Xt, процедура оценки весов для каждой S0i выполняется в соответствии с алгоритмом ВП. В соответствии с формулой (8) процедура селекции может быть выполнена за счет выборки элементов из множества Dt+1={d1,d2,,dn} в соответствии с равномерным распределением Ps:I0,1. Отметим, что в качестве функции соответствия будем использовать весовое распределение ω=WXt+1|E1:t+1 соответствующее множеству выборок Dt+1. В таком случае, наилучший генотип, соответствующей выборке St+1 можно переделить в виде задача поиска экстремума ω:

D^t+1i=argmaxWXt+1|E1:t+1. (9)

Распределение PDt+1i в общем виде, данное распределение можно выразить через соответствующую функцию соответствия  fDt+1i=ωDt+1i. Имеем

PDt+1i=ωDj=1nωDt+1j. (10)

Селекция, представленная выражением (10), предложена Холландом и является адаптивно-пропорциональной (АП). АП также называют методом рулетки. Данный подход обладает существенным недостатком, связанным с тем, что в результате выполнения АП-селекции можно получить отдельные выборки с высоким показателем функции соответствия ωd. В таком случае, процедура селекции может быть завершена, так и не достигнув своего оптимального состояния. В связи с этим, в работе будем рассматривать метод Бейкера, позволяющий использовать статистическое распределения для задания Pdi. Такой подход наиболее оптимальный при решении вероятностных задач на основе МЧФ. Сформулируем селекцию Бейкера (линейное ранжирование) [12] в виде следующего выражения:

Psi=1Naabi1N1,1a2,b=2a, (11)

где i – порядковый номер особи в популяции частиц, N – общий размер популяция выборки, задаваемый на этапе инициализации алгоритма.

Отметим, что параметр a выбирается случайным образом в соответствии с равномерным распределением U1,2. При отборе методом линейного ранжирования (ЛР) производим упорядочивание популяции выборок в соответствии с их функцией соответствия, в этом случае данная функция будет эквивалентна весовому распределению ω, соответствующему каждой популяции из выборки D. В таком случае получаем, что распределение Pdi будет зависеть только от порядкового номера особи в популяции. Совокупность частиц и соответствующие им веса, упорядоченным согласно весам ω запишем в виде следующего множества:

D=Di1,ωi1,,DiN,ωiN ,i=1,2,,n. (12)

Для оптимизации линейного ранжирования Бейкера можно воспользоваться разделением выборки частиц на соответствующие схемы с минимальными и максимальными весами. В первые использование механизма схем рассмотрено Холландом. Он предполагал, что для формирования схем можно использовать особи со схожим генотипом. В таком случае схему можно определить в следующем виде

HSt+1=ξ=B|ξi1=hi1,ξi2=hi2,,ξin=hin,i1<i2<<in, (13) 

где B – множество генотипов, характерное для популяции частиц St+1i, ξ – генотип.

Учитывая тот факт, что один и тот же генотип может быть характерен одновременно для нескольких особей (частиц), можно определить функция приспособленности популяции частиц Dt+1 с учетом схемы HSt+1. Получим [13, 18]:

fDt+1,Ωt+1=ξt+1Hfξt+1iNHSt+1,Ωt+1, (14)

где Ωt+1– поколений частиц, соответствующих моменту t+1, NHDt+1,Ωt+1 – общее число частиц с генотипом ξ в поколении Ωt+1.

В соответствии с выражением (14) вероятность выживания отдельной популяции частиц будет удовлетворять следующему неравенству:

PlDt+1,Ωt+111PlDt,Ωt××1δHDt+1l1δHDt+1l1, (15)

где δH – длина схемы HDt+1, l – число элементов выборки (частиц).

Для анализа разнообразия популяции выборок можно определить вероятность изменения определенного гена в зависимости от параметров ГА PNHDt+1,Ωt+1 в соответствии с (8). Введем вероятность PDt+1i,HSt+1 , определяющую принадлежность выборки Dt+1i схеме HSt+1. Запишем данную вероятность с учетом выражения (14)

PDt+1i,HDt+1 =NHDt+1,Ωt+1N××fHDt+1,Ωt+1NB,Ωt+1==ξt+1HDt+1fξt+1itj=1Nf(ξt+1jt), (16)

Тогда выражение для расчета PNHSt+1,Ωt+1 будет иметь следующий вид [15, 16]:

PNHDt+1,Ωt+1=N=λ12θN,PNHDt+1,Ωt+1=0=1λ12θN,λ=θ+1δHDt+1l1, (17).

где θ=PDt+1i,HDt+1  – вероятность мутации индивида St+1i в соответствии со схемой HSt+1.

В соответствии с выражением (12) можно определить две группы, соответствующие области низких и высоких весов частиц St+1. Для этого введем критерий разделения. Данный критерий можно получить из нормализации весов ω. Запишем данный критерий в следующем виде:

Nnorm=1j=1Nωji2 (18)

Тогда выборку St+1, соответствующую моменты времени t+1 можно записать в виде совокупности двух групп, соответствующих области высоких и низких весов, разделяемых в соответствии с Nnorm. Получим [17, 18]:

Ht+1=Ht+1'=ξi1,ωi1,,ξik,ωik           Ht+1''=ξik+1,ωik+1,,ξiN,ωiN,kNnorm<k+1,(19)

где Ht+1' и Ht+1'' – схемы выборки, соответствующие области наибольших и наименьшим весов выборок St+1.

Далее перейдем к операции скрещивания популяции частиц для формирования оптимальной выборки. Основной задачей скрещивания является повышения разнообразия популяции частиц, что позволяет получить предельно неповторяющийся набор генотипов частиц в рамках фиксированного момента времени t+1. Для этого воспользуемся равномерным кроссинговером (РК). В классической интерпретации производится равновероятностное копирование генов от нескольких родителей к потомку. Для усиления равномерного кроссинговера, вместо равновероятностного выбора родительских вершин будет использовать метод взвешивания с учетом правдоподобия, а именно для каждой новой генерации оцениваются веса возможных родителей. Тогда процесс скрещивания можно представить в виде следующих уравнений:

D^t+1i,j=D^t+1i=αDti+1βDtjD^t+1j=βDti+1αDti,α=WDtiWDti+WDtj,β=WDtjWDti+WDtj, (20)

где D^t+1i,j – новая популяция частиц, образованная путем скрещивания родителей Dti и Dt+1i из выборки St, α,β – весовые коэффициенты, устанавливающие соответствие между весами родителей WDti и WDtj.

Процедура мутации может быть реализована на основе распределения Гаусса. Каждая мутирующий представитель выборки Dt+1=dt+11,dt+12,,dt+1n будет формироваться в соответствии со следующим выражением:

dt+1'i=Mdti,Mdti=dti+Ν0,σi, (21)

где N0,σi – гауссовское распределение, dt+1i – популяция выборки, полученная на шаге t+1, на основе которой производится мутация, Mdti – процедура мутации для популяции dti.

Приведем укрупненную схему алгоритма фильтрации частиц, используемого в исследовании:

Шаг 1. На начальном срезе из распределения PX0 одновременно генерируется N выборок.

Шаг 2. Вводится множества свидетельств для всех срезов сети E1,E2,...,ET.

Шаг 3. Выполняется перехода от временного среза t к временному срезу t+1. Через модель перехода PXt+1Xt осуществляется обновление множества выборок: NXt+1E1:t=XtPXt+1XtNXtE1:t, NXtE1:t – количество выборок для состояния Xt после получения свидетельств E1:t выборки взвешиваются с учетом правдоподобия по отношению к новым свидетельствам Еt+1, им присваивается вес PЕt+1Xt+1.

Шаг 4. Вычисляется суммарный вес выборок в состоянии Xt+1 после получения свидетельств Еt+1: wXt+1E1:t+1=PEt+1Xt+1PXt+1E1:t отбрасываются выборки с малым весом формируются новые N выборок.

Шаг 5. Формируется новая популяция, состоявшая из N выборок с использование генетического алгоритма, каждая выборка тиражируется пропорционально весу wXt+1E1:t+1. Каждая выборка образуется путем скрещивания родителей Dt+1i и Dt+1i+1 из выборки St+1, полученной на предыдущем шаге. Процедура мутации выполняется в соответствии с выражением (21).

Оценка эффективности применения генетических алгоритмов для решения вероятностных задач тестирования

Оптимизация фильтра МЧФ на основе ГА является важным алгоритмом оптимизации стохастических процедур вероятностного вывода. Для сравнения алгоритмов МЧФ и МЧФ с ГА проведения эксперимента разработаны распределенные алгоритмы, использование которых предусмотрено в рамках параллельной платформы Spark [19], развернутой в облачной среде Yandex Cloud из 6 узлов со следующей аппаратной конфигурацией: 2 процессора Intel Xeon-Platinum 2.5 ГГц 16 ядер, 128 ГБ ОЗУ, жесткий диск 10 ТБ, оптический канал связи 25 Гб/с. По результатам исследования нами решена задача повышения качества формирования выборок на основе МЧФ фильтра. Ее решение заключается в достижении требуемой точности алгоритма за счет применения ГА, что в свою очередь позволяет повысить долю выборок, согласованных со свидетельствами. Применение генетических алгоритмов доказывает правильность выбора исследования, а также состоятельность предложенного подхода.

В рамках практической проверки предложенного метода оптимизации МЧФ на основе ГА произведено его сравнение с классическим МЧФ за счет оценки согласованности выборок на этапе повторной генерации выборок в процессе вероятностного вывода СММ процесса тестирования веб-приложений (441 узел, 195 ребер, 72079 параметров). Каждый узел СММ отвечает зав формирования определенного набора тестовых данных для поиска программных ошибок, связанных с аутентификацией пользователей за счет использования SQL-инъекции. Данная ошибка представляет собой набор SQL-команд с разделителями, позволяющая обходит фильтры безопасности веб-приложений и реализующая возможность получения пользовательские данных, используемые для аутентификации и авторизации. На сегодняшний день можно выделить следующие типы SQL-инъекций, которые могут быть использованы для получения пользовательских данных из веб-приложений, взаимодействующих с системами управления базами данных: Union (Объединенная), Boolean Blind (Логическая.), Time Blind (Временная), Error Blind (На основе ошибок), Stacked Queries (Разделенная) и Out of Band (Внешняя). В таблице 1 приведем основные показатели согласованности ψSt+1 выборок St+1 и свидетельств Et+1 в процессе тестирования веб-приложений на предмет наличия ошибок типа SQLинъекции в зависимости от общего числа свидетельств во всех временных срезах Ne для данной сети с общим объемом выборок Νs=1000000. Отметим, что второй и последующие срезы СММ характеризуются применением межсетевого экрана ModSecurity для блокирования типичных ошибок и оптимизацию формирования выборок для выявления аномальных ошибок.

 

Таблица 1 – Сравнение степени согласованности выборок

Алгоритм

Ne=200

Ne=500

Ne=1000

Ne=5000

1

Алгоритм МЧФ

10%

15%

18%

25%

2

Алгоритм МЧФ с ГА

3%

3%

3%

3%

 

Из таблицы 1 получаем важный практический результат, заключающийся в том, что при использовании алгоритма ГА совместно с МЧФ наблюдаем фиксированную степень согласованности выборок вне зависимости от числа переменных свидетельств Ne. Следовательно каждая результирующая популяция, полученная по итогам выполнения алгоритма ГА, будет иметь наибольшее значение функции приспособленности ω, что ведет к повышению точности апостериорного распределения вероятностей PXt+1|Et+1. Другая особенность заключается в том, что при использовании ГА можно ограничить общее число первоначально формируемых выборок , при этом можно повысить число шагов мутаций на этапе повторного взвешивания. Такой подход позволяет настроить точность алгоритма за минимальное число шагов алгоритма МЧФ. Отметим, что применение алгоритма ГА без МЧФ к СММ не имеет смысла, так как в процессе выполнения генетического алгоритма нет необходимой информации относительно свидетельств, а также вероятностных связей между тиражируемыми между срезами переменными. С помощью ГА можно оптимизировать существующую выборку, полученную по результатам выполнения МЧФ-фильтрации. Следовательно, для повышения эффективности МЧФ можно использовать различные подходы к его распараллеливанию, в таком случае формирование выборок St+1будет выполняться независимо друг от друга. В таблице 2 приведем сравнительные характеристики двух программных реализаций алгоритмов МЧФ и МЧФ с ГА.

 

Таблица 2 – Сравнение производительности программных реализаций алгоритмов

Алгоритм

Однопоточный
режим

Параллельный
режим на 1 узле

Параллельный
режим на 6 узлах

1

МЧФ

844,28878670758 сек.

648,15711330071 сек.

305,911736891564 сек.

2

МЧФ с ГА

851,96107700558 сек.

656,059819253189 сек.

321,565701030924 сек.

 

Из анализа таблицы 2 следует, что применение ГА в незначительной степени сказывается на производительности алгоритма. Однако при использовании МЧФ с ГА количество выборок необходимых для достижения требуемого уровня согласованности ψSt+1 может быть существенно сокращено за счет повышения доли популяций, согласованных со свидетельствами Et+1.

Заключение и выводы

Решение задач оптимизации, существующих алгоритмов вероятностного вывода является актуальным направлением исследования. В первую очередь это связано с повышением сложности вероятностных моделей, повышением числа скрытых переменных, а также роста потока свидетельств на каждом из временных срезов. В работе рассмотрено применение предложенных подходов к скрытым марковским моделям, однако данные алгоритмы могут быть адаптированы для реализации процедуры логического вывода, как в статических, так и динамических вероятностных моделях. Использование ГА в процессе МЧФ-фильтрации позволяет решить задачу качества формирования выборок, взамен использования случайной выборки в процессе повторной генерации используется генетический алгоритмы. Такой подход позволяет повысить точность апостериорного распределения с условий роста переменных-свидетельств Et+1, а также в полной мере использовать алгоритм взвешивая с учетом правдоподобия для формирования весовых распределений для первичной популяции выборок D0=d1,d2,,dn. Применение модели схем Холланда позволяет разграничить области выборок с разными генотипами в соответствии с распределением WXt+1|E1:t+1. Это достигается за счет того, что в рамках ГА весовое распределение выбирается в качестве функции соответствия, устанавливающей соответствия весов и каждой популяции частиц, входящей в состав выборки. Отметим, что предложенный алгоритм обладает схожей с классическим МЧФ производительности, однако позволят повысить область согласования выборок в соответствии с потоком свидетельств E1:t+k=e1,e2,,en, поступающих вплоть до момента времени t+k. Разработанный алгоритм является достаточно хорошо масштабируемым и его можно распараллелить. В этом случае процедура формирования выборок St+1 может выполняться независимо. Процедуру распараллеливания ГА можно реализовать на этапе скрещивания и мутации, так как отбор родителей особи каждой следующей популяции выбирается в соответствии с весами потомков, которые уже заранее известны. Практические результаты анализа эффективности предложенного алгоритма позволяют прийти к выводу, что незначительно снижение производительности за счет использования в процессе выполнения ГА операций селекции, скрещивания и мутации по сравнению с классическим алгоритмом МЧФ позволяют повысить точность апостериорного распределении и степень согласования выборок в соответствии со свидетельствами, вне зависимости от общего их числа. Такой подход позволяет использовать разработанный алгоритм при решении задач логического вывода в различных динамических вероятностных моделях с неограниченным числом временных состояний. Все это доказывает обоснованность и практическую значимость проведенных исследований.

×

About the authors

Pavel V. Polukhin

Voronezh State University

Author for correspondence.
Email: alfa_force@bk.ru

Candidate of Technical Sciences, Lecturer of the Faculty of Applied Mathematics, Informatics and Mechanics

Russian Federation, Voronezh

References

  1. Костенко, В. А. Генетически алгоритм с самообучением / В. А. Костенко, А. В. Фролов. – Текст : непосредственный // Известия РАН. Теория и системы управления. – 2015. – № 4. – C. 24–38.
  2. Moral, P. D. On the concentration Properties of interacting particle processes / P. D. Moral, P. Hu, L. Wu // Machine learning. – 2010. – Vol. 3, № 4, – P. 225–389.
  3. Moral, P. D. Particle filter: An introduction with application / P. D. Moral, A. Doucet // ESAIM. – 2014. – Vol. 14. – P. 1–46.
  4. Рыбаков, К. А. Непрерывные фильтры частиц и их реализация в реальном масштабе времени / К. А. Рыбаков, А. А. Ющенко. – Текст : непосредственный // Вестник Воронежского государственного университета. Серия: Системный анализ и информационные технологии. – 2018. – № 3. – C. 56–64.
  5. Евстигнеев, М. И. Локализация мобильного робота с фильтром частиц при обнаружении и сегментации объектов / М. И. Евстигнеев, Ю. В. Литвинов, В. В. Мазулина. – Текст : непосредственный // Научно-технический вестник информационных технологий, механики и оптики. – 2019. – Т. 19, № 4. – C. 622–629.
  6. Волков, В. А. Численное решение задач нелинейной фильтрации на основе алгоритмов фильтра частиц / В. А. Волков, И. А. Кудрявцев. – Текст : непосредственный // Труды МАИ. – 2016. – № 89. – C. 1–21.
  7. Тулупьев, А. Л. Апостериорные оценки вероятностей в алгебраических байесовских сетях / А. Л. Тулупьев. – Текст : непосредственный // Вестник Санкт-Петербургского университета. Серия 10: Прикладная математика. Информатика. Процессы управления. – 2012. – № 2. – C. 51–59.
  8. Yin, S. Intelligent particle filter and its application to fault detection of nonlinear system / S. Yin, X. Zhu // IEEE Transactions on Industrial Electronics. – 2015. – Vol. 62, № 5. – P. 3852–3861.
  9. Russel, S. Artificial intelligence a modern approach, 4 edition / S. Russel, P. Norvig. – Hoboken : Pearson, 2020. – 1023 p.
  10. On some properties of Markov chain Monte Carlo simulation methods based on the particle filter / M. K. Pitt, R. S. Silva, P. Giordani, R. Kohn // Journal of Econometrics. – 2012. – Vol. 171, № 2. – P. 134–151.
  11. Golightly, A. Bayesian parameter inference for stochastic biochemical / A. Golightly, D. J. Wilkinson // Interface Focus. – 2011. – Vol. 1, № 6. – P. 807–820.
  12. Bunch, P. Improved particle approximations to the joint smoothing distribution using Markov chain Monte Carlo / P. Bunch, S. Godsill // IEEE Transactions on Signal Processing. – 2013. –Vol. 61, № 4. – P. 956–953.
  13. Azarnova, T. V. Advanced hybrid stochastic dynamic Bayesian network inference algorithm development in the context of the web applications test execution / T. V. Azarnova, P. V. Polukhin // Journal of Physics: Conf. Series: Materials Science and Engineering. – 2019. – Vol. 537. – P. 052028.
  14. Белых, М. А. Схема работы выбора эволюционного алгоритма интеллектуальной системы / М. А. Белых, А. В. Барабанов. – Текст : непосредственный // Информационные технологии моделирования и управления. – 2021. – Т. 128, № 128. – C. 114–117.
  15. Галуа, Д. В. Об алгоритме возмущения полудискретной схемы для эволюционных уравнений и оценки погрешности приближенного решения с помощью полугрупп / Д. В. Галуа, Д. Л. Рогаева. – Текст : непосредственный // Журнал вычислительной математики и математической физики. – 2016. – Т. 59, № 7. – C. 1299–1322.
  16. Структура интеллектуальной системы поддержки эволюционных алгоритмов / М. А. Белых, В. Ф. Барабанов, С. Л. Подвальный, А. К. Донских. – Текст : непосредственный // Вестник Воронежского государственного технического университета. – 2021. – Т. 17, № 3. – C. 7–13.
  17. Лотов, А. В. Простая эффективная гибридизация классической глобальной оптимизации и генетических алгоритмов многокритериальной оптимизации / А. В. Лотов, А. И. Ряби-ков. – Текст : непосредственный // Журнал вычислительной математики и математической физики. – 2019. – Т. 59, № 10. – C. 1666–1680.
  18. Денисова, Л. А. Проектирование систем управления на основе многокритериальной оптимизации с использованием генетических алгоритмов / Л. А. Денисова, В. А. Мещерякова. – Текст : непосредственный // Автоматизация в промышленности. – 2015. – № 10. – C. 18–24.
  19. Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing / M. Zaharia, M. Chowdhury, T. Das [et al.] // NSDI. – 2012. – P. 1–15.

Supplementary files

Supplementary Files
Action
1. JATS XML
2. Figure 1 - Structure of the torn Markov model of three time slices.

Download (98KB)
3. Figure 2 - Typical schematic diagram of the MFF-filter with EP

Download (119KB)

Copyright (c) 2023 Yugra State University

Creative Commons License
This work is licensed under a Creative Commons Attribution-ShareAlike 4.0 International License.

This website uses cookies

You consent to our cookies if you continue to use our website.

About Cookies