Active adaptation of a distributed multi-sensor filtering system

Abstract


A multi-sensor filtering system is characterized mathematically as a result of the solution to the problem of synthesizing the multi-dimensional discrete system of filtering a single signal from heterogeneous data sources.The stationary problem statement has three variants of its solution: by Kolmogorov–Wiener, Kalman covariance, and Kalman information forms.In the body of the paper, we actualize a problem of these solutions under uncertainty conditions.Aimed at the Active Principle of Adaptation, we have found a method to form an instrumental performance index to substitute the inaccessible original performance index (filtering error mean square) by that criterion functional we created. This substitution makes it possible to apply for system adaptation all apparatus and tools of practical optimization methods, first of all, the gradient and Newton-like methods.
Our findings follow:
– Stretching one-step prediction and measurement update operations are wise to perform at the Decision Making Center; computation operations aimed to minimize the instrumental performance index are to be done in this place, too.
– Uncompounded procedures of adaptive data scaling are advisable to complete at the sensors' location in the network.
– Adaptation algorithms may be implemented based for filter structures taken in different forms: Kolmogorov–Wiener, Kalman covariance, or Kalman information forms.
– Computational operations for minimizing the instrumental performance index would be beneficial to develop as versions to implement the modern practical optimization methods of different levels of complexity.

Full Text

\Section[n]{Введение} %\label{intro} Мультисенсорная (многоканальная) задача выделения полезной информации о состоянии сложного объекта не является принципиально новой [1] Наглядным примером может служить любая комплексная навигационная система. Построение фильтра, выделяющего информацию о движении объекта из данных не одного, а многих разнородных измерителей, позволяет не только обеспечивать критически важное свойство наблюдаемости системы <<объект+сенсоры>>, но --- что важнее --- получать существенный выигрыш в~точности по сравнению с односенсорной системой. В~последнее время эта задача получила развитие, связанное с~пространственным разнесением сенсоров, --- возможностью децентрализации вычислений. Поднимаются новые вопросы: какую часть таких вычислений целесообразно передавать аппаратуре, размещенной в~местах нахождения сенсоров (МНС), а~какую --- оставлять в~центре принятия решений (ЦПР)? Как согласовывать между собой обработку информации <<на местах>> и~в~центре? Как могут отдельные сенсоры взаимодействовать между собой, чтобы улучшать генеральный показатель качества решения задачи оценивания состояний наблюдаемого и/или управляемого объекта? В~математическом смысле синтез \emph{стационарного} оптимального фильтра в~мультисенсорном классе линейных систем является частным случаем общей задачи Колмогорова--~Винера при бесконечном времени работы системы. Показателем качества решения служит сумма дисперсий ошибок всех каналов фильтрации $J_{e}$, где $e$ --- вектор ошибок (разность желаемого сигнала и~выхода фильтра) [1, c. 218]. Классический подход рассматривает $J_{e}$ как исходный функционал качества (ИФК) от передаточных функций $G(z)$ многоканальной системы дискретных фильтров: $J_{e}= J_{e}[G(z)]$. Многомерный фильтр $G_{\star}(z)$ называют оптимальным, если он минимизирует ИФК: $G_{\star}(z) \triangleq \arg \!\min_{G(z)} J_{e}[G(z)]$. Задача отыскания $G_{\star}(z)$ является вариационной задачей, и~ее решение хорошо известно [1, c. 219–253]. Теория фильтрации Калмана учитывает эффекты нестационарности и конечности времени работы фильтров. Вывод алгоритма фильтрации Калмана в~этой более общей теории базируется на байесовской постановке задачи оценивания, где за~показатель качества принимают совместную плотность распределения вероятностей (ПРВ) измерений и~оцениваемой величины и~максимизируют эту функцию плотности, что выражает собой \emph{<<принцип безусловного максимума правдоподобия>>} [2, c. 51] Когда условная ПРВ оцениваемой величины при учете полученных измерений является гауссовской плотностью, то оптимальная оценка дается условным математическим ожиданием, поскольку гауссовская ПРВ достигает максимума именно в~точке среднего значения [3, c. 217]. Отметим, что байесовская задача в~этом случае снова сводится к минимизации среднеквадратического функционала [4, c. 179]. Фильтр Калмана особо важен \emph{в~стационарном случае}: $(1^\circ)$ параметры задачи постоянны, $(2^\circ)$ модель стохастического сигнала (объекта) обладает свойством стабилизируемости, $(3^\circ)$ добавление к ней сенсоров придает этой системе свойство наблюдаемости, $(4^\circ)$ сенсоры обладают ненулевыми погрешностями и~$(5^\circ)$ время наблюдения бесконечно. В~этом случае решение задачи Калмана совпадает с~решением задачи Колмогорова--~Винера [4, c. 185]. Наряду с классическим фильтром Калмана в настоящее время разработаны различные методы калмановской фильтрации для распределенных мультисенсорных систем. Наиболее известными являются параллельный инфор- мационный фильтр [5], распределенный информационный фильтр [6], распределенный фильтр Калмана с консенсусным фильтром [7], распределенный фильтр Калмана со взвешенным усреднением [8]. Термин <<распределенная фильтрация>> означает, что средства измерения разнесены в пространстве. В распределенной сети сенсоров может присутствовать ЦПР, в котором вычисляется оптимальная оценка вектора состояния системы. Отдельные сенсоры (узлы сети) могут обмениваться данными как с ЦПР, так и со своими соседями в соответствии с топологией сети, которая может быть задана заранее либо может изменяться во времени. Задача децентрализованной фильтрации Калмана отличается тем, что в ней отсутствует ЦПР, а каждый сенсор содержит свой локальный процессор для вычисления оптимальной оценки вектора состояния. Эта задача впервые была решена в [5] в 1979 г., а также ее независимое решение представлено в [9]. Подробный обзор современных методов распределенной фильтрации Калмана можно найти в [10]. В настоящее время теория распределенной фильтрации Калмана для мультисенсорных систем продолжает активно развиваться, о чем свидетельствует большое число недавних публикаций, среди которых отметим [11–15]. Однако известные решения указанных задач опираются на полное знание моделей и числовых значений параметров, характеризующих движение объекта и свойства сенсоров. Такое знание возможно лишь теоретически. Его отсутствие на практике вынуждает: либо $(A)$ удовлетворяться субоптимальными решениями, либо $(B)$ прибегать к адаптивным решениям, либо $(C)$ имитировать более сложные (высокоинтеллектуальные) действия человека по извлечению недостающих знаний (или по компенсации их неполноты) в классе самоорганизующихся --- \emph{самооптимизирующихся} --- систем. Предпринятое исследование мотивировано целями $(B)$ и $(C)$. Их может объединить вопрос данной статьи: как применять \emph{активный принцип адаптации} (самооптимизации) к~мультисенсорной системе фильтрации? Пассивный принцип адаптации означает опору на предварительное оценивание неизвестных параметров с тем, чтобы затем эти оценки подставлять в классические решения задач фильтрации в \emph{пассивном} ожидании, что это даст положительный эффект. Активный же принцип адаптации (АПА) означает критериальную самооптимизацию системы [16]. Средняя норма ошибок фильтрации как исходный функционал качества (ИФК) не может служить инструментом самооптимизации. АПА ищет ответ на вопрос: как построить такой вспомогательный функционал качества (ВФК), который эквимодален ИФК, но доступен как инструмент самооптимизации?. При этом \emph{эквимодальность} ИФК и ВФК означает: \emph{аргументы, доставляющие им минимум, совпадают, и поэтому их минимальные значения достигаются синхронно.} Раздел~\hyperlink{thsyg:sect1}{1} содержит строгие формулировки решаемой задачи. В~разд.~\hyperlink{thsyg:sect2}{2} приведен компактный вид оптимального фильтра Колмогорова--~Винера, чтобы обособить ту часть вычислений, которая одинакова для всех каналов. Раздел~\hyperlink{thsyg:sect3}{3} дает запись этого решения в ковариационной форме фильтра Калмана и~явный вид решения алгебраического уравнения Риккати, что позволяет знать заранее те пределы, к которым должны сходиться соответствующие характеристики адаптивного фильтра. Информационный фильтр Калмана приведен в~разд.~\hyperlink{thsyg:sect4}{4} ввиду перспективы использования в режиме адаптации. Раздел~\hyperlink{thsyg:sect5}{5} конкретизирует модель адаптивного фильтра и алгоритмы ее оптимизации. В~разд.~\hyperlink{thsyg:sect6}{6} сформирован вспомогательный функционал качества, позволяющий реализовать алгоритмы, приведенные в~разд.~\hyperlink{thsyg:sect5}{5}. Численный пример помещен в~разд.~\hyperlink{thsyg:sect7}{7} для экспериментального подтверждения полезности найденного решения. Заключение сообщает, какие выводы дает и какие возможности открывает эта работа. \smallskip \hypertarget{thsyg:sect1}{} \Section{\label{characterization} Характеристики задачи: исходные предположения и формальные обозначения} Мультисенсорность означает, что измеряемые сигналы $\{y^{(i)}(t)\mid i=\overline{1,m}\}$ от $m>1$ сенсоров находятся в функциональной зависимости от одного полезного сигнала $x(t)$, где $t$ --- непрерывное время [1, c. 223]. Практическим примером может быть обработка данных множества радио-допплеровких измерителей скорости движения летательного аппарата (ЛА). В этом контексте скорость движения ЛА является тем полезным сигналом $x(t)$, который нужно оценивать по данным измерений $y_i(kT)$, доступным от $i=1,2,\ldots, m$ сенсоров в дискретные моменты времени $t_k\triangleq kT$, $k=1,2, \ldots $, где $T$ обозначает заданный темп измерений. Типична ситуация, когда $x(t)$ моделирует не саму скорость, а отклонение скорости от некоторого известного (программного) режима движения объекта. Эти отклонения вызваны реальными возмущениями со стороны той стохастической среды, в которой происходит физическое движение. Для ЛА это --- воздушная среда, для морского объекта --- водная среда. Ситуация, когда среда стационарна (нормальный режим функционирования), дает основание принять первое базовое предположение: полезный сигнал $x(t)$ --- стационарный случайный процесс с нулевым средним значением и корреляционной функцией $R_{xx}(\tau)$. Второе базовое предположение задачи фильтрации характеризует сенсоры --- источники первичной (измерительной) информации. Исходим из типовых предположений о том, что погрешности $v_i(kT)$ присутствуют в измерениях аддитивно: $$ y_i(kT)=x(kT)+v_i(kT), \quad i=1,2,\ldots, m, $$ что они не коррелированы между собой и с полезным сигналом и что сенсоры работают с таким темпом $T$ дискретизации времени, который позволяет применять для их погрешностей гипотезу дискретного белого шума с нулевым средним значением $\E{v_i(kT)}=0$ и с ненулевыми дисперсиями $B^2_{\star,i}$: $$ \E{v_{i}(kT)v_{j}(lT)} = \left\{ \begin{aligned} B_{\star, i}^{2} \; &, \quad i=j \; \& \; k=l\,, %[-2ex] 0 \; &, \quad i\ne j \vee k\ne l\,. \end{aligned}\right. $$ Обозначим векторы поступающих данных и ошибок наблюдений в момент $kT$ как $y(kT)$ и $v(kT)$: \begin{equation} \label{y=H+v} \left. \begin{aligned} y(kT) &\triangleq \left[ y_1(kT) \bigm| y_2(kT) \bigm| \cdots \bigm| y_m(kT) \right]^{\top} = Hx(kT) + v(kT), %[-2ex] H &= \left[\rule{0ex}{2ex}\hphantom{w} 1\hphantom{v} \bigm| \hphantom{v} 1\hphantom{v} \bigm|\cdots \bigm|\hphantom{v} 1 \hphantom{w} \right]^{\top}, %[-2ex] v(kT) &= \left[ v_1(kT) \bigm| v_2(kT) \bigm| \cdots \bigm| v_m(kT) \right]^{\top}, %[-2ex] R_\star &= \E{v(kT)v^{\top}(kT)} = \diag{ \left[ B_{\star, 1}^{2} \bigm| B_{\star, 2}^{2}\bigm| \cdots \bigm| B_{\star, m}^{2} \right]. } \end{aligned}\quad \right\} \end{equation} Введем составной вектор, который объединяет всю историю наблюдений, доступных к настоящему моменту времени $kT$, и обозначим его как $$ %\begin{equation} \label{compositeY} Y(kT)\triangleq \left[ y(kT)^{\top} \bigm| y(kT-T)^{\top} \bigm| \cdots \bigm| y(kT -jT)^{\top} \right]_{j\to\infty}^{\top}. $$ Это случайный вектор растущей со временем размерности $m\times (j+1) \bigm| {j=0,1, \ldots}$\,, чье реализованное значение обозначим соответственно: \begin{equation} \label{realizedY} %$$ Y_{k}\triangleq \left[ y_{k}^{\top} \bigm| y_{k-1}^{\top} \bigm| \cdots \bigm| y_{k-j}^{\top} \right]_{j\to\infty}^{\top}. %$$ \end{equation} % \Phi_{v_i v_i}(z) = B^2_{\star,i}>0, \quad i=1,2,\ldots, m. Предполагаем (для определенности), что для $x(t)$ приемлема $R_{xx}(\tau)$ в~простом виде: \begin{equation}\label{signal-corr-func} R_{xx}(\tau) = A_\star^2 e^{-\alpha_\star |\tau|}, \end{equation} чтобы в последующем анализе суть решения оказалась проявлена не в~технических деталях, вызванных более сложной моделью, а в принципиальных особенностях мультисенсорной постановки. Этой функции \eqref{signal-corr-func} соответствует следующая дискретная спектральная плотность сигнала [1, c. 232]: \begin{equation}\label{signal-spectral-dens} \Phi_{xx}(z) \triangleq \mathcal Z_{II}\{R_{xx}(\tau)\} = \sum_{k=-\infty}^{\infty} z^{-k}R_{xx}(kT) = \frac{A_\star^2(1-d_\star^2)}{(1-d_\star z)(1-d_\star z^{-1})}, \end{equation} где $d_\star\triangleq e^{-\alpha_\star T}$, $z=e^{pT}$ --- переменная $z$-преобразования, $p$ --- переменная преобразования Лапласа, $\mathcal Z_{II}\{\cdot\}$ обозначает двустороннее $z$-преобразование, применяемое к $\{\cdot\}$, в данном случае к $\{R_{xx}(\tau)\}$. Перейдем к бесскобочным обозначениям $x_{k}\triangleq x(kT)$, $y_k^{(i)} \triangleq y_i(kT)$, $y_k \triangleq y(kT)$ и т.\,п. для функций дискретного времени $kT$ и будем применять соответствующие им односторонние $z$-преобразования $$ %\begin{equation} \label{z-transforms} \begin{array}{rcl} x(z) & \triangleq & \mathcal Z_{I}\{x(kT)\} = \sum_{j=0}^{\infty} z^{-j} x_j, y^{(i)}(z) & \triangleq & \mathcal Z_{I}\{y_i(kT)\} = \sum_{j=0}^{\infty} z^{-j} y_j^{(i)}, y(z) & \triangleq & \mathcal Z_{I}\{y(kT)\} = \sum_{j=0}^{\infty} z^{-j} y_j. \end{array} %\end{equation} $$ Факторизация $\Phi_{xx}(z) = F_\star(z^{-1})\Phi_{ww}(z)F_\star(z)$ спектральной плотности \eqref{signal-spectral-dens} при задании $\Phi_{ww}=1$ означает, что стационарный процесс $x_k$ может быть рассмотрен как сформированный устойчивым дискретным фильтром с передаточной функцией $$ %\begin{equation} \label{form-filter} F_\star(z) = \frac{A_\star\sqrt{1-d_\star^2}}{1-d_\star z^{-1}} %\end{equation} $$ из дискретного белого шума $w_k$ с единичной дисперсией [1, p. 209]. Это означает, что \begin{equation} \label{our-model} \left. \begin{aligned} x_k &= d_\star x_{k-1}+ {A_\star\sqrt{1-d_\star^2}}\, w_k, %[-2ex] y_{k}^{(i)} &= x_k + v_k^{(i)}, \quad i=1,2,\ldots, m. \end{aligned}\quad \right\} \end{equation} В гауссовской трактовке имеем ПРВ в явном виде [3, c. 209, 215]: \begin{equation} \label{prob-densities} \left. \begin{aligned} f_{x(kT)\,\vert\, Y(kT-T)} (\xi\bigm| Y_{k-1}) &= \frac{1}{\sqrt{2\pi \mathring p_{k}^{-}}} \exp\left\{- \frac{(\xi - \mathring x_{k}^{-})^2}{2\mathring p_{k}^{-}}\right\}, %[-2ex] & (\text{первый этап --- прогноз на 1 шаг),} f_{x(kT)\,\vert\, Y(kT)} (\xi\bigm| Y_{k}) &= \frac{1}{\sqrt{2\pi \mathring p_{k}^{+}}} \exp\left\{- \frac{(\xi - \mathring x_{k}^{+})^2}{2\mathring p_{k}^{+}}\right\}, & (\text{второй этап --- обновление),} \end{aligned}\quad \right\} \end{equation} где присутствуют: $\mathring x_{k}^{-}$ --- оптимальное предсказание значения $x_{k}$, сформированное \emph{сразу после} учета измерения $y_{k-1}$ \emph{вперед к приходу} измерения $y_{k}$; $\mathring p_{k}^{-}$ --- дисперсия ошибки оценки $\mathring x_{k}^{-}$; $\mathring x_{k}^{+}$ --- оптимальная оценка значения $x_{k}$, обновленная \emph{в момент} прихода и учета $y_{k}$; $\mathring p_{k}^{+}$ --- дисперсия ошибки оценки $\mathring x_{k}^{+}$. Как отмечено выше, для их вычисления нужно иметь полное знание всех параметров: $\{ d_\star, A_\star^2, B_{\star,i}^{2} \bigm| i=1,2,\ldots, m \}$. Если их не имеем, то возможны лишь субоптимальные (или адаптивные) оценки, которые будем обозначать, соответственно, так: $\hat x_{k}^{-}$ вместо $\mathring x_{k}^{-}$; $\hat p_{k}^{-}$ вместо $\mathring p_{k}^{-}$; $\hat x_{k}^{+}$ вместо $\mathring x_{k}^{+}$; $\hat p_{k}^{+}$ вместо $\mathring p_{k}^{+}$. Они будут возникать из-за того, что вместо точных $\{ d_\star, A_\star^2, B_{\star,i}^{2} \bigm| i=1,2,\ldots, m \}$ приходится применять неточные значения $\{ d, A^2, B_{i}^{2} \bigm| i=1,2,\ldots, m \}$, чем и вызываются субоптимальные (или адаптивные) значения параметра фильтра, обозначаемые обобщенно как $\theta$ вместо его оптимального значения $\mathring \theta_{\star}$. Субоптимальные (или адаптивные) оценки ставятся в зависимость от $\theta$ так же, как ИФК, в роли которого равноправно пригоден любой из среднеквадратических критериев: \begin{equation}\label{OPI} \begin{array}{rclcrcl} J_{e}^{-}(\theta) & \triangleq & \E{[\hat e_{k}^{-}(\theta)]^2} & \text{или~} & J_{e}^{+}(\theta) & \triangleq & \E{[\hat e_{k}^{+}(\theta)]^2}, \hat e_{k}^{-}(\theta) & \triangleq & x_k - \hat x_{k}^{-} (\theta) & \text{или~} & \hat e_{k}^{+}(\theta) & \triangleq & x_k - \hat x_{k}^{+} (\theta). \end{array} \end{equation} \smallskip \hypertarget{thsyg:sect2}{} \Section{\label{Kolmogorov-Wiener} Задача Колмогорова--~Винера в мультисенсорной постановке} \linebreak Минимизация критерия $J_{e}^{+}(\theta) = J_{e}^{+}[G(z)]$, который сейчас определяется как функционал от вектора $G(z)=\left[ G^{(1)}(z) \bigm| G^{(2)}(z) \bigm| \cdots \bigm| G^{(m)}(z) \right]^{\top}$ передаточных функций $m$-канальной системы % фильтров с выходом $\hat x^{+}(z)\triangleq G(z)^{\top} y(z)$, дает оптимальное значение $G_{\star}(z)=\left[ G_{\star}^{(1)}(z) \bigm| G_{\star}^{(2)}(z) \bigm| \cdots \bigm| G_{\star}^{(m)}(z) \right]^{\top}$ с передаточными функциями $G_{\star}^{(i)}(z) = \mathring a_{\star}^{(i)}/[1- \mathring \mu_{\star} z^{-1}]$, $i=1,2,\ldots,m$ для формирования оптимальной оценки $\hat x^{+}(z) = G_{\star}(z)^{\top} y(z)$, причем коэффициент $\mathring a_{\star}^{(i)}$ в числителе $i$-той передаточной функции индивидуален, а коэффициент $\mathring \mu_{\star}$ в знаменателе у всех передаточных функций один и тот же [1, c. 241–245]: \begin{equation} \label{i-filter-opt-transfer} \left. \begin{aligned} \mathring a_{\star}^{(i)} &= K_{i}^{\star}\mathring a_\star, \quad K_{i}^{\star} \triangleq {B_\star^2} / B_{\star,i}^{2}, \quad {B_\star^2} \triangleq 1\Big/ \sum_{l=1}^{m} \left( 1/B_{\star,l}^{2} \right), \quad \sum_{l=1}^{m} K_{i}^{\star} =1, %[-2ex] \mathring a_\star &= 1- \mathring \mu_\star d_\star^{-1}, \quad \mathring \mu_\star \triangleq e^{-\mathring \alpha_\star T}, \quad \ch \mathring \alpha_\star T = \ch \alpha_\star T + \frac{A_\star^2}{B_\star^2}\sh \alpha_\star T. \end{aligned}\quad \right\} \end{equation} Соответственно, во временн\'{о}й области получаем частные оценки $\mathring x_{k}^{+(i)}$ и итоговую оценку $\mathring x_{k}^{+}$: \begin{equation} \label{i-filter-opt-intime} \left. \begin{aligned} & \eqref{i-filter-opt-intime}^{a} \quad \mathring x_{k}^{+(i)} =\mathring \mu_\star \mathring x_{k-1}^{+(i)}+\mathring a_\star^{(i)} y_{k}^{(i)},\quad i=1,2,\ldots,m, %[-2ex] & \eqref{i-filter-opt-intime}^{b} \quad \mathring x_{k}^{+} \triangleq \sum_{i=1}^{m} \mathring x_{k}^{+(i)} = \mathring \mu_\star \mathring x_{k-1}^{+} + \mathring a_\star \sum_{i=1}^{m} K_{i}^{\star}y_{k}^{(i)}. \end{aligned}\quad \right\} \end{equation} Это решение представим оптимальной моделью ${\mathfrak{M}}({\mathring \theta_\star})$ \eqref{opt-filter} и ее вектор-параметр обозначим ${\mathring \theta_\star}$, \eqref{opt-filter}$^{g}$: \begin{equation} \label{opt-filter} \left. \begin{aligned} \eqref{opt-filter}^{a} & \quad \mathring x_{k}^{+}=\mathring \mu_\star \mathring x_{k-1}^{+}+\mathring a_\star y_{k}^\star, \; y_{k}^\star \triangleq \sum_{i=1}^{m} y_{k}^{(\star,i)}, & \quad y_{k}^\star = x_k + v_k^\star, \; v_k^\star = \sum_{i=1}^{m} K_{i}^{\star} v_{k}^{(i)}, %[-2ex] \eqref{opt-filter}^{b} & \quad y_{k}^{(\star,i)} \triangleq K_{i}^{\star} y_{k}^{(i)}, %[-3ex] \eqref{opt-filter}^{c} & \quad \mathring \mu_\star \triangleq e^{-\mathring \alpha_\star T}, \quad \ch \mathring \alpha_\star T = \ch \alpha_\star T + \frac{A_\star^2}{B_\star^2}\sh \alpha_\star T, %[-3ex] \eqref{opt-filter}^{d} & \quad \mathring a_\star = 1- \mathring \mu_\star d_\star^{-1}, %[-2ex] \eqref{opt-filter}^{e} & \quad {B_\star^2} \triangleq 1\Big/ \sum_{l=1}^{m} \left( 1/B_{\star,l}^{2} \right),\quad {B_\star^2} = \E{ \left[ v_{k}^{\star} \right]^2 }, %[-3ex] \eqref{opt-filter}^{f} & \quad K_{i}^{\star} \triangleq {B_\star^2} / B_{\star,i}^{2}, \quad \sum_{l=1}^{m} K_{i}^{\star} =1, %[-2ex] \eqref{opt-filter}^{g} & \quad \mathring \theta_\star \triangleq \left\{ \mathring \mu_\star, \mathring a_\star, B_{\star,i}^{2} \bigm| i=1,2,\ldots, m \right\} = \arg\!\min_{\hat x_{k}^{+}}J_{e}^{+}(\theta), %[-2ex] \eqref{opt-filter}^{h} & \quad \min\left[J_{e}^{+}(\theta)\right]_{\hat x_{k}^{+}} = {B_\star^2} \mathring a_\star \triangleq J_{e}^{+}(\mathring \theta_\star) = \E{[ \mathring e_{k}^{+} ]^2}, & \quad \mathring e_{k}^{+} \triangleq x_k - \mathring x_{k}^{+} (\theta). \end{aligned} \right\} :{\mathfrak{M}}({\mathring \theta_\star}) \end{equation} \smallskip \begin{remark}[1]В теории синтеза стационарных фильтров при бесконечном времени наблюдения (задача Колмогорова--~Винера для многомерных систем) решение отыскивают в $m$-канальной системе [1, рис. 5.5, c. 223], где каждое $i$-тое измерение $y_{k}^{(i)}$ проходит обработку в $i$-том фильтре непосредственно в МНС $i$-того сенсора для генерирования частной оценки $\mathring x_{k}^{+(i)}$ \eqref{i-filter-opt-intime}$^{a}$. Затем частные оценки суммируют для получения итоговой оценки $\mathring x_{k}^{+}$ \eqref{i-filter-opt-intime}$^{b}$. В~отличие от этого модель ${\mathfrak{M}}({\mathring \theta_\star})$ \eqref{opt-filter} применяет единственный фильтр \eqref{opt-filter}$^{a}$ в ЦПР. В МНС $i$-того сенсора остается простая операция масштабирования данных: умножение измеренной величины на весовой коэффициент $K_{i}^{\star}$ по формуле \eqref{opt-filter}$^{b}$ для передачи в ЦПР. Вычисления в ЦПР сводятся к суммированию переданных данных для образования эквивалентного входа $y_{k}^\star$, \eqref{opt-filter}$^{a}$, и~к~его обработке в единственном фильтре по первой формуле \eqref{opt-filter}$^{a}$. Это делает модель ${\mathfrak{M}}({\mathring \theta_\star})$ практичной, значительно снижающей общий объем вычислений. \end{remark} \smallskip Уравнения \eqref{opt-filter}$^{a}$, \eqref{opt-filter}$^{b}$ определяют параметрический вид фильтра Колмогорова--~Винера для данных условий. Если $\theta \triangleq \{ \mu, a, B_{i}^{2} \bigm| i=1,2,\ldots, m \}$, то получим условное обозначение ${\mathfrak{M}}({ \theta })$ этой субоптимальной (или адаптивной) структуры. Если, варьируя этот $\theta$, минимизировать ИФК $J_{e}^{+}(\theta) \triangleq \E{[\hat e_{k}^{+}(\theta)]^2}$ \eqref{OPI}, то результатом будет параметр $\mathring \theta_\star \triangleq \{ \mathring \mu_\star, \mathring a_\star, B_{\star,i}^{2} \bigm| i=1,2,\ldots, m \}$, \eqref{opt-filter}$^{g}$, определяемый через посредство формул \eqref{opt-filter}$^{c}$--\eqref{opt-filter}$^{f}$ и доставляющий этому ИФК минимальное значение \eqref{opt-filter}$^h$. \smallskip \hypertarget{thsyg:sect3}{} \Section{\label{Kalman-covar} Задача Калмана в мультисенсорной постановке: ковариационная форма} Согласно \emph{<<принципу безусловного максимума правдоподобия>>} (см. разд.~\hyperlink{thsyg:sect1}{1}), искомые оптимальные оценки определены теоретически как первый и второй моменты соответствующих ПРВ \eqref{prob-densities}: \begin{equation} \label{optim-estimates} \left. \begin{aligned} & \eqref{optim-estimates}^{a} \quad \mathring x_{k}^{-}\triangleq \E{x(kT)\bigm| Y(kT-T)=Y_{k-1}}, %[-2ex] & \eqref{optim-estimates}^{b} \quad \mathring p_{k}^{-}\triangleq \E{[x(kT)-\mathring x_{k}^{-}]^2\bigm| Y(kT-T)=Y_{k-1}}, %[-2ex] & \eqref{optim-estimates}^{c} \quad \mathring x_{k}^{+}\triangleq \E{x(kT)\bigm| Y(kT)=Y_k}, %[-2ex] & \eqref{optim-estimates}^{d} \quad \mathring p_{k}^{+}\triangleq \E{[x(kT)-\mathring x_{k}^{+}]^2\bigm| Y(kT)=Y_{k}}. \end{aligned}\, \right\}%\text{опт. оценки и дисперсии} \end{equation} Их практическое вычисление составляет алгоритм Калмана [3, с. 217]. Запишем его в ковариационной форме для данной задачи как два чередующихся этапа \eqref{optKalman-stageI} и \eqref{optKalman-stageII}: \noindent \emph{Этап I} --- прогноз от $(k-1)T$ к моменту $kT$, $k=1,2,\ldots$,\,; $\mathring x_{0}^{+}\triangleq \E{x_0}$, ~$\mathring p_{0}^{+}\triangleq \E{\left(x_0 - \mathring x_{0}^{+} \right)^2}$: \begin{equation} \label{optKalman-stageI} \left. \begin{aligned} \eqref{optKalman-stageI}^{a} & \quad \mathring x_{k}^{-}= d_{\star} \mathring x_{k-1}^{+}, %[-2ex] \eqref{optKalman-stageI}^{b} & \quad \mathring p_{k}^{-} = d_{\star}^{2}\mathring p_{k-1}^{+} + A_{\star}^{2}(1- d_{\star}^{2}). \end{aligned} \quad \right\} \end{equation} %\vspace{-0.5cm} % \emph{Этап II} --- обновление в момент $kT$, $k=1,2,\ldots$, \; благодаря измерению $y_k$: \begin{equation} \label{optKalman-stageII} \left. \begin{aligned} \eqref{optKalman-stageII}^{a} & \quad \mathring x_{k}^{+}= \mathring x_{k}^{-} + \mathring K_{k} \left( y_k - H \mathring x_{k}^{-} \right), %[-2ex] \eqref{optKalman-stageII}^{b} & \quad \mathring K_{k} = \mathring p_{k}^{-} H^{\top} \left( H \mathring p_{k}^{-} H^{\top} + R_{\star} \right)^{-1}, %[-2ex] \eqref{optKalman-stageII}^{c} & \quad \mathring p_{k}^{+} = \mathring p_{k}^{-} - \mathring K_{k} H \mathring p_{k}^{-}. \end{aligned}\quad \right\} \end{equation} В начале итераций этого алгоритма по $k=1,2,\ldots\,$ (при малых значениях $k$) фильтр Калмана нестационарен. Однако эффекты начальных условий $\mathring x_{0}^{+}\triangleq \E{x_0}$ и $\mathring p_{0}^{+}\triangleq \E{\left(x_0 - \mathring x_{0}^{+} \right)^2}$, входящих в \eqref{optKalman-stageI} для $k=1$, при возрастании $k\to\infty$ исчезают, и фильтр стабилизируется (тем быстрее, чем меньше значение $|d_{\star}|<1$). Строго стационарную (предельную) версию ковариационного алгоритма \eqref{optKalman-stageI}, \eqref{optKalman-stageII} получим в виде: \noindent \emph{Этап I} --- прогноз оценки сигнала на 1 шаг: \begin{equation} \label{staboptKalman-stageI} \left. \begin{aligned} & \eqref{staboptKalman-stageI}^{a} \quad \mathring x_{k}^{-}= d_{\star} \mathring x_{k-1}^{+}, %[-2ex] & \eqref{staboptKalman-stageI}^{b} \quad \mathring p_{\star}^{-} = d_{\star}^{2}\mathring p_{\star}^{+} + A_{\star}^{2}(1- d_{\star}^{2}). \end{aligned}\quad \right\}\, \end{equation} %\vspace{-0.5cm} \noindent \emph{Этап II} --- обновление оценки сигнала благодаря измерению $y_k$, при этом $\mathring K_{\star} = \left[ \mathring K_{\star, 1} \bigm| \mathring K_{\star, 2} \bigm| \cdots \bigm| \mathring K_{\star, m} \right]$: \begin{equation} \label{staboptKalman-stageII} \left. \begin{aligned} & \eqref{staboptKalman-stageII}^{a} \quad \mathring x_{k}^{+}= \mathring x_{k}^{-} + \mathring K_{\star} \left( y_k - H \mathring x_{k}^{-} \right), %[-2ex] & \eqref{staboptKalman-stageII}^{b} \quad \mathring K_{\star} = \mathring p_{\star}^{-} H^{\top} \left( H \mathring p_{\star}^{-} H^{\top} + R_{\star} \right)^{-1}, %[-2ex] & \eqref{staboptKalman-stageII}^{c} \quad \mathring p_{\star}^{+} = \mathring p_{\star}^{-} - \mathring K_{\star} H \mathring p_{\star}^{-}. \end{aligned}\quad \right\}\, \end{equation} Подстановка выражений \eqref{staboptKalman-stageII}$^{b}$ в \eqref{staboptKalman-stageII}$^{c}$ и затем в \eqref{staboptKalman-stageI}$^{b}$ даст формальное алгебраическое уравнение Риккати (или Лурье, как его называют в [4, c. 185]), но выписывать его нет смысла, поскольку решать его можно лишь многочисленными итерациями по $k$ в алгоритме \eqref{optKalman-stageI}$^{b}$, \eqref{optKalman-stageII}$^{b}$, \eqref{optKalman-stageII}$^{c}$, пока процесс не стабилизируется по значению $\mathring p_{k}^{-}$. Обнаружив стабилизацию, считают, что процесс сошелся: $\mathring p_{k}^{-} \to \mathring p_{\star}^{-}$ и $\mathring K_{k} \to \mathring K_{\star}$. При этом выражение \eqref{staboptKalman-stageII}$^{c}$ приобретает вид: $\mathring p_{\star}^{+} = \left( 1- \sum_{i=1}^{m} \mathring K_{\star, i}\right)\mathring p_{\star}^{-}$. Однако явных формул для предельных значений $\mathring p_{\star}^{-}$, $\mathring K_{\star}$ и $\mathring p_{\star}^{+}$ таким методом получить невозможно. \smallskip \hypertarget{thsyg:theorem1}{} \begin{theorem}[1]\label{theorem1}Установившиеся коэффициенты Калмана в оптимальном фильтре {\rm (\ref{staboptKalman-stageI}), (\ref{staboptKalman-stageII})} имеют следующие явные выражения\/{\rm:} \begin{equation} \label{staboptKalman-gain} \mathring K_{\star} = \left[ \mathring K_{\star, 1} \bigm| \mathring K_{\star, 2} \bigm| \cdots \bigm| \mathring K_{\star, m} \right] = \mathring a_\star \left[ K_{1}^\star \bigm| K_{2}^\star \bigm| \cdots \bigm| K_{m}^\star \right], \end{equation} в которых участвуют формулы: \eqref{opt-filter}$^{f}$ для $K_{i}^\star,$ \eqref{opt-filter}$^{e}$ для $B_\star^2,$ \eqref{opt-filter}$^{d}$ для $\mathring a_\star$ и \eqref{opt-filter}$^{c}$ для $\mathring \mu_\star.$ \end{theorem} \smallskip \begin{proof} Перепишем \eqref{i-filter-opt-intime}$^{a}$ в форме фильтра Калмана. Для этого в $i$-том фильтре Колмогорова--~Винера введем обозначение прогнозной оценки $ \mathring x_{k}^{-(i)}= d_{\star} \mathring x_{k-1}^{+(i)}$ --- наподобие \eqref{optKalman-stageI}$^{a}$ --- и подставим сюда $\mathring \mu_{\star} = d_{\star} - d_{\star} \mathring a_{\star}$ из \eqref{opt-filter}$^{d}$. Учитывая $\mathring a_{\star}^{(i)} = K_{i}^{\star}\mathring a_\star$ в \eqref{i-filter-opt-transfer}, найдем $ \mathring x_{k}^{+(i)}=\mathring x_{k}^{-(i)} + \mathring a_\star \left[ K_{i}^{\star} y_{k}^{(i)} - \mathring x_{k}^{-(i)} \right] $. Суммирование по $i=1,2,\ldots,m$ дает $$ \mathring x_{k}^{+}=\mathring x_{k}^{-} + \mathring a_\star \left[ \sum_{i=1}^{m} K_{i}^{\star} y_{k}^{(i)} - \mathring x_{k}^{-} \right] . $$ С первым обозначением в \eqref{y=H+v} имеем $\sum_{i=1}^{m} K_{i}^{\star} y_{k}^{(i)} = K^\star y_{k}$, где $$ K^\star \triangleq \left[ K_{1}^\star \bigm| K_{2}^\star \bigm| \cdots \bigm| K_{m}^\star \right]. $$ Теперь обратимся к фильтру Калмана, раскрывая скобки в \eqref{staboptKalman-stageII}$^{a}$. Зная, что фильтр Колмогорова--~Винера является стационарной версией фильтра Калмана, требуем почленного совпадения этих уравнений: \begin{equation} \label{both-filters} \left. \begin{aligned} & \eqref{both-filters}^{a} \quad \mathring x_{k}^{+}= \mathring x_{k}^{-} + \mathring a_{\star} K^{\star} y_k - \mathring a_{\star} \mathring x_{k}^{-}, %[-2ex] & \eqref{both-filters}^{b} \quad \mathring x_{k}^{+}= \mathring x_{k}^{-} + \mathring K_{\star} y_k - \mathring K_{\star} H \mathring x_{k}^{-}. \end{aligned}\quad \right\}\, \end{equation} Совпадение $\mathring a_{\star} K^{\star} = \mathring K_{\star}$ означает $\mathring a_{\star} K_{i}^{\star} = \mathring K_{\star, i}$. Это совпадение и свойство суммы \eqref{opt-filter}$^f$ приводят к результату: $\mathring K_{\star} H = \mathring a_{\star} K^{\star} H =\mathring a_{\star}\sum_{i=1}^{m} K_{i}^{\star}=\mathring a_{\star}$. \end{proof} \smallskip \hypertarget{thsyg:sect4}{} \Section{\label{Kalman-info} Задача Калмана в мультисенсорной постановке: информационная форма} Если строить адаптивный фильтр Калмана на основе ковариационной формы (разд.~\hyperlink{thsyg:sect3}{3}), то вычисления могут оказаться излишне сложными. Приведем теоретически эквивалентное решение в информационной (инверсной относительно предыдущего варианта) форме оптимального фильтра Калмана. Вводим обозначения инверсных величин: $$ \mathring \lambda_{k}^{-} \triangleq 1/\mathring p_{k}^{-}, \quad \mathring \lambda_{k}^{+} \triangleq 1/\mathring p_{k}^{+}, \quad \mathring s_{k}^{-} \triangleq \mathring \lambda_{k}^{-} \mathring x_{k}^{-}, \quad \mathring s_{k}^{+} \triangleq \mathring \lambda_{k}^{+} \mathring x_{k}^{+}. $$ Тогда из \eqref{optKalman-stageI} и \eqref{optKalman-stageII} получаем следующее. \noindent \emph{Этап I} --- прогноз от $(k-1)T$ к моменту $kT$, $k=1,2,\ldots,\,$; $\mathring s_{0}^{+}\triangleq \mathring \lambda_{0}^{+} \mathring x_{0}^{+}$, $\mathring \lambda_{0}^{+}\triangleq 1/\mathring p_{0}^{+}$: \begin{equation} \label{infooptKalman-stageI} \left. \begin{aligned} & \eqref{infooptKalman-stageI}^{a} \quad \mathring s_{k}^{-}= \frac{\mathring \lambda_{k}^{-}}{\mathring \lambda_{k-1}^{+}} d_{\star} \mathring s_{k-1}^{+}, %[-3ex] & \eqref{infooptKalman-stageI}^{b} \quad \mathring \lambda_{k}^{-} = \frac{\mathring \lambda_{k-1}^{+}}{d_{\star}^{2} + \mathring \lambda_{k-1}^{+} A_{\star}^{2}(1- d_{\star}^{2})}. \end{aligned}\quad \right\}\, \end{equation} % \vspace{-0.2cm} \noindent \emph{Этап II} --- обновление в момент $kT$, $k=1,2,\ldots,\,$ благодаря измерению $y_k$: \begin{equation} \label{infooptKalman-stageII} \left. \begin{aligned} & \eqref{infooptKalman-stageII}^{a} \quad \mathring s_{k}^{+}= \mathring s_{k}^{-} + H^{\top} R_{\star}^{-1} y_{k} = \mathring s_{k}^{-} + \Delta \mathring s_{k}^{+}, %[-2ex] & \eqref{infooptKalman-stageII}^{b} \quad \Delta \mathring s_{k}^{+} \triangleq \sum_{i=1}^{m} \frac{y_{k}^{(i)}}{B_{\star,i}^{2}},\quad \Delta \mathring \lambda_{k}^{+} \triangleq \left( B_{\star}^{2} \right)^{-1}, %[-2ex] & \eqref{infooptKalman-stageII}^{c} \quad \mathring \lambda_{k}^{+} = \mathring \lambda_{k}^{-} + \Delta \mathring \lambda_{k}^{+}. \end{aligned}\quad \right\}\, \end{equation} Запись стационарной версии информационной формы \eqref{infooptKalman-stageI}, \eqref{infooptKalman-stageII} опускаем как очевидную. Вычислять слагаемые для суммы в \eqref{infooptKalman-stageII}$^{b}$ можно в МНС, остальные действия --- в ЦПР. \smallskip \hypertarget{thsyg:sect5}{} \Section{\label{uncertainty} Параметрическая неопределенность усложняет задачу} В общем случае априорной неопределенности всех параметров $\{ d_\star, A_\star^2, B_{\star,i}^{2} \bigm| $ $ i=1,2,\ldots, m \}$ задач Колмогорова--~Винера или Калмана их решения \eqref{opt-filter}, или \eqref{staboptKalman-stageI}, \eqref{staboptKalman-stageII}, или \eqref{infooptKalman-stageI}, \eqref{infooptKalman-stageII} не могут быть реализованы. Вместо каждого из этих оптимальных решений возможно иметь лишь множество аналогов: либо субоптимальных фильтров, либо адаптивных фильтров. Если любое из оптимальных решений обозначать ${\mathfrak{M}}({\mathring \theta_\star})$, то соответствующее множество субоптимальных (адаптивных) решений следует обозначать как ${\mathfrak{M}}({\theta})$, где ${\theta}$ --- субоптимальное либо настраиваемое значение параметра. Например, в качестве адаптивной версии фильтра Колмогорова--~Винера или, что равнозначно, стационарного фильтра Калмана (в ковариационной форме) следует брать ${\mathfrak{M}}({\theta})$ в следующем виде: \begin{equation} \label{adaptKalman-covar} \left. \begin{aligned} & \eqref{adaptKalman-covar}^{a} \quad \hat x_{k}^{-}= d \hat x_{k-1}^{+}, & \eqref{adaptKalman-covar}^{b} \quad \hat x_{k}^{+}= \hat x_{k}^{-} + a \left(K y_k - \hat x_{k}^{-} \right) \end{aligned} \right\}\, {\begin{aligned} {\mathfrak{M}}({\theta})&-{\text{адаптивная модель:} } \theta = & \{ a,d,K_{i} \bigm| i=1,2,\ldots,m \}, K = & \left[ K_{1} \bigm| K_{2} \bigm| \cdots \bigm| K_{m} \right]. \end{aligned}} \end{equation} Каждое пробное значение $\theta := \theta[n]\in\Theta \subset\Rset^{m+2}$, где $n=1,2,\ldots $ --- номер пробного значения, создает $n$-ную параметрическую версию ${\mathfrak{M}}({\theta[n]})$ субоптимального фильтра ${\mathfrak{M}}({\theta})$ (\ref{adaptKalman-covar}) в некотором допустимом множестве $\Theta$. Каждая $n$-ная версия ${\mathfrak{M}}({\theta[n]})$ формирует свою пару оценок: экстраполяционную ${\hat x_{k}^{-} \triangleq \hat x_{k}^{-} (\theta[n])}$ и отфильтрованную $\hat x_{k}^{+} \triangleq \hat x_{k}^{+} (\theta[n])$, обе страдающие погрешностями: $\hat e_{k}^{-} (\theta[n]) \triangleq x_k - \hat x_{k}^{-} (\theta[n])$ и $\hat e_{k}^{+} (\theta[n]) \triangleq x_k - \hat x_{k}^{+} (\theta[n])$, с соответствующими значениями ИФК: $J_{e}^{-}(\theta[n])\triangleq \E{ \left[ {\hat e_{k}^{-} (\theta[n])} \right]^2 } $ и $J_{e}^{+}(\theta[n])\triangleq \E{ \left[ {\hat e_{k}^{+} (\theta[n])} \right]^2}$, т.\,е. значениями дисперсий ошибок (\ref{OPI}) в параметрическом пространстве $\Theta$ при работе этой $n$-ной версии на всех наличных данных $y_j^{(i)} \triangleq y_i(jT)$, $i=1,2,\ldots, m$, где $j=k,k-1,\ldots, l$ ($l\to -\infty$ теоретически). Минимизация любого критерия \eqref{OPI} влечет достижение минимума другим критерием из этой пары, поэтому достаточно заниматься одним из них. Однако любой ИФК \eqref{OPI} может быть минимизирован лишь теоретически, так как ошибки оценивания $\hat e_{k}^{-}(\theta[n])$, $\hat e_{k}^{+}(\theta[n])$ не являются доступными величинами. Если бы любой критерий $J_{e}^{\pm}(\theta[n])\triangleq \E{ \left[ {\hat e_{k}^{\pm} (\theta[n])} \right]^2}$ из (\ref{OPI}) был доступен, то для его численной минимизации в пространстве параметров фильтра \eqref{adaptKalman-covar} можно было бы пытаться применять стандартные методы, например, метод скорейшего спуска [17, p. 22]: \begin{equation} \label{grad-optOPI} \left. \begin{aligned} & \eqref{grad-optOPI}^{a} \quad g(\theta[n]) = \nabla_{\theta} J_{e}^{\pm}(\theta[n]), & \eqref{grad-optOPI}^{b} \quad \theta[n+1] =\theta[n] - \gamma[n]g(\theta[n]) \end{aligned} \right\} \end{equation} с величиной $n$-ного шага $\gamma[n]$ (хотя это не лучший выбор), или более надежный метод Ньютона [17, p. 44]: \begin{equation} \label{newton-optOPI} \left. \begin{aligned} & \eqref{newton-optOPI}^{a} \quad g(\theta[n]) = \nabla_{\theta} J_{e}^{\pm}(\theta[n]), & \eqref{newton-optOPI}^{b} \quad G(\theta[n]) = \nabla_{\theta}^2 J_{e}^{\pm}(\theta[n]), & \eqref{newton-optOPI}^{c} \quad \text{\sf solve~} G(\theta[n]) \delta = - g(\theta[n]) \text{\sf ~for~} \delta \triangleq \delta[n], & \eqref{newton-optOPI}^{d} \quad \theta[n+1] =\theta[n] + \delta[n], \end{aligned} \right\} \end{equation} или другие методы этого типа [17, p. 49–57]. При их сходимости к точке минимума ИФК можно было бы рассчитывать, что $\theta[n] \to \mathring \theta_\star = \{ \mathring a_\star ,d_\star ,K_{i}^{\star} \bigm| i=1,2,\ldots,m \}$. % \mathring \theta_\star &= \{ \mathring a_\star ,d_\star ,K_{i}^{\star} \bigm| i=1,2,\ldots,m \} \smallskip \begin{remark}[2]Существенно, что итерации по номерам версий субоптимального фильтра (при $n=1,2,\ldots $) можно выполнять не в реальном, а в ускоренном (компьютерном) темпе времени на одном и том же множестве $y_j^{(i)} \triangleq y_i(jT)$, $i=1,2,\ldots, m$, где $j=k,k-1,\ldots, l$, экспериментальных данных, если они сохранены для этого: \emph{меньшее компьютерное время поиска лучшей версии в обмен на б{\'o}льшие затраты компьютерной памяти}. \end{remark} \smallskip \hypertarget{thsyg:sect6}{} \Section{\label{AuxiliaryPI} Построение вспомогательного (инструментального) функционала качества} Однако реализация таких идей невозможна. Поскольку в~задаче фильтрации ошибки $\hat e_{k}^{\pm}(\theta)$ (вторая строка в \eqref{OPI}) не могут быть известны, любой исходный функционал ошибки (первая строка в \eqref{OPI}) не может быть практическим инструментом оптимизации фильтра. Задача формирования ВФК, эквимодального исходному функционалу качества, поставлена [18] как задача \emph{Активного Принципа Адаптации} (АПА). \smallskip \begin{definition}[1]Два функционала \emph{эквимодальны друг другу}, если совпадают аргументы, доставляющие им минимум, а именно: минимум одного функционала влечет минимум другого функционала; в~вычислительном процессе минимизации одного из них, доступного для реализации, минимум другого, не доступного для реализации, достигается автоматически. \end{definition} \smallskip Обозначим доступный для реализации ВФК обобщенно как $J_a(\theta)$, следуя термину \emph{Auxiliary Performance Index}. Не доступный для реализации ИФК обозначим $J_o(\theta)$ --- \emph{Original Performance Index}. Потребуем свойство: \begin{equation} \label{equimod} J_a(\theta) = J_o(\theta) + \text{const}_{\theta}. \end{equation} \smallskip \hypertarget{thsyg:theorem2}{} \begin{theorem}[2]\label{theorem2}Пусть за $J_o(\theta)$ принят первый из критериев \eqref{OPI} и доступный для реализации процесс $\varepsilon_{k}^{-}(\theta)$ определен выражением \begin{equation} \label{epsilon-defi} \varepsilon_{k}^{-}(\theta) \triangleq \frac{1}{m} \sum_{i=1}^{m} y_{k}^{(i)} - \hat x_{k}^{-}(\theta). \end{equation} Тогда \eqref{equimod} выполнено для $J_a(\theta)\triangleq \E{[\varepsilon_{k}^{-}(\theta)]^2}$ при $\mathrm{const}_{\theta} = \frac{1}{m^2} \sum_{i=1}^{m} B_{\star, i}^{2}$. \end{theorem} \smallskip \begin{proof} Домножим первое выражение в \eqref{y=H+v} слева на $H^{\top}$, поделим на $m$ и затем вычтем $\hat x_{k}^{-}(\theta)$. Получаем результат: \begin{equation} \label{epsilon-result} \varepsilon_{k}^{-}(\theta) = \left[ x_{k} - \hat x_{k}^{-}(\theta) \right] + \frac{1}{m} \sum_{i=1}^{m} v_{k}^{(i)} = e_{k}^{-}(\theta) +\bar v_{k}, \quad \bar v_{k} \triangleq \frac{1}{m} \sum_{i=1}^{m} v_{k}^{(i)}. \end{equation} Возводя \eqref{epsilon-result} в квадрат, осредняя и учитывая \( \E{ [e_{k}^{-}(\theta)] [\bar v_{k} ] }=0 \), находим \begin{equation} \label{epsilon-squared} \E{[\varepsilon_{k}^{-}(\theta)]^2} = \E{[e_{k}^{-}(\theta)]^2} + \E{\left[\bar v_{k} \right]^2}, \quad \E{[ \bar v_{k}]^2} = \frac{1}{m^2} \sum_{i=1}^{m} B_{\star, i}^{2}\,. \end{equation} Сопоставляя \eqref{epsilon-squared} c \eqref{equimod}, убеждаемся в справедливости утверждения. \end{proof} \smallskip Благодаря этому результату задача активной адаптации применительно к мультисенсорной фильтрации получает инструментальное решение (рис.~\ref{fig1}). Это означает, что в практических методах \eqref{grad-optOPI} или \eqref{newton-optOPI} в качестве рабочего критерия самооптимизации может быть взят $\min_{\theta} \frac{1}{N}\sum\limits_{i=1}^{N} \left[\varepsilon_{k}^{-}(\theta)\right]^2$, где $N$ --- интервал осреднения для приближенного оценивания математического ожидания $J_a(\theta)\triangleq \E{[\varepsilon_{k}^{-}(\theta)]^2}$. \begin{figure}[h] \begin{center} {\includegraphics[width=0.75\textwidth]{scheme-af+}} %\includegraphics[width=1\textwidth]{fig1.png} \end{center} \caption{Активный принцип адаптации фильтра в мультисенсорной постановке: $z^{-1}$ --- блок задержки на время такта $T$; SLN --- место нахождения сенсоров; DMU --- центр принятия решений. Теоретическая сходимость при $n\to\infty$: $\theta[n] \to \mathring \theta_\star = \{ \mathring a_\star ,d_\star ,K_{i}^{\star} \bigm| i=1,2,\ldots,m \}$ \label{fig1} } \smallskip \footnotesize [Figure~\ref{fig1}. Active principle of adaptation in the multi-sensor problem statement: $z^{-1}$ --- a one-step delay unit; SLN --- sensors' location in the network; DMU --- Decision Making Unit. Theoretical \centerline{convergence at $n\to\infty$: $\theta[n] \to \mathring \theta_\star = \{ \mathring a_\star ,d_\star ,K_{i}^{\star} \bigm| i=1,2,\ldots,m \}$]} \end{figure} \smallskip \hypertarget{thsyg:sect7}{} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \Section{\label{num-example} Численный пример} Численные эксперименты проведем в системе {\tt MATLAB} в режиме двумерной настройки. Для этого считаем, что входные данные содержат сигнал $x(t)$ c двумя неизвестными параметрами $A_\star^2$ и $\alpha_\star$ корреляционной функции \eqref{signal-corr-func}. Будем генерировать отсчеты $x_k$ сигнала по алгоритму \eqref{our-model}, в котором зададим точные значения двух параметров модели: $d_\star \triangleq e^{-\alpha_\star T} = 3/5$ и $A^2_\star = \rho^2_{\star}B^2_\star$. Здесь используем обозначение $\rho^2_{\star}\triangleq A^2_\star/B^2_\star$ для отношения мощностей ``сигнал/шум'', где $B^2_\star$ взято из \eqref{i-filter-opt-transfer}. Для модельного случая четырех сенсоров ($m=4$) с известными мощностями шумов измерения $B^2_{\star,i}=1$ ($i=\overline{1,4}$) имеем $B^2_\star = 1/4$, при этом формула \eqref{staboptKalman-gain} Теоремы~\hyperlink{thsyg:theorem1}{1} дает установившиеся значения коэффициентов фильтра Калмана: ${\mathring K_\star=\mathring a_\star\left[0.25 \bigm| 0.25 \bigm| 0.25 \bigm| 0.25\right]}$. Его параметр $\mathring a_\star$ удовлетворяет выражению \eqref{opt-filter}$^d$, а $\mathring \mu_{\star}$ --- выражению \eqref{opt-filter}$^c$, которому придадим удобный для вычислений вид: \begin{equation} \label{equimu} \left. \begin{aligned} \mathring \mu_{\star} &= \beta_{\star} - {\sqrt{{\beta_{\star}}^2 - 1}}\,, \beta_{\star} &\triangleq (1/2)\left[ \left( d_{\star}^{-1} + d_{\star} \right) + \rho^2_{\star}\left( d_{\star}^{-1} - d_{\star} \right) \right]. \end{aligned}\quad \right.\, \end{equation} Таким образом, адаптивному фильтру (см. рис.~\ref{fig1}) неизвестен двумерный $\mathring \theta_\star=\{\mathring a_\star, d_\star\}$. В адаптивном фильтре его должен заменять настраиваемый параметр $\theta \triangleq \{ a , d \}$. Параметры $\{ K_{i} \bigm| i=1,2,3,4 \}$ настраивать не нужно, поскольку их точные значения $\{ K_{i}^{\star} = 0.25 \bigm| i=1,2,3,4 \}$ известны. План вычислительных экспериментов следующий. Будем сохранять $N$ последних значений из серии измерений \eqref{realizedY} при значении $\mathring\theta_\star=\{\mathring a_\star; d_\star\}$. Зададим интервал измерений $N=500$. Накопленные измерения используем для вычисления значений исходного и вспомогательного функционалов качества $J_o(\theta)$ и $J_a(\theta)$, заменяя оператор математического ожидания $\E{\cdot}$, предполагаемый в ключевом соотношении \eqref{equimod}, оператором текущего среднего. Делая это при изменяющихся значениях параметров $a$ и $d$ фильтра для разных значений $\rho^2_{\star}$, построим графики. Результаты, полученные при этих условиях эксперимента, показывают процесс оптимальной фильтрации сигнала на рис.~\ref{fig:numex1} для соотношений сигнал/шум $\rho^2_{\star}=1$ (графики слева) и $\rho^2_{\star}=100$ (графики справа). %%%%%%%%%%%%%%%%%%%%%%% \begin{figure}[b!] \vspace{-3mm} \begin{center} \begin{tabular}{cc} {\includegraphics[scale=0.5]{filtering-r1}} & {\includegraphics[scale=0.5]{filtering-r10}} \end{tabular} \end{center} \vspace{-5mm} \caption{Оптимальная фильтрация сигнала $x_k$ ($k=1,\ldots,100$) по данным четырех сенсоров при различных отношениях сигнал/шум: $\rho^2_{\star}=1$ (слева) и $\rho^2_{\star}=100$ (справа) \label{fig:numex1} } \smallskip \footnotesize [Figure~\ref{fig:numex1}. Optimal filtering process of signal $x_k$ ($k = 1,\ldots,100$) given data from the four sensors \centerline{at different signal-to-noise ratios: $\rho^2_{\star}=1$ (left) and $\rho^2_{\star}=100$ (right)]} \end{figure} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Возможность сопоставить значения ИФК и ВФК при тех же условиях эксперимента дает следующие результаты (рис.~\ref{fig:numex2} и \ref{fig:numex3}). Из рис.~\ref{fig:numex2} видно, что точки минимума $J_o(\theta)$ и $J_a(\theta)$ по $a$ и $d$ совпадают и соответствуют оптимальным значениям $\mathring a_\star=4/9\approx 0.44$ и $d_\star=3/5=0.6$. Рис.~\ref{fig:numex3} также показывает, что минимумы критериев $J_o(\theta)$ и $J_a(\theta)$ достигаются в точке оптимальных значений параметров для данного $\rho^2_{\star}=100$: при $\mathring a_\star=-808/9+(8/9)\sqrt{10426}\approx 0.98$ и $d_\star=3/5=0.6$. \begin{figure}[h!] \begin{center} \begin{tabular}{cc} {\includegraphics[scale=0.5]{fig-a-OPI-API-r1}} & {\includegraphics[scale=0.5]{fig-d-OPI-API-r1}} \end{tabular} \end{center} \vspace{-5mm} \caption{Значения исходного функционала качества $J_o(\theta)$ и вспомогательного функционала качества $J_a(\theta)$, вычисленные по $N=500$ данным измерений от четырех сенсоров для отношения сигнал/шум $\rho^2_{\star}=1$ при изменении параметров адаптивного фильтра $\theta= \{a, d\}$ \label{fig:numex2} } \smallskip \footnotesize [Figure~\ref{fig:numex2}. Values of $J_o(\theta)$ (OPI~-- Original Performance Index) and $J_a(\theta)$ (API~-- Auxiliary Performance Index) calculated based on $N = 500$ measurement data from four sensors at signal-\centerline{to-noise ratio $\rho^2_{\star}=1$ vs the adaptive filter parameter $\theta = \{a, d\}$]} \end{figure} %%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{figure}[h!] \begin{center} \begin{tabular}{cc} {\includegraphics[scale=0.5]{fig-a-OPI-API-r10}} & {\includegraphics[scale=0.5]{fig-d-OPI-API-r10}} \end{tabular} \end{center} \vspace{-5mm} \caption{Значения исходного функционала качества $J_o(\theta)$ и вспомогательного функционала качества $J_a(\theta)$, вычисленные по $N=500$ данным измерений от четырех сенсоров для отношения сигнал/шум $\rho^2_{\star}=100$ \mbox{при изменении параметров адаптивного фильтра $\theta= \{a, d\}$} \label{fig:numex3} } \smallskip \footnotesize [Figure~\ref{fig:numex3}. Values of $J_o(\theta)$ (OPI~-- Original Performance Index) and $J_a(\theta)$ (API~-- Auxiliary Performance Index) calculated based on $N = 500$ measurement data from four sensors at signal-\centerline{to-noise ratio $\rho^2_{\star}=100$ vs the adaptive filter parameter $\theta = \{a, d\}$]} \end{figure} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Таким образом, проведенные вычислительные эксперименты подтверждают полученные в работе теоретические результаты. \Section[N]{\label{conclude} Заключение} Установлена возможность формирования и использования инструментального функционала качества для задачи самооптимизации систем мультисенсорного выделения одного полезного сигнала из зашумленных показаний множества датчиков, отличительной особенностью которой является невозможность использования исходного функционала ошибки фильтрации для решения этой задачи. Данный инструментальный функционал отличается от исходного функционала ошибки фильтрации на постоянную величину, не зависящую от параметров системы обработки поступающей от датчиков измерительной информации. В силу этой связи минимум инструментального функционала влечет минимум исходного функционала, но, в отличие от последнего, может быть найден применением к нему всего аппарата и средств оптимизации. Предложенное решение осуществимо при достаточно общих условиях: \begin{itemize} \item модель сигнала ($\mathfrak{M}_{\mathrm{signal}}$) есть обоснованное представление случайного полезного сигнала в виде стационарного марковского процесса $p$-го порядка как решения линейного устойчивого стохастического дифференциального уравнения $p$-го порядка с неизвестными параметрами уравнения и ковариаций порождающих шумов; \item модель сенсоров ($\mathfrak{M}_{\mathrm{sensors}}$) есть представление измерительных данных как поступающих дискретно во времени линейных комбинаций сигнала и дискретных белых шумов с неизвестными ковариациями. \end{itemize} В результате детального анализа этого решения на частном примере адаптивного оценивания марковского процесса $1$-го порядка выявлено следующее: \begin{itemize} \item Модель сигнала ($\mathfrak{M}_{\mathrm{signal}}$) диктует достаточно сложные операции одношагового предсказания и затем обновления оценок в двухэтапном алгоритме фильтрации; их целесообразно выполнять в одном месте --- в центре принятия решений; здесь же должны выполняться вычислительные операции по минимизации инструментального функционала качества. \item Модель сенсоров ($\mathfrak{M}_{\mathrm{sensors}}$) диктует несложные операции адаптивного масштабирования данных; их целесообразно оставлять в местах нахождения сенсоров (датчиков первичной измерительной информации). \item Базовые алгоритмы фильтрации нуждаются в придании им алгоритмов адаптации параметров; они могут быть взяты в различных формах: \emph{(а)} в форме фильтра Колмогорова--~Винера, \emph{(б)} в ковариационной форме фильтра Калмана или \emph{(в)} в информационной форме фильтра Калмана. \item Вычислительные операции по минимизации инструментального функционала качества должны быть найдены как варианты эффективных алгоритмов различного уровня сложности, изученные, например, в [19]. \end{itemize} Теоретическая разработка, предпринятая в данной работе, открывает возможности развития этой темы в следующих направлениях: \begin{enumerate} \item Применение модели сигнала ($\mathfrak{M}_{\mathrm{signal}}$) как процесса порядка $p>1$. \item Сравнение методов минимизации инструментального функционала качества по вычислительным затратам, скорости сходимости и точности. \item Анализ эффекта модельных неточностей в системе мультисенсорного выделения сигнала, действующей по активному принципу адаптации. \end{enumerate}

About the authors

Innokentiy Vasilievich Semushin

Ulyanovsk State University


Doctor of technical sciences, Professor

Julia V Tsyganova

Ulyanovsk State University

Email: jvt.ulsu@gmail.com, tsyganovajv@gmail.com

Doctor of physico-mathematical sciences, Associate professor

References

  1. Катковник В. Я., Полуэктов Р. А., Многомерные дискретные системы управления, Наука, М., 1966, 416 с.
  2. Балакришнан А., Теория фильтрации Калмана, Мир, М., 1988, 168 с.
  3. Maybeck P. S., Stochastic Models, Estimation, and Control, v. 1, Mathematics in Science and Engineering, 141, Academic Press, Inc, New York, 1979, xix+423 pp.
  4. Фомин В. Н., Рекуррентное оценивание и адаптивная фильтрация, Наука, М., 1984, 288 с.
  5. Speyer J., "Computation and transmission requirements for a decentralized linear-quadratic-Gaussian control problem", IEEE Trans. Automatic Control, 24:2 (1979), 266-269
  6. Rao B. S., Durrant-Whyte H. F., "Fully decentralised algorithm for multisensor Kalman filtering", IEE Proc.-Control Theory Appl., 138:5 (1991), 413-420
  7. Olfati-Saber R., "Distributed Kalman filtering and sensor fusion in sensor networks", Networked Embedded Sensing and Control, Lecture Notes in Control and Information Science, 331, eds. P. J. Antsaklis, P. Tabuada, Springer, Berlin, Heidelberg, 2006, 157-167
  8. Alriksson P., Rantzer A., "Model based information fusion in sensor networks", IFAC Proceedings Volumes, 41:2 (2008), 4150-4155
  9. Rao B. S. Y., Durrant-Whyte H. F., Sheen J. A., "A fully decentralized multi-sensor system for tracking and surveillance", Int. J. Robot. Res., 12:1 (1993), 20-44
  10. Mahmoud M. S., Khalid H. M., "Distributed Kalman filtering: a bibliographic review", IET Control Theory and Applications, 7:4 (2013), 483-501
  11. Marelli D., Zamani M., Fu M., Ninness B., "Distributed Kalman filter in a network of linear systems", Systems Control Letters, 116:6 (2018), 71-77
  12. Wu Z., Fu M., Xu Yo., Lu R., "A distributed Kalman filtering algorithm with fast finite-time convergence for sensor networks", Automatica, 95:9 (2018), 63-72
  13. Dormann K., Noack B., Hanebeck U. D., "Optimally distributed Kalman filtering with data-driven communication", Sensors, 18:4 (2018), 1034
  14. Badyn M. H., Mesbahi M., "Large-scale distributed Kalman filtering via an optimization approach", IFAC PapersOnLine, 50:1 (2017), 10742-10747
  15. Govaers F., "Distributed Kalman filter (Chapter 13)", Kalman Filters - Theory for Advanced Applications, eds. Ginalber Luiz de Oliveira Serra, IntechOpen, London, 2018, 253-272
  16. Semushin I. V., "The APA based time-variant system identification", 53rd IEEE Conference on Decision and Control (15-17 December 2014, Los Angeles, CA, USA), 2014, 4137-4141
  17. Fletcher R., Practical Methods of Optimization, John Wiley & Sons Ltd, Chichester, Great Britain, xiv+436 pp.
  18. Semushin I. V., "Adaptation in stochastic dynamic systems - Survey and new results II", Int. J. Communications, Network, and System Sciences, 4:4 (2011), 266-285
  19. Цыганова Ю. В., Ортогонализованные блочные методы для параметрической идентификации дискретных линейных стохастических систем, Дис. … д-ра физ.-мат. наук: 05.13.18, Ульяновский государственный университет, Ульяновск, 2017, 400 с.

Statistics

Views

Abstract - 13

PDF (Russian) - 12

Cited-By


Refbacks

  • There are currently no refbacks.

Copyright (c) 2019 Samara State Technical University

Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.

This website uses cookies

You consent to our cookies if you continue to use our website.

About Cookies