ABOUT THE PARAMETRIC MODELING OF STOCHASTIC OBJECTS


Cite item

Full Text

Abstract

The authors consider the problem of multi-dimensional static objects identification at different levels of a priori information and investigate the question of the influence of the selected parametric model structure on the identification quality under noise conditions, its adequacy to the actual mathematical description of the object. The results of computational investigation of different parametric models of multi-dimensional static processes are presented.

Full Text

При параметрическом моделировании (или идентификации в узком смысле) предполагают, что структура объекта каким-то образом выбрана на основании имеющейся априорной информации с точностью до параметров. Следующий основной этап состоит в оценке этих параметров на основании текущей информации. Итак, построение параметрической модели состоит из двух основных этапов: определения класса параметрических структур с точностью до параметров и их последующего оценивания по результатам наблюдения входных-выходных переменных исследуемого объекта. Однако на практике объема априорной информации часто недостаточно для обоснованного выбора класса моделей с точностью до параметров. Тем самым неизбежно возникает большая или меньшая неточность на стадии формулировки задачи идентификации. Здесь уместно вспомнить известную фразу Демокрита: «Даже незначительное отступление от истины в дальнейшем ведет к бесконечным ошибкам». Ниже мы уделим особое внимание случаю, когда структура модели и уравнение исследуемого процесса в той или иной мере отличаются. Постановка задачи. Общепринятая схема исследуемого процесса представлена на рис. 1 [1; 2]. На рис. 1 приняты следующие обозначения: А - неизвестный оператор объекта; х(t) е Q(x) с R1 - выходная переменная процесса; и($) = (ut (t), i = 1, m) е Q(u) с Rm -векторное входное воздействие; |(t) - векторное случайное воздействие; (t) - непрерывное время; Hu, Их - каналы связи, соответствующие различным переменным, включающие в себя средства контроля; hu (t), hx (t) - случайные помехи измерений соответствующих переменных процесса с нулевыми математическими ожиданиями и ограниченной дисперсией. Измеряя значения входных и выходных переменных с интервалом времени At, получим обучающую выборку {ui, xi, i = 1, s}, где s - объем выборки, которая используется для оценки параметров модели. Обратим внимание на одно важное обстоятельство, связанное со стохастической зависимостью компонент вектора и($). При наличии подобной зависимости вид параметрической модели исследуемого процесса существенно меняется [3]. Более подробно об этом см. в [4]. Следует отметить, что объем выборки и характер ее накопления оказывают существенное влияние на качество решения задачи идентификации, однако на практике чаще всего объем выборки весьма ограничен. О важности задач такого рода говорит председатель Экспертного совета РФФИ по математике, механике и информатике академик Е. И. Моисеев: «.существует очень важная проблема, как сделать заключение на основании малого - в смысле математической статистики - количества данных. У нас была рассмотрена задача из области медицины примерно с 20 параметрами (прогноз катастрофического течения послеоперационного периода) и всего 600 данными. По всем правилам, нельзя делать вывод по 600 данным, если меняются 20 параметров. Но где взять больше? 600 операций сделали - вот и вся статистика. Жизнь такие задачи ставит». Данное исследование тесно связано со сформулированной выше проблемой. Рис. 1. Общая схема исследуемой системы (обозначения см. в тексте) Параметрическая идентификация. При построении моделей разнообразных дискретно-непрерывных процессов в настоящее время доминирует теория параметрическая идентификации, или идентификация в узком смысле [1; 2]. Ее содержание, как было отмечено выше, состоит в том, что на первом этапе на основании имеющейся априорной информации определяется параметрический класс операторов Аа, например: xa (t) = A“(u (t), a), (1) i=1 j=1 (4) где Aa - параметрическая структура модели; a - вектор параметров. На втором этапе осуществляется оценка параметров a на основе имеющейся выборки {, ui, i = 1, s}, где s - объем выборки. Существует большое количество методов получения оценок параметров, например метод стохастических аппроксимаций [1]: ( N \ xs -£als-19l (us ) 9l (us ) l = 1 N, (2) l l a = a s-1 lim c_ s—ад l=1 где у I, j = 1, N - коэффициенты Роббинса-Монро, удовлетворяющие определенным условиям сходимости [2]. На практике обычно основное внимание уделяется задаче определения параметров объекта при заданной или принятой структуре [2]. Качество полученной модели зависит от того, насколько хорошо угадана параметрическая структура. Однако структура зависимости априорно не известна, т. е. она подбирается экспериментальным путем. К чему может привести неправильно подобранная структура, будет показано ниже. Непараметрическая идентификация. Априорная информация об объекте при непараметрической идентификации, или идентификации в широком смысле, отсутствует или очень бедная, поэтому приходится предварительно решать большое число дополнительных задач. К этим задачам относятся выбор структуры системы и задание класса моделей, оценивание степени стационарности и линейности объекта и действующих переменных, оценивание степени и формы влияния входных переменных на выходные, выбор информативных переменных и др. К настоящему времени накоплен большой опыт решения задачи идентификации в узком смысле. Методы же решения задач идентификации в широком смысле начали разрабатываться только в последние годы, и здесь результаты значительно скромнее, что в первую очередь можно объяснить чрезвычайной трудностью задачи [1]. i=i j=1 (7) Идентификация в широком смысле предполагает отсутствие этапа выбора параметрического класса оператора. В этом случае задача идентификации состоит в оценивании класса операторов на основе выборки {, ui, i = 1, s| в форме xs (t) = As (u(t), xs, us), (3) где xs = (x1,x2,...,xs),us = (u1,u2,...,us) - временные векторы. Оценка оператора As в некоторых случаях может быть осуществлена средствами непараметрической статистики [5]. В качестве оценки (3) можно использовать непараметрическую оценку функции регрессии Надарая-Ватсона [5; 6]: ExIIф((u -u/)) ;(u ) = Е П Ф( (u - ui)) i=1 j=1 (с-1 (uJ - uj)),i = 1, s, j = 1,m - ядерная колоколообразная функция и коэффициент размытости ядра cS, которые удовлетворяют следующим условиям сходимости [2; 5]: где Ф cs > 0, lim cs = 0, lim scs = <x>, s——ад s —ад (\ui -uj)o, с-' j ф(\ui -uj= ^, (5) Q(u ) 1ф(с-1 (uJ -u■ )^5(uj -u/) . В качестве колоколообразной функции ф|с-1(u■/ - uj)) могут быть использованы ядра различного вида: треугольное, параболическое или прямоугольное. Параметр размытости с:! при наличии обучающей выборки {x, , ui, i = 1, s} находится из задачи минимизации квадратичного показателя соответствия выхода объекта и выхода модели, основанного на методе скользящего экзамена, когда в модели (4) по индексу i исключается k-е наблюдение переменной, предъявляемой для экзамена: s 2 R(cs ) = £(xk - xs (uk , cs )) = min, k * i, (6) k=1 cs т. е. i = k, где индекс i фигурирует в формуле (4). Вообще говоря, каждой компоненте вектора u может соответствовать компонента вектора cS. Таким образом, формула (4) может быть представлена в следующем виде: ф £xi П ф( (uj - ui)) ;(u )= Е П Ф(c-1 (uj - ui)) i =1 j=1 тогда определение компонент вектора cs = cs1, cs 2,.., csm может быть осуществлено из минимизации критерия R (cs ) (6) по вект°ру cs = cs1, cs2 ,..., Csm . Во многих практических задачах может быть использован следующий прием. Приведем численные значения наблюдений вектора u к одному и тому же интервалу с помощью операции центрирования и нормирования. В этом случае приближенно можно принять компоненты вектора cs = cs1,cs2,...,csm одинаковыми, т. е. cs1 = cs2 =... = csm. В итоге определение параметра размытости существенно упрощается, поскольку оно приводится к одномерной задаче оптимизации R (cs) по cs. Примечательным здесь является то, что при этом исключается этап выбора параметрической структуры, т. е. уравнения процесса с точностью до параметров. Тем самым можно утверждать, что идентификация в этом случае, а это вариант идентификации в широком смысле, является более адекватной многим реальным задачам. Следует обратить внимание на то, что непараметрическая оценка функции регрессии относится к классу локальных аппроксимаций. Это и обусловливает возможность ухода от привычного этапа параметризации. Более того, при наличии «трубчатой» структуры исследуемого процесса в данном случае не требуется каких-либо коррекций непараметрической модели в отличие от параметрической [3]. Численные исследования. В целях проведения численного эксперимента зададим уравнение линейного относительно коэффициентов объекта. Для примера рассмотрим многомерный безынерционный стохастический объект x(u) = 1,5sinu1 + 0,3u2 + u3 - - 0,6u4 + 0,3u5 + 0,5u6 + 0,5u-j + (8) + 0,2u8 + 0,3sinu9 -0,4cosu10, где ut е [0;3], i = 1,10 . На выход объекта накладывалась помеха I = xqk , (9) где q - случайная величина, нормально распределенная в интервале [-1; 1]; k - процент помехи. О качестве модели будем судить по относительной ошибке аппроксимации: ст = ^Е (xi (u)- xs (u ))2 j Е (x (u)- mx )2, (10) s где s - объем выборки; inx = s- Е xi (u) - оценка i=1 математического ожидания. Принято считать [7], что вид параметрической модели задан априорно и стоит лишь задача оценивания коэффициентов по выборке. Рассмотрим, к чему приводит ошибка при математическом определении структуры. Приведем модель, структура которой отлична от структуры объекта: xs (u) = a1exp(u1) + a2u^ + + a3u3 +a 4u4 +a5u5 +a6u^ + (11) + a7u2 +a8u8 +a9 sin u9 +a10u10. Таким образом, мы заменили один член, входящий в описание объекта, на явно отличающийся член. Результаты моделирования представлены в табл. 1. Таблица 1 Результаты моделирования объекта (8) и модели (11) Объем выборки s Процент помехи k Относительная ошибка ст 50 3 0,149 100 3 0,153 500 3 0,159 1000 3 0,159 10 000 3 0,159 100 000 3 0,156 50 5 0,167 100 5 0,167 500 5 0,165 1000 5 0,166 10 000 5 0,170 100 000 5 0,167 Как видно из табл. 1, с увеличением помехи измерений выхода объекта относительная ошибка аппроксимации увеличивается. Однако с увеличением выборки нет ожидаемого уменьшения ошибки (10), т. е. величина ошибка практически не меняется. На рис. 2 представлен график значений выхода объекта и модели по переменной u1, т. е. u1 е [0; 3], u2 = u3 =... = u10 = 1,5 . Такой график будем называть срезом по переменной u1. Объем точек s = 50 и помеха k = 3%. На рис. 2 и далее показаны значения выхода объекта x(u) и его параметрической модели xs (u). Из графика среза по переменной u1 (см. рис. 2) видно, что модель не повторяет поведение объекта. Этот факт вытекает из того, что функции при u1 в объекте и в модели не совпадают. Однако при оценивании коэффициентов с помощью МНК коэффициент при переменной u1 практически равен нулю (a1 = 0,024 ) при объеме выборки s = 50 и с ростом выборки s значение коэффициента уменьшается (табл. 2). Таблица 2 Оценки коэффициентов модели (11) в зависимости от объема выборки s 50 500 10 000 100 000 a1 0,024 0,016 0,011 -0,004 На рис. 3 показан срез по переменной u3 . В данном случае значения модели и объекта практически совпадают (рис. 3), отличие в значениях модели и объекта вызвано наличием помехи (9). Значительное отличие в значениях объекта и модели наблюдается только по переменной u1 . Теперь в модели при еще одной переменной возьмем функцию, отличную от истинной: xs (u) = a1exp(u1) + a2u2 + + a3U + a4u4 + a5u5 + a6uj? + a7 u7 + + asus + a9 sinu9 +a10 cos u10. (12) В этой серии экспериментов уже при двух входных переменных функции были плохо угаданы. Рис. 3. Срез по переменной u3 J1 g ■■ ад 0.5 1Д 15 2Д 25 i Рис. 4. Срез по переменной u3 Результаты моделирования при разном объеме выборки и различном уровне помех представлены в табл. 3. Таблица 3 Результаты моделирования объекта (8) и модели (12) Объем выборки s Процент помехи k Относительная ошибка ст 50 3 0,204 100 3 0,199 500 3 0,211 1 000 3 0,212 10 000 3 0,212 50 5 0,227 100 5 0,200 500 5 0,215 1 000 5 0,217 10 000 5 0,220 Ошибка аппроксимации увеличилась в среднем на 6 %. Однако в данном случае, как и в предыдущих, ошибка не уменьшается с ростом выборки. Функции при двух переменных не соответствуют истинным, ошибка моделирования при этом составляет 20 %. Далее приведеv срез по переменной u3 (рис. 4). Как и следовало ожидать, в данном случае график модели более не линеен в отличие от графика объекта. Структура объекта и модели не совпадают по переменной u3 , что и привело к увеличению ошибки. Рассмотрим еще один случай, который состоит в искажении члена, входящего в описание модели: xs (u) = a1exp(u1) + a2u^ + a3u3 + + a4u4 +a5u5 +a6 U +a7 u^ + (13) + a8u8 +a9 sinu9 +a10 cosu10. Результаты серии аналогичных экспериментов представлены в табл. 4. Таблица 4 Результаты моделирования объекта (8) и модели (13) Объем выборки s Процент помехи k Относительная ошибка ст 50 3 0,253 100 3 0,252 500 3 0,255 1 000 3 0,257 10 000 3 0,257 50 5 0,268 100 5 0,250 500 5 0,260 1 000 5 0,260 10 000 5 0,262 Функции при трех переменных, входящих в уравнение модели, не соответствуют истинным, ошибка увеличилась на 4 % по сравнению с предыдущими результатами, т. е. чем хуже подобрана модель, тем больше ошибка. На основе проведенных экспериментов можно сделать следующие выводы. Очевидным является тот факт, что при несовпадающей структуре модели, т. е. когда структура модели не соответствует математическому описанию объекта, ошибка аппроксимации велика и такая модель неадекватна. Были получены противоречивые результаты: увеличение выборки не приводит к уменьшению ошибки моделирования. Если математическое описание модели и объекта совпадает по всем переменным кроме одной, то это приводит к тому, что коэффициент при этой переменной стремится к нулю при увеличении выборки. Именно поэтому она не оказывает негативного влияния на модель и ошибка аппроксимации в этом случае не так велика (около 14 %).
×

About the authors

A. A. Korneeva

Siberian Federal University

Email: ekach@list.ru

E. A. Chzhan

Siberian Federal University

References

  1. Эйкхофф П. Основы идентификации систем управления. М. : Мир, 1975.
  2. Цыпкин Я. З. Основы информационной теории идентификации. М. : Наука, 1984.
  3. Медведев А. В. Анализ данных в задаче идентификации // Компьютерный анализ данных моделирования. Минск : Изд-во Белорус. гос. ун-та, 1995. Т. 2. С. 201-206.
  4. Корнеева А. А., Сергеева Н. А., Чжан Е. А. О непараметрическом анализе данных в задаче идентификации // Вестн. нац. исслед. Том. гос. ун-та. Управление, вычисл. техника и информатика. 2013. № 1 (22). С. 86-96.
  5. Надарая Э. А. Непараметрические оценки плотности вероятности и кривой регрессии. Тбилиси : Изд-во Тбил. ун-та, 1983.
  6. Медведев А. В. Непараметрические системы адаптации. Новосибирск : Наука. Сиб. отд-ние, 1983.
  7. Зарубин В. С. Математическая статистика / под ред. В. С. Зарубина, А. П. Крищенко. М. : Изд-во Моск. гос. техн. ун-та им. Баумана, 2008.

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2013 Korneeva A.A., Chzhan E.A.

Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.

This website uses cookies

You consent to our cookies if you continue to use our website.

About Cookies