Итерационное выпуклое оценивание линейных регрессионных моделей в условиях стохастической неоднородности данных
- Авторы: Голованов О.А.1, Тырсин А.Н.2,1
-
Учреждения:
- Институт экономики Уральского отделения РАН
- Уральский федеральный университет
- Выпуск: Том 29, № 2 (2025)
- Страницы: 294-318
- Раздел: Математическое моделирование, численные методы и комплексы программ
- URL: https://journals.eco-vector.com/1991-8615/article/view/642163
- DOI: https://doi.org/10.14498/vsgtu2138
- EDN: https://elibrary.ru/FUVADI
- ID: 642163
Цитировать
Полный текст
Аннотация
Одной из ключевых проблем линейного регрессионного анализа является обеспечение робастного оценивания параметров модели в условиях стохастической неоднородности данных. В подобных случаях оценки классического метода наименьших квадратов теряют устойчивость. Данная проблема особенно актуальна при распределениях ошибок с более вытянутыми хвостами по сравнению с нормальным распределением. В качестве одного из подходов к повышению робастности регрессионных моделей рассматривается замена квадратичной функции потерь на выпукло-вогнутую, однако непосредственное применение таких функций приводит к многоэкстремальности целевой функции, что существенно усложняет решение задачи.
Целью настоящего исследования является анализ свойств метода вариационно-взвешенных квадратических и абсолютных приближений для невыпуклых функций потерь. В работе предложен подход, основанный на замене исходной невыпуклой задачи регрессионного оценивания на итеративное применение взвешенных методов наименьших квадратов и наименьших модулей. Фактически реализуется метод вариационно-взвешенных квадратических и абсолютных приближений для невыпуклых функций потерь. На каждой итерации взвешенного метода наименьших модулей использовались алгоритмы спуска по узловым прямым.
Исследование итерационных алгоритмов проведено методом статистических испытаний Монте–Карло для различных функций потерь. Установлено, что взвешенный метод наименьших модулей превосходит метод наименьших квадратов по быстродействию при сопоставимой точности оценивания. В условиях одновременного нарушения нескольких предпосылок регрессионного анализа для достижения приемлемой точности предпочтительным является использование либо взвешенного метода наименьших модулей, либо обобщенного метода наименьших модулей, реализованного в виде алгоритма обобщенного спуска. Получены оценки вычислительной сложности алгоритмов и времени их выполнения в зависимости от объема выборки и количества параметров регрессионной модели.
Полный текст
Введение
Линейная регрессия представляет собой одну из наиболее распространенных вероятностных моделей, используемых для анализа зависимостей в различных областях знания [1]. Данная модель описывает линейную взаимосвязь между условным математическим ожиданием зависимой переменной $Y$ и набором объясняющих переменных $X_1$, $X_2$, $\dots$, $X_m$ на основе экспериментальных данных $(1, x_{i2}, \dots, x_{im}; y_i)$, где $i = 1, 2, \dots, n$. Формально это выражается соотношением [2]
\[\begin{equation}
\operatorname{E}(Y|X_2=x_2,\dots,X_m=x_m) = \alpha_1 + \sum_{k=2}^m \alpha_k x_k.
\tag{1}
\end{equation}\]
Таким образом, модель (1) позволяет аппроксимировать величины, которые могут быть представлены в виде
\[
\mathbf{y} = \mathbf{X}\boldsymbol{\alpha} + \boldsymbol{\varepsilon},
\]
где
\[
\mathbf{y} = \begin{pmatrix}
y_1 \\
y_2 \\
\vdots \\
y_n
\end{pmatrix}, \;\;
\mathbf{X} = \begin{pmatrix}
1 & x_{12} & \cdots & x_{1m} \\
1 & x_{22} & \cdots & x_{2m} \\
\vdots & \vdots & \ddots & \vdots \\
1 & x_{n2} & \cdots & x_{nm}
\end{pmatrix} = \begin{pmatrix}
\mathbf{x}^{\top}_1 \\
\mathbf{x}^{\top}_2 \\
\vdots \\
\mathbf{x}^{\top}_n
\end{pmatrix},\;\;
\boldsymbol{\alpha} = \begin{pmatrix}
\alpha_1 \\
\alpha_2 \\
\vdots \\
\alpha_m
\end{pmatrix},\;\;
\boldsymbol{\varepsilon} = \begin{pmatrix}
\varepsilon_1 \\
\varepsilon_2 \\
\vdots \\
\varepsilon_n
\end{pmatrix}.
\]
Здесь $\mathbf{y}$ — вектор наблюдений зависимой переменной; $\mathbf{X} = \{ x_{ij} \}_{n \times m}$ — матрица регрессоров, содержащая значения объясняющих переменных $X_1$, $X_2$, $\dots$, $X_m$, причем $\mathbf{x}^{\top}_i = (1, x_{i2}, \dots, x_{im})$; $\boldsymbol{\alpha}$ — вектор неизвестных параметров модели; $\boldsymbol{\varepsilon}$ — вектор случайных ошибок наблюдений.
Задача оценивания коэффициентов модели (1) в общем случае формулируется как задача оптимизации:
\[\begin{equation}
Q(\mathbf{a}) = \sum_{i=1}^{n} \rho\biggl( \biggl| y_i - \sum_{j=1}^{m} a_j x_{ij} \biggr| \biggr) \to \min_{\mathbf{a} \in \mathbb{R}^m},
\tag{2}
\end{equation}\]
где $\rho(\cdot)$ — функция потерь, определенная на положительной полуоси, удовлетворяющая условиям $\rho(0)=0$ и $\rho'(x) > 0$ для всех $x > 0$.
Классический линейный регрессионный анализ опирается на систему предпосылок, которые определяют требования к объясняющим переменным $X_i$, параметрам модели $\boldsymbol{\alpha}$ и случайным отклонениям $\boldsymbol{\varepsilon}$, а также позволяют исследовать статистические свойства оценок коэффициентов регрессии [3]:
- $1^\circ$) на вектор параметров $\boldsymbol{\alpha}$ не наложено ограничений, то есть $\mathcal{A} = \mathbb{R}^m$, где $\mathcal{A}$ "--- множество допустимых (априорных) значений параметров;
- $2^\circ$) матрица $\mathbf{X}$ детерминирована, т.е. элементы $x_{ij}$ не являются случайными величинами;
- $3^\circ$) матрица $\mathbf{X}$ имеет полный столбцовый ранг: $\operatorname{rank}(\mathbf{X}) = m < n$;
- $4^\circ$) вектор ошибок $\boldsymbol{\varepsilon}$ случаен, следовательно, вектор наблюдений $\mathbf{y}$ также является случайным вектором;
- $5^\circ$) ошибки имеют нулевое математическое ожидание: $\operatorname{E}(\varepsilon_i) = 0$ для всех $i = 1, 2,\dots,n$, или в векторной форме $\operatorname{E}(\boldsymbol{\varepsilon}) = \mathbf{0}$;
- $6^\circ$) ошибки гомоскедастичны и некоррелированы: $\operatorname{cov}(\varepsilon_i,\varepsilon_k) = 0$ при $i \neq k$, $\operatorname{E}(\varepsilon_i^2) = \sigma^2_\varepsilon$ для всех $i,k = 1, 2,\dots,n$, где $\sigma^2_\varepsilon$ — постоянная дисперсия ошибок;
- $7^\circ$) распределение ошибок $\boldsymbol{\varepsilon}$ является нормальным (гауссовым).
При выполнении указанных предпосылок метод наименьших квадратов (МНК) обеспечивает получение эффективных оценок $\boldsymbol{\tilde{\alpha}}$ коэффициентов регрессии [4]. В рамках МНК в (2) функция потерь имеет вид $\rho(x)=\rho_{ls}(x)=x^2$. Статистические свойства МНК-оценок параметров модели и уравнения регрессии в целом хорошо исследованы. Однако в условиях стохастической неоднородности данных возможны нарушения исходных предположений, приводящие к потере устойчивости МНК-оценок.
Во-первых, эмпирические распределения ошибок часто демонстрируют более вытянутые хвосты по сравнению с нормальным распределением, что снижает эффективность МНК-оценок [5–7]. Особенно критичной для МНК является ситуация наличия выбросов — редких, часто асимметричных наблюдений, а также случаев, когда в модель включены лаговые эндогенные переменные [8–10]. Подобные аномалии могут возникать, например, при развитии процессов деградации в механических системах [11].
Во-вторых, в экономических, медицинских и других исследованиях гетерогенность данных часто приводит к появлению наблюдений, которые могут быть классифицированы как выбросы относительно основной выборки [12–14].
В-третьих, существенную проблему представляет гетероскедастичность — непостоянство дисперсии ошибок наблюдений [3, 15].
В перечисленных случаях для обеспечения робастности оценок рекомендуется применение альтернативных методов, устойчивых к нарушениям классических предпосылок регрессионного анализа.
Если в (2) задать $\rho(x) = \rho_{ld}(x) = |x|$, то получим метод наименьших модулей (МНМ) [16, 17]. Для данного метода разработаны эффективные вычислительные алгоритмы [18–17].
Однако при одновременном воздействии нескольких факторов неоднородности, упомянутых выше, МНМ-оценки также теряют устойчивость [9].
В случае, когда в (2) функция потерь $\rho(x) = \rho_{gld}(x)$ удовлетворяет условию
\[
\frac{d^2 \rho_{gld}(x)}{dx^2} < 0 \text{ для всех } x > 0,
\]
приходим к обобщенному методу наименьших модулей (ОМНМ) [21].
Применение вогнутых ($\rho'(x) > 0$, $\rho''(x) < 0$ $\forall x > 0$) и выпукло-вогнутых ($\rho'(x) > 0$ $\forall x > 0$ с точкой перегиба $c > 0$: $\rho''(x) > 0$ при $x < c$ и $\rho''(x) < 0$ при $x > c$) функций потерь приводит к появлению множества локальных минимумов в задаче (2), что существенно увеличивает вычислительную сложность процедуры оценивания. Одним из подходов к решению этой проблемы является сведение исходной невыпуклой задачи робастного оценивания к последовательности задач минимизации взвешенным методом наименьших квадратов (ВМНК) [3, 22] или взвешенным методом наименьших модулей (ВМНМ) [23, 24].
Данный подход был впервые использован для реализации МНМ через ВМНК и известен как метод Вейсфельда [25], или метод вариационно-взвешенных квадратических приближений [16]. Следует отметить, что в работе [25] метод был эвристически применен к задачам размещения, тогда как в [16] он получил строгое теоретическое обоснование и детальное исследование.
Задачи минимизации в рамках ВМНК и ВМНМ характеризуются целевыми функциями вида
\[\begin{equation}
V_*(\mathbf{a}) = \sum_{i=1}^{n} p_i \rho_*\biggl( \biggl| y_i - \sum_{j=1}^{m} a_j x_{ij} \biggr| \biggr) \to \min_{\mathbf{a} \in \mathbb{R}^m},
\tag{3}
\end{equation}\]
где $\rho_{*}(\cdot)$ представляет функцию потерь ($\rho_*(x) = \rho_{ls}(x) = x^2$ для МНК, $\rho_*(x) = \rho_{ld}(x) = |x|$ для МНМ), а $p_i \geqslant 0$ — весовые коэффициенты, отражающие точность соответствующих измерений. Эти коэффициенты призваны компенсировать расхождения между эмпирическим распределением ошибок $f_n(x)$ и их теоретически оптимальным распределением:
- нормальным распределением $f_\varepsilon(x) = \frac{1}{\sigma_\varepsilon \sqrt{2\pi}} \exp\bigl(-\frac{x^2}{2\sigma_\varepsilon^2}\bigr)$ для МНК;
- распределением Лапласа $f_\varepsilon(x) = \frac{1}{\sigma_\varepsilon \sqrt{2}} \exp\bigl(-\frac{\sqrt{2}|x|}{\sigma_\varepsilon}\bigr)$ для МНМ.
В силу выпуклости, непрерывности и ограниченности снизу целевых функций в (3) они обладают единственными точками глобального минимума.
Метод вариационно-взвешенных абсолютных приближений, предложенный в работах [23, 24], имеет ряд ограничений:
- исследован только для случая вогнутых функций потерь $\rho(x)$;
- не изучена область его применимости в зависимости от свойств $\rho(x)$;
- отсутствует анализ вычислительной сложности итерационного процесса, требующего решения последовательности выпуклых задач вида (3) вместо исходной задачи (2).
Метод вариационно-взвешенных квадратических приближений [16, 25] разработан исключительно для МНМ, при этом его потенциальные возможности для вогнутых и выпукло-вогнутых функций потерь остаются неисследованными.
Цель настоящей работы состоит в разработке общего подхода к методу вариационно-взвешенных приближений для невыпуклых функций потерь, исследовании его свойств и оценке вычислительной сложности.
1. Методы исследования
Рассмотрим итерационные процедуры взвешивания квадратов и модулей невязок.
1.1. Использование ВМНК. В условиях стохастической неоднородности данных при наличии асимметричных отклонений распределения ошибок от нормального закона целесообразно рассматривать функции потерь, удовлетворяющие следующим условиям [4]:
- существует конечный положительный предел:
\[{0 < \lim\limits_{x \to +0} \frac{\rho(x)}{x^2} = c_1 < \infty};\] - функция имеет горизонтальную асимптоту: \[0 < \lim\limits_{x \to +\infty} \rho(x) = d_1 < \infty.\]
Следует отметить, что реализация метода остается возможной и при отсутствии горизонтальной асимптоты у функции потерь при условии выполнения соотношения $\lim\limits_{x \to +\infty} {\rho(x)}/{x^2} = 0$.
Итерационная процедура заключается в решении последовательности задач минимизации
\[\begin{equation}
V_{ls}^{(k)}(\mathbf{a}) = \sum_{i=1}^{n} p_i^{(k)} \biggl( \biggl| y_i - \sum_{j=1}^{m} a_j x_{ij} \biggr| \biggr) \to \min_{\mathbf{a} \in \mathbb{R}^m},
\tag{4}
\end{equation}\]
где весовые коэффициенты определяются так:
\[
p_i^{(k)} = \frac{\rho ( |e_i^{(k-1)} | )}{ (e_i^{(k-1)} )^2},
\quad
e_i^{(k-1)} = y_i - \sum_{j=1}^m a_j^{(k-1)} x_{ij}.
\]
Здесь $e_i^{(k-1)}$ — ошибки на $(k-1)$-й итерации; $a_j^{(k-1)}$ — ВМНК-оценки параметров на $(k-1)$-й итерации; $a_j^{(0)}$ — начальные МНК-оценки; $p_i^{(0)} = 1$ для всех $i = 1, 2,\dots,n$. В случае стремления ошибок $e_i^{(k-1)}$ к нулю весовые коэффициенты $p_i^{(k)}$ вычисляются с помощью предельного перехода в нулевой точке.
Оценки параметров в (4) вычисляются по формуле
\[\begin{equation}
\mathbf{a} = (\mathbf{U}^{\top} \mathbf{U})^{-1} (\mathbf{U}^{\top} \mathbf{v}),
\tag{5}
\end{equation}\]
где $\mathbf{U} = \mathbf{W}^{-1} \mathbf{X}$, $\mathbf{v} = \mathbf{W}^{-1} \mathbf{y}$, $\mathbf{W} = \operatorname{diag} (p_1^{(k)},\dots,p_n^{(k)} )$.
Рассмотрим три классические функции потерь, предложенные Эндрюсом, Мешалкиным и Рамсеем [4]. Для унификации анализа введем единый параметр $\lambda$, характеризующий их свойства:
- $\lambda \to 0$ все три функции стремятся к квадратичной $\rho(x) = x^2$;
- при $\lambda \neq 0$ функции обладают горизонтальной асимптотой.
Графическая иллюстрация поведения функций потерь при значениях параметра $\lambda=0.1$ и 0.5 представлена на рис. 1.
Рис. 1. Графики функций потерь $\rho(x)$ при $\lambda=0.1$ и $0.5$
[Figure 1. Plots of loss functions $\rho(x)$ at $\lambda=0.1$, and $0.5$]
Функция потерь Эндрюса задается кусочно-определенным выражением
\[\begin{equation}
\rho_A(x) =
\begin{cases}
(2\lambda)^{-1} \bigl[1 - \cos (x \sqrt{2\lambda} )\bigr], & |x| < \pi/\sqrt{2\lambda}, \\
\lambda^{-1}, & |x| \geqslant \pi/\sqrt{2\lambda}.
\end{cases}
\tag{6}
\end{equation}\]
Соответствующие весовые коэффициенты вычисляются по формуле
\[
p_i^{(k)} = \frac{1 - \cos (e_i^{(k-1)} \sqrt{2\lambda} )}{2\lambda (e_i^{(k-1)})^2}.
\]
Для корректной программной реализации алгоритма необходимо отдельно рассматривать случай нулевых невязок. Предельное значение весового коэффициента при $e_i^{(k-1)} \to 0$ определяется следующим образом:
\[\begin{equation}
\lim_{x \to 0} \frac{1 - \cos (x \sqrt{2\lambda} )}{2\lambda x^2} = \frac{1}{2}.
\end{equation}\]
Таким образом, в вычислительной реализации следует полагать $p_i^{(k)} = 1/2$ при $e_i^{(k-1)} = 0$.
Функция потерь Мешалкина определяется выражением
\[\begin{equation}
\rho_M(x) = \frac{1 - \exp(-{\lambda x^2}/{2})}{\lambda}.
\tag{7}
\end{equation}\]
Соответствующие весовые коэффициенты вычисляются так:
\[
p_i^{(k)} = \frac{1 - \exp(-{\lambda (e_i^{(k-1)})^2}/{2})}{\lambda (e_i^{(k-1)})^2}.
\]
Предельное значение при нулевых невязках определяется следующим образом:
\[\begin{equation}
\lim_{x \to 0} \frac{1 - \exp (- {\lambda x^2}/{2})}{\lambda x^2} = \frac{1}{2}.
\end{equation}\]
Функция потерь Рамсея задается формулой
\[\begin{equation}
\rho_R(x) = \frac{1 - (1 + \sqrt{\lambda}|x|)\exp (-\sqrt{\lambda}|x|)}{\lambda}.
\tag{8}
\end{equation}\]
Весовые коэффициенты для данной функции следующие:
\[
p_i^{(k)} = \frac{1 - (1 + \sqrt{\lambda} |e_i^{(k-1)} | )\exp (-\sqrt{\lambda} |e_i^{(k-1)} |)}{2 \lambda (e_i^{(k-1)})^2}.
\]
Предельное значение:
\[
\lim_{x \to 0} \frac{1 - ( 1 + \sqrt{\lambda} |x| ) \exp ( -\sqrt{\lambda} |x| )}{\lambda x^2} =
\frac{1}{2}.
\]
Таким образом, алгоритм итерационно пересчитывает значения весовых коэффициентов до тех пор, пока разница между весами текущей и предыдущей итераций не станет минимальной. Экспериментальные исследования показали, что при достижении точности порядка $10^{-12}$ скорость сходимости метода существенно снижается. Практически оптимальным компромиссом между точностью и вычислительной эффективностью является выполнение двух условий: максимальная допустимая разность весов должна составлять $10^{-8}$, а максимальное число итераций ограничивается 50 циклами.
Для обеспечения единого подхода к анализу различных функций потерь определим в уравнениях (6)–(8) значения параметра $\lambda$, соответствующие точке перегиба при $x=3\sigma$ (рис. 2). Численные расчеты при $\sigma=1$ дают следующие значения:
- $\lambda \approx 0.137$ для функции Эндрюса (6);
- $\lambda \approx 0.111$ для функций Мешалкина (7) и Рамсея (8).
Рис. 2. Графики вторых производных функций потерь в точках перегиба $x =3 \sigma$
[Figure 2. Graphs of second derivatives of loss functions at inflection points $x =3 \sigma$]
Отметим, что решение задачи регрессионного оценивания методом взвешенных наименьших квадратов остается возможным даже при условии $\lim\limits_{x \to +0} {\rho(x)}/{x^2} = 0$. Однако в этом случае распределение ошибок будет иметь более короткие хвосты по сравнению с нормальным распределением, асимптотически приближаясь к равномерному распределению. Следует подчеркнуть, что такая ситуация является скорее теоретической, поскольку на практике встречается крайне редко.
В противоположном случае, когда $\lim\limits_{x \to +0} {\rho(x)}/{x^2} = \infty$, возникает принципиально иная ситуация: весовые коэффициенты, соответствующие малым ошибкам, неограниченно возрастают. Это приводит к неустойчивости оценок параметров регрессии, делая метод неприменимым на практике.
1.2. Использование ВМНМ. Здесь возможны два варианта.
Первый вариант представляет собой итерационную реализацию ОМНМ с функциями потерь $\rho_{gld}(x)$, удовлетворяющими в нуле условию
\[
0 < \lim\limits_{x \to +0} \frac{\rho(x)} {x} = c_2 < \infty.
\]
В качестве конкретных примеров таких функций потерь рассмотрим $\operatorname{arctg}(|x|)$ и $\ln(|x| + 1)$. Для обеих этих функций выполняется условие
\[\begin{equation}
\lim_{x \to +0} \frac{\rho_{gld}(x)}{|x|} = 1.
\end{equation}\]
Второй вариант предполагает использование ВМНМ для итерационного решения задачи (2) с функциями потерь, обладающими следующими свойствами:
\[\begin{equation}
\lim_{x \to +0} \frac{\rho(x)}{x} = 0, \quad \lim_{x \to \infty} \frac{\rho(x)}{x} < \infty.
\end{equation}\]
Конкретные примеры таких функций потерь $\rho_{ls}(x)$ приведены в (6)–(8).
Важно отметить, что задачу (2) с функциями потерь, для которых
\[\begin{equation}
\lim_{x \to +0} \frac{\rho(x)}{x} = \infty,
\end{equation}\]
невозможно свести к последовательности задач ВМНМ-минимизации. Как и в п. 1.1, при малых ошибках весовые коэффициенты в таком случае неограниченно возрастают, что делает невозможным получение устойчивых оценок. В частности, это относится к функциям потерь вида $\rho(x) = |x|^\beta$ при $0 < \beta < 1$.
Вместо исходной задачи (1) итерационно решается последовательность задач ВМНМ:
\[\begin{equation}
V_{ld}^{(k)}(\mathbf{a}) = \sum_{i=1}^{n} p_i^{(k)}
\biggl| y_i - \sum_{j=1}^{m} a_j x_{ij} \biggr| \to \min_{\mathbf{a} \in \mathbb{R}^m},
\tag{9}
\end{equation}\]
где весовые коэффициенты $p_i^{(k)}$ определяются так:
\[
p_i^{(k)} = \frac{\rho(|e_i^{(k-1)}|)}{|e_i^{(k-1)}|},
\]
а ошибки $e_i^{(k-1)}$ на $(k-1)$-й итерации вычисляются по формуле
\[
e_i^{(k-1)} = y_i - \sum_{j=1}^{m} a_j^{(k-1)} x_{ij}.
\]
Здесь $a_j^{(k-1)}$ — оценки параметров на $(k-1)$-й итерации, $a_j^{(0)}$ — МНМ"=оценки, $p_i^{(0)} = 1$ для всех $i = 1, \dots, n$.
Аналогично предыдущему случаю (см. п. 1.1), регрессионное оценивание с помощью ВМНМ остается корректным и при $e_i^{(k-1)} \to 0$ благодаря предельному переходу в нуле.
В работах [23, 24] предложен альтернативный подход, где весовые коэффициенты определяются так:
\[
p_i^{(k)} = \rho'(|e_i^{(k-1)}| ).
\]
Однако следует отметить важное отличие: в общем случае $\rho'(x) \neq \rho(x)/x$. Поэтому
\[
\lim_{k \to \infty} \Bigl( p_i^{(k)} - \frac{\rho (|e_i^{(k-1)}| )}{|e_i^{(k-1)}|} \Bigr) \neq 0,
\]
а последовательность оценок (9) реализует иную функцию потерь. Например, при использовании $\rho(x) = \operatorname{arctg}(|x|)$ фактически минимизируется функция $\tilde{\rho}(x) = {|x|}/({x^2+1})$.
Для решения задачи ВМНМ-оценивания применим алгоритмы покоординатного [26] и модифицированного градиентного [20] спусков по узловым прямым. Прежде чем описать принцип работы алгоритмов, введем необходимые определения.
Пусть $ \boldsymbol{\Omega} = \{\Omega_1, \ldots, \Omega_n\}$ — множество всех $n$ гиперплоскостей \(\Omega_i\):
\[
\Omega_i: {y_i - \langle\mathbf{a}, \mathbf{x}_i\rangle = 0},\quad i = 1, \dots, n,
\]
где каждая гиперплоскость $\Omega_i$ соответствует $i$-му наблюдению выборки.
Узловой точкой называется точка пересечения $m$ линейно независимых гиперплоскостей:
\[\begin{equation}
\mathbf{u} = \bigcap_{s \in M} \Omega_s, \quad M = \{k_1, \dots, k_m\}, \quad k_1 < k_2 < \dots < k_m, \quad k_l \in \{1, \dots, n\}.
\end{equation}\]
Множество всех узловых точек обозначим через $U$.
Узловой прямой называется прямая, являющаяся пересечением $(m-1)$ линейно независимых гиперплоскостей:
\[\begin{equation}
l_{(k_1, \dots, k_{m-1})} = \bigcap_{i \in \{k_1, \dots, k_{m-1}\}} \Omega_i, \quad k_l \in \{1, \dots, n\}.
\end{equation}\]
Алгоритм покоординатного спуска реализует следующий итерационный процесс.
- На нулевой итерации выбирается произвольная узловая точка $\mathbf{u}^{(0)}$, полученная решением СЛАУ, составленной из $m$ произвольных наблюдений.
- Для текущей узловой точки $\mathbf{u}^{(k)}$ анализируются все инцидентные ей узловые прямые.
- Находится узловая прямая, на которой целевая функция $V_{ld}^{(k)}(\mathbf{a})$ достигает минимального значения.
- Осуществляется переход в новую узловую точку $\mathbf{u}^{(k+1)}$ вдоль найденной прямой.
- Процесс продолжается до достижения точки $\mathbf{u}^{(*)}$, которая является локальным минимумом на множестве всех инцидентных ей узловых прямых.
Модифицированный градиентный спуск (в дальнейшем для краткости называемый просто градиентным спуском) обладает следующими особенностями: учитывает угол наклона узловой прямой, а также сгущение точек вблизи минимума за счет применения первого приближения в оптимальной области решений. Кроме того, он исключает необходимость вычислений значений целевой функции в узловых точках за счет использования производных по направлению.
Для каждой узловой точки $\mathbf{u} = (u_1,\ldots,u_m)$ производная по направлению узловой прямой вычисляется по формуле
\[
\frac{\partial V_{ld}^{(k)}(\mathbf{u})}{\partial \mathbf{l}_{(k_1, \dots, k_{m-1})}} =
\sum_{i=1}^n \biggl( \bigl( c_1 + x_{i2} c_2 + \dots + x_{im} c_m \bigr) \cdot
\operatorname{sign}\biggl( \sum_{j=1}^m u_j x_{ij} - y_i \biggr) \biggr),
\]
где $\mathbf{l}_{(k_1, \dots , k_{m-1})} = (c_1,c_2,\dots,c_m)$ — направляющий вектор узловой прямой $l_{(k_1, \dots , k_{m-1})}$.
Критерий минимума формулируется следующим образом: если односторонние производные
\[
\frac{\partial V_{ld}^{(k)}(\mathbf{u})}{\partial \mathbf{l}_{(k_1, \dots, k_{m-1})}} \Bigr|_{\mathbf{u}_-} \quad \text{и} \quad
\frac{\partial V_{ld}^{(k)}(\mathbf{u})}{\partial \mathbf{l}_{(k_1, \dots, k_{m-1})}} \Bigr|_{\mathbf{u}_+}
\]
в узловой точке $\mathbf{u}$ имеют разные знаки, то эта точка является минимумом функции $V_{ld}^{(k)} (\mathbf{a})$ на узловой прямой $l_{(k_1, \dots , k_{m-1})}$.
Для повышения быстродействия ОМНМ-оценивания регрессии с вогнутыми функциями потерь $\rho_{gld} (x)$ вместо полного перебора всех узловых точек [21] можно использовать приближенные алгоритмы, такие как обобщенный спуск — итерационный алгоритм оценивания регрессии на основе ОМНМ [27]. В этом алгоритме уменьшается исследуемая окрестность точного решения и допускается определенная доля ошибок с заданной вероятностью (например, не более 0.05), т.е. сохраняется статистическая незначимость потери точности.
Основным недостатком данного подхода является необходимость финального уточнения решения с помощью полного перебора в некоторой области вблизи найденного минимума, что обусловлено геометрическими особенностями целевой функции.
2. Обсуждение результатов
Наличие выбросов в выборке может существенно ухудшить качество и надежность модели, что особенно критично для линейного регрессионного анализа. Для комплексного исследования этого эффекта мы проводим серию вычислительных экспериментов с различными типами засорений данных, используя метод статистических испытаний Монте—Карло [28]. В экспериментах генерируются выборки с числом параметров модели $m=2,\dots,5$.
Генерация засоренных случайных ошибок $\varepsilon$ выполняется по схеме Тьюки—Хьюбера [29, 30] с вероятностью засорения $\gamma=0.1$:
\[
F_\varepsilon(x) = (1 - \gamma)F_0(x) + \gamma F_H(x),
\]
где $F_0(x)$ — функция распределения основных ошибок (используется стандартное нормальное распределение); $F_H(x)$ — функция распределения засорений (рассматриваются двустороннее и одностороннее распределения Коши и Лапласа).
Нормальное распределение выбрано как эталон с быстро убывающими хвостами, распределение Коши — как крайний случай с вытянутыми хвостами, максимально подверженный влиянию выбросов, а распределение Лапласа занимает промежуточное положение между ними.
Вычислительные эксперименты проводились на персональном компьютере Dell G5 5587 со следующими характеристиками: 6-ядерный процессор Intel Core i7-8750H; тактовая частота до 4.1 ГГц. Программная реализация алгоритмов выполнена на языке C++ в среде разработки Microsoft Visual Studio 2019.
Перед проведением основного анализа необходимо убедиться в однородности результатов обработки различных генераций данных. В исследовании использованы следующие принципы: каждая выборка генерируется независимо; общим остается только метод формирования незасоренной части данных; генерация выполняется с использованием датчика псевдослучайных чисел. Поскольку исходные данные независимы, любые их математические преобразования также считаются независимыми. Поэтому для статистической проверки однородности результатов применяются параметрический критерий Стьюдента и непараметрический критерий Манна—Уитни. Такое сочетание критериев позволяет повысить надежность и достоверность получаемых выводов.
2.1. Взвешенный метод наименьших квадратов. В результате проведения 100 вычислительных экспериментов при $n=50$, $100$, $\dots$, $300$ и $m=2$, $3,\dots,5$ было выявлено, что итерационный алгоритм ВМНК вне зависимости от функции потерь имеет сильную зависимость от вида засорений. Так, число итераций при добавлении односторонних или двусторонних засорений Коши возросло в среднем в 1.5—2 раза.
Сравнение по критериям Стьюдента и Манна--Уитни среднего времени работы алгоритма ВМНК для данных без засорения и с засорением с распределением Коши для функций потерь Эндрюса и Мешалкина отклонило нулевую гипотезу об однородности. Для функции Рамсея количество итераций и время работы алгоритма возросло в 1.2—2.5 раза, что связано с более медленным достижением асимптоты (рис. 1), это привело к выполнению нулевой гипотезы вне зависимости от вида засоряющего распределения.
Ввиду отсутствия значимой разницы между временем работы алгоритма при односторонних и двусторонних засорениях далее условно разделим их на 3 типа: распределения Гаусса, распределения с засорениями Коши и распределения с засорениями Лапласа. Для распределений Коши и Лапласа взяты усредненные значения вне зависимости от симметричности отклонений. Зависимости для среднего времени вычисления 1000 экспериментов от размерности выборки с коэффициентом детерминации $R^2=0.98$ представлены в табл. 1 и на рис. 3.
Из полученных зависимостей выделим три важных момента:
- наименьшее время вычислений достигается для стандартного нормального распределения ошибок;
- зависимость времени от количества параметров модели пренебрежимо мала и асимптотически стремится к нулю независимо от типа засорений;
- наихудшее время наблюдается при засорении распределением Коши в сочетании с функцией потерь Рамсея.
Отдельно отметим, что временные характеристики для случаев без засорений и с засорениями по Лапласу оказываются статистически неразличимыми.
Рис. 3. Зависимость десятичного логарифма среднего времени обработки 1000 вычислительных экспериментов (сек.) от размера выборки $n$ при $m=3$: (a) для незасоренного распределения ошибок; (b) для распределения с засорениями по Коши
Figure 3. Decimal logarithm of the average processing time for 1000 simulation runs (seconds) as a function of sample size $n$ at $m=3$: (a) error distribution without contamination; (b) Cauchy-contaminated distribution]
Оценим вычислительную сложность ВМНК при вычислении коэффициентов регрессии по формуле (5). Основные вычислительные операции и их сложность:
- формирование матриц $\mathbf{U}$ и векторов $\mathbf{v}$: $O(n^2 m)$ и $O(n^2)$ операций соответственно;
- вычисление матричного произведения $\mathbf{U}^{\top} \mathbf{U}$: $O(n m^2)$ операций;
- вычисление обратных матриц: $O(m^3)$ операций;
- умножение на вектор $\mathbf{v}$: $O(n m)$ операций;
- определение вектора весов $\mathbf{p}$: $O(n m)$ операций;
- диагонализация вектора весов: $O(n)$ операций.
Таким образом, общая вычислительная сложность алгоритма составляет $O(n^2 m k)$ при $n \gg m$, где $k$ — количество итераций алгоритма.
Число итераций существенно зависит от способа засорения выборки, что свидетельствует о влиянии вида распределения и не позволяет использовать средние значения для однозначного определения соотношений для каждой функции потерь. Как показали исследования (см. табл. 1), наименьшее число итераций наблюдается для незасоренных выборок, а наибольшее — для выборок с засорениями по Коши. Это позволяет определить примерную область значений для числа операций в нотации Big O.
Экспериментальные данные демонстрируют слабую тенденцию роста числа итераций с увеличением размера выборки. В частности, для функции потерь Эндрюса получены следующие эмпирические зависимости:
- $k \approx 9.01 \cdot n^{0.01} m^{0.08}$ ($R^2=0.74$) при нормальном распределении;
- $k \approx 10.56 \cdot n^{0.08} m^{0.19}$ ($R^2=0.75$) при засорении по Коши.
Отметим слабую зависимость числа итераций $k$ от размера выборки и ее усиление при удлинении хвостов у распределения ошибок. Получены следующие характерные диапазоны числа итераций $k$:
- $10.5< k <19.8$ для функции Эндрюса;
- $11.3< k<20.6 $ для функции Мешалкина;
- $25.5<k<27.6$ для функции Рамсея.
Поэтому на практике в качестве $k$ целесообразнее использовать средние арифметические значения.
Функция потерь Эндрюса продемонстрировала наилучшие результаты по вычислительной эффективности, показав минимальное время работы и наименьшее число итераций среди всех рассмотренных вариантов независимо от типа распределения.
Для анализа точности использовалось сравнение среднеквадратических отклонений (СКО) оценок коэффициентов регрессии от истинных значений. Свободный член модели, хотя и улучшает интерпретацию результатов, может увеличивать СКО при наличии выбросов из-за своей чувствительности к распределению данных. Поэтому основное внимание уделено остальным коэффициентам.
Результаты показывают, что при $n=50$ для незасоренных данных и данных с засорением Лапласа СКО всех коэффициентов (кроме свободного члена) составляет 0.01 и уменьшается с ростом объема выборки. Это подтверждает высокую точность модели в описании зависимости между переменными.
Однако при засорении Коши наблюдаются значительные колебания СКО — от 0.1 до нескольких сотен, что делает применение ВМНК в таких случаях нецелесообразным.
2.2. Взвешенный метод наименьших модулей. Согласно критериям Стьюдента и Манна—Уитни, вероятность неотклонения нулевой гипотезы об однородности выборок для среднего времени расчета 1000 экспериментов и среднего числа итераций 100 экспериментов при использовании функций потерь $\operatorname{arctg}(|x|)$ и $\ln(|x|+1)$ для алгоритмов спуска превышает 0.05. Следовательно, у ВМНМ, в отличие от ВМНК, нет зависимости от вида распределения анализируемой выборки и алгоритм использует схожее количество вычислительных ресурсов как для незасоренных данных, так и для выборок с засорениями Коши и Лапласа.
Зависимости среднего времени расчета 1000 экспериментов для трех алгоритмов (покоординатного, градиентного и обобщенного спусков) с $R^2=0.99$ представлены в табл. 2. В алгоритме обобщенного спуска доля ошибочных решений не превысила установленный порог в 5%, что статистически незначимо.
По сравнению с ВМНК в ВМНМ наблюдается значительно более сильная зависимость от числа параметров модели $m$, обусловленная экспоненциальным ростом количества узловых точек при увеличении размерности. Этот эффект особенно выражен в алгоритме обобщенного спуска, где требуется уточнение решения полным перебором. В то же время уменьшение влияния размера выборки $n$ компенсирует возросшую зависимость от $m$, так как для построения надежной регрессионной модели необходимо выполнение условия $n \gg m$.
Использование функции потерь $\ln(|x|+1)$ позволило сократить как время работы алгоритмов, так и среднее количество итераций. По сравнению с $\operatorname{arctg}(|x|)$ для градиентного и покоординатного спусков наблюдается выигрыш в 5–10% по времени вычислений, который снижается с увеличением размерности выборки $n$. В случае обобщенного спуска с логарифмической функцией потерь при $m=2$ достигается примерно двукратное ускорение, однако при росте $m$ разница в быстродействии уменьшается до 1.5–5%.
Для оценки вычислительной сложности алгоритмов покоординатного и градиентного спусков отметим, что основное изменение в алгоритмах связано с добавлением итерационного пересчета, и после первой итерации процесс спуска практически прекращается. Для оценки дополнительной сложности, вносимой итерациями, рассчитано количество анализируемых узловых точек (${\approx m^{1.22}n^{0.77}}$) и переходов между узловыми прямыми ($\approx m^{0.26}/n^{0.18}$) на одной итерации. Согласно результатам работы [31], после уточнения сложность алгоритмов составляет $O(m^3 n^2+m^{1.97} n^{1.54} k)$ (для покоординатного спуска) и $O( m^3 n^2 \ln n + C_{\zeta n}^m (m^3 + mn))$ (для обобщенного спуска) с областью решений, соответствующей 95%-му уровню доверительной вероятности $\zeta_{95}=(7.06 \cdot m^{0.57})/n^{0.93}$.
Алгоритм градиентного спуска включает три основных этапа:
- $P_1$) поиск первого приближения в области из $48.3 \cdot m^{0.2}/n^{0.2}$ случайных наблюдений;
- $P_2$) анализ полной выборки;
- $P_3$) итерационный пересчет.
Число переходов между узловыми прямыми и число рассматриваемых узловых точек на этапе $P_1$ составляет $m^{0.8}n^{0.2}$ и $m^{1.5}n^{0.5}$, а на этапе $P_2$ — $mn^{0.15}$ и $m^{1.8}n^{0.5}$.
При $n \gg m$ вычислительная сложность этапов алгоритма такая:
\[
\begin{aligned}
P_1 &= O\bigl(m^{1.8}n^{1.2} (m^2 + \ln n + n^{0.3}/m^{0.3} )\bigr) = O(m^{1.8}n^{1.5}), \\
P_2 &= O\bigl(m^2n^{1.15} (m^2 + \ln n + n^{0.35}/m^{0.2} )\bigr) = O(m^{1.8}n^{1.5}), \\
P_3 &= O\bigl(m^{1.26}n^{0.82}k (m^2 + \ln n + n^{0.72}/m^{0.29} )\bigr) = O(m^{0.97}n^{1.54}k).
\end{aligned}
\]
Общая вычислительная сложность алгоритма:
\[
P = P_1 + P_2 + P_3 = O (m^{1.8}n^{1.5} + m^{0.97}n^{1.54}k ).
\]
Алгоритмы покоординатного и градиентного спусков по своей сути идентичны, причем первый представляет собой упрощенную версию второго. Следовательно, количество итераций пересчета весовых коэффициентов в обоих случаях оказывается сходным.
Применение критериев Стьюдента и Манна–Уитни показывает, что хотя вероятность принятия нулевой гипотезы в отдельных случаях снижается до 50%, среднее число итераций остается статистически неразличимым для различных типов засорений. Для используемых функций потерь установлены следующие зависимости $k$ с коэффициентом детерминации $R^2=0.97$:
- $k \approx 1.87 \cdot n^{0.12} m^{0.17}$ (в среднем 4.3 итерации) для $\ln(|x|+1)$;
- $k \approx 2.4 \cdot n^{0.09} m^{0.16}$ (в среднем 4.6 итерации) для $\operatorname{arctg}(|x|)$.
Таким образом, использование логарифма в качестве функции потерь более эффективно с точки зрения вычислительной трудоемкости, хотя существенного преимущества не наблюдается.
Оценка точности выполнена путем сравнения с решением, полученным методом обобщенного спуска. Согласно данным [27], оценки этого алгоритма отклоняются от результатов полного перебора узловых точек менее чем в 5% случаев, что статистически незначимо. В итоге решения, полученные алгоритмами ВМНМ, отличаются от точного в 100% случаев, однако эти отклонения меньше 0.5% и уменьшаются с ростом размера выборки.
Таким образом, независимо от выбранной функции потерь и типа распределения данных алгоритмы ВМНМ обеспечивают получение приближенного решения, максимально близкого к точному, при минимальных вычислительных затратах.
Анализ изменения времени работы алгоритмов показывает, что введение итерационного пересчета весов привело к увеличению времени работы алгоритмов:
- в 1.3–1.6 раза для градиентного спуска;
- в 1.4–2 раза для покоординатного спуска.
Полученные результаты демонстрируют, что хотя вычислительная сложность самих алгоритмов изменилась незначительно, дополнительные итерации существенно повысили их вычислительную трудоемкость.
2.3. Сравнительный анализ. Сравнительный анализ рассмотренных алгоритмов показывает, что наивысшая точность достигается при использовании обобщенного метода наименьших модулей, что обусловлено его максимальным соответствием результатам полного перебора. Однако данный алгоритм демонстрирует сильную зависимость от числа параметров модели $m$ из-за необходимости уточнения решения полным перебором.
Алгоритмы ВМНК и ВМНМ, согласно анализу среднеквадратических отклонений, обеспечивают высокую точность и согласованность результатов. При этом ВМНК и покоординатный спуск более чувствительны к числу наблюдений $n$, что существенно, поскольку для качественного моделирования требуется выполнение условия $n \gg m$. Дополнительно отметим, что в ВМНК количество итераций пересчета весовых коэффициентов в 2–6 раз превышает соответствующий показатель ВМНМ.
Для объективной оценки вычислительной трудоемкости обратимся к графикам сравнения времени работы алгоритмов (рис. 4), где представлены оптимальные по быстродействию варианты: ВМНК с функцией потерь Эндрюса (для незасоренных данных) и ВМНМ с логарифмической функцией потерь.
Рис. 4. Десятичный логарифм среднего времени вычислений (сек.) для 1000 вычислительных экспериментов алгоритмами ВМНК, ВМНМ и обобщенного спуска при (a) $m=3$ и (b) $n=150$
[Figure 4. Decimal logarithm of average computation time (seconds) for 1000 simulation runs using WLS, WLAD and generalized descent algorithms for cases: (a) $m=3$, and (b) $n=150$]
Таким образом, градиентный спуск по узловым прямым демонстрирует наилучшее быстродействие.
Наибольшее время при фиксированном количестве параметров модели наблюдается у ВМНК, а при фиксированном числе наблюдений — у обобщенного спуска.
Сравнение точности алгоритмов ВМНМ и ВМНК по разнице СКО от истинных значений выявило, что при $n=50$ и $m=2$ разница СКО составляет $0.006$ и уменьшается с ростом $m$ и $n$.
Полученные результаты свидетельствуют, что различия в точности оценок алгоритмов ВМНМ и ВМНК малы и малосущественны в контексте практического применения.
2.4. Вопросы практического применения. При решении практических задач регрессионного моделирования важно учитывать два типа взаимоисключающих ситуаций:
- ошибки первого рода («ложное срабатывание») — отвержение верной нулевой гипотезы об отсутствии связи между явлениями или искомого эффекта;
- ошибки второго рода («пропуск цели») — принятие неверной нулевой гипотезы.
МНК преимущественно подвержен ошибкам первого рода из-за чувствительности его оценок к нарушениям предпосылок $1^\circ$–$7^\circ$. A некорректное применение невыпуклых функций потерь может привести к ошибкам второго рода, когда игнорируются реальные изменения в данных.
Поэтому при регрессионном моделировании нужно ориентироваться на особенности решаемой задачи. Широкий арсенал разных методов оценивания гарантирует получение адекватных моделей.
В целом можно предложить следующие рекомендации по выбору метода при условии корректной спецификации модели.
Если нет оснований считать данные стохастически неоднородными, то МНК остается простым и надежным выбором для моделирования, при этом МНК- и МНМ-оценки будут близки. В случаях автокорреляции ошибок и пространственной гетероскедастичности (когда дисперсия ошибок коррелирует с объясняющими переменными) обычно достаточно применять обобщенный МНК, широко используемый в эконометрике [3].
При наличии засорений, не связанных с объясняющими переменными, рекомендуется использовать ВМНМ с функциями потерь, удовлетворяющими условиям $\lim\limits_{x \to +0} {\rho(x)}/{x} = 0$ и $\lim\limits_{x \to \infty} {\rho(x)}/{x} < \infty$, либо ВМНК с ${\lim\limits_{x \to \infty} \rho(x) < \infty}$. Если засорения носят симметричный характер, подходит метод Хьюбера [30], где ${\lim\limits_{x \to \infty} {\rho(x)}/{x} < \infty}$, практические аспекты реализации которого рассмотрены в [32].
Когда в модель включаются лаговые значения зависимой переменной, нарушается предпосылка $2^\circ$, так как эти переменные становятся случайными и коррелируют с ошибками $\boldsymbol{\varepsilon}$. В таких случаях при несимметричных засорениях требуются особо устойчивые оценки на основе ВМНМ с функциями потерь $\rho_{gld}(x)$.
Потребность в вогнутых и выпукло-вогнутых функциях потерь возникает при стохастической неоднородности данных в различных областях: экономике и финансах [33, 34], медицине [35], метеорологии [36], геофизике [37], технике [11, 38, 39, 40] и других.
2.5. Анализ динамики безработицы в Свердловской области в период пандемии COVID-19. Согласно данным Федеральной службы государственной статистики, в Свердловской области в период пандемии COVID-19 зафиксирован значительный рост уровня регистрируемой безработицы.
В развитие исследования [34] нами проанализированы ежемесячные данные за 2022–2023 годы. На рис. 5 представлена временная динамика уровня безработицы в регионе, демонстрирующая более чем пятикратное увеличение показателя в кризисный период (апрель 2020 – ноябрь 2021 гг.).
Рис. 5. Динамика уровня безработицы в Свердловской области за 2016–2023 годы
[Figure 5. Unemployment rate dynamics in Sverdlovsk Region, 2016-2023]
Для количественного анализа динамики этого показателя построена линейная регрессионная модель вида
\[
Y = a_1X_1 + a_2X_2,
\]
где $Y$ — уровень регистрируемой безработицы (%), $X_1 = 1$ (константа), $X_2$ — порядковая переменная (1–96, соответствуя месяцам с января 2016 г. по декабрь 2023 г.).
Результаты оценивания параметров модели представлены в табл. 3. Особый интерес представляют расчеты по данным, исключающим пандемийный период1 (последняя строка таблицы), которые соответствуют предпосылкам $1^\circ$–$7^\circ$ и могут рассматриваться как эталонные для всего анализируемого периода.
Анализ результатов позволяет сделать следующие выводы:
- наибольшую устойчивость к выбросам при сохранении точности оценивания демонстрируют ВМНМ и ОМНМ;
- ВМНМ точнее оценивает коэффициенты тренда, но менее устойчив к односторонним выбросам ($R^2 = 0.182$ против $0.213$ у ОМНМ);
- традиционный МНК показал низкую эффективность ($R^2 = 0.002$) и не позволяет построить трендовую модель, хотя его взвешенная версия (ВМНК) дает некоторое улучшение ($R^2 = 0.047$);
- на данных без пандемийного периода ВМНМ и ОМНМ демонстрируют статистически значимые результаты ($R^2 = 0.847$ и $0.830$ соответственно).
Полученные результаты подтверждают, что в условиях аномальных выбросов, характерных для кризисных периодов, традиционные методы оценивания требуют модификации, причем взвешенные методы (ВМНМ, ОМНМ) демонстрируют наилучший баланс между устойчивостью и точностью.
Заключение
В работе предложен подход к устойчивому линейному регрессионному моделированию в условиях стохастической неоднородности данных, основанный на сведении задачи оценивания с вогнутыми и выпукло-вогнутыми функциями потерь к итерационному применению ВМНК и ВМНМ. Исследованы вычислительные свойства этих алгоритмов и проведена оценка их трудоемкости, показавшая, что для типичных задач с небольшими выборками время вычислений не превышает нескольких секунд.
Сравнительный анализ выявил, что при сопоставимой точности ВМНК уступает ВМНМ в быстродействии, особенно при наличии засорений с вытянутыми хвостами распределений, что ограничивает его применение случаями без грубых ошибок. Для задач, требующих одновременно высокой скорости и точности, особенно при несимметричных засорениях, оптимальным решением является ВМНМ с алгоритмом градиентного спуска.
Когда приоритетом является максимальная точность без жестких ограничений на вычислительные затраты, особенно при комплексных нарушениях предпосылок регрессионного анализа, рекомендуется использовать ОМНМ, реализованный как алгоритм обобщенного спуска, избегая функций потерь с условием $\lim\limits_{x \to +0} {\rho(x)}/{x} = \infty$.
Разработанные практические рекомендации по применению метода вариационно-взвешенных приближений для невыпуклых функций потерь подчеркивают важность учета специфики стохастической неоднородности данных и требований конкретной задачи при выборе метода оценивания регрессионных зависимостей.
Конкурирующие интересы. Авторы заявляют об отсутствии конфликта интересов.
Авторский вклад. Все авторы внесли существенный вклад в исследование: участвовали в разработке методологии, проведении анализа и подготовке рукописи. Окончательная версия статьи была одобрена всеми соавторами перед подачей в печать.
Финансирование. Работа выполнена в соответствии с планом научно-исследовательских работ Института экономики Уральского отделения РАН.
Благодарности. Авторы выражают искреннюю признательность анонимным рецензентам за внимательное прочтение работы и конструктивные замечания, которые способствовали улучшению качества публикации.
1Из выборки были удалены наблюдения за период пандемии.
Об авторах
Олег Александрович Голованов
Институт экономики Уральского отделения РАН
Email: golovanov.oa@uiec.ru
ORCID iD: 0000-0002-9977-6954
SPIN-код: 4130-8355
Scopus Author ID: 58522704600
https://www.mathnet.ru/rus/person206252
младший научный сотрудник, центр экономической безопасности1
Россия, 620014, Екатеринбург, ул. Московская, 29Александр Николаевич Тырсин
Уральский федеральный университет; Институт экономики Уральского отделения РАН
Автор, ответственный за переписку.
Email: at2001@yandex.ru
ORCID iD: 0000-0002-2660-1221
SPIN-код: 1408-1093
Scopus Author ID: 8503427500
ResearcherId: T-5975-2017
https://www.mathnet.ru/rus/person29355
доктор технических наук, профессор; ведущий научный сотрудник; центр экономической безопасности1; заведующий кафедрой; каф. прикладной математики и механики2
Россия, 620002, Екатеринбург, ул. Мира, 19; 620014, Екатеринбург, ул. Московская, 29Список литературы
- Hoffmann J. P. Linear Regression Models. Applications in R. New York: CRC Press, 2022. xv+420 pp. DOI: https://doi.org/10.1201/9781003162230.
- Орлов А. И. Многообразие моделей регрессионного анализа (обобщающая статья) // Заводская лаборатория. Диагностика материалов, 2018. Т. 84, №5. С. 63–73. EDN: XQBSKD. DOI: https://doi.org/10.26896/1028-6861-2018-84-5-63-73.312
- Greene W. H. Econometric Analysis. New York: Pearson, 2020. 1176 pp.
- Айвазян С. А., Енюков И. С., Мешалкин Л. Д. Прикладная статистика: Исследование зависимостей. М.: Финансы и статистика, 1985. 488 с.
- Clarke B. Robustness Theory and Application. Hoboken, NJ: John Wiley & Sons, 2018. xxiii+215 pp. DOI: https://doi.org/10.1002/9781118669471.
- Орлов А. И. О требованиях к статистическим методам анализа данных (обобщающая статья) // Заводская лаборатория. Диагностика материалов, 2023. Т. 89, №11. С. 98–106. EDN: VEWJXD. DOI: https://doi.org/10.26896/1028-6861-2023-89-11-98-106.
- Salls D., Torres J. R., Varghese A. C., et al. Statistical characterization of random errors present in synchrophasor measurements / 2021 IEEE Power & Energy Society General Meeting (PESGM). Washington, DC, 2021. pp. 1–5. DOI: https://doi.org/10.1109/PESGM46819.2021.9638135.
- Ives A. R. Random Errors are Neither: On the Interpretation of Correlated Data // Methods in Ecology and Evolution, 2022. vol. 13, no. 10. pp. 2092–2105. DOI: https://doi.org/10.1111/2041-210X.13971.
- Болдин М. В., Симонова Г. И., Тюрин Ю. Н. Знаковый статистический анализ линейных моделей. М.: Наука, 1997. 288 с.
- Anandhi P., Prabhu S. M. The robust regression estimators: Performance & evaluation // Int. J. Stat. Appl. Math., 2023. vol. 8, no. 6. pp. 83–87. DOI: https://doi.org/10.22271/maths.2023.v8.i6a.1444.
- Колобов А. Б. Вибродиагностика: теория и практика. М.: Инфра-Инженерия, 2019. 252 с.
- Дубровская Ю. В. Анализ неоднородности экономического развития территорий в условиях цифровизации // Вестн. Омск. унив. Сер. Экономика, 2020. Т. 18, №2. С. 102–113. EDN: QWJRTP. DOI: https://doi.org/10.24147/1812-3988.2020.18(2).102-113.
- Bhatia S., Frangioni J. V., Hoffman R. M., et al. The challenges posed by cancer heterogeneity // Nature Biotechnology, 2012. vol. 30, no. 7. pp. 604–610. DOI: https://doi.org/10.1038/nbt.2294.
- Wan J.-Z., Wang C.-J., Marquet P. A. Environmental heterogeneity as a driver of terrestrial biodiversity on a global scale // Progr. Phys. Geogr., 2023. vol. 47, no. 6. pp. 912–930. DOI: https://doi.org/10.1177/03091333231189045.
- Atkinson A. C., Riani M., Torti F. Robust methods for heteroskedastic regression // Comput. Stat. Data Anal., 2016. vol. 104. pp. 209–222. DOI: https://doi.org/10.1016/j.csda.2016.07.002.
- Мудров В. И., Кушко В. Л. Методы обработки измерений. Квазиправдоподобные оценки. М.: Радио и связь, 1983. 304 с.
- Dodge Y. The Concise Encyclopedia of Statistics. New York, NY: Springer, 2008. ix+616 pp. DOI: https://doi.org/10.1007/978-0-387-32833-1.
- Акимов П. А., Матасов А. И. Итерационный алгоритм для $l_1$-аппроксимации в динамических задачах оценивания // Автомат. и телемех., 2015. №5. С. 7–26. EDN: TUBXHT.
- Тырсин А. Н. Алгоритмы спуска по узловым прямым в задаче оценивания регрессионных уравнений методом наименьших модулей // Заводская лаборатория. Диагностика материалов, 2021. Т. 87, №5. С. 68–75. EDN: OFEXNK. DOI: https://doi.org/10.26896/1028-6861-2021-87-5-68-75.
- Голованов О. А., Тырсин А. Н. Модифицированный алгоритм градиентного спуска по узловым прямым в задаче регрессионного анализа // Заводская лаборатория. Диагностика материалов, 2025. Т. 91, №3. С. 83–92. EDN: RLOBGS. DOI: https://doi.org/10.26896/1028-6861-2025-91-3-83-92.
- Тырсин А. Н., Соколов Л. А. Оценивание линейной регрессии на основе обобщенного метода наименьших модулей // Вестн. Сам. гос. техн. ун-та. Сер. Физ.-мат. науки, 2010. №5. С. 134–142. EDN: NCTNLB. DOI: https://doi.org/10.14498/vsgtu797.
- Cohen A., Migliorati G. Optimal weighted least-squares methods // SMAI J. Comput. Math., 2017. vol. 3. pp. 181–203. DOI: https://doi.org/10.5802/smai-jcm.25.313
- Панюков А. В., Тырсин А. Н. Взаимосвязь взвешенного и обобщенного вариантов метода наименьших модулей // Изв. Челяб. научн. центра, 2007. №1. С. 6–11. EDN: IBMJQX.
- Панюков А. В. Об устойчивом оценивании параметров авторегрессионных моделей на основе обобщенного метода наименьших модулей // Вестник НГУЭУ, 2015. №4. С. 339–346. EDN: VFZLFR.
- Weiszfeld E., Plastria F. On the point for which the sum of the distances to $n$ given points is minimum // Ann. Oper. Res., 2009. vol. 167, no. 1. pp. 7–41. DOI: https://doi.org/10.1007/s10479-008-0352-z.
- Тырсин А. Н., Азарян А. А. Точное оценивание линейных регрессионных моделей методом наименьших модулей на основе спуска по узловым прямым // Вестн. Южно-Ур. ун-та. Сер. Матем. Мех. Физ., 2018. Т. 10, №2. С. 47–56. EDN: YXCEWU. DOI: https://doi.org/10.14529/mmph180205.
- Голованов О. А., Тырсин А. Н. Повышение быстродействия алгоритма обобщенного метода наименьших модулей за счет уточнения области решений / Современные методы теории краевых задач. Понтрягинские чтения – XXXIII: Матер. Междун. конф. (Воронеж, 03–09 мая 2023 г.). Воронеж: ВГУ, 2023. С. 115–117. EDN: DHJTTI.
- Barbu A., Zhu S.-C. Introduction to Monte Carlo methods / Monte Carlo Methods. Singapore: Springer, 2020. pp. 1–17. DOI: https://doi.org/10.1007/978-981-13-2971-5_1.
- Tukey J. W. A survey of sampling from contaminated distributions / Contributions to Probability and Statistics. Redwood, CA: Stanford Univ. Press, 1960. pp. 443–485.
- Huber P. J., Ronchetti E. M. Robust Statistics / Wiley Series in Probability and Statistics. Hoboken, NJ: John Wiley & Sons, 2009. xvi+354 pp. DOI: https://doi.org/10.1002/9780470434697.
- Азарян А. А. Быстрые алгоритмы моделирования многомерных линейных регрессионных зависимостей на основе метода наименьших модулей : Дисс. . . . канд. физ.-мат. наук: 05.13.18 — Математическое моделирование, численные методы и комплексы программ. Екатеринбург: УрФУ, 2018. 148 с. EDN: LFRCIU.
- Tyrsin A. N., Golovanov O. A. Systems monitoring based on robust estimation of stochastic time series models // J. Phys.: Conf. Ser., 2022. vol. 2388, no. 1, 012074. EDN: JCWPQA. DOI: https://doi.org/10.1088/1742-6596/2388/1/012074.
- Гайомей Д. Высокочастотная оценка волатильности и цена опциона // Вестн. Алтайск. акад. экономики и права, 2022. №4-2. С. 167–176. EDN: BHQLDR. DOI: https://doi.org/10.17513/vaael.2153.
- Голованов О. А., Тырсин А. Н., Васильева Е. В. Оценка влияния пандемии COVID-19 на тренды социально-экономического развития региона России: кейс Свердловской области // J. Appl. Economic Res., 2022. Т. 21, №2. С. 257–281. EDN: EMXLYU. DOI: https://doi.org/10.15826/vestnik.2022.21.2.010.
- Кирьянов Б. Ф., Токмачев М. С. Математические модели в здравоохранении. Великий Новгород: НовГУ им. Ярослава Мудрого, 2009. 279 с. EDN: QLWOYH.
- Соболев Г. А., Закржевская Н. А., Мигунов И. Н. Влияние метеорологических условий на тектонические деформации в часовом диапазоне периодов // Физика Земли, 2021. №6. С. 20–35. EDN: HYRFUA. DOI: https://doi.org/10.31857/S0002333721060090.
- Короновский Н. В., Брянцева Г. В. Опасные природные процессы. М.: ИНФРА-М, 2024. 233 с.
- Новиков А. В., Губинский Д. Н., Зарай Е. А. Каротаж в процессе бурения — эффективный тайм-менеджмент и надежная база для оценки подсчетных параметров пласта // Актуальные проблемы нефти и газа, 2021. №3. С. 49–60. EDN: OWPUCJ. DOI: https://doi.org/10.29222/ipng.2078-5712.2021-34.art4.
- Клячкин В. Н., Кравцов Ю. А. Обнаружение нарушений при многомерном статистическом контроле технологического процесса // Программные продукты и системы, 2016. №3. С. 192–197. EDN: XEPQLZ. DOI: https://doi.org/10.15827/0236-235X.115.192-197.
- Vial G. Understanding digital transformation: A review and a research agenda // J. Strat. Inf. Syst., 2019. vol. 28, no. 2. pp. 118–144. DOI: https://doi.org/10.1016/j.jsis.2019.01.003.
Дополнительные файлы
