Гребневая регрессия
Гребнева́я регре́ссия (англ. ridge regression), вариация линейной регрессии, которая используется для решения проблемы мультиколлинеарности (наличие линейной зависимости между объясняющими переменными, которая приводит к неустойчивости оценок параметров) в статистике, эконометрике, нейронных сетях. За счёт регуляризации гребневая регрессия борется с переобучением (ситуацией, в которой модель хорошо объясняет примеры из обучающей выборки, но плохо работает на примерах из тестовой выборки), что улучшает качество модели. В данном методе к задаче минимизации суммы квадратов остатков добавляется квадратичный штраф на величину коэффициентов, который также называют -регуляризацией ( regularization) или регуляризацией Тихонова. Термин гребневая регрессия был предложен математиками А. Хоэрлом (1921–1994) и Р. Кеннардом (1923–2011) в 1970 г.
Пусть есть выборка из наблюдений, которые состоят из зависимой (объясняемой) переменной и регрессоров. Тогда оценка гребневой регрессии задаётся как:
,
где – -ое наблюдение зависимой переменной, – -ое наблюдение -го регрессора, – свободный член, – коэффициенты модели, – параметр регуляризации.
Параметр накладывает штраф на сложность модели. При модель сводится к методу наименьших квадратов. Чем больше значение параметра , тем ближе коэффициенты модели оказываются к нулю. Оптимальное значение параметра подбирается отдельно для каждой конкретной задачи.
Свободный член не включается в штрафное слагаемое, иначе величина смещения оценок коэффициентов стала бы зависеть от начала координат для . Если бы свободный член входил в штрафное слагаемое, то изменение всех на (например, переход к центрированным данным путём вычитания среднего) привело бы к изменению оценок угловых коэффициентов и изменению прогнозов модели на величину, отличную от .
Регрессоры должны быть стандартизованы, т. е. должны удовлетворять условиям:
.
Если зависимая переменная центрирована, т. е. , то задачу по определению оценок коэффициентов гребневой регрессии можно переписать в матричной форме:
.
Оценка параметров для гребневой регрессии в матричной форме задаётся соотношением:
,
где – единичная матрица . Матрицу называют гребнем.
Оценка гребневой регрессии является смещённой, где смещение определяется как:
.
Дисперсия оценок для гребневой регрессии находится по формуле:
,
что ниже, чем для линейной регрессии без регуляризации.
Таким образом, гребневая регрессия увеличивает эффективность оценок (снижает дисперсию оценок) в обмен на некоторую величину смещения.
-регуляризацию или гребневую регрессию иногда называют регуляризацией Тихонова, ссылаясь на работы А. Н. Тихонова по обратным и некорректно поставленным (задача, которая не обладает одним из свойств: существование, единственность и устойчивость решения) задачам. Идея квадратичного штрафа на величину параметров также используется в нейронных сетях.
На рисунке изображён случай гребневой регрессии с двумя параметрами. Сумма квадратов остатков изображена в виде красных эллипсов с центром в точке, координаты которой соответствуют оценкам коэффициентов линейной регрессии без регуляризации. Голубая область – это штрафное ограничение . Решение для случая гребневой регрессии находится в точке касания контуров суммы квадратов остатков и границы голубой области.
-регуляризация уменьшает коэффициенты, а не приравнивает их к нулю, поэтому гребневая регрессия не упрощает модель за счёт исключения переменных. Следовательно, количество переменных в модели не меняется, а значит, модель не становится более интерпретируемой с содержательной точки зрения. Для преодоления этого недостатка был предложен метод эластичной сети, в котором используется как , так и -регуляризация.