Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Оценка параметров регрессионной модели
Для нахождения оценок параметров bj множественной линейной регрессионной модели (коэффициентов эмпирического уравнения регрессии) используется метод наименьших квадратов (МНК). Суть МНК заключается в минимизации суммы квадратов отклонений наблюдаемых выборочных значений yi зависимой переменной Y от их модельных оценок . Отклонение еi, соответствующее уравнению регрессии в i-м наблюдении (i = 1, 2, …, n), рассчитывается по формуле: . (3.7) Тогда для нахождения коэффициентов по МНК минимизируется следующая функция m + 1 переменных: . (3.8) Необходимым условием минимума функции G является равенство нулю всех ее частных производных по Частные производные квадратичной функции (3.8) являются линейными функциями относительно параметров: . (3.9) Приравнивая (3.9) к нулю, получаем систему m + 1 линейных нормальных уравнений с m + 1 неизвестными для определения параметров модели: (3.10) где j = 1, 2, …, m – определяет набор регрессоров. Следует заметить, что включение в модель новых объясняющих переменных усложняет расчет коэффициентов множественной линейной регрессии путем решения системы (3.10) по сравнению с парной моделью. Система из трех уравнений, соответствующая модели с двумя объясняющими переменными , может быть легко решена методом определителей. Однако в общем виде решение системы (3.10) и анализ множественной регрессионной модели наиболее целесообразно проводить в векторно-матричной форме. Тогда, вводя матричные обозначения, запишем: , , .
Здесь Y – n-мерный вектор-столбец наблюдений зависимой переменной; Х – матрица размерности n · (m + 1) значений объясняющих переменных xij, в которой единица соответствует переменной при свободном члене ; – вектор-столбец размерности m + 1 оценок параметров модели (коэффициентов уравнения регрессии); е – вектор-столбец размерности n отклонений выборочных (реальных) значений yi зависимой переменной, от значений оценок , получаемых по уравнению регрессии. В матричной форме модель (3.1) примет вид: Y = XB + e. (3.11) Оценкой этой модели по выборочным данным является уравнение (эмпирическая модель) . (3.12) Предпосылки МНК (см. раздел 2.4.1.) в матричной форме можно записать следующим образом: 1. M(e) = 0; 2. D(e) = σ 2I. 3. Матрица ковариаций V(e) = M(e · eT) = σ 2E,
где – вектор-столбец случайных отклонений (ошибок); – (n · 1) вектор; – единичная матрица; – матрица ковариаций или ковариационная матрица вектора случайных отклонений, которая является многомерным аналогом дисперсии одной переменной и в которой, если предпосылка о некоррелированности отклонений ei и ej выполняется, все элементы, не лежащие на главной диагонали, равны нулю, а элементы главной диагонали равны одной и той же дисперсии D(ei) = σ 2; 4. e – нормально распределенный случайный вектор, т. е. e ~ N(0, σ 2Е); 5. r(X) = m + 1 > n – детерминированная матрица объясняющих переменных (регрессоров) имеет ранг r, равный числу определяемых параметров модели m + 1, кроме того, число имеющихся наблюдений каждой из объясняющих переменных и зависимой переменной превосходит ранг матрицы Х. Выполнение пятой предпосылки означает линейную независимость объясняющих переменных (линейную независимость столбцов матрицы Х), т. е. отсутствие функциональной мультиколлинеарности. Наша задача заключается в нахождении вектора оценок по МНК, который, при выполнении предпосылок 1–5, обладает наименьшим рассеянием относительно параметра B. Воспользовавшись известными соотношениями матричной алгебры и правилами дифференцирования по векторному аргументу, получим необходимое условие минимума функции G (равенство нулю вектор-столбца частных производных ) (3.13) откуда вытекает система нормальных уравнений в матричной форме для определения вектора (3.14) где ХТ – транспонированная матрица. Решением уравнения (3.14) является вектор оценок: (3.15) где (ХТХ)-1 – матрица, обратная ХТХ; ХТY – вектор-столбец свободных членов системы. Найдем матрицы, входящие в матричное уравнение (3.14): . (3.16) Матрица ХТХ образует симметричную матрицу сумм первых степеней, квадратов и попарных произведений n наблюдений объясняющих переменных. . (3.17) Матрица ХТХ представляет вектор-столбец произведений n наблюдений объясняющих и зависимой переменных. Зная вектор коэффициентов множественной линейной регрессии (3.15), находим оценку (групповую среднюю) зависимой переменной Y при заданном векторе значений объясняющей (факторной) переменной Пример 3.1. Для иллюстрации получим формулы для расчета коэффициентов парной регрессии (m = 1), используя матричные обозначения. В соответствии с (3.17) определим матрицу А-1 = (ХТХ)-1 по формуле: , где detA – определитель матрицы ХТХ; A*– присоединенная матрица. Для данного примера: .
, .
. Тогда вектор оценок для частного случая m = 1 определяется как: , откуда следуют формулы (2.11) для определения параметров парной регрессионной модели.
Популярное:
|
Последнее изменение этой страницы: 2016-06-05; Просмотров: 1351; Нарушение авторского права страницы