Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Мультиколлинеарность и методы борьбы с нею. Ридж – регрессии и метод главных компонент
При построении эконометрической модели предполагается, что независимые переменные воздействуют на зависимую изолированно, т. е. влияние отдельной переменной на результативный признак не связано с влиянием других переменных. В реальной экономической действительности все явления в той или иной мере связаны, поэтому добиться выполнения этого предположения практически невозможно. Наличие связи между независимыми переменными приводит к необходимости оценки ее влияния на результаты корреляционно-регрессионного анализа. Различают функциональные и стохастические связи между объясняющими переменными. В первом случае говорят об ошибках спецификации модели, которые должны быть исправлены. Функциональная связь возникает, если в уравнение регрессии в качестве объясняющих переменных включают, в частности, все переменные, входящие в тождество. Например, можно сказать, что доход складывается из потребления и инвестиций , т. е. имеет место тождество. Мы предполагаем, что уровень процентных ставок зависит от дохода, т.е. модель в общем виде может быть представлена в виде ; . Неопытный исследователь, желая улучшить модель, может включить в уравнение также переменные «потребление» и «инвестиции», что приведет к функциональной связи между объясняющими переменными: ; Функциональная взаимосвязь столбцов матрицы X приведет к невозможности найти единственное решение уравнения регрессии, так как , a нахождение обратной матрицы предполагает деление алгебраических дополнений матрицы на ее определитель, который в данном случае будет равен нулю. Более часто между объясняющими переменными наблюдается стохастическая связь, что приводит к уменьшению величины определителя матрицы : чем сильнее связь, тем меньше будет определитель. Это приводит к росту не только оценок параметров, полученных с использованием МНК, но и их стандартных ошибок, которые вычисляются по формуле (2.24): и которой, как мы видим, также используется матрица . Корреляционная связь может существовать как между двумя объясняющими переменными (интеркорреляция), так и между несколькими (мулыпиколлинеарностъ). Существует несколько признаков, указывающих на наличие мультиколлинеарности. В частности, такими признаками являются: - не соответствующие экономической теории знаки коэффициентов регрессии. Например, нам известно, что объясняющая переменная оказывает прямое воздействие на объясняемую переменную , в то же время коэффициент регрессии при этой переменной меньше нуля; - значительные изменения параметров модели при небольшом сокращении (увеличении) объема исследуемой совокупности; - незначимость параметров регрессии, обусловленная высокими значениями стандартных ошибок параметров. Существование корреляционной связи между независимыми переменными может быть выявлено с помощью показателей корреляции между ними, в частности с помощью парных коэффициентов корреляции , которые можно записать в виде матрицы . (55) Коэффициент корреляции переменной с самой собой равен единице , а коэффициент корреляции переменной с переменной , равен коэффициенту корреляции переменной с переменной . Следовательно, данная матрица является симметрической, поэтому в ней указывают только главную диагональ и элементы под ней: . Высокие значения парных линейных коэффициентов корреляции указывают на наличие интеркорреляции, т.е. линейной связи между двумя объясняющими переменными. Чем выше величина , тем выше интеркорреляция. Так как при построении моделей избежать отсутствия связей между объясняющими переменными практически невозможно, существует следующая рекомендация относительно включения двух переменных в модель в качестве объясняющих. Обе переменные можно включить в модель, если выполняются соотношения , (56) т.е. теснота связи результирующей и объясняющей переменных больше, чем теснота связи между объясняющими переменными. Наличие мультиколлинеарности можно подтвердить, найдя определитель матрицы (55). Если связь между независимыми переменными полностью отсутствует, то недиагональные элементы будут равны нулю, а определитель матрицы — единице. Если связь между независимыми переменными близка к функциональной (т.е. является очень тесной), то определитель матрицы будет близок к нулю. Еще один метод измерения мультиколлинеарности является следствием анализа формулы стандартной ошибки коэффициента регрессии (28): Как следует из данной формулы, стандартная ошибка будет тем больше, чем меньше будет величина, которую называют фактор инфляции дисперсии (или фактор вздутия дисперсии) VIF: , где - коэффициент детерминации, найденный для уравнения зависимости переменной от других переменных , входящих в рассматриваемую модель множественной регрессии. Так как величина отражает тесноту связи между переменной и прочими объясняющими переменными, то она, по сути, характеризует мультиколлинеарность применительно к данной переменной . При отсутствии связи показатель будет равен (или близок) единице, усиление связи ведет к стремлению этого показателя к бесконечности. Считают, что если для каждой переменной то имеет место мультиколлинеарность. Измерителем мультиколлинеарности является также так называемый показатель (число) обусловленности матрицы . Он равен отношению максимального и минимального собственных чисел этой матрицы: . (57) Считается, что если порядок этого соотношения превышает , то имеет место сильная мультиколлинеарность. Проверим наличие мультиколлинеарности в рассматриваемом нами примере 2. Матрица парных коэффициентов корреляции имеет вид . Можно отметить, что связи между объясняющими переменными достаточно тесные, особенно между переменными и ; и , что указывает на интеркорреляцию этих переменных. Более слабая связь наблюдается между переменными и . Найдем определитель матрицы . Полученное значение ближе к нулю, чем к единице, что указывает на наличие мультиколлинеарности объясняющих переменных. Проверим обоснованность включения всех трех независимых переменных в модель регрессии, используя правило (56). Парные линейные коэффициенты корреляции зависимой и независимых переменных равны Они больше, чем показатели тесноты связи между независимыми переменными, следовательно, правило (56) выполняется, все три переменные можно включить в модель регрессии. Измерим степень мультиколлинеарности переменных с помощью фактора инфляции дисперсии (VIF). Для этого необходимо рассчитать коэффициенты детерминации для регрессий: ; ; . Для этого к каждой регрессии необходимо применить МНК, оценить ее параметры и рассчитать коэффициент детерминации. Для нашего примера результаты расчетов следующие: ; ; . Следовательно, фактор инфляции дисперсии для каждой независимой переменной будет равен ; ; . Все рассчитанные величины не превысили критического значения, равного трем, следовательно, при построении модели можно пренебречь существованием связей между независимыми переменными. Для нахождения собственных чисел матрицы (с целью расчета показателя обусловленности (57)) необходимо найти решение характеристического уравнения . Матрица для нашего примера имеет вид , а матрица, модуль определителя которой нужно приравнять нулю, получится следующей: . Характеристический многочлен в данном случае будет иметь четвертую степень, что затрудняет решение задачи вручную. В данном случае рекомендуется воспользоваться возможностями вычислительной техники. Например, в ППП EViews получены следующие собственные числа матрицы : Следовательно, показатель обусловленности будет равен , что свидетельствует о наличии в модели сильной мультиколлинеарности. Методами устранения мультиколлинеарности являются следующие. 1. Анализ связей между переменными, включаемыми в модель регрессии в качестве объясняющих (независимых), с целью отбора только тех переменных, которые слабо связаны друг с другом. 2. Функциональные преобразования тесно связанных между собой переменных. Например, мы предполагаем, что поступление налогов в городах зависит от количества жителей и площади города. Очевидно, что эти переменные будут тесно связаны. Их можно заменить одной относительной переменной «плотность населения». 3. Если по каким-то причинам перечень независимых переменных не подлежит изменению, то можно воспользоваться специальными методами корректировки моделей с целью исключения мультиколинеарности: ридж-регрессией (гребневой регрессией), методом главных компонент. Применение ридж-регрессии предполагает корректировку элементов главной диагонали матрицы на некую произвольно задаваемую положительную величину . Значение рекомендуется брать от 0, 1 до 0, 4. Н. Дрейпер, Г. Смит в своей работе приводят один из способов «автоматического» выбора величины , предложенный Хоэрлом, Кеннардом и Белдвином: , (58) где - количество параметров (без учета свободного члена) в исходной модели регрессии; - остаточная сумма квадратов, полученная по исходной модели регрессии без корректировки на мультиколлинеарность; - вектор-столбец коэффициентов регрессии, преобразованных по формуле (59) где - параметр при переменной в исходной модели регрессии. После выбора величины формула для оценки параметров регрессии будет иметь вид (60) где - единичная матрица; - матрица значений независимых переменных: исходных или преобразованных по формуле (61); - вектор значений зависимой переменной: исходных или преобразованных по формуле (62). При построении ридж-регрессии рекомендуется преобразовывать независимые переменные (61) и результативную переменную . (62) В этом случае после оценки параметров по формуле (60) необходимо перейти к регрессии по исходным переменным, используя соотношения . (63) Оценки параметров регрессии, полученные с помощью формулы (60), будут смещенными. Однако, так как определитель матрицы больше определителя матрицы , дисперсия оценок параметров регрессии уменьшится, что положительно повлияет на прогнозные свойства модели. Рассмотрим применение ридж-регрессии для примера 2. Найдем величину х с помощью формулы (58). Для этого сначала рассчитаем вектор преобразованных коэффициентов регрессии по формуле (59): Произведение равно . Следовательно, рекомендуемое составит . После применения формулы (60) и преобразований по формуле (63) получим уравнение регрессии . Применение метода главных компонент предполагает переход от взаимозависимых переменных к независимым друг от друга переменным , которые называют главными компонентами. Каждая главная компонента , может быть представлена как линейная комбинация центрированных (или стандартизованных) объясняющих переменных . Напомним, что центрирование переменной предполагает вычитание из каждого -гo значения данной -й переменной ее среднего значения: , (64) а стандартизация (масштабирование) - деление выражения (64) на среднее квадратическое отклонение, рассчитанное для исходных значений переменной : . (65) Так как независимые переменные часто имеют разный масштаб измерения, формула (65) считается более предпочтительной. Количество компонент может быть меньше или равно количеству исходных независимых переменных . Компоненту с номером можно записать следующим образом: . (66) Можно показать, что оценки в формуле (66) соответствуют элементам -гособственного вектора матрицы - , где - матрица размером ( ), содержащая стандартизованные переменные. Нумерация главных компонент не является произвольной. Первая главная компонента имеет максимальную дисперсию, ей соответствует максимальное собственное число матрицы ; последняя - минимальную дисперсию и наименьшее собственное число. Доля дисперсии -йкомпоненты в общей дисперсии независимых переменных рассчитывается по формуле , (67) где - собственное число, соответствующее данной компоненте; в знаменателе формулы (67) приведена сумма всех собственных чисел матрицы . После расчета значений компонент строят регрессию, используя МНК. Зависимую переменную в регрессии по главным компонентам (68) целесообразно центрировать (стандартизовать) по формулам (64) или (65). (68) где - стандартизованная (центрированная) зависимая переменная; -коэффициенты регрессии по главным компонентам; - главные компоненты, упорядоченные по убыванию собственных чисел ; - случайный остаток. После оценки параметров регрессии (68) можно перейти к уравнению регрессии в исходных переменных, используя выражения (64) - (66). Рассмотрим применение метода главных компонент на данных примера 2. Отметим, что матрица для стандартизованных переменных является в то же время матрицей парных линейных коэффициентов корреляции между независимыми переменными. Она уже была рассчитана и равна Найдем собственные числа и собственные векторы этой матрицы, используя ППП Eviews. Получим следующие результаты. Собственные числа матрицы : Доля дисперсии независимых переменных, отражаемой компонентами, составила Объединим собственные векторы матрицы , записав их как столбцы приведенной ниже матрицы F. Они упорядочены по убыванию собственных чисел, т.е. первый столбец является собственным вектором максимального собственного числа ( ) и т.д.: . Следовательно, три компоненты (соответствующие трем собственным векторам) можно записать в виде После стандартизации исходных переменных по формуле (2.68) и расчета значений компонент (по значений каждой компоненты) с помощью МНК найдем параметры уравнения (2.71): В полученном уравнении регрессии значим только параметр при первой компоненте. Это закономерный результат с учетом того, что данная компонента описывает 70, 8% вариации независимых переменных. Так как компоненты независимы, при исключении из модели одних компонент параметры уравнения при других компонентах не меняются. Таким образом, имеем уравнение регрессии с одной компонентой: . Преобразуем полученное выражение в регрессию с исходными переменными Откуда Таким образом, используя метод главных компонент, мы получили уравнение регрессии Устранение мультиколлинеарности с помощью ридж-регрес-сии и метода главных компонент привело к определенному изменению параметров исходной регрессии, которая имела вид Отметим, что эти изменения были относительно невелики, что указывает на невысокую степень мультиколлинеарности. Популярное:
|
Последнее изменение этой страницы: 2016-03-25; Просмотров: 2521; Нарушение авторского права страницы