Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология
Образование Политология Производство Психология Стандартизация Технологии


Теоретические сведения. Базовые понятия



Будем предполагать, что несколько переменных (объясняющих переменных, предикторов, факторных признаков, регрессоров) оказывают воздействие на значения зависимой переменной Y (отклик, результативный признак), т.е. имеет место зависимость.

В этом случае целесообразно строить уравнение множественной регрессии.

Множественная регрессия – уравнение связи зависимой переменной с независимыми переменными :

Линейное уравнение множественной регрессии имеет вид

(7.1)

где - параметры уравнения.

Пусть имеется п -наблюдений, тогда исходные данные представимы в виде матрицы размерности п на р и вектора размерности п :

(7.2)

Все элементы i-ой строки и i-ого элемента вектора Yi - результаты i-ого наблюдения. Будем предполагать, что все наблюдения независимы и получены примерно в одинаковых условиях. В этом случае набор данных, определяемый соотношениями (7.2) называют пространственной выборкой или пространственными данными (cross section data).На практике эти значения часто получаются как результаты некоторого эксперимента, поэтому их часто называют наблюдаемыми или экспериментальными или эмпирическими значениями.

Для оценки параметров уравнения множественной регрессии применяют метод наименьших квадратов (МНК). Идея этого метода была подробно рассмотрена в лабораторной работе №5 «Линейная парная регрессия» (ЛР №5) [1]. Все соображения и выводы применимы и в случае множественной линейной регрессии с поправкой на количество факторов.

При использовании линейного уравнения множественной регрессии справедливо соотношение

,

где ei, - случайные компоненты, которые также называют случайными членами или возмущениями или регрессионными остатками.

Присутствие в этом соотношении случайной компоненты ei, обусловлено следующими причинами:

- ошибками спецификации, то есть отбора факторов, и выбора связи между явлениями;

- ошибками измерения.

Будем полагать, что относительно e выполняется ряд утверждений, известных как условия Гаусса-Маркова:

  1. Равенство нулю математического ожидания регрессионных остатков:

;

2. Постоянство дисперсии регрессионных остатков (гомоскедастичность остатков):

;

  1. Отсутствие систематической связи (корреляции) между значениями регрессионных остатков в любых двух наблюдениях: ;
  2. - неслучайные величины.

 

Для определения параметров уравнения множественной линейной регрессии по МНК составляется сумма

.

Она равна сумме квадратов отклонений (остатков) наблюдаемых (эмпирических) значений отклика от теоретических значений в точке , при этом - теоретические значения отклика в i-ом наблюдении.. Величина суммы зависит от коэффициентов . Цель метода наименьших квадратов (МНК) заключается в выборе таких оценок , для которых сумма квадратов отклонений (остатков) будет минимальной.

Для того чтобы найти набор коэффициентов , которые доставляют минимум функции , используем необходимое условие экстремума функции нескольких переменных - равенство нулю частных производных

В результате преобразований получаем следующую систему нормальных уравнений:

(7.3)

Для ее решения может быть применен любой известный метод решения системы линейных уравнений.

Коэффициенты в уравнении (7.3) называются коэффициентами множественной регрессии. Величина коэффициента показывает среднее изменение отклика Y при изменении фактора Xj на единицу.

Другой вид уравнения множественной регрессии - уравнение регрессии в стандартизованном масштабе:

(7.4)

где: - стандартизованные переменные;

, - число неизвестных;

, - средние значения;

- средние квадратические отклонения;

-стандартизованные коэффициенты регрессии.

В силу того, что стандартизованные переменные заданы как центрированные (средние значения ) и нормированные (средние квадратические отклонения ), стандартизованные коэффициенты регрессии сравнимы между собой, и с их помощью можно ранжировать факторы по силе их воздействия на результат.

Для определения коэффициентов уравнения множественной регрессии в стандартизованном масштабе так же применим МНК. Коэффициенты можно получить, решая систему, аналогичную системе (7.3). Эту систему можно преобразовать, и тогда, стандартизованные коэффициенты регрессии определяются из следующей системы уравнений:

, (7.5)

где

§ - коэффициент парной корреляции между факторами Xi и Xj,

§ - коэффициент парной корреляции между откликом Y ифактором Xj.

Отметим, что связь коэффициентов множественной регрессии со стандартизованными коэффициентами описывается соотношением

. (7.6)

Стандартизованный коэффициент регрессии показывает, на сколько величин в среднем изменится отклик при увеличении j-го фактора на одну величину .

Средние коэффициенты эластичности для линейной регрессии рассчитываются по формуле:

(7.7).

Средний коэффициент эластичности показывает на сколько процентов в среднем изменится отклик при изменении его среднего значения фактора Xj на один процент, при неизменном значении остальных факторов.

 

Множественная корреляция

Тесноту совместного влияния факторов на результат показывают коэффициент множественной детерминации и индекс множественной корреляции.

Качество построенной модели в целом оценивается коэффициентом множественной детерминации, который определяется формулой:

, (7.8)

где - остаточная сумма квадратов отклонений,

- общая сумма квадратов отклонений значений от среднего арифметического значения отклика Y.

Для линейной регрессии можно доказать следующее равенство: , где - факторная или регрессионная сумма квадратов отклонений.

Остаточная сумма квадратов отклонений характеризует суммарное отклонение наблюдаемых (эмпирических) данных от теоретических значений, найденных по уравнению регрессии. Факторная или регрессионная сумма квадратов отклонений характеризует разброс теоретических значений относительно среднего арифметического значения наблюдаемого значения (отклика).

Все свойства коэффициента детерминации указаны в ЛР №5. Так, значение этого коэффициента лежит в пределах от 0 до 1. Это значение показывает долю объясненной вариации результативного признака (отклика) за счет включенных в уравнение p факторов, т.е. насколько хорошо уравнение, полученное с помощью регрессионного анализа, объясняет взаимосвязь между откликом и факторами. Доля необъясненной вариации отклика других, не учтенных в модели факторов, равна . Коэффициент детерминированности служит показателем тесноты связи между независимой переменной и факторами. Показателю тесноты связи можно дать качественную оценку (шкала Чеддока):

Таблица 7.1

Шкала Чеддок а

Количественная мера тесноты связи Качественная характеристика силы связи
0, 1-0, 3 Слабая
0, 3-0, 5 Умеренная
0, 5-0, 7 Заметная
0, 7-0, 9 Высокая
0, 9-0, 99 Весьма высокая

Величину для уравнения множественной регрессии в стандартизованном масштабе можно определить по формуле

(7.9)

Индекс множественной корреляции так же характеризует тесноту связи между факторами и откликом. Индекс множественной корреляции связан с коэффициентом множественной детерминации естественным соотношением.

(7.10)

Очевидно что, значение лежит в пределах от 0 до 1. Также выполняется следующее соотношение , где парный индекс корреляции.

При линейной зависимости коэффициент множественной корреляцииможно определить через матрицу парных коэффициентов корреляции:

, (7.11)

где , (7.12)- определитель матрицы парных коэффициентов корреляции;

-, (7.13)

определитель матрицы межфакторной корреляции, полученный из матрицы парных коэффициентов корреляции вычеркиванием первой строки и первого столбца.


Поделиться:



Популярное:

Последнее изменение этой страницы: 2016-05-03; Просмотров: 679; Нарушение авторского права страницы


lektsia.com 2007 - 2024 год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! (0.024 с.)
Главная | Случайная страница | Обратная связь