Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология
Образование Политология Производство Психология Стандартизация Технологии


КОРРЕЛЯЦИЯ. КОРРЕЛЯЦИОННЫЙ МОМЕНТ И КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ. УРАВНЕНИЕ РЕГРЕССИИ



 

В § 12 мы познакомились с понятием вероятностной зависимости и определили ее как такую зависимость, когда с изменением случай­ной величины X изменяется закон распределения случайной величины Y. Как мы уже знаем, закон распределения, например, для непрерыв­ной случайной величины задается кривой распределения у(х). В за­висимости от того, что изменяем в выражении у(х) - ее вид или только некоторые числовые характеристики, - различают несколько типов вероятностной зависимости. Одним из наиболее распространен­ных типов такой зависимости является так называемая корреляцион­ная зависимость, при которой с изменением х изменяется математиче­ское ожидание у (рис. 23, а и б). Оба рисунка иллюстрируют эту за­висимость, причем в первом случае изменение My происходит непрямо­линейно (криволинейная корреляция), а во втором - по закону пря­мой линии (прямолинейная корреляция). Эту последнюю зависимость часто называют для краткости корреляцией. Если зависимость между X и Y будет установлена и выражена формулой, то ее можно исполь­зовать для надлежащей организации и обработки результатов экспе­римента, например, измерений.

 

 

 

Рисунок 23.

Систему двух случайных величин, как и одну случайную величи­ну, кроме задания закона совместного распределения, определяют еще числовыми характеристиками, так называемыми специальными начальными и центральными моментами порядка s, q.

 

.     (1.87)

 

В частном случае, очевидно, имеем

 

                         (1.88)

 

В теории корреляции важнейшее значение имеет центральный смешанный момент второго порядка

 

                 (1.89)

 

который называют корреляционным моментом и обозначают Kxy .

Его  вычисляют по   формулам

 

                (1.90)

 

         (1.91)

 

соответственно для прерывных и непрерывных случайных величин.

Момент Kxy  как раз и характеризует силу, тесноту корреляции. Однако его значение зависит еще и от размерности случайных вели­чин. Для того чтобы освободиться от последней, вычисляют так на­зываемый коэффициент корреляции

 

                                            (1.92)

 

который численно характеризует силу корреляции в чистом виде.

Коэффициент корреляции изменяется в пределах  -1 ≤ r ≤ 1. Когда он равен +1 или -1, между х и у существует прямолинейная зависимость (рис. 24. а и б) у = ах + b.

 

 

Рисунок 24.

 

Рисунок 25.

 


   Рисунок 26.

В случае r < 0 имеет место отрицательная корреляция с умень­шением (увеличением) X величина Y имеет тенденцию увеличивать­ся (уменьшаться); при r > 0 говорят о положительной корреляции- с уменьшением (увеличением) X величина Y имеет тенденцию умень­шаться (увеличиваться).

На рис. 25 показана положительная корреляция, причем в первом случае она более тесная, чем во втором (r 1 > r 2), а на рис. 26 — от­рицательная корреляция, более тесная также в первом случае.

Если случайные величины X и Y независимы, то корреляционный момент Kxy  = 0 (также с rXY = 0).

Две корреляционные случайные величины также и зависимы. Об­ратное утверждение не всегда имеет место, т. е. если две величины зависимы, то они могут быть как коррелированными, так и некорре­лированными.

В том, что две зависимые величины могут быть некоррелированны­ми, легко убедиться на следующем примере.

Пусть поверхность распределения задана в виде   внут­ри эллипса   и   вне его. Найдем корреляцион­ный момент по формуле

 

.

 

Так как плотность распределения

 

 

симметрична относительно оси O у, то Мх = 0, аналогично MY = 0, так как плотность

 

 

симметрична относительно оси х.  Поэтому

 

 

Учитывая, что  f (xy) не содержит переменных, получим

 

 

Внутренний интеграл равен 0 (подынтегральная функция нечетна, пределы интегрирования симметричны относительно начала коорди­нат). Следовательно, Kxy = 0, т. е. x и у некоррелированы, однако зависимы, так как φ (xy) ≠ φ 1(x) φ 2(y).

На практике часто встречаются двухмерные случайные величины, распределение которых нормально. В этом случае

 

,

 

где , а так называемая экспонента ехр с = е c.

При нормальном законе распределения из некоррелированности следует и независимость х и у. В самом деле, пусть rXY = 0. Тогда

 

 

что и означает независимость случайных величин х и у.

Таким образом, если две случайные величины подчинены нормаль­ному закону распределения, то некоррелированность и независимость понятия тождественны.

Корреляционную зависимость, кроме задания ее тесноты, необхо­димо характеризовать формой.

Форма прямолинейной связи между X и Y выражается в виде так называемого уравнения регрессии Y  на X

 

                   (1.93)

 

 

или

 

                          (1.94)

где коэффициент

 

                                         (1.95)

 

- коэффициент регрессии у на х. На рис. 25, 26 сплошные линии являются уравнениями регрессии.

Существует уравнение регрессии х на у, имеющее вид

 

 

где

1.222. Доказать, что если случайные величины х и у независимы, то корреляционный момент     Кх y = 0.

Р е ш е н и е. Воспользуемся формулой (1.91). Имеем для независимых величин

 

                                  (1.96)

 

Но интегралы - сомножители в формуле (1.96) представляют собой центральные моменты первого порядка, равные нулю. Поэтому KXY = 0.

1.223. Доказать, что корреляционный момент

 

К XY = М [(х – М X)(у – М Y)]                                                                         (1.97)

 

можно представить в виде

 

К XY = М XY – М X М Y                                                                                       (1.93)

 

У к а з а н и е. Раскрыть скобки в выражении (1.97) и воспользоваться свойствами математического ожидания.

1.224. Доказать, что если между величинами X и Y имеет место функцио­нальная зависимость вида      у = ах + b, то коэффициент корреляции | r | = 1.

Доказательство. Имеем М Y  = а М X + b.

Поэтому для корреляционного момента получим

 

 

Дисперсия DY  = а2 σ 2  (по свойствам дисперсии (1.39 - 1.40), откуда σ Y = σ Y | a | σ X. (величина а взята по модулю, так как по определению стандарт - вели­чина всегда положительная). Поэтому

 

 

 

 

Рисунок 27.

 

1.225. Имеются три независимые случайные величины Z1, Z2 и Z3 с известными математическими ожиданиями   и с. к. о. . Найти коэффи­циент корреляции между функциями  

 

X = Z1 + Z2,  Y = Z1 + Z3;

 

и написать уравнение регрессии y на x.

Решение. Имея в виду формулы (1.92) и (1.98), находим, пользуясь свойствами матема­тического ожидания (1.35).

 

.

 

Поэтому   на основании (1.45). Следовательно,

На основании свойства дисперсии для независимых величин имеем  и   Поэтому

.

 

Если  , то

 

 

В этом случае уравнение регрессии будет  у = MY + 0, 5(x - Мх) .

1.226. Доказать, что коэффициент корреляции между двумя углами у1 и у2, измеренными способом круговых приемов (рис. 27), равен r = - 0, 5. Объяс­нить, что вызывает корреляцию этих углов. Построить уравнение регрессии у2  на у1 и у1  на у2.

1.227. Плотность распределения двухмерной случайной величины задана формулой

 

 

Найти с. к. о. σ X, σ Y и коэффициент корреляции rxy.

Ответ: σ X = √ 2.

1.228. Найти коэффициент корреляции и написать уравнение регрессии у2 на у1, если y1 = x1,                у = х1 - х2,  а .


§ 14. ПОНЯТИЕ О МНОГОМЕРНОМ РАСПРЕДЕЛЕНИИ. КОРРЕЛЯЦИОННАЯ МАТРИЦА

 

Обобщая понятие двухмерной случайной величины, говорят о со­вокупности случайных величин Х1, Х2, ..., Хп, которую называют п - мерным случайным вектором, а величины X i - его случайными координатами (составляющими). Закон распределения случайного вектора задают в виде функции совместного распределения

F(x) = p (X 1 < x 1, Х2 < х2, ..., Хп < хп)

 

или в виде плотности

 

 

Обобщением понятия математического ожидания случайной ве­личины является понятие математического ожидания случайного вектора, определенного в виде

 

,

 

а обобщением понятия дисперсии DX случайной величины является понятие корреляционной матрицы К случайного вектора X, опре­деляемой как математическое ожидание случайной матрицы (X - МХ)(Х - Мх)Т, т. е.              К X = M [(X - МХ)(Х - Мх)Т].

Так как по определению математическое ожидание случайной матрицы есть матрица, составленная из математических ожиданий ее элементов, то, например, при п = 3 получаем

 

 

или

 

 

где, как и ранее, обозначено   - дисперсии Xi, a Kij = KXiYj - корреляционные моменты Х i  и Xj. В общем случае мат­рица K имеет вид:

                          (1.99)

 

Таким образом, диагональными элементами  корреляционной матрицы являются дисперсии случайных величин Xi, а недиагональ­ными  - корреляционные моменты между случайными вели­чинами (при ). Так как ,  то корреляци­онная матрица всегда симметрична относительно главной, диагонали, т. е. .

Для независимых величин матрица K будет диагональной

 

                  (1.100)

 

Ее называют также дисперсионной матрицей. Если при этом все дис­персии равны между собой , то

 

                                                 (1.101)

 

где Е — единичная матрица.

Из матрицы (1.99) нетрудно составить так называемую нормиро­ванную корреляционную матрицу:

 

                                                        (1.102)

 

где rij - коэффициент корреляции между Xi и Xj, вычисляемый по формуле

 

                                 (1.103)

 

Большое значение в теории обработки геодезических измерений имеет так называемый нормальный случайный вектор, плотность рас­пределения вероятностей которого (плотность совместного распре­деления X 1, X 2, ..., Хп) имеет вид

 

 

(1.104)

 

где det К X - определитель корреляционной матрицы К X.

1.229. Из урны, в которой а белых и b черных шаров, вынимается один шар. Рассматриваются случайные величины:

 

 

Построить корреляционную и нормированную корреляционную матрицу систе­мы случайных величин.

Решение. Напишем ряд распределения для случайных величин X и Y. Очевидно, получим

 

xi 1 0
pxi
yi 1 0
Pyi

 

Далее находим математическое ожидание

 

 

Дисперсии

 

 

Аналогично

Корреляционный момент получим по формуле (1.90)

 

 

Но вероятности

 

 

Поэтому

 

(1.105)

 

Отсюда следует, что коэффициент корреляции

 

 

Корреляционная матрица

 

 

Заметим, что здесь определитель det K = 0. Такая матрица называется вырож­денной.

1.230. Могут ли быть корреляционными следующие матрицы:

 

 

Ответ: 1) да; 2) нет; 3) да; 4) да.

1.231. Написать плотность многомерного нормального распределения, если корреляционные матрицы К случайных векторов X и X имеют вид матриц K1 и K4 из предыдущей задачи.

1.232. Найти коэффициент корреляции rху , если det K = 1, a σ x = σ Y = 2.

Ответ: rху  = ±0, 75.

1.233. Написать нормированную корреляционную матрицу для пяти углов, измеренных способом круговых приемов. Указание (см. задачу 1.226).

Найти корреляционную матрицу, если с. к. о. измеренного направления σ = 3".


§ 15. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ, ДИСПЕРСИЯ И КОРРЕЛЯЦИОННАЯ МАТРИЦА ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН

 

Рассмотрим сначала произвольную функцию

 

F = f(X1, X2, ..., Хп),                                        (1.106)

 

аргументами которой являются случайные величины Х1, Х2,..., Хп. Будем полагать, что эта функция «почти линейная», если во всем диа­пазоне практически возможных значений аргументов она может быть с достаточной для практики точностью линеаризована. Это оз­начает, что

 

 

где

 

 

- значение частной производной, вычисленной по значению X, -, совпадающему с его математическим ожиданием.

Если математические ожидания неизвестны, то вместо них можно использовать приближенные значения , близкие к , например, значения Xi, полученные в результате измерений.

Математическое ожидание почти линейной функции  вычисляется по формуле

 

                                   (1.107)

 

а дисперсия

 

  (1.108)

 

где  - дисперсия случайной величины ,  - корреляци­онный момент величин Xi, Xj.

Когда случайные величины Xi и Xj некоррелированы,

 

                      (1.109)

 

Следует отметить, что формулы (1.107), (1.108) и (1.109) будут совершенно точными, когда функция Y линейна. Для нелинейных функций они являются приближенными и тем более точными, чем бли­же функция к линейной.

Например, для нелинейной функции и = XY, применяя формулу (1.107), получим Ми = МХМ Y. Однако из формулы (1.98) следует, что если случайные величины X и Y коррелированны, то

MXY = МхМу + Kxy                                                                     (1.109')

Следовательно, из-за того, что при линеаризации функции (1.106) опущены все нелинейные члены разложения, было утеряно второе слагаемое в формуле (1.109).

Существуют формулы, позволяющие уточнить результаты, полу­ченные методом линеаризации.

Рассмотрим теперь систему нескольких функций

 

                   (1.110)

 

Объект φ (Х) называют вектор - функцией. Ясно, что формула (1.106) является частным случаем формулы (1.110) при т = 1. В этом случае математическое ожидание

 

                  (1.111)

 

а корреляционная матрица

 

                                          (1.112)

 

где матрица  определяется следующим образом:

 

                                 (1.113)

 

т. е. каждая ее i - я строка содержит элементы, равные частным произ­водным i - й функции по аргументу.

Отметим, что выражения (1.107) и (1.109) являются частными слу­чаями формул (1.111) и (1.112) соответственно, когда имеется лишь одна функция (тогда ) и когда аргументы некоррелированы.

Для линейных функций вида Y = АХ + b, как частный случай получаем MY = АМХ + b, а корреляционная матрица KY опре­деляется также согласно формуле (1.112).

1.234.   Имеются две случайные величины X и Y, связанные соотношением Y = 2 - 3Х. Числовые характеристики величины X заданы: Мх = -1; Dx = 4.

Определить: а) математическое ожидание и дисперсию величины Y; б) кор­реляционный момент и коэффициент корреляции величин X, Y.

 Решение.

а) Мх = 2 - 3 Mх = 5,  DY = (-3)24 = 36;

б) KXY = М[Х Y] — МХМ Y = М[Х(2 — 3Х)] + 1 * 5 = 2МХ — З М[Х2] + 5.

Но М [Х2] = a2[Х] = Dx + М2х =4+1 = 5.

Поэтому KXY = - 2 - 3 - 5+5= - 12; rXY = -1.

1.235.   Имеется случайная величина X с математическим ожиданием Мх и дисперсией Dx. Найти математическое ожидание и дисперсию следующих случайных величин:

 

Y = —X; Z = X + 2Y - 1;  и = 3Х — Y + 2Z - 3.

 

Ответ: MY = — Мх; DY = Dx; М z = - MХ - 1; Dz = Dx; Ми = 2МХ - 5; Du = 4DX.

1.236.   Дана система случайных величин (X, У, Z) с заданными характеристиками: математическими ожиданиями Мх, MY, М z и корреляционной матри­цей

 

 

Найти математическое ожидание и дисперсию случайной величины

и = аХ - bY + cZ — d.

Ответ:

 

1.237. Даны функции

Y1 = X1 + X2; Y2 = X1 + X3

 

трех независимых случайных величин Xl, X2, X3, имеющих дисперсионную мат­рицу

 

 

Найти корреляционную матрицу системы случайных величин Y1 и Y2 и коэф­фициент корреляции .

Решение. Имея в виду применить формулу (1.112), составляем матрицу

 

 

и согласно формуле (1.112) находим

 

 

коэффициент корреляции   .

1.238. В условиях предыдущей задачи найти дисперсию функции Z = Y1 Y2.

Решение.

1-й способ. Применяя формулу (1.112), получим

 

 

2-й способ. Применяем формулу (1.108):

 

3-й способ. Выразим функцию Z через независимые случайные величины Xi. Будем иметь        Z = Y1 — Y2 = Х2 — Х3 . Применяя формулу (1.109), получим

 

 

1.239. Найти корреляционную матрицу и коэффициент корреляции двух уг­лов, измеренных способом круговых приемов (см. задачу 1.226). Найти дисперсию угла у3 = y1 + у2 , а также корреляционную матрицу углов.

Ответ:

1.240. Найти общее выражение корреляционной матрицы приращений ко­ординат

 

 

а также вычислить ее элементы при S = 200 м, σ S = 1 см, σ а = 3", а = 0°, 45°, 90°.

Ответ:

 

 

1.241. Найти дисперсии следующих функций:

 

1.

2.

3.

 

если корреляционная матрица вектора z имеет вид

.

 

1.242. Найти математические ожидания и корреляционную матрицу раз­ностей d = х1 - х2 и среднего значения  для случайных величин, если

Решение.

 

 

Применяя формулу (1.112), получаем

 

 

Отсюда следует, что

 

 

1.243. Найти математическое ожидание и дисперсию невязки ω угломерно­го хода, содержащего п углов, если углы измеряются без систематической ошибки с с. к. о. σ i = а.

Ответ:

1.244. Сделать то же самое, если каждый угол X i измеряется с систематичес­кой ошибкой, равной с.

Ответ: Mω = cn, σ 2 ω = σ 2 n.

1.245. Случайные величины X н Y представляют собой элементарные ошиб­ки, возникающие на входе прибора. Они имеют математические ожидания Мх = - 2 и MY = 4, дисперсии Dx = 4 и Dx = 9; коэффициент корреляции этих ошибок равен rXY = - 0, 5. Ошибка на выходе прибора связана с ошибками на входе функциональной зависимостью

 

Z = 3X2 - 2XY + Y2 - 3.

 

Найти математическое ожидание ошибки на выходе прибора.

Ответ: Mz = 68.

1.246. Ошибка прибора выражается функцией и = 3 Z + 2Х - X - 4, где X, Y, Z — так называемые «первичные ошибки», представляющие собой сис­тему случайных величин (случайный вектор).

Случайный вектор ( X, Y, Z) характеризуется математическими ожидания­ми М X = - 4, М Y = М Z = 1 и корреляционной матрицей

 

 

 

Определить математическое ожидание, дисперсию и среднее квадратическое от­клонение ошибки прибора.

Ответ: Ми = - 10, σ u 2 = 25, σ u = 5.

1.247. Доказать, что дисперсия произведения двух некоррелированных случайных величин X и Y выражается формулой

Получить формулу для вычисления дисперсии этой же функции (Z = XY) согласно формуле (1.109). Объяснить расхождение результатов.

Для оценки точности нелинейных функций применяют метод численного дифференцирования. З.М. Юршанским предложена приближенная формула [12]:

 

 

в которой величины qi определяются как разности

 

 

a Kij - элементы i-й строки корреляционной матрицы Кх причем К ii = σ 2. Для некоррелированных аргументов Ку = 0. Например, рассмотрим функцию

 

 

(расстояние от начала координат). Корреляционная матрица аргументов пусть будет

 

 

При X = 100 и Y = 200 м найдём

 

 

Следует заметить, что все вычисления необходимо выполнять с помощью микрокалькуляторов.

Решая эту же задачу по формуле (1.112), находим частные производные dS/ dX = cosa и dS/ dY = sina. Матрица А = (cosa sina) =(0, 8944 0, 4472) и дисперсия σ 2 = АК XАТ = 0, 024 м.

Возможен и другой путь решения задачи. Так, в работе [14] предлагается вычислить честные производные по приближенной формуле

 

 

Тогда для дисперсии функции справедливо выражение

 

 

в случае некоррелированных и

 

 

в случае коррелированных аргументов. Здесь коэффициент корреляции rij = Kij/ σ iσ j. Так, в нашей задаче

 

 






Глава 2.


Поделиться:



Последнее изменение этой страницы: 2019-04-09; Просмотров: 332; Нарушение авторского права страницы


lektsia.com 2007 - 2024 год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! (0.31 с.)
Главная | Случайная страница | Обратная связь