Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
КОРРЕЛЯЦИЯ. КОРРЕЛЯЦИОННЫЙ МОМЕНТ И КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ. УРАВНЕНИЕ РЕГРЕССИИ
В § 12 мы познакомились с понятием вероятностной зависимости и определили ее как такую зависимость, когда с изменением случайной величины X изменяется закон распределения случайной величины Y. Как мы уже знаем, закон распределения, например, для непрерывной случайной величины задается кривой распределения у(х). В зависимости от того, что изменяем в выражении у(х) - ее вид или только некоторые числовые характеристики, - различают несколько типов вероятностной зависимости. Одним из наиболее распространенных типов такой зависимости является так называемая корреляционная зависимость, при которой с изменением х изменяется математическое ожидание у (рис. 23, а и б). Оба рисунка иллюстрируют эту зависимость, причем в первом случае изменение My происходит непрямолинейно (криволинейная корреляция), а во втором - по закону прямой линии (прямолинейная корреляция). Эту последнюю зависимость часто называют для краткости корреляцией. Если зависимость между X и Y будет установлена и выражена формулой, то ее можно использовать для надлежащей организации и обработки результатов эксперимента, например, измерений.
Рисунок 23. Систему двух случайных величин, как и одну случайную величину, кроме задания закона совместного распределения, определяют еще числовыми характеристиками, так называемыми специальными начальными и центральными моментами порядка s, q.
. (1.87)
В частном случае, очевидно, имеем
(1.88)
В теории корреляции важнейшее значение имеет центральный смешанный момент второго порядка
(1.89)
который называют корреляционным моментом и обозначают Kxy . Его вычисляют по формулам
(1.90)
(1.91)
соответственно для прерывных и непрерывных случайных величин. Момент Kxy как раз и характеризует силу, тесноту корреляции. Однако его значение зависит еще и от размерности случайных величин. Для того чтобы освободиться от последней, вычисляют так называемый коэффициент корреляции
(1.92)
который численно характеризует силу корреляции в чистом виде. Коэффициент корреляции изменяется в пределах -1 ≤ r ≤ 1. Когда он равен +1 или -1, между х и у существует прямолинейная зависимость (рис. 24. а и б) у = ах + b.
Рисунок 24.
Рисунок 26. В случае r < 0 имеет место отрицательная корреляция с уменьшением (увеличением) X величина Y имеет тенденцию увеличиваться (уменьшаться); при r > 0 говорят о положительной корреляции- с уменьшением (увеличением) X величина Y имеет тенденцию уменьшаться (увеличиваться). На рис. 25 показана положительная корреляция, причем в первом случае она более тесная, чем во втором (r 1 > r 2), а на рис. 26 — отрицательная корреляция, более тесная также в первом случае. Если случайные величины X и Y независимы, то корреляционный момент Kxy = 0 (также с rXY = 0). Две корреляционные случайные величины также и зависимы. Обратное утверждение не всегда имеет место, т. е. если две величины зависимы, то они могут быть как коррелированными, так и некоррелированными. В том, что две зависимые величины могут быть некоррелированными, легко убедиться на следующем примере. Пусть поверхность распределения задана в виде внутри эллипса и вне его. Найдем корреляционный момент по формуле
.
Так как плотность распределения
симметрична относительно оси O у, то Мх = 0, аналогично MY = 0, так как плотность
симметрична относительно оси х. Поэтому
Учитывая, что f (xy) не содержит переменных, получим
Внутренний интеграл равен 0 (подынтегральная функция нечетна, пределы интегрирования симметричны относительно начала координат). Следовательно, Kxy = 0, т. е. x и у некоррелированы, однако зависимы, так как φ (xy) ≠ φ 1(x) φ 2(y). На практике часто встречаются двухмерные случайные величины, распределение которых нормально. В этом случае
,
где , а так называемая экспонента ехр с = е c. При нормальном законе распределения из некоррелированности следует и независимость х и у. В самом деле, пусть rXY = 0. Тогда
что и означает независимость случайных величин х и у. Таким образом, если две случайные величины подчинены нормальному закону распределения, то некоррелированность и независимость понятия тождественны. Корреляционную зависимость, кроме задания ее тесноты, необходимо характеризовать формой. Форма прямолинейной связи между X и Y выражается в виде так называемого уравнения регрессии Y на X
(1.93)
или
(1.94) где коэффициент
(1.95)
- коэффициент регрессии у на х. На рис. 25, 26 сплошные линии являются уравнениями регрессии. Существует уравнение регрессии х на у, имеющее вид
где 1.222. Доказать, что если случайные величины х и у независимы, то корреляционный момент Кх y = 0. Р е ш е н и е. Воспользуемся формулой (1.91). Имеем для независимых величин
(1.96)
Но интегралы - сомножители в формуле (1.96) представляют собой центральные моменты первого порядка, равные нулю. Поэтому KXY = 0. 1.223. Доказать, что корреляционный момент
К XY = М [(х – М X)(у – М Y)] (1.97)
можно представить в виде
К XY = М XY – М X М Y (1.93)
У к а з а н и е. Раскрыть скобки в выражении (1.97) и воспользоваться свойствами математического ожидания. 1.224. Доказать, что если между величинами X и Y имеет место функциональная зависимость вида у = ах + b, то коэффициент корреляции | r | = 1. Доказательство. Имеем М Y = а М X + b. Поэтому для корреляционного момента получим
Дисперсия DY = а2 σ 2 (по свойствам дисперсии (1.39 - 1.40), откуда σ Y = σ Y | a | σ X. (величина а взята по модулю, так как по определению стандарт - величина всегда положительная). Поэтому
Рисунок 27.
1.225. Имеются три независимые случайные величины Z1, Z2 и Z3 с известными математическими ожиданиями и с. к. о. . Найти коэффициент корреляции между функциями
X = Z1 + Z2, Y = Z1 + Z3;
и написать уравнение регрессии y на x. Решение. Имея в виду формулы (1.92) и (1.98), находим, пользуясь свойствами математического ожидания (1.35).
.
Поэтому на основании (1.45). Следовательно, На основании свойства дисперсии для независимых величин имеем и Поэтому .
Если , то
В этом случае уравнение регрессии будет у = MY + 0, 5(x - Мх) . 1.226. Доказать, что коэффициент корреляции между двумя углами у1 и у2, измеренными способом круговых приемов (рис. 27), равен r = - 0, 5. Объяснить, что вызывает корреляцию этих углов. Построить уравнение регрессии у2 на у1 и у1 на у2. 1.227. Плотность распределения двухмерной случайной величины задана формулой
Найти с. к. о. σ X, σ Y и коэффициент корреляции rxy. Ответ: σ X = √ 2. 1.228. Найти коэффициент корреляции и написать уравнение регрессии у2 на у1, если y1 = x1, у = х1 - х2, а . § 14. ПОНЯТИЕ О МНОГОМЕРНОМ РАСПРЕДЕЛЕНИИ. КОРРЕЛЯЦИОННАЯ МАТРИЦА
Обобщая понятие двухмерной случайной величины, говорят о совокупности случайных величин Х1, Х2, ..., Хп, которую называют п - мерным случайным вектором, а величины X i - его случайными координатами (составляющими). Закон распределения случайного вектора задают в виде функции совместного распределения F(x) = p (X 1 < x 1, Х2 < х2, ..., Хп < хп)
или в виде плотности
Обобщением понятия математического ожидания случайной величины является понятие математического ожидания случайного вектора, определенного в виде
,
а обобщением понятия дисперсии DX случайной величины является понятие корреляционной матрицы К случайного вектора X, определяемой как математическое ожидание случайной матрицы (X - МХ)(Х - Мх)Т, т. е. К X = M [(X - МХ)(Х - Мх)Т]. Так как по определению математическое ожидание случайной матрицы есть матрица, составленная из математических ожиданий ее элементов, то, например, при п = 3 получаем
или
где, как и ранее, обозначено - дисперсии Xi, a Kij = KXiYj - корреляционные моменты Х i и Xj. В общем случае матрица K имеет вид: (1.99)
Таким образом, диагональными элементами корреляционной матрицы являются дисперсии случайных величин Xi, а недиагональными - корреляционные моменты между случайными величинами (при ). Так как , то корреляционная матрица всегда симметрична относительно главной, диагонали, т. е. . Для независимых величин матрица K будет диагональной
(1.100)
Ее называют также дисперсионной матрицей. Если при этом все дисперсии равны между собой , то
(1.101)
где Е — единичная матрица. Из матрицы (1.99) нетрудно составить так называемую нормированную корреляционную матрицу:
(1.102)
где rij - коэффициент корреляции между Xi и Xj, вычисляемый по формуле
(1.103)
Большое значение в теории обработки геодезических измерений имеет так называемый нормальный случайный вектор, плотность распределения вероятностей которого (плотность совместного распределения X 1, X 2, ..., Хп) имеет вид
(1.104)
где det К X - определитель корреляционной матрицы К X. 1.229. Из урны, в которой а белых и b черных шаров, вынимается один шар. Рассматриваются случайные величины:
Построить корреляционную и нормированную корреляционную матрицу системы случайных величин. Решение. Напишем ряд распределения для случайных величин X и Y. Очевидно, получим
Далее находим математическое ожидание
Дисперсии
Аналогично Корреляционный момент получим по формуле (1.90)
Но вероятности
Поэтому
(1.105)
Отсюда следует, что коэффициент корреляции
Корреляционная матрица
Заметим, что здесь определитель det K = 0. Такая матрица называется вырожденной. 1.230. Могут ли быть корреляционными следующие матрицы:
Ответ: 1) да; 2) нет; 3) да; 4) да. 1.231. Написать плотность многомерного нормального распределения, если корреляционные матрицы К случайных векторов X и X имеют вид матриц K1 и K4 из предыдущей задачи. 1.232. Найти коэффициент корреляции rху , если det K = 1, a σ x = σ Y = 2. Ответ: rху = ±0, 75. 1.233. Написать нормированную корреляционную матрицу для пяти углов, измеренных способом круговых приемов. Указание (см. задачу 1.226). Найти корреляционную матрицу, если с. к. о. измеренного направления σ = 3". § 15. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ, ДИСПЕРСИЯ И КОРРЕЛЯЦИОННАЯ МАТРИЦА ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН
Рассмотрим сначала произвольную функцию
F = f(X1, X2, ..., Хп), (1.106)
аргументами которой являются случайные величины Х1, Х2,..., Хп. Будем полагать, что эта функция «почти линейная», если во всем диапазоне практически возможных значений аргументов она может быть с достаточной для практики точностью линеаризована. Это означает, что
где
- значение частной производной, вычисленной по значению X, -, совпадающему с его математическим ожиданием. Если математические ожидания неизвестны, то вместо них можно использовать приближенные значения , близкие к , например, значения Xi, полученные в результате измерений. Математическое ожидание почти линейной функции вычисляется по формуле
(1.107)
а дисперсия
(1.108)
где - дисперсия случайной величины , - корреляционный момент величин Xi, Xj. Когда случайные величины Xi и Xj некоррелированы,
(1.109)
Следует отметить, что формулы (1.107), (1.108) и (1.109) будут совершенно точными, когда функция Y линейна. Для нелинейных функций они являются приближенными и тем более точными, чем ближе функция к линейной. Например, для нелинейной функции и = XY, применяя формулу (1.107), получим Ми = МХМ Y. Однако из формулы (1.98) следует, что если случайные величины X и Y коррелированны, то MXY = МхМу + Kxy (1.109') Следовательно, из-за того, что при линеаризации функции (1.106) опущены все нелинейные члены разложения, было утеряно второе слагаемое в формуле (1.109). Существуют формулы, позволяющие уточнить результаты, полученные методом линеаризации. Рассмотрим теперь систему нескольких функций
(1.110)
Объект φ (Х) называют вектор - функцией. Ясно, что формула (1.106) является частным случаем формулы (1.110) при т = 1. В этом случае математическое ожидание
(1.111)
а корреляционная матрица
(1.112)
где матрица определяется следующим образом:
(1.113)
т. е. каждая ее i - я строка содержит элементы, равные частным производным i - й функции по аргументу. Отметим, что выражения (1.107) и (1.109) являются частными случаями формул (1.111) и (1.112) соответственно, когда имеется лишь одна функция (тогда ) и когда аргументы некоррелированы. Для линейных функций вида Y = АХ + b, как частный случай получаем MY = АМХ + b, а корреляционная матрица KY определяется также согласно формуле (1.112). 1.234. Имеются две случайные величины X и Y, связанные соотношением Y = 2 - 3Х. Числовые характеристики величины X заданы: Мх = -1; Dx = 4. Определить: а) математическое ожидание и дисперсию величины Y; б) корреляционный момент и коэффициент корреляции величин X, Y. Решение. а) Мх = 2 - 3 Mх = 5, DY = (-3)24 = 36; б) KXY = М[Х Y] — МХМ Y = М[Х(2 — 3Х)] + 1 * 5 = 2МХ — З М[Х2] + 5. Но М [Х2] = a2[Х] = Dx + М2х =4+1 = 5. Поэтому KXY = - 2 - 3 - 5+5= - 12; rXY = -1. 1.235. Имеется случайная величина X с математическим ожиданием Мх и дисперсией Dx. Найти математическое ожидание и дисперсию следующих случайных величин:
Y = —X; Z = X + 2Y - 1; и = 3Х — Y + 2Z - 3.
Ответ: MY = — Мх; DY = Dx; М z = - MХ - 1; Dz = Dx; Ми = 2МХ - 5; Du = 4DX. 1.236. Дана система случайных величин (X, У, Z) с заданными характеристиками: математическими ожиданиями Мх, MY, М z и корреляционной матрицей
Найти математическое ожидание и дисперсию случайной величины и = аХ - bY + cZ — d. Ответ:
1.237. Даны функции Y1 = X1 + X2; Y2 = X1 + X3
трех независимых случайных величин Xl, X2, X3, имеющих дисперсионную матрицу
Найти корреляционную матрицу системы случайных величин Y1 и Y2 и коэффициент корреляции . Решение. Имея в виду применить формулу (1.112), составляем матрицу
и согласно формуле (1.112) находим
коэффициент корреляции . 1.238. В условиях предыдущей задачи найти дисперсию функции Z = Y1 – Y2. Решение. 1-й способ. Применяя формулу (1.112), получим
2-й способ. Применяем формулу (1.108):
3-й способ. Выразим функцию Z через независимые случайные величины Xi. Будем иметь Z = Y1 — Y2 = Х2 — Х3 . Применяя формулу (1.109), получим
1.239. Найти корреляционную матрицу и коэффициент корреляции двух углов, измеренных способом круговых приемов (см. задачу 1.226). Найти дисперсию угла у3 = y1 + у2 , а также корреляционную матрицу углов. Ответ: 1.240. Найти общее выражение корреляционной матрицы приращений координат
а также вычислить ее элементы при S = 200 м, σ S = 1 см, σ а = 3", а = 0°, 45°, 90°. Ответ:
1.241. Найти дисперсии следующих функций:
1. 2. 3.
если корреляционная матрица вектора z имеет вид .
1.242. Найти математические ожидания и корреляционную матрицу разностей d = х1 - х2 и среднего значения для случайных величин, если Решение.
Применяя формулу (1.112), получаем
Отсюда следует, что
1.243. Найти математическое ожидание и дисперсию невязки ω угломерного хода, содержащего п углов, если углы измеряются без систематической ошибки с с. к. о. σ i = а. Ответ: 1.244. Сделать то же самое, если каждый угол X i измеряется с систематической ошибкой, равной с. Ответ: Mω = cn, σ 2 ω = σ 2 n. 1.245. Случайные величины X н Y представляют собой элементарные ошибки, возникающие на входе прибора. Они имеют математические ожидания Мх = - 2 и MY = 4, дисперсии Dx = 4 и Dx = 9; коэффициент корреляции этих ошибок равен rXY = - 0, 5. Ошибка на выходе прибора связана с ошибками на входе функциональной зависимостью
Z = 3X2 - 2XY + Y2 - 3.
Найти математическое ожидание ошибки на выходе прибора. Ответ: Mz = 68. 1.246. Ошибка прибора выражается функцией и = 3 Z + 2Х - X - 4, где X, Y, Z — так называемые «первичные ошибки», представляющие собой систему случайных величин (случайный вектор). Случайный вектор ( X, Y, Z) характеризуется математическими ожиданиями М X = - 4, М Y = М Z = 1 и корреляционной матрицей
Определить математическое ожидание, дисперсию и среднее квадратическое отклонение ошибки прибора. Ответ: Ми = - 10, σ u 2 = 25, σ u = 5. 1.247. Доказать, что дисперсия произведения двух некоррелированных случайных величин X и Y выражается формулой Получить формулу для вычисления дисперсии этой же функции (Z = XY) согласно формуле (1.109). Объяснить расхождение результатов. Для оценки точности нелинейных функций применяют метод численного дифференцирования. З.М. Юршанским предложена приближенная формула [12]:
в которой величины qi определяются как разности
a Kij - элементы i-й строки корреляционной матрицы Кх причем К ii = σ 2. Для некоррелированных аргументов Ку = 0. Например, рассмотрим функцию
(расстояние от начала координат). Корреляционная матрица аргументов пусть будет
При X = 100 и Y = 200 м найдём
Следует заметить, что все вычисления необходимо выполнять с помощью микрокалькуляторов. Решая эту же задачу по формуле (1.112), находим частные производные dS/ dX = cosa и dS/ dY = sina. Матрица А = (cosa sina) =(0, 8944 0, 4472) и дисперсия σ 2 = АК XАТ = 0, 024 м. Возможен и другой путь решения задачи. Так, в работе [14] предлагается вычислить честные производные по приближенной формуле
Тогда для дисперсии функции справедливо выражение
в случае некоррелированных и
в случае коррелированных аргументов. Здесь коэффициент корреляции rij = Kij/ σ iσ j. Так, в нашей задаче
Глава 2. |
Последнее изменение этой страницы: 2019-04-09; Просмотров: 332; Нарушение авторского права страницы