Среднее значение случайной величины
Функция распределения содержит полную информацию о случайной величине. На практике функцию распределения не всегда можно установить; иногда такого исчерпывающего знания и не требуется. Частичную информацию о случайной величине дают числовые характеристики, которые в зависимости от рода информации делятся на следующие группы.
1. Характеристики положения случайной величины на числовой оси (мода Мo, медиана Мe, математическое ожидание М(Х)).
2. Характеристики разброса случайной величины около среднего значения (дисперсия D(X), среднее квадратическое отклонение σ (х)).
3. Характеристики формы кривой y = φ (x) (асимметрия As, эксцесс Ех).
Рассмотрим подробнее каждую из указанных характеристик.
Математическое ожидание случайной величины Х указывает некоторое среднее значение, около которого группируются все возможные значения Х. Для дискретной случайной величины, которая может принимать лишь конечное число возможных значений, математическим ожиданием называют сумму произведений всех возможных значений случайной величины на вероятность этих значений:
. (2.4)
Для непрерывной случайной величины Х, имеющей заданную плотность распределения φ (x) математическим ожиданием называется следующий интеграл:
. (2.5)
Здесь предполагается, что несобственный интеграл сходится абсолютно, т.е. существует.
Свойства математического ожидания:
1. М(С) = C, где С = const;
2. M(C∙ Х) = С∙ М(Х);
3. М(Х ± Y) = М(Х) ± М(Y), где X и Y – любые случайные величины;
4. М(Х∙ Y)=М(Х)∙ М(Y), где X и Y – независимые случайные величины.
Две случайные величины называются независимыми, если закон распределения одной из них не зависит от того, какие возможные значения приняла другая величина.
Модой дискретной случайной величины, обозначаемой Мо, называется ее наиболее вероятное значение (рис. 2.3), а модой непрерывной случайной величины – значение, при котором плотность вероятности максимальна (рис. 2.4).
Рис. 2.3 Рис. 2.4
Медианой непрерывной случайной величины Х называется такое ее значение Ме, для которого одинаково вероятно, окажется ли случайная величина меньше или больше Ме, т.е.
Р(Х < Ме) = Р(X > Ме)
Из определения медианы следует, что Р(Х< Ме) = 0, 5, т.е. F (Ме) = 0, 5. Геометрически медиану можно истолковывать как абсциссу, в которой ордината φ (x) делит пополам площадь, ограниченную кривой распределения (рис. 2.5). В случае симметричного распределения медиана совпадает с модой и математическим ожиданием (рис. 2.6).
Рис. 2.5 Рис. 2.6
Вопрос 23
Дисперсия.
Диспе́ рсия случа́ йной величины́ — мера разброса данной случайной величины, то есть её отклонения от математического ожидания. Обозначается D[X] в русской литературе и (англ. variance) в зарубежной. В статистике часто употребляется обозначение или . Квадратный корень из дисперсии, равный , называется среднеквадрати́ чным отклоне́ нием, станда́ ртным отклоне́ нием или стандартным разбросом. Стандартное отклонение измеряется в тех же единицах, что и сама случайная величина, а дисперсия измеряется в квадратах этой единицы измерения.
Из неравенства Чебышёва следует, что случайная величина удаляется от её математического ожидания на более чем k стандартных отклонений с вероятностью менее 1/k². Так, например, как минимум в 75 % случаев случайная величина удалена от её среднего не более чем на два стандартных отклонения, а в примерно 89 % — не более чем на три.
Дисперсией случайной величины называется математическое ожидание квадрата ее отклонения от математического ожидания
D(X) = M(X –М(Х))2.
Дисперсию случайной величины Х удобно вычислять по формуле:
а) для дискретной величины
; (2.6)
б) для непрерывной случайной величины
j(х)dx – [M(X)]2 . (2.7)
Дисперсия обладает следующими свойствами:
1. D(C) = 0, где С = const;
2. D(C× X) = C2∙ D(X);
3. D(X±Y) = D(X) + D(Y), если X и Y независимые случайные величины.
Средним квадратическим отклонением случайной величины Х называется арифметический корень из дисперсии, т.е.
σ (X) = .
Заметим, что размерность σ (х) совпадает с размерностью самой случайной величины Х, поэтому среднее квадратическое отклонение более удобно для характеристики рассеяния.
Обобщением основных числовых характеристик случайных величин является понятие моментов случайной величины.
Начальным моментом k-го порядка α k случайной величины Х называется математическое ожидание величины Хk, т.е. α k = М(Хk).
Начальный момент первого порядка – это математическое ожидание случайной величины.
Центральным моментом k-го порядка μ k случайной величины Х называется математическое ожидание величины (Х–М(Х))k, т.е. μ k = М(Х–М(Х))k.
Центральный момент второго порядка – это дисперсия случайной величины.
Для дискретной случайной величины начальный момент выражается суммой α k = , а центральный – суммой μ k = где рi = p(X = xi). Для начального и центрального моментов непрерывной случайной величины можно получить следующие равенства:
α k = , μ k = ,
где φ (x) – плотность распределения случайной величины Х.
Величина As = μ 3 / σ 3 называется коэффициентом асимметрии.
Если коэффициент асимметрии отрицательный, то это говорит о большом влиянии на величину m3 отрицательных отклонений. В этом случае кривая распределения (рис.2.7) более полога слева от М(Х). Если коэффициент As положительный, а значит, преобладает влияние положительных отклонений, то кривая распределения (рис.2.7) более полога справа. Практически определяют знак асимметрии по расположению кривой распределения относительно моды (точки максимума дифференциальной функции).
Рис. 2.7
Эксцессом Еk называется величина
Еk = μ 4 / σ 4 – 3.
Вопрос 24. Корреляция
Корреля́ ция ( корреляционная зависимость ) — статистическая взаимосвязь двух или нескольких случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом изменения значений одной или нескольких из этих величин сопутствуют систематическому изменению значений другой или других величин.[1]Математической мерой корреляции двух случайных величин служит корреляционное отношение [2], либо коэффициент корреляции (или )[1]. В случае, если изменение одной случайной величины не ведёт к закономерному изменению другой случайной величины, но приводит к изменению другой статистической характеристики данной случайной величины, то подобная связь не считается корреляционной, хотя и является статистической[3].
Впервые в научный оборот термин «корреляция» ввёл французский палеонтолог Жорж Кювье в XVIII веке. Он разработал «закон корреляции» частей и органов живых существ, с помощью которого можно восстановить облик ископаемого животного, имея в распоряжении лишь часть его останков. В статистике слово «корреляция» первым стал использовать английский биолог и статистик Фрэнсис Гальтон в конце XIX века.[4]
Некоторые виды коэффициентов корреляции могут быть положительными или отрицательными (возможна также ситуация отсутствия статистической взаимосвязи — например, для независимых случайных величин). Если предполагается, что на значениях переменных задано отношение строгого порядка, то отрицательная корреляция — корреляция, при которой увеличение одной переменной связано с уменьшением другой переменной, при этом коэффициент корреляции может быть отрицательным; положительная корреляция в таких условиях — корреляция, при которой увеличение одной переменной связано с увеличением другой переменной, при этом коэффициент корреляции может быть положительным.