|
Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Из попарной независимости не следует независимость в совокупности.
Независимость событий заключается в том, что между событиями нет причинно-следственной связи. Пример показывающий, что из попарной незавимости не следует независимость в совокупности. Подбрасывается тетраэдр, на трёх гранях которого написано по одной цифре 1, 2, 3 соответственно, а на четвёртой присутствуют все 3 цифры одновременно. Рассматриваются события
Имеем
Исходя из проведённых выкладок, делаем вывод о том, что попарная независимость есть. Проверим теперь, есть ли независимость в совокупности:
2.6. Определение независимых случайных величин. Математическое ожидание произведения и дисперсия суммы независимых случайных величин. Случайные величины Случайные величины Математи́ческоеожида́ние — среднее значение случайной величины, распределение вероятностей случайной величины. Определение. Пусть задано вероятностное пространство
Свойства математического ожидания Математическое ожидание суммы независимых случайных величин равно сумме их математических ожиданий: Mx + y = Mx + My. Математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий:Mx · y = Mx · My. Диспе́рсияслуча́йной величины́ — мера разброса данной случайной величины, то есть её отклонения от математического ожидания. Обозначается Определение. Пусть Х — случайная величина, определённая на некотором вероятностном пространстве. Тогда Свойства Дисперсия любой случайной величины неотрицательна: Если дисперсия случайной величины конечна, то конечно и её математическое ожидание; Если случайная величина равна константе, то её дисперсия равна нулю: Дисперсия суммы двух случайных величин равна: , где Для дисперсии произвольной линейной комбинации нескольких случайных величин имеет место равенство: , где В частности,
2.7. Ковариа́ция (корреляционный момент, ковариационный момент) в теории вероятностей и математической статистике мера линейной зависимости двух случайных величин. Определение Пусть ,в предположении, что все математические ожидания в правой части определены. Замечания Если В гильбертовом пространстве несмещённых случайных величин с конечным вторым моментом Свойства Если НО обратное утверждение, вообще говоря, неверно: из отсутствия ковариации не следует независимость. 2.8. Коэффициент корреляции. Определение Пусть , где , Свойства Неравенство Коши — Буняковского: Коэффициент корреляции равен Где Если 2.11. Теорема Маркова.неравенствоЧебышева,правило трех .. Теорема Маркова. Если имеются зависимые случайные величины
, Применим к величине Так как по условию теоремы при
, что и требовалось доказать.
Неравенство Чебышева. Первое неравенство Чебышева. Пусть Х – неотрицательная случайная величина (т.е. Доказательство. Все слагаемые в правой части формулы (4), определяющей математическое ожидание, в рассматриваемом случае неотрицательны. Поэтому при отбрасывании некоторых слагаемых сумма не увеличивается. Оставим в сумме только те члены, для которых Для всех слагаемых в правой части (9) Из (9) и (10) следует требуемое. Второе неравенство Чебышева. Пусть Х – случайная величина. Для любого положительного числа а справедливо неравенство Для доказательства второго неравенства Чебышёва рассмотрим случайную величину У = (Х – М(Х))2. Она неотрицательна, и потому для любого положительного числа b, как следует из первого неравенства Чебышёва, справедливо неравенство Положим b = a2. Событие {Y>b} совпадает с событием {|X – M(X)|>a}, а потому ПРАВИЛО ТРЕХ СИГМ. В качестве следствия получим так называемое «правило трёх сигм», которое означает, что вероятность случайной величине отличаться от своего математического ожидания более, чем на три корня из дисперсии, мала. Мы получим верную для всех распределений с конечной дисперсией оценку сверху для вероятности случайной величине отличаться от своего математического ожидания более, чем на три корня из дисперсии.Правило трех сигм При рассмотрении нормального закона распределения выделяется важный частный случай, известный как правило трех сигм. Запишем вероятность того, что отклонение нормально распределенной случайной величины от математического ожидания меньше заданной величины D: 2.12 Абсолютно непрерывные случ величины. Случайную величину назовем непрерывной, если ее функция распределения непрерывна. Легко видеть, что случайная величина непрерывна тогда и только тогда, когда Важный класс непрерывных случайных величин -- абсолютно непрерывные случайные величины. Это случайные величины, распределение которых имеет плотность. Случайная величина
Функция Следствие Если Наглядный смысл плотности можно проиллюстрировать следующим рисунком. Замечание Если плотность Следствие 3.2 Если
Примеры абсолютно непрерывных распределений 1) Равномерное распределение в отрезке
2) Показательное распределение с параметром
Показательное распределение называют также экспоненциальным. 3) Нормальное (или гауссовское) распределение
Стандартное нормальное распределение -- :
2.13 Равномерное распределение Р. р. на отрезке числовой прямой (прямоугольное распределение). Р. р. на каком-либо отрезке [ а, b], а<b, - это распределений вероятностей, имеющее плотность Понятие Р. р. на [ а, b] соответствует представлению о случайном выборе точки на этом отрезке "наудачу". Математич. ожидание и дисперсия Р. р. равны, соответственно, (b+a)/2 и (b-а)2/12. Функция распределения задается формулой График дифференциальной функции равномерного распределения вероятностей представлен на рис. Интегральную функцию равномерного распределения аналитически можно записать так:
Математическое ожидание равномерного распределения: M(X) = (a + b)/2 Дисперсия равномерного распределения: D(X) = (b - a)2/12 Среднее квадратичное отклонение равномерного распределения: σ(X) = (b - a)/(2√3) 2.15 Нормальное распределение. Нормальное распределение, также называемое гауссовым распределением, гауссианой или распределением Гаусса — распределение вероятностей, которое задается функцией плотности распределения:
Плотность вероятности Функция распределения График плотности распределения для нормально распределённой случайной величины имеет вид, отдалённо напоминающий колокол:
Функция нормального распределения имеет вид
Заметим, что нормальная кривая (рис.9.11 ) симметрична относительно прямой Вычислим математическое ожидание для нормального закона СМЫСЛ ПАРАМЕТРОВ РАСПРЕДЕЛЕНИЯ Кривая распределения по нормальному закону имеет симметричный холмообразный вид (рис. 6.1.1). Максимальная ордината кривой, равная
Выясним смысл численных параметров
Применяя замену переменной
Нетрудно убедиться, что первый из двух интервалов в формуле (6.1.2) равен нулю; второй представляет собой известный интеграл Эйлера-Пуассона:
Вычислим дисперсию величины X: Применив снова замену переменной Интегрируя по частям, получим: Первое слагаемое в фигурных скобках равно нулю (так как Следовательно, параметр Выясним смысл параметров Размерность центра рассеивания – та же, что размерность случайной величины X. Параметр
Размерность параметра В некоторых курсах теории вероятностей в качестве характеристики рассеивания для нормального закона вместо среднего квадратического отклонения применяется так называемая мера точности. Мерой точности называется величина, обратно пропорциональная среднему квадратическому отклонению
3.1 Определение. Множество Итак, с одной стороны, выборка - это конкретный набор значений случайной величины. Однако, если мы повторим серию из Таким образом, в математической модели, выборка - совокупность независимых и одинаково распределенных случайных величин |
Последнее изменение этой страницы: 2019-05-08; Просмотров: 1492; Нарушение авторского права страницы