Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология
Образование Политология Производство Психология Стандартизация Технологии


Из попарной независимости не следует независимость в совокупности.



Независимость событий заключается в том, что между событиями нет причинно-следст­венной связи.

Пример показывающий, что из попарной незавимости не следует независимость в совокупности.

Подбрасывается тетраэдр, на трёх гранях которого написано по одной цифре 1, 2, 3 соответственно, а на четвёртой присутствуют все 3 цифры одновременно. Рассматриваются события {тетраэдр упадёт на грань, на которой присутствует цифра i}, . Показать, что события  попарно независимы, но не являются независимыми в совокупности.

Имеем

Исходя из проведённых выкладок, делаем вывод о том, что попарная независимость есть.

Проверим теперь, есть ли независимость в совокупности:

 => независимости в совокупности нет. Этот пример подтверждает изложенный выше факт, что из попарной независимости не следует независимость в совокупности.

2.6. Определение независимых случайных величин. Математическое ожидание произведения и дисперсия суммы независимых случайных величин. 

Случайные величины   называют независимыми (в совокупности), если для любого набора борелевских множеств ,..., имеет место равенство:

Случайные величины   называют попарно независимыми, если независимы любые две из них.

Математи́ческоеожида́ние — среднее значение случайной величины, распределение вероятностей случайной величины.

Определение. Пусть задано вероятностное пространство и определённая на нём случайная величина . То есть, по определению, — измеримая функция. Если существует интеграл Лебега от X по пространству , то он называется математическим ожиданием, или средним (ожидаемым) значением и обозначается или .

Свойства математического ожидания

Математическое ожидание суммы независимых случайных величин равно сумме их математических ожиданий: Mx + y = Mx + My.

Математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий:Mx · y = Mx · My.

Диспе́рсияслуча́йной величины́ — мера разброса данной случайной величины, то есть её отклонения от математического ожидания. Обозначается

Определение. Пусть Х — случайная величина, определённая на некотором вероятностном пространстве. Тогда , где символ М обозначает математическое ожидание.

Свойства

Дисперсия любой случайной величины неотрицательна:

Если дисперсия случайной величины конечна, то конечно и её математическое ожидание;

Если случайная величина равна константе, то её дисперсия равна нулю: Верно и обратное: если то почти всюду;

Дисперсия суммы двух случайных величин равна:

, где — их ковариация;

Для дисперсии произвольной линейной комбинации нескольких случайных величин имеет место равенство:

, где ;

В частности,  для любых независимых или некоррелированных случайных величин, так как их ковариации равны нулю;

 

2.7. Ковариа́ция (корреляционный момент, ковариационный момент) в теории вероятностей и математической статистике мера линейной зависимости двух случайных величин.

Определение

Пусть — две случайные величины, определённые на одном и том же вероятностном пространстве. Тогда их ковариация определяется следующим образом:

,в предположении, что все математические ожидания в правой части определены.

Замечания

Если , то есть имеют конечный второй момент, то ковариация определена и конечна.

В гильбертовом пространстве несмещённых случайных величин с конечным вторым моментом  ковариация имеет вид и играет роль скалярного произведения.

Свойства

Если  — независимые случайные величины, то:

НО обратное утверждение, вообще говоря, неверно: из отсутствия ковариации не следует независимость.

2.8. Коэффициент корреляции.

Определение

Пусть  — две случайные величины, определённые на одном вероятностном пространстве. Тогда их коэффициент корреляции задаётся формулой:

, где  обозначает ковариацию, а —дисперсию, или, что то же самое,

, где символ обозначает математическое ожидание.

Свойства

Неравенство Коши — Буняковского:

Коэффициент корреляции равен  тогда и только тогда, когда  и  линейно зависимы:

Где . Более того в этом случае знаки иК совпадают:

 Если независимые случайные величины, то . Обратное, вообще говоря, неверно.

2.11. Теорема Маркова.неравенствоЧебышева,правило трех ..

Теорема Маркова. Если имеются зависимые случайные величины  и если при

 

, то среднее арифметическое наблюденных значений случайных величин сходится по вероятности к среднему арифметическому их математических ожиданий. Доказательство. Рассмотрим величину Очевидно,

Применим к величине неравенство Чебышева:

Так как по условию теоремы при , то при достаточно большом

или, переходя к противоположному событию,

, что и требовалось доказать.

 

 

Неравенство Чебышева. Первое неравенство Чебышева. Пусть Х – неотрицательная случайная величина (т.е.  для любого ). Тогда для любого положительного числа а справедливо неравенство

Доказательство. Все слагаемые в правой части формулы (4), определяющей математическое ожидание, в рассматриваемом случае неотрицательны. Поэтому при отбрасывании некоторых слагаемых сумма не увеличивается. Оставим в сумме только те члены, для которых . Получим, что . (9)

Для всех слагаемых в правой части (9) , поэтому . (10)

Из (9) и (10) следует требуемое.

Второе неравенство Чебышева. Пусть Х – случайная величина. Для любого положительного числа а справедливо неравенство

 Для доказательства второго неравенства Чебышёва рассмотрим случайную величину У = (Х – М(Х))2. Она неотрицательна, и потому для любого положительного числа b, как следует из первого неравенства Чебышёва, справедливо неравенство

Положим b = a2. Событие {Y>b} совпадает с событием {|X – M(X)|>a}, а потому что и требовалось доказать.

ПРАВИЛО ТРЕХ СИГМ. В качестве следствия получим так называемое «правило трёх сигм», которое означает, что вероятность случайной величине отличаться от своего математического ожидания более, чем на три корня из дисперсии, мала. Мы получим верную для всех распределений с конечной дисперсией оценку сверху для вероятности случайной величине отличаться от своего математического ожидания более, чем на три корня из дисперсии.Правило трех сигм При рассмотрении нормального закона распределения выделяется важный частный случай, известный как правило трех сигм. Запишем вероятность того, что отклонение нормально распределенной случайной величины от математического ожидания меньше заданной величины D:   Если принять D = 3s, то получаем с использованием таблиц значений функции Лапласа: Т.е. вероятность того, что случайная величина отклонится от своего математического ожидание на величину, большую чем утроенное среднее. На практике считается, что если для какой – либо случайной величины выполняется правило трех сигм, то эта случайная величина имеет нормальное распределение.

2.12 Абсолютно непрерывные случ величины. Случайную величину назовем непрерывной, если ее функция распределения непрерывна. Легко видеть, что случайная величина непрерывна тогда и только тогда, когда при всех .

 Важный класс непрерывных случайных величин -- абсолютно непрерывные случайные величины. Это случайные величины, распределение которых имеет плотность.

Случайная величина называется абсолютно непрерывной, если существует функция такая, что , , ,  имеет место равенство:

 

 

 Функция , обладающая вышеперечисленными свойствами, называется плотностью распределения случайной величины .

Следствие   Если -- абсолютно непрерывная случайная величина, то

 Наглядный смысл плотности можно проиллюстрировать следующим рисунком.

Замечание Если плотность непрерывна в точке , то из Следствия 3.1 вытекает следующее представление: =

Следствие 3.2 Если  -- точка непрерывности функции , то

 

 Примеры абсолютно непрерывных распределений

1) Равномерное распределение в отрезке

 

2) Показательное распределение с параметром

 

 Показательное распределение называют также экспоненциальным.

3) Нормальное (или гауссовское) распределение , , :

 

 Стандартное нормальное распределение -- :

 

2.13 Равномерное распределение

Р. р. на отрезке числовой прямой (прямоугольное распределение). Р. р. на каком-либо отрезке [ а, b], а<b, - это распределений вероятностей, имеющее плотность

 Понятие Р. р. на [ а, b] соответствует представлению о случайном выборе точки на этом отрезке "наудачу". Математич. ожидание и дисперсия Р. р. равны, соответственно, (b+a)/2 и (b-а)2/12. Функция распределения задается формулой а характеристич. функция - формулой

График дифференциальной функции равномерного распределения вероятностей представлен на рис.

Интегральную функцию равномерного распределения аналитически можно записать так: График интегральной функции равномерного распределения вероятностей представлен на рис.

 

Математическое ожидание равномерного распределения: M(X) = (a + b)/2

 Дисперсия равномерного распределения: D(X) = (b - a)2/12

 Среднее квадратичное отклонение равномерного распределения: σ(X) = (b - a)/(2√3)

2.15 Нормальное распределение. Нормальное распределение, также называемое гауссовым распределением, гауссианой или распределением Гаусса — распределение вероятностей, которое задается функцией плотности распределения:

где параметр μ — среднее значение (математическое ожидание) случайной величины и указывает координату максимума кривой плотности распределения, а σ² — дисперсия.

Плотность вероятности    

Функция распределения

График плотности распределения для нормально распределённой случайной величины имеет вид, отдалённо напоминающий колокол:

График нормальной функции распределения

Функция нормального распределения имеет вид     (22)

 

 Заметим, что нормальная кривая (рис.9.11 ) симметрична относительно прямой и асимптотически приближается к оси ОХ при .

Вычислим математическое ожидание для нормального закона

СМЫСЛ ПАРАМЕТРОВ РАСПРЕДЕЛЕНИЯ

Кривая распределения по нормальному закону имеет симметричный холмообразный вид (рис. 6.1.1). Максимальная ордината кривой, равная , соответствует точке ; по мере удаления от точки плотность распределения падает, и при  кривая асимптотически приближается к оси абсцисс.

 

Выясним смысл численных параметров и , входящих в выражение нормального закона (6.1.1); докажем, что величина  есть не что иное, как математическое ожидание, а величина  - среднее квадратическое отклонение величины . Для этого вычислим основные числовые характеристики величины Х - математическое ожидание и дисперсию.

 

Применяя замену переменной имеем:

 

Нетрудно убедиться, что первый из двух интервалов в формуле (6.1.2) равен нулю; второй представляет собой известный интеграл Эйлера-Пуассона:

Следовательно, т.е. параметрm представляет собой математическое ожидание величиныX . Этот параметр, особенно в задачах стрельбы, часто называют центром рассеивания (сокращенно – ц. р.).

 Вычислим дисперсию величины X:

Применив снова замену переменной имеем:

Интегрируя по частям, получим:

Первое слагаемое в фигурных скобках равно нулю (так как при  убывает быстрее, чем возрастает любая степень ), второе слагаемое по формуле (6.1.3) равно , откуда

Следовательно, параметр в формуле (6.1.1) есть не что иное, как среднее квадратическое отклонение величины Х .

Выясним смысл параметров и нормального распределения. Непосредственно из формулы (6.1.1) видно, что центром симметрии распределения является центр рассеиванияm . Это ясно из того, что при изменении знака разности на обратный выражение (6.1.1) не меняется. Если изменять центр рассеивания , кривая распределения будет смещаться вдоль оси абсцисс, не изменяя своей формы (рис. 6.1.2). Центр рассеивания характеризует положение распределения на оси абсцисс.

Размерность центра рассеивания – та же, что размерность случайной величины X.

Параметр характеризует не положение, а самую форму кривой распределения. Это есть характеристика рассеивания. Наибольшая ордината кривой распределения обратно пропорциональна ; при увеличении максимальная ордината уменьшается. Так как площадь кривой распределения всегда должна оставаться равной единице, то при увеличении  кривая распределения становится более плоской, растягиваясь вдоль оси абсцисс; напротив, при уменьшении  кривая распределения вытягивается вверх, одновременно сжимаясь с боков, и становится более иглообразной. На рис. 6.1.3 показаны три нормальные кривые (I, II, III) при ; из них кривая I соответствует самому большому, а кривая III – самому малому значению . Изменение параметра равносильно изменению масштаба кривой распределения – увеличению масштаба по одной оси и такому же уменьшению по другой.

Размерность параметра , естественно, совпадает с размерностью случайной величины .

В некоторых курсах теории вероятностей в качестве характеристики рассеивания для нормального закона вместо среднего квадратического отклонения применяется так называемая мера точности. Мерой точности называется величина, обратно пропорциональная среднему квадратическому отклонению :

Размерность меры точности обратная размерности случайной величины.Термин «мера точности» заимствован из теории ошибок измерений: чем точнее измерение, тем больше мера точности. Пользуясь мерой точности , можно записать нормальный закон в виде:

 

3.1 Определение. Множество  отдельных значений случайной величины , полученных в серии из  независимых экспериментов (наблюдений), называется выборочной совокупностью или выборкой объема  из генеральной совокупности.

Итак, с одной стороны, выборка - это конкретный набор значений случайной величины. Однако, если мы повторим серию из  экспериментов, мы получим другой набор значений случайной величины , т.е. любое выборочное значение  само является случайной величиной, очевидно распределенной по тому же закону .

Таким образом, в математической модели, выборка - совокупность независимых и одинаково распределенных случайных величин .


Поделиться:



Последнее изменение этой страницы: 2019-05-08; Просмотров: 1492; Нарушение авторского права страницы


lektsia.com 2007 - 2024 год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! (0.053 с.)
Главная | Случайная страница | Обратная связь