![]() |
Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Определение условной вероятности, ее свойства.Стр 1 из 7Следующая ⇒
Предмет теории вероятностей, два признака случайного явления, постулат теории вероятностей. Примеры построения пространств элементарных исходов. Предметом теории вероятностей является изучение вероятностных закономерностей массовых однородных случайных событий. Признаки случайного явления: · отсутствие детерминированности (однозначная предопределённость) · статистическая закономерность Постулат ТВ: Случайное явление характеризуется числом рє[0;1] P(Ѡ1)=P(Ѡ2)=...=P(Ѡn)=1/n, где Ѡ – элементарный исход, n - число опытов. Пример: подбрасываем 2 монеты по 2 раза, возможные исходы: · Ѡ1={орел,орел} · Ѡ2={орел,решка} · Ѡ3={решка,решка} · Ѡ4={решка,орел} (случай с ребром не рассматриваем) Вероятность для каждого события равна = ¼.
Определение условной вероятности, ее свойства. Определение. Условной вероятностью события А при условии, что наступило событие В, называется отношение числа k тех благоприятствующих А исходов, которые и благоприятствуют В, к числу m всех исходов, благоприятствующих В. Условная вероятность обозначается: P(A/B). По определению:если В - невозможное событие P(A/B)=k/m, то не определена P(A/B) Свойства условных вероятностей: · Всегда 0 ≤ P(A/B) ≤1, причем P(A/B) =0 , если АВ - невозможное событие, и P(A/B)=1, если (А включено в В). · Если · Если Схема Бернулли. Локальная и интегральная предельные теоремы Муавра – Лапласа. Неравенство Берри – Эссена. Под схемой Бернулли понимают конечную серию n повторных независимых испытаний с двумя исходами. Вероятность появления (удачи) одного исхода при одном испытании обозначают Формулу Бернулли можно обобщить на случай, когда при каждом испытании происходит одно и только одно из k событий с вероятностью Локальная и интегральная предельные теоремы Муавра – Лапласа: Неравенство Берри — Эссеена — неравенство, позволяющее оценить скорость сходимости суммы независимых случайных величин к случайной величине с нормальным распределением.
Для выполнения неравенства Берри-Эссеена необходимо существование третьего центрального момента. Если потребовать только Если потребовать Неравенство Прохорова.
Пример показывающий, что из попарной незавимости не следует независимость в совокупности. Подбрасывается тетраэдр, на трёх гранях которого написано по одной цифре 1, 2, 3 соответственно, а на четвёртой присутствуют все 3 цифры одновременно. Рассматриваются события
Имеем
Исходя из проведённых выкладок, делаем вывод о том, что попарная независимость есть. Проверим теперь, есть ли независимость в совокупности:
2.6. Определение независимых случайных величин. Математическое ожидание произведения и дисперсия суммы независимых случайных величин. Случайные величины Случайные величины Математи́ческоеожида́ние — среднее значение случайной величины, распределение вероятностей случайной величины. Определение. Пусть задано вероятностное пространство Свойства математического ожидания Математическое ожидание суммы независимых случайных величин равно сумме их математических ожиданий: Mx + y = Mx + My. Математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий:Mx · y = Mx · My. Диспе́рсияслуча́йной величины́ — мера разброса данной случайной величины, то есть её отклонения от математического ожидания. Обозначается Определение. Пусть Х — случайная величина, определённая на некотором вероятностном пространстве. Тогда Свойства Дисперсия любой случайной величины неотрицательна: Если дисперсия случайной величины конечна, то конечно и её математическое ожидание; Если случайная величина равна константе, то её дисперсия равна нулю: Дисперсия суммы двух случайных величин равна: , где Для дисперсии произвольной линейной комбинации нескольких случайных величин имеет место равенство: , где В частности,
2.7. Ковариа́ция (корреляционный момент, ковариационный момент) в теории вероятностей и математической статистике мера линейной зависимости двух случайных величин. Определение Пусть ,в предположении, что все математические ожидания в правой части определены. Замечания Если В гильбертовом пространстве несмещённых случайных величин с конечным вторым моментом Свойства Если НО обратное утверждение, вообще говоря, неверно: из отсутствия ковариации не следует независимость. 2.8. Коэффициент корреляции. Определение Пусть , где , Свойства Неравенство Коши — Буняковского: Коэффициент корреляции равен Где Если 2.11. Теорема Маркова.неравенствоЧебышева,правило трех .. Теорема Маркова. Если имеются зависимые случайные величины
, Применим к величине Так как по условию теоремы при
, что и требовалось доказать.
Неравенство Чебышева. Первое неравенство Чебышева. Пусть Х – неотрицательная случайная величина (т.е. Доказательство. Все слагаемые в правой части формулы (4), определяющей математическое ожидание, в рассматриваемом случае неотрицательны. Поэтому при отбрасывании некоторых слагаемых сумма не увеличивается. Оставим в сумме только те члены, для которых Для всех слагаемых в правой части (9) Из (9) и (10) следует требуемое. Второе неравенство Чебышева. Пусть Х – случайная величина. Для любого положительного числа а справедливо неравенство Для доказательства второго неравенства Чебышёва рассмотрим случайную величину У = (Х – М(Х))2. Она неотрицательна, и потому для любого положительного числа b, как следует из первого неравенства Чебышёва, справедливо неравенство Положим b = a2. Событие {Y>b} совпадает с событием {|X – M(X)|>a}, а потому ПРАВИЛО ТРЕХ СИГМ. В качестве следствия получим так называемое «правило трёх сигм», которое означает, что вероятность случайной величине отличаться от своего математического ожидания более, чем на три корня из дисперсии, мала. Мы получим верную для всех распределений с конечной дисперсией оценку сверху для вероятности случайной величине отличаться от своего математического ожидания более, чем на три корня из дисперсии.Правило трех сигм При рассмотрении нормального закона распределения выделяется важный частный случай, известный как правило трех сигм. Запишем вероятность того, что отклонение нормально распределенной случайной величины от математического ожидания меньше заданной величины D: 2.12 Абсолютно непрерывные случ величины. Случайную величину назовем непрерывной, если ее функция распределения непрерывна. Легко видеть, что случайная величина непрерывна тогда и только тогда, когда Важный класс непрерывных случайных величин -- абсолютно непрерывные случайные величины. Это случайные величины, распределение которых имеет плотность. Случайная величина
Функция Следствие Если Наглядный смысл плотности можно проиллюстрировать следующим рисунком. Замечание Если плотность Следствие 3.2 Если
Примеры абсолютно непрерывных распределений 1) Равномерное распределение в отрезке
2) Показательное распределение с параметром
Показательное распределение называют также экспоненциальным. 3) Нормальное (или гауссовское) распределение
Стандартное нормальное распределение -- :
2.13 Равномерное распределение Р. р. на отрезке числовой прямой (прямоугольное распределение). Р. р. на каком-либо отрезке [ а, b], а<b, - это распределений вероятностей, имеющее плотность Понятие Р. р. на [ а, b] соответствует представлению о случайном выборе точки на этом отрезке "наудачу". Математич. ожидание и дисперсия Р. р. равны, соответственно, (b+a)/2 и (b-а)2/12. Функция распределения задается формулой График дифференциальной функции равномерного распределения вероятностей представлен на рис. Интегральную функцию равномерного распределения аналитически можно записать так:
Математическое ожидание равномерного распределения: M(X) = (a + b)/2 Дисперсия равномерного распределения: D(X) = (b - a)2/12 Среднее квадратичное отклонение равномерного распределения: σ(X) = (b - a)/(2√3) 2.15 Нормальное распределение. Нормальное распределение, также называемое гауссовым распределением, гауссианой или распределением Гаусса — распределение вероятностей, которое задается функцией плотности распределения:
Плотность вероятности Функция распределения График плотности распределения для нормально распределённой случайной величины имеет вид, отдалённо напоминающий колокол:
Функция нормального распределения имеет вид
Заметим, что нормальная кривая (рис.9.11 ) симметрична относительно прямой Вычислим математическое ожидание для нормального закона СМЫСЛ ПАРАМЕТРОВ РАСПРЕДЕЛЕНИЯ Кривая распределения по нормальному закону имеет симметричный холмообразный вид (рис. 6.1.1). Максимальная ордината кривой, равная
Выясним смысл численных параметров
Применяя замену переменной
Нетрудно убедиться, что первый из двух интервалов в формуле (6.1.2) равен нулю; второй представляет собой известный интеграл Эйлера-Пуассона:
Вычислим дисперсию величины X: Применив снова замену переменной Интегрируя по частям, получим: Первое слагаемое в фигурных скобках равно нулю (так как Следовательно, параметр Выясним смысл параметров Размерность центра рассеивания – та же, что размерность случайной величины X. Параметр Размерность параметра В некоторых курсах теории вероятностей в качестве характеристики рассеивания для нормального закона вместо среднего квадратического отклонения применяется так называемая мера точности. Мерой точности называется величина, обратно пропорциональная среднему квадратическому отклонению
3.1 Определение. Множество Итак, с одной стороны, выборка - это конкретный набор значений случайной величины. Однако, если мы повторим серию из Таким образом, в математической модели, выборка - совокупность независимых и одинаково распределенных случайных величин Метод моментов
При заданном виде закона распределения случайной величины Х неизвестные параметры этого распределения можно оценить, т. е. выразить как функцию вариант выборки на основе метода моментов.
Этот метод состоит в том, что приравниваются соответствующие эмпирические и теоретические моменты и из полученных уравнений находятся оценки параметров. В случае одного параметра в теоретическом распределении для его оценки достаточно составить одно уравнение. Если имеются два параметра в теоретическом распределении, то нужно приравнять соответственно два теоретических и эмпирических момента и т. д.
Обычным эмпирическим моментом порядка
Где
Если произвольная константа
Центральный эмпирический момент порядка j – это такой обычный эмпирический момент порядка j, у которого произвольная постоянная равна
.Например, пусть задан вид функции плотности распределения
Решив данное уравнение, получим выражение для оценки (функцию от результатов наблюдений): В общем случае Если решение
Предмет теории вероятностей, два признака случайного явления, постулат теории вероятностей. Примеры построения пространств элементарных исходов. Предметом теории вероятностей является изучение вероятностных закономерностей массовых однородных случайных событий. Признаки случайного явления: · отсутствие детерминированности (однозначная предопределённость) · статистическая закономерность Постулат ТВ: Случайное явление характеризуется числом рє[0;1] P(Ѡ1)=P(Ѡ2)=...=P(Ѡn)=1/n, где Ѡ – элементарный исход, n - число опытов. Пример: подбрасываем 2 монеты по 2 раза, возможные исходы: · Ѡ1={орел,орел} · Ѡ2={орел,решка} · Ѡ3={решка,решка} · Ѡ4={решка,орел} (случай с ребром не рассматриваем) Вероятность для каждого события равна = ¼.
Определение условной вероятности, ее свойства. Определение. Условной вероятностью события А при условии, что наступило событие В, называется отношение числа k тех благоприятствующих А исходов, которые и благоприятствуют В, к числу m всех исходов, благоприятствующих В. Условная вероятность обозначается: P(A/B). По определению:если В - невозможное событие P(A/B)=k/m, то не определена P(A/B) Свойства условных вероятностей: · Всегда 0 ≤ P(A/B) ≤1, причем P(A/B) =0 , если АВ - невозможное событие, и P(A/B)=1, если (А включено в В). · Если · Если |
Последнее изменение этой страницы: 2019-05-08; Просмотров: 1940; Нарушение авторского права страницы