Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология
Образование Политология Производство Психология Стандартизация Технологии


Теорема сложения вероятностей.



Вероятность двух не совместных событий равна сумме вероятностей этих событий.

P(A) P(B)

P(A+B)=P(A)+P(B)

S=S1+S2+…+Sn

P(S)=P(S1)+P(S2)+…+P(Sn)

Следствие: Если событие S1, S2, …, Sn образуют полную группу не совместных событий, то сумма их вероятностей равна 1.

Противоположными событиями называются два не совместных события, образующие полную группу. (пример - монетка имеющая орел и орешко)

Условие независимости события А от события В: P(A|B)=P(A), то P(B|A)=P(B)

Условие зависимости события А от события В: P(A|B) P(A), P(B|A) P(B) (Если А не зависит от В, то и В не зависит от А - условие не зависимости условий взаимно).

Вероятность произведения двух событий равна произведению вероятности одного из событий на условную вероятность другого, вычисленную при условии, что событие первое имело место: P(AB)=P(A)P(B|A), P(AB)=P(B)P(A|B)

Следствие: Вероятность произведения нескольких не зависимых событий равна произведению вероятностей этих событий. P(A1A2…An)=P(A1)P(A2)…P(An)

 

7. Теоремы сложения вероятностей для несовместных и совместных событий.

Теорема сложения вероятностей несовместных событий. Вероятность появления одного из двух несовместных событий, безразлично какого, равна сумме вероятностей этих событий:

Р(А + В) = Р(А) + Р(В).

Следствие. Вероятность появления одного из нескольких попарно несовместных событий, безразлично какого, равна сумме вероятностей этих событий:

Р (А1 + А2 + ... + Аn)=Р(А1) + Р (А2) +... +Р (Аn).

Теорема сложения вероятностей совместных событий. Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления:

Р (А + В) = Р (А) + Р (В) - Р (АВ).

Теорема может быть обобщена на любое конечное число совместных событий. Например, для трех совместных событий Р(А + В+С) = Р(А) + Р(В) + + Р(С) - Р(АВ) - Р(АС) - Р(ВС) + Р(АВС).

 

8. Противоположное событие и его вероятность.

 

Событие, противоположное событию A, обозначается как и состоит в том, что в результате испытания A не произошло. Например, в нашем случае значит, что на кубике A выпало число, не равное 1.

Сумма вероятностей события и его отрицания есть достоверное событие, то есть

Например, противоположными событиями являются выпадение четного или нечетного числа очков на грани игрального кубика.

Суммой событий и называется такое событие (или ), которое заключается в наступлении хотя бы одного из событий: или А, или В.

Произведением событий А и В называется такое событие АВ (или ), которое заключается в наступлении событий А и В одновременно.

 

9. Теорема умножения вероятностей независимых событий.

 

Прежде чем познакомиться с теоремой, введем сопутствующие понятия: зависимые и независимые события. Рассмотрим примеры:

а) Два спортсмена стреляют по мишени. Событие А- попал первый стрелок, вероятность появления этого события Р(А) , В- попал второй стрелок, вероятность Р(В). Появление или не появление события, например, А не повлияет на вероятность появления события В.

б) Бросают два одинаковых кубика. Событие С- выпало 2 очка на первом кубике, вероятность этого события Р(С). Событие Д- 3 очка на втором кубике, вероятность - Р(Д). Появление события Д не повлияет на вероятность появления события С.

В данных примерах описаны независимые события.

Два события А и В называются независимыми, если появление одного из них не изменяет вероятности появления другого.

События А и В называются зависимыми, если появление одного из них изменяет вероятность появления другого.

Условной вероятностью РА(В) называется вероятность события В, вычисленная в предположении, что событие А уже произошло.

Теорема1: Вероятность произведения двух зависимых событий А и В равна произведению вероятности одного из них на условную вероятность другого, в предположении, что первое уже произошло, т.е. Р(АВ)= Р(А)РА(В).

Доказательство:

Пусть в результате опыта возможны N исходов, из них М благоприятствуют появлению события А, их этихМ- К исходов благоприятствуют событию В. Одновременному появлению событий А и В благоприятствуют L исходов из К.. По классической формуле имеем: Р(АВ)= L / N . Умножим и разделим на М:

Первая дробь- вероятность наступления события А, вторая- вероятность события В, при условии, что А уже произошло, т.е. условная вероятность события В, что и требовалось доказать.

Теорема2: Вероятность произведения двух независимых событий А и В равна произведению их вероятностей Р(АВ)=Р(А)Р(В).

Доказательство:

Т.к. события независимые, то верно равенство РА(В)=Р(В), тогда получим Р(АВ)=Р(А)Р(В).

Справедлива обратная теорема:

Если для событий А и В выполняется равенство Р(АВ)=Р(А)Р(В), то эти события независимы.

 

10. Условная вероятность. Теорема умножения вероятностей зависимых событий.

 

Условная вероятность — это вероятность некоторого события A, при условии наступления некоторого другого события B; записывается P(A|B) и читается «вероятность A при условии B», или «вероятность A при данном B»

Совместная вероятность двух событий — это вероятность их пересечения. Совместная вероятность A и B записывается или

Тогда как маргинальная вероятность — это безусловная вероятность P(A) события A; то есть, вероятность события A, независимого от того, наступает ли какое-то другое событие B или нет. Если о B можно думать как о «некоторой случайной величине, принявшей данное значение», маргинальная вероятность A может быть получена суммированием (или более широко интегрированием) совместных вероятностей по всем значениям этой случайной величины. Например, если есть два возможных значения, соответствующие событиям B и B*, то . Эту процедуру иногда называют маргинализацией вероятности.

Заметьте, что в этих определениях не требуется причинных или временных отношений между A и B. A может предшествовать B или наоборот или они могут случаться в одно и то же время. A может быть причиной B или наоборот или они могут не иметь никакого причинного отношения вообще. Заметьте, однако, что причинные и временные отношения — неформальные понятия, не принадлежащие вероятностной структуре. Они могут использоваться в некоторых примерах исчисления вероятностей, в зависимости от интерпретации, данной событиям.

 


Поделиться:



Последнее изменение этой страницы: 2019-05-08; Просмотров: 193; Нарушение авторского права страницы


lektsia.com 2007 - 2024 год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! (0.026 с.)
Главная | Случайная страница | Обратная связь