Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология
Образование Политология Производство Психология Стандартизация Технологии


События и их классификация. Классическое определение вероятности



События и их классификация. Классическое определение вероятности

Пусть в результате испытания единственно возможно появление n несовместных равновероятных событий E1, E2, E3. Понятие равновероятности является неопределяемым в ТВиМС и считается интуитивно ясным. Напр.: подбрасывание монетки. Несовместными будем считать те события, появление которых исключает друг друга. Такие события называются элементарными.

Опред. 1 Множество элементарных исходов относительно произведенного испытания называется пространством элементарных исходов и обозначается Ω (омега).

Опред. 2 Случайным событием называется любое множество элементарных событий.

Пример: Подбрасывается кубик. Найти вероятность выпадения четного числа очков (событие А).

Ω ={E1, E2, E3, E4, E5, E6 }, А= { E2, E4, E6}

Вероятность равна ½.

Опред. 3 Классической вероятностью называется отношение числа несовместных равновероятных событий составляющих А к общему числу элементарных событий.

P(A)= m/n.

Формула классической вероятности позволяет решать ограниченное число задач, т.к.: 1. Число элементарных событий конечно.2. Все элементарные исходы равновозможны.

Теория вероятности пользуется языком теории множеств, т.е. события это множества, а действия над событиями – действия над множествами.

Случайные события обозначаются большими латинскими буквами, а числа маленькими латинскими буквами.

Множества событий обозначаются греческими буквами.

События называют несовместными, если появление одного из них исключает появление других событий в одном и том же испытании.

Несколько событий образуют полную группу, если в результате испытания появится хотя бы одно из них. Другими словами, появление хотя бы одного из событий полной группы есть достоверное событие. В частности, если события, образующие полную группу, попарно несовместны, то в результате испытания появится одно и только одно из этих событий. Этот частный случай представляет для нас наибольший интерес, поскольку используется далее.

События называют равновозможными, если есть основания считать, что ни одно из них не является более возможным, чем другое.

Элементы комбинаторики: перестановки, сочетания, размещения, правило умножения и правило сложения

При решении задач по формуле классической вероятности часто применяют формулы комбинаторики.

1. Перестановками называются комбинации составленные из одних и тех же элементов, которые отличаются только порядком их расположения. Число перестановок из n элементов вычисляется по формуле Pn = n!

2. Размещениями называются комбинации, составленные из n элементов по m, которые различаются либо составом элементов, либо порядком их следования. Число размещений из n элементов по n вычисляется по формуле

3. Сочетанием называется комбинации, состоящие из n элементов по m, которые различаются только составом элементов. Число сочетаний из n элементов по m вычисляется по формуле:

Свойство сочетаний.

1. Cn0=1, 0! =1

2. Cn1= n,

 

Теорема сложения вероятностей несовместных событий.

Теорема. Вероятность суммы конечного числа несовместных событий равна сумме вероятностей этих событий

Доказательство. Докажем эту теорему для случая суммы двух несовместных событий и .

Пусть событию и благоприятствуют m1 элементарных исходов, а событию A2 – m2 исходов. Так как события A1 и A2 по условию теоремы несовместны, то событию A1+A2 благоприятствуют m1+m2 элементарных исходов из общего числа n исходов. Следовательно,

где — вероятность события A1; — вероятность события A2.

 

 

Теорема сложения вероятностей совместных событий.

если два события А и В - несовместные, то А + В - событие, состоящее в появлении одного из этих событии, безразлично какого.

Теорема сложения вероятностей Вероятность суммы двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления.

Р(А)+Р(В)=Р(А)+Р(В)-Р(А*В)

 

P – конечно

2. P― ›0 или P― ›1

Теорема Пуассона. Если в схеме Бернулли a , так что np = a (т.е. конечно), то (a< =10).

Замечания.

1. a = np – среднее число появления события a в n испытаниях.

2. a< =10.

 

Следствия.

1. Вероятность попадания случайной величины в заданный интервал есть приращение функции распределения на этом интервале.

2. Вероятность принять одно фиксированное значение для непрерывной случайной величины равно 0. Пусть ;

3. Вероятность попадания непрерывной случайной величины в открытый или замкнутый промежуток одинакова.

Событие

4. F(x) непрерывна в точке слева в каждой точке

5.

Распределение Пуассона

Когда требуется спрогнозировать ожидаемую очередь и разумно сбалансировать число и производительность точек обслуживания и время ожидания в очереди. Пуассоновским называют закон распределения дискретной случайной величины Х числа появления некоторого события в n-независимых опытах если вероятность того, что событие появится ровно m раз определяется по формуле.

a=np

n-число проведенных опытов

р-вероятность появления события в каждом опыте

В теории массового обслуживания параметр пуассоновского распределения определяется по формуле

а=λ t, где λ - интенсивность потока сообщений t-время

Необходимо отметить, что пуассоновское распределение является предельным случаем биномиального, когда испытаний стремится к бесконечности, а вероятность появления события в каждом опыте стремится к 0. Пуассоновское распределение является единичным распределением для которого такие характеристики как мат. Ожидание и дисперсия совпадают и они равны параметру этого закона распределения а

 

 

Характеристики

Плотность распределения f(x) = λ e-λ x
Функция распределения F(x) = 1 - e-λ x
Математическое ожидание 1 / λ
Стандартное отклонение 1 / λ
Дисперсия 1 / λ 2
Асимметрия
Островершинность
Медиана ln(2) / λ
Мода

 

Функции случайных величин

Если x - случайная величина с областью значений Xx и функция f(x) определена на множестве Xx, то h = f(x) - тоже случайная величина. Задача об отыскании функции распределения случайной величины h по известной функции распределения случайной величины x легко решается, если f(x) - непрерывная монотонно возрастающая функция. Доказано, что тогда функция распределения Fh (x) случайной величины h задается формулой Fh (x)=Fx ([f(x)]-1).

Здесь Fx (x) - известная функция распределения случайной величины x, а символом [f(x)]-1 обозначена функция, обратная к функции f(x).

Плотность распределения случайной величины h для дифференцируемой f(x) вычисляется по формуле

.

Плотность вероятности суммы двух случайных величин В теории вероятностей часто возникает необходимость в определении плотности вероятности суммы двух независимых случайных величин. Если x 1 и x 2 - непрерывные независимые случайные величины с плотностями вероятности соответственно p1(x) и p2(x), то плотность вероятностей суммы h = x 1 + x 2 вычисляется по формуле:

.

 

Выборочный метод. Основные понятия. Полигон и распределения. Эмпирическая функция распределения.

Выборка Пусть изучается некоторые количественный признак Х (напр., рост стоимости товаров) и пусть для его изучения имеется некоторая совокупность объектов. Иногда исследуются все объекты совокупности, иногда только их часть.

Совокупность объектов, взятых для исследования, называется выборочной или выборкой. Совокупность объектов, из которых взята выборка, называется генеральной. Число объектов совокупности называется объемом.

Чтобы выборка хорошо отражала генеральную совокупность, она должна быть случайной.

Пусть имеется выборка и в ней

Возможные значения xi – варианты, ni – их частоты.

ni/n =wi– относительные частоты.

Перечень вариантов, записанных в возрастающем порядке и соответствующим их частот, называется статистическим распределением выборки или вариационным рядом.

1. Выборочным средним называется среднее арифметическое значение выборки

2. Выборочная дисперсия DB=

3. Выборочным средним отклонением

4. Размах варьирования R=xmax-xmin

D, R, - характеристики рассеяния (разброса).

5. Модой называется варианта, которая имеет наибольшую частоту.

6. Медианой называют варианту, которая делит вариационный ряд на 2 части, равные по числу вариант. Если число вариант нечетно, то me=xk+1; при четном me=(xk+xk+1)/2.

Для нормального распределения мода и медиана совпадают.

7. Начальным моментом порядка k называется среднее арифметическое вариант, в степени k.

8. Центральным эмпирическим моментом порядка k называется среднее отклонение в степени k

M1=0; M2=DB

9. Асимметрией называется

Для нормального распределения равна 0.

10. Эксцессом называется

Для нормального распределения равна 0.

Эксцесс показывает островершинность кривой по сравнению с нормальным распределением.

Эмпирическая функция распределения. Также как и в теории вероятности для описания изучаемого признака вводится функция распределения. Пусть Х – изучаемый признак, .

Эмпирической функцией распределения называется функция, определяющая для каждого значения x относительную частоту события x< X

nx-число вариант меньших x

n- объем выборки

nx /n – относительная частота события

В отличие от эмпирической функции распределения выборки функцию распределения F(x) генеральной совокупности называют теоретической ф-ей распределения.

Свойства:

1. для любого x функция распределения 0

2. F(x) –неубывающая функция.

Если a=min{xi}, то для каждого x< =a Fn(x)=0

Если b=min{xi}, то для каждого x> b Fn(x)=1

На основе закона больших чисел можно показать, что при эмпирическая функция распределения стремится по вероятности к теоретической.

Следовательно эмпирическая функция распределения служит для оценки вида теоретической ф-и распределения.

Для наглядности строят различные графики статистического распределения и, в частности, полигон и гистограмму.

Полигоном частот называют ломанную, отрезки которой соединяют точки (x1, n1); (x2, n2); …; (xk, nk)

Для изучения непрерывного признака строятся гистограмма. Для этого интервал (a; b) делится на несколько частичных интервалов одинаковой длины h.

Затем подсчитываем число вариантов попавших в каждый интервал.

Гистограмма – фигура состоящая из прямоугольников, основанием которых служат частичные интервалы h, а высоты ni/h.

Тогда площадь i-го прямоугольника равна

А площадь всей гистограммы – n.

Аналогично строится гистограмма относительных частот. При этом вдоль оси y откладывается wi/h.

Тогда площадь i-го прямоугольника равна

А площадь всей гистограммы –

 

Статистическая гипотеза. Основные понятия

Статистической называют гипотезу о виде неизвестного распределения, или о параметрах известных распределений.

Нулевой (основной) называют выдвинутую гипотезу Н0.

Конкурирующей (альтернативной) называют гипотезу Н1, которая противоречит нулевой.

Гипотезы относ-но параметров распределения наз. параметрическими.

Гипотезы бывают простые и сложные.

Простая – гипотеза, содержащая только одно предположение.

Сложная – гипотеза, которая состоит из конечного или бесконечного числа простых гипотез.

Стат. критерием (значимости) наз. СВ X, кот. является ф-цией выборки K=К(х1, х2, х3, …, хn) (статистической) и служит для проверки гипотезы, с ее помощью принимается решение о принятии или отвержении гипотезы Н0.

Критическая область – совокупность значений критерия, при которых нулевую гипотезу отвергают.

Область принятия гипотезы (область допустимых значений) – совок-ть значений критерия, при кот. гипотезу принимают.

Основные понятия дисперсионного анализа

Дисперсионный анализ применяется дляисследования влияния одной или нескольких качественных переменных (факторов) на одну зависимую количественную переменную (отклик).

Исходным материалом для дисперсионного анализа служат данные исследования трех и более выборок, которые могут быть как равными, так и неравными по численности, как связными, так и несвязными. По количеству выявляемых регулируемых фак­торов дисперсионный анализ может быть однофакторным (при этом изучается влияние одного фактора на результаты экспери­мента), двухфакторным (при изучении влияния двух факторов) и многофакторным (позволяет оценить не только влияние каждого из факторов в отдельности, но и их взаимодействие).

Одной из используемых моделей данных в дисперсионном анализе является двухфакторная модель. Она состоит в учёте систематических (первый фактор) и случайных (второй фактор) ошибок в определении измеряемых параметров.

Пусть с помощью методов производится измерение нескольких параметров, чьи точные значения — . В таком случае, результаты измерений различных величин различными методами можно представить как: , где:

· — результат измерения -го параметра по методу ;

· — точное значение -го параметра;

· — систематическая ошибка измерения -го параметра по методу ;

· — случайная ошибка измерения -го параметра по методу .

Тогда дисперсии случайных величин , , , (где:

) выражаются как:

и удовлетворяют тождеству:

Двухфакторная схема позволяет лишь обнаружить систематические расхождения, но непригодна для их численной оценки с последующим исключением из результатов наблюдений. Эта цель может быть достигнута только при многократных измерениях (то есть при повторных использованиях указанной схемы над данными повторных экспериментов).

 

События и их классификация. Классическое определение вероятности

Пусть в результате испытания единственно возможно появление n несовместных равновероятных событий E1, E2, E3. Понятие равновероятности является неопределяемым в ТВиМС и считается интуитивно ясным. Напр.: подбрасывание монетки. Несовместными будем считать те события, появление которых исключает друг друга. Такие события называются элементарными.

Опред. 1 Множество элементарных исходов относительно произведенного испытания называется пространством элементарных исходов и обозначается Ω (омега).

Опред. 2 Случайным событием называется любое множество элементарных событий.

Пример: Подбрасывается кубик. Найти вероятность выпадения четного числа очков (событие А).

Ω ={E1, E2, E3, E4, E5, E6 }, А= { E2, E4, E6}

Вероятность равна ½.

Опред. 3 Классической вероятностью называется отношение числа несовместных равновероятных событий составляющих А к общему числу элементарных событий.

P(A)= m/n.

Формула классической вероятности позволяет решать ограниченное число задач, т.к.: 1. Число элементарных событий конечно.2. Все элементарные исходы равновозможны.

Теория вероятности пользуется языком теории множеств, т.е. события это множества, а действия над событиями – действия над множествами.

Случайные события обозначаются большими латинскими буквами, а числа маленькими латинскими буквами.

Множества событий обозначаются греческими буквами.

События называют несовместными, если появление одного из них исключает появление других событий в одном и том же испытании.

Несколько событий образуют полную группу, если в результате испытания появится хотя бы одно из них. Другими словами, появление хотя бы одного из событий полной группы есть достоверное событие. В частности, если события, образующие полную группу, попарно несовместны, то в результате испытания появится одно и только одно из этих событий. Этот частный случай представляет для нас наибольший интерес, поскольку используется далее.

События называют равновозможными, если есть основания считать, что ни одно из них не является более возможным, чем другое.


Поделиться:



Последнее изменение этой страницы: 2017-03-14; Просмотров: 623; Нарушение авторского права страницы


lektsia.com 2007 - 2024 год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! (0.068 с.)
Главная | Случайная страница | Обратная связь