Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология
Образование Политология Производство Психология Стандартизация Технологии


Статистическое определение вероятности



Основные понятия ТВ.

Под событием ТВ понимается всякий факт, который в результате опыта может произойти или не произойти.

Примеры: А-появление герба при бросании монеты; В-появление 3-х гербов при 3-х кратном бросании монеты; С-попадание в цель при выстреле.

Будем рассматривать вначале классическую вероятностную модель, которая используется для описания опытов с конечным числом взаимно-исключающих возможных исходов. Пусть результаты опыта описываются с взаимно-исключающими исходами . Эти исходы называют также элементарными событиями. Мн-во  –это мн-во всех элементарных исходов называют множеством элементарных событий. Любое случайное событие А связанное с данным опытом может быть связано посредством перечисления всех элементарных событий, при которых оно происходит A={ }. Исходы  наз-ют благоприятствующими событию А. Событие  состоящее из всех возможных исходов наз-ют достоверным. |A|-число элементарных событий входящих в А. Вероятность - числовая характеристика степени возможности появления какого-либо определённого события в тех или иных определимых могущих повторятся неограниченное число раз (обозначение P(A)).

Классическое определение вероятности:Классические вероятностные модели P(A)=ar w:top="1134" w:right="850" w:bottom="1134" w:left="1701" w:header="720" w:footer="720" w:gutter="0"/><w:cols w:space="720"/></w:sectPr></w:body></w:wordDocument>">  (*). Более общий подход в определении P(A) следующий: с каждым из элементарных исходов связывающие неотрицательное число  причём . Пусть A={ } тогда полагают, что P(A)= . Легко видеть, что (*) получается из послед-ей в случае, если  .

 ,

 число перестановок из m  элементов

s w:ascii="Cambria Math" w:h-ansi="Cambria Math"/><wx:font wx:val="Cambria Math"/><w:i/><w:sz w:val="44"/><w:sz-cs w:val="44"/></w:rPr><m:t>!</m:t></m:r></m:den></m:f><m:r><w:rPr><w:rFonts w:ascii="Cambria Math" w:h-ansi="Cambria Math"/><wx:font wx:val="Cambria Math"/><w:i/><w:sz w:val="44"/><w:sz-cs w:val="44"/></w:rPr><m:t>-</m:t></m:r></m:oMath></m:oMathPara></w:p><w:sectPr wsp:rsidR="00000000"><w:pgSz w:w="12240" w:h="15840"/><w:pgMar w:top="1134" w:right="850" w:bottom="1134" w:left="1701" w:header="720" w:footer="720" w:gutter="0"/><w:cols w:space="720"/></w:sectPr></w:body></w:wordDocument>"> число упорядоченных размещений из n элементов по k

Отношение м/д событиями

А\В-это событие состоящее в том, что А происходит, а В-нет.

Свойства алгебраических операций над событиями:

1. А+В=В+А

2. А*В=В*А

3. (А+В)+С=А+(В+С)

4. (А*В)*С=А*(В*С)

5. (А+В)*С=А*С+В*С

А и В события, А В-событие А влечёт за собой событие В.

А=В- событие А тождественно событию В и означает А В и В А.

Система F подмножеств множества такая, что:

1. Ω

2. если А, В , то А+В   и А*В

3. если А , то

называется алгеброй. Система F замкнута относительно операций +,*, -отрицание. Если система F замкнута относительно алгебраических операций над счётным числом событий, то она наз-ся σ-алгеброй.( )

Счётное мн-во - бесконечное мн-во м/д элементами, которого и элементами мн-ва натуральных чисел можно установить взаимно однозначное соответствие.

Случайные величины (СВ).

  Опр. Случайной называют величину, которая в результате опыта примет одно и только одно значение, наперед неизвестное и зависящее от случайных причин, которые заранее не могут быть учтены.

  СВ обозначаются, как правило, X , Y, Z, W,…

  Пусть СВ мы обозначили Х, тогда возможные значения СВ обозначаются х1, х2,…,х n ,…

  CВ бывают дискретные и непрерывные.

  Опр. Дискретной СВ называют СВ, которая принимает отдельные, изолированные, возможные значения с определенными вероятностями.

  Число возможных значений может быть конечным или бесконечным.

  Опр. Непрерывной СВ называют СВ, которая может принимать все значения из некоторого конечного или бесконечного промежутка.

  Очевидно, что число возможных значений непрерывной СВ бесконечно.

Распределение Пуассона.

Рассматривается схема Бернулли. Число независимых испытаний п велико, а вероятность события мала (р<=0.1).

В этом случае формула Лапласа непригодна. Поэтому прибегают к асимптотической формуле Пуассона.

Т.о. перед нами задача: найти вероятность того, что при очень большом числе испытании, в каждом из которых вероятность события очень мала, событие наступит ровно k раз.

Сделаем важное предположение: произведение n * p сохраняет постоянное значение (np =λ). Это означает, что среднее число появления события в различных сериях испытаний (т.е. при различных значениях п) остается неизменным:

  Т.к. п очень велико, вместо Р n ( k ) найдем  и его будем считать приближенным значением вероятности Р n ( k ):

.

.

  Рассмотрим СВ Х, которая принимает значения 0, 1, 2, …

  В этом случае говорят, что СВ Х имеет закон распределения Пуассона.

Закон распределения Пуассона можно задать в виде таблицы:

Х 0 1 2 k
p e λ e

  Заметим, что



Непрерывные СВ.

  Опр. СВ Х наз-ся непрерывной СВ, если существует такая неотрицательная, интегрируемая по Риману на (-∞, +∞) ф-ция р(х) ( f ( x )), что .

  Ф-ция р(х) называется плотностью распределения вероятности СВ Х.

  Плотность p ( x ) обладает след. свойствами:

  1)

  2)  - условие нормирования

  3) F `( x )= p ( x ) в точках непрерывности функции p ( x ).

  Вывод: Ф-ция распределения непрерывной СВ является непрерывной, монотонно-неубывающей ф-цией на все числовой оси.

  P ( X = x )= F ( x +0)- F ( x ) (следует из того, что P ( x <= X < x +Δх)= = F ( x +Δх)- F ( x )). Если Х – непрерывная СВ, то F ( x +0)- F ( x )=0 . Т.о. для непрерывной СВ Р(Х=х)=0. Говорят, что вероятность попасть в точку равна 0.

  Если Х – непрерывная СВ, то вероятность ее попадания на [a,b) можно вычислить через плотность распределения вероятностей по формуле .

  Если х – точка непр. плотности вероятности . Формула справедлива с точностью до бесконечно малых величин высшего порядка малости, чем Δх.

Числовые характеритики СВ.

СВ описываются числовыми характеристиками, различают характеристики положения ( ожидания , моде, медиана) и характеристики рассеивания ( дисперсия, среднеквадратичное отклонение , моменты)

В мат ожидании (средним значением вероятности называется действительное число М(х))        

М(х)=

Мат. ожидание существует , если ряд или интеграл ---сходятся абсолютно, если абсолютной сходимости нет , то говорят, что Х не имеет мат ожидания.

Мат ожидание характеризует среднее значение принимаемое СВ.

Свойства:

1.М(с)=с - const

2.М(кх)=кМ(х), к -const

3.М(х+у)=М(х)+М(у)

4.М(ху)=М(х)М(у), если х,у- независимые

5.М(х-М(х))=0

6.х≥0 => М(х) ≥0

7.М2(ху)=М(х2)М(у2) ---неравенство Коши Буняковского

Дисперсией СВ называют неотрицательное число:

 

D(x)= 

Свойства дисперсии:

1.D(c)=0, c-const

2.D(kx)=k2D(x)

3.D(x±y)=D(x)+D(y), если х,у - независимые

4.D(x)=M(x2)-(M(x))2 --- упрощённое правило вычисления

Модой непрерывной СВ Х называют действительное число dx – точка максимального распределения.(модой дискретной СВ Х – называют значение хк имеющее наибольшую вероятность)

Медианой непрерывной СВ Х – называют действительное число hх , такое что Р(х<hx)= Р(х≥hx)

 Средним квадратичным отклонением CВ Х – называют число δ(х)=(D(x))0.5



Условное мат ожидание

Зависимость между СВ Х и У может изучаться с помощью условных распределений. Если окажется что условное = безусловному , то говорят что СВ не зависимы.

Условное распределение составленное Х и У характеризуется условным мат ожиданием и дисперсией.

Опр. Условное мат ожидание составляет Х при условии что У приняло определённое значение У(для дискретного yj находят по формуле ):

М(Х| У=уj)= ∑хip(xi,yi) для дискретной СВ, где хi – различные значения СВ Х.

p(xi,yi)=p(Х=xi| У=yi)

М(Х| У=уj)=∫ хp(x,y)dx для непрерывных СВ Х и У, где p(x,y)- условие плотности СВ Х при условии У=у

Например: условие дисперсии составляет Х, при условии что У=у в случае непрерывных СВ определяемое формулой:

        Мх/у=М(Х| У=у)

 D(Х| У=у)=∫ (х- mx/y)2p(x,y)dx

Из определения условного мат ожидания следует => с изменением У будет меняться и М(Х| У=у) и мы можем рассматривать его как функцию от У(М(Х| У=у)=ψ(У)- функция регрессии Х на У, аналогично для регрессии У на Х). Х= ψ(У),У=φ(Х) – линии регрессии, вводятся непрерывных СВ.



Характеристические функции случайных величин, их свойства. Примеры



Д-во :

В силу неравенства Чебышева (*):

 

значит и p . . Обозначим =

В силу условия  при  : >2*

Возьмем n-настолько большое, чтобы выполнялось это неравенство: 2* > , так как

Тогда > }

В силу (*) получаем, что  при . Значит - состоятельная оценка.

Ч.т.д.
37 . Условные законы распределения. Условное мат. ожидание.

Дискретное распределения. Рассм. случ. метод =(X1, ... , Xn), где Xi – случ. вел. Пусть  – имеет дискр. распр.: P{ =X}=p(x)=p(x1, ... , xn).  x- пробегает конечное или счетное множество возможных значений . По свойствам этих вероятностей:  p(x) . Рассмотрим функцию : t=t(x1, ... , xn). В дальнейшем вместо функции t(x1, ... , xn) можно рассматривать вектор функцию t(x). Определение:Условным распределением при условий t( )=t (t-фиксир) назовем совокупность условных вероятностей P(x|t)=P{ =X|t( )=t}.

Если x и t таковы, что t(x) t, то очевидно, что p(x|t))=0

Замечание : В дальнейшем считаем, что t(x)=t

Выразим усл. вер. p(x|t), через вероятность p(x).P{ =X|t( )=t}= (*)

Доп. усл. на t: t – выбирается таким, чтобы знаменатель последней дроби не был равен нулю, другими словами, чтобы на линии уров-ня было хотя бы одно с ненулевой вероятностью.Пусть g(x) – числовая функция от векторного аргумента x=(x1, ... , xn), тогда g( ) – случ. величина, ее мат ожидание:  M[g( )]=

Условное мат. ожидание случайной величины g( ), при t( )=t определяется с помощью условного распределения.

Определение.Условное мат ожидание случайной величины g(X) при условии t( )=t обозначим M[g( )|t( )=t]= . В силу (*) имеем :

M[g( )|t( )=t]= .

Условное мат. ожидание : M{g( )|t( )=t} – обозначение ее g1(t). Вместо t в эту функцию подставим случ. величину  t( ), мы получим, что усл мат ожидание есть случайная величина g1( )

M[g1( )]=

 =

Т.о. мы доказали: M[g( )]=M[M(g( )|t)] (****)

Т. е. при вычислении мат. ожидания случ. величины g( )сначало можно вычислить условное мат. ожидание g( ), при условии t( )=t , а затем осреднить это усл. мат. ожидание по вероятностям условий.

Непрерывное распределение. Пусть  - имеет непрерывное распределение и t(x)=t(x1, ... , xn) – некоторые функции от n-переменных.

Определение : предел при  след. величины:

 назыв. усл. плотностью случайного вектора  при условии t( )=t и обозн. p(x|t). Пусть g(x) – некоторая функция (x1, ... ,xn). Усл. мат ожидание случ величины g( ) при условии t( )=t определяется: M{g( )|t( )=t}= .  Формула (***) имеет место и в случае, если имеет непрерывное распределение.




Метод моментов

Пусть эксперимент описывается случайной величиной Х и пусть получается выборка (х12,…,хn).

Опр. Начальным статистическим моментом к-того порядка называется величина:

  (*)

Замечание. -среднее выборочное

Опр. Центральным статистическим моментом к-того порядка называется величина:

  (**)- выборочная дисперсия

Суть Статистические моменты (*) и (**) применяются в качестве оценок для соответствующих теоретических моментов распределения случайной величины Х зависящих от неизвестных параметров.

Пусть непрерывная СВ Х и р(х,ϴ12,…,ϴm)-плотность распределения, ϴ12,…,ϴm – независимые параметры плотности.

Определим с помощью этой плотности m каких-либо теоретических моментов случайной величины Х. Например первые m начальных моментов. Запишем для них формулу:

=

По выборке найдем значение соответствующих статистических моментов:

Приравнивая теорет.моменты  и  получим:

=   k=1,…,m

Решение этой системы  будут оценками этих параметров
42. Распределение….



Распределение Стьюдента.

Пусть Х12,…,Хn нормально распределенные случайные величины, m=0, σ=1.

Тогда СВ  – соотношение Стьюдента. А ее распределение – распределение Стьюдента с ν=n степенями свободы.

Замечание. СВ Т часто записывают  где .
График плотности:

Внешне напоминает график плотности нормального стандартного распределения. При больших ν график  центрирован нормальной кривой (т.е. m=0, σ=1). Составлена таблица . Построим график: S1+S2=α (α-заданный ) уровень вероятности, - квантили распределения Стьюдента.
44. Теоремы о случайной величине, имеющей распределение Стьюдента.

Теорема 1. Пусть Х12,…,Хn независимые СВ распределенные нормально с одинаковымм мат.ожиданиями m и одинаковыми диспериями , тогда  имеет распределение Стьюдента с ν=n-1 степенями свободы.

Доказательство.  ,  - нормально распределенная случайная величина с параметрами 0 и 1. Из того, что все Хi – нормально распределены =>, что  - нормально распределенная.

.  СВ  имеет 𝜒2 – распределение с ν=n-1 степенями свободы.

  à распределена по Стьюденту с ν=n-1 степенью свободы. Теорема доказана.

Теорема 2. Пусть  и  – средние арифметические и дисперсии в выборках, состоящих из n1 и n2 соответственно независимых наблюдений. Выборки отобраны из нормальных генеральных совокупностей с одинаковыми средне квадратич. отклонениями. Тогда при взаимной независимости обеих выборок, случайная величина Т:

 à распределена по закону Стьюдента с ν=  степенями свободы.

Доказательство. (см дальше)

  ν=n. Рассмотрим случайную величину ,

 ,  ,

 - имеет  - распределение с ν=n1-1 степенью св.

 - имеет  - распределение с ν=n2-1 степенью св.

 - имеет  - распределение с ν=n1+n2-2 степенью св.

Составим СВ  , Т – распределена по Стьюденту со степенью свободы ν=n1+n2-2.

(из теоремы). Теорема доказана.
45. Распределение Фишера. Теорема о случайной величине, имеющей распределение Фишера

Опр. Пусть случайная величина U2 и V2 имеют 𝜒2 распределение с ν1 и ν2 степенями свободы, тогда СВ  - имеет распределение Фишера с ν1 и ν2 степенями свободы. Плотность распределения F имеет вид:

Функция распределения случайной величины F называется F-распределением с ν1 и ν2 степенями свободы.

Составлена таблица значений , для которых:

 


Теорема. Пусть  - исправленные статистические дисперсии определяемые в выборках объемов n1 и n2 взятых из нормальных генеральных совокупностей с одинаковыми средне квадратичными отклонениями σ. Тогда СВ  имеет распределение Фишера с ν1=n1-1 и ν2=n2-1 степенями свободы.



Доказательство.

В силу теоремы о случайной величине имеющей распределение 𝜒2 и замыкания имеем:

Тогда  имеет F-распределение с  степенями свободы, и  степенями свободы. Теорема доказана.


46 Доверительный интервал для мат. ожидания нормально распределенной С.В.( -неизвестно)

Опр.Доверительным интервалом для параметра наз-ся интервал (обозн. , ),содержащий (накрывающий) истинное значение неизвестного параметра с заданной вероятностью p=1-

Опр: Число 1-  наз-ся доверительной вероятностью.

Постановка задачи: Пусть наблюдается нормальное распределение С.В. Х.произведена выборка обьема n.Требуется найти доверительный интервал с заданной доверительной вероятностью 1-  для мат. ожидания m С.В. Х

Для этого найдем такое >0 ,что P( )= 1-      (**)

Ищем  ,чтоб вып-ось это равенство

P( )= 1-  (**)

1)Пусть  неизвестна,т.е.  .В силу Теоремы2 из пункта распределение Стьюдента С.В.

 ,где -выбор среднего квадратичного отклонения имеет распределение Стьюдента с  степенями свободы

Т.к. =  следовательно =

-распределение по Стьюденту с  степенями свободы

<

Ищем чтобы: P( )= 1-      

P( )= 1-      

P( )=      

По таблице находим такое значение  что P( )=  ,Тогда  следовательно

Тогда искомый доверительный интервал  будет иметь вид

( )

 

 


47 Доверительный интервал для мат. ожидания нормально распределенной С.В.( -известно)

Опр.Доверительным интервалом для параметра наз-ся интервал (обозн. , ),содержащий (накрывающий) истинное значение неизвестного параметра с заданной вероятностью p=1-

Опр: Число 1-  наз-ся доверительной вероятностью.

Постановка задачи: Пусть наблюдается нормальное распределение С.В. Х.произведена выборка обьема n.Требуется найти доверительный интервал с заданной доверительной вероятностью 1-  для мат. ожидания m С.В. Х

1)Пусть  известно,т.е.  .  распределена нормально с параметрами m и

Тогда *  с параметрами  0 и 1.

 

P( )= 1-α    

P( )=2 ( )           

          -Находим по таблице

   следовательно

Т.О. искомый доверительный интервал имеет вид:

( )

Замечание: U из формул  и   следует что с увеличением n точность оценки возрастает.

 





Основные понятия ТВ.

Под событием ТВ понимается всякий факт, который в результате опыта может произойти или не произойти.

Примеры: А-появление герба при бросании монеты; В-появление 3-х гербов при 3-х кратном бросании монеты; С-попадание в цель при выстреле.

Будем рассматривать вначале классическую вероятностную модель, которая используется для описания опытов с конечным числом взаимно-исключающих возможных исходов. Пусть результаты опыта описываются с взаимно-исключающими исходами . Эти исходы называют также элементарными событиями. Мн-во  –это мн-во всех элементарных исходов называют множеством элементарных событий. Любое случайное событие А связанное с данным опытом может быть связано посредством перечисления всех элементарных событий, при которых оно происходит A={ }. Исходы  наз-ют благоприятствующими событию А. Событие  состоящее из всех возможных исходов наз-ют достоверным. |A|-число элементарных событий входящих в А. Вероятность - числовая характеристика степени возможности появления какого-либо определённого события в тех или иных определимых могущих повторятся неограниченное число раз (обозначение P(A)).

Классическое определение вероятности:Классические вероятностные модели P(A)=ar w:top="1134" w:right="850" w:bottom="1134" w:left="1701" w:header="720" w:footer="720" w:gutter="0"/><w:cols w:space="720"/></w:sectPr></w:body></w:wordDocument>">  (*). Более общий подход в определении P(A) следующий: с каждым из элементарных исходов связывающие неотрицательное число  причём . Пусть A={ } тогда полагают, что P(A)= . Легко видеть, что (*) получается из послед-ей в случае, если  .

 ,

 число перестановок из m  элементов

s w:ascii="Cambria Math" w:h-ansi="Cambria Math"/><wx:font wx:val="Cambria Math"/><w:i/><w:sz w:val="44"/><w:sz-cs w:val="44"/></w:rPr><m:t>!</m:t></m:r></m:den></m:f><m:r><w:rPr><w:rFonts w:ascii="Cambria Math" w:h-ansi="Cambria Math"/><wx:font wx:val="Cambria Math"/><w:i/><w:sz w:val="44"/><w:sz-cs w:val="44"/></w:rPr><m:t>-</m:t></m:r></m:oMath></m:oMathPara></w:p><w:sectPr wsp:rsidR="00000000"><w:pgSz w:w="12240" w:h="15840"/><w:pgMar w:top="1134" w:right="850" w:bottom="1134" w:left="1701" w:header="720" w:footer="720" w:gutter="0"/><w:cols w:space="720"/></w:sectPr></w:body></w:wordDocument>"> число упорядоченных размещений из n элементов по k

Статистическое определение вероятности

В основе лежит эксперимент. Проводят серию из n опытов, в каждом из которых может появиться событие A.Пусть А появилось в m случаях, тогда величина   наз-ся относительной частотой события А. Её часто наз-ют статистической вероятностью события А. Обозначение: .


Поделиться:



Последнее изменение этой страницы: 2019-05-08; Просмотров: 221; Нарушение авторского права страницы


lektsia.com 2007 - 2024 год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! (0.124 с.)
Главная | Случайная страница | Обратная связь