Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология
Образование Политология Производство Психология Стандартизация Технологии


СЛУЧАЙНЫЕ ФУНКЦИИ (СЛУЧАЙНЫЕ ПРОЦЕССЫ)



СЛУЧАЙНЫЕ ФУНКЦИИ (СЛУЧАЙНЫЕ ПРОЦЕССЫ)

 

Случайная функция неслучайного аргумента называется случайной функцией. В случае если аргументом является время, то случайная функция называется случайным процессом.

При каждом значении аргумента значение функции – это случайная величина (такая случайная величина называется сечением случайной функции).

 

Если в каждый момент времени взять одно из возможных значений случайной функции, то получим реализацию случайной функции.

Для моментов и значений функция распределения . На практике используется не более, чем двумерная функция распределения. Как правило – одномерная .

.

Классификация случайных процессов.

 

Случайные процессы по времени делятся на:

· С дискретным временем

· С непрерывным временем

 

Случайная величина в каждый момент времени может быть как дискретной так и непрерывной.

 

Характеристики случайного процесса:

Будем считать, что все реализации случайного процесса относятся к одному и тому же вероятностному пространству.

Функция математического ожидания для случайной функции :

;

Функция дисперсии для случайной функции :

;

Корреляционная (автокорреляционная) функция случайного процесса

Свойства корреляционных функций.

  1. (симметрична относительно времени)

Взаимная корреляционна функция:

- случайные процессы

Вводят взаимную корреляционную функцию. .

Свойства взаимной корреляционной функции:

1. ;

2. .

Функция математического ожидания и корреляционная (автокорреляционная) функция полностью определяют случайный процесс.

 

Действия над случайными процессами.

Алгебраическая сумма случайных процессов ;

Найдем автокорреляционную функцию для этого процесса.

Понятие о линейном операторе

Оператор L называется линейным, если

  1. С=соnst

Применение линейных операторов к случайным процессам

Пусть тогда

  1. ;
  2. ;
  3. ;
  4. .

 

 

Умножение случайной функции на неслучайную:

.

  1. ;
  2. .

 

Сложение случайной величины с неслучайной функцией:

  1. ;
  2. .

 

 

Стационарные случайные процессы (ССП)

Стационарным процессом в широком смысле называется процесс с постоянным математическим ожиданием: и корреляционной функцией, значение которой не зависит от времени, а зависит только от интервала наблюдения .

Если случайный процесс имеет постоянной одну из характеристик, то он называется стационарным относительно этой характеристики.

Рассмотрим корреляционную функцию стационарного случайного процесса

;

; ;

.

 

 

Свойства случайных стационарных процессов (относительно корреляционной функции).

  1. ;
  2. т.е корреляционная функция симметрична
  3. ; ;
  4. Обозначим - нормированная функция.

(нормированная корреляционная функция называется стандартом).

Реально, в случае, если =0, 2; то принимают, что корреляционная функция »0, а называется в этом случае интервалом корреляции. Остальная группа свойств относится к преобразованиям случайных стационарных процессов.

 

Преобразования стационарных случайных процессов.

  1. Сумма двух стационарных случайных процессов – это стационарный случайный процесс.
  2. Случайный стационарный процесс умноженный на неслучайную функцию - нестационарный случайный процесс.
  3. Производная ССП – ССП;
  4. Интеграл от ССП – не ССП.

Примеры:

- - стационарная функция

- пример нестационарной функции:

 

Некоторые виды графиков корреляционных функций ССП:

Для ССП корреляционная функция имеет max в точке t = 0. И этот max = .

 

Так как максимум не в точке t = 0, то это не график корреляционной функци ССП.

 

 

Пример

Корреляционная функция некоторого случайного процесса имеет вид:

;

.

  1. Определить стационарность процесса .

исходная функция стационарно относится к корреляционной функции и не стационарно к математическому ожиданию.

 

  1. Найти характеристики для

 

Найдем характеристики СП ;

; ;

Затем для СП ;

;

.

 

 

Корреляционная теория ССП.

Понятие о «белом шуме»

Исследуем ССП с функцией ; ;

При a®¥

;

 

 

;

- Процесс с такой спектральной плотностью называется белым шумом.

где ;

В каждый момент времени дисперсия равна ¥ и равномерно распределена по всем частотам. Слово «Белый» взято из оптики, «шум» - впервые процесс рассматривали в радиотехнике.

 

 

Выводы:

 

Рассмотрим класс случайных функций заданных на вероятностном пространстве:

  1. Случайная функция полностью определяется многомерным законом распределения.
  2. Введено понятие математического ожидания и корреляционной функции случайного процесса, а также взаимной корреляционной функции для двух процессов. Эти характеристики полностью определяют случайный процесс.
  3. Рассмотрены основные понятия спектрального анализа ССП. Записаны необходимые и достаточные условия эргодичности случайного процесса.
  4. Рассмотрены частные случаи ССП (один из них «белый шум»).

 

Примеры наиболее распространенных корреляционных функций:

1. .

 

;

2. ;

;

;

Аналогично

;

3. ;

;

4. - для разрывной функции.

.

 

 

ЦЕПИ МАРКОВА

Пусть случайный процесс X (t) может принимать конечное (L < ) множество значений

{ql, l= } = С. Конкретное зна­чениеql; Î С, которое принял процесс X (t) в момент t, определя­ет его состояние при данном значении аргумента. Таким образом,

 

в рассматриваемом случае процесс X (t) имеет конечное мно­жество возможных состояний.

Естественно, что с течением времени процесс X (t) будет слу­чайным образом изменять свое состояние. Допустим, что такое изменение возможно не при любом t, а лишь в некоторые дискрет­ные моменты времени t0< t1< t2< …, когда процесс X (t) скачком изменяет свое состояние. Иначе говоря, в моменты времени tt имеют место переходы X(t0) ®X(t1) ®..., причем X(t)Î C, i= 0, 1, 2, …

Два указанных признака определяют последовательность ди­скретных случайных величин Xi — X (ti), i = 0.1, ... (дискретную случайную последовательность в терминах, параграфа 1.1), у ко­торой область значений представляет собой дискретное конечное множество С ={ql, l = ], а область определения — дискрет­ное бесконечное множество ti, i = 0, 1, 2,...

Если для определенной таким образом дискретной случайной последовательности справедливо основное свойство (3.1.1) про­цессов Маркова, приобретающее в данном случае вид

(3.2.1)

то такая последовательность называется простой цепью Маркова.

Отметим, что из выражения (3.2.1) непосредственно вытекает

такое же равенство и для условных вероятностей нахождения

простой цепи Маркова в некотором состоянии

Р{х10, х1, ..., xi-1} = Ρ {xi /xi-1 }, i = 1, 2,....

Введенное определение допускает некоторое обобщение. По­ложим, что значение хiÎ С рассматриваемого процесса X (t) за­висит не от одного, а от m(l£ m < i) непосредственно предшест­вующих ему значений. Тогда, очевидно, что

(3.2.2)

Процесс, определяемый соотношением (3.2.2), называется сложной цепью Маркова порядка т. Соотношение (3.2.1) выте­кает из (3.2.2) как частный случай. В свою очередь, сложная цепь Маркова порядка т может быть сведена к простой цепи Маркова для m-мерного вектора. Для того чтобы показать это, положим, что состояние процесса в момент ii описывается с помощью m-мерного вектора.

(3.2.3)

На предыдущем шаге аналогичный вектор запишется как

(3.2.4)

Сравнение (3.2.3) и (3.2.4) показывает, что «средние» компо­ненты этих векторов (кроме Xl в (3.2.3) и Хl-m в (3.2.4)) совпадают. Отсюда следует, что условная вероятность попадания про­цесса X (t) в состояние `Xi в момент t1, если он находился в состоя­нии `Xi-1 в момент ti-1, может быть записана в виде

 

(3.2.5)

 

В (3.2.5) символ обозначает j-ю компоненту вектора `xi; α (μ, ν ) — символ Кронекера: α (μ, ν ) = 1 при ν = μ и α (μ, ν ) = ϋ при μ ¹ ν. Возможность указанных обобщений позволяет ограничить­ся в дальнейшем рассмотрением только простых цепей Маркова.

Как система дискретных случайных величин простая цепь Мар­кова Xi, i = 0, 1, 2, ..., i, ... при любом фиксированном i может быть исчерпывающим образом описана i-мерной совместной вероят­ностью

ρ {θ 0L, θ ί κ ,..., θ ί m, } = P{Х0 =θ L, X1k, …, Xjm}, (3.2.6)

где индексы l, k,..., т принимают все значения от 1 до L неза­висимо друг от друга. Выражение (3.2.6) определяет матрицу с L строками и i+1 столбцом, элементами которой являются вероят­ности совместного пребывания системы случайных величин Χ 0, Χ 1,..., Χ ί в некотором конкретном состоянии. Данная матрица по аналогии с рядом распределения скалярной дискретной слу­чайной величины может быть названа матрицей распределения системы дискретных случайных величин

Χ 0, Χ 1,..., Χ ί .

На основании теоремы умножения вероятностей вероятность (3.2.6) может быть представлена в виде

 

Но согласно основному свойству (3.2.1) цепи Маркова

P{Xl = m/X0= l, X1 = k, …, Xi-1= r}=P{Xi= m/Xi-1= r}

откуда

(3.2.8)

Повторение аналогичных рассуждений для входящей в (3.2.8) вероятности r} позволяет привести это выра­жение к виду

Отсюда окончательно получаем

(3.2.9)

Таким образом, полное вероятностное описание простой цепи Маркова достигается заданием вероятностей начального состояния цепи в момент t0, Ρ {Θ 0l, } = Р{Х0 = Θ l}, l= и условных вероятностей

Ρ {Xl = Θ k/Xi-1= Θ m}, i = 1, 2, ... · k, m =

Отметим, что поскольку возможные состояния Θ lÎ `C цепи X (t) фиксированы и известны, для описания ее состояния в лю­бой момент времени достаточно указать номер l этого состояния. Это позволяет ввести для безусловных вероятностей нахождения цепи в l-м состоянии в момент ti (на i-м шаге) упрощенное обоз­начение

(3.2.10)

Для этих вероятностей, очевидно, имеют место свойства неот­рицательности и нормированности к единице

Pl(i)> 0, l = , i = 0, 1, 2,...; (3.2.11)

При использовании матричных обозначений совокупность без­условных вероятностей записывается в виде матрицы-строки

(3.2.12)

Как следует из ранее изложенного, фундаментальную роль в теории цепей Маркова (и процессов Маркова вообще) играют ус­ловные вероятности вида В соответствии с физическим смыслом их принято называть вероятностями пере­хода и обозначать как

(3.2.13)

Выражение (3.2.13) определяет вероятность прихода цепи в состояние l, в момент t за ν — μ шагов при условии, что в момент tμ цепь находилась в состоянии A. Нетрудно видеть, что для вероятностей перехода также имеют место свойства не­отрицательности и нормированности, поскольку на любом шаге цепь всегда будет находиться в одном из L возможных состояний

(3.2.14)

 

Упорядоченная совокупность вероятностей перехода для любой пары может быть представлена в виде квадратной мат­рицы

 

(3.2.15)

 

Как следует из выражения (3.2.14), все элементы этой матри­цы неотрицательны и сумма элементов каждой строки равна еди­нице. Квадратная матрица, обладающая указанными свойствами, называется стохастической.

Таким образом, вероятностное описание цепи Маркова может быть задано матрицей-строкой (3.2.12) и стохастической матри­цей (3.2.15).

С использованием введенных обозначений решим основную задачу теории цепей Маркова — определим безусловную вероят­ность Ρ l (ί ) того, что за i —μ шагов процесс придет в некото­рое состояние l, l= . Очевидно, что в момент tm процесс может находиться в любом из L возможных состояний с вероятностью Pk(m), k = . Вероятность же перехода из k-гo в l-е состояние задается вероятностью перехода pk l(m, i). Отсюда на основании теоремы о полной вероятности получаем

; (3.2.16)

или в матричной форме

P(i)=P(m)P(m, i); (3.2.17)

Рассмотрим в соотношении (3.2.16) вероятность перехода π kl (m, i). Очевидно, что переход цепи из состояния k в момент tm в состояние l в момент ti за несколько шагов может осущест­вляться различными путями (через различные промежуточные со­стояния). Введем в рассмотрение промежуточный момент времени tm, tm < tm< tί . Β этот момент процесс может находиться в любом из L возможных состояний, причем вероятность его попадания в r-е состояние в момент tm при условии, что в момент tm он был в состоянии k, равна π kr(μ, m). В свою очередь, из состояния r в состояние l процесс переходит с вероятностью π rl(m, i). Отсю­да с использованием теоремы о полной вероятности получаем уравнение Маркова для вероятностей перехода

 

 

 

матричная форма которого имеет вид

П(m, ί ) = П(μ, m) П(m, I); 0£ m < m < I; (3.2.19)

Уравнения (3.2.18), (3.2.19) определяют характерное для це­пей Маркова свойство вероятностей перехода, хотя справедливос­ти (3.2.18) еще недостаточно, чтобы соответствующая цепь была марковской.

Расписывая последовательно формулу (3.2.19), получаем

П(μ, i) = П (μ, i - 1) П (i - 1, ί ) = П (μ, μ + 1)... П - 1, i), (3.2.20)

где p(ν, μ ), μ —n= 1— одношаговая вероятность перехода. Полагая теперь в выражении (3.2.17) μ =0, получаем

(3.2.21)

откуда следует, что полное вероятностное описание простой цепи Маркова достигается заданием вероятностей начального состоя­ния и последовательности матриц вероятностей одношаговых пе­реходов.

Очевидно, что свойства цепи Маркова в значительной мере определяются свойствами вероятностей перехода. С этой точки зрения, в частности, среди простых цепей Маркова выделяют од­нородные, для которых вероятности перехода зависят только от разности аргументов

pkl(m, i) =pkl (i-m), i> m> 0; (3.2.22)

и не зависят от номера шага. Все остальные виды простых цепей Маркова, не удовлетворяющие условию (3.2.22), относятся к клас­су неоднородных,.

Поскольку для однородной цепи вероятность перехода опре­деляется лишь разностью аргументов и не зависит от номера ша­га, очевидно, что для произвольных пар (μ, m), (j, i), удовлетво­ряющих условиям т — μ = 1, ί — j = 1, m¹ i, справедливо

 

pkl(m-m) =pkl (i-j)= pkl(1) =pkl ;

 

Отсюда следует, что для описания однородной марковской це­пи достаточно задать вместе с вероятностями начального состоя­ния не последовательность, а одну стохастическую матрицу одношаговых вероятностей перехода

 

(3.2.23)

 

 

 

Кроме того, очевидно, что

(3.4.7)

поскольку первый сомножитель под интегралом не зависит от пе­ременной интегрирования, а интеграл от второго равен единице. Вычитание уравнения (3.4.7) из (3.4, 6) дает

 

(3.4.8)

Предположим, что плотность вероятности перехода рассматри­ваемого процесса может быть разложена в ряд Тейлора. Тогда выражение в квадратных скобках под интегралом в уравнении (3.4.8) может быть представлено в виде

(3.4.9)

 

Подставив выражение (3.4.9) в (3.4.8), разделив обе части полученного выражения на ∆ t и перейдя к пределу при Δ t → 0, получим

 

(3.4.10)

где

(3.4.11)

 

Уравнение (3.4.10) определяет широкий класс непрерывных марковских процессов, причем нетрудно видеть, что совокупность коэффициентов Аν (x0, t0) определяет физические свойства каждо­го из них. Так, коэффициент A1 (x0, t0) может трактоваться как среднее значение локальной (в точке x (t0)) скорости изменения процесса, коэффициент A2 (x0, t0) — как локальная скорость изме­нения дисперсии его приращения и т. д. Однако марковские про­цессы такого общего вида сравнительно редко рассматриваются в приложениях. Наибольшее практическое значение имеет под­множество марковских процессов, удовлетворяющее условию

Aν (x0, t0)¹ 0; n=1, 2, Aν (x0, t0)=0, n³ 3; (3.4.12)

 

 

При исследовании марковских процессов первоначально было установлено, что уравнению (3.4.10) при условии (3.4.12) удовле­творяют законы движения (диффузии) броуновских частиц, вслед­ствие чего соответствующие марковские процессы назвали диф­фузионными. Исходя из этого, коэффициент A1 (x0, t0)=a (x0, t0) назвали коэффициентом сноса, о A2 (x0, t0)=b(x0, t0) -- коэффици­ентом диффузии. В рамках (3.4.12) уравнение (3.4.10) приобре­тает окончательный вид

(3.4.13)

 

 

Это уравнение, в котором переменными являются х0 и t0, носит название первого (обратного) уравнения Колмогорова.

Аналогичным образом может быть получено и второе урав­нение

Это уравнение, в честь впервые исследовавших его ученых, называется уравнением Фоккера, Планка Колмогорова или прямым уравнением Колмогорова (поскольку в нем фигурирует производ­ная по конечному моменту времени t> t0).

Таким образом; показано, что плотности вероятности перехода диффузионных марковских процессов удовлетворяют уравнениям (3.4.13), (3.4.14), которые и являются основным инструментом их исследования. При этом- свойства конкретного процесса опреде­ляются «коэффициентами» a(x, tί ) и b(x, t) которые, согласно уравнения (3.4.11), равны

(3.4.15)

(3.4.16)

 

Из выражений (3.4.15), (3.4.16) следует, что эти «коэффици­енты» имеют смысл условных математических ожиданий, опре­деляющих характер изменений реализаций процесса за бесконеч­но малый промежуток времени Δ t. Допускаются весьма быстрые изменения процесса X (t), но в противоположных направлениях, в результате чего среднее приращение процесса за малое время Δ t конечно и имеет порядок .

 

 

СЛУЧАЙНЫЕ ФУНКЦИИ (СЛУЧАЙНЫЕ ПРОЦЕССЫ)

 

Случайная функция неслучайного аргумента называется случайной функцией. В случае если аргументом является время, то случайная функция называется случайным процессом.

При каждом значении аргумента значение функции – это случайная величина (такая случайная величина называется сечением случайной функции).

 

Если в каждый момент времени взять одно из возможных значений случайной функции, то получим реализацию случайной функции.

Для моментов и значений функция распределения . На практике используется не более, чем двумерная функция распределения. Как правило – одномерная .

.

Классификация случайных процессов.

 

Случайные процессы по времени делятся на:

· С дискретным временем

· С непрерывным временем

 

Случайная величина в каждый момент времени может быть как дискретной так и непрерывной.

 

Характеристики случайного процесса:

Будем считать, что все реализации случайного процесса относятся к одному и тому же вероятностному пространству.

Функция математического ожидания для случайной функции :

;

Функция дисперсии для случайной функции :

;


Поделиться:



Популярное:

  1. III. Вегетативные функции НС.
  2. III. Предмет, метод и функции философии.
  3. Int mul (int x, int у); // Прототип функции mul().
  4. Агрегирующие функции языка SQL
  5. Алгоритмы записи произвольной функции, заданной в таблице в виде с помощью элементарных функций.
  6. Антикризисный менеджмент. Функции и факторы антикризисного управления
  7. Антонимы. Типы антонимов. Антонимия и полисемия. Стилистические функции антонимов (антитеза, антифразис, амфитеза, астеизм, оксюморон и т.д.). Энантиосемия. Словари антонимов.
  8. Б. Специфические функции нервных клеток ЦНС и периферического отдела нервной системы.
  9. Базальные ганглии. Морфофункциональная организация. Функции
  10. Биогеоценотические функции почвы.
  11. Биологические функции и пищевая ценность углеводов. Классификация углеводов, нормы потребления
  12. Биологический аспект изучения звуков речи. Устройство речевого аппарата и функции его частей.


Последнее изменение этой страницы: 2016-03-17; Просмотров: 2118; Нарушение авторского права страницы


lektsia.com 2007 - 2024 год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! (0.134 с.)
Главная | Случайная страница | Обратная связь