Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
СЛУЧАЙНЫЕ ФУНКЦИИ (СЛУЧАЙНЫЕ ПРОЦЕССЫ)Стр 1 из 4Следующая ⇒
СЛУЧАЙНЫЕ ФУНКЦИИ (СЛУЧАЙНЫЕ ПРОЦЕССЫ)
Случайная функция неслучайного аргумента называется случайной функцией. В случае если аргументом является время, то случайная функция называется случайным процессом. При каждом значении аргумента значение функции – это случайная величина (такая случайная величина называется сечением случайной функции).
Если в каждый момент времени взять одно из возможных значений случайной функции, то получим реализацию случайной функции. Для моментов и значений функция распределения . На практике используется не более, чем двумерная функция распределения. Как правило – одномерная . . Классификация случайных процессов.
Случайные процессы по времени делятся на: · С дискретным временем · С непрерывным временем
Случайная величина в каждый момент времени может быть как дискретной так и непрерывной.
Характеристики случайного процесса: Будем считать, что все реализации случайного процесса относятся к одному и тому же вероятностному пространству. Функция математического ожидания для случайной функции : ; Функция дисперсии для случайной функции : ; Корреляционная (автокорреляционная) функция случайного процесса Свойства корреляционных функций.
Взаимная корреляционна функция: - случайные процессы Вводят взаимную корреляционную функцию. . Свойства взаимной корреляционной функции: 1. ; 2. . Функция математического ожидания и корреляционная (автокорреляционная) функция полностью определяют случайный процесс.
Действия над случайными процессами. Алгебраическая сумма случайных процессов ; Найдем автокорреляционную функцию для этого процесса. Понятие о линейном операторе Оператор L называется линейным, если
Применение линейных операторов к случайным процессам Пусть тогда
Умножение случайной функции на неслучайную: .
Сложение случайной величины с неслучайной функцией:
Стационарные случайные процессы (ССП) Стационарным процессом в широком смысле называется процесс с постоянным математическим ожиданием: и корреляционной функцией, значение которой не зависит от времени, а зависит только от интервала наблюдения . Если случайный процесс имеет постоянной одну из характеристик, то он называется стационарным относительно этой характеристики. Рассмотрим корреляционную функцию стационарного случайного процесса ; ; ; .
Свойства случайных стационарных процессов (относительно корреляционной функции).
(нормированная корреляционная функция называется стандартом). Реально, в случае, если =0, 2; то принимают, что корреляционная функция »0, а называется в этом случае интервалом корреляции. Остальная группа свойств относится к преобразованиям случайных стационарных процессов.
Преобразования стационарных случайных процессов.
Примеры: - - стационарная функция - пример нестационарной функции:
Некоторые виды графиков корреляционных функций ССП:
Для ССП корреляционная функция имеет max в точке t = 0. И этот max = .
Так как максимум не в точке t = 0, то это не график корреляционной функци ССП.
Пример Корреляционная функция некоторого случайного процесса имеет вид: ; .
исходная функция стационарно относится к корреляционной функции и не стационарно к математическому ожиданию.
Найдем характеристики СП ; ; ; Затем для СП ; ; .
Корреляционная теория ССП. Понятие о «белом шуме» Исследуем ССП с функцией ; ; При a®¥ ;
; - Процесс с такой спектральной плотностью называется белым шумом. где ; В каждый момент времени дисперсия равна ¥ и равномерно распределена по всем частотам. Слово «Белый» взято из оптики, «шум» - впервые процесс рассматривали в радиотехнике.
Выводы:
Рассмотрим класс случайных функций заданных на вероятностном пространстве:
Примеры наиболее распространенных корреляционных функций: 1. .
; 2. ; ; ; Аналогично ; 3. ; ; 4. - для разрывной функции. .
ЦЕПИ МАРКОВА Пусть случайный процесс X (t) может принимать конечное (L < ) множество значений {ql, l= } = С. Конкретное значениеql; Î С, которое принял процесс X (t) в момент t, определяет его состояние при данном значении аргумента. Таким образом,
в рассматриваемом случае процесс X (t) имеет конечное множество возможных состояний. Естественно, что с течением времени процесс X (t) будет случайным образом изменять свое состояние. Допустим, что такое изменение возможно не при любом t, а лишь в некоторые дискретные моменты времени t0< t1< t2< …, когда процесс X (t) скачком изменяет свое состояние. Иначе говоря, в моменты времени tt имеют место переходы X(t0) ®X(t1) ®..., причем X(t)Î C, i= 0, 1, 2, … Два указанных признака определяют последовательность дискретных случайных величин Xi — X (ti), i = 0.1, ... (дискретную случайную последовательность в терминах, параграфа 1.1), у которой область значений представляет собой дискретное конечное множество С ={ql, l = ], а область определения — дискретное бесконечное множество ti, i = 0, 1, 2,... Если для определенной таким образом дискретной случайной последовательности справедливо основное свойство (3.1.1) процессов Маркова, приобретающее в данном случае вид (3.2.1) то такая последовательность называется простой цепью Маркова. Отметим, что из выражения (3.2.1) непосредственно вытекает такое же равенство и для условных вероятностей нахождения простой цепи Маркова в некотором состоянии Р{х1/х0, х1, ..., xi-1} = Ρ {xi /xi-1 }, i = 1, 2,.... Введенное определение допускает некоторое обобщение. Положим, что значение хiÎ С рассматриваемого процесса X (t) зависит не от одного, а от m(l£ m < i) непосредственно предшествующих ему значений. Тогда, очевидно, что (3.2.2) Процесс, определяемый соотношением (3.2.2), называется сложной цепью Маркова порядка т. Соотношение (3.2.1) вытекает из (3.2.2) как частный случай. В свою очередь, сложная цепь Маркова порядка т может быть сведена к простой цепи Маркова для m-мерного вектора. Для того чтобы показать это, положим, что состояние процесса в момент ii описывается с помощью m-мерного вектора. (3.2.3) На предыдущем шаге аналогичный вектор запишется как (3.2.4) Сравнение (3.2.3) и (3.2.4) показывает, что «средние» компоненты этих векторов (кроме Xl в (3.2.3) и Хl-m в (3.2.4)) совпадают. Отсюда следует, что условная вероятность попадания процесса X (t) в состояние `Xi в момент t1, если он находился в состоянии `Xi-1 в момент ti-1, может быть записана в виде
(3.2.5)
В (3.2.5) символ обозначает j-ю компоненту вектора `xi; α (μ, ν ) — символ Кронекера: α (μ, ν ) = 1 при ν = μ и α (μ, ν ) = ϋ при μ ¹ ν. Возможность указанных обобщений позволяет ограничиться в дальнейшем рассмотрением только простых цепей Маркова. Как система дискретных случайных величин простая цепь Маркова Xi, i = 0, 1, 2, ..., i, ... при любом фиксированном i может быть исчерпывающим образом описана i-мерной совместной вероятностью ρ {θ 0L, θ ί κ ,..., θ ί m, } = P{Х0 =θ L, X1=θ k, …, Xj=θ m}, (3.2.6) где индексы l, k,..., т принимают все значения от 1 до L независимо друг от друга. Выражение (3.2.6) определяет матрицу с L строками и i+1 столбцом, элементами которой являются вероятности совместного пребывания системы случайных величин Χ 0, Χ 1,..., Χ ί в некотором конкретном состоянии. Данная матрица по аналогии с рядом распределения скалярной дискретной случайной величины может быть названа матрицей распределения системы дискретных случайных величин Χ 0, Χ 1,..., Χ ί . На основании теоремы умножения вероятностей вероятность (3.2.6) может быть представлена в виде
Но согласно основному свойству (3.2.1) цепи Маркова P{Xl = m/X0= l, X1 = k, …, Xi-1= r}=P{Xi= m/Xi-1= r} откуда (3.2.8) Повторение аналогичных рассуждений для входящей в (3.2.8) вероятности r} позволяет привести это выражение к виду Отсюда окончательно получаем (3.2.9) Таким образом, полное вероятностное описание простой цепи Маркова достигается заданием вероятностей начального состояния цепи в момент t0, Ρ {Θ 0l, } = Р{Х0 = Θ l}, l= и условных вероятностей Ρ {Xl = Θ k/Xi-1= Θ m}, i = 1, 2, ... · k, m = Отметим, что поскольку возможные состояния Θ lÎ `C цепи X (t) фиксированы и известны, для описания ее состояния в любой момент времени достаточно указать номер l этого состояния. Это позволяет ввести для безусловных вероятностей нахождения цепи в l-м состоянии в момент ti (на i-м шаге) упрощенное обозначение (3.2.10) Для этих вероятностей, очевидно, имеют место свойства неотрицательности и нормированности к единице Pl(i)> 0, l = , i = 0, 1, 2,...; (3.2.11) При использовании матричных обозначений совокупность безусловных вероятностей записывается в виде матрицы-строки (3.2.12) Как следует из ранее изложенного, фундаментальную роль в теории цепей Маркова (и процессов Маркова вообще) играют условные вероятности вида В соответствии с физическим смыслом их принято называть вероятностями перехода и обозначать как (3.2.13) Выражение (3.2.13) определяет вероятность прихода цепи в состояние l, в момент t за ν — μ шагов при условии, что в момент tμ цепь находилась в состоянии A. Нетрудно видеть, что для вероятностей перехода также имеют место свойства неотрицательности и нормированности, поскольку на любом шаге цепь всегда будет находиться в одном из L возможных состояний (3.2.14)
Упорядоченная совокупность вероятностей перехода для любой пары может быть представлена в виде квадратной матрицы
(3.2.15)
Как следует из выражения (3.2.14), все элементы этой матрицы неотрицательны и сумма элементов каждой строки равна единице. Квадратная матрица, обладающая указанными свойствами, называется стохастической. Таким образом, вероятностное описание цепи Маркова может быть задано матрицей-строкой (3.2.12) и стохастической матрицей (3.2.15). С использованием введенных обозначений решим основную задачу теории цепей Маркова — определим безусловную вероятность Ρ l (ί ) того, что за i —μ шагов процесс придет в некоторое состояние l, l= . Очевидно, что в момент tm процесс может находиться в любом из L возможных состояний с вероятностью Pk(m), k = . Вероятность же перехода из k-гo в l-е состояние задается вероятностью перехода pk l(m, i). Отсюда на основании теоремы о полной вероятности получаем ; (3.2.16) или в матричной форме P(i)=P(m)P(m, i); (3.2.17) Рассмотрим в соотношении (3.2.16) вероятность перехода π kl (m, i). Очевидно, что переход цепи из состояния k в момент tm в состояние l в момент ti за несколько шагов может осуществляться различными путями (через различные промежуточные состояния). Введем в рассмотрение промежуточный момент времени tm, tm < tm< tί . Β этот момент процесс может находиться в любом из L возможных состояний, причем вероятность его попадания в r-е состояние в момент tm при условии, что в момент tm он был в состоянии k, равна π kr(μ, m). В свою очередь, из состояния r в состояние l процесс переходит с вероятностью π rl(m, i). Отсюда с использованием теоремы о полной вероятности получаем уравнение Маркова для вероятностей перехода
матричная форма которого имеет вид П(m, ί ) = П(μ, m) П(m, I); 0£ m < m < I; (3.2.19) Уравнения (3.2.18), (3.2.19) определяют характерное для цепей Маркова свойство вероятностей перехода, хотя справедливости (3.2.18) еще недостаточно, чтобы соответствующая цепь была марковской. Расписывая последовательно формулу (3.2.19), получаем П(μ, i) = П (μ, i - 1) П (i - 1, ί ) = П (μ, μ + 1)... П (ί - 1, i), (3.2.20) где p(ν, μ ), μ —n= 1— одношаговая вероятность перехода. Полагая теперь в выражении (3.2.17) μ =0, получаем (3.2.21) откуда следует, что полное вероятностное описание простой цепи Маркова достигается заданием вероятностей начального состояния и последовательности матриц вероятностей одношаговых переходов. Очевидно, что свойства цепи Маркова в значительной мере определяются свойствами вероятностей перехода. С этой точки зрения, в частности, среди простых цепей Маркова выделяют однородные, для которых вероятности перехода зависят только от разности аргументов pkl(m, i) =pkl (i-m), i> m> 0; (3.2.22) и не зависят от номера шага. Все остальные виды простых цепей Маркова, не удовлетворяющие условию (3.2.22), относятся к классу неоднородных,. Поскольку для однородной цепи вероятность перехода определяется лишь разностью аргументов и не зависит от номера шага, очевидно, что для произвольных пар (μ, m), (j, i), удовлетворяющих условиям т — μ = 1, ί — j = 1, m¹ i, справедливо
pkl(m-m) =pkl (i-j)= pkl(1) =pkl ;
Отсюда следует, что для описания однородной марковской цепи достаточно задать вместе с вероятностями начального состояния не последовательность, а одну стохастическую матрицу одношаговых вероятностей перехода
(3.2.23)
Кроме того, очевидно, что (3.4.7) поскольку первый сомножитель под интегралом не зависит от переменной интегрирования, а интеграл от второго равен единице. Вычитание уравнения (3.4.7) из (3.4, 6) дает
(3.4.8) Предположим, что плотность вероятности перехода рассматриваемого процесса может быть разложена в ряд Тейлора. Тогда выражение в квадратных скобках под интегралом в уравнении (3.4.8) может быть представлено в виде (3.4.9)
Подставив выражение (3.4.9) в (3.4.8), разделив обе части полученного выражения на ∆ t и перейдя к пределу при Δ t → 0, получим
(3.4.10) где (3.4.11)
Уравнение (3.4.10) определяет широкий класс непрерывных марковских процессов, причем нетрудно видеть, что совокупность коэффициентов Аν (x0, t0) определяет физические свойства каждого из них. Так, коэффициент A1 (x0, t0) может трактоваться как среднее значение локальной (в точке x (t0)) скорости изменения процесса, коэффициент A2 (x0, t0) — как локальная скорость изменения дисперсии его приращения и т. д. Однако марковские процессы такого общего вида сравнительно редко рассматриваются в приложениях. Наибольшее практическое значение имеет подмножество марковских процессов, удовлетворяющее условию Aν (x0, t0)¹ 0; n=1, 2, Aν (x0, t0)=0, n³ 3; (3.4.12)
При исследовании марковских процессов первоначально было установлено, что уравнению (3.4.10) при условии (3.4.12) удовлетворяют законы движения (диффузии) броуновских частиц, вследствие чего соответствующие марковские процессы назвали диффузионными. Исходя из этого, коэффициент A1 (x0, t0)=a (x0, t0) назвали коэффициентом сноса, о A2 (x0, t0)=b(x0, t0) -- коэффициентом диффузии. В рамках (3.4.12) уравнение (3.4.10) приобретает окончательный вид (3.4.13)
Это уравнение, в котором переменными являются х0 и t0, носит название первого (обратного) уравнения Колмогорова. Аналогичным образом может быть получено и второе уравнение
Это уравнение, в честь впервые исследовавших его ученых, называется уравнением Фоккера, — Планка — Колмогорова или прямым уравнением Колмогорова (поскольку в нем фигурирует производная по конечному моменту времени t> t0). Таким образом; показано, что плотности вероятности перехода диффузионных марковских процессов удовлетворяют уравнениям (3.4.13), (3.4.14), которые и являются основным инструментом их исследования. При этом- свойства конкретного процесса определяются «коэффициентами» a(x, tί ) и b(x, t) которые, согласно уравнения (3.4.11), равны (3.4.15) (3.4.16)
Из выражений (3.4.15), (3.4.16) следует, что эти «коэффициенты» имеют смысл условных математических ожиданий, определяющих характер изменений реализаций процесса за бесконечно малый промежуток времени Δ t. Допускаются весьма быстрые изменения процесса X (t), но в противоположных направлениях, в результате чего среднее приращение процесса за малое время Δ t конечно и имеет порядок .
СЛУЧАЙНЫЕ ФУНКЦИИ (СЛУЧАЙНЫЕ ПРОЦЕССЫ)
Случайная функция неслучайного аргумента называется случайной функцией. В случае если аргументом является время, то случайная функция называется случайным процессом. При каждом значении аргумента значение функции – это случайная величина (такая случайная величина называется сечением случайной функции).
Если в каждый момент времени взять одно из возможных значений случайной функции, то получим реализацию случайной функции. Для моментов и значений функция распределения . На практике используется не более, чем двумерная функция распределения. Как правило – одномерная . . Классификация случайных процессов.
Случайные процессы по времени делятся на: · С дискретным временем · С непрерывным временем
Случайная величина в каждый момент времени может быть как дискретной так и непрерывной.
Характеристики случайного процесса: Будем считать, что все реализации случайного процесса относятся к одному и тому же вероятностному пространству. Функция математического ожидания для случайной функции : ; Функция дисперсии для случайной функции : ; Популярное:
|
Последнее изменение этой страницы: 2016-03-17; Просмотров: 2177; Нарушение авторского права страницы