Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология
Образование Политология Производство Психология Стандартизация Технологии


При моделировании выделяют две задачи



параметрический и структурный синтез модели

То есть необходимо найти структуру и параметры модели .

Однако на практике применяються несколько другие две задачи:

1. расчета вектора коэфф при заданной структуре модели и

2. более практическая задача, когда ищем и структуру и параметры модели

По поводу различных структур –

Пример – какие ниже стуктуры одинаковые а какие разные

1.У= з-х+х3 2. у= 3х-х2 3.у= 3+х23 4. у=3х-х3

При фиксированой структуре эффективность найденных параметров модели оценивают по разному

– один из вариантов - функционалом

или (*)

где - функция адекватности модели, а - плотность распределения.

С адекватностью понятно –в дискретном случае это может быть “ обьясненная дисперсия”, коэфф детерминации (мах) или отн. норм.среднекв.ошибка (мин)

Ну а причем здесь плотность распределения а?

играет роль весовых коэффициентов в ф-ле, учитывающих частоту попадания объекта в точку i (облaсть i ).

Обычно для построения

-(обращаю внимание на то, что

- вектор и - многомерная плотность)

нужно очень много данных,

Когда же мы имеем такую роскошную

возможность иметь столько данных? –

когда имеем длинный сигнал (временной ряд), например, в медицинских приборах, и вообще работа в реале с накоплением данных об объекте.

Если наша задача – построить прогнозирующий фильтр (прогнозирующую модель)– тогда для Р(х) учитывают данные всей доступной кривой, а прогнозирующую модель расчитывают используя ограниченный скользящий участок методами стохастической аппроксимации, - то есть взвешивая невязки в соответствие с плотностью.

Когда нет доступа к такому большому количествку данных то

чаще обходятся без , считая в (*), что неизвестна, вернее принимая , считая все слагаемые равноправными таким образом принимая что плотность равномерна.

Если теперь функционал качества задачи моделирования выбрать в виде суммы квадратичных. невязок

J (а)= и при виде моделии

придем к для поиска параметров а к обычному механизму МНК

 

Но будем помнить что принцип взвешивания невязок в МНК – важное ответвление РА (называемое взвешенный МНК ), и используется он в задачах моделирования при непрерывном поступлении новых данных в систему – это моделироваие сигналов, временных рядов под. которые необходимо подстроить их модели для дальнейшей обработки - например для прогноза ряда, или очистки сигнала от шума и т.д.

Вернемся к обычному МНК

Напомним

Постановку задачи для поиска коэффициентов по методу наименьших квадратов ( МНК) при фиксированной структуре модели:

Задана матрица значений аргументов

(**) и вектор выхода ,

 

1.Введем предположеие – достаточно сильное и тем неприятное - – предположим что модель линейна по параметрам

Предположение вводится в основном потому что мы умеем решать такие задачи, а не потому что это как то обосновано, Здесь есть нечто общее с тем что « будем искать потеряное под.фонарем, потому что там видно а не потому что там потеряли».

2 Наконец предполагаем что нам известна структура то есть сейчас мы занимаемся задачей параметрического синтеза

 

Если тепер, как мы говорили выше, функционал качества задачи моделирования выбрать в виде сумм квадратичных. невязок

J(у) = (**)

то для определения вектора параметров достаточно решить систему линейных уравнений (*О*)

Действительно вспомним условия экстремума функций, тогда понятно откуда получена система (*О *)

Обратим внимание что систему получим линейную отностельно аj

Все достаточно просто.Решая эту систему получаем наилучший вектор парамеров а который дает минимум функционалу (**)

Таким образом решается задача параметрического синтеза.

Для частного случая одномерной регресии У=ах+в, его решение МНК можно получить как простые формулы для , где - коэффициент регрессии, , -коэффициент корреляции х, у,

 

и , выборочные среднеквадратические отклонения и выборочные математические ожидания случайных величин и

, , ,

№2

Но если регрессия не одномерная, то никто в наше время в расчетах не записывает функционал в скалярном виде, не берут производные, не составляют системы скалярных уравнений и тд. Для решения задачи поиска параметров регрессии пользуются матричные представления данных и операций. Я пользовался выше скалярной записью, только затем, что-бы в начале было проще показать смысл процедур поиска параметров.

 

Упрощенный вывод формулы МНК в матричном виде

Напомним

1.– Для умножения матриц А и В А*В=С

 

–то есть получения элемента необходимо взять в А (первой матрице) j-тую строку и в В (второй матрице) k-тый столбец и образовать скаляное поизведение .

2. Траспонирование

– столбцы делает строками, строки столбцами

(в квадратной матрице – просто зеркально отображаем относительно гл диагонали)

3.Обратная матрица А-1 матрицы А это такая матрица для которой выполняется А-1 *А=Е, где единичная матрица

 

 


Итак имеем матрицу Х и вектор выхода У

 

необходимо построить модель линейной структуры

Уже понимаем почему пишем Х а а не а Х

При этом необходимо максимально приблизить с помощью вектора а матричное соотношение (***)

В скалярном виде это соответствует наилучшему приближению

в первой точке

………… в n -ой точке - (***)

Далее будем исходить из (***) как из равенства и будем из него искать а. Более обосновано вывод проведем немного позже. Итак имеем

Для того что-бы освободить а (умножить то что при а на обратную Х матрицу и получить в результате Е – ед матрицу ) надо чтобы при а стояла квадратная матрица.

Умножим слева и справа на ХТ получим Теперь поскольку ХТХ – квадратная – можем ее умножить на обратную -

слева и справа на (Х ХТ)-1


и окончательно имеем для а

и для модели

 

Все - И все расчеты проводятся по этой формуле

- в любых инжененых пакетах реализованы матричные операции -

все очень просто (мы поработаем на практике) и

не очень просто в связи с операцией взятия обратной матрицы и понятием плохой обусловленности матрицы.

Что это - плохая обусловленность матрицы:

напомним о так наз. собственных числах матрицы

/А-лЕ/=0. .....для опред Л - решаем степенное уравнение соответствующего порядка напомним на примере 2-го порядка

ПлОбМа возникает когда λ min < < λ max.

и численно мера ПОМ выражается их отношением

или близостью к нулю ее детерминанта -

Этот эффект ПОМ обычно набл когда в А одновременно присутствуют очень большие и очень малые числа - тогда при операции нахождения обратной матрицы обусловленность резко ухудшается (очень малые числа деляться на очень большие) и лавинообразно растет погрешность (изза выхода значущих цифр за пределы разрядной сетки ВМ)- решение теряется в эффекте ПлОбМа

Это одна из причин что РА только начинается а не заканчивается на формуле для а. Преодоление ПОМ - различные алгоритмы регуляризации матрицы А......желательно с минимальной потерей ее эквивалентности

Другие проблемы больше связаны с задачей структурного синтеза - об этом позже А пока более строгий вывод, который

повторяет логику, изложенную для скалярного вида:

Пусть размерность задачи m переменных и n точек

Критерий по которому работает МНК: минимировать сумму квадратов ошибок еii-(ао1х1i+…+аmxmi ) модели У=ао1х1+…+аmxm в заданных точках. В матричном виде, модель У=Ха должна минимизировать критерий в матричной форме:

Дифференцируя эту функцию по вектору параметров и приравняв производные к нулю, получим систему уравнений (в матр. форме)

, отсюда (** ) и далее решая (**) можем найти вектор а=(хтх)-1хту

В расшифрованном матричном виде эта система уравнений имеет вид

= X и XTX - осн

Где все суммы берутся по количеству точек

Если в модель включен свободный член то для всех i

Это и есть т.н. нормальная система уравнений


Поделиться:



Последнее изменение этой страницы: 2017-04-12; Просмотров: 382; Нарушение авторского права страницы


lektsia.com 2007 - 2024 год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! (0.026 с.)
Главная | Случайная страница | Обратная связь