Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Физическая интерпретация метода потенциальных функции. ⇐ ПредыдущаяСтр 5 из 5
Пусть нужно разделить два класса ω 1 и ω 2 Выборочные образы, представлены векторами или точками в n-мерном пространстве образов. Если ввести аналогию м/у точками, представл-ми выборочные образы, и нек-м источником энергии, то в любой из этих точек потенциал достигает макс-го значения и быстро уменьшается при переходе во всякую точку, отстоящую от точки, предст-й выборочный образ xk. На основе этой аналогии можно допустить существование эквипотенциальных контуров, которые описываются потенциальной функцией K(x, xk). Можно считать, что кластер, образ-й выбор-ми образами, принадл-ми классу ω 1, образует «плато», причем выб-е образы размещаются на вершинах нек-й группы холмов. Подобную геометрическую интерпретацию можно ввести и для образов класса ω 2. Эти два «плато» разделены «долиной», в кот-й, как считается, потенциал падает до нуля. На основе таких интуитивных доводов создан метод потенциальных функций, позвол-й при проведении классификации определять решающие функции. 44. Кумулятивный потенциал. Алгоритм итеративного вычисления кумулятивного потенциала. В начале этапа обучения исходное значение к. п. K0(x) полагается=0. При предъявлении первого образа x1 из обуч. выборки значение к. п. просто = зн-ию потенц. ф-ии для выбороч. образа x1. Потенциал предполагается положительным для образов, принадлежащих классу ω 1, и отрицательным для образов, принадлежащих классу ω 2. На k+1 шаге где коэфф-ты rk+1 при корректирующем члене опр-ся соотношениями
45. Теоремы о сходимости обучения классификации методом потенциальных функций. Теорема 1. (О свойствах сходимости алгоритма.) Пусть векторы образов х удовлетворяют в пространстве образов следующим условиям.
ограничена для
(*) такая, что (**) где ε > 0.
Тогда с вероятностью 1 можно определить конечное число шагов R, таких, что кумулятивный потенциал
Другими словами, последовательная аппроксимация решающей функции dk(x) с вероятностью 1 сходится к решающей функции d(x) за конечное число предъявлений образов обучающей выборки. Это означает, что разделение классов ω 1 и ω 2 осуществляется за конечное число шагов с вероятностью 1. Теорема (условия прекращения выполн-я алгоритма): пусть процесс обучения прекращ-ся, если после осущест-я k коррекций неправильной классификации при предъявлении L0 следующих выборочных образов никакие коррекции больше не производятся.Т.е. процесс обучения прекращается после предъявления Lk выборочных образов, где Lk определяется выражением Lk=L0+k.Общее число предъявлений образов, необх-е для прекращения работы алгоритма, увел-тся на 1 после каждой коррекции неправильной классификации. Задача заключ-ся в определении числа контрольных выборочных образов L0, необходимых для обеспечения заданного качества процедуры обучения. Обозначим через вероятность совершения ошибки после предъявления системе Lk выборочных образов. Тогда для любых ε > 0 и δ > 0 вероятность того, что < ε, будет больше, чем 1-δ, если . Отметим, что выбор числа контр-ных выборочных образов зависит только от заданных значений ε и δ, харак-х качество обуч-й процедуры. Выбор величины L0 не зависит от свойств классов ω 1 и ω 2 и статистических харак-к образов. 46. Достоинства и недостатки распознающих процедур перцептронного типа. +: возможность обучения при опред-х условиях безошибочной классификации объектов; универсальность; ОП м\б в достаточной степени произвольной; результат обучения не зависит от начального состояния перц-на. -: для решения сложных ЗР может потреб-ся перцептрон с большим числом элементов; длина ОП может оказаться очень большой; для сложных задач невозможно проверить условия, при кот-х ЗР с помошью перцептрона разрешена, а также усл-я сходимости АОП, которые описаны в тh Новикова.
Элементы задачи решения. Введем в рассм-е след. Элементы задачи принятия решения: W={w1, …, wm}-конечное множество m состояний природы(ситуаций) D={d1, …, dp} – конечное множество p возможных решений (действий) L(di, wj) – ф-я потерь, кот. интерпретируется след. обр.: потери от принятия решения di, когда реализуется состояние wj. X=(x1, …, xn) – в-р признаков. Б. Считать что он явл. реализ-ей сист. СВ X=(X1, …, Xn), которая для состояния природы wj характеризуется: - Плотностью вероятности p(x/wj), если X – сист. абс. непр. СВ - Законом распределения (набором вероятностей) P(x/wj)=P(X=x/wj), если X – сист дискретных СВ. Пусть P(wj) вероятность появления состояния природы wj и пусть P(wj/x) – условная вероятность появления состояния природы wj при условии, что будет наблюдаться значение случ вектора X=x.
48. Условный риск. Общий риск. Введем вел-ну - усл-е мат. ожидание потерь от принятия реш-я di при усл-и, что X=x. -усл. риск Введем в рассм-е функцию d(x) – каждому в-ру x ставит в соотв-е некот реш-е из мн-ва реш-й D. -усл. мат. ожид-е потерь при усл-и, что исп. реш. ф-я d(x) Безусловное мат ожид-е потерь при использовании решающего правила d(x) есть R(d) назыв. общим риском.
49. Постановка байесовской задачи решения. Оптимальное решающее правило. Связь с задачей распознавания. Поставим следующую задачу: найти решающее правило d(x) такое, которое доставляет минимум R(d). Эта задача решается очень просто. Т.к. R(d) будет минимально, если d(x) выбрано так, что R(d(x)/x) имеет минимальное значение для каждого возможного x, то оптимальное решающее правило можно описать следующим образом: для данного x вычислить R(di/x) для i=1, …, p и выбрать то di, при котором R(di/x) минимально, т.е. Такое решающее правило называется байесовским решающим правилом, а соответствующее минимальное значение общего риска R(dopt) – байесовским риском. Задача распознавания образов получается, если между элементами множества W и D установим взаимооднозначное соответствие Решение di заключается в отнесении объекта, имеющего изображение х к одному из классов w1, w2,..., wm. ( в этом случае p=m)
50. Классификация с минимальной вероятностью ошибки. Рассм частный случай байесовской процедуры распознавания, когда потери от принятия любого неверного решения одинаковы (любое неверное решение одинаково нежелательно). В этом случае потери можно представить в виде Для заданной L байесовское решающее правило будет обеспечивать минимальную вероятность ошибки классификации.
51. Минимаксное решающее правило.
52. Процедура Неймана-Пирсона. f(x) – ЗР, H0: xÎ w1 или f(x). g(x) – ЗР, H1: xÎ w2 или g(x). Если в результате проведения наблюдения , то Н0 отвергаем, т.е. xà w2 (в случае Х-С ДСВ); Если , то гипотезу Н0 отвергаем, т.е. xà w2 (в случае Х-С НСВ). 54. Обучение байесовской процедуры распознавания: оценка неизвестных параметров. 1) вид любого УЗР известен, но ЗР содержат неизвестные параметры. Тогда это параметр-я задача обучения, решение кот-й сводится к оценке неизвестных параметров с помощью статист-х методов (максимального правдоподобия, метод моментов). 2) вид УЗР неизвестен. Обучение: а) представление неизвестного ЗР в виде ряда разложения по системе определённых функций с последующим определением по данным наблюдения оценок коэф-в ряда, отбрасывания ряда. б) минимизация общего риска: R(d)à решается заданием à min
Популярное:
|
Последнее изменение этой страницы: 2016-07-14; Просмотров: 519; Нарушение авторского права страницы