![]() |
Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Изображение объекта. Виды изображений.Стр 1 из 5Следующая ⇒
Изображение объекта. Виды изображений. Изображение (описание) объекта – отображение объекта на воспринимающие органы (рецепторы) распознающей системы. Если воспринимающие органы фиксированы, то объект и его изображение отождествляются. Виды изображений : 1) объект в виде n-мерного вектора (вектор признаков)
Образ (класс). Пусть задано разбиение множества всех изображений на непересекающиеся подмножества. Каждое такое подмножество назовём классом или образом. Объекты, относящиеся к одному и тому же образу, образуют класс эквивалентности. Иногда под образом понимают множество, элементы которого обладают свойствами рефлексивности и симметричности, но не транзитивности (т.е. отношением толерантности) (для элементов на границе классов).
Задача распознавания образов. Задача распознавания образов заключается в отнесении некоторого объекта из исходного множества к одному из m классов: X (описание объекта)=> распознающая процедура => класс (образ). Обучающая последовательность. Пусть из выделенных классов выбрано множество объектов, на основе которого будет осуществляться построение распознающей процедуры. Назовём его обучающей последовательностью Задача обучения распознаванию образов. Задача обучения распознаванию образов – по данной обучающей последовательности с использованием некоторого устройства (конструктора) получить распознающую процедуру, которая осуществляла бы правильную классификацию для любого объекта из исходного множества, включая и не вошедшие в эту ОП.
Задача обучения с учителем. Задача обучения с учителем – задача распознавания образов, в которой для каждого объекта из обучающей последовательности известен класс, к которому он относится (т.е. дана маркированная ОП).
Задача обучения без учителя. Задача обучения без учителя (задача сомообучения) – задача распознавания образов, в которой для образов из обучающей последовательности не известны классы, к которым они относятся (т.е. дана немаркированная ОП).
Решающая функция. Пусть объект представлен вектором признаков X=(x1, …, xn) и имеется m образов w1, …, wm.. Рассмотрим m(m-1) решающих функций dij(x), где i≠ j, i, j = 1…m, обладающих свойствами: 1) dij(x)> 0, " j≠ i, если xÎ wi. 2) антисимметричность: dij(x) =-dji (x). Если есть такой набор РФ, то работа распознающей процедуры сводится к проверке для данного объекта х условия (1) для всех i =1…m. В результате м/б, что: а) объект отнесён к классу i*. б) объект не отнесён ни к одному из m заданных классов. Множество объектов, не классифицируемых процедурой, составляет область неопределённости. в) по условию (2) невозможно отнесение процедурой объекта х более чем к одному классу: если при данном х усл (1) выполнено для нек-го i, то для всех j≠ i dij(x)< 0, т.е. объект не отнесён ни к какому из классов с номером j≠ i Частный случай: dij(x)= d°i(x)-d°j(x), i≠ j, где m функций d°i обладают свойством: 3) d°i(x)> d°j(x) для " j≠ i, если xÎ wi, => усл (1, 2) выполняются автомат-и. В этом случае РП описывается так: х относится к классу wi, где i=argmax по j d°j(x) (знач-е арг-ента j, при кот-м достигается мах функции при фиксир-м х). Примеры задач распознавания. 1.Тестированиее комбинационных схем (КС-схема, состоящая из элементов, реализующих основные логические функции). …….
Её работу можно описать так: ….
Пусть в схеме есть дефект (элемент х не работает). Тогда опишем её набором:
Задача диагностики КС заключается в том, чтобы фиксируя сигналы на входе и выходе схемы, определить, является ли схема исправной, или она имеет данный дефект. Вектор x=(x1, x2, x3, x4, y) размерности n=5, кол-во классов m=2. 2. Контроль состояния ядерного реактора. ……..
Изображение: X=x01, …, x31 – вектор в евклидовом пространстве. Имеются два класса: w1-множество значений вектора Х, соответств-х нормальному состоянию реактора, w2- -//- аномальному состоянию. Задача состоит в определении к какому классу относится объект X. 3. Распознавание символов. Изображение символа проецируется на светочувствительную сетчатку. Степень затемненности элемента сетчатки можно измерять. Каждому начертанию символа ставится в соответствие вектор 4. Выбор адекватного алгоритма для решения задачи. Имеется некоторое множество задач определенного типа. Предложено m различных эвристических алгоритмов
10. Общая характеристика простейших методов распознавания (сравнение с эталоном). Группа наиболееранних методов, когда класс задаётся характерным представителем (эталоном). Классифицируемый объект относится распознающей процедурой к тому классу, с эталоном которого он согласуется наилучшим образом относительно какой – либо характеристики.
Метод зондов. Метод зондов предназначен для распознавания печатных символов. Имеется начертательное поле, в котором расположена система тонкопроводящих зондов. На него накладывается символ-объединение зондов-вырабатывается определенный код символа. Система зондов расположена так, что различным очертаниям одного и того же символа соответствует один и тот же бинарный код. + в том, что зр решается просто. - в сложности построения таких зондов. Квазитопологический метод. Квазитопологический метод предназначен для распознавания символов. Каждому символу поставлен в соответствие граф в качестве эталона этого символа. РП: к одному классу относятся все очертания символов, графы которых гомеоморфны, то есть могут быть получены друг из друга с помощью взаимооднозначного непрерывного отображения. -: один и тот же граф может соответствовать нескольким символам. Правило ближайшего соседа. Пусть есть ОП Z1, …, ZN, причём для каждого вектора Zj известна его принадлежность к одному из классов W1, …, Wm. Пусть D(Zj, x) – нек-я мера близости векторов Zj и x q-БС-правило (q≥ 1-фиксированное целое число): вычисляется q ближайших соседей х и х относится к тому классу wi, к которому относится большинство из q ближайших соседей.
Алгоритм ISODATA. {x1, x2, ..., xN} – исходный набор образов. Ш1: Задаются параметры, определяющие процесс кластеризации: К—необходимое число кластеров; QN —параметр, с которым сравнивается количество выборочных образов, вошедших в кластер; Qs— параметр, характеризующий среднеквадратичное отклонение; Qc—параметр, характеризующий компактность; L— максимальное количество пар центров кластеров, которые можно объединить; J — допустимое число циклов итерации. Ш2: заданные N образов распределяются по кластерам, соответствующим выбранным исходным центрам, по правилу xÎ Sj, если ||х – zj|| < ||х – zi||, i=1, 2, ..., Nc; i¹ j, где Sj-подмножество образов выборки, включённых в кластер с центром Zj. Ш3: ликвидируются подмножества образов, в состав которых входит менее QN элементов, т. е. если для некоторого j выполняется условие Nj < QN, то подмножество Sj исключается из рассмотрения и значение Nc уменьшается на 1. Ш4: каждый центр кластера zj, j=1, 2, ..., Nc, локализуется и корректируется посредством приравнивания его выборочному среднему, найденному по соответствующему подмножеству Sj, т. е. j=1..Nc, где Nj —число объектов, вошедших в подмножество Sj. Ш5: вычисляется среднее расстояние Dj между объектами, входящими в подмножество Sj, и соответствующим центром кластера по формуле Ш9: в каждом векторе среднеквадратичного отклонения sj, j=1, 2, ..., Nc, отыскивается максимальная компонента sjmax. Ш10: Если для любого s jmax, j=1, 2, ..., Nc, выполняются условия s jmax> Qs, и а) Nj> 2(QN+1), или б) Nj < К/2, то кластер с центром zj расщепляется на два новых кластера с центрами zj+ и zj- соответственно, кластер с центром zj ликвидируется, а значение Nc увеличивается на 1. Для определения центра кластера zj+ к компоненте вектора zj, соот-й макс-й компоненте вектора s j, прибавляется заданная величина gj; центр кластера zj- опред-я вычитанием этой же величины gj из той же самой компоненты вектора zj. В качестве величины gj можно выбрать некоторую долю значения макс-й среднеквадратичной компоненты sjmax, т. е. положить gj = ks jmax, где 0 < k ≤ 1. При выборе gj следуег руковод-я в основном тем, чтобы ее величина была достаточно большой для различения разницы в расстояниях от произвольного образа до новых двух центров кластеров, но достаточно малой, чтобы общая структура кластеризации существенно не изменилась. Если расщепление происходит на этом шаге, надо перейти к шагу 2, в противном случае продолжать выполнение алгоритма. Ш11: вычисляются расстояния Dij между всеми парами центров кластеров: Dij =l| zi - zj ||, i=1, 2, ..., Nc-1; j=i+1, 2, ..., Nc. Ш12: Расстояния Dij сравниваются с параметром Qc. Те L расстояний, которые оказались меньше Qc, ранжируются в порядке возрастания: [Di1j1, Di2j2, ..., DiLjL, ] причем Di1j1 < Di2j2 < ... < DiLjL, . a L—максимальное число пар центров кластеров, которые можно объединить. Следующий шаг осуществляет процесс слияния кластеров. Ш13: кластеры с центрами zil и zjl, i=1, 2, ..., L, объединяются (при усл, что в текущем цикле итерации процедура слияния не прим-ь ни к тому, ни к др-у кластеру), причем новый центр кластера опр-я по формуле Центры кластеров zil и zjl ликвидируются и значение Nc уменьшается на 1. Ш14: если текущий цикл итерации—послед-й, то выполнение алг-ма прекращ-ся. В противном случае следует возврат-я либо к ш1, если по предписанию польз-ля меняется к-л из параметров, определяющих процесс кластеризации, либо к ш2, если в очередном цикле итерации параметры процесса должны остаться неизменными. Завершением цикла итерации считается каждый переход к ш1 или 2.
Изображающие числа и базис. Базис - таблица, которая представляет все возможные комбинации значений истинности некоторого набора элементов А, В, С, .... Для п элементов А1, ..., Ап базис содержит п строк и 2n колонок. Различных базисов существует (2n)!. Тогда базис для одного элемента: #A=0 1; для двух элементов A и B: 0 1 2 3 #A = 0 1 0 1 #B = 0 0 1 1. Строки базиса наз-ся изображающими числами соответствующих элементов и обозн-ся приписыванием слева от элемента знака #. Операции над изображ-и фун-и: 1) изображающее число дизъюнкции двух элементов равно сумме изображающих чисел слагаемых: #(A + B)= #А + #B, причем сложение #A, #В выпол-я поразрядно без переносов в высшие разряды по правилу 0+0=0, 0+1=1+0=1, 1+1=1. 2) изображающее число конъюнкции двух элементов опред-я как произведение ич сомножителей: #(A•B)=( #А)•(#B ), причем перемножение #A, #В выпол-я поразрядно по правилу 0•0=0, 0•1=1•0=0, 1•1=1. 3) ич отрицанияА получается из ич А заменой в каждом разряде 0 на 1 и 1 на 0. Элементы задачи решения. Введем в рассм-е след. Элементы задачи принятия решения: W={w1, …, wm}-конечное множество m состояний природы(ситуаций) D={d1, …, dp} – конечное множество p возможных решений (действий) L(di, wj) – ф-я потерь, кот. интерпретируется след. обр.: потери от принятия решения di, когда реализуется состояние wj. X=(x1, …, xn) – в-р признаков. Б. Считать что он явл. реализ-ей сист. СВ X=(X1, …, Xn), которая для состояния природы wj характеризуется: - Плотностью вероятности p(x/wj), если X – сист. абс. непр. СВ - Законом распределения (набором вероятностей) P(x/wj)=P(X=x/wj), если X – сист дискретных СВ. Пусть P(wj) вероятность появления состояния природы wj и пусть P(wj/x) – условная вероятность появления состояния природы wj при условии, что будет наблюдаться значение случ вектора X=x.
48. Условный риск. Общий риск. Введем вел-ну
-усл. риск Введем в рассм-е функцию d(x) – каждому в-ру x ставит в соотв-е некот реш-е из мн-ва реш-й D.
Безусловное мат ожид-е потерь при использовании решающего правила d(x) есть R(d) назыв. общим риском.
49. Постановка байесовской задачи решения. Оптимальное решающее правило. Связь с задачей распознавания. Поставим следующую задачу: найти решающее правило d(x) такое, которое доставляет минимум R(d). Эта задача решается очень просто. Т.к. R(d) будет минимально, если d(x) выбрано так, что R(d(x)/x) имеет минимальное значение для каждого возможного x, то оптимальное решающее правило можно описать следующим образом: для данного x вычислить R(di/x) для i=1, …, p и выбрать то di, при котором R(di/x) минимально, т.е. Такое решающее правило называется байесовским решающим правилом, а соответствующее минимальное значение общего риска R(dopt) – байесовским риском. Задача распознавания образов получается, если между элементами множества W и D установим взаимооднозначное соответствие Решение di заключается в отнесении объекта, имеющего изображение х к одному из классов w1, w2,..., wm. ( в этом случае p=m)
50. Классификация с минимальной вероятностью ошибки. Рассм частный случай байесовской процедуры распознавания, когда потери от принятия любого неверного решения одинаковы (любое неверное решение одинаково нежелательно). В этом случае потери можно представить в виде Для заданной L байесовское решающее правило будет обеспечивать минимальную вероятность ошибки классификации.
51. Минимаксное решающее правило.
52. Процедура Неймана-Пирсона. f(x) – ЗР, H0: xÎ w1 или f(x). g(x) – ЗР, H1: xÎ w2 или g(x). Если в результате проведения наблюдения 54. Обучение байесовской процедуры распознавания: оценка неизвестных параметров. 1) вид любого УЗР известен, но ЗР содержат неизвестные параметры. Тогда это параметр-я задача обучения, решение кот-й сводится к оценке неизвестных параметров с помощью статист-х методов (максимального правдоподобия, метод моментов). 2) вид УЗР неизвестен. Обучение: а) представление неизвестного ЗР в виде ряда разложения по системе определённых функций с последующим определением по данным наблюдения оценок коэф-в ряда, отбрасывания ряда. б) минимизация общего риска: R(d)à
Изображение объекта. Виды изображений. Изображение (описание) объекта – отображение объекта на воспринимающие органы (рецепторы) распознающей системы. Если воспринимающие органы фиксированы, то объект и его изображение отождествляются. Виды изображений : 1) объект в виде n-мерного вектора (вектор признаков)
Образ (класс). Пусть задано разбиение множества всех изображений на непересекающиеся подмножества. Каждое такое подмножество назовём классом или образом. Объекты, относящиеся к одному и тому же образу, образуют класс эквивалентности. Иногда под образом понимают множество, элементы которого обладают свойствами рефлексивности и симметричности, но не транзитивности (т.е. отношением толерантности) (для элементов на границе классов).
Популярное:
|
Последнее изменение этой страницы: 2016-07-14; Просмотров: 627; Нарушение авторского права страницы