![]() |
Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Алгоритм обучение перцептрона ⇐ ПредыдущаяСтр 3 из 3
y=(y1, …, yN) -векторы из спрямляющего пр-во Y принадлежащие w1 или w2 Задачи обучения перцептрона: на данной обуч. Посл. найти w=(w1, …, wk) с помощью которой данная обуч. посл. Y классифицируется безошибочно. Алг.: на k-м шаге: если y(k)Î w1 и wT(k)y(k)< =0, то w(k+1)=w(k)+cy(k) если y(k)Î w2 и wT(k)y(k)> =0, то w(k+1)=w(k)-cy(k) иначе w(k+1)=w(k) c -корректирующее приращение Останов. когда вся обуч. последовательность распознана правильно при неизменном в-ре весов. Замечания: 1) приведенный алгоритм реализует принцип подкрепления и наказания. 2) при построении модели предполагалось, что распрямляющая плоскость проходит через 0, но реально м-т оказ-ся иначе. Это испрвляется путем ввода доп. координаты y=(y1, y2,.., yn1, 1). 3) преобразуем обуч. посл-ть Y в тогда алгоритм проще: если Сходимость алгоритма обучения перцептрона. Теорема Новикова. 1). Есть беск. преобраз. обуч. посл., её эл-ты принадлеж. и классу w1 и w2.
2). В спрям. пр-ве сущ. разделяющ. гиперплоскость, т.е. имеется единич. в-р, кот. 3). D< Тогда при началь. w(1)=0, c=1 (корректир. приращ.) алг. обуч. перцеп. сход-ся, причём кол-во исправлений в-ра весов k< = Итеративные процедуры распознав. на основе градиентных методов: минимизация одной ф-ии. Z=(Z1,.., Zn) – вектор признаков. Даны 2 класса: W1 и W2 (m=2). Функ-я f(α, Z)> 0, если Z? W1, < 0- Z? W2, α =(α 1, …, α k)-вектор нек-х параметров. ОП Z=(Z1,.., ZN). Найти вектор α *, для кот-го ∆: f(α *, Zi)> 0, если Zi? W1, для i=1..N; < 0- Zi? W2 для i=1..N. Возможна ситуация: $ одна функция Ф(α; Z1,.., ZN ) такая, что Ф(α *; Z1,.., ZN )=minпоα Ф(α; Z1,.., ZN ) ó ∆. Алгоритм поиска min одной функции: α (K)-значение вектора α на к-том шаге работы алгоритма. α (K+1)= α (K)-сgrad f(α )|по α = α (K), C-величина шага grad. Зададим α (0). Его сходимость зависит от вида функции f, величины шага с. Далее решить задачу мин-и с помощью подходящей модификации метода град-го спуска, т.е. решить задачу ∆. Итеративные процедуры распознав. на основе градиентных методов: совместная минимизация нескольких ф-ий. N ф-ий F( Стратегия совместной минимизации: Берём начальную точку
Другая стратегия совместной минимизации: Берём начальную точку Схема останавливается, когда найдётся Недостаток: Отыскание Алгоритм обучения перцептрона как реализация спец. стратегии совместной минимизации нескольких ф-ий с помощью градиентных методов. Стратегия совместной минимизации: Берём начальную точку
Если все grad=0, то это – точка совместного минимума. Схема останавливается, когда найдётся Покажем, что применение этой стратегии при нек. F даёт алгоритм обучения перцептрона: Z=(z1, …, zn) f(
f( Выберем F(w, б). F(w, Выбираем w(1) и с. w(k+1)=w(k)-c*grad F(w,
F(w, б). F(w, при усл., что в спрям. пр-ве сущ. раздел. гиперпл-ть; wk+1=wk-c* F(w, grad F(w, wk-c*0, 5( wk+1= wk-c*0, 5(- Т.о. выглядит алг. гр. спуска для конкрет. ф-ии F(w, wk(k), wT(k) wk+1= что иное, как алг. обуч. перцеп., wk(k)+c* Популярное:
|
Последнее изменение этой страницы: 2016-07-14; Просмотров: 673; Нарушение авторского права страницы